« MiMo » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
'''[[Grand modèle de langues]]''' pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de '''[[préentraînement]]''' et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de '''[[Segment textuel|segments textuels (segments)]]''' et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l''''[[inférence]]'''. | '''[[Grand modèle de langues]]''' pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de '''[[préentraînement]]''' et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de '''[[Segment textuel|segments textuels (segments)]]''' et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l''''[[inférence]]'''. | ||
Ligne 16 : | Ligne 14 : | ||
[https://arxiv.org/html/2505.07608v1 Source : arxiv] | [https://arxiv.org/html/2505.07608v1 Source : arxiv] | ||
[[Catégorie: | |||
[[Catégorie:Intelligence artificielle]] | |||
[[Catégorie:GRAND_LEXIQUE_FRANÇAIS]] |
Dernière version du 26 juillet 2025 à 10:28
Définition
Grand modèle de langues pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de préentraînement et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de segments textuels (segments) et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l'inférence.
Voir aussi OpenAI
Français
MiMo-7B
Anglais
MiMo-7B
Sources
Contributeurs: Arianne Arel, wiki
