« MiMo » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(2 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
'''[[Grand modèle de langues]]''' pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de '''[[préentraînement]]''' et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de '''[[Segment textuel|segments textuels (segments)]]''' et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l''''[[inférence]]'''. | |||
Voir aussi '''[[OpenAI]]''' | |||
== Français == | == Français == | ||
Ligne 9 : | Ligne 9 : | ||
== Anglais == | == Anglais == | ||
'''MiMo-7B''' | '''MiMo-7B''' | ||
<!--MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.--> | |||
== Sources == | == Sources == | ||
Ligne 16 : | Ligne 15 : | ||
[[Catégorie:Intelligence artificielle]] | |||
[[Catégorie: | [[Catégorie:GRAND_LEXIQUE_FRANÇAIS]] |
Dernière version du 26 juillet 2025 à 10:28
Définition
Grand modèle de langues pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de préentraînement et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de segments textuels (segments) et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l'inférence.
Voir aussi OpenAI
Français
MiMo-7B
Anglais
MiMo-7B
Sources
Contributeurs: Arianne Arel, wiki
