« MiMo » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
== Définition == | == Définition == | ||
XXXXXXXXX | XXXXXXXXX | ||
Voir aussi '''[[grand modèle de langues]]''', '''[[OpenAI]]''' et '''[[segment]]''' | |||
== Français == | == Français == |
Version du 3 juin 2025 à 19:02
en construction
Définition
XXXXXXXXX
Voir aussi grand modèle de langues, OpenAI et segment
Français
MiMo-7B
Anglais
MiMo-7B
MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.
Sources
