« MiMo » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :
== Définition ==
== Définition ==
XXXXXXXXX
XXXXXXXXX
Voir aussi '''[[grand modèle de langues]]''', '''[[OpenAI]]''' et '''[[segment]]'''


== Français ==
== Français ==

Version du 3 juin 2025 à 19:02

en construction

Définition

XXXXXXXXX

Voir aussi grand modèle de langues, OpenAI et segment

Français

MiMo-7B

Anglais

MiMo-7B

MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.

Sources

Source : arxiv

Contributeurs: Arianne , wiki