« MiMo » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(3 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
'''[[Grand modèle de langues]]''' pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de '''[[préentraînement]]''' et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de '''[[Segment textuel|segments textuels (segments)]]''' et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l''''[[inférence]]'''.


== Définition ==
Voir aussi '''[[OpenAI]]'''
XXXXXXXXX


== Français ==
== Français ==
Ligne 9 : Ligne 9 :
== Anglais ==
== Anglais ==
'''MiMo-7B'''
'''MiMo-7B'''
<!--MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.-->


MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.
== Sources ==
 
== Source ==
[https://arxiv.org/html/2505.07608v1  Source : arxiv]
[https://arxiv.org/html/2505.07608v1  Source : arxiv]




 
[[Catégorie:Intelligence artificielle‏‎]]
[[Catégorie:vocabulary]]
[[Catégorie:GRAND_LEXIQUE_FRANÇAIS]]

Dernière version du 26 juillet 2025 à 10:28

Définition

Grand modèle de langues pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de préentraînement et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de segments textuels (segments) et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l'inférence.

Voir aussi OpenAI

Français

MiMo-7B

Anglais

MiMo-7B

Sources

Source : arxiv

Contributeurs: Arianne Arel, wiki