« MiMo » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(2 versions intermédiaires par le même utilisateur non affichées)
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
XXXXXXXXX
'''[[Grand modèle de langues]]''' pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de '''[[préentraînement]]''' et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de '''[[Segment textuel|segments textuels (segments)]]''' et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l''''[[inférence]]'''.
 
Voir aussi '''[[OpenAI]]'''


== Français ==
== Français ==
Ligne 9 : Ligne 11 :
== Anglais ==
== Anglais ==
'''MiMo-7B'''
'''MiMo-7B'''
<!--MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.-->


MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including OpenAI's o1-mini.
== Sources ==
 
== Source ==
[https://arxiv.org/html/2505.07608v1  Source : arxiv]
[https://arxiv.org/html/2505.07608v1  Source : arxiv]


[[Catégorie:vocabulary]]
[[Catégorie:vocabulary]]

Dernière version du 15 juin 2025 à 11:26

en construction

Définition

Grand modèle de langues pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de préentraînement et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de segments textuels (segments) et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l'inférence.

Voir aussi OpenAI

Français

MiMo-7B

Anglais

MiMo-7B

Sources

Source : arxiv

Contributeurs: Arianne , wiki