MiMo


Révision datée du 26 juillet 2025 à 10:28 par Pitpitt (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Grand modèle de langues pour les tâches de raisonnement qui peut être optimisé à la fois lors des étapes de préentraînement et de post-entraînement. Mimo-7B-Base est pré-entraîné sur 25 trillion de segments textuels (segments) et intègre la prédiction de segments multiples en tant qu'objectif d'entraînement supplémentaire, ce qui améliore les performances du modèle et accélère l'inférence.

Voir aussi OpenAI

Français

MiMo-7B

Anglais

MiMo-7B

Sources

Source : arxiv

Contributeurs: Arianne Arel, wiki