« MiniMax-M1 » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Il s'agit d'un modèle de raisonnement hybride à grande échelle et à ''open-weight'', alimenté par une architecture hybride de '''[[mixture d'experts]]''' combinée à un '''mécanisme d'attention éclair'''. Il est entraîné à l'aide de l''''[[apprentissage par renforcement]]''' à grande échelle sur divers problèmes. MiniMax-M1 est particulièrement adapté aux tâches complexes qui nécessitent le traitement de données volumineuses et une réflexion approfondie. | |||
Voir aussi '''[[mécanisme d'attention]]''' | |||
== Français == | == Français == | ||
Ligne 9 : | Ligne 11 : | ||
== Anglais == | == Anglais == | ||
'''MiniMax-M1''' | '''MiniMax-M1''' | ||
<!--It is an open-weight, large-scale hybrid-attention reasoning model, powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. It is trained using large-scale reinforcement learning (RL) on diverse problems. M1 is particularly suitable for complex tasks that require processing long inputs and extensive thinking.--> | |||
== Sources == | == Sources == |
Version du 8 juillet 2025 à 15:57
en construction
Définition
Il s'agit d'un modèle de raisonnement hybride à grande échelle et à open-weight, alimenté par une architecture hybride de mixture d'experts combinée à un mécanisme d'attention éclair. Il est entraîné à l'aide de l'apprentissage par renforcement à grande échelle sur divers problèmes. MiniMax-M1 est particulièrement adapté aux tâches complexes qui nécessitent le traitement de données volumineuses et une réflexion approfondie.
Voir aussi mécanisme d'attention
Français
MiniMax-M1
Anglais
MiniMax-M1
Sources
