« MiniMax-M1 » : différence entre les versions
(Page créée avec « ==en construction== == Définition == == Français == ''' MiniMax-M1''' == Anglais == '''MiniMax-M1''' MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model. MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. The model is developed based on our previous MiniMax-Text-01 model, which contains a total of 456 billion parameters with 45.9 billion parameters ac... ») |
Aucun résumé des modifications |
||
(2 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Il s'agit d'un modèle de '''[[raisonnement]]''' hybride à grande échelle et à ''open-weight'', alimenté par une architecture hybride de '''[[mixture d'experts]]''' combinée à un '''mécanisme d'attention éclair'''. Il est entraîné à l'aide de l''''[[apprentissage par renforcement]]''' à grande échelle sur divers problèmes. MiniMax-M1 est particulièrement adapté aux tâches complexes qui nécessitent le traitement de données volumineuses et une réflexion approfondie. | |||
Voir aussi '''[[mécanisme d'attention]]''' | |||
== Français == | == Français == | ||
Ligne 9 : | Ligne 11 : | ||
== Anglais == | == Anglais == | ||
'''MiniMax-M1''' | '''MiniMax-M1''' | ||
<!--It is an open-weight, large-scale hybrid-attention reasoning model, powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. It is trained using large-scale reinforcement learning (RL) on diverse problems. M1 is particularly suitable for complex tasks that require processing long inputs and extensive thinking.--> | |||
== Sources == | |||
[https://arxiv.org/abs/2506.13585 Source : arxiv] | |||
[https://huggingface.co/MiniMaxAI/MiniMax-M1-80k Source : huggingface] | [https://huggingface.co/MiniMaxAI/MiniMax-M1-80k Source : huggingface] | ||
[https://minimax-m1.com/ Source : MiniMax-M1] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Dernière version du 10 juillet 2025 à 12:41
en construction
Définition
Il s'agit d'un modèle de raisonnement hybride à grande échelle et à open-weight, alimenté par une architecture hybride de mixture d'experts combinée à un mécanisme d'attention éclair. Il est entraîné à l'aide de l'apprentissage par renforcement à grande échelle sur divers problèmes. MiniMax-M1 est particulièrement adapté aux tâches complexes qui nécessitent le traitement de données volumineuses et une réflexion approfondie.
Voir aussi mécanisme d'attention
Français
MiniMax-M1
Anglais
MiniMax-M1
Sources
