« Mixture d'experts » : différence entre les versions
| Aucun résumé des modifications | Aucun résumé des modifications | ||
| Ligne 3 : | Ligne 3 : | ||
| == Français == | == Français == | ||
| ''' mixture d'experts ''' | '''mixture d'experts''' | ||
| ''' mélange d'experts ''' | '''mélange d'experts''' | ||
| '''combinaison d'experts''' | |||
| == Anglais == | == Anglais == | ||
| ''' mixture of experts''' | '''mixture of experts''' | ||
| '''MoE''' | '''MoE''' | ||
Version du 27 juillet 2023 à 03:23
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.
Français
mixture d'experts
mélange d'experts
combinaison d'experts
Anglais
mixture of experts
MoE
ME
Contributeurs: Claude Coulombe, Imane Meziani, wiki
 
		
		 
	


 
 

 
 

 
  
 