« Mixture d'experts » : différence entre les versions
| Aucun résumé des modifications | Aucun résumé des modifications | ||
| Ligne 1 : | Ligne 1 : | ||
| == Définition == | == Définition == | ||
| Technique d'apprentissage automatique  | Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions. | ||
| == Français == | == Français == | ||
| Ligne 17 : | Ligne 17 : | ||
| [https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | [https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | ||
| [https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ] | [https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ] | ||
| [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Version du 27 juillet 2023 à 03:21
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.
Français
mixture d'experts
mélange d'experts
Anglais
mixture of experts
MoE
ME
Contributeurs: Claude Coulombe, Imane Meziani, wiki
 
		
		 
	


 
 

 
 

 
  
 