« Algorithme estimation-maximisation » : différence entre les versions
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes | [[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de [[variable latente|variables latentes]]. | ||
Remarque : cet algorithme itératif comporte deux étapes: | Remarque : cet algorithme itératif comporte deux étapes: | ||
Ligne 8 : | Ligne 8 : | ||
==Français== | ==Français== | ||
'''algorithme EM''' | '''algorithme EM''' | ||
'''algorithme espérance-maximisation''' | '''algorithme espérance-maximisation''' | ||
'''algorithme estimation-maximisation''' | |||
==Anglais== | ==Anglais== | ||
'''EM algorithm''' | '''EM algorithm''' | ||
''' | '''expectation–maximization algorithm''' | ||
'''estimation–aximization algorithm''' | |||
==Sources== | ==Sources== | ||
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation''] | [https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation''] | ||
Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302. | |||
Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196. | |||
Barra, V., Miclet, L., & Cornuéjols, A. (2021). ''Apprentissage artificiel (4e édition)''. Editions Eyrolles. | |||
[https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] | [https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] |
Version du 8 avril 2025 à 15:00
Définition
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes.
Remarque : cet algorithme itératif comporte deux étapes:
- Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
- Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).
Français
algorithme EM
algorithme espérance-maximisation
algorithme estimation-maximisation
Anglais
EM algorithm
expectation–maximization algorithm
estimation–aximization algorithm
Sources
Source : Wikipédia, Algorithme espérance-maximisation
Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Barra, V., Miclet, L., & Cornuéjols, A. (2021). Apprentissage artificiel (4e édition). Editions Eyrolles.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, Patrick Drouin, wiki, Robert Meloche
