« Algorithme estimation-maximisation » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(38 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Domaine==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty2]]


[[Category: Termino 2019]]
==Définition==
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de [[variable latente|variables latentes]].


<br />
==Compléments==
Cet algorithme est l'archétype de l'algorithme d'[[apprentissage non supervisé]].


==Définition==
Remarque : cet algorithme itératif comporte deux étapes:  
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. <br>
# Une étape d’évaluation de l’espérance (E) de la fonction de [[vraisemblance]]. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la [[Maximum de vraisemblance|vraisemblance]] maximale.  
<br />
# Une étape de maximisation (M) de la fonction de [[vraisemblance]] trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).  
Note : <br />
Cet algorithme itératif comporte deux étapes: 1) Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale. 2) Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus). Puisque l’algorithme EM converge vers un maximum local, pour trouver un maximum global il faut reprendre le calcul un grand nombre de fois avec des paramètres initiaux différents. De nombreuses variantes de l'algorithme initialement proposé par Dempster (1977) ont été élaborées par la suite, donnant ainsi naissance à une famille d'algorithmes. Par exemple, l'algorithme de groupage des K-moyennes peut être considéré comme en faisant partie.
<br />
<br />
[[Fichier:EM algorithm.gif]]
<br />
<br />
<br />
<br />
<br />
<br />


[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, consulté le 3 juin 2019]<br />
==Français==


[[Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.]]<br />
'''algorithme EM''' 


[[Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.]]<br />
'''algorithme espérance-maximisation''' 
<br />


==Français==
'''algorithme estimation-maximisation'''
'''algorithme EM '''


'''algorithme espérance-maximisation '''
'''algorithme d'estimatiom-maximation'''


==Anglais==
==Anglais==
'''EM algorithm '''
'''EM algorithm'''
 
'''expectation–maximization algorithm'''
 
'''estimation–aximization algorithm'''
 
==Sources==
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Wikipédia, ''Algorithme espérance-maximisation'']
 
Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
 
Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
 
Barra, V., Miclet, L., & Cornuéjols, A. (2021). ''Apprentissage artificiel (4e édition)''. Editions Eyrolles.


'''Expectation–Maximization algorithm'''
[https://isi.cbs.nl/glossary/term1158.htm ISI ]


<br />
[https://isi-web.org/glossary/479. ISI - algorithme d'estimatiom-maximation / estimation-maximisation algorithm]
<br />


[[Utilisateur:Patrickdrouin  | Termino]]


<br />
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[https://datafranca.org/lexique/algorithme-em/ ''Publié : datafranca.org'']
[[Catégorie:Apprentissage profond]]
<br />
[[Catégorie: Termino 2019]]

Dernière version du 8 avril 2025 à 15:14

Définition

Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes.

Compléments

Cet algorithme est l'archétype de l'algorithme d'apprentissage non supervisé.

Remarque : cet algorithme itératif comporte deux étapes:

  1. Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
  2. Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).

Français

algorithme EM

algorithme espérance-maximisation

algorithme estimation-maximisation

algorithme d'estimatiom-maximation

Anglais

EM algorithm

expectation–maximization algorithm

estimation–aximization algorithm

Sources

Wikipédia, Algorithme espérance-maximisation

Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.

Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.

Barra, V., Miclet, L., & Cornuéjols, A. (2021). Apprentissage artificiel (4e édition). Editions Eyrolles.

ISI

ISI - algorithme d'estimatiom-maximation / estimation-maximisation algorithm

Termino