« Descente du gradient » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
Aucun résumé des modifications
 
(42 versions intermédiaires par 6 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Technique permettant de minimiser les erreurs en calculant le gradient de la [[fonction d'erreur]] par rapport aux paramètres d'un [[modèle d'apprentissage]] en fonction des [[données d'entraînement]].
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />


<br />
La descente du gradient ajuste les paramètres d'un [[modèle d'apprentissage]] de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser l'erreur.


== Définition ==
==Compléments==
Technique de minimisation de la perte en calculant les gradients de la perte pour les paramètres du modèle, en fonction des données d'apprentissage. La descente de gradient ajuste de manière itérative les paramètres afin de trouver progressivement la meilleure combinaison de pondérations et de biais pour minimiser la perte.
« Descente du gradient » ou  « descente de gradient ». En pratique, « descente de gradient » est plus couramment utilisée, mais l'expression « descente du gradient »  est plus précise car elle insiste sur le fait que l'on suit la descente « du » gradient, c'est-à-dire le gradient en tant qu'entité mathématique.


Donc, les deux sont acceptables, mais « descente de gradient » est généralement plus fréquente.
<hr/>
Par abus de langage on utilise « descente de gradient » pour faire référence à la fois à la « '''[[descente de gradient stochastique]]''' » et à la « descente de gradient par mini-lot ». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans '''[[échantillonnage]]''', c'est pourquoi on parle alors de « vraie descente de gradient » (''true gradient descent'').


<br />
==Français==
== Termes privilégiés ==
'''descente du gradient'''
=== descente de gradient===


'''descente de gradient'''


<br />
'''descente du gradient stochastique'''
== Anglais ==


=== gradient descent===
'''descente de gradient stochastique'''  


<br/>
==Anglais==
<br/>
'''gradient descent'''
<br/>
 
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
'''stochastic gradient descent'''
<br/>
 
<br/>
==Sources==
<br/>
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018),'' Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
Source : Fourure, Damien (2017). ''Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur''. thèse de doctorat, Université de Lyon, 178 pages.
 
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]
 
[[Utilisateur:JulieRoy  | Source : Julie Roy, Termino]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 3 avril 2025 à 10:23

Définition

Technique permettant de minimiser les erreurs en calculant le gradient de la fonction d'erreur par rapport aux paramètres d'un modèle d'apprentissage en fonction des données d'entraînement.

La descente du gradient ajuste les paramètres d'un modèle d'apprentissage de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser l'erreur.

Compléments

« Descente du gradient » ou « descente de gradient ». En pratique, « descente de gradient » est plus couramment utilisée, mais l'expression « descente du gradient » est plus précise car elle insiste sur le fait que l'on suit la descente « du » gradient, c'est-à-dire le gradient en tant qu'entité mathématique.

Donc, les deux sont acceptables, mais « descente de gradient » est généralement plus fréquente.


Par abus de langage on utilise « descente de gradient » pour faire référence à la fois à la « descente de gradient stochastique » et à la « descente de gradient par mini-lot ». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans échantillonnage, c'est pourquoi on parle alors de « vraie descente de gradient » (true gradient descent).

Français

descente du gradient

descente de gradient

descente du gradient stochastique

descente de gradient stochastique

Anglais

gradient descent

stochastic gradient descent

Sources

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages.

Source : Google machine learning glossary

Source : Julie Roy, Termino