« Normalisation du gradient » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(Une version intermédiaire par un autre utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'[[entraînement]] en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme l'[[evanescence]] ou l'[[Explosion du gradient|explosion des gradients]].
La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'[[entraînement]] en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme l'[[Évanescence du gradient|evanescence]] ou l'[[Explosion du gradient|explosion des gradients]].


== Français ==
== Français ==
Ligne 17 : Ligne 17 :
[https://theses.hal.science/tel-04636530v1/file/124535_CHERRIERE_2023_archivage.pdf  Cherrière (2023) - normalisation du gradient]
[https://theses.hal.science/tel-04636530v1/file/124535_CHERRIERE_2023_archivage.pdf  Cherrière (2023) - normalisation du gradient]


[[Catégorie:Publication]]
[[Catégorie:GRAND_LEXIQUE_FRANÇAIS]]

Dernière version du 18 août 2025 à 21:50

Définition

La normalisation du gradient est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les gradients, les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme l'evanescence ou l'explosion des gradients.

Français

normalisation du gradient

Anglais

gradient normalization

gradient normalisation

Sources

Medium - gradient normalization

Henwood (2024) - normalisation du gradient

Cherrière (2023) - normalisation du gradient

Contributeurs: Patrick Drouin, wiki