« Normalisation du gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(7 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme | La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'[[entraînement]] en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme l'[[Évanescence du gradient|evanescence]] ou l'[[Explosion du gradient|explosion des gradients]]. | ||
== Français == | == Français == | ||
Ligne 13 : | Ligne 11 : | ||
== Sources == | == Sources == | ||
[https://medium.com/@senanahmedli89/normalization-in-neural-networks-and-managing-gradient-descent-challenges-34338628415f Medium - gradient normalization] | |||
[https://publications.polymtl.ca/59206/1/2024_Se%CC%81bastienHenwood.pdf Henwood (2024) - normalisation du gradient] | |||
[https://theses.hal.science/tel-04636530v1/file/124535_CHERRIERE_2023_archivage.pdf Cherrière (2023) - normalisation du gradient] | |||
[[Catégorie: | [[Catégorie:Publication]] |
Dernière version du 12 août 2025 à 15:15
Définition
La normalisation du gradient est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les gradients, les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme l'evanescence ou l'explosion des gradients.
Français
normalisation du gradient
Anglais
gradient normalization
gradient normalisation
Sources
Medium - gradient normalization
Contributeurs: Patrick Drouin
