« Normalisation du gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 13 : | Ligne 13 : | ||
== Sources == | == Sources == | ||
[https://medium.com/@senanahmedli89/normalization-in-neural-networks-and-managing-gradient-descent-challenges-34338628415f - gradient normalization] | |||
[[Catégorie:Publication]] | |||
[[Catégorie: |
Version du 12 août 2025 à 15:04
en construction
Définition
La normalisation du gradient est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les gradients, les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme la disparition ou l'explosion des gradients.
Français
normalisation du gradient
Anglais
gradient normalization
gradient normalisation
Sources
Contributeurs: Patrick Drouin
