« Normalisation du gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme la [[Problème de la disparition du gradient|disparition]] ou l'[[Explosion du gradient|explosion des gradients]]. | La normalisation du [[gradient]] est une technique utilisée en apprentissage profond pour stabiliser l'[[entraînement]] en redimensionnant les [[gradient|gradients]], les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme la [[Problème de la disparition du gradient|disparition]] ou l'[[Explosion du gradient|explosion des gradients]]. | ||
== Français == | == Français == |
Version du 12 août 2025 à 15:09
Définition
La normalisation du gradient est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les gradients, les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme la disparition ou l'explosion des gradients.
Français
normalisation du gradient
Anglais
gradient normalization
gradient normalisation
Sources
Contributeurs: Patrick Drouin
