« Seuillage de gradient » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Category:Apprentissage automatique]] | [[Category:Apprentissage automatique]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:100]] | |||
==Définition== | ==Définition== |
Version du 4 mars 2020 à 18:09
Définition
Mécanisme couramment utilisé afin d'atténuer le problème d'explosion du gradient en limitant artificiellement la valeur maximale des gradients lors de l'utilisation de la descente de gradient pendant l'entraînement d'un modèle.
Français
écrêtage de gradient loc. nom. masc.
bornement de gradient loc. nom. masc.
seuillage de gradient loc. nom. masc.
Anglais
Gradient Clipping
Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki
