« Seuillage de gradient » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Category:Apprentissage automatique]] | [[Category:Apprentissage automatique]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
[[Category:Scotty2]] | [[Category:Scotty2]] | ||
Ligne 22 : | Ligne 19 : | ||
'''Gradient Clipping''' | '''Gradient Clipping''' | ||
<small> | |||
Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages. | Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages. | ||
[[Utilisateur:Patrickdrouin | Source : Termino ]] | [[Utilisateur:Patrickdrouin | Source : Termino ]] |
Version du 20 juin 2019 à 11:01
Définition
Mécanisme couramment utilisé afin d'atténuer le problème d'explosion du gradient en limitant artificiellement la valeur maximale des gradients lors de l'utilisation de la descente de gradient pendant l'entraînement d'un modèle.
Français
écrêtage de gradient n.m.
bornement de gradient n.m.
Anglais
Gradient Clipping
Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki
