« Amplification de gradient » : différence entre les versions
m (Claude COULOMBE a déplacé la page Amplification de gradient vers Amplification du gradient) |
Aucun résumé des modifications |
||
Ligne 5 : | Ligne 5 : | ||
== Français == | == Français == | ||
'''amplification du / de gradient''' | |||
'''amplification de gradient''' | '''amplification de gradient''' | ||
'''dopage de gradient''' | '''dopage du / de gradient''' | ||
'''renforcement de gradient''' <small>(Attention! Confusion possible avec l'[[apprentissage par renforcement]])</small> | '''renforcement du / de gradient''' <small>(Attention! Confusion possible avec l'[[apprentissage par renforcement]])</small> | ||
== Anglais == | == Anglais == | ||
'''gradient boosting''' | '''gradient boosting''' |
Version du 27 avril 2025 à 05:28
Définition
Technique d'apprentissage automatique ensembliste utilisée dans les tâches de régression et de classification. Elle repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une fonction d'erreur optimisée par descente de gradient.
Compléments
L'idée clé est de définir les résultats cibles pour ce modèle afin de minimiser l'erreur.
Français
amplification du / de gradient
amplification de gradient
dopage du / de gradient
renforcement du / de gradient (Attention! Confusion possible avec l'apprentissage par renforcement)
Anglais
gradient boosting
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki
