« Amplification de gradient » : différence entre les versions
m (Claude COULOMBE a déplacé la page Amplification du gradient vers Amplification de gradient par-dessus une redirection) |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique d'[[apprentissage ensembliste|apprentissage automatique ensembliste]] utilisée dans les tâches de [[régression]] et de [[classification]]. | Technique d'[[apprentissage ensembliste|apprentissage automatique ensembliste]] utilisée dans les tâches de [[régression]] et de [[classification]]. L'amplification de gradient repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une [[fonction d'erreur]] optimisée par [[descente de gradient]]. | ||
== Compléments == | == Compléments == | ||
L'idée clé est de | L'idée clé est de redéfinir les résultats cibles pour ce modèle afin de minimiser l'erreur. | ||
<hr/> | |||
L'[[empilement de modèles]] (en anglais, ''stacking'') et le ré-échantillonnage avec remise (en anglais, ''Bagging'') sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles). | |||
== Français == | == Français == | ||
'''amplification de / du gradient''' | '''amplification de / du gradient''' |
Version du 27 avril 2025 à 06:06
Définition
Technique d'apprentissage automatique ensembliste utilisée dans les tâches de régression et de classification. L'amplification de gradient repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une fonction d'erreur optimisée par descente de gradient.
Compléments
L'idée clé est de redéfinir les résultats cibles pour ce modèle afin de minimiser l'erreur.
L'empilement de modèles (en anglais, stacking) et le ré-échantillonnage avec remise (en anglais, Bagging) sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).
Français
amplification de / du gradient
dopage de / du gradient
renforcement de / du gradient (Attention! Confusion possible avec l'apprentissage par renforcement)
Anglais
gradient boosting
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki
