« Amplification de gradient » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Technique d'[[apprentissage ensembliste|apprentissage automatique ensembliste]] utilisée dans les tâches de [[régression]] et de [[classification]]. Elle repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une [[fonction d'erreur]] optimisée par [[descente de gradient]].  
Technique d'[[apprentissage ensembliste|apprentissage automatique ensembliste]] utilisée dans les tâches de [[régression]] et de [[classification]]. Elle repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une [[fonction d'erreur]] optimisée par [[descente de gradient]].  
 
== Compléments ==
L'idée clé est de définir les résultats cibles pour ce modèle afin de minimiser l'erreur.  
L'idée clé est de définir les résultats cibles pour ce modèle afin de minimiser l'erreur.  



Version du 27 avril 2025 à 01:48

Définition

Technique d'apprentissage automatique ensembliste utilisée dans les tâches de régression et de classification. Elle repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une fonction d'erreur optimisée par descente de gradient.

Compléments

L'idée clé est de définir les résultats cibles pour ce modèle afin de minimiser l'erreur.

Français

amplification de gradient

dopage de gradient

renforcement de gradient (Attention! confusion possible avec l'apprentissage par renforcement)

Anglais

gradient boosting

Sources

Wikipedia - amplification de gradient