« Amplification de gradient » : différence entre les versions


m (Imeziani a déplacé la page Gradient boosting vers Amplification de gradient)
Aucun résumé des modifications
 
(23 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Technique d'[[apprentissage ensembliste|apprentissage automatique ensembliste]] utilisée dans les tâches de [[régression]] et de [[classification]]. L'amplification de gradient repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une [[fonction d'erreur]] optimisée par [[descente de gradient]].
== Compléments ==
L'idée clé est de redéfinir les résultats cibles pour ce modèle afin de minimiser l'erreur.
<hr/>
L'[[empilement de modèles]] (en anglais, ''stacking'') et l'[[agrégation par ré-échantillonnage avec remise]] (en anglais, ''Bagging'') sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).
== Français ==
'''amplification de / du gradient'''


== Français ==
'''dopage de / du gradient'''
''' XXXXXXXXX '''


'''renforcement de / du gradient''' <small>(Attention! Confusion possible avec l'[[apprentissage par renforcement]])</small>
== Anglais ==
== Anglais ==
''' Gradient boosting'''
'''gradient boosting'''
 
==Sources==
Gradient boosting is a machine learning technique for regression and classification problems, which produces a prediction model in the form of an ensemble of weak prediction models, typically decision trees. It builds the model in a stage-wise fashion like other boosting methods do, and it generalizes them by allowing optimization of an arbitrary differentiable loss function.
 
The idea of gradient boosting originated in the observation by Leo Breiman that boosting can be interpreted as an optimization algorithm on a suitable cost function.[1] Explicit regression gradient boosting algorithms were subsequently developed by Jerome H. Friedman,[2][3] simultaneously with the more general functional gradient boosting perspective of Llew Mason, Jonathan Baxter, Peter Bartlett and Marcus Frean.[4][5] The latter two papers introduced the view of boosting algorithms as iterative functional gradient descent algorithms. That is, algorithms that optimize a cost function over function space by iteratively choosing a function (weak hypothesis) that points in the negative gradient direction. This functional gradient view of boosting has led to the development of boosting algorithms in many areas of machine learning and statistics beyond regression and classification.
<small>
 
[https://en.wikipedia.org/wiki/Gradient_boosting Source : Wikipedia  Machine Learning ]


[https://en.wikipedia.org/wiki/Gradient_boosting Wikipedia - amplification de gradient]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Wikipedia-IA‎]]

Dernière version du 5 mai 2025 à 15:15

Définition

Technique d'apprentissage automatique ensembliste utilisée dans les tâches de régression et de classification. L'amplification de gradient repose sur l'intuition que le meilleur modèle possible, lorsqu'il est combiné avec les meilleurs modèles précédents, minimise l'erreur de prévision globale en utilisant une fonction d'erreur optimisée par descente de gradient.

Compléments

L'idée clé est de redéfinir les résultats cibles pour ce modèle afin de minimiser l'erreur.


L'empilement de modèles (en anglais, stacking) et l'agrégation par ré-échantillonnage avec remise (en anglais, Bagging) sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).

Français

amplification de / du gradient

dopage de / du gradient

renforcement de / du gradient (Attention! Confusion possible avec l'apprentissage par renforcement)

Anglais

gradient boosting

Sources

Wikipedia - amplification de gradient