« Arbre à gradient amplifié » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Algorithme de [[régression]] ou de [[classification]] de type [[apprentissage ensembliste|ensembliste]] à base d'[[arbre de décision|arbres de décision]] qui utilise le principe de l'[[amplification]] (en anglais, boosting) pour favoriser le choix de certains arbres en utilisant une fonction | Algorithme de [[régression]] ou de [[classification]] de type [[apprentissage ensembliste|ensembliste]] à base d'[[arbre de décision|arbres de décision]] qui utilise le principe de l'[[amplification]] (en anglais, boosting) pour favoriser le choix de certains arbres en utilisant une [[fonction d'erreur]] optimisée par [[descente de gradient]]. | ||
voir : [[Classificateur à gradient amplifié]] | voir : [[Classificateur à gradient amplifié]] | ||
Ligne 10 : | Ligne 10 : | ||
<hr/> | <hr/> | ||
L'algorithme [[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'algorithme d'arbres à gradient amplifié. | L'algorithme [[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'algorithme d'arbres à gradient amplifié. | ||
<hr/> | |||
La bibliothèque d’apprentissage automatique Scikit-Learn, en langage Python, prend en charge différentes implémentations de classificateurs à gradient amplifié. | |||
==Français== | ==Français== |
Version du 27 avril 2025 à 01:45
Définition
Algorithme de régression ou de classification de type ensembliste à base d'arbres de décision qui utilise le principe de l'amplification (en anglais, boosting) pour favoriser le choix de certains arbres en utilisant une fonction d'erreur optimisée par descente de gradient.
voir : Classificateur à gradient amplifié
Compléments
Nous recommandons l'adjectif « amplifié » ou « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'apprentissage par renforcement et aussi pour favoriser l'emploi du mot « amplifié » comme équivalent du terme anglais « boosting ».
Les arbres de décision à gradient amplifié impliquent la mise en œuvre de plusieurs arbres de décision et l'agrégation de leurs résultats.
L'algorithme XGBoost ou Renforcement XG est un très bon exemple d'algorithme d'arbres à gradient amplifié.
La bibliothèque d’apprentissage automatique Scikit-Learn, en langage Python, prend en charge différentes implémentations de classificateurs à gradient amplifié.
Français
arbre / arbres de décision à gradient amplifié
arbre / arbres à gradient amplifié
arbre / arbres de décision à gradient dopé
arbre / arbres à gradient dopé
arbre / arbres de décision à amplification de gradient
arbre / arbres à amplification de gradient
arbre / arbres de décision à dopage de gradient
arbre / arbres à dopage de gradient
arbre / arbres de décision à gradient renforcé (Ne pas confondre avec l'apprentissage par renforcement)
arbre / arbres à gradient renforcé (Ne pas confondre avec l'apprentissage par renforcement)
arbre / arbres de décision à renforcement de gradient (Ne pas confondre avec l'apprentissage par renforcement)
arbre / arbres à renforcement de gradient (Ne pas confondre avec l'apprentissage par renforcement)
Anglais
gradient-boosted decision tree / trees
gradient-boosted tree / trees
gradient-boosted
gradient boosted decision tree / trees
gradient boosted tree / trees
gradient boosted
gradient-boosting decision tree / trees
gradient-boosting tree / trees
gradient boosting decision tree / trees
gradient boosting tree / trees
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki
