« Arbre à gradient dopé » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(5 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 5 : | Ligne 5 : | ||
== Compléments == | == Compléments == | ||
[[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'arbre à gradient | Nous recommandons « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'[[apprentissage par renforcement]] et aussi pour favoriser l'emploi de « dopage » comme équivalent du terme anglais « boosting ». | ||
<hr/> | |||
[[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'arbre à gradient dopé. | |||
==Français== | ==Français== | ||
'''arbre à gradient dopé''' | |||
'''arbre à gradient renforcé''' | '''arbre à gradient renforcé''' | ||
'''arbre à renforcement de gradient''' | '''arbre à renforcement de gradient''' | ||
Dernière version du 3 avril 2025 à 10:29
Définition
Algorithme de régression et de classification de type ensembliste à base d'arbres de décision qui utilise le principe du dopage (boosting) pour renforcer le choix de certains arbres en utilisant une fonction de coût optimisée par descente de gradient.
voir : Classificateur à renforcement de gradient
Compléments
Nous recommandons « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'apprentissage par renforcement et aussi pour favoriser l'emploi de « dopage » comme équivalent du terme anglais « boosting ».
XGBoost ou Renforcement XG est un très bon exemple d'arbre à gradient dopé.
Français
arbre à gradient dopé
arbre à gradient renforcé
arbre à renforcement de gradient
Anglais
gradient boosting classifier
gradient boosting trees
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki
