« Arbre à gradient dopé » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 5 : | Ligne 5 : | ||
== Compléments == | == Compléments == | ||
Nous recommandons « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'[[apprentissage par renforcement]] et aussi pour favoriser l'emploi de « dopage » comme équivalent | Nous recommandons « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'[[apprentissage par renforcement]] et aussi pour favoriser l'emploi de « dopage » comme équivalent du terme anglais « boosting ». | ||
<hr/> | <hr/> | ||
[[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'arbre à gradient renforcé. | [[Renforcement XG|XGBoost]] ou [[Renforcement XG]] est un très bon exemple d'arbre à gradient renforcé. |
Version du 28 mars 2025 à 09:33
Définition
Algorithme de régression et de classification de type ensembliste à base d'arbres de décision qui utilise le principe du dopage (boosting) pour renforcer le choix de certains arbres en utilisant une fonction de coût optimisée par descente de gradient.
voir : Classificateur à renforcement de gradient
Compléments
Nous recommandons « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'apprentissage par renforcement et aussi pour favoriser l'emploi de « dopage » comme équivalent du terme anglais « boosting ».
XGBoost ou Renforcement XG est un très bon exemple d'arbre à gradient renforcé.
Français
arbre à gradient dopé
arbre à gradient renforcé
arbre à renforcement de gradient
Anglais
gradient boosting classifier
gradient boosting trees
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki
