« Classificateur à gradient amplifié » : différence entre les versions


(Nouveau terme)
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(36 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Coulombe]]
[[Category:Apprentissage automatique]]Apprentissage automatique<br />
<br />
== Définition ==
== Définition ==
Les [[classificateur|classificateurs]] à gradient amplifié sont un groupe d’algorithmes d’[[apprentissage ensembliste]] qui combinent de nombreux modèles d’apprentissage faibles pour créer un modèle prédictif solide.


<br />
== Compléments ==
Nous recommandons de l'adjectif « amplifié » ou encore « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'[[apprentissage par renforcement]]. Aussi, certains favorisent l'emploi du mot « dopé » comme équivalent du terme anglais « boosting » car il est plus court. 
<hr/>
Les modèles à gradient amplifié sont populaires en raison de leur efficacité à classer des ensembles de données complexes et on les a récemment utilisés pour gagner de nombreux défis en [[science de données]] comme Kaggle.
<hr/>
La bibliothèque d’apprentissage automatique Python, Scikit-Learn, prend en charge différentes implémentations de classificateurs à gradient dopé.
== Français ==


'''classificateur à gradient amplifié'''


== Français ==
'''classificateur à gradient dopé''' <small>(plus concis)</small>
'''classificateur à renforcement de gradient'''
<br />


'''classificateur à gradient renforcé''' <small>(Attention! Confusion possible avec l'[[apprentissage par renforcement]])</small>


== Anglais ==
== Anglais ==
'''gradient-boosted classifier'''
'''gradient boosted classifier'''
'''gradient-boosting classifier'''
'''gradient boosting classifier'''
'''gradient boosting classifier'''
==Sources==
[https://www.calantic.com/fr/artificial-intelligence-medical-imaging-what-how-and-why Bayer / Calantic - classificateur à amplification de gradient]
[https://isi-web.org/glossary/3217  Glossaire ISI - amplification]


<br/>
[https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingRegressor.html#sklearn.ensemble.GradientBoostingRegressor Scikit-Learn, Gradient Boosting Regressor]
<br/>


<br/>
[https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingClassifier.html#sklearn.ensemble.GradientBoostingClassifier Scikit-Learn, Gradient Boosting Classifier]


<br/>
[https://stackabuse.com/gradient-boosting-classifiers-in-python-with-scikit-learn/  Source : stackabuse.com ]
<br/>
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
<br/>

Dernière version du 23 mai 2025 à 11:47

Définition

Les classificateurs à gradient amplifié sont un groupe d’algorithmes d’apprentissage ensembliste qui combinent de nombreux modèles d’apprentissage faibles pour créer un modèle prédictif solide.

Compléments

Nous recommandons de l'adjectif « amplifié » ou encore « dopé » plutôt que « renforcé » pour éviter toute confusion avec l'apprentissage par renforcement. Aussi, certains favorisent l'emploi du mot « dopé » comme équivalent du terme anglais « boosting » car il est plus court.


Les modèles à gradient amplifié sont populaires en raison de leur efficacité à classer des ensembles de données complexes et on les a récemment utilisés pour gagner de nombreux défis en science de données comme Kaggle.


La bibliothèque d’apprentissage automatique Python, Scikit-Learn, prend en charge différentes implémentations de classificateurs à gradient dopé.

Français

classificateur à gradient amplifié

classificateur à gradient dopé (plus concis)

classificateur à gradient renforcé (Attention! Confusion possible avec l'apprentissage par renforcement)

Anglais

gradient-boosted classifier

gradient boosted classifier

gradient-boosting classifier

gradient boosting classifier

Sources

Bayer / Calantic - classificateur à amplification de gradient

Glossaire ISI - amplification

Scikit-Learn, Gradient Boosting Regressor

Scikit-Learn, Gradient Boosting Classifier

Source : stackabuse.com