« Agrégation par ré-échantillonnage avec remise » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
(17 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Méta-algorithme d'apprentissage ensembliste qui ré-échantillonne au hasard avec remise les données d'entraînement pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct.
Méta-algorithme d'[[apprentissage ensembliste]] qui ré-échantillonne au hasard avec remise les [[données d'entraînement]] pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct.


Note: le résultat sera obtenu par le calcul de la moyenne pour une régression (prédiction d'un nombre) ou par un vote majoritaire dans le cas d'une classification (prédiction d'une classe). Typiquement, le ré-échantillonnage ensembliste aide à réduire la variance et le sur-ajustement. L'algorithme de la forêt aléatoire ''(random forest)'' est une extension très utilisée du ré-échantillonnage ensembliste.
==Compléments==
Le ré-échantillonnage désigne le processus de création d'un nouvel échantillon de données à partir d'un jeu de données existant, souvent avec remise.
<hr/>
Note: le résultat sera obtenu par le calcul de la moyenne pour une [[régression]] (prévision d'un nombre) ou par un vote majoritaire dans le cas d'une [[classification]] (prévision d'une classe).  
<hr/>
Typiquement, l'agrégation par ré-échantillonnage avec remise aide à réduire la variance et le [[surapprentissage]]. L'algorithme de la [[forêt aléatoire]] (en anglais, ''random forest'') est une application très utilisée de l'agrégation par ré-échantillonnage avec remise.


Voir: '''[[Ré-échantillonage avec remise]]'''
Voir: '''[[Ré-échantillonnage avec remise]]'''
<hr/>
L'[[empilement de modèles]] (en anglais, stacking) et l'[[amplification de gradient]] (en anglais, ''gradient boosting'') sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).


==Français==
==Français==
'''ré-échantillonnage avec remise ensembliste'''
'''agrégation par ré-échantillonnage avec remise'''
 
'''agrégation ensembliste par ré-échantillonnage avec remise'''


'''agrégation par la méthode de Cyrano'''  
'''agrégation par la méthode de Cyrano'''  


'''agrégation de circuit fermé'''
'''agrégation en circuit fermé'''
 
'''agrégation bootstrap'''
 
'''ré-échantillonnage avec remise ensembliste''' 
 
'''BAGage'''


==Anglais==
==Anglais==
Ligne 18 : Ligne 33 :
'''bootstrap aggregation'''
'''bootstrap aggregation'''


'''Gradient Bagging'''
'''bootstrap aggregating'''


'''gradient bagging'''


==Sources==
==Sources==


[https://www150.statcan.gc.ca/n1/pub/12-001-x/2014002/article/14118-fra.htm  Source: Wang, Jianqiang C ; Jean D. Opsomer et Haonan Wang (2014). ''L’agrégation bootstrap des estimateurs non différenciables dans les enquêtes complexes'', Statistique Canada.]  
[https://french.stackexchange.com/questions/32714/french-translation-of-bagging-in-the-case-of-artificial-intelligence/55774#55774 StackExchange - agrégation par ré-échantillonnage avec remise]
 
[https://www150.statcan.gc.ca/n1/pub/12-001-x/2014002/article/14118-fra.htm  Article - Wang, Jianqiang C ; Jean D. Opsomer et Haonan Wang (2014). ''L’agrégation bootstrap des estimateurs non différenciables dans les enquêtes complexes'', Statistique Canada. - agrégation bootstrap]
 
[https://accromath.uqam.ca/2008/07/comment-compter-les-cerfs/ Article de Christian Genest et Louis-Paul Rivest - Comment compter les cerfs? - méthode de Cyrano. ]


[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]         
[[Utilisateur:Claude COULOMBE | Claude Coulombe, Datafranca.org]]         
    
    
[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Category:Termino 2019]]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 5 mai 2025 à 15:15

Définition

Méta-algorithme d'apprentissage ensembliste qui ré-échantillonne au hasard avec remise les données d'entraînement pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct.

Compléments

Le ré-échantillonnage désigne le processus de création d'un nouvel échantillon de données à partir d'un jeu de données existant, souvent avec remise.


Note: le résultat sera obtenu par le calcul de la moyenne pour une régression (prévision d'un nombre) ou par un vote majoritaire dans le cas d'une classification (prévision d'une classe).


Typiquement, l'agrégation par ré-échantillonnage avec remise aide à réduire la variance et le surapprentissage. L'algorithme de la forêt aléatoire (en anglais, random forest) est une application très utilisée de l'agrégation par ré-échantillonnage avec remise.

Voir: Ré-échantillonnage avec remise


L'empilement de modèles (en anglais, stacking) et l'amplification de gradient (en anglais, gradient boosting) sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).

Français

agrégation par ré-échantillonnage avec remise

agrégation ensembliste par ré-échantillonnage avec remise

agrégation par la méthode de Cyrano

agrégation en circuit fermé

agrégation bootstrap

ré-échantillonnage avec remise ensembliste

BAGage

Anglais

bagging

bootstrap aggregation

bootstrap aggregating

gradient bagging

Sources

StackExchange - agrégation par ré-échantillonnage avec remise

Article - Wang, Jianqiang C ; Jean D. Opsomer et Haonan Wang (2014). L’agrégation bootstrap des estimateurs non différenciables dans les enquêtes complexes, Statistique Canada. - agrégation bootstrap

Article de Christian Genest et Louis-Paul Rivest - Comment compter les cerfs? - méthode de Cyrano.

Claude Coulombe, Datafranca.org