« Agrégation par ré-échantillonnage avec remise » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Méta-algorithme d'apprentissage ensembliste qui ré-échantillonne au hasard avec remise les données d'entraînement pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct. | Méta-algorithme d'[[apprentissage ensembliste]] qui ré-échantillonne au hasard avec remise les [[données d'entraînement]] pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct. | ||
==Compléments== | ==Compléments== | ||
Le ré-échantillonnage désigne le processus de création d'un nouvel échantillon de données à partir d'un jeu de données existant, souvent avec remise. | |||
<hr/> | <hr/> | ||
Note: le résultat sera obtenu par le calcul de la moyenne pour une régression (prévision d'un nombre) ou par un vote majoritaire dans le cas d'une classification (prévision d'une classe). | Note: le résultat sera obtenu par le calcul de la moyenne pour une [[régression]] (prévision d'un nombre) ou par un vote majoritaire dans le cas d'une [[classification]] (prévision d'une classe). | ||
<hr/> | <hr/> | ||
Typiquement, le ré-échantillonnage ensembliste aide à réduire la variance et le | Typiquement, le ré-échantillonnage ensembliste aide à réduire la variance et le [[surajustement]]. L'algorithme de la [[forêt aléatoire]] (en anglais, ''random forest'') est une extension très utilisée du ré-échantillonnage avec remise ensembliste. | ||
Voir: '''[[Ré-échantillonnage avec remise]]''' | Voir: '''[[Ré-échantillonnage avec remise]]''' | ||
<hr/> | <hr/> | ||
L'empilement de modèles (en anglais, stacking) et l'[[amplification de gradient]] (en anglais, ''gradient boosting'') sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles). | L'[[empilement de modèles]] (en anglais, stacking) et l'[[amplification de gradient]] (en anglais, ''gradient boosting'') sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles). | ||
==Français== | ==Français== |
Version du 27 avril 2025 à 07:00
Définition
Méta-algorithme d'apprentissage ensembliste qui ré-échantillonne au hasard avec remise les données d'entraînement pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct.
Compléments
Le ré-échantillonnage désigne le processus de création d'un nouvel échantillon de données à partir d'un jeu de données existant, souvent avec remise.
Note: le résultat sera obtenu par le calcul de la moyenne pour une régression (prévision d'un nombre) ou par un vote majoritaire dans le cas d'une classification (prévision d'une classe).
Typiquement, le ré-échantillonnage ensembliste aide à réduire la variance et le surajustement. L'algorithme de la forêt aléatoire (en anglais, random forest) est une extension très utilisée du ré-échantillonnage avec remise ensembliste.
Voir: Ré-échantillonnage avec remise
L'empilement de modèles (en anglais, stacking) et l'amplification de gradient (en anglais, gradient boosting) sont d'autres méthodes pour combiner les résultats d'ensembles de modèles (par exemple, à partir de différents jeux de données utilisés pour l'entraînement des modèles).
Français
ré-échantillonnage avec remise ensembliste
ré-échantillonnage avec remise
agrégation par la méthode de Cyrano
agrégation en circuit fermé
Anglais
bagging
bootstrap aggregation
gradient bagging
Sources
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki
