« Masquage de segment textuel » : différence entre les versions


Aucun résumé des modifications
m (Arianne a déplacé la page Token Masking vers Masquage de segment textuel)
 
(Aucune différence)

Dernière version du 10 juin 2025 à 15:28

Définition

Technique d'apprentissage auto-supervisé pour le préentraînement d’un grand modèle de langues où les segments textuels sont masqués de manière aléatoire par un symbole ou [masque], afin de prédire le segment textuel masqué en fonction de son contexte.

Voir aussi segmentation et insertion de segment textuel

Compléments

Le masquage de segments textuels est une stratégie appartenant à un groupe plus large de techniques de modification de textes (en anglais, text corruption) pour l'apprentissage auto-supervisé qui comprend la permutation de phrases (en anglais, sentence permutation), la rotation de phrases (en anglais, document rotation), l'insertion de segment textuel (en anglais, text infilling) et la suppression de segment textuel (en anglais, token deletion).


En 2018, BERT de Google fut le premier modèle d'apprentissage à utiliser le masquage de segment textuel et l''entraînement autosupervisé pour préentraîner un modèle de langue.

Français

masquage de segment(s) textuel(s)

masquage de segment(s)

Anglais

token masking

text corruption

Sources

Source: Arxiv

Source: TowardsAI

Contributeurs: Arianne , Claude Coulombe