Masquage de segment textuel


Révision datée du 10 juin 2025 à 15:28 par Arianne (discussion | contributions) (Arianne a déplacé la page Token Masking vers Masquage de segment textuel)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Technique d'apprentissage auto-supervisé pour le préentraînement d’un grand modèle de langues où les segments textuels sont masqués de manière aléatoire par un symbole ou [masque], afin de prédire le segment textuel masqué en fonction de son contexte.

Voir aussi segmentation et insertion de segment textuel

Compléments

Le masquage de segments textuels est une stratégie appartenant à un groupe plus large de techniques de modification de textes (en anglais, text corruption) pour l'apprentissage auto-supervisé qui comprend la permutation de phrases (en anglais, sentence permutation), la rotation de phrases (en anglais, document rotation), l'insertion de segment textuel (en anglais, text infilling) et la suppression de segment textuel (en anglais, token deletion).


En 2018, BERT de Google fut le premier modèle d'apprentissage à utiliser le masquage de segment textuel et l''entraînement autosupervisé pour préentraîner un modèle de langue.

Français

masquage de segment(s) textuel(s)

masquage de segment(s)

Anglais

token masking

text corruption

Sources

Source: Arxiv

Source: TowardsAI

Contributeurs: Arianne , Claude Coulombe