« Token Masking » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Technique utilisée pour le '''[[préentraînement]]''' d’un modèle où les '''[[Segment textuel|segments textuels]]''' (ou segments) sont masqués de manière aléatoire par un symbole [MASK], comme dans '''[[BERT]]''', afin de prédire le segment en fonction de son contexte. | |||
Voir aussi '''[[grand modèle de langues | Voir aussi '''[[grand modèle de langues]]''', '''[[segmentation]]''' et '''[[Text Infilling]]''' | ||
== Français == | == Français == | ||
''' | ''' Masquage de segment''' | ||
''' Masquage des segments''' | |||
== Anglais == | == Anglais == | ||
''' Token Masking''' | ''' Token Masking''' | ||
== Sources == | == Sources == |
Dernière version du 22 mai 2025 à 14:06
en construction
Définition
Technique utilisée pour le préentraînement d’un modèle où les segments textuels (ou segments) sont masqués de manière aléatoire par un symbole [MASK], comme dans BERT, afin de prédire le segment en fonction de son contexte.
Voir aussi grand modèle de langues, segmentation et Text Infilling
Français
Masquage de segment
Masquage des segments
Anglais
Token Masking
Sources
Contributeurs: Arianne
