« Token Masking » : différence entre les versions
(Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''grand modèle de langues''', '''BERT''', '''segmentation''' == Français == ''' XXXXXXXX''' == Anglais == ''' Token Masking''' ''Masking sensitive tokens from users’ data helps reduce the privacy risks and prevent any personal information being leaked or extracted from adversaries. Such token masking task shall be performed without human-in-the-loop since practitioners are not allowe... ») |
Aucun résumé des modifications |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Technique utilisée pour le '''[[préentraînement]]''' d’un modèle où les '''[[Segment textuel|segments textuels]]''' (ou segments) sont masqués de manière aléatoire par un symbole [MASK], comme dans '''[[BERT]]''', afin de prédire le segment en fonction de son contexte. | |||
Voir aussi '''[[grand modèle de langues]]''', '''[[ | Voir aussi '''[[grand modèle de langues]]''', '''[[segmentation]]''' et '''[[Text Infilling]]''' | ||
== Français == | == Français == | ||
''' | ''' Masquage de segment''' | ||
''' Masquage des segments''' | |||
== Anglais == | == Anglais == | ||
''' Token Masking''' | ''' Token Masking''' | ||
== Sources == | == Sources == |
Dernière version du 22 mai 2025 à 14:06
en construction
Définition
Technique utilisée pour le préentraînement d’un modèle où les segments textuels (ou segments) sont masqués de manière aléatoire par un symbole [MASK], comme dans BERT, afin de prédire le segment en fonction de son contexte.
Voir aussi grand modèle de langues, segmentation et Text Infilling
Français
Masquage de segment
Masquage des segments
Anglais
Token Masking
Sources
Contributeurs: Arianne
