« Token Masking » : différence entre les versions
(Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''grand modèle de langues''', '''BERT''', '''segmentation''' == Français == ''' XXXXXXXX''' == Anglais == ''' Token Masking''' ''Masking sensitive tokens from users’ data helps reduce the privacy risks and prevent any personal information being leaked or extracted from adversaries. Such token masking task shall be performed without human-in-the-loop since practitioners are not allowe... ») |
Aucun résumé des modifications |
||
Ligne 4 : | Ligne 4 : | ||
XXXXXXX | XXXXXXX | ||
Voir aussi '''[[grand modèle de langues]]''', '''[[BERT]]''', '''[[segmentation]]''' | Voir aussi '''[[grand modèle de langues]]''', '''[[BERT]]''', '''[[segmentation]]''' et '''[[entropie croisée]]''' | ||
== Français == | == Français == |
Dernière version du 10 mai 2025 à 13:51
en construction
Définition
XXXXXXX
Voir aussi grand modèle de langues, BERT, segmentation et entropie croisée
Français
XXXXXXXX
Anglais
Token Masking
Masking sensitive tokens from users’ data helps reduce the privacy risks and prevent any personal information being leaked or extracted from adversaries. Such token masking task shall be performed without human-in-the-loop since practitioners are not allowed to have the access to annotate or label private data of users.
Token masking provides privacy protections, however, the resulting masked corpus might not be suitable to be directly used for training NLP models for downstream tasks.
Sources
Contributeurs: Arianne
