« Encodage positionnel » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 16 : | Ligne 16 : | ||
[https://www.kdnuggets.com/generative-ai-key-terms-explained Source : kdnuggets] | [https://www.kdnuggets.com/generative-ai-key-terms-explained Source : kdnuggets] | ||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=POSITIONAL+ENCODING&index=alt&codom2nd_wet=1#resultrecs Source : | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=POSITIONAL+ENCODING&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] | ||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Version du 23 mai 2025 à 14:59
en construction
Définition
XXXXXXXXX
Français
Encodage positionnel
Anglais
Positional Encoding
PE
Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.
Sources
Contributeurs: Arianne , Patrick Drouin, wiki
