« Encodage positionnel » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à maintenir l’ordre séquentiel des mots en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des [[segment textuel|segments textuels]] (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension [[Fenêtre contextuelle|contextuelle]] et d’éviter les problèmes de symétrie.


== Français ==
== Français ==
Ligne 11 : Ligne 11 :


''' PE'''
''' PE'''
Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.
 
<!--Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.-->


== Sources ==
== Sources ==
Ligne 18 : Ligne 19 :
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=POSITIONAL+ENCODING&index=alt&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=POSITIONAL+ENCODING&index=alt&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus]


 
[[Catégorie:Publication]]
[[Catégorie:vocabulary]]

Version du 27 mai 2025 à 15:31

en construction

Définition

Méthode des réseaux autoattentifs qui aide à préserver l’ordre séquentiel des segments textuels (tokens) en ajoutant des informations sur la position de chaque segment dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.

Français

Encodage positionnel

Anglais

Positional Encoding

PE


Sources

Source : kdnuggets

Source : TERMIUM Plus

Contributeurs: Arianne , Patrick Drouin, wiki