« Encodage positionnel » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
XXXXXXXXX
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à maintenir l’ordre séquentiel des mots en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.


== Français ==
== Français ==

Version du 23 mai 2025 à 15:09

en construction

Définition

Méthode des réseaux autoattentifs qui aide à maintenir l’ordre séquentiel des mots en ajoutant des informations sur la position de chaque segment dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.

Français

Encodage positionnel

Anglais

Positional Encoding

PE

Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.

Sources

Source : kdnuggets

Source : TERMIUM Plus

Contributeurs: Arianne , Patrick Drouin, wiki