« Encodage positionnel » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(Une version intermédiaire par un autre utilisateur non affichée) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des [[segment textuel|segments textuels]] (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension [[Fenêtre contextuelle|contextuelle]] et d’éviter les problèmes de symétrie. | Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des '''[[segment textuel|segments textuels]]''' (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension '''[[Fenêtre contextuelle|contextuelle]]''' et d’éviter les problèmes de symétrie. | ||
== Français == | == Français == | ||
''' | ''' encodage positionnel ''' | ||
== Anglais == | == Anglais == | ||
''' | '''positional encoding''' | ||
''' PE''' | ''' PE''' |
Dernière version du 27 mai 2025 à 16:03
Définition
Méthode des réseaux autoattentifs qui aide à préserver l’ordre séquentiel des segments textuels (tokens) en ajoutant des informations sur la position de chaque segment dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.
Français
encodage positionnel
Anglais
positional encoding
PE
Sources
Contributeurs: Arianne , Patrick Drouin, wiki
