« Encodage positionnel » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(Une version intermédiaire par un autre utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des [[segment textuel|segments textuels]] (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension [[Fenêtre contextuelle|contextuelle]] et d’éviter les problèmes de symétrie.
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des '''[[segment textuel|segments textuels]]''' (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension '''[[Fenêtre contextuelle|contextuelle]]''' et d’éviter les problèmes de symétrie.


== Français ==
== Français ==
''' Encodage positionnel '''
''' encodage positionnel '''


== Anglais ==
== Anglais ==
'''Positional Encoding'''
'''positional encoding'''


''' PE'''
''' PE'''

Dernière version du 27 mai 2025 à 16:03

Définition

Méthode des réseaux autoattentifs qui aide à préserver l’ordre séquentiel des segments textuels (tokens) en ajoutant des informations sur la position de chaque segment dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.

Français

encodage positionnel

Anglais

positional encoding

PE

Sources

Source : kdnuggets

Source : TERMIUM Plus

Contributeurs: Arianne , Patrick Drouin, wiki