« Encodage positionnel » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Positional Encoding''' Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences. == Source == [https://www.kdnuggets.com/generative-ai-key-terms-explained Source : kdnuggets] Catégorie:vocabulary »)
 
Aucun résumé des modifications
 
(8 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Méthode des '''[[Réseau autoattentif|réseaux autoattentifs]]''' qui aide à préserver l’ordre séquentiel des '''[[segment textuel|segments textuels]]''' (tokens) en ajoutant des informations sur la position de chaque '''[[Segment textuel|segment]]''' dans la séquence, ce qui leur permet d’avoir une meilleure compréhension '''[[Fenêtre contextuelle|contextuelle]]''' et d’éviter les problèmes de symétrie.


== Français ==
== Français ==
''' XXXXXXXXX '''
''' encodage positionnel '''


== Anglais ==
== Anglais ==
'''Positional Encoding'''
'''positional encoding'''
Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.
 
''' PE'''


== Source ==
<!--Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences.-->
== Sources ==
[https://www.kdnuggets.com/generative-ai-key-terms-explained    Source : kdnuggets]
[https://www.kdnuggets.com/generative-ai-key-terms-explained    Source : kdnuggets]


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=POSITIONAL+ENCODING&index=alt&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus]


[[Catégorie:vocabulary]]
[[Catégorie:Publication]]

Dernière version du 27 mai 2025 à 16:03

Définition

Méthode des réseaux autoattentifs qui aide à préserver l’ordre séquentiel des segments textuels (tokens) en ajoutant des informations sur la position de chaque segment dans la séquence, ce qui leur permet d’avoir une meilleure compréhension contextuelle et d’éviter les problèmes de symétrie.

Français

encodage positionnel

Anglais

positional encoding

PE

Sources

Source : kdnuggets

Source : TERMIUM Plus

Contributeurs: Arianne , Patrick Drouin, wiki