« Modèle encodeur-décodeur » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(11 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Un modèle | Un modèle ou architecture encodeur-décodeur sert à implémenter une transformation [[Modèle séquence à séquence|séquence à séquence]] en utilisant deux [[réseau de neurones récurrent|réseaux de neurones récurrents]], un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | ||
Typiquement, on a un texte | Typiquement, on a un texte ou une séquence de mots ou de parties de mots en entrée qui produit un autre texte ou une autre séquence de mots ou de parties de mots en sortie. | ||
Voir aussi [[modèle]] | |||
== Compléments == | == Compléments == | ||
Ligne 30 : | Ligne 32 : | ||
'''architecture encodeur-décodeur''' | '''architecture encodeur-décodeur''' | ||
'''architecture encodeur décodeur''' | '''architecture encodeur décodeur''' | ||
'''architecture de réseau de neurones récurrent encodeur-décodeur''' | |||
'''architecture de réseau récurrent encodeur-décodeur''' | |||
'''architecture RNR encodeur-décodeur''' | |||
'''encodeur-décodeur''' | '''encodeur-décodeur''' | ||
Ligne 43 : | Ligne 51 : | ||
'''encoder decoder architecture''' | '''encoder decoder architecture''' | ||
'''RNN encoder decoder''' | |||
'''RNN encoder-decoder''' | |||
'''encoder decoder RNN''' | |||
'''encoder-decoder RNN''' | |||
'''recurrent encoder-decoder''' | '''recurrent encoder-decoder''' | ||
Ligne 52 : | Ligne 68 : | ||
'''encoder decoder''' | '''encoder decoder''' | ||
==Sources== | |||
[https://arxiv.org/pdf/1406.1078.pdf Source: arxiv - Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation - MILA UdeM - juin 2014 ] | |||
[https://papyrus.bib.umontreal.ca/xmlui/bitstream/handle/1866/23440/Serban_Iulian_Vlad_2019_these.pdf Source: Thèse de Iulian Vlad Serban - MILA UdeM] | |||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[ | [[Catégorie:101]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 17 janvier 2025 à 11:02
Définition
Un modèle ou architecture encodeur-décodeur sert à implémenter une transformation séquence à séquence en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Typiquement, on a un texte ou une séquence de mots ou de parties de mots en entrée qui produit un autre texte ou une autre séquence de mots ou de parties de mots en sortie.
Voir aussi modèle
Compléments
Une point clé du modèle encodeur-décodeur est sa capacité de traiter des entrées et des sorties de longueurs variables.
Un bon exemple d'utilisation d'un modèle encodeur-décodeur est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.
Des travaux pionniers sur l'architecture encodeur-décodeur ont été réalisés au laboratoire MILA de l'Université de Montréal sous la direction de Yoshua Bengio.
Français
modèle encodeur-décodeur
modèle encodeur décodeur
réseau récurrent encodeur-décodeur
réseau récurrent encodeur décodeur
réseau de neurones récurrent encodeur-décodeur
réseau neuronal récurrent encodeur-décodeur
réseau encodeur-décodeur
réseau encodeur décodeur
architecture encodeur-décodeur
architecture encodeur décodeur
architecture de réseau de neurones récurrent encodeur-décodeur
architecture de réseau récurrent encodeur-décodeur
architecture RNR encodeur-décodeur
encodeur-décodeur
Anglais
encoder-decoder model
encoder decoder model
encoder-decoder architecture
encoder decoder architecture
RNN encoder decoder
RNN encoder-decoder
encoder decoder RNN
encoder-decoder RNN
recurrent encoder-decoder
recurrent encoder decoder
encoder-decoder
encoder decoder
Sources
Contributeurs: Arianne , Claude Coulombe, wiki
