« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(8 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
[[Modèle d'apprentissage]] qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie.  
[[Modèle d'apprentissage]] qui transforme une séquence de [[données]] en entrée vers une nouvelle séquence de données en sortie.  


Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie.  
Typiquement, on a un texte ou une séquence de mots ou de parties de mots en entrée qui produit un autre texte ou une autre séquence de mots ou de parties de mots en sortie.  


== Compléments ==
== Compléments ==
Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties  de longueurs variables.
Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties  de longueurs variables.
<hr/>
<hr/>
Généralement, un modèle séquence à séquence est implémenté avec une architecture encodeur-décodeur en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.  
Généralement, un modèle séquence à séquence est implémenté avec une [[architecture encodeur-décodeur]] en utilisant deux [[réseau récurrent|réseaux de neurones récurrents]], un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.  
<hr/>
<hr/>
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.  
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.  
Ligne 49 : Ligne 49 :
'''seq2seq network'''
'''seq2seq network'''


<small>
==Español==


Source: Henri Lasselin (2018). ''Make text look like speech: disfluency generation using sequence-to-sequence neural networks Domain'', rapport de stages, 44 pages.
''''' modelo secuencia a secuencia '''''


* [https://theses.hal.science/tel-02077011/document - Thèse d'Edwin Simonnet]
''Modelo de aprendizaje que transforma una secuencia de datos de entrada en una nueva secuencia de datos de salida.''
 
''Normalmente, un texto de entrada o una secuencia de palabras o partes de palabras producen un texto de salida o una secuencia de palabras o partes de palabras.''
 
==Sources==
 
[https://en.wikipedia.org/wiki/Seq2seq Source: Wikipedia Seq2seq]
 
[https://theses.hal.science/tel-02077011/document Source: Thèse d'Edwin Simonnet]


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]
{{Modèle:101}}


[[Category:Apprentissage profond]]  
[[Category:Apprentissage profond]]  
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
[[Category:Termino 2019]]
 
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Publication]]
[[Catégorie:101]]

Dernière version du 22 juillet 2025 à 11:36

Définition

Modèle d'apprentissage qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie.

Typiquement, on a un texte ou une séquence de mots ou de parties de mots en entrée qui produit un autre texte ou une autre séquence de mots ou de parties de mots en sortie.

Compléments

Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties de longueurs variables.


Généralement, un modèle séquence à séquence est implémenté avec une architecture encodeur-décodeur en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.


Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.

Français

modèle séquence à séquence

modèle séq.-à-séq.

modèle séq-à-séq

réseau récurrent séquence à séquence

réseau de neurones récurrent séquence à séquence

réseau neuronal récurrent séquence à séquence

architecture séquence à séquence

architecture séq.-à-séq.

réseau séq.-à-séq.

séquence à séquence

séq.-à-séq.

séq-à-séq

Anglais

sequence to sequence model

sequence-to-sequence

seq2seq model

seq2seq architecture

seq2seq network

Español

modelo secuencia a secuencia

Modelo de aprendizaje que transforma una secuencia de datos de entrada en una nueva secuencia de datos de salida.

Normalmente, un texto de entrada o una secuencia de palabras o partes de palabras producen un texto de salida o una secuencia de palabras o partes de palabras.

Sources

Source: Wikipedia Seq2seq

Source: Thèse d'Edwin Simonnet

Source: Termino

101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle » Ligne bleue2.jpg