« Réseau récurrent à longue mémoire court terme » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(127 versions intermédiaires par 6 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== | ==Définition== | ||
[[ | Un réseau de neurones récurrent à longue mémoire court terme comporte plusieurs mécanismes internes tels qu'une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de '''[[données]]'''. Ces mécanismes de portes sont aussi conçus pour atténuer le '''[[problème de la disparition du gradient]]'''. | ||
[[ | Voir aussi '''[[réseau récurrent]]''' | ||
== | == Compléments == | ||
En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données. | |||
<hr/> | |||
Les réseaux de neurones récurrents LMCT ont été proposés en 1991 dans thèse de Sepp Hochreiter sous la supervision de Jürgen Schmidhuber. | |||
<hr/> | |||
Puisqu'il s'agirait d'un mécanisme de longue mémoire à court terme, il serait préférable d'éviter la forme « mémoire court terme et long terme ». Cela est un peut-être un détail technique à éviter. À discuter... | |||
==Français== | |||
'''réseau récurrent à longue mémoire court terme''' | |||
'''réseau de neurones récurrent à longue mémoire court terme''' | |||
'''RR / RNR à longue mémoire court terme''' | |||
'''réseau à mémoire à long et court terme''' | |||
'''réseau de mémoire longue à court terme''' | |||
'''réseau récurrent à mémoire long terme''' | |||
'''RR / RNR LMCT''' | |||
'''réseau LMCT''' | |||
'''LMCT''' | |||
==Anglais== | |||
'''long short term memory recurrent network''' | |||
'''long short term memory recurrent neural network''' | |||
'''long short term memory network''' | |||
'''long short-term memory''' | |||
'''LSTM''' | |||
==Sources== | |||
[https://r-libre.teluq.ca/1894/1/Th%C3%A8se_Coulombe.pdf Thèse de Claude Coulombe - Réseau récurrent à longue mémoire court terme] | |||
[https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26560357/reseau-a-memoire-a-long-et-court-terme GDT - réseau à mémoire à long et court terme] | |||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=LSTM&index=alt&codom2nd_wet=1#resultrecs Termium - réseau de mémoire longue à court terme] | |||
[https://datafranca.org/wiki/Cat%C3%A9gorie:App-profond-livre Goodfellow, Bengio, Courville'' L'apprentissage profond'', Éditeur Florent Massot 2018 - mémoire court et long terme] | |||
[https://www.bioinf.jku.at/publications/older/3804.pdf Thèse de Sepp Hochreiter - Untersuchungen zu dynamischen neuronalen Netzen] | |||
[[Utilisateur:Claude COULOMBE | Claude Coulombe, Datafranca.org]] | |||
[[Utilisateur:Patrickdrouin | Termino]] | |||
[[Catégorie:Apprentissage profond]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:101]] | |||
[[Categorie:Publication]] |
Dernière version du 14 avril 2025 à 18:44
Définition
Un réseau de neurones récurrent à longue mémoire court terme comporte plusieurs mécanismes internes tels qu'une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de données. Ces mécanismes de portes sont aussi conçus pour atténuer le problème de la disparition du gradient.
Voir aussi réseau récurrent
Compléments
En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données.
Les réseaux de neurones récurrents LMCT ont été proposés en 1991 dans thèse de Sepp Hochreiter sous la supervision de Jürgen Schmidhuber.
Puisqu'il s'agirait d'un mécanisme de longue mémoire à court terme, il serait préférable d'éviter la forme « mémoire court terme et long terme ». Cela est un peut-être un détail technique à éviter. À discuter...
Français
réseau récurrent à longue mémoire court terme
réseau de neurones récurrent à longue mémoire court terme
RR / RNR à longue mémoire court terme
réseau à mémoire à long et court terme
réseau de mémoire longue à court terme
réseau récurrent à mémoire long terme
RR / RNR LMCT
réseau LMCT
LMCT
Anglais
long short term memory recurrent network
long short term memory recurrent neural network
long short term memory network
long short-term memory
LSTM
Sources
Thèse de Claude Coulombe - Réseau récurrent à longue mémoire court terme
GDT - réseau à mémoire à long et court terme
Termium - réseau de mémoire longue à court terme
Thèse de Sepp Hochreiter - Untersuchungen zu dynamischen neuronalen Netzen
Contributeurs: Arianne , Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki
