« Réseau récurrent à longue mémoire court terme » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(112 versions intermédiaires par 6 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulary]]  Vocabulary<br />
Un réseau de neurones récurrent à longue mémoire court terme comporte plusieurs mécanismes internes tels qu'une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de '''[[données]]'''. Ces mécanismes de portes sont aussi conçus pour atténuer le '''[[problème de la disparition du gradient]]'''.
[[Category:Claude]]Claude<br />
[[Catégorie:Apprentissage profond]] Apprentissage profond


== Définition ==
Voir aussi '''[[réseau récurrent]]'''  
Le terme Long Short-Term Memory, abrégé par LSTM [Hochreiter & Schmidhuber, 1997], désigne une architecture de réseau de neurones récurrent capable d'apprendre et de mémoriser de courtes et de longues séquences de symboles.


Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735‑1780, http://web.eecs.utk.edu/~itamar/courses/ECE-692/Bobby_paper1.pdf
== Compléments ==
En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données. 
<hr/>
Les réseaux de neurones récurrents LMCT ont été proposés en 1991 dans thèse de Sepp Hochreiter sous la supervision de Jürgen Schmidhuber.
<hr/>
Puisqu'il s'agirait d'un mécanisme de longue mémoire à court terme, il serait préférable d'éviter la forme « mémoire court terme et long terme ». Cela est un peut-être un détail technique à éviter. À discuter...


== Termes privilégiés ==
==Français==
<h4>
'''réseau récurrent à longue mémoire court terme'''
Réseau récurrent ou réseau de neurones récurrent  
<poll>
Choisissez parmi ces termes proposés :
à mémoire court et long terme
à mémoire long et court terme
à mémoire courte et longue portée
à mémoire longue et courte portée
à mémoire de courtes et longues séquences
à mémoire de longues et courtes séquences
</poll></h4>
<h4>Discussion:</h4>
Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre original qui est «long et court» ou de l'inverser pour retrouver des expressions plus familières comme «à court et à long terme».<br/>
Note: À voir avec un linguiste / terminologue: à mémoire pour, à mémoire de, à mémoire à, à mémoire.


== Anglais ==
'''réseau de neurones récurrent à longue mémoire court terme''' 
 
'''RR / RNR à longue mémoire court terme'''
 
'''réseau à mémoire à long et court terme'''
 
'''réseau de mémoire longue à court terme'''
 
'''réseau récurrent à mémoire long terme''' 
 
'''RR / RNR LMCT'''
 
'''réseau LMCT'''
 
'''LMCT'''
 
==Anglais==
 
'''long short term memory recurrent network'''
 
'''long short term memory recurrent neural network'''
 
'''long short term memory network'''
 
'''long short-term memory'''


'''LSTM'''
'''LSTM'''


Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies.
==Sources==
• Long Short-Term Memory
 
• Understanding LSTM Networks
[https://r-libre.teluq.ca/1894/1/Th%C3%A8se_Coulombe.pdf Thèse de Claude Coulombe - Réseau récurrent à longue mémoire court terme]
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
 
[https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26560357/reseau-a-memoire-a-long-et-court-terme GDT - réseau à mémoire à long et court terme]
 
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=LSTM&index=alt&codom2nd_wet=1#resultrecs Termium - réseau de mémoire longue à court terme]
 
[https://datafranca.org/wiki/Cat%C3%A9gorie:App-profond-livre Goodfellow, Bengio, Courville'' L'apprentissage profond'',  Éditeur Florent Massot  2018 - mémoire court et long terme]
 
[https://www.bioinf.jku.at/publications/older/3804.pdf Thèse de Sepp Hochreiter - Untersuchungen zu dynamischen neuronalen Netzen]
[[Utilisateur:Claude COULOMBE | Claude Coulombe, Datafranca.org]]       
 
[[Utilisateur:Patrickdrouin  | Termino]]
 
[[Catégorie:Apprentissage profond]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
[[Categorie:Publication]]

Dernière version du 14 avril 2025 à 18:44

Définition

Un réseau de neurones récurrent à longue mémoire court terme comporte plusieurs mécanismes internes tels qu'une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de données. Ces mécanismes de portes sont aussi conçus pour atténuer le problème de la disparition du gradient.

Voir aussi réseau récurrent

Compléments

En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données.


Les réseaux de neurones récurrents LMCT ont été proposés en 1991 dans thèse de Sepp Hochreiter sous la supervision de Jürgen Schmidhuber.


Puisqu'il s'agirait d'un mécanisme de longue mémoire à court terme, il serait préférable d'éviter la forme « mémoire court terme et long terme ». Cela est un peut-être un détail technique à éviter. À discuter...

Français

réseau récurrent à longue mémoire court terme

réseau de neurones récurrent à longue mémoire court terme

RR / RNR à longue mémoire court terme

réseau à mémoire à long et court terme

réseau de mémoire longue à court terme

réseau récurrent à mémoire long terme

RR / RNR LMCT

réseau LMCT

LMCT

Anglais

long short term memory recurrent network

long short term memory recurrent neural network

long short term memory network

long short-term memory

LSTM

Sources

Thèse de Claude Coulombe - Réseau récurrent à longue mémoire court terme

GDT - réseau à mémoire à long et court terme

Termium - réseau de mémoire longue à court terme

Goodfellow, Bengio, Courville L'apprentissage profond, Éditeur Florent Massot 2018 - mémoire court et long terme

Thèse de Sepp Hochreiter - Untersuchungen zu dynamischen neuronalen Netzen

Claude Coulombe, Datafranca.org

Termino Categorie:Publication