« Réseau récurrent à longue mémoire court terme » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 10 : Ligne 10 :


==Français==
==Français==
'''réseau récurrent à longue mémoire court-terme'''   
'''réseau récurrent à longue mémoire court terme'''   


'''réseau récurrent LMCT'''
'''réseau de neurones récurrent à longue mémoire court terme'''


'''réseau de neurones récurrent à longue mémoire court-terme''' 
'''RR / RNR à longue mémoire court terme'''
 
'''RR / RNR à longue mémoire court-terme'''


'''réseau à mémoire à long et court terme'''
'''réseau à mémoire à long et court terme'''
Ligne 22 : Ligne 20 :
'''réseau de mémoire longue à court terme'''
'''réseau de mémoire longue à court terme'''


'''RNR à longue mémoire court terme'''
'''RR / RNR LMCT'''
 
'''réseau de neurones récurrent LMCT'''


'''réseau LMCT'''
'''réseau LMCT'''
'''RNR LMCT'''


'''LMCT'''
'''LMCT'''

Version du 14 avril 2025 à 18:21

Définition

Un réseau de neurones récurrent à longue mémoire court terme comporte plusieurs mécanismes internes tels qu'une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de données. Ces mécanismes de portes sont aussi conçus pour atténuer le problème de la disparition du gradient.

Voir aussi réseau récurrent

Compléments

En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données.


Puisqu'il s'agirait d'un mécanisme de longue mémoire à court terme, il serait préférable d'éviter la forme « réseau de neurone récurrent à mémoire court et long terme ». Cela est un peut-être un détail technique à éviter. À discuter...

Français

réseau récurrent à longue mémoire court terme

réseau de neurones récurrent à longue mémoire court terme

RR / RNR à longue mémoire court terme

réseau à mémoire à long et court terme

réseau de mémoire longue à court terme

RR / RNR LMCT

réseau LMCT

LMCT

Anglais

long short term memory neural network

long short term memory memory network

long short-term memory

LSTM

Sources

Thèse Claude Coulombe - Réseau récurrent à longue mémoire court terme

GDT - réseau à mémoire à long et court terme

Termium - réseau de mémoire longue à court terme

Goodfellow, Bengio, Courville L'apprentissage profond, Éditeur Florent Massot 2018

Claude Coulombe, Datafranca.org

Termino Categorie:Publication