« Réseau neuronal d'espaces d'états structurés » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(20 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==


Classe de [[réseau de neurones profond|réseaux de neurone profonds]] qui empruntent à la fois aux [[Réseau récurrent|réseaux récurrents]], aux [[Réseau convolutif|réseaux convolutifs]] et aux représentations d'espaces d'états et qui sert à traiter plus efficacement de [[Modèle séquence à séquence|longues séquences]].  
Architecture de [[réseau de neurones profond|réseaux de neurones profonds]] qui emprunte à la fois aux [[Réseau récurrent|réseaux récurrents]], aux [[Réseau convolutif|réseaux convolutifs]] et aux représentations d'[[espace des états|espaces d'états]] qui sert à modéliser et à traiter plus efficacement de [[Modèle séquence à séquence|longues séquences]].  


== Compléments ==
== Compléments ==


Mamba est exemple de réseau à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement de longues séquences.
Le concept de base est celui des modèles d'espaces d'états, en anglais SSM (State Space Model) étendus par l'ajout d'une structure pour la modélisation de longues séquences.
 
Pour le distinguer d'un réseau classique d'espaces d'états, nous suggérons d'ajouter l'adjectif « neuronal », ce qui donne ''réseau neuronal d'espaces d'états structuré'' ou ''réseau N2ES''.
 
Aussi, il nous semble que le mot « séquence » s'applique à ce qui est modélisé et non pas à la nature de l'algorithme, mais par abus de langage, on ajoute le mot « séquence » pour obtenir en anglais S4 (S4 Model: Structured State Space Sequence Model). Ce qui donne en français, ''réseau neuronal d'espaces d'états structurés pour séquences'' ou réseau N2E2S qui se prononce réseau N-2E-2S.
 
Ce terme s'applique à la fois aux architectures, aux modèles, aux réseaux de neurones profonds et parfois au type d'apprentissage.
 
<hr/>
Les réseaux neuronaux d'espaces d'états structurés (réseau N2ES) ont été conçus pour surmonter certains problèmes des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement efficace de longues séquences.
 
Il existe un grand nombre de variantes d'architectures RN2E2S: [[Mamba]], HiPPO, LSSL, SaShiMi, DSS, HTTYH, S4D, and S4ND.


==Français==
==Français==


'''réseau à base de séquences d'espaces d'états structurés'''
'''réseau neuronal d'espaces d'états structurés'''  


'''réseau S2ES'''
'''réseau N2ES'''


'''modèle à base de séquences d'espaces d'états structurés'''
'''réseau neuronal d'espaces d'états structurés pour séquences'''


'''modèle S2ES'''
'''réseau N2E2S'''


'''architecture à base de séquences d'espaces d'états structurés'''
'''réseau d'espaces d'états structurés'''


'''architecture S2ES'''
'''modèle neuronal d'espaces d'états structurés'''


'''apprentissage à base de séquences d'espaces d'états structurés'''
'''modèle N2ES'''


'''apprentissage S2ES'''
'''architecture neuronale d'espaces d'états structurés'''


'''architecture N2ES'''


==Anglais==
==Anglais==
Ligne 34 : Ligne 46 :
'''S4 architecture'''
'''S4 architecture'''


'''state space model'''
'''SSM'''
'''state space model learning'''
==Español==
''''' modelo secuencial de espacio de estados estructurado '''''
''Una arquitectura de red neuronal profunda que toma prestado de las redes recurrentes, las redes neuronales de convolución y las representaciones del espacio de estados y se utiliza para modelar y procesar secuencias largas de forma más eficiente.''


==Sources==
==Sources==


[https://en.wikipedia.org/wiki/Mamba_(deep_learning_architecture)  ''Structured state space sequence model'' - Wikipedia]
[https://en.wikipedia.org/wiki/Mamba_(deep_learning_architecture)  ''Structured state space sequence model'' - Wikipedia]
[https://arxiv.org/pdf/2111.00396.pdf  ''Efficiently Modeling Long Sequences with Structured State Spaces'' - arxiv 2022]


[https://www.unite.ai/fr/mamba-red%C3%A9finit-la-mod%C3%A9lisation-de-s%C3%A9quence-et-surpasse-l%27architecture-des-transformateurs/  ''Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs'', Unite.ai]
[https://www.unite.ai/fr/mamba-red%C3%A9finit-la-mod%C3%A9lisation-de-s%C3%A9quence-et-surpasse-l%27architecture-des-transformateurs/  ''Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs'', Unite.ai]
Ligne 43 : Ligne 68 :
[https://fr.wikipedia.org/wiki/Repr%C3%A9sentation_d%27%C3%A9tat  ''Représentation d'état'' - Wikipedia]
[https://fr.wikipedia.org/wiki/Repr%C3%A9sentation_d%27%C3%A9tat  ''Représentation d'état'' - Wikipedia]


[[Catégorie:Publication]]
{{Modèle:101}}
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 22 juillet 2025 à 11:39

Définition

Architecture de réseaux de neurones profonds qui emprunte à la fois aux réseaux récurrents, aux réseaux convolutifs et aux représentations d'espaces d'états qui sert à modéliser et à traiter plus efficacement de longues séquences.

Compléments

Le concept de base est celui des modèles d'espaces d'états, en anglais SSM (State Space Model) étendus par l'ajout d'une structure pour la modélisation de longues séquences.

Pour le distinguer d'un réseau classique d'espaces d'états, nous suggérons d'ajouter l'adjectif « neuronal », ce qui donne réseau neuronal d'espaces d'états structuré ou réseau N2ES.

Aussi, il nous semble que le mot « séquence » s'applique à ce qui est modélisé et non pas à la nature de l'algorithme, mais par abus de langage, on ajoute le mot « séquence » pour obtenir en anglais S4 (S4 Model: Structured State Space Sequence Model). Ce qui donne en français, réseau neuronal d'espaces d'états structurés pour séquences ou réseau N2E2S qui se prononce réseau N-2E-2S.

Ce terme s'applique à la fois aux architectures, aux modèles, aux réseaux de neurones profonds et parfois au type d'apprentissage.


Les réseaux neuronaux d'espaces d'états structurés (réseau N2ES) ont été conçus pour surmonter certains problèmes des modèles autoattentifs (transformers), en particulier pour le traitement efficace de longues séquences.

Il existe un grand nombre de variantes d'architectures RN2E2S: Mamba, HiPPO, LSSL, SaShiMi, DSS, HTTYH, S4D, and S4ND.

Français

réseau neuronal d'espaces d'états structurés

réseau N2ES

réseau neuronal d'espaces d'états structurés pour séquences

réseau N2E2S

réseau d'espaces d'états structurés

modèle neuronal d'espaces d'états structurés

modèle N2ES

architecture neuronale d'espaces d'états structurés

architecture N2ES

Anglais

structured state space sequence model

S4 model

S4 architecture

state space model

SSM

state space model learning

Español

modelo secuencial de espacio de estados estructurado

Una arquitectura de red neuronal profunda que toma prestado de las redes recurrentes, las redes neuronales de convolución y las representaciones del espacio de estados y se utiliza para modelar y procesar secuencias largas de forma más eficiente.

Sources

Structured state space sequence model - Wikipedia

Efficiently Modeling Long Sequences with Structured State Spaces - arxiv 2022

Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs, Unite.ai

Représentation d'état - Wikipedia

101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle » Ligne bleue2.jpg