« Mini-modèle récurrent » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
 
Modèle basé sur des [[Réseau récurrent|réseaux de neurones récurrents]] qui comporte très peu de paramètres et qui est conçu pour résoudre des problèmes complexes (sodokus, labyrinthes, le banc d'essai ARC-AGI, etc.).


== Compléments ==
== Compléments ==
Dans la foulée de la nouvelle architecture de réseau neuronal appelée modèle de résolution de problèmes hiérarchique ou MRPH, (en anglais, Hierarchical Reasoning Models, HRM), Alexia Jolicoeur-Martineau du laboratoire Samsung SAIL de Montréal a proposé une nouvelle architecture appelée « mini-modèle récursif » ou MMR (en anglais, Tiny Recursive Model, TRM). Cette architecture atteint une généralisation élevée sur des tâches complexes grâce à un petit réseau neuronal à deux couches avec un nombre réduit de paramètres, surpassant ainsi les grands modèles de langues (GML) en termes de performance.


== Français ==
== Français ==
'''mini-réseau récurrent'''  
'''mini-modèle récurrent'''
 
'''mini-modèle récursif'''
 
'''MMR'''
 
'''mini-réseau de neurones récurrent'''


'''mini-réseau récursif'''  
'''mini-réseau de neurones récursif'''


'''MRR'''
'''MRNR''


'''MRRNN'''


== Anglais ==
== Anglais ==

Version du 16 décembre 2025 à 14:55

En construction

Définition

Modèle basé sur des réseaux de neurones récurrents qui comporte très peu de paramètres et qui est conçu pour résoudre des problèmes complexes (sodokus, labyrinthes, le banc d'essai ARC-AGI, etc.).

Compléments

Dans la foulée de la nouvelle architecture de réseau neuronal appelée modèle de résolution de problèmes hiérarchique ou MRPH, (en anglais, Hierarchical Reasoning Models, HRM), Alexia Jolicoeur-Martineau du laboratoire Samsung SAIL de Montréal a proposé une nouvelle architecture appelée « mini-modèle récursif » ou MMR (en anglais, Tiny Recursive Model, TRM). Cette architecture atteint une généralisation élevée sur des tâches complexes grâce à un petit réseau neuronal à deux couches avec un nombre réduit de paramètres, surpassant ainsi les grands modèles de langues (GML) en termes de performance.

Français

mini-modèle récurrent

mini-modèle récursif

MMR

mini-réseau de neurones récurrent

mini-réseau de neurones récursif

'MRNR


Anglais

tiny recursive model

TRM


Sources

Le grand continent - Tiny Recursive Model

arXiv - Tiny Recursive Model

Medium - Tiny Recursive Model