« Autoencodeur de représentations » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''DINO''' == Français == ''' XXXXXXXX''' == Anglais == ''' Representation autoencoder''' '''RAE''' <!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. --> == Sources == [https://arxiv.org/abs/2510.11690 Source : arxiv] [https://github.com/... ») |
Aucun résumé des modifications |
||
| (6 versions intermédiaires par 3 utilisateurs non affichées) | |||
| Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent à la fois des encodeurs de représentation '''[[Préentraînement|préentraînés]]''', ''figés'' et de petits décodeurs '''[[Entraînement|entraînés]]''' afin de fournir des '''[[Espace latent|espaces latents]]''' de haute fidélité et sémantiquement riches pour les '''[[Réseau autoattentif|réseaux autoattentifs]]''' de '''[[Modèle à bruit statistique|diffusion]]'''. | |||
Voir aussi '''[[DINO]]''' | Voir aussi '''[[DINO]]''' | ||
== Français == | == Français == | ||
''' | ''' Autoencodeur de représentations''' | ||
''' Autoencodeur de représentations latentes''' | |||
''' Autoencodeur d'espace latent''' | |||
== Anglais == | == Anglais == | ||
| Ligne 14 : | Ligne 16 : | ||
'''RAE''' | '''RAE''' | ||
''A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.''' | |||
== Sources == | == Sources == | ||
| Ligne 20 : | Ligne 22 : | ||
[https://github.com/bytetriper/RAE Source : GitHub] | [https://github.com/bytetriper/RAE Source : GitHub] | ||
[https://huggingface.co/papers/2510.11690 Source : Hugging Face] | |||
[https://rae-dit.github.io/ Source : RAE-dit] | [https://rae-dit.github.io/ Source : RAE-dit] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 30 avril 2026 à 20:15
Définition
Classe d'autoencodeurs qui réutilisent à la fois des encodeurs de représentation préentraînés, figés et de petits décodeurs entraînés afin de fournir des espaces latents de haute fidélité et sémantiquement riches pour les réseaux autoattentifs de diffusion.
Voir aussi DINO
Français
Autoencodeur de représentations
Autoencodeur de représentations latentes
Autoencodeur d'espace latent
Anglais
Representation autoencoder
RAE
A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'
Sources
Contributeurs: Arianne Arel, Claude Coulombe, wiki





