« Autoencodeur de représentations » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''DINO''' == Français == ''' XXXXXXXX''' == Anglais == ''' Representation autoencoder''' '''RAE''' <!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. --> == Sources == [https://arxiv.org/abs/2510.11690 Source : arxiv] [https://github.com/... »)
 
Aucun résumé des modifications
 
(6 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
xxxxxx
Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent à la fois des encodeurs de représentation '''[[Préentraînement|préentraînés]]''', ''figés'' et de petits décodeurs '''[[Entraînement|entraînés]]''' afin de fournir des '''[[Espace latent|espaces latents]]''' de haute fidélité et sémantiquement riches pour les '''[[Réseau autoattentif|réseaux autoattentifs]]''' de '''[[Modèle à bruit statistique|diffusion]]'''.


Voir aussi '''[[DINO]]'''
Voir aussi '''[[DINO]]'''


== Français ==
== Français ==
''' XXXXXXXX'''
''' Autoencodeur de représentations'''
 
''' Autoencodeur de représentations latentes'''
 
''' Autoencodeur d'espace latent'''


== Anglais ==
== Anglais ==
Ligne 14 : Ligne 16 :
'''RAE'''
'''RAE'''


<!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. -->
''A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'''


== Sources ==
== Sources ==
Ligne 20 : Ligne 22 :


[https://github.com/bytetriper/RAE  Source : GitHub]
[https://github.com/bytetriper/RAE  Source : GitHub]
[https://huggingface.co/papers/2510.11690  Source : Hugging Face]


[https://rae-dit.github.io/  Source : RAE-dit]
[https://rae-dit.github.io/  Source : RAE-dit]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 avril 2026 à 20:15

Définition

Classe d'autoencodeurs qui réutilisent à la fois des encodeurs de représentation préentraînés, figés et de petits décodeurs entraînés afin de fournir des espaces latents de haute fidélité et sémantiquement riches pour les réseaux autoattentifs de diffusion.

Voir aussi DINO

Français

Autoencodeur de représentations

Autoencodeur de représentations latentes

Autoencodeur d'espace latent

Anglais

Representation autoencoder

RAE

A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'

Sources

Source : arxiv

Source : GitHub

Source : Hugging Face

Source : RAE-dit

Contributeurs: Arianne Arel, Claude Coulombe, wiki