« Autoencodeur de représentations » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| (2 versions intermédiaires par un autre utilisateur non affichées) | |||
| Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent des encodeurs de représentation | Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent à la fois des encodeurs de représentation '''[[Préentraînement|préentraînés]]''', ''figés'' et de petits décodeurs '''[[Entraînement|entraînés]]''' afin de fournir des '''[[Espace latent|espaces latents]]''' de haute fidélité et sémantiquement riches pour les '''[[Réseau autoattentif|réseaux autoattentifs]]''' de '''[[Modèle à bruit statistique|diffusion]]'''. | ||
Voir aussi '''[[DINO]]''' | Voir aussi '''[[DINO]]''' | ||
| Ligne 29 : | Ligne 27 : | ||
[https://rae-dit.github.io/ Source : RAE-dit] | [https://rae-dit.github.io/ Source : RAE-dit] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 30 avril 2026 à 20:15
Définition
Classe d'autoencodeurs qui réutilisent à la fois des encodeurs de représentation préentraînés, figés et de petits décodeurs entraînés afin de fournir des espaces latents de haute fidélité et sémantiquement riches pour les réseaux autoattentifs de diffusion.
Voir aussi DINO
Français
Autoencodeur de représentations
Autoencodeur de représentations latentes
Autoencodeur d'espace latent
Anglais
Representation autoencoder
RAE
A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'
Sources
Contributeurs: Arianne Arel, Claude Coulombe, wiki





