« Representation autoencoder » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''DINO''' == Français == ''' XXXXXXXX''' == Anglais == ''' Representation autoencoder''' '''RAE''' <!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. --> == Sources == [https://arxiv.org/abs/2510.11690 Source : arxiv] [https://github.com/... ») |
Aucun résumé des modifications |
||
| Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent des encodeurs de représentation dits ''figés'' et '''[[Préentraînement|préentraînés]]''' avec des décodeurs '''[[Entraînement|entraînés]]''' afin de fournir des '''[[Espace latent|espaces latents]]''' de haute fidélité et sémantiquement riche pour les '''[[Réseau autoattentif|réseaux autoattentifs]]''' de '''[[Modèle à bruit statistique|diffusion]]'''. | |||
Voir aussi '''[[DINO]]''' | Voir aussi '''[[DINO]]''' | ||
== Français == | == Français == | ||
''' | ''' Autoencodeur de représentations''' | ||
''' Autoencodeur de représentations latentes''' | |||
''' Autoencodeur d'espace latent''' | |||
== Anglais == | == Anglais == | ||
| Ligne 14 : | Ligne 18 : | ||
'''RAE''' | '''RAE''' | ||
''A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.''' | |||
== Sources == | == Sources == | ||
| Ligne 20 : | Ligne 24 : | ||
[https://github.com/bytetriper/RAE Source : GitHub] | [https://github.com/bytetriper/RAE Source : GitHub] | ||
[https://huggingface.co/papers/2510.11690 Source : Hugging Face] | |||
[https://rae-dit.github.io/ Source : RAE-dit] | [https://rae-dit.github.io/ Source : RAE-dit] | ||
[[Catégorie: | [[Catégorie:publication]] | ||
Dernière version du 10 mars 2026 à 13:37
en construction
Définition
Classe d'autoencodeurs qui réutilisent des encodeurs de représentation dits figés et préentraînés avec des décodeurs entraînés afin de fournir des espaces latents de haute fidélité et sémantiquement riche pour les réseaux autoattentifs de diffusion.
Voir aussi DINO
Français
Autoencodeur de représentations
Autoencodeur de représentations latentes
Autoencodeur d'espace latent
Anglais
Representation autoencoder
RAE
A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'
Sources
Contributeurs: Arianne Arel





