« Autoencodeur de représentations » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''DINO''' == Français == ''' XXXXXXXX''' == Anglais == ''' Representation autoencoder''' '''RAE''' <!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. --> == Sources == [https://arxiv.org/abs/2510.11690 Source : arxiv] [https://github.com/... »)
 
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
xxxxxx
Classe d''''[[Autoencodeur|autoencodeurs]]''' qui réutilisent des encodeurs de représentation dits ''figés'' et '''[[Préentraînement|préentraînés]]''' avec des décodeurs '''[[Entraînement|entraînés]]''' afin de fournir des '''[[Espace latent|espaces latents]]''' de haute fidélité et sémantiquement riche pour les '''[[Réseau autoattentif|réseaux autoattentifs]]''' de '''[[Modèle à bruit statistique|diffusion]]'''.


Voir aussi '''[[DINO]]'''
Voir aussi '''[[DINO]]'''


== Français ==
== Français ==
''' XXXXXXXX'''
''' Autoencodeur de représentations'''
 
''' Autoencodeur de représentations latentes'''
 
''' Autoencodeur d'espace latent'''


== Anglais ==
== Anglais ==
Ligne 14 : Ligne 18 :
'''RAE'''
'''RAE'''


<!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. -->
''A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'''


== Sources ==
== Sources ==
Ligne 20 : Ligne 24 :


[https://github.com/bytetriper/RAE  Source : GitHub]
[https://github.com/bytetriper/RAE  Source : GitHub]
[https://huggingface.co/papers/2510.11690  Source : Hugging Face]


[https://rae-dit.github.io/  Source : RAE-dit]
[https://rae-dit.github.io/  Source : RAE-dit]


[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 10 mars 2026 à 13:37

en construction

Définition

Classe d'autoencodeurs qui réutilisent des encodeurs de représentation dits figés et préentraînés avec des décodeurs entraînés afin de fournir des espaces latents de haute fidélité et sémantiquement riche pour les réseaux autoattentifs de diffusion.

Voir aussi DINO

Français

Autoencodeur de représentations

Autoencodeur de représentations latentes

Autoencodeur d'espace latent

Anglais

Representation autoencoder

RAE

A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.'

Sources

Source : arxiv

Source : GitHub

Source : Hugging Face

Source : RAE-dit

Contributeurs: Arianne Arel, wiki