« SAIL-VL2 » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
'''[[Modèle fondateur]]''' de '''[[génération image-à-texte]]''' conçu pour une compréhension et un raisonnement multimodaux complets. Il atteint des performances de pointe dans divers '''[[Test de performance| | Nom propre d'un '''[[Modèle fondateur]]''' de '''[[génération image-à-texte]]''' conçu pour une compréhension et un raisonnement multimodaux complets. | ||
== Complément == | |||
Il atteint des performances de pointe dans divers '''[[Test de performance|bancs d'essais]]''' grâce à la curation des '''[[données]]''', à l'entraînement progressif et à l'architecture de '''[[mixture d'experts]]''' creuse. | |||
Voir aussi '''[[entraînement]]''' | Voir aussi '''[[entraînement]]''' | ||
| Ligne 21 : | Ligne 24 : | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:Publication]] | |||
Version du 28 avril 2026 à 14:38
Définition
Nom propre d'un Modèle fondateur de génération image-à-texte conçu pour une compréhension et un raisonnement multimodaux complets.
Complément
Il atteint des performances de pointe dans divers bancs d'essais grâce à la curation des données, à l'entraînement progressif et à l'architecture de mixture d'experts creuse.
Voir aussi entraînement
Français
SAIL-VL2
Anglais
SAIL-VL2
Vision-language foundation model for comprehensive multimodal understanding and reasoning. It achieves state-of-the-art performance across diverse benchmarks through data curation, progressive training, and sparse MoE architecture.
Sources
Contributeurs: Arianne Arel, Claude Coulombe, wiki





