« SAIL-VL2 » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(5 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
Nom propre d'un '''[[modèle fondateur]]''' de '''[[génération image-à-texte]]''' conçu pour une compréhension et un raisonnement multimodaux complets.
== Complément ==
Il atteint des performances de pointe dans divers '''[[Test de performance|bancs d'essais]]''' grâce au [[nettoyage des données]]''', à l'entraînement progressif et à l'architecture de '''[[mixture d'experts]]''' creuse.


== Définition ==
Voir aussi '''[[entraînement]]'''
XXXXXXXXX


== Français ==
== Français ==
Ligne 9 : Ligne 13 :
'''SAIL-VL2'''
'''SAIL-VL2'''


<!--Vision-language foundation model for comprehensive multimodal understanding and reasoning. It achieves state-of-the-art performance across diverse benchmarks through data curation, progressive training, and sparse MoE architecture.-->
''Vision-language foundation model for comprehensive multimodal understanding and reasoning. It achieves state-of-the-art performance across diverse benchmarks through data curation, progressive training, and sparse MoE architecture.''


== Sources ==
== Sources ==
Ligne 18 : Ligne 22 :
[https://huggingface.co/papers/2509.14033  Source : huggingface]
[https://huggingface.co/papers/2509.14033  Source : huggingface]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
[[Catégorie:vocabulaire]]

Dernière version du 30 avril 2026 à 20:19

Définition

Nom propre d'un modèle fondateur de génération image-à-texte conçu pour une compréhension et un raisonnement multimodaux complets.

Complément

Il atteint des performances de pointe dans divers bancs d'essais grâce au nettoyage des données, à l'entraînement progressif et à l'architecture de mixture d'experts creuse.

Voir aussi entraînement

Français

SAIL-VL2

Anglais

SAIL-VL2

Vision-language foundation model for comprehensive multimodal understanding and reasoning. It achieves state-of-the-art performance across diverse benchmarks through data curation, progressive training, and sparse MoE architecture.

Sources

Source : arxiv

Source : GitHub

Source : huggingface

Contributeurs: Arianne Arel, Claude Coulombe, wiki