« SAIL-VL2 » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
Nom propre d'un '''[[modèle fondateur]]''' de '''[[génération image-à-texte]]''' conçu pour une compréhension et un raisonnement multimodaux complets.


== Définition ==
== Complément ==
'''[[Modèle fondateur]]''' de '''[[génération image-à-texte]]''' conçu pour une compréhension et un raisonnement multimodaux complets. Il atteint des performances de pointe dans divers '''[[Test de performance|tests de performance]]''' grâce à la curation des '''[[données]]''', à l'entraînement progressif et à l'architecture de '''[[mixture d'experts]]''' creuse.
Il atteint des performances de pointe dans divers '''[[Test de performance|bancs d'essais]]''' grâce au [[nettoyage des données]]''', à l'entraînement progressif et à l'architecture de '''[[mixture d'experts]]''' creuse.


Voir aussi '''[[entraînement]]'''
Voir aussi '''[[entraînement]]'''
Ligne 20 : Ligne 22 :
[https://huggingface.co/papers/2509.14033  Source : huggingface]
[https://huggingface.co/papers/2509.14033  Source : huggingface]


[[Catégorie:publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 avril 2026 à 20:19

Définition

Nom propre d'un modèle fondateur de génération image-à-texte conçu pour une compréhension et un raisonnement multimodaux complets.

Complément

Il atteint des performances de pointe dans divers bancs d'essais grâce au nettoyage des données, à l'entraînement progressif et à l'architecture de mixture d'experts creuse.

Voir aussi entraînement

Français

SAIL-VL2

Anglais

SAIL-VL2

Vision-language foundation model for comprehensive multimodal understanding and reasoning. It achieves state-of-the-art performance across diverse benchmarks through data curation, progressive training, and sparse MoE architecture.

Sources

Source : arxiv

Source : GitHub

Source : huggingface

Contributeurs: Arianne Arel, Claude Coulombe, wiki