« Mistral 7B » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Nom donné à un [[grand modèle de langues]] en [[Paramètres ouverts|paramètres ouverts]] comportant 7 milliards de [[Paramètre|paramètres]] et réalisé par l'entreprise française Mistral.


== Définition ==
==Compléments==
XXXXXXXXX
Mistral est distribué avec une [[licence en paramètres ouverts]] inspirée du logiciel libre.


== Français ==
== Français ==
Ligne 9 : Ligne 10 :
== Anglais ==
== Anglais ==
''' Mistral 7B'''
''' Mistral 7B'''
  The Mistral 7B paper introduces a compact yet powerful language model that, despite its relatively modest size of 7 billion tokens, outperforms its larger counterparts, such as the 13B Llama 2 model, in various benchmarks. (Next to the two-times larger Qwen 14B, Mistral 7B was also the base model used in the winning solutions of this year's NeurIPS LLM Finetuning & Efficiency challenge.)


==Sources==
==Sources==
Ligne 18 : Ligne 16 :




[[Catégorie:ENGLISH]]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]


[[Catégorie:vocabulary]]
]Catégorie:Publucation]]

Dernière version du 29 avril 2025 à 15:19

Définition

Nom donné à un grand modèle de langues en paramètres ouverts comportant 7 milliards de paramètres et réalisé par l'entreprise française Mistral.

Compléments

Mistral est distribué avec une licence en paramètres ouverts inspirée du logiciel libre.

Français

Mistral 7B

Anglais

Mistral 7B

Sources

Source : arxiv

]Catégorie:Publucation]]