« Paramètres ouverts » : différence entre les versions


(Page créée avec « ==Définition== Mode d'innovation selon lequel les résultats, les mécanismes, les méthodologies, etc. sont rendus publics et distribués gratuitement. == Compléments == En intelligence artificielle, certains grands modèles de langues sont distribués sous la bannière de l'innovation ouverte. Cependant, il est important de noter que seuls les paramètres (poids) des modèles sont diffusés à la communauté sous une licence avec... »)
 
Aucun résumé des modifications
 
(10 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Mode d'innovation selon lequel les résultats, les mécanismes, les méthodologies, etc. sont rendus publics et distribués gratuitement.
[[Poids]] (ou [[poids|paramètres]]) et [[hyperparamètres]] distribués en licence ouverte qui définissent l'[[Architecture de réseau de neurones|architecture d'un modèle]] [[Modèle préentraîné|préentraîné]] et qui typiquement résultent de l'entraînement d'un [[réseau neuronal]] sur des données.


== Compléments ==
== Compléments ==
En intelligence artificielle, certains [[grand modèle de langues|grands modèles de langues]] sont distribués sous la bannière de l'innovation ouverte. Cependant, il est important de noter que seuls les paramètres (poids) des modèles sont diffusés à la communauté sous une licence avec certaines contraintes commerciales. Les algorithmes d'entraînement et les corpus nécessaires à reproduction des modèles ne sont pas partagés. Dans un tel cas, on parlera de ''licence en paramètres ouverts''.
Certains [[grand modèle de langues|grands modèles de langues]] [[Modèle préentraîné|préentraînés]] sont distribués sous la bannière de l'[[innovation ouverte]]. Cependant, il est important de noter que seuls les [[Paramètre|paramètres]] ([[poids]]), les [[hyperparamètres]] et le code source des algorithmes d'[[inférence]] du [[Modèle d'apprentissage|modèle]] sont diffusés à la communauté sous une licence avec certaines contraintes commerciales. Le code des algorithmes d'entraînement et les corpus nécessaires à reproduction des modèles ne sont pas partagés. Dans un tel cas, on parlera de [[licence en paramètres ouverts]].


==Français==
==Français==
Ligne 20 : Ligne 20 :
[https://opensource.org/ai/open-weights, ''Open Weights: not quite what you’ve been told'', Open Source Initiative]
[https://opensource.org/ai/open-weights, ''Open Weights: not quite what you’ve been told'', Open Source Initiative]


[https://www.reddit.com/r/LocalLLaMA/comments/1iw1xn7/the_paradox_of_open_weights_but_closed_source/''The Paradox of Open Weights, but Closed Source'']
[https://www.reddit.com/r/LocalLLaMA/comments/1iw1xn7/the_paradox_of_open_weights_but_closed_source/   ''The Paradox of Open Weights, but Closed Source'', Reddit]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Publication]]

Dernière version du 5 mai 2025 à 15:14

Définition

Poids (ou paramètres) et hyperparamètres distribués en licence ouverte qui définissent l'architecture d'un modèle préentraîné et qui typiquement résultent de l'entraînement d'un réseau neuronal sur des données.

Compléments

Certains grands modèles de langues préentraînés sont distribués sous la bannière de l'innovation ouverte. Cependant, il est important de noter que seuls les paramètres (poids), les hyperparamètres et le code source des algorithmes d'inférence du modèle sont diffusés à la communauté sous une licence avec certaines contraintes commerciales. Le code des algorithmes d'entraînement et les corpus nécessaires à reproduction des modèles ne sont pas partagés. Dans un tel cas, on parlera de licence en paramètres ouverts.

Français

paramètres ouverts

Anglais

open weights

Sources

Billot et al. (2010) A conditionally linearly stable second-order traffic model derived from a Vlasov kinetic description - Un modèle de trafic du second ordre conditionnellement linéairement stable

Aiko Group

Open Weights: not quite what you’ve been told, Open Source Initiative

The Paradox of Open Weights, but Closed Source, Reddit