« Adaptation par modèle auxiliaire quantifiée » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' QLoRA ''' == Anglais == ''' QLoRA''' QLoRA stands for quantized LoRA (low-rank adaptation). The standard LoRA method modifies a pretrained LLM by adding low-rank matrices to the weights of the model's layers. These matrices are smaller and, therefore, require fewer resources to update during finetuning. In QLoRA, these low-rank matrices are quantized, meaning their numerical precision is... »)
 
Aucun résumé des modifications
 
(12 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Méthode d'adaptation ou de peaufinage d'un modèle d'apprentissage, typiquement d'un [[grand modèle de langues]] par [[Adaptation par modèle auxiliaire|adaptation par modèle auxiliaire (en anglais, LoRA)]] et [[quantification]] avec un encodage de plus faible précision.


== Définition ==
== Compléments ==  
XXXXXXXXX
Par exemple, l'encodage peut se faire avec des entiers à 16 bits ou 8 bits au lieu de 32 bits.


== Français ==
== Français ==
''' adaptation par modèle auxiliaire quantifiée '''
''' QLoRA '''
''' QLoRA '''


== Anglais ==
== Anglais ==
'''quantized low-rank adaptation'''
''' QLoRA'''
''' QLoRA'''


<!--
   QLoRA stands for quantized LoRA (low-rank adaptation). The standard LoRA method modifies a pretrained LLM by adding low-rank matrices to the weights of the model's layers. These matrices are smaller and, therefore, require fewer resources to update during finetuning.
   QLoRA stands for quantized LoRA (low-rank adaptation). The standard LoRA method modifies a pretrained LLM by adding low-rank matrices to the weights of the model's layers. These matrices are smaller and, therefore, require fewer resources to update during finetuning.
   
   
  In QLoRA, these low-rank matrices are quantized, meaning their numerical precision is reduced. This is done by mapping the continuous range of values in these matrices to a limited set of discrete levels. This process reduces the model's memory footprint and computational demands, as operations on lower-precision numbers are less memory-intensive.
  In QLoRA, these low-rank matrices are quantized, meaning their numerical precision is reduced. This is done by mapping the continuous range of values in these matrices to a limited set of discrete levels. This process reduces the model's memory footprint and computational demands, as operations on lower-precision numbers are less memory-intensive.
-->


==Sources==


<small>
== Sources ==
 
[https://arxiv.org/abs/2305.14314  Source : arxiv]
[https://arxiv.org/abs/2305.14314  Source : arxiv]


[https://www.tensorflow.org/model_optimization/guide?hl=fr  Source : TensorFlow]


[[Catégorie:ENGLISH]]


 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:vocabulary]]
[[Catégorie:Publication]]

Dernière version du 5 juillet 2025 à 13:53

Définition

Méthode d'adaptation ou de peaufinage d'un modèle d'apprentissage, typiquement d'un grand modèle de langues par adaptation par modèle auxiliaire (en anglais, LoRA) et quantification avec un encodage de plus faible précision.

Compléments

Par exemple, l'encodage peut se faire avec des entiers à 16 bits ou 8 bits au lieu de 32 bits.

Français

adaptation par modèle auxiliaire quantifiée

QLoRA


Anglais

quantized low-rank adaptation

QLoRA


Sources

Sources

Source : arxiv

Source : TensorFlow