« Peaufinage d'un grand modèle de langues » : différence entre les versions
(Page créée avec « == Définition == En apprentissage automatique, le peaufinage désigne le processus d'apprentissage par transfert pour la mise au point d'un modèle avec de nouvel... ») |
Aucun résumé des modifications |
||
(23 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Application de la technique de [[peaufinage]] à l'amélioration des performances d'un [[grand modèle de langues]]. | |||
== Compléments == | |||
Pour le peaufinage de grands modèles de langues, il existe trois techniques principales : le [[peaufinage par apprentissage supervisé|peaufinage complet par apprentissage supervisé]], en anglais Full Fine-tuning ou Pure Supervised Fine-Tuning, l'[[adaptation par modèle auxiliaire]] ([[adaptation par modèle auxiliaire|APMA]]) en anglais LoRA (Low Rank Adaptation) et la [[Génération augmentée d'information applicative]] (GAIA), en anglais ''Retrieval Augmented Generation'' (RAG). | |||
Voir l'entrée [[modèle de langue]] pour des explications sur la nuance entre modèle de langues et modèles de langage. | |||
== Français == | == Français == | ||
Ligne 12 : | Ligne 15 : | ||
== Anglais == | == Anglais == | ||
'''large language model fine tuning''' | |||
'''large language model fine-tuning''' | '''large language model fine-tuning''' | ||
'''large language model finetuning''' | '''large language model finetuning''' | ||
Ligne 24 : | Ligne 27 : | ||
'''LLM finetunning''' | '''LLM finetunning''' | ||
==Sources== | |||
[https://huggingface.co/docs/autotrain/llm_finetuning Source : Hugging Face] | [https://huggingface.co/docs/autotrain/llm_finetuning Source : Hugging Face] | ||
Ligne 31 : | Ligne 33 : | ||
[https://towardsdatascience.com/fine-tuning-large-language-models-llms-23473d763b91 Source : Medium] | [https://towardsdatascience.com/fine-tuning-large-language-models-llms-23473d763b91 Source : Medium] | ||
[[Catégorie: | [https://en.wikipedia.org/wiki/Fine-tuning_(deep_learning) Source : Wikipedia] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:101]] |
Dernière version du 10 mars 2025 à 20:44
Définition
Application de la technique de peaufinage à l'amélioration des performances d'un grand modèle de langues.
Compléments
Pour le peaufinage de grands modèles de langues, il existe trois techniques principales : le peaufinage complet par apprentissage supervisé, en anglais Full Fine-tuning ou Pure Supervised Fine-Tuning, l'adaptation par modèle auxiliaire (APMA) en anglais LoRA (Low Rank Adaptation) et la Génération augmentée d'information applicative (GAIA), en anglais Retrieval Augmented Generation (RAG).
Voir l'entrée modèle de langue pour des explications sur la nuance entre modèle de langues et modèles de langage.
Français
peaufinage de grand modèle de langues
réglage fin de grand modèle de langues
ajustement fin de grand modèle de langues
Anglais
large language model fine tuning
large language model fine-tuning
large language model finetuning
LLM fine-tuning
LLM fine tuning
LLM finetunning
Sources
Contributeurs: Arianne , Claude Coulombe, Patrick Drouin, wiki
