« Distillation de modèles » : différence entre les versions
m (Claude COULOMBE a déplacé la page Distillation des connaissances vers Distillation de modèles) |
Aucun résumé des modifications |
||
Ligne 7 : | Ligne 7 : | ||
== Français == | == Français == | ||
'''distillation de modèles''' | '''distillation de / des modèles''' | ||
'''distillation des connaissances''' | '''distillation de / des connaissances''' | ||
== Anglais == | == Anglais == |
Version du 20 juillet 2025 à 19:01
Définition
La distillation de modèles aussi appelée distillation de connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.
Compléments
Cette technique permet d’utiliser un modèle « enseignant » volumineux et coûteux pour entraîner un modèle « étudiant » à moindre coût.
Français
distillation de / des modèles
distillation de / des connaissances
Anglais
model distillation
knowledge distillation
Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.
Sources
Contributeurs: Arianne , Claude Coulombe, wiki
