« Distillation de modèles » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
La distillation des connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.
La distillation de modèles aussi appelée distillation de connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.
 
== Compléments ==
Cette technique permet d’utiliser un modèle « enseignant » volumineux et coûteux pour entraîner un modèle « étudiant » à moindre coût.


== Français ==
== Français ==
''' distillation des connaissances'''


''' distillation des modèles'''
'''distillation de modèles'''
 
'''distillation des connaissances'''


== Anglais ==
== Anglais ==
''' knowledge distillation'''
'''model distillation'''


''' model distillation'''
'''knowledge distillation'''


''Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.''
''Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.''

Version du 20 juillet 2025 à 18:59

Définition

La distillation de modèles aussi appelée distillation de connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.

Compléments

Cette technique permet d’utiliser un modèle « enseignant » volumineux et coûteux pour entraîner un modèle « étudiant » à moindre coût.

Français

distillation de modèles

distillation des connaissances

Anglais

model distillation

knowledge distillation

Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.

Sources

Source : Wikipédia

Source : Proceeding Neurips

Source : Paper with code

Contributeurs: Arianne , Claude Coulombe, wiki