« Sous-ajustement » : différence entre les versions


m (Remplacement de texte — « <small>loc. nom. masc.</small> » par « <small> masculin </small> »)
Aucun résumé des modifications
 
(9 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.  
Situation observée quand un '''[[algorithme]]''' d''''[[apprentissage automatique]]''' ou un '''[[modèle statistique]]''' ne s'ajuste que grossièrement aux '''[[données d'entraînement]]''', ce qui se traduit par une erreur élevée sur les données d'entraînement.  


Note: dans de telles circonstances on observera également une erreur élevée sur les données de test.
Note : dans de telles circonstances on observera également une erreur élevée sur les données de test.


==Français==
==Français==
'''sous-ajustement'''  <small> masculin </small>
'''sous-ajustement'''   


'''sous-entraînement''' <small> masculin </small>
'''sous-apprentissage'''  


'''sous-apprentissage'''  <small> masculin </small>
'''sous-entraînement'''   


==Anglais==
==Anglais==
Ligne 18 : Ligne 18 :
'''underlearning'''
'''underlearning'''


==Español==


<small>
''''' subaprendizaje '''''


[https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html  Source:  Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement''].
''Situación que se observa cuando un algoritmo de aprendizaje automático o un modelo estadístico sólo se ajusta aproximadamente a los datos de entrenamiento, lo que da lugar a un error elevado en los datos de entrenamiento.''  


Source: Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages.
==Sources==


Source: Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages.
[https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html Source : Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement''].


[[Utilisateur:Patrickdrouin  | Source: Termino]]
Source : Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages.


Source : Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages.


[[Utilisateur:Patrickdrouin  | Source : Termino]]
{{Modèle:101}}
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Termium]]
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Catégorie:101]]

Dernière version du 23 juillet 2025 à 10:59

Définition

Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.

Note : dans de telles circonstances on observera également une erreur élevée sur les données de test.

Français

sous-ajustement

sous-apprentissage

sous-entraînement

Anglais

underfitting

undertraining

underlearning

Español

subaprendizaje

Situación que se observa cuando un algoritmo de aprendizaje automático o un modelo estadístico sólo se ajusta aproximadamente a los datos de entrenamiento, lo que da lugar a un error elevado en los datos de entrenamiento.

Sources

Source : Amazon Machine Learning, Manuel du développeur, Ajustement du modèle : sous-ajustement et surajustement.

Source : Lecompte, Jérémie (2007). Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+, mémoire de maitrise, Université de Sherbrooke, 155 pages.

Source : Côté, Marc-Alexandre (2017). Réseaux de neurones génératifs avec structure, thèse de doctorat, Université de Sherbrooke, 170 pages.

Source : Termino

101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle » Ligne bleue2.jpg