« Entropie croisée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(16 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
<!-- Vocabulaire -->
<!-- Google -->
[[Category:Apprentissage profond]]
<!-- Scotty2 -->
[[Category:Termino 2019]]
== Définition ==
== Définition ==
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
[[Fonction d'erreur|Fonction d'erreur ou de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]].


== Français ==
== Français ==
'''entropie croisée'''  n.f.
'''entropie croisée'''   


== Anglais ==
== Anglais ==
'''cross-entropy'''
'''cross entropy'''
'''cross entropy'''


==Sources==
[https://www.dunod.com/sciences-techniques/machine-learning-avec-scikit-learn-mise-en-oeuvre-et-cas-concrets-1 Livre - Aurélien Géron, trad. Anne Bohy - ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'' - ''entropie croisée'']


[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Wikipédia, ''Entropie croisée'']


[https://developers.google.com/machine-learning/glossary?hl=fr#cross-entropy,  Google ''Glossaire de l'IA'', ''entropie croisée'']


<small>
[[Utilisateur:Patrickdrouin  | Termino]]


Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Apprentissage profond]]
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source: Wikipédia]
 
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source: ''Glossaire de l'apprentissage machine, Google'', consulté le 20 mai 2019.]

Dernière version du 28 avril 2025 à 05:24