« Entropie croisée » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
Aucun résumé des modifications
 
(34 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Définition ==
== Domaine ==
[[Fonction d'erreur|Fonction d'erreur ou de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]].
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />


<br />
== Français ==
'''entropie croisée''' 


== Définition ==
== Anglais ==
Généralisation de la perte logistique aux problèmes de classification à classes multiples. L'entropie croisée quantifie la différence entre deux distributions de probabilité. Voir aussi perplexité.
'''cross-entropy'''


'''cross entropy'''


<br />
==Sources==
== Termes privilégiés ==
[https://www.dunod.com/sciences-techniques/machine-learning-avec-scikit-learn-mise-en-oeuvre-et-cas-concrets-1 Livre - Aurélien Géron, trad. Anne Bohy - ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'' - ''entropie croisée'']
=== entropie croisée ===


[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Wikipédia, ''Entropie croisée'']


<br />
[https://developers.google.com/machine-learning/glossary?hl=fr#cross-entropy,  Google ''Glossaire de l'IA'', ''entropie croisée'']
== Anglais ==


=== cross-entropy===
[[Utilisateur:Patrickdrouin | Termino]]


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
[[Category:Apprentissage profond]]
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 28 avril 2025 à 05:24