« Entropie croisée » : différence entre les versions
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> ») |
Aucun résumé des modifications |
||
(19 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités. | [[Fonction d'erreur|Fonction d'erreur ou de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]]. | ||
== Français == | == Français == | ||
'''entropie croisée''' | '''entropie croisée''' | ||
== Anglais == | == Anglais == | ||
'''cross-entropy''' | |||
'''cross entropy''' | '''cross entropy''' | ||
==Sources== | |||
[https://www.dunod.com/sciences-techniques/machine-learning-avec-scikit-learn-mise-en-oeuvre-et-cas-concrets-1 Livre - Aurélien Géron, trad. Anne Bohy - ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'' - ''entropie croisée''] | |||
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Wikipédia, ''Entropie croisée''] | |||
[https://developers.google.com/machine-learning/glossary?hl=fr#cross-entropy, Google ''Glossaire de l'IA'', ''entropie croisée''] | |||
[[Utilisateur:Patrickdrouin | Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[ | |||
[ |
Dernière version du 28 avril 2025 à 05:24
Définition
Fonction d'erreur ou de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée
Anglais
cross-entropy
cross entropy
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, Julie Roy, wiki
