Entropie croisée
Définition
Fonction d'erreur ou de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée
Anglais
cross-entropy
cross entropy
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, Julie Roy, wiki
