« Empoisonnement de modèle » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| Ligne 7 : | Ligne 7 : | ||
==Français== | ==Français== | ||
'''empoisonnement de modèle''' | '''empoisonnement de modèle''' | ||
'''empoisonnement de modèle d'IA''' | |||
==Anglais== | ==Anglais== | ||
'''model poisoning''' | '''model poisoning''' | ||
'''AI poisoning''' | |||
==Sources== | ==Sources== | ||
Version du 4 novembre 2025 à 15:13
Définition
L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées.
Compléments
Voir empoisonnement de données.
Français
empoisonnement de modèle
empoisonnement de modèle d'IA
Anglais
model poisoning
AI poisoning
Sources
Petite taxonomie des attaques des systèmes d’IA, Fabien Valet (2022)
Législation sur l'intelligence artificielle, Parlement européen (2023)
MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients, Cao et Gong (2022)
Contributeurs: Patrick Drouin, wiki





