« Empoisonnement de modèle » : différence entre les versions
m (Patrickdrouin a déplacé la page Model poisoning vers Empoisonnement de modèle) |
Aucun résumé des modifications |
||
| (8 versions intermédiaires par 2 utilisateurs non affichées) | |||
| Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
L'objectif malveillant d'une telle approche est de corrompre le modèle et son comportement. | |||
Voir [[empoisonnement de données]]. | Voir [[empoisonnement de données]]. | ||
==Français== | ==Français== | ||
'''empoisonnement | '''empoisonnement du modèle''' | ||
'''empoisonnement du modèle d'IA''' | |||
==Anglais== | ==Anglais== | ||
'''model poisoning''' | '''model poisoning''' | ||
'''AI poisoning''' | |||
==Sources== | ==Sources== | ||
[https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia ''Petite taxonomie des attaques des systèmes d’IA'', Fabien Valet (2022)] | |||
[https://theconversation.com/quest-ce-que-l-ai-poisoning-ou-empoisonnement-de-lia-267995 The Conversation - AI poisoning] | |||
[https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_FR.html ''Législation sur l'intelligence artificielle'', Parlement européen (2023)] | |||
[https://arxiv.org/abs/2203.08669 ''MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients'', Cao et Gong (2022)] | |||
[https://www.devron.ai/kbase/model-poisoning ''What is model poisoning?'', Devron] | |||
[[Catégorie:Publication]] | [[Catégorie:Publication]] | ||
Dernière version du 4 novembre 2025 à 15:21
Définition
L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées.
Compléments
L'objectif malveillant d'une telle approche est de corrompre le modèle et son comportement.
Voir empoisonnement de données.
Français
empoisonnement du modèle
empoisonnement du modèle d'IA
Anglais
model poisoning
AI poisoning
Sources
Petite taxonomie des attaques des systèmes d’IA, Fabien Valet (2022)
The Conversation - AI poisoning
Législation sur l'intelligence artificielle, Parlement européen (2023)
MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients, Cao et Gong (2022)
Contributeurs: Patrick Drouin, wiki





