Red-teaming


Révision datée du 1 octobre 2025 à 13:08 par Arianne (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

en construction

Définition

Ensemble de techniques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.

Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des tests de performances et des évaluations de sécurité à jour.

Compléments

Le xxxxxx a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.

Français

XXXXXX

Anglais

Red-teaming

Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.

Sources

Source : Hackread

Source : OpenAI

Source : Weforum

Source : Wikipedia

Contributeurs: Arianne Arel