« Red-teaming » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Red-teaming''' == Sources == [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] Catégorie:vocabulary ») |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
xxxxxx | Ensemble de techniques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes. | ||
Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. | |||
== Compléments == | |||
Le xxxxxx a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''. | |||
== Français == | == Français == | ||
Ligne 9 : | Ligne 14 : | ||
== Anglais == | == Anglais == | ||
''' Red-teaming''' | ''' Red-teaming''' | ||
''Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.'' | |||
== Sources == | == Sources == | ||
[https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/ Source : Hackread] | |||
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] | [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] | ||
[https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/ Source : Weforum] | |||
[https://en.wikipedia.org/wiki/Red_team Source : Wikipedia] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Dernière version du 1 octobre 2025 à 13:08
en construction
Définition
Ensemble de techniques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.
Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des tests de performances et des évaluations de sécurité à jour.
Compléments
Le xxxxxx a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.
Français
XXXXXX
Anglais
Red-teaming
Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.
Sources
Contributeurs: Arianne Arel
