« Red-teaming » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Red-teaming''' == Sources == [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] Catégorie:vocabulary »)
 
Aucun résumé des modifications
 
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
xxxxxx
Ensemble de techniques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.
 
Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour.
 
== Compléments ==
Le xxxxxx a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''.


== Français ==
== Français ==
Ligne 9 : Ligne 14 :
== Anglais ==
== Anglais ==
''' Red-teaming'''
''' Red-teaming'''
''Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.''


== Sources ==
== Sources ==
[https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/  Source : Hackread]
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/  Source : OpenAI]
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/  Source : OpenAI]
[https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/  Source : Weforum]
[https://en.wikipedia.org/wiki/Red_team  Source : Wikipedia]


[[Catégorie:vocabulary]]
[[Catégorie:vocabulary]]

Dernière version du 1 octobre 2025 à 13:08

en construction

Définition

Ensemble de techniques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.

Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des tests de performances et des évaluations de sécurité à jour.

Compléments

Le xxxxxx a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.

Français

XXXXXX

Anglais

Red-teaming

Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.

Sources

Source : Hackread

Source : OpenAI

Source : Weforum

Source : Wikipedia

Contributeurs: Arianne Arel