« Approche par l'équipe rouge » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Red-teaming''' == Sources == [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] Catégorie:vocabulary ») |
m (Patrickdrouin a déplacé la page Red-teaming vers Approche par l'équipe rouge) |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
xxxxxx | Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes. | ||
<!-- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. --> | |||
== Compléments == | |||
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''. | |||
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité. | |||
== Français == | == Français == | ||
''' | ''' approche par l'équipe rouge''' | ||
''' approche de l'équipe rouge''' | |||
== Anglais == | == Anglais == | ||
''' Red-teaming''' | ''' Red-teaming''' | ||
''Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.'' | |||
== Sources == | == Sources == | ||
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/ | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RED+TEAMING&index=alt&codom2nd_wet=1#resultrecs Termium Plus - Approche par l'équipe rouge] | ||
[https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/ Hackread] | |||
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/ OpenAI] | |||
[https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/ Weforum] | |||
[https://en.wikipedia.org/wiki/Red_team Wikipedia] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Dernière version du 14 octobre 2025 à 15:22
en construction
Définition
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.
Compléments
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.
Français
approche par l'équipe rouge
approche de l'équipe rouge
Anglais
Red-teaming
Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.
Sources
Contributeurs: Arianne Arel, Patrick Drouin
