« Approche par l'équipe rouge » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Ensemble de techniques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes. | Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes. | ||
Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. | <!- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. -> | ||
== Compléments == | == Compléments == | ||
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''. | |||
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité. | |||
== Français == | == Français == | ||
''' | ''' approche par l'équipe rouge''' | ||
''' approche de l'équipe rouge''' | |||
== Anglais == | == Anglais == | ||
Ligne 18 : | Ligne 22 : | ||
== Sources == | == Sources == | ||
[https:// | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RED+TEAMING&index=alt&codom2nd_wet=1#resultrecs Termium Plus - Approche par l'équipe rouge] | ||
[https:// | [https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/ Hackread] | ||
[https:// | [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ OpenAI] | ||
[https:// | [https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/ Weforum] | ||
[https://en.wikipedia.org/wiki/Red_team Wikipedia] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Version du 14 octobre 2025 à 15:21
en construction
Définition
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques. Ces techniques comprennent des approches manuelles, automatisées et mixtes.
<!- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des tests de performances et des évaluations de sécurité à jour. ->
Compléments
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.
Français
approche par l'équipe rouge
approche de l'équipe rouge
Anglais
Red-teaming
Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.
Sources
Contributeurs: Arianne Arel, Patrick Drouin
