« Sûreté de l'intelligence artificielle » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
(3 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 8 : | Ligne 8 : | ||
''' sûreté de l'IA ''' | ''' sûreté de l'IA ''' | ||
'''sécurité de l'intelligence artificielle''' | |||
'''sécurité de l'IA''' | |||
== Anglais == | == Anglais == | ||
Ligne 16 : | Ligne 20 : | ||
==Sources== | ==Sources== | ||
[ https://www.vectra.ai/learning/ai-security | [https://www.vectra.ai/learning/ai-security Vectra AI - ai-security] | ||
[ https://fr.wikipedia.org/wiki/S%C3%BBret%C3%A9_des_intelligences_artificielles | [https://fr.wikipedia.org/wiki/S%C3%BBret%C3%A9_des_intelligences_artificielles Wikipedia - sûreté des intelligences artficielles] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 7 juin 2025 à 13:47
Définition
Un domaine interdisciplinaire qui s'intéresse aux impacts à long terme de l'IA et à la façon dont elle pourrait évoluer soudainement vers une superintelligence qui pourrait être hostile aux humains.
Il a pour but d'empêcher les accidents, abus ou autres conséquences néfastes pouvant résulter des systèmes d'intelligence artificielle. Cela englobe notamment l'éthique des machines et l'alignement des intelligences artificielles (qui visent à rendre les systèmes d'IA moraux et bénéfiques), la conception de haute fiabilité et la surveillance des systèmes d'IA, mais aussi le développement de normes et de politiques favorisant la sécurité.
Français
sûreté de l'intelligence artificielle
sûreté de l'IA
sécurité de l'intelligence artificielle
sécurité de l'IA
Anglais
artificial intelligence security
AI security
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki
