« Mécanisme d'attention » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
(28 versions intermédiaires par 5 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
[[ | ==Définition== | ||
[[ | Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une donnée complexe, par exemple une partie d'une image ou certains mots dans une phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de [[traitement automatique de la langue naturelle|traitement de la langue naturelle]] et de [[reconnaissance d'images]] pour aider un [[réseau de neurones artificiels]] à apprendre sur quoi « se concentrer » lorsqu'il fait des prédictions. | ||
[[ | |||
[[ | == Compléments == | ||
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture de [[réseau autoattentif]], en anglais ''Transformer''. | |||
==Français== | |||
'''mécanisme d'attention''' | |||
'''attention''' | |||
'''modèle d'attention visuelle ''' | |||
== Anglais == | ==Anglais== | ||
'''attention mechanism''' | '''attention mechanism''' | ||
'''attention''' | |||
'''visual attention model ''' | |||
==Español== | |||
''''' modelo de atención visual ''''' | |||
''Inspirado en la atención visual humana, un mecanismo de atención es la capacidad de aprender a centrarse en partes específicas de datos complejos, por ejemplo parte de una imagen o determinadas palabras de una frase. Los mecanismos de atención pueden incorporarse al procesamiento del lenguaje natural y a las arquitecturas de reconocimiento de imágenes para ayudar a una red neuronal artificial a aprender en qué «centrarse» al hacer predicciones. '' | |||
==Sources== | |||
Source: Simonnet, Edwin (2019). ''Réseaux de neurones profonds appliqués à la compréhension de la parole'', Université du Maine, 182 pages. | Source: Simonnet, Edwin (2019). ''Réseaux de neurones profonds appliqués à la compréhension de la parole'', Université du Maine, 182 pages. | ||
[[Utilisateur:Patrickdrouin | Source : Termino | [https://nuxeo.u-bourgogne.fr/nuxeo/site/esupversions/2496a7f0-c7f7-4400-9eed-f5fffb96b123 Muddamsetty, Satya M. Modèles d'attention visuelle pour l'analyse de scènes dynamiques. Université de Bourgogne, 7 juillet 2014, p. iv. Consulté : 2019-01-17.] | ||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION+VISUELLE&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus ] | |||
[[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]] | |||
[[Utilisateur:Patrickdrouin | Source: Termino]] | |||
{{Modèle:101}} | |||
[[Category:Intelligence artificielle]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:101]] |
Dernière version du 22 juillet 2025 à 11:20
Définition
Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une donnée complexe, par exemple une partie d'une image ou certains mots dans une phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi « se concentrer » lorsqu'il fait des prédictions.
Compléments
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture de réseau autoattentif, en anglais Transformer.
Français
mécanisme d'attention
attention
modèle d'attention visuelle
Anglais
attention mechanism
attention
visual attention model
Español
modelo de atención visual
Inspirado en la atención visual humana, un mecanismo de atención es la capacidad de aprender a centrarse en partes específicas de datos complejos, por ejemplo parte de una imagen o determinadas palabras de una frase. Los mecanismos de atención pueden incorporarse al procesamiento del lenguaje natural y a las arquitecturas de reconocimiento de imágenes para ayudar a una red neuronal artificial a aprender en qué «centrarse» al hacer predicciones.
Sources
Source: Simonnet, Edwin (2019). Réseaux de neurones profonds appliqués à la compréhension de la parole, Université du Maine, 182 pages.
source : Claude Coulombe, Datafranca.org
101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »
Contributeurs: Arianne Arel, Claude Coulombe, Jacques Barolet, Espanol: Jean-Sébastien Zavalone, Julie Roy, Patrick Drouin, wiki
