« Représentation sémantique distributionnelle compacte » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(96 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulaire]]
En [[apprentissage profond]], une représentation sémantique distributionnelle compacte (en anglais, ''embedding'') fait référence à une représentation sémantique vectorielle dense et de faible dimension d’un objet de dimension supérieure. Elle est basée sur l’hypothèse distributionnelle de Harris et Firth qui postule que le sens d'un mot est déterminé par son contexte d'utilisation.
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Apprentissage profond]]Apprentissage profond<br>
[[Category:Termino 2019]]
[[Category:Scotty]]
== Définition ==
Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).  


Note
Cette représentation résulte de l'application d'un [[algorithme]] qui permet de passer d'une représentation en haute dimension et habituellement de son contexte, à une représentation vectorielle compacte, soit de plus faible dimension et continue, soit des nombres réels.


La modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des pragraphes, etc.
Il en découle que des objets similaires possèdent des vecteurs correspondants qui sont proches selon une distance ou une métrique dans l'espace vectoriel où sont définis ces objets. Il s'agit donc d'une représentation distribuée qui décrit la « sémantique » d'un objet en considérant ses relations avec d'autres objets de son contexte.  


Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Typiquement, on crée une représentation sémantique distributionnelle compacte avec un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et d'éloigner les objets différents.  


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Voir aussi [[vecteur contextuel]]


Source: Google, Glossaire du machine learning, https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, consulté le 20 mai 2019.
==Compléments==


La représentation sémantique distributionnelle compacte est basée sur l’hypothèse distributionnelle de [Harris 1954], [Firth 1957]. Elle repose sur l'idée que le sens d'un mot est déterminé par son contexte d'utilisation. En d'autres termes, la signification d'un mot est intrinsèquement liée aux autres mots avec lesquels il a tendance à apparaître dans un corpus linguistique. Plus la distribution statistique des contextes de deux mots est différente, plus leur sens tend à différer. Réciproquement les mots sémantiquement proches partagent un plus grand nombre de contextes.
<hr/>
L'algorithme de création d'une représentation sémantique distributionnelle compacte procède par approximation pour passer d'une représentation discrète qui prend en compte un objet et son contexte (statique ou dynamique, plus ou moins étendu) vers une représentation contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. vecteur de nombres réels). D'où la proposition du terme équivalent « vecteur sémantique distributionnel compact » ou encore « vecteur sémantique contextuel compact ». À discuter...
<hr/>
Attention! En français, on retrouve souvent le terme « plongement neuronal ». La notion mathématique de plongement, bien que proche, car elle implique une réduction de la dimension de la représentation, ne couvre pas l'ensemble des concepts sous-jacents. Par exemple, la notion de contexte ou voisinage. Aussi le plongement est davantage assimilée à une opération de création d'un sous-ensemble qu'à une opération de réduction de la dimension obtenue par approximation. À discuter... 
<hr/>
La modélisation par vecteur sémantique distributionnel compact, bien que souvent appliquée aux mots, [[vecteur-mot]] (word embedding), ne se limite pas à des mots et peut être appliquée à des phrases, des documents, des paragraphes, etc. La représentation par vecteur sémantique contextuel compact peut également s'appliquer à d'autres représentations catégorielles comme les différentes marchandises dans un magasin. 
<hr/>
Un vecteur sémantique distributionnel compact peut également être « utilisée » comme représentation latente. À discuter...
<hr/>
On distingue trois principaux usages des vecteurs sémantiques distributionnels:


== Français ==
*identifier les plus proches voisins d'un objet ou d'un concept;
'''représentation vectorielle continue'''
*enrichir l'entrée de données d'un algorithme d'apprentissage;
*visualiser des objets ou des concepts et leurs relations.


'''plongement vectoriel'''
==Français==


'''plongement'''
'''représentation sémantique distributionnelle compacte'''
   
 
'''représentation sémantique distributionnelle'''
 
'''représentation sémantique contextuelle compacte'''
 
'''représentation sémantique contextuelle'''
 
'''vecteur sémantique distributionnel compact'''
 
'''vecteur sémantique distributionnel'''
 
'''vecteur sémantique contextuel compact'''
 
'''plongement neuronal'''
 
'''plongement''' 
 
'''vecteur sémantique'''
 
'''vecteur contextuel'''  
   
   
== Anglais ==
==Anglais==
'''embedding'''
'''embedding'''
'''neural embedding'''
'''compact distributional semantic representation'''
'''compact distributional semantic vector'''
'''compact contextual semantic vector'''
==Sources==
Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
[https://developers.google.com/machine-learning/crash-course/glossary Source: ''Google, Glossaire du machine learning''.]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 14 avril 2025 à 19:30

Définition

En apprentissage profond, une représentation sémantique distributionnelle compacte (en anglais, embedding) fait référence à une représentation sémantique vectorielle dense et de faible dimension d’un objet de dimension supérieure. Elle est basée sur l’hypothèse distributionnelle de Harris et Firth qui postule que le sens d'un mot est déterminé par son contexte d'utilisation.

Cette représentation résulte de l'application d'un algorithme qui permet de passer d'une représentation en haute dimension et habituellement de son contexte, à une représentation vectorielle compacte, soit de plus faible dimension et continue, soit des nombres réels.

Il en découle que des objets similaires possèdent des vecteurs correspondants qui sont proches selon une distance ou une métrique dans l'espace vectoriel où sont définis ces objets. Il s'agit donc d'une représentation distribuée qui décrit la « sémantique » d'un objet en considérant ses relations avec d'autres objets de son contexte.

Typiquement, on crée une représentation sémantique distributionnelle compacte avec un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et d'éloigner les objets différents.

Voir aussi vecteur contextuel

Compléments

La représentation sémantique distributionnelle compacte est basée sur l’hypothèse distributionnelle de [Harris 1954], [Firth 1957]. Elle repose sur l'idée que le sens d'un mot est déterminé par son contexte d'utilisation. En d'autres termes, la signification d'un mot est intrinsèquement liée aux autres mots avec lesquels il a tendance à apparaître dans un corpus linguistique. Plus la distribution statistique des contextes de deux mots est différente, plus leur sens tend à différer. Réciproquement les mots sémantiquement proches partagent un plus grand nombre de contextes.


L'algorithme de création d'une représentation sémantique distributionnelle compacte procède par approximation pour passer d'une représentation discrète qui prend en compte un objet et son contexte (statique ou dynamique, plus ou moins étendu) vers une représentation contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. vecteur de nombres réels). D'où la proposition du terme équivalent « vecteur sémantique distributionnel compact » ou encore « vecteur sémantique contextuel compact ». À discuter...


Attention! En français, on retrouve souvent le terme « plongement neuronal ». La notion mathématique de plongement, bien que proche, car elle implique une réduction de la dimension de la représentation, ne couvre pas l'ensemble des concepts sous-jacents. Par exemple, la notion de contexte ou voisinage. Aussi le plongement est davantage assimilée à une opération de création d'un sous-ensemble qu'à une opération de réduction de la dimension obtenue par approximation. À discuter...


La modélisation par vecteur sémantique distributionnel compact, bien que souvent appliquée aux mots, vecteur-mot (word embedding), ne se limite pas à des mots et peut être appliquée à des phrases, des documents, des paragraphes, etc. La représentation par vecteur sémantique contextuel compact peut également s'appliquer à d'autres représentations catégorielles comme les différentes marchandises dans un magasin.


Un vecteur sémantique distributionnel compact peut également être « utilisée » comme représentation latente. À discuter...


On distingue trois principaux usages des vecteurs sémantiques distributionnels:

  • identifier les plus proches voisins d'un objet ou d'un concept;
  • enrichir l'entrée de données d'un algorithme d'apprentissage;
  • visualiser des objets ou des concepts et leurs relations.

Français

représentation sémantique distributionnelle compacte

représentation sémantique distributionnelle

représentation sémantique contextuelle compacte

représentation sémantique contextuelle

vecteur sémantique distributionnel compact

vecteur sémantique distributionnel

vecteur sémantique contextuel compact

plongement neuronal

plongement

vecteur sémantique

vecteur contextuel

Anglais

embedding

neural embedding

compact distributional semantic representation

compact distributional semantic vector

compact contextual semantic vector

Sources

Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google, Glossaire du machine learning.