« Séparateur à vaste marge » : différence entre les versions
|  (Svp, détruire l'autre entrée SVM en anglais qui est redondante) Balise : Éditeur de wikicode 2017 | Aucun résumé des modifications Balise : Éditeur de wikicode 2017 | ||
| Ligne 1 : | Ligne 1 : | ||
| ==Domaine== | ==Domaine== | ||
| [[Category: | [[Category:Vocabulary2]] | ||
| [[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
| Intelligence artificielle<br /> | Intelligence artificielle<br /> | ||
| [[Catégorie:Apprentissage automatique]] | [[Catégorie:Apprentissage automatique]] | ||
| Apprentissage automatique<br /> | Apprentissage automatique<br /> | ||
| [Category:Coulombe]] | [Category:Coulombe]]<br /> | ||
| [[Catégorie:Scotty]] | [[Catégorie:Scotty]] | ||
| ==Définition== | ==Définition== | ||
| Ligne 19 : | Ligne 17 : | ||
| Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens. | Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens. | ||
| ==Français== | |||
| '''séparateur à vaste marge ''' | |||
| '''classificateur à vaste marge''' | |||
| ''Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.''<br />   | |||
| ''On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.'' | |||
| séparateur à vaste marge   | |||
| </ | |||
| ==Anglais== | ==Anglais== | ||
| '''support vector machine''' | |||
| [https://opendatascience.com/machine-learning-for-beginners/   Source : opendatascience.com ] | |||
| https:// | [https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support    Source : Wikipedia ] | ||
Version du 31 mai 2019 à 09:44
Domaine
Intelligence artificielle
Apprentissage automatique
[Category:Coulombe]]
Définition
Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.
Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
Français
séparateur à vaste marge
classificateur à vaste marge
Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
 
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.
Anglais
support vector machine
Contributeurs: Arianne Arel, Claude Coulombe, Jacques Barolet, Espanol: JSZ, Patrick Drouin, wiki
 
		
		 
	


 
 

 
 

 
  
 