« Séparateur à vaste marge » : différence entre les versions
| Aucun résumé des modifications | mAucun résumé des modifications Balise : Éditeur de wikicode 2017 | ||
| Ligne 1 : | Ligne 1 : | ||
| == Domaine == | == Domaine == | ||
| [[Category:Vocabulary]]<br/> | |||
| [[Category:Vocabulary]]  | [[Category:Intelligence artificielle]]Intelligence artificielle<br/> | ||
| [[Catégorie:Apprentissage automatique]] Apprentissage automatique<br/> | |||
| [Category:Coulombe]]Coulombe<br/> | |||
| [[Catégorie:Scotty]]<br/> | |||
| [[Category: | |||
| [[ | |||
| <br /> | <br /> | ||
| == Définition == | == Définition == | ||
| Les séparateurs à vaste marge ( | Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires. | ||
| Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. | Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. | ||
| Ligne 31 : | Ligne 28 : | ||
| </poll> | </poll> | ||
| <h3>Discussion:</h3> | <h3>Discussion:</h3> | ||
| Pour le moment, le terme privilégié est «séparateur à vaste marge». | Pour le moment, le terme privilégié est «séparateur à vaste marge».   | ||
| Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept.<br/>   | Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.<br/>   | ||
| On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique. | On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique. | ||
| <br/> | <br/> | ||
Version du 12 avril 2019 à 18:32
Domaine
Intelligence artificielle
 Apprentissage automatique
[Category:Coulombe]]Coulombe
Définition
Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.
Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
Source:
https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support
Français
<poll> Choisissez parmi ces termes proposés : séparateur à vaste marge machine à vecteurs de support classificateur à vaste marge </poll>
Discussion:
Pour le moment, le terme privilégié est «séparateur à vaste marge».
Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
 
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.
Anglais
support vector machine
Contributeurs: Arianne Arel, Claude Coulombe, Jacques Barolet, Espanol: JSZ, Patrick Drouin, wiki
 
		
		 
	


 
 

 
 

 
  
 