« Unité linéaire rectifiée » : différence entre les versions
| m (Remplacement de texte — « <!-- Vocabulary2 --> » par «  ») | Aucun résumé des modifications Balise : Éditeur de wikicode 2017 | ||
| Ligne 1 : | Ligne 1 : | ||
| ==Définition== | ==Définition== | ||
| Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | ||
| Ligne 32 : | Ligne 22 : | ||
| [[Utilisateur:Patrickdrouin  | Source: Termino]] | [[Utilisateur:Patrickdrouin  | Source: Termino]] | ||
| [[Category:Intelligence artificielle]] | |||
| [[Category:Apprentissage automatique]] | |||
| [[Category:Apprentissage profond]] | |||
| [[Category:GRAND LEXIQUE FRANÇAIS]] | |||
| [[Category:Termino 2019]] | |||
Version du 9 mai 2020 à 10:15
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée loc. nom. fém.
ULR acronyme. fém.
redresseur simple alternance loc. nom. masc.
redresseur demi-onde loc. nom. masc.
Anglais
rectified linear unit
ReLU
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki
 
		
		 
	


 
 

 
 

 
  
 