« Unité linéaire rectifiée » : différence entre les versions
| Aucun résumé des modifications | m (Remplacement de texte : « ↵<small> » par «  ==Sources== ») | ||
| Ligne 15 : | Ligne 15 : | ||
| '''ReLU''' | '''ReLU''' | ||
| ==Sources== | |||
| [https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | [https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | ||
Version du 28 janvier 2024 à 14:54
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée
ULR acronyme.
redresseur simple alternance
redresseur demi-onde
Anglais
rectified linear unit
ReLU
Sources
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki
 
		
		 
	


 
 

 
 

 
  
 