« Unité linéaire rectifiée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017  | 
				Aucun résumé des modifications  | 
				||
| (23 versions intermédiaires par 4 utilisateurs non affichées) | |||
| Ligne 1 : | Ligne 1 : | ||
==Définition==  | ==Définition==  | ||
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.  | Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.  | ||
==Français==  | ==Français==  | ||
'''unité linéaire rectifiée'''    | '''unité linéaire rectifiée'''     | ||
'''ULR'''   | '''ULR'''  | ||
'''redresseur simple alternance'''   | '''redresseur simple alternance'''    | ||
'''redresseur demi-onde'''   | '''redresseur demi-onde'''    | ||
==Anglais==  | ==Anglais==  | ||
| Ligne 25 : | Ligne 15 : | ||
'''ReLU'''  | '''ReLU'''  | ||
==Sources==  | |||
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels,   Source : Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]  | |||
[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source:   | [https://en.Wikipedia.org/wiki/Rectifier_(neural_networks)   Source : Wikipedia, ''Rectifier (neural networks)'']  | ||
[[Utilisateur:Patrickdrouin  | Source: Termino   | [[Utilisateur:Patrickdrouin  |   Source : Termino]]  | ||
[[Category:GRAND LEXIQUE FRANÇAIS]]  | |||
Dernière version du 8 avril 2025 à 21:51
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée
ULR
redresseur simple alternance
redresseur demi-onde
Anglais
rectified linear unit
ReLU
Sources
Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki
		
		 
	

 

 
