Suivi des pages liées
Entrer un nom de page pour voir les modifications faites récemment sur des pages liées vers ou depuis cette page (pour voir les membres d’une catégorie, entrez Catégorie:Nom de catégorie). Les modifications des pages de votre liste de suivi sont en gras.
Légende des abréviations :
- N
- Cette modification a créé une nouvelle page (voir aussi la liste des nouvelles pages)
- m
- Cette modification est mineure.
- b
- Cette modification a été effectuée par un robot.
- (±123)
- La taille de la page a changé de ce nombre d’octets.
18 août 2025
|
23:02 | Codage au ressenti 6 modifications historique +869 [Claude COULOMBE (6×)] | |||
|
23:02 (actu | diff) −21 Claude COULOMBE discussion contributions | ||||
|
23:01 (actu | diff) −256 Claude COULOMBE discussion contributions | ||||
|
22:57 (actu | diff) +793 Claude COULOMBE discussion contributions | ||||
|
21:35 (actu | diff) +16 Claude COULOMBE discussion contributions | ||||
|
21:34 (actu | diff) +3 Claude COULOMBE discussion contributions | ||||
|
21:27 (actu | diff) +334 Claude COULOMBE discussion contributions |
21:52 | Architecture à vecteurs sémantiques joints diffhist −28 Pitpitt discussion contributions |
21:51 | Attention éclair diffhist −28 Pitpitt discussion contributions |
21:50 | Normalisation du gradient diffhist +12 Pitpitt discussion contributions |
13 août 2025
09:40 | Vitesse de la lumière diffhist +422 Arianne discussion contributions |
12 août 2025
|
15:20 | Réseau récurrent à portes 2 modifications historique −40 [Patrickdrouin ; Claude COULOMBE] | |||
|
15:20 (actu | diff) −25 Patrickdrouin discussion contributions | ||||
|
15:18 (actu | diff) −15 Claude COULOMBE discussion contributions |
15:19 | Réseau récurrent à longue mémoire court terme diffhist −48 Patrickdrouin discussion contributions |
15:17 | Problème de la dissipation du gradients diffhist −16 Claude COULOMBE discussion contributions (Destination de redirection modifiée de Problème de la disparition du gradient en Évanescence du gradient) |
15:17 | Problème de l'évanescence du gradient diffhist −17 Claude COULOMBE discussion contributions (Destination de redirection modifiée de Problème de la disparition du gradient en Évanescence du gradient) |
15:16 | Disparition des gradients diffhist −17 Claude COULOMBE discussion contributions (Destination de redirection modifiée de Problème de la disparition du gradient en Évanescence du gradient) |
|
15:15 | Normalisation du gradient 10 modifications historique +389 [Patrickdrouin (10×)] | |||
|
15:15 (actu | diff) +25 Patrickdrouin discussion contributions | ||||
|
15:14 (actu | diff) −41 Patrickdrouin discussion contributions | ||||
|
15:11 (actu | diff) +118 Patrickdrouin discussion contributions | ||||
|
15:09 (actu | diff) +4 Patrickdrouin discussion contributions | ||||
|
15:07 (actu | diff) −23 Patrickdrouin discussion contributions | ||||
|
15:07 (actu | diff) +133 Patrickdrouin discussion contributions | ||||
|
15:05 (actu | diff) +7 Patrickdrouin discussion contributions | ||||
|
15:04 (actu | diff) +149 Patrickdrouin discussion contributions | ||||
|
14:59 (actu | diff) +13 Patrickdrouin discussion contributions | ||||
|
14:58 (actu | diff) +4 Patrickdrouin discussion contributions |
|
15:02 | Attention éclair 3 modifications historique +963 [Patrickdrouin ; Claude COULOMBE (2×)] | |||
|
15:02 (actu | diff) +101 Claude COULOMBE discussion contributions | ||||
|
14:52 (actu | diff) +861 Claude COULOMBE discussion contributions | ||||
|
14:22 (actu | diff) +1 Patrickdrouin discussion contributions |
14:57 | Journal des renommages Patrickdrouin discussion contributions a déplacé la page Gradient normalization vers Normalisation du gradient |
N 14:57 | Gradient normalization diffhist +563 Patrickdrouin discussion contributions (Page créée avec « == en construction == == Définition == La normalisation du gradient est une technique utilisée en apprentissage profond pour stabiliser l'entraînement en redimensionnant les gradients, les empêchant de devenir trop grands ou trop petits, atténuant ainsi les problèmes comme la disparition ou l'explosion des gradients. == Français == ''' normalisation du gradient ''' == Anglais == '''gr... ») |
