« BERT » : différence entre les versions


m (Remplacement de texte : « ↵↵↵ » par «   »)
Aucun résumé des modifications
 
(Une version intermédiaire par un autre utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]''.  Créé par une équipe de Google en 2018, BERT fut le premier grand [[modèle de langue]].
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]'').  Créé par une équipe de Google en 2018, BERT fut le premier grand [[modèle de langue]].


== Compléments ==
== Compléments ==
Ligne 13 : Ligne 13 :


'''Bidirectional Encoder Representations from Transformers'''
'''Bidirectional Encoder Representations from Transformers'''
==Sources==
==Sources==



Dernière version du 29 juin 2025 à 17:22

Définition

Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de réseaux autoattentifs). Créé par une équipe de Google en 2018, BERT fut le premier grand modèle de langue.

Compléments

BERT utilise une stratégie d'apprentissage profond du traitement automatique du langage naturel (TALN) dans lequel des réseaux autoattentifs sont entraînés d'une manière bidirectionnelle par apprentissage non supervisé.

Français

BERT

Anglais

BERT

Bidirectional Encoder Representations from Transformers

Sources

Source : Wikipedia (BERT - Language model)

Source: Definir Tech