« FlauBERT » : différence entre les versions


(Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''BERT''' et '''RoBERTa''' == Français == ''' FlauBERT''' == Anglais == ''' FlauBERT''' ''It’s a transformer model pretrained using a masked language modeling (MLM) objective (like BERT).'' == Source == [https://arxiv.org/abs/1912.05372 source : arxiv] [https://hal.science/hal-02784776v3/document Source : HAL Science] [https://huggingface.co/docs/transformers/model_doc/flaubert So... »)
 
Aucun résumé des modifications
 
(2 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
XXXXXX
FlauBERT, acronyme de ''French Language Understanding via Bidirectional Encoder Representations from Transformers'', est un langage pré-entraîné pour le français. Il possède la même architecture de modèle que '''[[BERT]]''' et il a appris sur un corpus français très large et hétérogène. Il ne dispose pas de la prédiction de l'ordre des phrases de '''[[RoBERTa]]'''.
 
Voir aussi '''[[BERT]]''' et '''[[RoBERTa]]'''


== Français ==
== Français ==
Ligne 12 : Ligne 8 :
''' FlauBERT'''
''' FlauBERT'''


''It’s a transformer model pretrained using a masked language modeling (MLM) objective (like BERT).''
''FlauBERT is a pre-trained language for French and it stands for French Language Understanding via Bidirectional Encoder Representations from Transformers. It has the same model architecture as BERT and it learned on a very large and heterogenous French corpus. It does not have the sentence ordering prediction of RoBERTa.''


== Source ==
== Source ==
Ligne 21 : Ligne 17 :
[https://huggingface.co/docs/transformers/model_doc/flaubert  Source : Huggingface]
[https://huggingface.co/docs/transformers/model_doc/flaubert  Source : Huggingface]


[[Catégorie:vocabulary]]
[[Catégorie:ENGLISH]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 3 décembre 2024 à 18:50

Définition

FlauBERT, acronyme de French Language Understanding via Bidirectional Encoder Representations from Transformers, est un langage pré-entraîné pour le français. Il possède la même architecture de modèle que BERT et il a appris sur un corpus français très large et hétérogène. Il ne dispose pas de la prédiction de l'ordre des phrases de RoBERTa.

Français

FlauBERT

Anglais

FlauBERT

FlauBERT is a pre-trained language for French and it stands for French Language Understanding via Bidirectional Encoder Representations from Transformers. It has the same model architecture as BERT and it learned on a very large and heterogenous French corpus. It does not have the sentence ordering prediction of RoBERTa.

Source

source : arxiv

Source : HAL Science

Source : Huggingface

Contributeurs: Arianne , wiki