Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Afficher robot(s) | Afficher redirections(s)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)
  • 20 juin 2025 à 16:23Modèle de récompense de processus (hist | modifier) ‎[660 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Process Reward Model''' ''' PRM''' == Sources == [https://arxiv.org/abs/2501.07301 Source : arxiv] [https://github.com/sdiehl/prm Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Process Reward Model »
  • 20 juin 2025 à 16:20Autocohérence (hist | modifier) ‎[1 363 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Self-Consistency''' ''' SC''' == Sources == [https://arxiv.org/html/2408.17017v1 Source : arxiv] [https://medium.com/@linz07m/self-consistency-a-better-approach-for-reasoning-in-llms-1a1b6798d443 Source : Medium] [https://www.promptingguide.ai/techniques/consistency Source : Prompt Engineering Guide] [https://towardsdatascience.com/achieving-greater-self... ») créé initialement avec le titre « Self-Consistency »
  • 20 juin 2025 à 16:14Analyse descendante (hist | modifier) ‎[1 436 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''analyse syntaxique ascendante''' et '''analyse syntaxique''' == Français == ''' Analyse descendante''' == Anglais == ''' Top-Down Parsing''' ''' Top-Down Analysis''' ''' Topdown Analysis''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8410056/analyse-descendante Source : Vitrine linguistique, OQLF] [https://www.btb.termiumplus.gc.ca/tp... ») créé initialement avec le titre « Top-Down Parsing »
  • 20 juin 2025 à 16:08Multi-Token Projection (hist | modifier) ‎[2 258 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''apprentissage par renforcement avec rétroaction humaine''' et '''réseau autoattentif''' == Compléments == ''à faire'' == Français == ''' XXXXXX''' == Anglais == ''' Multi-Token Projection''' ''' Multiple-Token Projection''' ''' MTP''' == Sources == [https://arxiv.org/html/2505.07608v1 Source : arxiv] [https://datascientest.com/multi-token-prediction-tout-savoir Source : DataSc... »)
  • 20 juin 2025 à 15:58Conceptualisation en contextes (hist | modifier) ‎[1 399 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptualization in Contexts''' ''' CiC''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptualization in Contexts »
  • 20 juin 2025 à 15:55Jugement sur la propriété conceptuelle (hist | modifier) ‎[1 249 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Property Judgment''' '''CPJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptual Property Judgment »
  • 20 juin 2025 à 15:26Jugement de similarité conceptuelle (hist | modifier) ‎[1 262 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Similarity Judgment''' ''' CSJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptual Similarity Judgment »
  • 20 juin 2025 à 15:23Mot hors vocabulaire (hist | modifier) ‎[985 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Out Of Vocabulary Word''' ''' Out-Of-Vocabulary Word''' ''' OOV word''' == Sources == [https://aclanthology.org/P19-1402/ Source : ACL Anthology] [https://spotintelligence.com/2024/10/08/out-of-vocabulary-oov-words/ Source : Spot Intelligence] Catégorie:vocabulary ») créé initialement avec le titre « Out Of Vocabulary Word »
  • 20 juin 2025 à 15:19Régression de buts (hist | modifier) ‎[746 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''apprentissage basé sur l'explication''' == Français == ''' Régression de buts''' ''' Régression de but''' ''' Substitution régressive''' == Anglais == ''' Goal Regression''' == Sources == [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=r%C3%A9gression+de+buts&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] [https://vitrinelinguistique.oqlf.g... ») créé initialement avec le titre « Goal Regression »
  • 19 juin 2025 à 13:35KV Cache (hist | modifier) ‎[1 045 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''KV Cache''' a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn't include it in the book), and can't be us... »)
  • 19 juin 2025 à 13:34MiniMax-M1 (hist | modifier) ‎[1 336 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == == Français == ''' MiniMax-M1''' == Anglais == '''MiniMax-M1''' MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model. MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. The model is developed based on our previous MiniMax-Text-01 model, which contains a total of 456 billion parameters with 45.9 billion parameters ac... »)
  • 12 juin 2025 à 16:54Multi-Target Tracking (hist | modifier) ‎[1 327 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == xxxx == Français == ''' XXXXXXX''' == Anglais == ''' Multi-Target Tracking''' ''' MTT''' ''' Multi-Object Tracking''' == Sources == [https://pmc.ncbi.nlm.nih.gov/articles/PMC7144962/ Source : PLOS - Computational Biology] [https://www.sciencedirect.com/science/article/abs/pii/S1874490724000211 Source : ScienceDirect] [https://www.sciencedirect.com/topics/engineering/multi-target-track... »)
  • 12 juin 2025 à 15:25Corruption silencieuse du modèle (hist | modifier) ‎[1 002 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == Attention! Ce ne sont pas les données qui sont corrompues, mais plutôt le modèle. == Français == ''' Corruption silencieuse du modèle''' ''' Corruption silencieuse du modèle à l'entraînement''' == Anglais == ''' Silent Data Corruption''' ''' SDC''' ''' Silent Data Error''' ''' SDE''' == Sources == [https://support.google.com/cloud/answer/10759085?hl=en Source : Google Cloud Platf... ») créé initialement avec le titre « Silent Data Corruption »
  • 12 juin 2025 à 15:12Requête par l'exemple (hist | modifier) ‎[628 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Requête par l'exemple''' ''' Interrogation par l'exemple''' == Anglais == ''' Query By Example''' ''' QBE''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8368073/interrogation-par-lexemple Source : GDT] [https://www.geeksforgeeks.org/dbms/query-by-example-qbe/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/Query_by_Example Source : Wikipedia]... ») créé initialement avec le titre « Query By Example »
  • 12 juin 2025 à 15:04Apprentissage peu profond (hist | modifier) ‎[1 840 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''réseau peu profond''' == Français == ''' Apprentissage peu profond''' == Anglais == ''' Shallow Learning''' ''' SL''' ''' Shallow Machine Learning''' == Sources == [https://medium.com/@hassaanidrees7/shallow-learning-vs-deep-learning-is-bigger-always-better-51c0bd21f059 Source : Medium] [https://mljourney.com/shallow-vs-deep-learning-key-differences/ Source : ML Journey] [https://www... ») créé initialement avec le titre « Shallow Learning »
  • 12 juin 2025 à 14:53Segmentation d'instances (hist | modifier) ‎[1 862 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''Panoptic Segmentation''', '''segmentation sémantique''' et '''vision artificielle''' == Français == ''' Segmentation d'instances''' ''' Segmentation d'instance''' ''' Segmentation par instance''' == Anglais == ''' Instance segmentation''' == Sources == [https://www.geeksforgeeks.org/computer-vision/semantic-segmentation-vs-instance-segmentation/ Source : Geek... ») créé initialement avec le titre « Instance Segmentation »
  • 11 juin 2025 à 15:11Segmentation Panoptique (hist | modifier) ‎[2 762 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Segmentation Panoptique''' == Anglais == '''Panoptic Segmentation''' == Sources == [https://arxiv.org/abs/1801.00868 Source : arxiv] [https://paperswithcode.com/task/panoptic-segmentation Source : paperswithcode] [https://pyimagesearch.com/2022/06/29/semantic-vs-instance-vs-panoptic-segmentation/ Source : pyimagesearch] [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang... ») créé initialement avec le titre « Panoptic Segmentation »
  • 11 juin 2025 à 15:06Traduction automatique à base de règles (hist | modifier) ‎[1 687 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == '''Traduction automatique à base de règles''' '''TABR''' == Anglais == ''' Rule-Based Machine Translation''' ''' RBMT''' == Sources == [https://www.noslangues-ourlanguages.gc.ca/fr/chroniques-de-langue/abrege-de-traduction-automatique Source : Gouvernement du Canada, ''Abrégé de traduction''] [https://interstices.info/la-traduction-automatique-statistique-comment-ca-marche/ Source : int... ») créé initialement avec le titre « Rule-Based Machine Translation »
  • 11 juin 2025 à 14:23Indice de Jaccard (hist | modifier) ‎[1 762 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Indice de Jaccard''' '''IoU''' == Anglais == ''' Jaccard Similarity''' ''' Jaccard Similarity Index''' ''' Jaccard Index''' ''' Intersection Over Union''' ''' IoU''' == Sources == [https://www.geeksforgeeks.org/how-to-calculate-jaccard-similarity-in-python/ Source : Geeks for Geeks] [https://www.kdnuggets.com/2017/02/natural-language-processing-key-terms-explained.html Source : KDnug... ») créé initialement avec le titre « Jaccard Similarity »
  • 11 juin 2025 à 13:43Robustesse syntaxique (hist | modifier) ‎[1 125 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXXX == Français == '''XXXXXX''' == Anglais == '''Syntactic Robustness''' ''Informally, we define syntactic robustness as the degree to which the semantically equivalent prompts elicit semantically equivalent responses.'' == Sources == [https://arxiv.org/abs/2404.01535 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Syntactic Robustness »
  • 3 juin 2025 à 14:35Loi zéro (hist | modifier) ‎[1 135 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == En construction == == Définition == Loi inventée par l'écrivain de science-fiction Isaac Asimov dans le cadre de ses lois de la robotique, stipulant que les robots ne peuvent ni faire de mal à l'humanité ni permettre qu'elle soit blessée. == Compléments == La loi Zéro d'Asimov a été la source d'inspiration pour le laboratoire LoiZéro/LawZero par Yoshua Bengio. == Français == '''loi zéro''' == Anglais == '''zeroth law''' ==Sources== [htt... »)
  • 1 juin 2025 à 15:35Natural Language Inference (hist | modifier) ‎[1 652 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Natural Language Inference''' ''' NLI''' ''' Textual Entailment''' ''' TE''' == Sources == [https://arxiv.org/abs/2409.13731 Source : arxiv] [https://nlp.stanford.edu/projects/snli/ Source : Stanford.edu] [https://towardsdatascience.com/natural-language-inference-an-overview-57c0eecf6517/ Source : towards data science] [https://en.wikipedia.org/wiki/Tex... »)
  • 26 mai 2025 à 16:09COPEN (hist | modifier) ‎[1 249 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' COPEN''' == Anglais == '''COPEN''' A new benchmark evaluates PLMs' conceptual knowledge through tasks assessing conceptual similarities, properties, and context comprehension, revealing significant gaps compared to human-like cognition. == Source == [https://huggingface.co/papers/2211.04079 Source : huggingface] Catégorie:vocabulary »)
  • 26 mai 2025 à 16:07KRIS-Bench (hist | modifier) ‎[1 169 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' KRIS-Bench''' == Anglais == '''KRIS-Bench''' A comprehensive benchmark for evaluating knowledge-based reasoning capabilities in image editing models. While recent advances in multi-modal generative models have improved visual quality in image editing, their ability to perform edits that require real-world knowledge and reasoning remains under-explored. KRIS-Bench addresses this gap by provid... »)
  • 23 mai 2025 à 11:04WEB-SHEPHERD (hist | modifier) ‎[1 539 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''WEB-SHEPHERD''' he first process reward model (PRM) specifically designed for web navigation tasks. It addresses the challenges of evaluating web agent trajectories at a step-by-step level, which is crucial for improving agent performance in long-horizon web tasks. WEB-SHEPHERD is designed as a process reward model that evaluates web navigation trajectories at... »)
  • 20 mai 2025 à 14:55Insertion de segment textuel (hist | modifier) ‎[649 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''Token Masking''' == Français == '''XXXXXXX''' == Anglais == ''' Text Infilling''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Text Infilling »
  • 20 mai 2025 à 14:52Rotation de phrases (hist | modifier) ‎[626 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''préentraînement''' et '''segment textuel''' == Français == '''XXXXXXX''' == Anglais == ''' Document Rotation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Document Rotation »
  • 20 mai 2025 à 14:49Permutation de phrases (hist | modifier) ‎[855 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''préentraînement''' == Français == '''XXXXXX''' == Anglais == '''Sentence Permutation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Sentence Permutation »
  • 20 mai 2025 à 14:46Suppression de segment textuel (hist | modifier) ‎[891 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''segment texutel''' == Français == ''' XXXXXXX''' == Anglais == ''' Token Deletion''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Token Deletion »
  • 20 mai 2025 à 10:36Qwen (hist | modifier) ‎[1 841 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Qwen''' == Anglais == '''Qwen'''   The latest version of the Qwen model family. Qwen3 comprises a series of large language models (LLMs) designed to advance performance, efficiency, and multilingual capabilities. The Qwen3 series includes models of both dense and Mixture-of-Expert (MoE) architectures, with parameter scales ranging from 0.6 to 235 billion. A key innovation in Qwen3 is the int... »)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)