Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)
  • 7 juillet 2025 à 14:51Mesure de distance sur des segments textuels (hist | modifier) ‎[1 091 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' Mesure de distance sur des segments texutels''' == Anglais == ''' XXXXXX''' == Sources == [https://www.kdnuggets.com/2017/02/natural-language-processing-key-terms-explained.html Source : KDnuggets] [https://flavien-vidal.medium.com/similarity-distances-for-natural-language-processing-16f63cd5ba55 Source : Medium] [https://pytechie.com/text-similarity-measure-in-nlp/ Source : pytechie]... »)
  • 7 juillet 2025 à 14:46Analyseur LR (hist | modifier) ‎[1 575 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx == Français == ''' Analyseur LR''' == Anglais == ''' LR Parser''' == Sources == [https://www.baeldung.com/cs/ll-vs-lr-parsing Source : Baeldung] [https://www.geeksforgeeks.org/compiler-design/difference-between-ll-and-lr-parser/ Source : Geeks for Geeks] [https://www.geeksforgeeks.org/compiler-design/slr-clr-and-lalr-parsers-set-3/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/LR_parser S... ») créé initialement avec le titre « LR Parser »
  • 7 juillet 2025 à 14:41Analyseur LL (hist | modifier) ‎[1 246 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''analyse syntaxique''' et '''analyse descendante''' == Français == ''' Analyse LL''' == Anglais == ''' LL Parser''' == Sources == [https://www.baeldung.com/cs/ll-vs-lr-parsing Source : Baeldung] [https://www.geeksforgeeks.org/compiler-design/difference-between-ll-and-lr-parser/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/LL_parser Source : Wikipedia] Catégorie:vocab... ») créé initialement avec le titre « LL Parser »
  • 7 juillet 2025 à 14:01Mistral AI (hist | modifier) ‎[689 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== Mistral AI, nom propre désignant une technopousse française pionnière en intelligence artificielle fondée en avril 2023 par trois chercheurs : Arthur Mensch (ex-Google DeepMind), Guillaume Lample (ex-FaceBook / Meta) et Timothée Lacroix (ex-FaceBook / Meta). La mission de Mistral AI: démocratiser l'intelligence artificielle grâce à des modèles, produits et solutions IA en code source ouvert et / ou paramètres ouverts. ==Français== '''... ») créé initialement avec le titre « Mistral »
  • 7 juillet 2025 à 11:12Couplage spin-orbite (hist | modifier) ‎[1 087 octets]Pitpitt (discussion | contributions) (Page créée avec « == '''INFORMATIQUE QUANTIQUE'''== == Définition == Le couplage spin-orbite est un phénomène relativiste dans lequel le spin d’un électron se couple au mouvement orbital de l’électron autour du noyau atomique. Cela a pour conséquence que l’énergie de l’électron dépend de l’orientation relative de son spin et de son moment cinétique, ce qui génère l’apparition de nouveaux niveaux d’énergies atomiques. Ce couplag... »)
  • 7 juillet 2025 à 11:09Correction d’erreur quantique (hist | modifier) ‎[1 650 octets]Pitpitt (discussion | contributions) (Page créée avec « == '''INFORMATIQUE QUANTIQUE'''== == Définition == La correction d'erreur quantique est une façon de protéger l'information quantique contre les erreurs causées, entre autres, par la décohérence des qubits ainsi que par l’application de portes quantiques imparfaites. Étant donné la sensibilité des systèmes quantiques aux perturbations, des algorithmes, souvent appelés codes de correction d'erreurs, sont nécessaires p... »)
  • 7 juillet 2025 à 10:31Code bosonique (hist | modifier) ‎[819 octets]Pitpitt (discussion | contributions) (Page créée avec « == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''XXXXXXXXX''' == Source == [XXXX Source : XXX ] {{Modèle:101Q}} Catégorie:Quantique »)
  • 7 juillet 2025 à 09:57Anyon (hist | modifier) ‎[824 octets]Pitpitt (discussion | contributions) (Page créée avec « == Définition == Les anyons sont des quasi-particules exotiques qui apparaissent uniquement dans des systèmes à deux dimensions. Contrairement aux particules fondamentales connues, comme les bosons, qui peuvent partager un même état quantique, et les fermions, qui ne le peuvent pas, les anyons suivent des règles de statistiques intermédiaires. Le comportement exotique des anyons en fait des candidats idéals pour l’informatique quantique topologique, qui... »)
  • 2 juillet 2025 à 15:41Ovis-U1 (hist | modifier) ‎[399 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Ovis-U1''' == Anglais == '''Ovis-U1''' Ovis-U1, a 3-billion-parameter model, combines multimodal understanding, text-to-image generation, and image editing, achieving state-of-the-art performance in various benchmarks. == Source == [https://huggingface.co/papers/2506.23044 Source : huggingface] Catégorie:vocabulary »)
  • 2 juillet 2025 à 15:40Matryoshka Multimodal Models (hist | modifier) ‎[1 151 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Matryoshka Multimodal Models''' Matryoshka Multimodal Models learn to represent visual content as nested sets of visual tokens that capture information across multiple coarse-to-fine granularities. Our approach offers several unique benefits for LMMs: (1) One can explicitly control the visual granularity per test instance during inference, e.g. , adjusting the... »)
  • 26 juin 2025 à 10:51Best-of-N Strategy (hist | modifier) ‎[2 384 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' Voir aussi '''reward hacking problem''' == Compléments == '' à faire'' <!--The BoN strategy does not scale with the number of samples N due to the reward hacking problem. Particularly significant in scenarios where the AI model may not have a singularly deterministic output but can benefit from generating a spectrum of possibilities to increase the chance of achieving a higher qua... »)
  • 26 juin 2025 à 10:11AnimaX (hist | modifier) ‎[1 123 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' AnimaX''' == Anglais == '''AnimaX''' AnimaX creates multi-skeleton 3D animations by blending video diffusion model priors with skeleton-based control, using joint video-pose diffusion and shared positional encodings. == Source == [https://huggingface.co/papers/2506.19851 Source : huggingface] Catégorie:vocabulary »)
  • 26 juin 2025 à 10:09Drag-and-Drop LLMs (hist | modifier) ‎[1 250 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Drag-and-Drop LLMs''' LoRA, a parameter-efficient finetuning method for large language models, underperforms full finetuning in target domains but provides better regularization and maintains diverse generation compared to other techniques. == Source == [https://huggingface.co/papers/2506.16406 Source : huggingface] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:21Modèle mondial (hist | modifier) ‎[1 127 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''World Model''' == Source == [https://www.nvidia.com/en-us/glossary/world-models/ Source : nvidia ] Catégorie:vocabulary ») créé initialement avec le titre « World Model »
  • 22 juin 2025 à 17:16Polars (hist | modifier) ‎[1 673 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Polars''' == Source == [https://www.nvidia.com/en-us/glossary/polars/ Source : nvidia] Polars is an open-source DataFrame library for data manipulation and analysis. It is implemented in Rust and uses Apache Arrow’s columnar memory format for efficient data processing. The library provides a structured and typed API, enabling users to perform a wide range o... »)
  • 22 juin 2025 à 17:13Numba (hist | modifier) ‎[1 074 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''XXXXXXXXX''' == Source == [https://www.nvidia.com/en-us/glossary/numba/ Source : nvidia] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:12Humanoïde (hist | modifier) ‎[1 913 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Humanoid Robot''' Humanoids are general-purpose, bipedal robots modeled after the human form factor and designed to work alongside humans to augment productivity. They’re capable of learning and performing a variety of tasks, such as grasping an object, moving a container, loading or unloading boxes, and more. == Source == [https://www.nvidia.com/en-us/glos... ») créé initialement avec le titre « Humanoid Robot »
  • 22 juin 2025 à 17:11Data Flywheel (hist | modifier) ‎[1 345 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Data Flywheel''' A data flywheel is a feedback loop where data collected from interactions or processes is used to continuously refine AI models, which in turn generates better outcomes and more valuable data. == Source == [https://www.nvidia.com/en-us/glossary/data-flywheel/ Source : nvidia] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:10AI-RAN (hist | modifier) ‎[1 320 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI-RAN''' AI-RAN AI-RAN (artificial intelligence—radio access network) is a technology that enables the full integration of AI into the radio access network to realize transformative gains in operational performance, deliver new AI-based services, and unlock monetization opportunities. It enhances connectivity across mobile networks by leveraging AI to impro... »)
  • 22 juin 2025 à 17:09Usine d'IA (hist | modifier) ‎[3 024 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI Factory''' An AI factory is a specialized computing infrastructure designed to create value from data by managing the entire AI life cycle, from data ingestion to training, fine-tuning, and high-volume AI inference. The primary product is intelligence, measured by token throughput, which drives decisions, automation, and new AI solutions. == Source ==... ») créé initialement avec le titre « AI Factory »
  • 20 juin 2025 à 16:23Modèle de récompense de processus (hist | modifier) ‎[660 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Process Reward Model''' ''' PRM''' == Sources == [https://arxiv.org/abs/2501.07301 Source : arxiv] [https://github.com/sdiehl/prm Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Process Reward Model »
  • 20 juin 2025 à 16:20Autocohérence (hist | modifier) ‎[1 363 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Self-Consistency''' ''' SC''' == Sources == [https://arxiv.org/html/2408.17017v1 Source : arxiv] [https://medium.com/@linz07m/self-consistency-a-better-approach-for-reasoning-in-llms-1a1b6798d443 Source : Medium] [https://www.promptingguide.ai/techniques/consistency Source : Prompt Engineering Guide] [https://towardsdatascience.com/achieving-greater-self... ») créé initialement avec le titre « Self-Consistency »
  • 20 juin 2025 à 16:14Analyse descendante (hist | modifier) ‎[1 436 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''analyse syntaxique ascendante''' et '''analyse syntaxique''' == Français == ''' Analyse descendante''' == Anglais == ''' Top-Down Parsing''' ''' Top-Down Analysis''' ''' Topdown Analysis''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8410056/analyse-descendante Source : Vitrine linguistique, OQLF] [https://www.btb.termiumplus.gc.ca/tp... ») créé initialement avec le titre « Top-Down Parsing »
  • 20 juin 2025 à 16:08Multi-Token Projection (hist | modifier) ‎[2 258 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''apprentissage par renforcement avec rétroaction humaine''' et '''réseau autoattentif''' == Compléments == ''à faire'' == Français == ''' XXXXXX''' == Anglais == ''' Multi-Token Projection''' ''' Multiple-Token Projection''' ''' MTP''' == Sources == [https://arxiv.org/html/2505.07608v1 Source : arxiv] [https://datascientest.com/multi-token-prediction-tout-savoir Source : DataSc... »)
  • 20 juin 2025 à 15:58Conceptualisation en contextes (hist | modifier) ‎[1 399 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptualization in Contexts''' ''' CiC''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptualization in Contexts »
  • 20 juin 2025 à 15:55Jugement sur la propriété conceptuelle (hist | modifier) ‎[1 249 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Property Judgment''' '''CPJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptual Property Judgment »
  • 20 juin 2025 à 15:26Jugement de similarité conceptuelle (hist | modifier) ‎[1 262 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Similarity Judgment''' ''' CSJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary ») créé initialement avec le titre « Conceptual Similarity Judgment »
  • 20 juin 2025 à 15:23Mot hors vocabulaire (hist | modifier) ‎[985 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Out Of Vocabulary Word''' ''' Out-Of-Vocabulary Word''' ''' OOV word''' == Sources == [https://aclanthology.org/P19-1402/ Source : ACL Anthology] [https://spotintelligence.com/2024/10/08/out-of-vocabulary-oov-words/ Source : Spot Intelligence] Catégorie:vocabulary ») créé initialement avec le titre « Out Of Vocabulary Word »
  • 20 juin 2025 à 15:19Régression de buts (hist | modifier) ‎[746 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''apprentissage basé sur l'explication''' == Français == ''' Régression de buts''' ''' Régression de but''' ''' Substitution régressive''' == Anglais == ''' Goal Regression''' == Sources == [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=r%C3%A9gression+de+buts&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] [https://vitrinelinguistique.oqlf.g... ») créé initialement avec le titre « Goal Regression »
  • 19 juin 2025 à 13:35KV Cache (hist | modifier) ‎[1 045 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''KV Cache''' a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn't include it in the book), and can't be us... »)
  • 19 juin 2025 à 13:34MiniMax-M1 (hist | modifier) ‎[1 336 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == == Français == ''' MiniMax-M1''' == Anglais == '''MiniMax-M1''' MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model. MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. The model is developed based on our previous MiniMax-Text-01 model, which contains a total of 456 billion parameters with 45.9 billion parameters ac... »)
  • 12 juin 2025 à 16:54Multi-Target Tracking (hist | modifier) ‎[1 327 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == xxxx == Français == ''' XXXXXXX''' == Anglais == ''' Multi-Target Tracking''' ''' MTT''' ''' Multi-Object Tracking''' == Sources == [https://pmc.ncbi.nlm.nih.gov/articles/PMC7144962/ Source : PLOS - Computational Biology] [https://www.sciencedirect.com/science/article/abs/pii/S1874490724000211 Source : ScienceDirect] [https://www.sciencedirect.com/topics/engineering/multi-target-track... »)
  • 12 juin 2025 à 15:25Corruption silencieuse du modèle (hist | modifier) ‎[1 002 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == Attention! Ce ne sont pas les données qui sont corrompues, mais plutôt le modèle. == Français == ''' Corruption silencieuse du modèle''' ''' Corruption silencieuse du modèle à l'entraînement''' == Anglais == ''' Silent Data Corruption''' ''' SDC''' ''' Silent Data Error''' ''' SDE''' == Sources == [https://support.google.com/cloud/answer/10759085?hl=en Source : Google Cloud Platf... ») créé initialement avec le titre « Silent Data Corruption »
  • 12 juin 2025 à 15:12Requête par l'exemple (hist | modifier) ‎[628 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Requête par l'exemple''' ''' Interrogation par l'exemple''' == Anglais == ''' Query By Example''' ''' QBE''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8368073/interrogation-par-lexemple Source : GDT] [https://www.geeksforgeeks.org/dbms/query-by-example-qbe/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/Query_by_Example Source : Wikipedia]... ») créé initialement avec le titre « Query By Example »
  • 12 juin 2025 à 15:04Apprentissage peu profond (hist | modifier) ‎[1 840 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''réseau peu profond''' == Français == ''' Apprentissage peu profond''' == Anglais == ''' Shallow Learning''' ''' SL''' ''' Shallow Machine Learning''' == Sources == [https://medium.com/@hassaanidrees7/shallow-learning-vs-deep-learning-is-bigger-always-better-51c0bd21f059 Source : Medium] [https://mljourney.com/shallow-vs-deep-learning-key-differences/ Source : ML Journey] [https://www... ») créé initialement avec le titre « Shallow Learning »
  • 12 juin 2025 à 14:53Segmentation d'instances (hist | modifier) ‎[1 862 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''Panoptic Segmentation''', '''segmentation sémantique''' et '''vision artificielle''' == Français == ''' Segmentation d'instances''' ''' Segmentation d'instance''' ''' Segmentation par instance''' == Anglais == ''' Instance segmentation''' == Sources == [https://www.geeksforgeeks.org/computer-vision/semantic-segmentation-vs-instance-segmentation/ Source : Geek... ») créé initialement avec le titre « Instance Segmentation »
  • 11 juin 2025 à 15:11Segmentation Panoptique (hist | modifier) ‎[2 762 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Segmentation Panoptique''' == Anglais == '''Panoptic Segmentation''' == Sources == [https://arxiv.org/abs/1801.00868 Source : arxiv] [https://paperswithcode.com/task/panoptic-segmentation Source : paperswithcode] [https://pyimagesearch.com/2022/06/29/semantic-vs-instance-vs-panoptic-segmentation/ Source : pyimagesearch] [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang... ») créé initialement avec le titre « Panoptic Segmentation »
  • 11 juin 2025 à 15:06Traduction automatique à base de règles (hist | modifier) ‎[1 687 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == '''Traduction automatique à base de règles''' '''TABR''' == Anglais == ''' Rule-Based Machine Translation''' ''' RBMT''' == Sources == [https://www.noslangues-ourlanguages.gc.ca/fr/chroniques-de-langue/abrege-de-traduction-automatique Source : Gouvernement du Canada, ''Abrégé de traduction''] [https://interstices.info/la-traduction-automatique-statistique-comment-ca-marche/ Source : int... ») créé initialement avec le titre « Rule-Based Machine Translation »
  • 11 juin 2025 à 14:23Indice de Jaccard (hist | modifier) ‎[1 762 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Indice de Jaccard''' '''IoU''' == Anglais == ''' Jaccard Similarity''' ''' Jaccard Similarity Index''' ''' Jaccard Index''' ''' Intersection Over Union''' ''' IoU''' == Sources == [https://www.geeksforgeeks.org/how-to-calculate-jaccard-similarity-in-python/ Source : Geeks for Geeks] [https://www.kdnuggets.com/2017/02/natural-language-processing-key-terms-explained.html Source : KDnug... ») créé initialement avec le titre « Jaccard Similarity »
  • 11 juin 2025 à 13:43Robustesse syntaxique (hist | modifier) ‎[1 125 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXXX == Français == '''XXXXXX''' == Anglais == '''Syntactic Robustness''' ''Informally, we define syntactic robustness as the degree to which the semantically equivalent prompts elicit semantically equivalent responses.'' == Sources == [https://arxiv.org/abs/2404.01535 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Syntactic Robustness »
  • 3 juin 2025 à 14:35Loi zéro (hist | modifier) ‎[1 135 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == En construction == == Définition == Loi inventée par l'écrivain de science-fiction Isaac Asimov dans le cadre de ses lois de la robotique, stipulant que les robots ne peuvent ni faire de mal à l'humanité ni permettre qu'elle soit blessée. == Compléments == La loi Zéro d'Asimov a été la source d'inspiration pour le laboratoire LoiZéro/LawZero par Yoshua Bengio. == Français == '''loi zéro''' == Anglais == '''zeroth law''' ==Sources== [htt... »)
  • 1 juin 2025 à 15:35Natural Language Inference (hist | modifier) ‎[1 652 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Natural Language Inference''' ''' NLI''' ''' Textual Entailment''' ''' TE''' == Sources == [https://arxiv.org/abs/2409.13731 Source : arxiv] [https://nlp.stanford.edu/projects/snli/ Source : Stanford.edu] [https://towardsdatascience.com/natural-language-inference-an-overview-57c0eecf6517/ Source : towards data science] [https://en.wikipedia.org/wiki/Tex... »)
  • 26 mai 2025 à 16:09COPEN (hist | modifier) ‎[1 249 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' COPEN''' == Anglais == '''COPEN''' A new benchmark evaluates PLMs' conceptual knowledge through tasks assessing conceptual similarities, properties, and context comprehension, revealing significant gaps compared to human-like cognition. == Source == [https://huggingface.co/papers/2211.04079 Source : huggingface] Catégorie:vocabulary »)
  • 26 mai 2025 à 16:07KRIS-Bench (hist | modifier) ‎[1 169 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' KRIS-Bench''' == Anglais == '''KRIS-Bench''' A comprehensive benchmark for evaluating knowledge-based reasoning capabilities in image editing models. While recent advances in multi-modal generative models have improved visual quality in image editing, their ability to perform edits that require real-world knowledge and reasoning remains under-explored. KRIS-Bench addresses this gap by provid... »)
  • 23 mai 2025 à 11:04WEB-SHEPHERD (hist | modifier) ‎[1 539 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''WEB-SHEPHERD''' he first process reward model (PRM) specifically designed for web navigation tasks. It addresses the challenges of evaluating web agent trajectories at a step-by-step level, which is crucial for improving agent performance in long-horizon web tasks. WEB-SHEPHERD is designed as a process reward model that evaluates web navigation trajectories at... »)
  • 20 mai 2025 à 14:55Insertion de segment textuel (hist | modifier) ‎[649 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''Token Masking''' == Français == '''XXXXXXX''' == Anglais == ''' Text Infilling''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Text Infilling »
  • 20 mai 2025 à 14:52Rotation de phrases (hist | modifier) ‎[626 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''préentraînement''' et '''segment textuel''' == Français == '''XXXXXXX''' == Anglais == ''' Document Rotation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Document Rotation »
  • 20 mai 2025 à 14:49Permutation de phrases (hist | modifier) ‎[855 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''préentraînement''' == Français == '''XXXXXX''' == Anglais == '''Sentence Permutation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Sentence Permutation »
  • 20 mai 2025 à 14:46Suppression de segment textuel (hist | modifier) ‎[891 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''segment texutel''' == Français == ''' XXXXXXX''' == Anglais == ''' Token Deletion''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Token Deletion »
  • 20 mai 2025 à 10:36Qwen (hist | modifier) ‎[1 841 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Qwen''' == Anglais == '''Qwen'''   The latest version of the Qwen model family. Qwen3 comprises a series of large language models (LLMs) designed to advance performance, efficiency, and multilingual capabilities. The Qwen3 series includes models of both dense and Mixture-of-Expert (MoE) architectures, with parameter scales ranging from 0.6 to 235 billion. A key innovation in Qwen3 is the int... »)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)