Nouvelles pages
- 22 juin 2025 à 17:21 World Model (hist | modifier) [231 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''World Model''' == Source == [https://www.nvidia.com/en-us/glossary/world-models/ Source : nvidia ] Catégorie:vocabulary »)
- 22 juin 2025 à 17:16 Polars (hist | modifier) [677 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Polars''' == Source == [https://www.nvidia.com/en-us/glossary/polars/ Source : nvidia] Polars is an open-source DataFrame library for data manipulation and analysis. It is implemented in Rust and uses Apache Arrow’s columnar memory format for efficient data processing. The library provides a structured and typed API, enabling users to perform a wide range o... »)
- 22 juin 2025 à 17:13 Numba (hist | modifier) [225 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''XXXXXXXXX''' == Source == [https://www.nvidia.com/en-us/glossary/numba/ Source : nvidia] Catégorie:vocabulary »)
- 22 juin 2025 à 17:12 Humanoid Robot (hist | modifier) [534 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Humanoid Robot''' Humanoids are general-purpose, bipedal robots modeled after the human form factor and designed to work alongside humans to augment productivity. They’re capable of learning and performing a variety of tasks, such as grasping an object, moving a container, loading or unloading boxes, and more. == Source == [https://www.nvidia.com/en-us/glos... »)
- 22 juin 2025 à 17:11 Data Flywheel (hist | modifier) [428 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Data Flywheel''' A data flywheel is a feedback loop where data collected from interactions or processes is used to continuously refine AI models, which in turn generates better outcomes and more valuable data. == Source == [https://www.nvidia.com/en-us/glossary/data-flywheel/ Source : nvidia] Catégorie:vocabulary »)
- 22 juin 2025 à 17:10 AI-RAN (hist | modifier) [655 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI-RAN''' AI-RAN AI-RAN (artificial intelligence—radio access network) is a technology that enables the full integration of AI into the radio access network to realize transformative gains in operational performance, deliver new AI-based services, and unlock monetization opportunities. It enhances connectivity across mobile networks by leveraging AI to impro... »)
- 22 juin 2025 à 17:09 AI Factory (hist | modifier) [564 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI Factory''' An AI factory is a specialized computing infrastructure designed to create value from data by managing the entire AI life cycle, from data ingestion to training, fine-tuning, and high-volume AI inference. The primary product is intelligence, measured by token throughput, which drives decisions, automation, and new AI solutions. == Source ==... »)
- 20 juin 2025 à 16:23 Process Reward Model (hist | modifier) [279 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Process Reward Model''' ''' PRM''' == Sources == [https://arxiv.org/abs/2501.07301 Source : arxiv] [https://github.com/sdiehl/prm Source : GitHub] Catégorie:vocabulary »)
- 20 juin 2025 à 16:20 Self-Consistency (hist | modifier) [1 373 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Self-Consistency''' ''' SC''' == Sources == [https://arxiv.org/html/2408.17017v1 Source : arxiv] [https://medium.com/@linz07m/self-consistency-a-better-approach-for-reasoning-in-llms-1a1b6798d443 Source : Medium] [https://www.promptingguide.ai/techniques/consistency Source : Prompt Engineering Guide] [https://towardsdatascience.com/achieving-greater-self... »)
- 20 juin 2025 à 16:14 Top-Down Parsing (hist | modifier) [1 446 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''analyse syntaxique ascendante''' et '''analyse syntaxique''' == Français == ''' Analyse descendante''' == Anglais == ''' Top-Down Parsing''' ''' Top-Down Analysis''' ''' Topdown Analysis''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8410056/analyse-descendante Source : Vitrine linguistique, OQLF] [https://www.btb.termiumplus.gc.ca/tp... »)
- 20 juin 2025 à 16:08 Multi-Token Projection (hist | modifier) [2 258 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''apprentissage par renforcement avec rétroaction humaine''' et '''réseau autoattentif''' == Compléments == ''à faire'' == Français == ''' XXXXXX''' == Anglais == ''' Multi-Token Projection''' ''' Multiple-Token Projection''' ''' MTP''' == Sources == [https://arxiv.org/html/2505.07608v1 Source : arxiv] [https://datascientest.com/multi-token-prediction-tout-savoir Source : DataSc... »)
- 20 juin 2025 à 15:58 Conceptualization in Contexts (hist | modifier) [1 409 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptualization in Contexts''' ''' CiC''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
- 20 juin 2025 à 15:55 Conceptual Property Judgment (hist | modifier) [1 259 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Property Judgment''' '''CPJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
- 20 juin 2025 à 15:26 Conceptual Similarity Judgment (hist | modifier) [1 272 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Similarity Judgment''' ''' CSJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
- 20 juin 2025 à 15:23 Out Of Vocabulary Word (hist | modifier) [995 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Out Of Vocabulary Word''' ''' Out-Of-Vocabulary Word''' ''' OOV word''' == Sources == [https://aclanthology.org/P19-1402/ Source : ACL Anthology] [https://spotintelligence.com/2024/10/08/out-of-vocabulary-oov-words/ Source : Spot Intelligence] Catégorie:vocabulary »)
- 20 juin 2025 à 15:19 Goal Regression (hist | modifier) [755 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''apprentissage basé sur l'explication''' == Français == ''' Régression de buts''' ''' Régression de but''' ''' Substitution régressive''' == Anglais == ''' Goal Regression''' == Sources == [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=r%C3%A9gression+de+buts&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] [https://vitrinelinguistique.oqlf.g... »)
- 19 juin 2025 à 13:35 KV Cache (hist | modifier) [1 045 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''KV Cache''' a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn't include it in the book), and can't be us... »)
- 19 juin 2025 à 13:34 MiniMax-M1 (hist | modifier) [854 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == == Français == ''' MiniMax-M1''' == Anglais == '''MiniMax-M1''' MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model. MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. The model is developed based on our previous MiniMax-Text-01 model, which contains a total of 456 billion parameters with 45.9 billion parameters ac... »)
- 12 juin 2025 à 16:54 Multi-Target Tracking (hist | modifier) [1 327 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == xxxx == Français == ''' XXXXXXX''' == Anglais == ''' Multi-Target Tracking''' ''' MTT''' ''' Multi-Object Tracking''' == Sources == [https://pmc.ncbi.nlm.nih.gov/articles/PMC7144962/ Source : PLOS - Computational Biology] [https://www.sciencedirect.com/science/article/abs/pii/S1874490724000211 Source : ScienceDirect] [https://www.sciencedirect.com/topics/engineering/multi-target-track... »)
- 12 juin 2025 à 15:25 Silent Data Corruption (hist | modifier) [1 012 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == Attention! Ce ne sont pas les données qui sont corrompues, mais plutôt le modèle. == Français == ''' Corruption silencieuse du modèle''' ''' Corruption silencieuse du modèle à l'entraînement''' == Anglais == ''' Silent Data Corruption''' ''' SDC''' ''' Silent Data Error''' ''' SDE''' == Sources == [https://support.google.com/cloud/answer/10759085?hl=en Source : Google Cloud Platf... »)
- 12 juin 2025 à 15:12 Query By Example (hist | modifier) [638 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Requête par l'exemple''' ''' Interrogation par l'exemple''' == Anglais == ''' Query By Example''' ''' QBE''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8368073/interrogation-par-lexemple Source : GDT] [https://www.geeksforgeeks.org/dbms/query-by-example-qbe/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/Query_by_Example Source : Wikipedia]... »)
- 12 juin 2025 à 15:04 Shallow Learning (hist | modifier) [1 850 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''réseau peu profond''' == Français == ''' Apprentissage peu profond''' == Anglais == ''' Shallow Learning''' ''' SL''' ''' Shallow Machine Learning''' == Sources == [https://medium.com/@hassaanidrees7/shallow-learning-vs-deep-learning-is-bigger-always-better-51c0bd21f059 Source : Medium] [https://mljourney.com/shallow-vs-deep-learning-key-differences/ Source : ML Journey] [https://www... »)
- 12 juin 2025 à 14:53 Instance Segmentation (hist | modifier) [1 872 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''Panoptic Segmentation''', '''segmentation sémantique''' et '''vision artificielle''' == Français == ''' Segmentation d'instances''' ''' Segmentation d'instance''' ''' Segmentation par instance''' == Anglais == ''' Instance segmentation''' == Sources == [https://www.geeksforgeeks.org/computer-vision/semantic-segmentation-vs-instance-segmentation/ Source : Geek... »)
- 11 juin 2025 à 15:11 Panoptic Segmentation (hist | modifier) [2 772 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Segmentation Panoptique''' == Anglais == '''Panoptic Segmentation''' == Sources == [https://arxiv.org/abs/1801.00868 Source : arxiv] [https://paperswithcode.com/task/panoptic-segmentation Source : paperswithcode] [https://pyimagesearch.com/2022/06/29/semantic-vs-instance-vs-panoptic-segmentation/ Source : pyimagesearch] [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang... »)
- 11 juin 2025 à 15:06 Traduction automatique à base de règles (hist | modifier) [1 698 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == '''Traduction automatique à base de règles''' '''TABR''' == Anglais == ''' Rule-Based Machine Translation''' ''' RBMT''' == Sources == [https://www.noslangues-ourlanguages.gc.ca/fr/chroniques-de-langue/abrege-de-traduction-automatique Source : Gouvernement du Canada, ''Abrégé de traduction''] [https://interstices.info/la-traduction-automatique-statistique-comment-ca-marche/ Source : int... ») créé initialement avec le titre « Rule-Based Machine Translation »
- 11 juin 2025 à 14:23 Jaccard Similarity (hist | modifier) [2 439 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Indice de Jaccard''' '''IoU''' == Anglais == ''' Jaccard Similarity''' ''' Jaccard Similarity Index''' ''' Jaccard Index''' ''' Intersection Over Union''' ''' IoU''' == Sources == [https://www.geeksforgeeks.org/how-to-calculate-jaccard-similarity-in-python/ Source : Geeks for Geeks] [https://www.kdnuggets.com/2017/02/natural-language-processing-key-terms-explained.html Source : KDnug... »)
- 11 juin 2025 à 13:43 Syntactic Robustness (hist | modifier) [1 133 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXXX == Français == '''XXXXXX''' == Anglais == '''Syntactic Robustness''' ''Informally, we define syntactic robustness as the degree to which the semantically equivalent prompts elicit semantically equivalent responses.'' == Sources == [https://arxiv.org/abs/2404.01535 Source : arxiv] Catégorie:vocabulary »)
- 3 juin 2025 à 14:35 Loi zéro (hist | modifier) [1 135 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == En construction == == Définition == Loi inventée par l'écrivain de science-fiction Isaac Asimov dans le cadre de ses lois de la robotique, stipulant que les robots ne peuvent ni faire de mal à l'humanité ni permettre qu'elle soit blessée. == Compléments == La loi Zéro d'Asimov a été la source d'inspiration pour le laboratoire LoiZéro/LawZero par Yoshua Bengio. == Français == '''loi zéro''' == Anglais == '''zeroth law''' ==Sources== [htt... »)
- 1 juin 2025 à 15:35 Natural Language Inference (hist | modifier) [1 652 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Natural Language Inference''' ''' NLI''' ''' Textual Entailment''' ''' TE''' == Sources == [https://arxiv.org/abs/2409.13731 Source : arxiv] [https://nlp.stanford.edu/projects/snli/ Source : Stanford.edu] [https://towardsdatascience.com/natural-language-inference-an-overview-57c0eecf6517/ Source : towards data science] [https://en.wikipedia.org/wiki/Tex... »)
- 26 mai 2025 à 16:09 COPEN (hist | modifier) [1 274 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' COPEN''' == Anglais == '''COPEN''' A new benchmark evaluates PLMs' conceptual knowledge through tasks assessing conceptual similarities, properties, and context comprehension, revealing significant gaps compared to human-like cognition. == Source == [https://huggingface.co/papers/2211.04079 Source : huggingface] Catégorie:vocabulary »)
- 26 mai 2025 à 16:07 KRIS-Bench (hist | modifier) [1 169 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' KRIS-Bench''' == Anglais == '''KRIS-Bench''' A comprehensive benchmark for evaluating knowledge-based reasoning capabilities in image editing models. While recent advances in multi-modal generative models have improved visual quality in image editing, their ability to perform edits that require real-world knowledge and reasoning remains under-explored. KRIS-Bench addresses this gap by provid... »)
- 23 mai 2025 à 11:04 WEB-SHEPHERD (hist | modifier) [1 522 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''WEB-SHEPHERD''' he first process reward model (PRM) specifically designed for web navigation tasks. It addresses the challenges of evaluating web agent trajectories at a step-by-step level, which is crucial for improving agent performance in long-horizon web tasks. WEB-SHEPHERD is designed as a process reward model that evaluates web navigation trajectories at... »)
- 20 mai 2025 à 14:55 Insertion de segment textuel (hist | modifier) [636 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''Token Masking''' == Français == '''XXXXXXX''' == Anglais == ''' Text Infilling''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Text Infilling »
- 20 mai 2025 à 14:52 Rotation de phrases (hist | modifier) [626 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''préentraînement''' et '''segment textuel''' == Français == '''XXXXXXX''' == Anglais == ''' Document Rotation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Document Rotation »
- 20 mai 2025 à 14:49 Permutation de phrases (hist | modifier) [842 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''préentraînement''' == Français == '''XXXXXX''' == Anglais == '''Sentence Permutation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Sentence Permutation »
- 20 mai 2025 à 14:46 Suppression de segment textuel (hist | modifier) [901 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''segment texutel''' == Français == ''' XXXXXXX''' == Anglais == ''' Token Deletion''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Token Deletion »
- 20 mai 2025 à 10:36 Qwen (hist | modifier) [1 824 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Qwen''' == Anglais == '''Qwen''' The latest version of the Qwen model family. Qwen3 comprises a series of large language models (LLMs) designed to advance performance, efficiency, and multilingual capabilities. The Qwen3 series includes models of both dense and Mixture-of-Expert (MoE) architectures, with parameter scales ranging from 0.6 to 235 billion. A key innovation in Qwen3 is the int... »)
- 17 mai 2025 à 20:48 MiMo (hist | modifier) [1 072 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' MiMo-7B'' == Anglais == '''MiMo-7B''' MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including Open... »)
- 13 mai 2025 à 15:01 Analyse en composantes indépendantes (hist | modifier) [1 639 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Dans le domaine du traitement des signaux, l'analyse en composantes indépendantes (ICA) est un traitement statistique permettant de séparer un signal multivarié en sous-composantes indépendantes. == Compléments == L'illustration classique de l'usage de l'analyse en composantes indépendantes est celle de la soirée cocktail (''cocktail party problem'') où les discussions se superposent. Grâce à L'ACI, il est possible d'isoler la voix... ») créé initialement avec le titre « Independent Components Analysis »
- 10 mai 2025 à 13:32 Masquage de segment textuel (hist | modifier) [1 513 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''grand modèle de langues''', '''BERT''', '''segmentation''' == Français == ''' XXXXXXXX''' == Anglais == ''' Token Masking''' ''Masking sensitive tokens from users’ data helps reduce the privacy risks and prevent any personal information being leaked or extracted from adversaries. Such token masking task shall be performed without human-in-the-loop since practitioners are not allowe... ») créé initialement avec le titre « Token Masking »
- 30 avril 2025 à 06:35 Prédicteur faible (hist | modifier) [4 723 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Dans le contexte de l'apprentissage automatique et plus précisément de l'apprentissage ensembliste, un ''prédicteur faible'' désigne un modèle ou un algorithme d'apprentissage dont les performances sur une tâche donnée, typiquement la classification, sont seulement légèrement supérieures à celles obtenues par un choix aléatoire. ==Compléments== Pour une tâche de classification binaire,... ») créé initialement avec le titre « Weak learner »
- 29 avril 2025 à 15:04 Licence en paramètres ouverts (hist | modifier) [1 297 octets] Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Un logiciel libre ou logiciel à code source ouvert est un logiciel distribué selon une licence ouverte qui permet à différents degrés selon la licence de lire, d'exécuter, de copier, de distribuer, d'étudier, de modifier et d'améliorer le logiciel dont le code source est disponible. ==Français== '''logiciel libre''' '''code source ouvert ''' ==Anglais== '''Open-source software ''' ==Sources== [https://wiki.facil.qc.ca/... ») créé initialement avec le titre « Open weights license »
- 29 avril 2025 à 14:47 Paramètres ouverts (hist | modifier) [1 810 octets] Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Mode d'innovation selon lequel les résultats, les mécanismes, les méthodologies, etc. sont rendus publics et distribués gratuitement. == Compléments == En intelligence artificielle, certains grands modèles de langues sont distribués sous la bannière de l'innovation ouverte. Cependant, il est important de noter que seuls les paramètres (poids) des modèles sont diffusés à la communauté sous une licence avec... »)
- 28 avril 2025 à 03:21 Régresseur (hist | modifier) [634 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== '''Fonction mathématique''' ou '''modèle prédictif''' qui repose sur un '''algorithme''' de régression qui associe des données en entrée à une valeur numérique (typiquement un nombre réel), en sortie. ==Français== '''régresseur''' ==Anglais== '''regressor''' ==Sources== [https://www.dunod.com/sciences-techniques/machine-learning-avec-scikit-learn-mise-en-oeuvre-et-cas-concrets-1" - Livre Aurélien Géron - ''M... »)
- 26 avril 2025 à 11:40 Encodage positionnel (hist | modifier) [1 061 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Positional Encoding''' Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences. == Source == [https://www.kdnuggets.com/generative-ai-key-terms-explained Source : kdnuggets] Catégorie:vocabulary ») créé initialement avec le titre « Positional Encoding »
- 26 avril 2025 à 11:39 Syntactic Analysis (hist | modifier) [1 559 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Syntactic Analysis''' Also referred to as parsing, syntactic analysis is the task of analyzing strings as symbols, and ensuring their conformance to a established set of grammatical rules. This step must, out of necessity, come before any further analysis which attempts to extract insight from text -- semantic, sentiment, etc. -- treating it as something beyond... »)
- 26 avril 2025 à 11:35 Protocole d'échange de contexte (hist | modifier) [2 144 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Model Context Protocol''' The Model Context Protocol (MCP) is an open standard that standardizes how applications provide context to large language models (LLMs). It acts as a standardized way to connect AI models to different data sources and tools, similar to how USB-C connects devices to various peripherals and accessories.45 In the MCP architecture, a s... ») créé initialement avec le titre « Model Context Protocol »
- 25 avril 2025 à 03:53 Théorème du gradient de politique (hist | modifier) [801 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement, le théorème du gradient de politique permet de simplifier l'apprentissage d'une [politique d'action] en établissant que le gradient (ou dérivée) de la récompense attendue en suivant une [politique d'action] est l'espérance du produit de la récompense attendue par le gradient (ou dérivée) du logarithme de la [politique d'action]. La [politique d'action] est généralement exprimée sous la forme d'u... ») créé initialement avec le titre « Policy Gradient Theorem »
- 25 avril 2025 à 00:47 Méthode du gradient de politique (hist | modifier) [1 393 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement la méthode à gradient de politique permet de prévoir la meilleure action à accomplir par un agent dans un état donné de l'environnement. == Compléments == Alors que l’apprentissage par fonction Q vise à prévoir la valeur de la récompense ou la punition d’une action entreprise par un agent dans un certain état, la méthode à gradient de politique prédit directement l’action elle-même.... ») créé initialement avec le titre « Policy gradient »
- 22 avril 2025 à 15:23 Ollama (hist | modifier) [1 403 octets] Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Nom propre donné à un outil en code source ouvert qui permet d’exécuter de grands modèles de langues (GML) sur un ordinateur local donc hors ligne. == Compléments == Ollama offre l'avantage de fonctionner sur la plupart des systèmes d'exploitation (Linux, MacOS, Windows) et avec une large éventail de grands modèles de langues en paramètres ouve... »)
