Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
(les plus récentes | les plus anciennes) Voir (50 plus récentes | ) (20 | 50 | 100 | 250 | 500)
  • 2 juillet 2025 à 15:41Ovis-U1 (hist | modifier) ‎[399 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Ovis-U1''' == Anglais == '''Ovis-U1''' Ovis-U1, a 3-billion-parameter model, combines multimodal understanding, text-to-image generation, and image editing, achieving state-of-the-art performance in various benchmarks. == Source == [https://huggingface.co/papers/2506.23044 Source : huggingface] Catégorie:vocabulary »)
  • 2 juillet 2025 à 15:40Matryoshka Multimodal Models (hist | modifier) ‎[1 151 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Matryoshka Multimodal Models''' Matryoshka Multimodal Models learn to represent visual content as nested sets of visual tokens that capture information across multiple coarse-to-fine granularities. Our approach offers several unique benefits for LMMs: (1) One can explicitly control the visual granularity per test instance during inference, e.g. , adjusting the... »)
  • 26 juin 2025 à 10:51Best-of-N Strategy (hist | modifier) ‎[2 384 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' Voir aussi '''reward hacking problem''' == Compléments == '' à faire'' <!--The BoN strategy does not scale with the number of samples N due to the reward hacking problem. Particularly significant in scenarios where the AI model may not have a singularly deterministic output but can benefit from generating a spectrum of possibilities to increase the chance of achieving a higher qua... »)
  • 26 juin 2025 à 10:11AnimaX (hist | modifier) ‎[396 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' AnimaX''' == Anglais == '''AnimaX''' AnimaX creates multi-skeleton 3D animations by blending video diffusion model priors with skeleton-based control, using joint video-pose diffusion and shared positional encodings. == Source == [https://huggingface.co/papers/2506.19851 Source : huggingface] Catégorie:vocabulary »)
  • 26 juin 2025 à 10:09Drag-and-Drop LLMs (hist | modifier) ‎[454 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Drag-and-Drop LLMs''' LoRA, a parameter-efficient finetuning method for large language models, underperforms full finetuning in target domains but provides better regularization and maintains diverse generation compared to other techniques. == Source == [https://huggingface.co/papers/2506.16406 Source : huggingface] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:21World Model (hist | modifier) ‎[231 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''World Model''' == Source == [https://www.nvidia.com/en-us/glossary/world-models/ Source : nvidia ] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:16Polars (hist | modifier) ‎[677 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Polars''' == Source == [https://www.nvidia.com/en-us/glossary/polars/ Source : nvidia] Polars is an open-source DataFrame library for data manipulation and analysis. It is implemented in Rust and uses Apache Arrow’s columnar memory format for efficient data processing. The library provides a structured and typed API, enabling users to perform a wide range o... »)
  • 22 juin 2025 à 17:13Numba (hist | modifier) ‎[225 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''XXXXXXXXX''' == Source == [https://www.nvidia.com/en-us/glossary/numba/ Source : nvidia] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:12Humanoid Robot (hist | modifier) ‎[534 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Humanoid Robot''' Humanoids are general-purpose, bipedal robots modeled after the human form factor and designed to work alongside humans to augment productivity. They’re capable of learning and performing a variety of tasks, such as grasping an object, moving a container, loading or unloading boxes, and more. == Source == [https://www.nvidia.com/en-us/glos... »)
  • 22 juin 2025 à 17:11Data Flywheel (hist | modifier) ‎[428 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Data Flywheel''' A data flywheel is a feedback loop where data collected from interactions or processes is used to continuously refine AI models, which in turn generates better outcomes and more valuable data. == Source == [https://www.nvidia.com/en-us/glossary/data-flywheel/ Source : nvidia] Catégorie:vocabulary »)
  • 22 juin 2025 à 17:10AI-RAN (hist | modifier) ‎[655 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI-RAN''' AI-RAN AI-RAN (artificial intelligence—radio access network) is a technology that enables the full integration of AI into the radio access network to realize transformative gains in operational performance, deliver new AI-based services, and unlock monetization opportunities. It enhances connectivity across mobile networks by leveraging AI to impro... »)
  • 22 juin 2025 à 17:09AI Factory (hist | modifier) ‎[564 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''AI Factory''' An AI factory is a specialized computing infrastructure designed to create value from data by managing the entire AI life cycle, from data ingestion to training, fine-tuning, and high-volume AI inference. The primary product is intelligence, measured by token throughput, which drives decisions, automation, and new AI solutions. == Source ==... »)
  • 20 juin 2025 à 16:23Process Reward Model (hist | modifier) ‎[279 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Process Reward Model''' ''' PRM''' == Sources == [https://arxiv.org/abs/2501.07301 Source : arxiv] [https://github.com/sdiehl/prm Source : GitHub] Catégorie:vocabulary »)
  • 20 juin 2025 à 16:20Self-Consistency (hist | modifier) ‎[1 373 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Self-Consistency''' ''' SC''' == Sources == [https://arxiv.org/html/2408.17017v1 Source : arxiv] [https://medium.com/@linz07m/self-consistency-a-better-approach-for-reasoning-in-llms-1a1b6798d443 Source : Medium] [https://www.promptingguide.ai/techniques/consistency Source : Prompt Engineering Guide] [https://towardsdatascience.com/achieving-greater-self... »)
  • 20 juin 2025 à 16:14Top-Down Parsing (hist | modifier) ‎[1 446 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''analyse syntaxique ascendante''' et '''analyse syntaxique''' == Français == ''' Analyse descendante''' == Anglais == ''' Top-Down Parsing''' ''' Top-Down Analysis''' ''' Topdown Analysis''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8410056/analyse-descendante Source : Vitrine linguistique, OQLF] [https://www.btb.termiumplus.gc.ca/tp... »)
  • 20 juin 2025 à 16:08Multi-Token Projection (hist | modifier) ‎[2 258 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''apprentissage par renforcement avec rétroaction humaine''' et '''réseau autoattentif''' == Compléments == ''à faire'' == Français == ''' XXXXXX''' == Anglais == ''' Multi-Token Projection''' ''' Multiple-Token Projection''' ''' MTP''' == Sources == [https://arxiv.org/html/2505.07608v1 Source : arxiv] [https://datascientest.com/multi-token-prediction-tout-savoir Source : DataSc... »)
  • 20 juin 2025 à 15:58Conceptualization in Contexts (hist | modifier) ‎[1 409 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptualization in Contexts''' ''' CiC''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
  • 20 juin 2025 à 15:55Conceptual Property Judgment (hist | modifier) ‎[1 259 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Property Judgment''' '''CPJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
  • 20 juin 2025 à 15:26Conceptual Similarity Judgment (hist | modifier) ‎[1 272 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''COPEN''' == Français == ''' XXXXXX''' == Anglais == ''' Conceptual Similarity Judgment''' ''' CSJ''' == Sources == [https://arxiv.org/abs/2211.04079 Source : arxiv] [https://paperswithcode.com/dataset/copen Source : paperswithcode] Catégorie:vocabulary »)
  • 20 juin 2025 à 15:23Out Of Vocabulary Word (hist | modifier) ‎[995 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Out Of Vocabulary Word''' ''' Out-Of-Vocabulary Word''' ''' OOV word''' == Sources == [https://aclanthology.org/P19-1402/ Source : ACL Anthology] [https://spotintelligence.com/2024/10/08/out-of-vocabulary-oov-words/ Source : Spot Intelligence] Catégorie:vocabulary »)
  • 20 juin 2025 à 15:19Goal Regression (hist | modifier) ‎[755 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''apprentissage basé sur l'explication''' == Français == ''' Régression de buts''' ''' Régression de but''' ''' Substitution régressive''' == Anglais == ''' Goal Regression''' == Sources == [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=r%C3%A9gression+de+buts&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] [https://vitrinelinguistique.oqlf.g... »)
  • 19 juin 2025 à 13:35KV Cache (hist | modifier) ‎[1 045 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''KV Cache''' a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn't include it in the book), and can't be us... »)
  • 19 juin 2025 à 13:34MiniMax-M1 (hist | modifier) ‎[854 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == == Français == ''' MiniMax-M1''' == Anglais == '''MiniMax-M1''' MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model. MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning attention mechanism. The model is developed based on our previous MiniMax-Text-01 model, which contains a total of 456 billion parameters with 45.9 billion parameters ac... »)
  • 12 juin 2025 à 16:54Multi-Target Tracking (hist | modifier) ‎[1 327 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == xxxx == Français == ''' XXXXXXX''' == Anglais == ''' Multi-Target Tracking''' ''' MTT''' ''' Multi-Object Tracking''' == Sources == [https://pmc.ncbi.nlm.nih.gov/articles/PMC7144962/ Source : PLOS - Computational Biology] [https://www.sciencedirect.com/science/article/abs/pii/S1874490724000211 Source : ScienceDirect] [https://www.sciencedirect.com/topics/engineering/multi-target-track... »)
  • 12 juin 2025 à 15:25Silent Data Corruption (hist | modifier) ‎[1 012 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == Attention! Ce ne sont pas les données qui sont corrompues, mais plutôt le modèle. == Français == ''' Corruption silencieuse du modèle''' ''' Corruption silencieuse du modèle à l'entraînement''' == Anglais == ''' Silent Data Corruption''' ''' SDC''' ''' Silent Data Error''' ''' SDE''' == Sources == [https://support.google.com/cloud/answer/10759085?hl=en Source : Google Cloud Platf... »)
  • 12 juin 2025 à 15:12Query By Example (hist | modifier) ‎[638 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Requête par l'exemple''' ''' Interrogation par l'exemple''' == Anglais == ''' Query By Example''' ''' QBE''' == Sources == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8368073/interrogation-par-lexemple Source : GDT] [https://www.geeksforgeeks.org/dbms/query-by-example-qbe/ Source : Geeks for Geeks] [https://en.wikipedia.org/wiki/Query_by_Example Source : Wikipedia]... »)
  • 12 juin 2025 à 15:04Shallow Learning (hist | modifier) ‎[1 850 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''réseau peu profond''' == Français == ''' Apprentissage peu profond''' == Anglais == ''' Shallow Learning''' ''' SL''' ''' Shallow Machine Learning''' == Sources == [https://medium.com/@hassaanidrees7/shallow-learning-vs-deep-learning-is-bigger-always-better-51c0bd21f059 Source : Medium] [https://mljourney.com/shallow-vs-deep-learning-key-differences/ Source : ML Journey] [https://www... »)
  • 12 juin 2025 à 14:53Instance Segmentation (hist | modifier) ‎[1 872 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''Panoptic Segmentation''', '''segmentation sémantique''' et '''vision artificielle''' == Français == ''' Segmentation d'instances''' ''' Segmentation d'instance''' ''' Segmentation par instance''' == Anglais == ''' Instance segmentation''' == Sources == [https://www.geeksforgeeks.org/computer-vision/semantic-segmentation-vs-instance-segmentation/ Source : Geek... »)
  • 11 juin 2025 à 15:11Panoptic Segmentation (hist | modifier) ‎[2 772 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Segmentation Panoptique''' == Anglais == '''Panoptic Segmentation''' == Sources == [https://arxiv.org/abs/1801.00868 Source : arxiv] [https://paperswithcode.com/task/panoptic-segmentation Source : paperswithcode] [https://pyimagesearch.com/2022/06/29/semantic-vs-instance-vs-panoptic-segmentation/ Source : pyimagesearch] [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang... »)
  • 11 juin 2025 à 15:06Traduction automatique à base de règles (hist | modifier) ‎[1 698 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == '''Traduction automatique à base de règles''' '''TABR''' == Anglais == ''' Rule-Based Machine Translation''' ''' RBMT''' == Sources == [https://www.noslangues-ourlanguages.gc.ca/fr/chroniques-de-langue/abrege-de-traduction-automatique Source : Gouvernement du Canada, ''Abrégé de traduction''] [https://interstices.info/la-traduction-automatique-statistique-comment-ca-marche/ Source : int... ») créé initialement avec le titre « Rule-Based Machine Translation »
  • 11 juin 2025 à 14:23Jaccard Similarity (hist | modifier) ‎[2 439 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Indice de Jaccard''' '''IoU''' == Anglais == ''' Jaccard Similarity''' ''' Jaccard Similarity Index''' ''' Jaccard Index''' ''' Intersection Over Union''' ''' IoU''' == Sources == [https://www.geeksforgeeks.org/how-to-calculate-jaccard-similarity-in-python/ Source : Geeks for Geeks] [https://www.kdnuggets.com/2017/02/natural-language-processing-key-terms-explained.html Source : KDnug... »)
  • 11 juin 2025 à 13:43Syntactic Robustness (hist | modifier) ‎[1 133 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXXX == Français == '''XXXXXX''' == Anglais == '''Syntactic Robustness''' ''Informally, we define syntactic robustness as the degree to which the semantically equivalent prompts elicit semantically equivalent responses.'' == Sources == [https://arxiv.org/abs/2404.01535 Source : arxiv] Catégorie:vocabulary »)
  • 3 juin 2025 à 14:35Loi zéro (hist | modifier) ‎[1 135 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == En construction == == Définition == Loi inventée par l'écrivain de science-fiction Isaac Asimov dans le cadre de ses lois de la robotique, stipulant que les robots ne peuvent ni faire de mal à l'humanité ni permettre qu'elle soit blessée. == Compléments == La loi Zéro d'Asimov a été la source d'inspiration pour le laboratoire LoiZéro/LawZero par Yoshua Bengio. == Français == '''loi zéro''' == Anglais == '''zeroth law''' ==Sources== [htt... »)
  • 1 juin 2025 à 15:35Natural Language Inference (hist | modifier) ‎[1 652 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Natural Language Inference''' ''' NLI''' ''' Textual Entailment''' ''' TE''' == Sources == [https://arxiv.org/abs/2409.13731 Source : arxiv] [https://nlp.stanford.edu/projects/snli/ Source : Stanford.edu] [https://towardsdatascience.com/natural-language-inference-an-overview-57c0eecf6517/ Source : towards data science] [https://en.wikipedia.org/wiki/Tex... »)
  • 26 mai 2025 à 16:09COPEN (hist | modifier) ‎[1 274 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' COPEN''' == Anglais == '''COPEN''' A new benchmark evaluates PLMs' conceptual knowledge through tasks assessing conceptual similarities, properties, and context comprehension, revealing significant gaps compared to human-like cognition. == Source == [https://huggingface.co/papers/2211.04079 Source : huggingface] Catégorie:vocabulary »)
  • 26 mai 2025 à 16:07KRIS-Bench (hist | modifier) ‎[1 169 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' KRIS-Bench''' == Anglais == '''KRIS-Bench''' A comprehensive benchmark for evaluating knowledge-based reasoning capabilities in image editing models. While recent advances in multi-modal generative models have improved visual quality in image editing, their ability to perform edits that require real-world knowledge and reasoning remains under-explored. KRIS-Bench addresses this gap by provid... »)
  • 23 mai 2025 à 11:04WEB-SHEPHERD (hist | modifier) ‎[1 522 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''WEB-SHEPHERD''' he first process reward model (PRM) specifically designed for web navigation tasks. It addresses the challenges of evaluating web agent trajectories at a step-by-step level, which is crucial for improving agent performance in long-horizon web tasks. WEB-SHEPHERD is designed as a process reward model that evaluates web navigation trajectories at... »)
  • 20 mai 2025 à 14:55Insertion de segment textuel (hist | modifier) ‎[636 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''Token Masking''' == Français == '''XXXXXXX''' == Anglais == ''' Text Infilling''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Text Infilling »
  • 20 mai 2025 à 14:52Rotation de phrases (hist | modifier) ‎[626 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''préentraînement''' et '''segment textuel''' == Français == '''XXXXXXX''' == Anglais == ''' Document Rotation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Document Rotation »
  • 20 mai 2025 à 14:49Permutation de phrases (hist | modifier) ‎[842 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''préentraînement''' == Français == '''XXXXXX''' == Anglais == '''Sentence Permutation''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Sentence Permutation »
  • 20 mai 2025 à 14:46Suppression de segment textuel (hist | modifier) ‎[901 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''segment texutel''' == Français == ''' XXXXXXX''' == Anglais == ''' Token Deletion''' == Source == [https://arxiv.org/abs/2405.12630 Source : arxiv] [https://yangyutu.github.io/llm_book.github.io/docs/chapter_foundation/t5.html Source : GitHub] Catégorie:vocabulary ») créé initialement avec le titre « Token Deletion »
  • 20 mai 2025 à 10:36Qwen (hist | modifier) ‎[1 824 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Qwen''' == Anglais == '''Qwen'''   The latest version of the Qwen model family. Qwen3 comprises a series of large language models (LLMs) designed to advance performance, efficiency, and multilingual capabilities. The Qwen3 series includes models of both dense and Mixture-of-Expert (MoE) architectures, with parameter scales ranging from 0.6 to 235 billion. A key innovation in Qwen3 is the int... »)
  • 17 mai 2025 à 20:48MiMo (hist | modifier) ‎[1 072 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' MiMo-7B'' == Anglais == '''MiMo-7B''' MiMo-7B, a large language model specifically designed for reasoning tasks. The model is optimized across both pre-training and post-training stages to unlock its reasoning potential. Despite having only 7 billion parameters, MiMo-7B achieves superior performance on mathematics and code reasoning tasks, outperforming even much larger models including Open... »)
  • 13 mai 2025 à 15:01Analyse en composantes indépendantes (hist | modifier) ‎[1 639 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Dans le domaine du traitement des signaux, l'analyse en composantes indépendantes (ICA) est un traitement statistique permettant de séparer un signal multivarié en sous-composantes indépendantes. == Compléments == L'illustration classique de l'usage de l'analyse en composantes indépendantes est celle de la soirée cocktail (''cocktail party problem'') où les discussions se superposent. Grâce à L'ACI, il est possible d'isoler la voix... ») créé initialement avec le titre « Independent Components Analysis »
  • 10 mai 2025 à 13:32Masquage de segment textuel (hist | modifier) ‎[1 513 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''grand modèle de langues''', '''BERT''', '''segmentation''' == Français == ''' XXXXXXXX''' == Anglais == ''' Token Masking''' ''Masking sensitive tokens from users’ data helps reduce the privacy risks and prevent any personal information being leaked or extracted from adversaries. Such token masking task shall be performed without human-in-the-loop since practitioners are not allowe... ») créé initialement avec le titre « Token Masking »
  • 30 avril 2025 à 06:35Prédicteur faible (hist | modifier) ‎[4 723 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Dans le contexte de l'apprentissage automatique et plus précisément de l'apprentissage ensembliste, un ''prédicteur faible'' désigne un modèle ou un algorithme d'apprentissage dont les performances sur une tâche donnée, typiquement la classification, sont seulement légèrement supérieures à celles obtenues par un choix aléatoire. ==Compléments== Pour une tâche de classification binaire,... ») créé initialement avec le titre « Weak learner »
  • 29 avril 2025 à 15:04Licence en paramètres ouverts (hist | modifier) ‎[1 297 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Un logiciel libre ou logiciel à code source ouvert est un logiciel distribué selon une licence ouverte qui permet à différents degrés selon la licence de lire, d'exécuter, de copier, de distribuer, d'étudier, de modifier et d'améliorer le logiciel dont le code source est disponible. ==Français== '''logiciel libre''' '''code source ouvert ''' ==Anglais== '''Open-source software ''' ==Sources== [https://wiki.facil.qc.ca/... ») créé initialement avec le titre « Open weights license »
  • 29 avril 2025 à 14:47Paramètres ouverts (hist | modifier) ‎[1 810 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Mode d'innovation selon lequel les résultats, les mécanismes, les méthodologies, etc. sont rendus publics et distribués gratuitement. == Compléments == En intelligence artificielle, certains grands modèles de langues sont distribués sous la bannière de l'innovation ouverte. Cependant, il est important de noter que seuls les paramètres (poids) des modèles sont diffusés à la communauté sous une licence avec... »)
  • 28 avril 2025 à 03:21Régresseur (hist | modifier) ‎[634 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== '''Fonction mathématique''' ou '''modèle prédictif''' qui repose sur un '''algorithme''' de régression qui associe des données en entrée à une valeur numérique (typiquement un nombre réel), en sortie. ==Français== '''régresseur''' ==Anglais== '''regressor''' ==Sources== [https://www.dunod.com/sciences-techniques/machine-learning-avec-scikit-learn-mise-en-oeuvre-et-cas-concrets-1" - Livre Aurélien Géron - ''M... »)
  • 26 avril 2025 à 11:40Encodage positionnel (hist | modifier) ‎[1 061 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Positional Encoding''' Positional encoding refers to a method in transformer models that helps to maintain the sequential order of words. This is a crucial component for understanding the context within a sentence and between sentences. == Source == [https://www.kdnuggets.com/generative-ai-key-terms-explained Source : kdnuggets] Catégorie:vocabulary ») créé initialement avec le titre « Positional Encoding »
(les plus récentes | les plus anciennes) Voir (50 plus récentes | ) (20 | 50 | 100 | 250 | 500)