Nouvelles pages
- 26 avril 2025 à 11:39 Syntactic Analysis (hist | modifier) [1 559 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Syntactic Analysis''' Also referred to as parsing, syntactic analysis is the task of analyzing strings as symbols, and ensuring their conformance to a established set of grammatical rules. This step must, out of necessity, come before any further analysis which attempts to extract insight from text -- semantic, sentiment, etc. -- treating it as something beyond... »)
- 26 avril 2025 à 11:35 Protocole d'échange de contexte (hist | modifier) [2 144 octets] Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Model Context Protocol''' The Model Context Protocol (MCP) is an open standard that standardizes how applications provide context to large language models (LLMs). It acts as a standardized way to connect AI models to different data sources and tools, similar to how USB-C connects devices to various peripherals and accessories.45 In the MCP architecture, a s... ») créé initialement avec le titre « Model Context Protocol »
- 25 avril 2025 à 03:53 Théorème du gradient de politique (hist | modifier) [801 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement, le théorème du gradient de politique permet de simplifier l'apprentissage d'une [politique d'action] en établissant que le gradient (ou dérivée) de la récompense attendue en suivant une [politique d'action] est l'espérance du produit de la récompense attendue par le gradient (ou dérivée) du logarithme de la [politique d'action]. La [politique d'action] est généralement exprimée sous la forme d'u... ») créé initialement avec le titre « Policy Gradient Theorem »
- 25 avril 2025 à 00:47 Méthode du gradient de politique (hist | modifier) [1 393 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement la méthode à gradient de politique permet de prévoir la meilleure action à accomplir par un agent dans un état donné de l'environnement. == Compléments == Alors que l’apprentissage par fonction Q vise à prévoir la valeur de la récompense ou la punition d’une action entreprise par un agent dans un certain état, la méthode à gradient de politique prédit directement l’action elle-même.... ») créé initialement avec le titre « Policy gradient »
- 22 avril 2025 à 15:23 Ollama (hist | modifier) [1 403 octets] Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Nom propre donné à un outil en code source ouvert qui permet d’exécuter de grands modèles de langues (GML) sur un ordinateur local donc hors ligne. == Compléments == Ollama offre l'avantage de fonctionner sur la plupart des systèmes d'exploitation (Linux, MacOS, Windows) et avec une large éventail de grands modèles de langues en paramètres ouve... »)
