Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)
  • 26 avril 2025 à 11:39Syntactic Analysis (hist | modifier) ‎[1 559 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Syntactic Analysis''' Also referred to as parsing, syntactic analysis is the task of analyzing strings as symbols, and ensuring their conformance to a established set of grammatical rules. This step must, out of necessity, come before any further analysis which attempts to extract insight from text -- semantic, sentiment, etc. -- treating it as something beyond... »)
  • 26 avril 2025 à 11:35Protocole d'échange de contexte (hist | modifier) ‎[2 144 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''Model Context Protocol''' The Model Context Protocol (MCP) is an open standard that standardizes how applications provide context to large language models (LLMs). It acts as a standardized way to connect AI models to different data sources and tools, similar to how USB-C connects devices to various peripherals and accessories.45 In the MCP architecture, a s... ») créé initialement avec le titre « Model Context Protocol »
  • 25 avril 2025 à 03:53Théorème du gradient de politique (hist | modifier) ‎[801 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement, le théorème du gradient de politique permet de simplifier l'apprentissage d'une [politique d'action] en établissant que le gradient (ou dérivée) de la récompense attendue en suivant une [politique d'action] est l'espérance du produit de la récompense attendue par le gradient (ou dérivée) du logarithme de la [politique d'action]. La [politique d'action] est généralement exprimée sous la forme d'u... ») créé initialement avec le titre « Policy Gradient Theorem »
  • 25 avril 2025 à 00:47Méthode du gradient de politique (hist | modifier) ‎[1 393 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En apprentissage par renforcement la méthode à gradient de politique permet de prévoir la meilleure action à accomplir par un agent dans un état donné de l'environnement. == Compléments == Alors que l’apprentissage par fonction Q vise à prévoir la valeur de la récompense ou la punition d’une action entreprise par un agent dans un certain état, la méthode à gradient de politique prédit directement l’action elle-même.... ») créé initialement avec le titre « Policy gradient »
  • 22 avril 2025 à 15:23Ollama (hist | modifier) ‎[1 403 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Nom propre donné à un outil en code source ouvert qui permet d’exécuter de grands modèles de langues (GML) sur un ordinateur local donc hors ligne. == Compléments == Ollama offre l'avantage de fonctionner sur la plupart des systèmes d'exploitation (Linux, MacOS, Windows) et avec une large éventail de grands modèles de langues en paramètres ouve... »)
(les plus récentes | les plus anciennes) Voir ( | 50 plus anciennes) (20 | 50 | 100 | 250 | 500)