« Requête enrichie par graphes de connaissances » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(2 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 2 : | Ligne 2 : | ||
[[Peaufinage]] des résultats d'un [[grand modèle de langues]] en enrichissant les requêtes avec des connaissances factuelles générées à partir de règles extraites de [[graphe de connaissances|graphes de connaissances]]. Ceci permet de générer des résultats plus précis et contextuellement plus pertinents. | [[Peaufinage]] des résultats d'un [[grand modèle de langues]] en enrichissant les requêtes avec des connaissances factuelles générées à partir de règles extraites de [[graphe de connaissances|graphes de connaissances]]. Ceci permet de générer des résultats plus précis et contextuellement plus pertinents. | ||
== | == Compléments == | ||
Les règles sont extraites d'un graphe de connaissances à l'aide d'un algorithme classique de [[algorithme de parcours en largeur|parcours en largeur]]. | Les règles sont extraites d'un graphe de connaissances à l'aide d'un algorithme classique de [[algorithme de parcours en largeur|parcours en largeur]]. | ||
Ligne 26 : | Ligne 24 : | ||
'''CoK''' | '''CoK''' | ||
==Español== | |||
''''' prompt enriquecidas con grafos de conocimiento ''''' | |||
''Ajuste fino de los resultados de un modelo extenso de lenguaje enriqueciendo las consultas con conocimientos factuales generados a partir de reglas extraídas de gráfos de conocimientos.'' | |||
''Esto genera resultados más precisos y contextualmente relevantes.'' | |||
== Source == | == Source == | ||
Ligne 38 : | Ligne 44 : | ||
For model learning, they initially tried simply fine-tuning LLMs on this data. However, this led to "rule overfitting" where models would apply rules even without supporting facts. To address this, they introduced a trial-and-error mechanism. This simulates how humans explore their internal knowledge when reasoning, by having the model try different rules and backtrack if it lacks key facts. | For model learning, they initially tried simply fine-tuning LLMs on this data. However, this led to "rule overfitting" where models would apply rules even without supporting facts. To address this, they introduced a trial-and-error mechanism. This simulates how humans explore their internal knowledge when reasoning, by having the model try different rules and backtrack if it lacks key facts. | ||
--> | --> | ||
{{Modèle:101}} | |||
[[Catégorie:Intelligence artificielle]] | [[Catégorie:Intelligence artificielle]] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] | [[Catégorie:101]] |
Dernière version du 23 juillet 2025 à 09:56
Définition
Peaufinage des résultats d'un grand modèle de langues en enrichissant les requêtes avec des connaissances factuelles générées à partir de règles extraites de graphes de connaissances. Ceci permet de générer des résultats plus précis et contextuellement plus pertinents.
Compléments
Les règles sont extraites d'un graphe de connaissances à l'aide d'un algorithme classique de parcours en largeur.
Cette technique se rapproche de la génération augmentée d'information applicative (GAIA).
Français
requête enrichie par graphes de connaissances
requête de résolution par chaine(s) de connaissances
requête par chaine(s) de connaissances
Anglais
Chain-of-Knowledge prompting
Chain-of-Knowledge framework prompting
CoK promptig
Chain-of-Knowledge
CoK
Español
prompt enriquecidas con grafos de conocimiento
Ajuste fino de los resultados de un modelo extenso de lenguaje enriqueciendo las consultas con conocimientos factuales generados a partir de reglas extraídas de gráfos de conocimientos.
Esto genera resultados más precisos y contextualmente relevantes.
Source
Source : Chain-Of-Knowledge Prompting - Medium
101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »
Contributeurs: Arianne Arel, Claude Coulombe, Espanol: Jean-Sébastien Zavalone, Patrick Drouin, wiki
