« Apprentissage par renforcement avec rétroaction humaine » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 43 : | Ligne 43 : | ||
--- | --- | ||
Learning from instructions and human feedback are thought to be at the core of recent advances in instruction following large language models (LLMs). While recent efforts such as Open Assistant, Vicuna, and Alpaca have advanced our understanding of instruction fine-tuning, the same cannot be said for RLHF-style algorithms that learn directly from human feedback. AlpacaFarm aims to address this gap by enabling fast, low-cost research and development on methods that learn from human feedback. We identify three main difficulties with studying RLHF-style algorithms: the high cost of human preference data, the lack of trustworthy evaluation, and the absence of reference implementations. --> | Learning from instructions and human feedback are thought to be at the core of recent advances in instruction following large language models (LLMs). While recent efforts such as Open Assistant, Vicuna, and Alpaca have advanced our understanding of instruction fine-tuning, the same cannot be said for RLHF-style algorithms that learn directly from human feedback. AlpacaFarm aims to address this gap by enabling fast, low-cost research and development on methods that learn from human feedback. We identify three main difficulties with studying RLHF-style algorithms: the high cost of human preference data, the lack of trustworthy evaluation, and the absence of reference implementations. --> | ||
==Español== | ==Español== |
Dernière version du 19 août 2025 à 16:52
Définition
En apprentissage automatique, l'apprentissage par renforcement avec rétroaction humaine (ARRH) est une technique d'amélioration des performances d'un agent à partir de rétroactions humaines.
On commence par entraîner un modèle de récompense sur des résultats annotés par des rétroactions humaines. Ensuite, on utilise ce modèle comme fonction de récompense pour améliorer la politique d'un agent à l'aide de l'apprentissage par renforcement grâce à un algorithme d'optimisation.
Compléments
Ce type d'apprentissage est utilisé dans les jeux AlphaGo et les robots conversationnels génératifs ou générateurs automatique de textes basés sur les grands modèles de langues.
Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible ou pénalité).
Français
apprentissage par renforcement avec rétroaction humaine
apprentissage par renforcement à partir de rétroaction humaine
apprentissage par renforcement à partir de retours humains
apprentissage par renforcement avec retour humain
apprentissage par renforcement et rétroaction humaine
apprentissage par renforcement à partir de la rétroaction humaine
ARRH
apprentissage par renforcement basée sur la rétroaction humaine
ARBRH
apprentissage par renforcement avec retour d'information humain
Anglais
reinforcement learning from human feedback
RLHF
reinforcement learning from human preferences
Español
aprendizaje por refuerzo a partir de la retroalimentación humana
En el ámbito del aprendizaje automático, el aprendizaje por refuerzo de la retroalimentación humana es una técnica para mejorar el rendimiento de un agente utilizando la retroalimentación humana.
Se empieza por entrenar un modelo de recompensa a partir de resultados anotados con comentarios humanos. A continuación, este modelo se utiliza como función de recompensa para mejorar la política de un agente mediante el aprendizaje por refuerzo con un algoritmo de optimización.
Sources
Wikipedia - apprentissage par renforcement à partir de rétroaction humaine
Glossaire de l'Obvia - apprentissage par renforcement à partir de retours humains
Wikipedia - reinforcement learning from human feedback
101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »
Contributeurs: Arianne Arel, Claude Coulombe, Espanol: Jean-Sébastien Zavalone, Patrick Drouin, wiki
