« R-Zero » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' R-Zero''' == Anglais == '''R-Zero''' A framework that enables large language models to improve their reasoning abilities without requiring any human-labeled training data. The method creates a self-evolving system where two AI models work together - one generates challenging questions while the other learns to solve them, creating an autonomous learning loop that starts from scratch. R-Z... ») |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Architecture qui génère et apprend de manière autonome à partir de ses propres '''[[données d'entraînement]]''' sans tâches supervisées par l'humain, en partant d'un '''[[modèle]]''' de base d'un '''[[grand modèle de langues]]'''. De plus, aucune '''[[Données|donnée]]''' additionnelle n'est requise pour son '''[[entraînement]]'''. | |||
R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses. | |||
== Compléments == | |||
Le Challenger est formé via la ''Group Relative Policy Optimization'' (GRPO) afin de générer des questions difficiles. Le Solver est '''[[Peaufinage|peaufiné]]''' avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenge désormais ''figé''. | |||
== Français == | == Français == | ||
Ligne 10 : | Ligne 15 : | ||
'''R-Zero''' | '''R-Zero''' | ||
''Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers. | |||
The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.'' | |||
== Sources == | |||
[https://arxiv.org/abs/2508.05004 Source : arxiv] | |||
[https://chengsong-huang.github.io/R-Zero.github.io/ Source : GitHub] | |||
[https://huggingface.co/papers/2508.05004 Source : huggingface] | [https://huggingface.co/papers/2508.05004 Source : huggingface] |
Version du 9 octobre 2025 à 16:24
en construction
Définition
Architecture qui génère et apprend de manière autonome à partir de ses propres données d'entraînement sans tâches supervisées par l'humain, en partant d'un modèle de base d'un grand modèle de langues. De plus, aucune donnée additionnelle n'est requise pour son entraînement.
R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses.
Compléments
Le Challenger est formé via la Group Relative Policy Optimization (GRPO) afin de générer des questions difficiles. Le Solver est peaufiné avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenge désormais figé.
Français
R-Zero
Anglais
R-Zero
Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers.
The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.
Sources
Contributeurs: Arianne Arel, wiki
