« R-Zero » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' R-Zero''' == Anglais == '''R-Zero''' A framework that enables large language models to improve their reasoning abilities without requiring any human-labeled training data. The method creates a self-evolving system where two AI models work together - one generates challenging questions while the other learns to solve them, creating an autonomous learning loop that starts from scratch. R-Z... »)
 
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
XXXXXXXXX
Architecture qui génère et apprend de manière autonome à partir de ses propres '''[[données d'entraînement]]''' sans tâches supervisées par l'humain, en partant d'un '''[[modèle]]''' de base d'un '''[[grand modèle de langues]]'''. De plus, aucune '''[[Données|donnée]]''' additionnelle n'est requise pour son '''[[entraînement]]'''.
 
R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses.
 
== Compléments ==
Le Challenger est formé via la ''Group Relative Policy Optimization'' (GRPO) afin de générer des questions difficiles. Le Solver est '''[[Peaufinage|peaufiné]]''' avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenge désormais ''figé''.


== Français ==
== Français ==
Ligne 10 : Ligne 15 :
'''R-Zero'''
'''R-Zero'''


A framework that enables large language models to improve their reasoning abilities without requiring any human-labeled training data. The method creates a self-evolving system where two AI models work together - one generates challenging questions while the other learns to solve them, creating an autonomous learning loop that starts from scratch.
''Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers.  
 
 
R-Zero presents a novel approach to training reasoning-capable language models without requiring human-annotated data. By creating a self-evolving system where two models challenge and teach each other, the framework generates its own curriculum and learns autonomously. The method shows consistent improvements across different model sizes and architectures, with benefits that extend beyond the mathematical domain where training occurs.
The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.''
 


== Sources ==
[https://arxiv.org/abs/2508.05004  Source : arxiv]


== Source ==
[https://chengsong-huang.github.io/R-Zero.github.io/  Source : GitHub]


[https://huggingface.co/papers/2508.05004  Source : huggingface]
[https://huggingface.co/papers/2508.05004  Source : huggingface]

Version du 9 octobre 2025 à 16:24

en construction

Définition

Architecture qui génère et apprend de manière autonome à partir de ses propres données d'entraînement sans tâches supervisées par l'humain, en partant d'un modèle de base d'un grand modèle de langues. De plus, aucune donnée additionnelle n'est requise pour son entraînement.

R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses.

Compléments

Le Challenger est formé via la Group Relative Policy Optimization (GRPO) afin de générer des questions difficiles. Le Solver est peaufiné avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenge désormais figé.

Français

R-Zero

Anglais

R-Zero

Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers.

The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.


Sources

Source : arxiv

Source : GitHub

Source : huggingface

Contributeurs: Arianne Arel, wiki