« GLM » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == '''GLM-4.5''' '''GLM''' GLM-4.5 represents a significant advancement in creating unified AI models that excel across multiple domains. By combining efficient MoE architecture, multi-stage training, and expert model iteration, the paper demonstrates that a single model can achieve strong performance in agentic tasks, reasoning, and coding without requiring the mas... ») |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
'''[[Grand modèle de langues]]''' utilisant une '''[[mixture d'experts]]''' et qui assure des performances élevés dans les tâches agentiques, de raisonnement et de codage. Ceci est rendu possible grâce à un apprentissage en plusieurs étapes et à l''''[[apprentissage par renforcement]]'''. | |||
Il introduit une approche de « raisonnement hybride » qui permet soit de réfléchir aux problèmes étape par étape, soit de réagir instantanément lorsque cela est approprié. | |||
== Compléments == | |||
Ce modèle est le produit de la compagnie Zhipu AI. | |||
== Français == | == Français == | ||
''' | ''' GLM''' | ||
== Anglais == | == Anglais == | ||
'''GLM | ''' GLM''' | ||
'' | ''Mixture-of-Experts large language model that achieves strong performance across agentic, reasoning, and coding tasks using multi-stage training and reinforcement learning. It introduces a revolutionary "hybrid reasoning" approach that can either think through problems step-by-step or respond instantly when appropriate.'' | ||
== Sources == | |||
[https://arxivexplained.com/papers/glm-45-agentic-reasoning-and-coding-arc-foundation-models Source : arxivexplained] | |||
[https://glm45.org/ Source : GLM-4.5] | |||
[https://huggingface.co/papers/2508.06471 Source : huggingface] | [https://huggingface.co/papers/2508.06471 Source : huggingface] |
Dernière version du 7 octobre 2025 à 14:16
en construction
Définition
Grand modèle de langues utilisant une mixture d'experts et qui assure des performances élevés dans les tâches agentiques, de raisonnement et de codage. Ceci est rendu possible grâce à un apprentissage en plusieurs étapes et à l'apprentissage par renforcement.
Il introduit une approche de « raisonnement hybride » qui permet soit de réfléchir aux problèmes étape par étape, soit de réagir instantanément lorsque cela est approprié.
Compléments
Ce modèle est le produit de la compagnie Zhipu AI.
Français
GLM
Anglais
GLM
Mixture-of-Experts large language model that achieves strong performance across agentic, reasoning, and coding tasks using multi-stage training and reinforcement learning. It introduces a revolutionary "hybrid reasoning" approach that can either think through problems step-by-step or respond instantly when appropriate.
Sources
Contributeurs: Arianne Arel, wiki
