« Échantillonnage à troncature de masse p » : différence entre les versions


Aucun résumé des modifications
 
(9 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Stratégie d'échantillonnage stochastique afin de générer des séquences à partir de modèles probabilistes '''[[Modèle autorégressif|autorégressifs]]''' qui introduisent un caractère aléatoire tout en conservant la qualité. Plus simplement, son principe fondamental consiste à échantillonner à chaque étape un ensemble plus petit et plus probable (d'où le ''p'' dans le terme) de '''[[Segment textuel|segments textuels]]''' (appelé noyau). Le choix du '''[[paramètre]]''' ''p'' peut influencer considérablement le texte généré.  
Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil ''p'' défini (la ''masse de probabilité'') également appelée ''noyau''.  


Dans cette méthode, le modèle génère une distribution de probabilité pour tous les mots possibles du vocabulaire. On ne conserve que les $k$ mots ayant les probabilités les plus élevées. Les probabilités de ces $k$ mots sont ensuite redistribuées (normalisées) pour que leur somme soit égale à 1, puis un mot est choisi aléatoirement parmi eux.
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.


Voir aussi '''[[échantillonnage à troncature k fixe]]'''


Cette stratégie est utile lorsque l'on souhaite obtenir une génération de texte plus adaptée et plus sensible au contexte.  
== Compléments ==
Cette stratégie d'échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]].  


Voir aussi '''[[génération automatique de texte]]'''
Alors que l'[[échantillonnage à troncature k fixe]] limite l'échantillon à un nombre ''k'' fixe de mots, l'échantillonnage à troncature de masse p spécifie une probabilité cumulée ''p'' entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p.


== Compléments ==
En pratique, l'échantillonnage à troncature de masse p est préféré à l'[[échantillonnage à troncature k fixe]] car il est plus adaptatif.  
Alors que l'échantillonnage k-meilleurs limite l'échantillon aux k mots suivants les plus probables, l'échantillonnage meilleur-p ajoute une variante. Au lieu de spécifier un nombre défini de candidats principaux (k), on spécifie un probabilité (p) et on échantillonne que le groupe de [[segment textuel|segments textuels]] dont la probabilité est supérieure à p.


En pratique, l'échantillonnage p-meilleurs est souvent préféré au k-meilleurs car il est plus adaptatif. Il est généralement recommandé de spécifier soit la '''[[température]]''', soit le paramètre ''p'', mais pas les deux.
Notez qu'il est généralement recommandé de spécifier soit la '''[[température]]''', soit le paramètre ''p'', mais pas les deux.


== Français ==
== Français ==
''' Échantillonnage des p-meilleurs'''
''' Échantillonnage à troncature de masse p'''
 
'''Échantillonnage des p-meilleurs'''


'''Échantillonnage du noyau'''
'''Échantillonnage du noyau'''
Ligne 21 : Ligne 24 :
'''Échantillonnage par troncature dynamique'''
'''Échantillonnage par troncature dynamique'''


''' Échantillonnage top-p'''
'''Échantillonnage par seuil de probabilité cumulée'''
 
'''Échantillonnage top-p'''


== Anglais ==
== Anglais ==
Ligne 33 : Ligne 38 :


== Sources ==
== Sources ==
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342   Source : Medium]
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]


[https://cyrilzakka.github.io/llm-playbook/nested/topp.html  Source : The Large Language Model PLaybook]
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]


[https://en.wikipedia.org/wiki/Top-p_sampling   Source : Wikipedia]
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]


[[Catégorie:Intelligence artificielle]]
[[Catégorie:Intelligence artificielle]]


{{DEFAULTSORT: echantillonnage des p}}
{{DEFAULTSORT: echantillonnage des p}}

Dernière version du 11 mars 2026 à 02:46

Définition

Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil p défini (la masse de probabilité) également appelée noyau.

Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.

Voir aussi échantillonnage à troncature k fixe

Compléments

Cette stratégie d'échantillonnage est utilisée par les grands modèles de langues pour choisir aléatoirement un segment textuel parmi un ensemble de segments textuels.

Alors que l'échantillonnage à troncature k fixe limite l'échantillon à un nombre k fixe de mots, l'échantillonnage à troncature de masse p spécifie une probabilité cumulée p entre 0 et 1 et on échantillonne parmi un nombre variable de segments textuels dont la somme des probabilités atteint ou dépasse p.

En pratique, l'échantillonnage à troncature de masse p est préféré à l'échantillonnage à troncature k fixe car il est plus adaptatif.

Notez qu'il est généralement recommandé de spécifier soit la température, soit le paramètre p, mais pas les deux.

Français

Échantillonnage à troncature de masse p

Échantillonnage des p-meilleurs

Échantillonnage du noyau

Échantillonnage par troncature dynamique

Échantillonnage par seuil de probabilité cumulée

Échantillonnage top-p

Anglais

Top-p sampling

Nucleus sampling

Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation.

In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.

Sources

Medium - Top-k sampling, Top-p sampling

Wikipedia - Top-k sampling

Wikipedia - Top-p sampling