« Grand modèle de langues multimodal » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
Ligne 28 : Ligne 28 :


''Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.''  
''Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.''  


==Sources==
==Sources==

Dernière version du 22 juillet 2025 à 11:31

Définition

Grand modèle de langues qui admet plusieurs modalités de représentation de l'information des données (texte, son, image, vidéo, données issues de capteurs, etc.) en entrée et en sortie.

Voir aussi modèle multimodal

Français

grand modèle de langues multimodal

grand modèle de langage multimodal

GMLM

grand modèle multimodal

Anglais

multimodal large language model

MLLM

large multimodal model

Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models.

Español

modelo extenso de lenguaje multimodal

Investigadores de la Universidad de Stanford han propuesto el término modelo fundacional (del inglès foundation model) para definir un conjunto de modelo extenso de lenguaje basados en arquitecturas de transformadores preentrenadas en grandes corpus, a veces utilizando varias modalidades (texto, voz, imágenes, etc.).

Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.

Sources

Source : bdtechtalks

Source : Huang et al. (2023)

Source: Developpez.com 101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle » Ligne bleue2.jpg