Un grand modèle de langage (LLM) est un système de traitement du langage naturel (NLP) formé sur des quantités massives de données textuelles pour prédire les mots et les phrases suivants probables.
- Les LLM appliquent des techniques d'apprentissage en profondeur telles que les transformateurs pour ingérer du texte et apprendre les modèles statistiques et les relations entre les mots et les concepts linguistiques plus larges.
- Au fur et à mesure que les données sont fournies, ils parviennent à générer un langage et un texte réalistes, semblables à ceux d'un être humain.
Exemples d'utilisation des modules d'apprentissage tout au long de la vie :
- Complétion de texte - Autocomplétion de requêtes de recherche, d'e-mails ou de documents
- Génération de textes - Créer des essais, des codes, des poèmes, des dialogues originaux
- Synthèse de texte - Résumer et distiller des informations clés à partir de documents
- Traduction - Traduire un texte d'une langue à l'autre
- Réponse aux questions - Fournir des réponses à des questions basées sur des faits
- Classification des textes - Catégorisation des documents par sujet, sentiment, détection des spams
- Reconnaissance vocale - Transcription de l'audio parlé en texte
Parmi les exemples bien connus de grands modèles, citons GPT-3.5 et GPT-4 d'OpenAI, Gopher de DeepMind, OPT de Meta et Constitutional AI d'Anthropic.
Les LLM les plus modernes peuvent produire des textes cohérents, précis et adaptés au contexte, tout en innovant par rapport à ce que les assistants d'intelligence artificielle peuvent réaliser. Toutefois, les risques liés à la partialité, à la sécurité et à l'utilisation abusive restent des domaines de recherche actifs.