Ein großes Sprachmodell (LLM) ist ein System zur Verarbeitung natürlicher Sprache (NLP), das auf riesigen Mengen von Textdaten trainiert wird, um wahrscheinliche nächste Wörter und Sätze vorherzusagen.

  • LLMs wenden Deep-Learning-Techniken wie Transformer an, um Text aufzunehmen und die statistischen Muster und Beziehungen zwischen Wörtern und größeren sprachlichen Konzepten zu erlernen.
  • Mit zunehmender Datenmenge werden sie besser darin, realistische, menschenähnliche Sprache und Text zu generieren.

Beispielhafte Anwendungen von LLMs:

  • Textvervollständigung – Autovervollständigung von Suchanfragen, E-Mails oder Dokumenten
  • Textgenerierung – Erstellung origineller Aufsätze, Code, Gedichte, Dialoge
  • Textzusammenfassung – Zusammenfassung und Destillation von Schlüsselinformationen aus Dokumenten
  • Übersetzung – Übersetzung von Texten zwischen Sprachen
  • Fragenbeantwortung – Beantwortung faktenbasierter Fragen
  • Textklassifizierung – Kategorisierung von Dokumenten nach Thema, Stimmung, Spam-Erkennung
  • Spracherkennung – Transkription von gesprochenem Audio in Text

Bekannte Beispiele für große Modelle sind GPT-3.5 und GPT-4 von OpenAI, Gopher von DeepMind, OPT von Meta und Constitutional AI von Anthropic.

Moderne LLMs können kohärenten, genauen und kontextbezogenen Text produzieren und gleichzeitig die Möglichkeiten von KI-Assistenten erweitern. Risiken in Bezug auf Voreingenommenheit, Sicherheit und Missbrauch bleiben jedoch aktive Forschungsbereiche.