Large Language Models: Wie ChatGPT & Co. funktionieren
Was sind LLMs und wie funktionieren sie? Von Tokens über Training bis Inference — verständlich erklärt.
Was ist ein Large Language Model?
Ein Large Language Model (LLM) ist ein KI-System, das auf riesigen Textmengen trainiert wurde. Es hat gelernt, menschenähnliche Texte zu verstehen und zu erzeugen. Die bekanntesten: GPT-4 (OpenAI), Claude (Anthropic), Gemini (Google) und Llama (Meta).
Wie funktioniert das?
Im Kern macht ein LLM genau eine Sache: Es sagt das nächste Wort vorher (technisch: den nächsten Token). Basierend auf dem bisherigen Kontext. Und das erstaunlich gut.
- Tokenisierung: Text wird in Tokens zerlegt (Wortteile, ca. 1 Token ≈ ¾ Wort)
- Embedding: Jeder Token wird in einen mathematischen Vektor umgewandelt
- Transformer: Das Modell verarbeitet alle Tokens gleichzeitig und berechnet Beziehungen (Attention-Mechanismus)
- Vorhersage: Das Modell gibt Wahrscheinlichkeiten für mögliche nächste Tokens aus
- Generierung: Ein Token wird ausgewählt und der Prozess wiederholt sich
Wie wird ein LLM trainiert?
Das Training läuft in mehreren Phasen:
- Pre-Training: Das Modell liest Billionen Tokens aus Internet, Büchern und Code. Es lernt Sprachmuster, Wissen und Zusammenhänge.
- Fine-Tuning (RLHF): Menschliches Feedback verfeinert das Modell — es wird hilfreicher und sicherer.
- Instruction Tuning: Das Modell lernt, Anweisungen gezielt zu befolgen.
Was können LLMs — und was nicht?
Stärken:
- Vielseitigkeit — ein Modell für viele Aufgaben
- Natürliche Sprachverarbeitung, Code-Generierung, Zusammenfassung und Übersetzung
Grenzen:
- Halluzinationen: LLMs generieren manchmal plausibel klingende, aber falsche Aussagen
- Wissens-Cutoff: Wissen endet beim Trainingszeitraum
- Keine echte Logik: LLMs sind statistische Mustererkenner, kein "echtes" Verständnis
- Kosten: Training und Betrieb großer Modelle sind ressourcenintensiv
Wie setzt du LLMs im Unternehmen ein?
Drei Ansätze stehen dir zur Verfügung:
- API-Zugriff: Nutzung über Cloud-APIs (z.B. OpenAI API, Google Vertex AI)
- Fine-Tuning: Ein bestehendes Modell auf deine Daten anpassen
- RAG: Erweiterung durch eigene Wissensdatenbanken (Retrieval Augmented Generation)