← Alle Begriffe Grundlagen

Halluzination (KI)

KI erfindet Fakten, Zitate oder Daten die nicht existieren — mit vollem Vertrauen präsentiert als wären sie real.

Erklaerung

Halluzination ist das bekannteste Problem von Large Language Models: Das Modell generiert plausibel klingende aber faktisch falsche Informationen. Ursache: LLMs "denken" nicht — sie berechnen welches Token als nächstes wahrscheinlich kommt. Manchmal ist das wahrscheinlichste Token ein erfundenes Datum, eine nicht-existente Quelle oder eine falsche Zahl. Besonders gefährlich: Halluzinationen klingen genauso überzeugend wie korrekte Antworten. Gegenmaßnahmen: RAG (echte Quellen als Kontext), Multi-Modell-Ansatz (Widersprüche aufdecken), Human-in-the-Loop (Mensch prüft bei Unsicherheit).

Beispiel

ChatGPT nennt in einem juristischen Schriftsatz drei Gerichtsurteile als Belege — alle drei Aktenzeichen existieren nicht. Der Anwalt prüft es nicht. Klage wird abgewiesen.

Verwandte Begriffe

RAG Konfidenz Human-in-the-Loop Grounding