Halluzination
Halluzination in der Künstlichen Intelligenz
Kurz gesagt
Der schnelle Einstieg in den Begriff.
Eine KI-Halluzination liegt vor, wenn ein KI-Modell (meist ein LLM) plausible, aber falsche, erfundene oder widersprüchliche Informationen erzeugt – also Dinge ‚sieht‘ oder behauptet, die es in Wirklichkeit nicht gibt oder nicht weiß.
Begriff
Halluzination
Wortherkunft (Etymologie)
Der Begriff ‚Halluzination‘ stammt aus der Psychologie und Medizin (lat. ‚hallucinari‘ = ‚irre reden‘ oder ‚phantasieren‘) und beschreibt dort die Wahrnehmung von Dingen ohne äußeren Reiz. In der KI wurde er ab ca. 2010 in der Computer-Vision-Forschung verwendet, richtig populär wurde er jedoch 2022/2023 mit dem Aufkommen von ChatGPT und generativen Large Language Models. Die KI-Branche hat den Begriff bewusst übernommen, um das Problem anschaulich zu machen.
Allgemeine Bedeutung
Außerhalb der KI bedeutet Halluzination eine Sinnestäuschung: Man sieht, hört oder glaubt etwas, das objektiv nicht vorhanden ist (z. B. bei Fieber, Drogen oder psychischen Erkrankungen). Es geht um die Erzeugung von Inhalten ohne reale Grundlage.
Spezifische Bedeutung im KI-Kontext
Im KI-Kontext bezeichnet Halluzination das Phänomen, dass generative Modelle (vor allem LLMs) selbstbewusst falsche Fakten, erfundene Quellen, falsche Zitate oder logisch unmögliche Aussagen produzieren – obwohl sie grammatikalisch und stilistisch perfekt klingen. Das Modell ‚erfindet‘ einfach, weil es nur statistische Wahrscheinlichkeiten vorhersagt, nicht echtes Wissen besitzt.
Verwendungsbereiche
- Antworten auf Wissensfragen in Chatbots
- Automatische Text-, Code- oder Bildgenerierung
- Medizinische, rechtliche oder finanzielle Beratung
- Zusammenfassungen und Recherche-Tools
- Kreative Anwendungen (Geschichten, Marketingtexte)
Allgemeine Beispiele
- Ein Schüler schreibt einen Aufsatz und behauptet selbstsicher, dass Napoleon 1805 den Computer erfunden hat – einfach weil es sich ‚richtig‘ anhört.
- Du fragst nach der Hauptstadt eines Landes und bekommst eine erfundene Stadt mit erfundenen Fakten – klingt aber total überzeugend.
Reale Anwendungsbeispiele
- Rechtsanwalt-Fall 2023 (Mata v. Avianca): Ein US-Anwalt reichte bei Gericht sechs von ChatGPT erfundene Urteile ein – das Modell hatte komplett fiktive Gerichtsentscheidungen mit erfundenen Namen und Zitaten generiert.
- Medizinische Fehlinformationen: KI-Chatbots haben bereits falsche Medikamentendosierungen oder erfundene Studien empfohlen, was in Tests zu gefährlichen Ratschlägen führte.
- Google Bard / Gemini-Fehler 2023: Bei der Präsentation erfand Bard falsche astronomische Fakten über den James-Webb-Teleskop – der Aktienkurs von Alphabet fiel kurzzeitig um 9 %.
Verschiedene Ausprägungen / Varianten
- Faktische Halluzination: Das Modell erfindet konkrete falsche Fakten (falsche Jahreszahlen, erfundene Personen, falsche Zitate).
- Intrinsische Halluzination: Widerspruch zum eigenen Kontext oder zur Eingabe (das Modell widerspricht sich selbst).
- Extrinsische Halluzination: Falsche Informationen, die außerhalb des Prompts liegen, aber plausibel klingen.
- Multimodale Halluzination: Bei Bild- oder Video-Modellen: Erfundene Objekte in Bildern oder falsche Beschreibungen von Bildinhalten.
Probleme beim Einordnen / Herausforderungen
- Schwer zu erkennen: Die Antworten klingen extrem überzeugend und selbstsicher.
- Nicht vollständig lösbar: Selbst mit RAG oder besseren Modellen treten Halluzinationen weiterhin auf.
- Vertrauensverlust: Nutzer wissen nie sicher, ob eine Antwort stimmt – deshalb Warnhinweise in fast allen Tools.
- Risiken in sensiblen Bereichen: Gesundheit, Recht, Finanzen oder Bildung können durch Halluzinationen echten Schaden nehmen.
- Messbarkeit: Es gibt noch keine einheitliche Metrik, um Halluzinationen zuverlässig zu quantifizieren.
Produktbeispiele
- ChatGPT / GPT-Serie (OpenAI): Bekannt für gelegentliche Halluzinationen; OpenAI arbeitet mit Reinforcement Learning und RAG dagegen.
- Claude (Anthropic): Stark auf Sicherheit optimiert und halluziniert seltener als viele Konkurrenten (Constitutional AI).
- Perplexity AI: Suchmaschine mit RAG – reduziert Halluzinationen durch Quellenangaben deutlich.
- LangChain / LlamaIndex Guardrails: Frameworks und Tools, die Halluzinationen in eigenen RAG-Anwendungen systematisch erkennen und blocken.
Theoretische Grundlage (einfach erklärt)
LLMs funktionieren wie ein extrem guter ‚Wort-Vorhersager‘: Sie berechnen nur, welches Wort statistisch am wahrscheinlichsten als Nächstes kommt. Es gibt kein echtes Weltwissen oder Verständnis – nur Muster aus den Trainingsdaten. Fehlen passende Daten oder ist der Kontext unklar, ‚erfindet‘ das Modell einfach die wahrscheinlichste Fortsetzung. Deshalb entstehen Halluzinationen ganz natürlich.
Weiterentwicklung und Zukunftsaussichten
Stand April 2026 sind Halluzinationen immer noch ein zentrales Problem, werden aber durch Advanced RAG, Self-Consistency-Checks, Fact-Checking-Agenten und bessere Reasoning-Modelle (z. B. OpenAI o3-Serie) deutlich reduziert. In den nächsten 3–5 Jahren erwartet man Hybrid-Systeme (LLM + Symbolische KI + externe Verifikation), die Halluzinationen unter 5 % drücken. Langfristig könnten AGI-Systeme dieses Problem weitgehend lösen – oder neue, komplexere Formen von Halluzinationen erzeugen. Regulatorisch (EU AI Act) wird Transparenz über mögliche Halluzinationen bei High-Risk-Systemen gefordert.
Nähe und Abgrenzung zu anderen Begriffen
- LLM – Halluzinationen treten vor allem bei Large Language Models auf, weil sie rein statistisch arbeiten.
- RAG – Wichtigste Technik zur Reduktion von Halluzinationen, indem externes Wissen hinzugefügt wird.
- AGI – Echte AGI soll idealerweise keine oder deutlich weniger Halluzinationen haben, weil sie echtes Verständnis besitzt.
- Chain of Thought – Hilft beim schrittweisen Denken und reduziert Halluzinationen in komplexen Aufgaben.