KI & AI

KI-Halluzinationen erklärt – Warum KI manchmal komplett falsch antwortet

Nico FreitagKI & AI

Du fragst ChatGPT "Wer war der erste Präsident von Polen?" und bekommst einen Namen, der es nie gab. Du fragst nach einer Studie, die die KI zu kennen scheint, aber sie existiert nicht. Das ist eine KI-Halluzination. Halluzinationen sind eines der größten Probleme moderner KI-Systeme. Es sind nicht einfach Fehler – es ist etwas Spezifisches in der Art, wie KI funktioniert.

Was ist eine Halluzination, technisch gesehen?

Eine Halluzination ist wenn die KI etwas "erfindet", das nicht in ihren Trainingsdaten war (oder was falsch ist). Das Modell generiert Text, der plausibel klingt, aber nicht wahr ist. Warum passiert das? Weil LLMs nicht wirklich "verstehen" oder "wissen" Dinge. Sie sind statistische Modelle, die vorhersagen, welche Wörter als Nächstes kommen. Das ist super für Text-Generierung, aber ein Problem wenn es um Fakten geht. Konkret: Wenn du "Der erste Präsident von..." schreibst, weiß das Modell aus seinem Training: Danach kommt ein Name. Das Modell generiert einen Namen, der "sich richtig anfühlt" – aber ob der Name wirklich existierte, ist der KI egal. Die KI hat kein Faktenwissen, sie hat nur Muster.

Klassische Halluzination-Typen

Fakten-Halluzinationen: "Es gibt einen Ort namens 'Zentralpolis' in Bundesland NRW" (gibt es nicht). Zitate-Halluzinationen: "Gandhi sagte: 'Die Zukunft ist jetzt.'" (Er sagte das nicht). Studien-Halluzinationen: "Laut einer MIT-Studie von 2023 sind Katzen..." (Studie existiert nicht). Namen-Halluzinationen: "Der CEO von XYZ ist John Smith." (Gibt es nicht). Alle drei Typen sind real und gefährlich.

Warum sind Halluzinationen so überzeugend?

Das ist das Perfide: Halluzinationen klingen oft überzeugender als korrekte Antworten. Die KI ist trainiert, natürlich-klingende Text zu generieren. Eine erfundene Studie kann so detailliert und überzeugend klingen, dass man ihr glaubt. Das ist schlecht für alle, die KI für Research oder für Fact-Checking nutzen.

Verschiedene Modelle halluzinieren unterschiedlich viel

Wir haben Tests gemacht: - Claude halluziniert weniger als ChatGPT (bei vielen Aufgaben) - Gemini halluziniert mehr - Specialisierte Modelle (wie Codex für Code) halluzinieren weniger Das liegt daran, wie die Modelle trainiert wurden und wie groß sie sind.

Wie minimierst du Halluzinationen?

1. Nutze RAG: Wenn du RAG nutzt, kann die KI nur antworten basierend auf echten Dokumenten. Das eliminiert Halluzinationen quasi. 2. Nutze Claude oder spezializierte Modelle: Einige Modelle sind weniger anfällig. 3. Nutze Faktenchecking: Lass die KI ihre Antworten selbst überprüfen. "Bist du sicher, dass das stimmt?" kann helfen. 4. Nutze mehrere Quellen: Frag mehrere KI-Modelle dasselbe und vergleiche. 5. Manual Review: Für kritische Informationen: Immer selbst überprüfen. 6. Temperature senken: Ein technischer Parameter, der die KI weniger kreativ macht. Kann Halluzinationen reduzieren.

Wann sind Halluzinationen nicht so schlecht?

Für Creative Tasks (Geschichten schreiben, Brainstorming, Code-Generierung) sind Halluzinationen weniger schlecht – du reviewst das Output sowieso. Für Fact-Heavy Tasks (Forschung, Medizin, Legal) sind Halluzinationen sehr problematisch.

Die Zukunft

Die großen Modell-Hersteller arbeiten daran, Halluzinationen zu reduzieren. Neue Techniken wie "verifiable outputs" und bessere Training-Methoden helfen. Aber Halluzinationen werden nicht komplett verschwinden – sie sind intrinsisch in der Art, wie diese Modelle funktionieren. Die Realität: Du musst lernen, mit Halluzinationen zu leben und sie zu managen.

Fazit

KI-Halluzinationen sind real, gefährlich und überzeugend. Sie sind nicht ein Bug, das man repariert – sie sind ein Feature dieser Technologie. Die beste Strategie: Verstehe, dass sie passieren, nutze Techniken wie RAG um sie zu reduzieren, und überprüfe Fakten selbst wenn es kritisch ist.

FAQ