Explain — Modul 3

KI-Halluzinationen: Warum KI überzeugend lügt

KI klingt bei falschen Antworten genauso sicher wie bei richtigen. Das macht Halluzinationen so gefährlich.

KI-Halluzinationen gehören zu den größten Herausforderungen im Umgang mit Sprachmodellen wie ChatGPT, Claude oder Gemini. Ein halluziniertes Ergebnis sieht aus wie eine fundierte Antwort — ist aber sachlich falsch.

Das Tückische: Die KI zeigt keine Unsicherheit. Die sogenannte Confidence eines Modells misst nur, wie stark es ein bestimmtes Token bevorzugt — nicht, ob die Aussage wahr ist. Ein Modell kann mit 95% Sicherheit eine falsche Hauptstadt nennen, weil die Wahrscheinlichkeit aus dem Trainingstext stammt, nicht aus einem Faktencheck.

Für den professionellen Einsatz von KI im Unternehmen ist das Verständnis von Halluzinationen unverzichtbar. In diesem Modul erleben Sie interaktiv, wie schwer halluzinierte Fakten von echten zu unterscheiden sind, warum Confidence kein Qualitätsmerkmal ist, und wie Next-Token-Prediction systematisch zu falschen Antworten führen kann.

Kurz-Rückblick — Modul 2

In Prompt → Antwort haben Sie gelernt: KI erzeugt Text durch Next-Token-Prediction. Sie wählt das wahrscheinlichste nächste Wort — immer und immer wieder. Aber was passiert, wenn das wahrscheinlichste Wort falsch ist?

Was sind Halluzinationen?

Wenn eine KI etwas behauptet, das sachlich falsch ist — aber so formuliert, als wäre es Fakt. Kein Zögern, keine Einschränkung, voller Überzeugung.

Das Problem: Sie können am Tonfall nicht erkennen, ob die Antwort stimmt. Eine halluzinierte Antwort klingt genauso selbstsicher wie eine korrekte.

Echt oder erfunden?

Sechs Aussagen, die alle plausibel klingen. Raten Sie, welche stimmen — und schauen Sie sich danach die Confidence der KI an.

Frage 1/6

Geografie
Die Große Mauer von China ist das einzige Bauwerk, das man aus dem Weltraum sehen kann.

Aufgefallen? Die Confidence-Balken sehen fast gleich aus — egal ob die Aussage stimmt oder nicht.

Confidence ist nicht Korrektheit

Confidence misst, wie stark das Modell ein Token bevorzugt — nicht, ob die Aussage wahr ist. Ein Modell kann mit 95% Confidence eine falsche Hauptstadt nennen.

Der folgende Vergleich zeigt es deutlich: Sortieren Sie einmal nach Korrektheit, einmal nach Confidence — und sieh, wie die Farben sich mischen.

Confidence vs. Korrektheit

Wechseln Sie die Sortierung und beobachte: Korrekte und falsche Aussagen sind in der Confidence kaum unterscheidbar.

Korrekt

Die Erde hat einen Mond
97%
Paris ist Hauptstadt von Frankreich
96%
Licht ist schneller als Schall
95%
Wasser siedet bei 100 °C
94%

Halluziniert

Menschen nutzen nur 10 % ihres Gehirns
93%
Sydney ist Hauptstadt von Australien
91%
Goldfische haben 3 Sekunden Gedächtnis
90%
Blitz schlägt nie zweimal ein
89%

Durchschnittliche Confidence: Korrekt 96% vs. Halluziniert 91%

Unterschied: nur ~5 Prozentpunkte.

Confidence sagt nichts über Wahrheit.
Aber warum passiert das?

Warum halluziniert KI?

Ein Sprachmodell hat kein Wissen — es hat Muster. Es hat gelernt, dass nach “Die Hauptstadt von Australien ist” meistens “Sydney” folgt, weil dieser Satz häufiger im Trainingstext vorkam als die korrekte Antwort “Canberra”.

Das nächste Beispiel zeigt Schritt für Schritt, wie Next-Token-Prediction zu einer überzeugend falschen Antwort führt.

Schritt für Schritt zur Halluzination

Beobachten Sie, wie das Modell Token für Token eine falsche Antwort aufbaut — und dabei jederzeit selbstsicher wirkt.

Prompt: “Die Hauptstadt von Australien ist Sydney

Token 1 — Nächstes Token: “ Sydney

„Sydney“ ist bekannter im Kontext Australien — gewinnt, obwohl falsch.

Key Takeaways

  • KI klingt bei falschen Antworten genauso sicher wie bei richtigen.

  • Confidence misst Token-Präferenz, nicht Wahrheit.

  • Halluzinationen entstehen, weil das Modell Mustern folgt — nicht Fakten.

  • Es gibt keinen eingebauten Faktencheck. Prüfung bleibt bei Ihnen.

Diese Konzepte im Workshop erleben

In der Prompt Arena können Teilnehmer live gegen verschiedene KI-Modelle prompten — ideal, um Theorie in die Praxis umzusetzen.

Kostenlos testen