Explain — Modul 4

Context Window: Das Arbeitsgedächtnis der KI

Jedes Gespräch hat ein Limit. Das Context Window bestimmt, wie viel eine KI gleichzeitig „im Kopf“ behalten kann — und was sie vergisst.

Das Context Window ist einer der wichtigsten — und am häufigsten missverstandenen — Aspekte moderner KI-Sprachmodelle. Es bestimmt, wie viel Information ein Modell wie ChatGPT, Claude oder Gemini gleichzeitig verarbeiten kann.

Im Gegensatz zu einem menschlichen Gedächtnis hat das Context Window eine feste Obergrenze, gemessen in Tokens. Alles, was das Modell braucht — System-Prompt, Gesprächsverlauf und die neue Antwort — muss in dieses Fenster passen. Ist es voll, werden ältere Nachrichten abgeschnitten, ohne dass die KI dies bemerkt oder kommuniziert.

Dazu kommt der Lost-in-the-Middle-Effekt: Forschung zeigt, dass Modelle Informationen am Anfang und Ende des Kontexts besser nutzen als solche in der Mitte. In diesem Modul erleben Sie interaktiv, wie das Context Window funktioniert, wann Anweisungen verloren gehen und wie Sie Ihre Prompts optimal strukturierst.

Kurz-Rückblick — Modul 3

In Halluzinationen haben Sie gelernt: KI hat kein echtes Wissen — sie folgt statistischen Mustern und kann dabei überzeugend falsch liegen. Aber selbst wenn die KI korrekt antwortet: Was passiert, wenn sie Ihre Anweisungen einfach vergisst?

Was ist das Context Window?

Stellen Sie sich einen Schreibtisch vor, auf dem nur eine bestimmte Anzahl Zettel Platz hat. Alles, was die KI braucht — Ihre System-Anweisung, der bisherige Gesprächsverlauf und die neue Antwort — muss auf diesen Schreibtisch passen.

Das Context Window wird in Tokens gemessen (die kennen Sie schon aus Modul 1). Aktuelle Modelle haben 128K bis 2 Millionen Tokens Platz. Klingt viel — aber der nutzbare Anteil liegt oft nur bei 40–60%.

Und das Wichtigste: Jede Konversation startet bei null. Die KI erinnert sich nicht an gestern. Es gibt kein Langzeitgedächtnis. Nur diesen einen Schreibtisch.

Der Schreibtisch der KI

Senden Sie Nachrichten und beobachten Sie, wie der Speicher sich füllt — und was passiert, wenn kein Platz mehr ist.

Context Window: 4.096 Tokens480 / 4.096
System480 Tokens

Sie sind ein hilfreicher Assistent. Antworten Sie immer auf Deutsch.

0 / 8 Nachrichten

Jetzt wissen Sie, dass der Platz begrenzt ist. Aber was passiert, wenn er voll wird?

Wenn die KI vergisst

Wenn das Context Window voll ist, werden die ältesten Nachrichten abgeschnitten — inklusive Ihrer System-Anweisung. Die KI bemerkt das nicht. Sie arbeitet einfach mit dem, was noch da ist.

Das führt zu einem typischen Muster: Am Anfang befolgt die KI Ihre Regeln perfekt. Nach ein paar Nachrichten „vergisst“ sie plötzlich, was Sie ihr gesagt haben. Kein Bug — das Context Window ist einfach voll.

Wenn die Regeln verschwinden

Beobachten Sie, wie die Pirat-Instruktion aus dem Kontext fällt — und die KI plötzlich ganz normal antwortet.

Sichtbar für die KI

380 / 2.048
System

Antworte immer als Pirat! Nutze Piratensprache.

Schritt 1 / 9

Ältere Nachrichten verschwinden. Aber verschwinden sie gleichmäßig?

Lost in the Middle

Forschung zeigt: Selbst innerhalb des Context Windows erinnert sich die KI nicht an alles gleich gut. Informationen am Anfang und am Ende werden mit 85–95% Genauigkeit genutzt. Die Mitte fällt auf 71–78% ab.

Wissenschaftler nennen das den „Lost in the Middle“-Effekt: eine U-Kurve der Aufmerksamkeit. Das hat praktische Konsequenzen — wichtige Informationen gehören an den Anfang oder ans Ende deines Prompts, nie in die Mitte.

Die U-Kurve der Aufmerksamkeit

Wechseln Sie die Ansicht und beobachte, wie die Erinnerungsleistung in der Mitte einbricht.

1
Projektname: Aurora100%
2
Deadline: 15. März100%
3
Budget: 50.000 €100%
4
Teamgröße: 5 Personen100%
5
Technologie: React + Python100%
6
Zielgruppe: B2B-Kunden100%
7
Kontakt: maria@firma.de100%
8
Sprache: Deutsch + Englisch100%
9
Format: PDF-Export nötig100%
10
Nächster Schritt: Kick-off Mo100%

Alles gleich gut erinnert — oder?

Key Takeaways

  • Das Context Window ist der gesamte „Arbeitsspeicher“ der KI — System-Prompt, Verlauf und Antwort teilen sich den Platz.

  • Jedes Gespräch startet bei null. Die KI erinnert sich nicht an vorherige Konversationen.

  • Bei vollem Fenster fallen die ältesten Nachrichten weg — inklusive Ihrer Anweisungen.

  • Informationen in der Mitte des Kontexts gehen am ehesten verloren (Lost in the Middle).

  • Praxis-Tipp: Wichtige Regeln gehören an den Anfang, Schlüssel-Infos ans Ende — nie in die Mitte.

Diese Konzepte im Workshop erleben

In der Prompt Arena können Teilnehmer live gegen verschiedene KI-Modelle prompten — ideal, um Theorie in die Praxis umzusetzen.

Kostenlos testen