← Alle Begriffe Grundlagen

Context Window

Wie viel Text ein KI-Modell gleichzeitig "sehen" und verarbeiten kann — alles außerhalb wird vergessen.

Erklaerung

Das Context Window (Kontextfenster) ist die maximale Textmenge die ein LLM in einer einzigen Anfrage verarbeiten kann. Gemessen in Token (1 Token ≈ 0,75 Wörter). Alles was außerhalb des Context Windows liegt wird nicht berücksichtigt — das Modell hat dafür keine Erinnerung. Claude 3.5 Sonnet: 200.000 Token (~150.000 Wörter). GPT-4o: 128.000 Token. Das Context Window ist der Grund warum bei sehr langen Dokumenten oder Sessions Qualitätsverlust auftreten kann ("Lost in the Middle" — frühe Instruktionen fallen aus dem Aufmerksamkeitsfenster). Lösung: Wichtige Informationen am Anfang oder Ende platzieren, Memory-Systeme nutzen.

Beispiel

Ein 300-seitiges PDF hat ~150.000 Token. Claude kann es komplett lesen. GPT-4o kann nur 128k Token — bei längerem Dokument muss man chunken.

Verwandte Begriffe

Token Lost in the Middle Memory RAG