KI

Context Window

Von Paul Brock·Aktualisiert am 22-04-2026
Kurz gesagt

Das Context Window ist die maximale Textmenge (Tokens), die ein LLM auf einmal verarbeiten kann — sein 'Gedächtnis' pro Interaktion.

Das Context Window bestimmt, was ein LLM auf einmal 'sehen' kann. GPT-3 (2020): 2.048 Tokens. GPT-4 (2023): 8k-128k. 2024-2026 sind 200k Tokens (Claude Sonnet) bis 1M Tokens (Claude Opus, Gemini Pro) Standard. Größere Fenster bedeuten ganze Codebases oder Bücher auf einmal, aber Kosten pro Query skalieren mit Länge.

Beispiel

Claude Opus 1M-Kontext lässt Entwickler 500.000 Code-Zeilen + Docs liefern und fragen 'analysiere, wo Memory Leaks sein könnten'. Unmöglich mit 8k-Fenstern von 2023.

Häufig gestellte Fragen

Ist größer immer besser?

Nicht zwangsläufig. Lange Kontexte können 'lost in the middle' verursachen, wo Modelle Mittelinhalt überspringen. Kosten steigen proportional.

Verwandte Begriffe

Weiterführende Links

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren