Context Window
Das Context Window ist die maximale Textmenge (Tokens), die ein LLM auf einmal verarbeiten kann — sein 'Gedächtnis' pro Interaktion.
Das Context Window bestimmt, was ein LLM auf einmal 'sehen' kann. GPT-3 (2020): 2.048 Tokens. GPT-4 (2023): 8k-128k. 2024-2026 sind 200k Tokens (Claude Sonnet) bis 1M Tokens (Claude Opus, Gemini Pro) Standard. Größere Fenster bedeuten ganze Codebases oder Bücher auf einmal, aber Kosten pro Query skalieren mit Länge.
Beispiel
Claude Opus 1M-Kontext lässt Entwickler 500.000 Code-Zeilen + Docs liefern und fragen 'analysiere, wo Memory Leaks sein könnten'. Unmöglich mit 8k-Fenstern von 2023.
Häufig gestellte Fragen
Ist größer immer besser?
Nicht zwangsläufig. Lange Kontexte können 'lost in the middle' verursachen, wo Modelle Mittelinhalt überspringen. Kosten steigen proportional.
Verwandte Begriffe
Weiterführende Links
- → Unser Service: KI-Branche