KI

Temperature

Von Paul Brock·Aktualisiert am 24-04-2026
Kurz gesagt

Temperature ist ein Sampling-Parameter zwischen 0 und 2, der steuert, wie zufällig ein LLM das nächste Token wählt — niedrig = deterministisch, hoch = kreativ.

Bei Temperature 0 wählt das Modell stets das wahrscheinlichste nächste Token — reproduzierbarer, konservativer Output. Bei 1 folgt es der vollen Wahrscheinlichkeitsverteilung (ausgewogen, etwas kreativ). Über 1 wird es wilder bis inkohärent. Für Code und Fakten: 0–0,2. Für Marketing/Kreativ: 0,7–1,0. Für Brainstorming: 1,2+. Temperature 0 ist aufgrund Floating-Point-Arithmetik nicht 100 % deterministisch.

Beispiel

Gleicher Prompt, Temperature 0: stets 'Die Hauptstadt der Niederlande ist Amsterdam.' Temperature 1,2: eventuell 'Amsterdam, diese pulsierende Hauptstadt, ist das politische und kulturelle Herz der Niederlande.' Gleiche Info, andere Energie.

Häufig gestellte Fragen

Wann Temperature 0?

Klassifikation, Extraktion, Code-Generierung, strukturierte Outputs (JSON), alles mit Konsistenzanforderung. Bei 0 bleibt Output bei gleichem Input wiederholbar.

Beeinflusst Temperature Halluzinationen?

Indirekt. Höhere Temperature = zufälligere Tokens = höhere Abweichungsgefahr von Fakten. Für RAG-Aufgaben Temperature stets niedrig halten.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: GEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren