Temperature
Temperature ist ein Sampling-Parameter zwischen 0 und 2, der steuert, wie zufällig ein LLM das nächste Token wählt — niedrig = deterministisch, hoch = kreativ.
Bei Temperature 0 wählt das Modell stets das wahrscheinlichste nächste Token — reproduzierbarer, konservativer Output. Bei 1 folgt es der vollen Wahrscheinlichkeitsverteilung (ausgewogen, etwas kreativ). Über 1 wird es wilder bis inkohärent. Für Code und Fakten: 0–0,2. Für Marketing/Kreativ: 0,7–1,0. Für Brainstorming: 1,2+. Temperature 0 ist aufgrund Floating-Point-Arithmetik nicht 100 % deterministisch.
Beispiel
Gleicher Prompt, Temperature 0: stets 'Die Hauptstadt der Niederlande ist Amsterdam.' Temperature 1,2: eventuell 'Amsterdam, diese pulsierende Hauptstadt, ist das politische und kulturelle Herz der Niederlande.' Gleiche Info, andere Energie.
Häufig gestellte Fragen
Wann Temperature 0?
Klassifikation, Extraktion, Code-Generierung, strukturierte Outputs (JSON), alles mit Konsistenzanforderung. Bei 0 bleibt Output bei gleichem Input wiederholbar.
Beeinflusst Temperature Halluzinationen?
Indirekt. Höhere Temperature = zufälligere Tokens = höhere Abweichungsgefahr von Fakten. Für RAG-Aufgaben Temperature stets niedrig halten.
Verwandte Begriffe
Weiterführende Links
- → Unser Service: GEO