Temperature
Temperature is een sampling-parameter tussen 0 en 2 die bepaalt hoe willekeurig een LLM zijn volgende token kiest — laag = deterministisch, hoog = creatief.
Bij temperature 0 kiest het model altijd het meest waarschijnlijke volgende token — reproduceerbare, conservatieve output. Bij temperature 1 volgt het de volledige waarschijnlijkheidsverdeling (gebalanceerd, enigszins creatief). Boven 1 wordt het wilder tot incoherent. Voor code en feitelijke data: 0–0.2. Voor marketing/creatief: 0.7–1.0. Voor brainstorm: 1.2+. Temperature 0 is niet 100% deterministisch door floating-point aritmetiek.
Voorbeeld
Zelfde prompt, temperature 0: altijd 'De hoofdstad van Nederland is Amsterdam.' Temperature 1.2: mogelijk 'Amsterdam, die bruisende hoofdstad, is het politieke en culturele hart van Nederland.' — dezelfde informatie, andere energie.
Veelgestelde vragen
Wanneer temperature 0?
Classificatie, extractie, code-generatie, structured output (JSON), alles waar consistentie cruciaal is. Bij 0 blijft output herhaalbaar bij identieke input.
Temperature en top_p samen?
Meestal één van beide tunen, niet beide tegelijk. Top_p (nucleus sampling) beperkt tot de top X% kans-cumulatief, subtieler dan temperature.
Heeft temperature invloed op hallucinatie?
Indirect. Hogere temperature = meer willekeurige tokens = grotere kans op afwijken van feit. Voor RAG-taken altijd temperature laag houden.
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO