Chain of Thought (CoT)
Chain of Thought is een prompttechniek die het LLM stap-voor-stap laat redeneren vóór het eindantwoord, wat de nauwkeurigheid op complexe taken dramatisch verhoogt.
Chain of Thought (onderzocht door Google in 2022) toonde aan dat LLMs exponentieel beter worden op rekenkundige, logische en meerstaps-problemen als je ze expliciet laat 'hardop denken'. Het simpele 'Laten we stap voor stap denken' voor een antwoord tilt de wiskunde-score van GPT van 18% naar 57%. Moderne reasoning-modellen (o1, o3, Claude Extended Thinking) hebben CoT ingebakken in hun architectuur.
Voorbeeld
Vraag: 'Een productreeks kost €480 per 12 stuks, verkocht voor €65 per stuk. Bij 10% korting per stuk, wat is de marge bij verkoop van 36 stuks?' Met CoT-instructie rekent het model transparant: kostprijs, verkoopprijs na korting, aantal, totaalmarge — met veel lagere foutkans.
Veelgestelde vragen
Werkt CoT voor elk model?
Het beste voor grote modellen (70B+). Kleinere modellen hebben er beperkt voordeel bij; te weinig capaciteit om goed te redeneren. Reasoning-modellen doen het automatisch.
Moet ik CoT expliciet aanzetten?
Bij niet-reasoning modellen ja ('Denk stap voor stap na'). Bij o1/o3/Claude Extended Thinking gebeurt het intern — expliciet vragen kan zelfs averechts werken.
CoT voor creatieve taken?
Minder nut. CoT schittert bij logica, wiskunde, code, juridische redenering. Voor creatief schrijven kan overplanning de kwaliteit juist verminderen.
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO