KI

Chain of Thought (CoT)

Von Paul Brock·Aktualisiert am 24-04-2026
Kurz gesagt

Chain of Thought ist eine Prompting-Technik, bei der das LLM Schritt für Schritt vor der finalen Antwort argumentiert, was die Genauigkeit bei komplexen Aufgaben drastisch erhöht.

Chain of Thought (2022 von Google erforscht) zeigte, dass LLMs bei Arithmetik, Logik und Mehrschritt-Problemen exponentiell besser werden, wenn sie explizit 'laut denken'. Das einfache 'Lass uns Schritt für Schritt denken' vor der Antwort hob GPTs Mathe-Score von 18 % auf 57 %. Moderne Reasoning-Modelle (o1, o3, Claude Extended Thinking) haben CoT in die Architektur eingebaut.

Beispiel

Frage: 'Eine Produktreihe kostet 480 € pro 12 Stück, Verkauf 65 € pro Stück. Bei 10 % Rabatt pro Stück: Marge beim Verkauf von 36 Stück?' Mit CoT rechnet das Modell transparent: Kosten, Verkaufspreis, Menge, Gesamtmarge — weit geringere Fehlerquote.

Häufig gestellte Fragen

Funktioniert CoT bei jedem Modell?

Am besten bei großen Modellen (70B+). Kleinere Modelle profitieren wenig — zu wenig Kapazität. Reasoning-Modelle tun es automatisch.

Muss ich CoT explizit aktivieren?

Bei Nicht-Reasoning-Modellen ja ('Denke Schritt für Schritt'). Bei o1/o3/Claude Extended Thinking geschieht es intern — explizites Aktivieren kann sogar kontraproduktiv sein.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: GEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren