KI

Few-Shot-Learning

Von Paul Brock·Aktualisiert am 24-04-2026
Kurz gesagt

Few-Shot-Learning ist die Technik, einem LLM wenige Beispiele im Prompt mitzugeben (In-Context-Learning), damit das Modell gewünschten Stil, Format oder Argumentation für neuen Input lernt.

Few-Shot-Prompting gibt 2–5 Input/Output-Beispiele, gefolgt von neuem Input. Das Modell lernt das Muster ohne Training — reines In-Context-Learning. Für konsistente Formate, spezifische Tonalität oder firmeninternen Jargon ist Few-Shot oft günstiger und flexibler als Fine-Tuning. Nachteil: jedes Beispiel kostet Token.

Beispiel

Input: 3 Beispiele Produktname → Marketing-Slogan (Webrock-Stil). Dann: 'Produkt: Antminer S21. Slogan:'. Output entspricht automatisch dem Beispielstil — ohne Training.

Häufig gestellte Fragen

Wie viele Beispiele sind optimal?

Meist 2–5. Mehr bringt abnehmenden Ertrag und kostet Token. Für neuere Modelle (Claude 3.7, GPT-4o) reichen oft 1–2.

Few-Shot oder Fine-Tuning?

Few-Shot: schnell, flexibel, kein Training. Fine-Tuning: bessere Leistung bei großen Volumina (>1000 Queries), niedrigere Kosten pro Query, Privacy (eigenes Modell).

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: GEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren