Few-Shot-Learning
Few-Shot-Learning ist die Technik, einem LLM wenige Beispiele im Prompt mitzugeben (In-Context-Learning), damit das Modell gewünschten Stil, Format oder Argumentation für neuen Input lernt.
Few-Shot-Prompting gibt 2–5 Input/Output-Beispiele, gefolgt von neuem Input. Das Modell lernt das Muster ohne Training — reines In-Context-Learning. Für konsistente Formate, spezifische Tonalität oder firmeninternen Jargon ist Few-Shot oft günstiger und flexibler als Fine-Tuning. Nachteil: jedes Beispiel kostet Token.
Beispiel
Input: 3 Beispiele Produktname → Marketing-Slogan (Webrock-Stil). Dann: 'Produkt: Antminer S21. Slogan:'. Output entspricht automatisch dem Beispielstil — ohne Training.
Häufig gestellte Fragen
Wie viele Beispiele sind optimal?
Meist 2–5. Mehr bringt abnehmenden Ertrag und kostet Token. Für neuere Modelle (Claude 3.7, GPT-4o) reichen oft 1–2.
Few-Shot oder Fine-Tuning?
Few-Shot: schnell, flexibel, kein Training. Fine-Tuning: bessere Leistung bei großen Volumina (>1000 Queries), niedrigere Kosten pro Query, Privacy (eigenes Modell).
Verwandte Begriffe
Weiterführende Links
- → Unser Service: GEO