Few-shot learning
Few-shot learning is de techniek waarbij je een LLM enkele voorbeelden meegeeft in de prompt (in-context learning) om het model de gewenste stijl, format of redenatiewijze te leren voor nieuwe input.
Few-shot prompting geeft 2–5 input/output-voorbeelden in de prompt, gevolgd door een nieuwe input. Het model leert het patroon zonder getraind te worden — het is pure in-context learning. Voor consistente formats, specifieke tone-of-voice of bedrijfsjargon is few-shot vaak goedkoper en flexibeler dan fine-tuning. Nadeel: elk voorbeeld kost tokens.
Voorbeeld
Input: 3 voorbeelden van productnaam → marketingslogan (webrock-huisstijl). Dan: 'Product: Antminer S21. Slogan:'. Output matcht automatisch de stijl van de voorbeelden — geen training nodig.
Veelgestelde vragen
Hoeveel voorbeelden zijn optimaal?
Meestal 2–5. Meer geeft diminishing returns en kost tokens. Voor nieuwere modellen (Claude 3.7, GPT-4o) vaak al 1–2 voorbeelden voldoende.
Volgorde van voorbeelden?
Belangrijk. Plaats het meest representatieve voorbeeld als laatste — recency bias laat het zwaarder meewegen. Mix edge cases voor robuustheid.
Few-shot of fine-tuning?
Few-shot: snel, flexibel, geen training. Fine-tuning: betere performance bij grote volumes (>1000 queries), lagere per-query kosten, privacy (eigen model).
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO