AI

Few-shot learning

Door Paul Brock·Bijgewerkt op 24-04-2026
In het kort

Few-shot learning is de techniek waarbij je een LLM enkele voorbeelden meegeeft in de prompt (in-context learning) om het model de gewenste stijl, format of redenatiewijze te leren voor nieuwe input.

Few-shot prompting geeft 2–5 input/output-voorbeelden in de prompt, gevolgd door een nieuwe input. Het model leert het patroon zonder getraind te worden — het is pure in-context learning. Voor consistente formats, specifieke tone-of-voice of bedrijfsjargon is few-shot vaak goedkoper en flexibeler dan fine-tuning. Nadeel: elk voorbeeld kost tokens.

Voorbeeld

Input: 3 voorbeelden van productnaam → marketingslogan (webrock-huisstijl). Dan: 'Product: Antminer S21. Slogan:'. Output matcht automatisch de stijl van de voorbeelden — geen training nodig.

Veelgestelde vragen

Hoeveel voorbeelden zijn optimaal?

Meestal 2–5. Meer geeft diminishing returns en kost tokens. Voor nieuwere modellen (Claude 3.7, GPT-4o) vaak al 1–2 voorbeelden voldoende.

Volgorde van voorbeelden?

Belangrijk. Plaats het meest representatieve voorbeeld als laatste — recency bias laat het zwaarder meewegen. Mix edge cases voor robuustheid.

Few-shot of fine-tuning?

Few-shot: snel, flexibel, geen training. Fine-tuning: betere performance bij grote volumes (>1000 queries), lagere per-query kosten, privacy (eigen model).

Gerelateerde termen

Verder lezen

  • → Onze dienst: GEO

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek