AI

Zero-shot learning

Door Paul Brock·Bijgewerkt op 24-04-2026
In het kort

Zero-shot learning is de vaardigheid van een LLM om een taak correct uit te voeren zonder ook maar één voorbeeld in de prompt — volledig op basis van pre-training.

In een zero-shot prompt vraag je het model direct de taak uit te voeren, zonder voorbeelden. Moderne LLMs (GPT-4, Claude 3.7) presteren zero-shot verrassend goed op veel taken omdat ze tijdens training miljoenen soortgelijke patronen hebben gezien. Voor simpele, eenduidige taken is zero-shot efficiënt; voor nuance of bedrijfsspecifieke output is few-shot of fine-tuning nodig.

Voorbeeld

Zero-shot: 'Classificeer deze review als positief of negatief: [review]'. Geen voorbeelden, geen uitleg — het model weet wat sentiment-classificatie is en doet het direct.

Veelgestelde vragen

Zero-shot of few-shot gebruiken?

Zero-shot voor standaardtaken (samenvatten, vertalen, classificeren). Few-shot zodra je een specifiek format, tone of domeincontext nodig hebt.

Waarom werkt zero-shot?

Foundation models zijn getraind op zulke brede data dat ze veel taaktypes impliciet kennen. Een prompt activeert het juiste kennispatroon zonder expliciete demonstratie.

Wanneer faalt zero-shot?

Bij niche-jargon, bedrijfsspecifieke formats, zeldzame talen, of wanneer het model moet afwijken van zijn defaultgedrag. Dan: few-shot of fine-tune.

Gerelateerde termen

Verder lezen

  • → Onze dienst: GEO

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek