Zero-shot learning
Zero-shot learning is de vaardigheid van een LLM om een taak correct uit te voeren zonder ook maar één voorbeeld in de prompt — volledig op basis van pre-training.
In een zero-shot prompt vraag je het model direct de taak uit te voeren, zonder voorbeelden. Moderne LLMs (GPT-4, Claude 3.7) presteren zero-shot verrassend goed op veel taken omdat ze tijdens training miljoenen soortgelijke patronen hebben gezien. Voor simpele, eenduidige taken is zero-shot efficiënt; voor nuance of bedrijfsspecifieke output is few-shot of fine-tuning nodig.
Voorbeeld
Zero-shot: 'Classificeer deze review als positief of negatief: [review]'. Geen voorbeelden, geen uitleg — het model weet wat sentiment-classificatie is en doet het direct.
Veelgestelde vragen
Zero-shot of few-shot gebruiken?
Zero-shot voor standaardtaken (samenvatten, vertalen, classificeren). Few-shot zodra je een specifiek format, tone of domeincontext nodig hebt.
Waarom werkt zero-shot?
Foundation models zijn getraind op zulke brede data dat ze veel taaktypes impliciet kennen. Een prompt activeert het juiste kennispatroon zonder expliciete demonstratie.
Wanneer faalt zero-shot?
Bij niche-jargon, bedrijfsspecifieke formats, zeldzame talen, of wanneer het model moet afwijken van zijn defaultgedrag. Dan: few-shot of fine-tune.
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO