Fine-tuning
Fine-tuning is het aanpassen van een pre-trained LLM met domein-specifieke data om beter te presteren op niche-taken of stijl te matchen.
Fine-tuning vertrekt vanuit een bestaand model (GPT, Claude, Llama) en train verder op specifieke data: jouw tone-of-voice, industrie-vocabulaire, gestructureerde output-formats. Voordeel: gedrag dat moeilijk in prompts uit te drukken is, wordt intrinsiek aan het model. Nadeel: kost tijd en geld, vereist kwaliteits-data (500-10.000 voorbeelden typisch). In 2024-2026 kwam LoRA/QLoRA als efficiëntere fine-tuning-methode.
Voorbeeld
Een advocatenkantoor fine-tuned Llama-3 op 3.000 intern gereviewde contractclausules. Het resulterende model produceert contract-drafts in exact de huisstijl, veel beter dan een generieke LLM met alleen prompt-instructies.
Veelgestelde vragen
Is fine-tuning of RAG beter?
Afhangelijk. RAG voor actuele data (nieuws, documenten die vaak veranderen). Fine-tuning voor stijl, format, gespecialiseerd redeneren. Vaak: kombinatie — fine-tuned model gebruikt RAG voor facts.
Hoeveel data heb ik nodig?
Voor simple style-matching: 500-2.000 voorbeelden. Voor complexere task-specialisatie: 5.000-50.000. Kwaliteit > kwantiteit.
Kan ik GPT-4 fine-tunen?
Commerciële modellen: OpenAI en Anthropic bieden fine-tuning services voor select models. Prijsklasse: €10-1000 per training-run afhankelijk van data-size.
Gerelateerde termen
Verder lezen
- → Onze dienst: AI-sector