AI

Fine-tuning

Door Paul Brock·Bijgewerkt op 22-04-2026
In het kort

Fine-tuning is het aanpassen van een pre-trained LLM met domein-specifieke data om beter te presteren op niche-taken of stijl te matchen.

Fine-tuning vertrekt vanuit een bestaand model (GPT, Claude, Llama) en train verder op specifieke data: jouw tone-of-voice, industrie-vocabulaire, gestructureerde output-formats. Voordeel: gedrag dat moeilijk in prompts uit te drukken is, wordt intrinsiek aan het model. Nadeel: kost tijd en geld, vereist kwaliteits-data (500-10.000 voorbeelden typisch). In 2024-2026 kwam LoRA/QLoRA als efficiëntere fine-tuning-methode.

Voorbeeld

Een advocatenkantoor fine-tuned Llama-3 op 3.000 intern gereviewde contractclausules. Het resulterende model produceert contract-drafts in exact de huisstijl, veel beter dan een generieke LLM met alleen prompt-instructies.

Veelgestelde vragen

Is fine-tuning of RAG beter?

Afhangelijk. RAG voor actuele data (nieuws, documenten die vaak veranderen). Fine-tuning voor stijl, format, gespecialiseerd redeneren. Vaak: kombinatie — fine-tuned model gebruikt RAG voor facts.

Hoeveel data heb ik nodig?

Voor simple style-matching: 500-2.000 voorbeelden. Voor complexere task-specialisatie: 5.000-50.000. Kwaliteit > kwantiteit.

Kan ik GPT-4 fine-tunen?

Commerciële modellen: OpenAI en Anthropic bieden fine-tuning services voor select models. Prijsklasse: €10-1000 per training-run afhankelijk van data-size.

Gerelateerde termen

Verder lezen

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek