AI

Foundation model

Door Paul Brock·Bijgewerkt op 24-04-2026
In het kort

Een foundation model is een grootschalig AI-model dat getraind is op brede, diverse data en vervolgens kan worden aangepast voor tal van specifieke taken — de basis onder moderne generatieve AI.

Foundation models (term geïntroduceerd door Stanford in 2021) zijn de ruggengraat van de moderne AI-revolutie. Ze worden één keer getraind op petabytes aan data (tekst, code, beeld) en daarna gespecialiseerd via fine-tuning, RLHF of prompting. GPT-4, Claude 3.7, Gemini 1.5 en Llama 3 zijn allemaal foundation models. Kenmerken: groot (miljarden parameters), duur (miljoenen tot honderden miljoenen dollars training), breed toepasbaar.

Voorbeeld

Een fintech bouwt een compliance-chatbot op basis van Claude als foundation model. Fine-tunen op interne procedures en juridische teksten levert een model op dat specifiek AML-, PSD2- en MiCA-vragen beantwoordt — zonder van nul te trainen.

Veelgestelde vragen

Foundation model, LLM of frontier model?

Foundation model is de breedste term (elke modaliteit). LLM is een subset (alleen tekst). Frontier model = het allergrootste en capabelste op een bepaald moment.

Open-source of closed-source foundation models?

Closed (GPT, Claude, Gemini): beste kwaliteit, API-afhankelijk, data verlaat je. Open (Llama, Mistral, DeepSeek): gratis, zelf-hosten mogelijk, kwaliteit inloopt. Mix is normaal.

Kan ik een foundation model zelf trainen?

Vanaf nul: praktisch onmogelijk buiten Big Tech (kost tientallen miljoenen). Wel mogelijk: bestaand open model fine-tunen op eigen data (kosten in duizenden euro's).

Gerelateerde termen

Verder lezen

  • → Onze dienst: GEO

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek