Foundation model
Een foundation model is een grootschalig AI-model dat getraind is op brede, diverse data en vervolgens kan worden aangepast voor tal van specifieke taken — de basis onder moderne generatieve AI.
Foundation models (term geïntroduceerd door Stanford in 2021) zijn de ruggengraat van de moderne AI-revolutie. Ze worden één keer getraind op petabytes aan data (tekst, code, beeld) en daarna gespecialiseerd via fine-tuning, RLHF of prompting. GPT-4, Claude 3.7, Gemini 1.5 en Llama 3 zijn allemaal foundation models. Kenmerken: groot (miljarden parameters), duur (miljoenen tot honderden miljoenen dollars training), breed toepasbaar.
Voorbeeld
Een fintech bouwt een compliance-chatbot op basis van Claude als foundation model. Fine-tunen op interne procedures en juridische teksten levert een model op dat specifiek AML-, PSD2- en MiCA-vragen beantwoordt — zonder van nul te trainen.
Veelgestelde vragen
Foundation model, LLM of frontier model?
Foundation model is de breedste term (elke modaliteit). LLM is een subset (alleen tekst). Frontier model = het allergrootste en capabelste op een bepaald moment.
Open-source of closed-source foundation models?
Closed (GPT, Claude, Gemini): beste kwaliteit, API-afhankelijk, data verlaat je. Open (Llama, Mistral, DeepSeek): gratis, zelf-hosten mogelijk, kwaliteit inloopt. Mix is normaal.
Kan ik een foundation model zelf trainen?
Vanaf nul: praktisch onmogelijk buiten Big Tech (kost tientallen miljoenen). Wel mogelijk: bestaand open model fine-tunen op eigen data (kosten in duizenden euro's).
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO