LLM-hallucinatie
Een LLM-hallucinatie is wanneer een taalmodel met zelfvertrouwen feitelijk onjuiste informatie genereert alsof het waar is.
Een LLM genereert taal door waarschijnlijke woordopeenvolgingen te voorspellen, niet door feiten op te zoeken. Dat werkt verbluffend goed voor vloeiende tekst, maar kan ook overtuigende onzin opleveren — een niet-bestaande auteur citeren, een verzonnen rapport refereren, een verkeerd jaartal geven. Dit fenomeen heet hallucinatie.
Hallucinaties vormen een risico voor GEO: als een AI-engine jouw merk hallucineert (verkeerde adresgegevens, verkeerde producten, verkeerde beweringen), beïnvloedt dat directe gebruikerservaring. Tegelijk is het een kans: ondernemingen met sterke, machine-leesbare entity-signalen (schema-markup, Wikipedia-aanwezigheid, consistente NAP-data) worden minder vaak verkeerd gerepresenteerd. Technieken als RAG en grounding verlagen het hallucinatie-risico substantieel.
Voorbeeld
Een journalist vraagt ChatGPT 'wie heeft Webrock Media opgericht?'. Zonder web search kan het model een volledig verzonnen naam produceren, met aannemelijke details. Met webtoegang haalt ChatGPT de correcte informatie op: Paul Brock, opgericht 2020. Het verschil tussen die twee antwoorden is het verschil tussen een hallucinatie en een grounded antwoord.
Veelgestelde vragen
Hoe groot is het hallucinatie-probleem anno 2026?
Aanzienlijk verminderd ten opzichte van 2022-2023, maar niet opgelost. Moderne LLM's met RAG hallucineren in 3-10% van de antwoorden op feitelijke vragen, afhankelijk van engine en domein. Voor nichetopics en snel-veranderende informatie (crypto-prijzen, recente regelgeving) blijft het risico hoog.
Hoe bescherm ik mijn merk tegen hallucinaties?
Zorg dat correcte informatie over je merk op zoveel mogelijk autoriteitsplekken staat: consistente Organization-schema, volledige LinkedIn-bedrijfspagina, ingevuld Wikidata-item, actuele vermeldingen in sectormedia. Hoe meer overeenkomstige bronnen een AI vindt, hoe minder ruimte voor hallucinatie. Monitor met een periodieke prompt-bank of jouw feiten correct worden weergegeven.
Hallucineert een LLM ook in technische taken?
Ja. Bekende patronen: verwijzen naar niet-bestaande API-endpoints, verzonnen CVE-nummers, niet-bestaande Python-packages, onjuiste regulatoire verwijzingen. Voor code is dat risicovol: een AI-gegenereerde 'oplossing' compileert, maar roept een ghost-library aan. Altijd verifiëren bij externe bronnen blijft nodig.
Gerelateerde termen
Verder lezen
- → Onze dienst: GEO