GEO

llms.txt

Door Paul Brock·Bijgewerkt op 22-04-2026
In het kort

llms.txt is een conventioneel bestand in de root van een website dat AI-engines een gestructureerd overzicht biedt van welke content relevant is om te lezen.

llms.txt is een voorstel voor een nieuw web-standaardbestand, vergelijkbaar met robots.txt of sitemap.xml, dat specifiek is bedoeld voor AI-engines. Het bestand — geplaatst op /llms.txt in de root van een site — bevat een machine-leesbare samenvatting van de site: wat het bedrijf doet, welke pagina's inhoudelijk het belangrijkst zijn, welke diensten worden aangeboden, en directe links naar die pagina's met korte beschrijvingen.

Het idee is in 2024 geïnitieerd door Jeremy Howard en heeft sindsdien brede adoptie gekregen (Anthropic, Zapier, Vercel en duizenden andere sites). Voor GEO is llms.txt waardevol omdat het AI-engines een 'snelle index' geeft: in plaats van een complete crawl moeten ze de structuur van je aanbod in één bestand kunnen afleiden. Webrock Media heeft zelf een llms.txt gepubliceerd.

Voorbeeld

Een vereenvoudigde llms.txt voor een webshop: # Voorbeeld B.V.
> Online verkoop van duurzame sportkleding.

## Producten
- [Dames hardloopshirts](https://voorbeeld.nl/dames) — Ademende shirts van gerecycled polyester.
- [Heren schoenen](https://voorbeeld.nl/heren) — Duurzame hardloopschoenen.
Een AI-engine leest dit in seconden en krijgt meteen de context die anders tientallen page-loads zou kosten.

Veelgestelde vragen

Moet ik llms.txt hebben?

Het is geen ranking-factor en geen formele standaard; geen enkele AI-engine verplicht het. Maar het is low-effort en zichtbaar groeiend in adoptie. Voor merken in fintech, Bitcoin, AI, of andere kennisintensieve sectoren is het een sterke GEO-hygiëne-factor, vergelijkbaar met het hebben van een goede sitemap.xml.

Wat is het verschil tussen llms.txt en robots.txt?

robots.txt instrueert crawlers over toegang (wel/niet mogen crawlen). llms.txt beschrijft de inhoud en structuur (wat is inhoudelijk belangrijk). Ze vullen elkaar aan: robots.txt regelt permissies, llms.txt levert context. llms.txt vervangt dus niet sitemap.xml (URLs) of robots.txt (regels) — het is een derde, inhoudelijk laag.

Worden llms.txt-bestanden echt gebruikt door AI-engines?

Dat varieert. Anthropic's Claude gebruikt llms.txt expliciet in zijn web-zoek-flow. OpenAI en Google hebben er niet publiekelijk op gecommitteerd maar worden sterker geacht het te gebruiken in interne pipelines. Ook derde-partij crawlers (Perplexity, You.com) lijken het te respecteren. De algemene regel: het is een investering met potentieel, geen garantie.

Gerelateerde termen

Verder lezen

  • → Onze dienst: GEO

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek