SEO

BERT (Google)

Door Paul Brock·Bijgewerkt op 24-04-2026
In het kort

BERT (Bidirectional Encoder Representations from Transformers) is Google's NLP-model uit 2019 dat context en nuance in queries begrijpt door woorden bidirectioneel te analyseren.

BERT was Google's grootste algoritme-update in 5 jaar toen het in 2019 werd uitgerold. Waar eerdere systemen woorden links-naar-rechts lazen, leest BERT bidirectioneel en begrijpt zo prepositionele nuances. 'Reis van Brazilië naar de VS' en 'reis van de VS naar Brazilië' leveren nu verschillende resultaten — voor BERT was dit een doorbraak.

Voorbeeld

Vóór BERT negeerde Google het woord 'geen' in 'kan ik medicijnen ophalen zonder recept'. Na BERT begreep het dat 'zonder' de intent kantelt en toonde relevante pagina's over recept-vereisten.

Veelgestelde vragen

Hoe optimaliseer ik voor BERT?

Niet direct. BERT beloont natuurlijk, nuancerijk taalgebruik. Vermijd keyword-stuffing, schrijf zoals een expert zou uitleggen, gebruik logische connectoren (echter, daarom, behalve).

Werkt BERT op alle talen?

BERT startte Engels, rolde in 2020 uit naar 70+ talen waaronder Nederlands. Voor multilingual SEO betekent het: local-first schrijven, niet machinaal vertalen.

Is BERT vervangen door MUM?

MUM is 1000x krachtiger maar wordt selectief ingezet. BERT loopt naast MUM en dekt de bulk van queries. Beide zijn onderdeel van Google's neural-matching stack.

Gerelateerde termen

Verder lezen

  • → Onze dienst: SEO

Hulp nodig bij SEO of GEO?

Wij helpen Bitcoin-, AI- en fintechbedrijven gevonden te worden in Google én in AI-zoekmachines.

Plan een gesprek