SEO

BERT (Google)

Von Paul Brock·Aktualisiert am 24-04-2026
Kurz gesagt

BERT (Bidirectional Encoder Representations from Transformers) ist Googles NLP-Modell von 2019, das Kontext und Nuancen in Suchanfragen durch bidirektionale Wortanalyse versteht.

BERT war bei Rollout 2019 Googles größtes Algorithmus-Update in fünf Jahren. Wo frühere Systeme Wörter links-nach-rechts lasen, liest BERT bidirektional und versteht so präpositionale Nuancen. 'Reise von Brasilien in die USA' und 'Reise von den USA nach Brasilien' liefern jetzt unterschiedliche Ergebnisse — für BERT ein Durchbruch.

Beispiel

Vor BERT ignorierte Google das 'ohne' in 'kann ich Medikamente ohne Rezept abholen'. Nach BERT verstand es, dass 'ohne' die Intent kippt und zeigte Seiten zu Rezeptpflicht.

Häufig gestellte Fragen

Wie optimiere ich für BERT?

Nicht direkt. BERT belohnt natürliche, nuancenreiche Sprache. Keyword-Stuffing vermeiden, wie ein Experte erklärend schreiben, logische Konnektoren (jedoch, daher, außer) verwenden.

Wurde BERT durch MUM ersetzt?

MUM ist 1000x leistungsfähiger, wird aber selektiv eingesetzt. BERT läuft parallel und deckt das Gros der Queries ab. Beide sind Teil des Neural-Matching-Stacks.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: SEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren