GEO

LLM-Halluzination

Von Paul Brock·Aktualisiert am 22-04-2026
Kurz gesagt

Eine LLM-Halluzination ist, wenn ein Sprachmodell selbstsicher faktisch falsche Informationen generiert, als wären sie wahr.

Ein LLM generiert Sprache durch Vorhersage wahrscheinlicher Wortfolgen, nicht durch Faktenabfrage. Das funktioniert erstaunlich gut für flüssigen Text, kann aber überzeugenden Unsinn produzieren — einen nicht existierenden Autor zitieren, einen erfundenen Bericht referenzieren. Für GEO ein Risiko: Wenn eine KI-Engine Ihre Marke halluziniert, leidet das Nutzererlebnis. Unternehmen mit starken maschinenlesbaren Entity-Signalen (Schema, Wikipedia, konsistente NAP) werden seltener falsch dargestellt.

Beispiel

Ein Journalist fragt ChatGPT 'wer hat Webrock Media gegründet?'. Ohne Websuche könnte das Modell einen erfundenen Namen mit plausiblen Details produzieren. Mit Webzugriff holt ChatGPT die korrekte Info: Paul Brock, 2020.

Häufig gestellte Fragen

Wie schütze ich meine Marke?

Korrekte Markeninfo auf möglichst vielen Autoritätsquellen: konsistentes Organization-Schema, vollständige LinkedIn-Seite, gefülltes Wikidata, frische Sektor-Erwähnungen.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: GEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren