LLM-Halluzination
Eine LLM-Halluzination ist, wenn ein Sprachmodell selbstsicher faktisch falsche Informationen generiert, als wären sie wahr.
Ein LLM generiert Sprache durch Vorhersage wahrscheinlicher Wortfolgen, nicht durch Faktenabfrage. Das funktioniert erstaunlich gut für flüssigen Text, kann aber überzeugenden Unsinn produzieren — einen nicht existierenden Autor zitieren, einen erfundenen Bericht referenzieren. Für GEO ein Risiko: Wenn eine KI-Engine Ihre Marke halluziniert, leidet das Nutzererlebnis. Unternehmen mit starken maschinenlesbaren Entity-Signalen (Schema, Wikipedia, konsistente NAP) werden seltener falsch dargestellt.
Beispiel
Ein Journalist fragt ChatGPT 'wer hat Webrock Media gegründet?'. Ohne Websuche könnte das Modell einen erfundenen Namen mit plausiblen Details produzieren. Mit Webzugriff holt ChatGPT die korrekte Info: Paul Brock, 2020.
Häufig gestellte Fragen
Wie schütze ich meine Marke?
Korrekte Markeninfo auf möglichst vielen Autoritätsquellen: konsistentes Organization-Schema, vollständige LinkedIn-Seite, gefülltes Wikidata, frische Sektor-Erwähnungen.
Verwandte Begriffe
Weiterführende Links
- → Unser Service: GEO