SEO

robots.txt

Von Paul Brock·Aktualisiert am 22-04-2026
Kurz gesagt

Eine robots.txt-Datei im Root einer Website teilt Crawlern mit, welche URLs sie crawlen dürfen oder nicht.

robots.txt ist der älteste Crawler-Standard des Webs (1994) und liegt stets unter /robots.txt. Regeln wie Disallow und Allow pro User-agent steuern, welche Bots welche Pfade sehen dürfen. Wichtig: robots.txt blockiert Crawling, nicht Indexierung — Seiten können über externe Links dennoch im Index landen.

Beispiel

User-agent: GPTBot
Disallow: /premium/
blockiert OpenAIs Training-Crawler vom Premium-Bereich, lässt aber andere Bots in Ruhe.

Häufig gestellte Fragen

Soll ich KI-Crawler blockieren?

Strategische Entscheidung. Blockieren schützt Inhalte, schließt aber KI-Sichtbarkeit aus. Für GEO-Chancen mindestens GPTBot, PerplexityBot, ClaudeBot und Google-Extended erlauben.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: SEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren