60 Crawler in 7 Kategorien

Wer crawlt das Web, und wen hältst du draußen?

Datenbank aller relevanten Crawler: Suchmaschinen, AI/LLM-Trainer, SEO-Tools, Social-Vorschauen, Archive, Monitoring und Security-Scanner. Pro Bot der offizielle UA-Token, ein UA-Beispiel, die Verifikations-Methode und ein Link zur Anbieter-Doku.

Schnellauswahl:
  • AhrefsBot

    Ahrefs SEO-Tools Bewusst entscheiden

    Backlink-Index für Ahrefs-Kunden. Block schützt vor Konkurrenz-Recherche.

    Details
    UA-Token
    AhrefsBot
    UA-Beispiel
    Mozilla/5.0 (compatible; AhrefsBot/7.0; +http://ahrefs.com/robot/)
    Verifikation
    rDNS auf ahrefs.com / ahrefs.net
    Doku
    https://ahrefs.com/robot
  • AhrefsSiteAudit

    Ahrefs SEO-Tools Empfohlen erlauben

    Eigene Site-Audits durch Ahrefs-Kunden auf der eigenen Domain.

    Details
    UA-Token
    AhrefsSiteAudit
    UA-Beispiel
    Mozilla/5.0 (compatible; AhrefsSiteAudit/6.1; +http://ahrefs.com/robot/site-audit)
    Verifikation
    rDNS auf ahrefs.com
    Doku
    https://ahrefs.com/robot
  • SemrushBot

    Semrush SEO-Tools Bewusst entscheiden

    Backlink- und SERP-Index für Semrush-Kunden.

    Details
    UA-Token
    SemrushBot
    UA-Beispiel
    Mozilla/5.0 (compatible; SemrushBot/7~bl; +http://www.semrush.com/bot.html)
    Verifikation
    IP-Range publiziert
    Doku
    https://www.semrush.com/bot/
  • MJ12bot (Majestic)

    Majestic SEO-Tools Bewusst entscheiden

    Majestic-Backlink-Index. Distributed Crawling.

    Details
    UA-Token
    MJ12bot
    UA-Beispiel
    Mozilla/5.0 (compatible; MJ12bot/v1.4.8; http://mj12bot.com/)
    Verifikation
    UA-basiert
    Doku
    https://mj12bot.com/
  • DotBot (Moz)

    Moz SEO-Tools Bewusst entscheiden

    Moz-Link-Index für die Domain Authority und Link Explorer.

    Details
    UA-Token
    DotBot
    UA-Beispiel
    Mozilla/5.0 (compatible; DotBot/1.2; +https://opensiteexplorer.org/dotbot;)
    Verifikation
    UA-basiert
    Doku
    https://moz.com/help/moz-procedures/crawlers/dotbot
  • rogerbot (Moz)

    Moz SEO-Tools Empfohlen erlauben

    Moz-Pro-Site-Audit-Crawler für die eigene Site.

    Details
    UA-Token
    rogerbot
    UA-Beispiel
    rogerbot/1.2 (http://moz.com/help/pro/what-is-rogerbot-, rogerbot-crawler+pp@moz.com)
    Verifikation
    UA-basiert
    Doku
    https://moz.com/help/moz-procedures/crawlers/rogerbot
  • BLEXBot (WebMeUp)

    WebMeUp SEO-Tools Bewusst entscheiden

    Backlink-Index. Häufig sehr aggressiv im Crawl-Verhalten.

    Details
    UA-Token
    BLEXBot
    UA-Beispiel
    Mozilla/5.0 (compatible; BLEXBot/1.0; +http://webmeup-crawler.com/)
    Verifikation
    UA-basiert
    Doku
    http://webmeup-crawler.com/
  • DataForSeoBot

    DataForSEO SEO-Tools Bewusst entscheiden

    SERP- und Backlink-Daten als API für Reseller und Tools.

    Details
    UA-Token
    DataForSeoBot
    UA-Beispiel
    Mozilla/5.0 (compatible; DataForSeoBot/1.0; +https://dataforseo.com/dataforseo-bot)
    Verifikation
    UA-basiert
    Doku
    https://dataforseo.com/dataforseo-bot
  • Screaming Frog SEO Spider

    Screaming Frog SEO-Tools Empfohlen erlauben

    Desktop-SEO-Crawler. Kann jede beliebige UA spoofen.

    Details
    UA-Token
    Screaming Frog SEO Spider
    UA-Beispiel
    Screaming Frog SEO Spider/19.0
    Verifikation
    Desktop-Tool, beliebige IP
    Doku
    https://www.screamingfrog.co.uk/seo-spider/
  • Sitebulb

    Sitebulb SEO-Tools Empfohlen erlauben

    Desktop-SEO-Audit-Tool.

    Details
    UA-Token
    Sitebulb
    UA-Beispiel
    Mozilla/5.0 (compatible; Sitebulb/...)
    Verifikation
    Desktop-Tool
    Doku
    https://sitebulb.com/

Standard

Wie robots.txt wirklich funktioniert.

Die robots.txt ist eine Textdatei im Root jeder Domain. Standardisiert ist sie seit September 2022 in RFC 9309, vorher war sie nur ein informelles Protokoll. Heute ist die Auswertung in den Crawlern der großen Suchmaschinen präzise und reproduzierbar.

Die Datei besteht aus Gruppen

Jede Gruppe beginnt mit einer oder mehreren User-agent:-Zeilen und enthält darunter Allow:-, Disallow:- und optional Crawl-delay:-Zeilen. Eine Gruppe endet, sobald die nächste User-agent:-Zeile beginnt.

# Beispiel robots.txt mit drei Gruppen
User-agent: Googlebot
Disallow: /search
Allow: /search/about

User-agent: GPTBot
Disallow: /

User-agent: *
Disallow: /admin
Disallow: /api/private
Crawl-delay: 5

Sitemap: https://example.com/sitemap.xml

Spezifitäts-Regel: längster passender Token gewinnt

Wenn ein Bot mehrere Gruppen findet, die auf seinen User-Agent passen, gilt der längste Token-Match. Beispiel: ein Crawler, der sich als Googlebot-Image identifiziert, sieht eine Gruppe für Googlebot und eine für Googlebot-Image. Er befolgt nur die für Googlebot-Image. Die User-agent: *-Gruppe gilt nur für Bots, die KEINE eigene namentliche Gruppe haben.

Wildcards und Pfad-Matching

  • * in einer Allow- oder Disallow-Regel matcht beliebig viele Zeichen. Disallow: /*.pdf blockt alle PDF-Dateien.
  • $ am Ende einer Regel verankert das Pfad-Ende. Disallow: /tmp$ blockt nur /tmp exakt.
  • Innerhalb der gleichen Gruppe gewinnt die längste passende Regel. Eine Allow: /api/public sticht eine generelle Disallow: /api aus.
  • Bei gleicher Länge gewinnt die weniger restriktive Regel (Allow vor Disallow). Konvention seit RFC 9309.

Crawl-Delay: nicht im RFC, aber respektiert

Crawl-delay: ist nicht Teil von RFC 9309, wird aber von Bing, Yandex, Baidu und vielen kleineren Crawlern befolgt. Der Wert ist die Wartezeit in Sekunden zwischen aufeinanderfolgenden Requests. Google ignoriert das Feld bewusst und stellt die Crawl-Frequenz manuell in der Search Console ein.

Sitemap-Verweise

Sitemap:-Zeilen stehen außerhalb der Gruppen. Sie listen absolute URLs zu XML-Sitemaps der Domain auf. Crawler lesen diese als zusätzlichen Hinweis, wo Inhalte zu finden sind.

Strategie

Welche Bots blocken? Ein Entscheidungsleitfaden.

Es gibt keine pauschale Antwort. Die richtige Auswahl hängt davon ab, welche Geschäftsmodelle deine Site verfolgt und gegen welche Verwendung deiner Inhalte du dich konkret schützen willst.

Content-Site oder Magazin

Suche unbedingt erlauben (Googlebot, Bingbot, OAI-SearchBot, Claude-SearchBot, PerplexityBot), denn das ist der Traffic-Kanal. AI-Training individuell entscheiden: wer pauschal nicht in LLM-Korpora landen will, blockt GPTBot, ClaudeBot, CCBot, Google-Extended, Applebot-Extended.

E-Commerce

Suchmaschinen alle zulassen, dazu Social-Bots für Link-Vorschauen (LinkedInBot, Twitterbot, facebookexternalhit, WhatsApp, Pinterestbot). AdsBot-Google MUSS erlaubt sein, sonst werden Google-Ads-Landing-Pages auf "Slow" markiert. AI-Training defensiv blocken (Produkt-Texte sind teuer in der Erstellung).

SaaS-Marketing-Site

Alles erlauben, was Sichtbarkeit bringt: Suche, Social, AI-Search-Bots (OAI-SearchBot, PerplexityBot, Claude-SearchBot). AI-Training ist Geschmackssache. Wenn die Marketing-Texte sowieso öffentlich repliziert werden dürfen: erlauben.

Dokumentations-Portal

Hier ist die Strategie genau umgekehrt: AI-Training EXPLIZIT erlauben, denn jeder Entwickler, der einen LLM-Assistant nutzt, profitiert davon, wenn deine Doku im Trainings-Korpus ist. Suche selbstverständlich. Crawl-Delay vorsichtig wählen.

Privater Blog oder Portfolio

Default ist "alles offen" und das ist meistens richtig. Eine robots.txt mit nur einem Sitemap-Verweis hilft Suchmaschinen mehr als alle Block-Listen der Welt. Wer trotzdem AI-Training rauslassen will: GPTBot, ClaudeBot, CCBot, Google-Extended, Applebot-Extended sind die Big Five.

News oder journalistische Site

Googlebot-News explizit erlauben. AI-Training ist hier das politische Thema: viele Verlage blocken pauschal, weil sie eigene Lizenzdeals mit AI-Anbietern verhandeln (NYT, Springer, FT). ChatGPT-User und Claude-User trotzdem zulassen, damit Nutzer-Anfragen funktionieren.

Grenzen

Was robots.txt nicht kann.

Sie ist eine Bitte, kein Zaun

Die Datei ist eine freiwillige Empfehlung. Böse Bots, Scraper, Wettbewerbs-Späher und Security-Scanner ignorieren sie regelmäßig. Wer wirklich blocken will, braucht harte Maßnahmen am Webserver: User-Agent-Filter, IP-Blocklisten, Rate-Limiting, fail2ban-Regeln, Web Application Firewalls (CrowdSec, ModSecurity). robots.txt sortiert nur die höflichen Bots aus.

Sie verhindert nicht die Indexierung

Eine per Disallow: blockierte URL kann trotzdem in den Suchergebnissen auftauchen, wenn andere Sites darauf verlinken. Google zeigt dann nur die URL ohne Snippet. Wer Indexierung verhindern will, muss das per <meta name="robots" content="noindex"> oder X-Robots-Tag-Header machen. WICHTIG: damit das Tag gelesen werden kann, darf die URL NICHT per robots.txt blockiert sein.

Sie schützt keine sensiblen Daten

Was in der robots.txt steht, ist öffentlich. Pfade, die du dort als Disallow: aufnimmst, gibst du damit jedem zur Lektüre frei. Wer wissen will, wo deine Admin-Konsole liegt, sucht zuerst dort. Sensible Pfade gehören NICHT in die robots.txt, sondern hinter Authentifizierung.

UA-Spoofing umgeht alles

Jeder Crawler kann seinen User-Agent frei wählen. Ein Scraper, der sich als Googlebot ausgibt, würde durch deine Googlebot-Allow-Regel rutschen. Schutz dagegen ist nur per Reverse-DNS-Lookup auf die offizielle Owner-Domain (googlebot.com, search.msn.com, applebot.apple.com) möglich.

FAQ

Häufige Fragen zu Bots und robots.txt.

Antworten auf die Fragen, die immer wieder kommen.

Halten sich alle Bots an robots.txt?

Nein. Die robots.txt ist eine freiwillige Empfehlung, kein technischer Zwang. Große, etablierte Anbieter (Google, Bing, OpenAI, Anthropic) respektieren die Datei. Aber: Perplexity-User ignoriert sie bewusst (Live-Fetches im Auftrag von Nutzern), Bytespider war 2023 bis 2024 dafür berüchtigt, sie zu übergehen, viele Scraper aus dem grauen und schwarzen Bereich bauen sich eigene UAs oder spoofen Googlebot. Wer wirklich blocken will, braucht Webserver-seitige UA- oder IP-Filter zusätzlich zur robots.txt.

Wenn ich Googlebot komplett blockiere, falle ich aus dem Index?

Ja, schrittweise. Google entfernt URLs, die über längere Zeit per robots.txt geblockt sind, aus dem Live-Index. Bestätigt wird das über den Search Console Bericht "Indexabdeckung". Eine versehentliche Disallow: /-Zeile für den Googlebot ist eine der häufigsten Ursachen für komplette Sichtbarkeitsverluste nach Relaunches. Schau in die Live-Ansicht der Search Console, bevor du etwas blockst.

Was ist der Unterschied zwischen GPTBot und ChatGPT-User?

GPTBot crawlt im Hintergrund Inhalte für das Training neuer Modelle. Wenn du den blockst, fließt deine Site nicht in den Trainings-Korpus ein, taucht aber weiterhin in ChatGPT-Suche und Citations auf, sofern du OAI-SearchBot zulässt. ChatGPT-User holt eine URL nur dann live, wenn ein Nutzer in ChatGPT explizit nach ihr fragt oder einen Link postet. Den zu blocken ist meistens schädlich, weil Nutzer dann keine Zusammenfassung deiner Seite in ChatGPT bekommen.

Macht es Sinn, AhrefsBot oder SemrushBot zu blockieren?

Kommt darauf an. Wenn du selbst Ahrefs- oder Semrush-Kunde bist und deine Konkurrenz mit ihren eigenen Daten füttern willst, lass beide drauf. Wenn du verhindern willst, dass die Konkurrenz dein Backlink-Profil so leicht analysieren kann, blockst du beide. Faustregel: kleine Sites profitieren vom Blocken, große Sites mit aktivem Off-Page-Tracking lassen sie erlaubt.

Welche Bots sind eigentlich gefährlich?

Gefährlich im Sinne von Sicherheit nicht. Sämtliche Bots in dieser Datenbank scrapen Inhalte und Header, sie greifen keinen Dienst an. Lästig sein können aggressiv crawlende Bots wie BLEXBot, MJ12bot, MegaIndex und einige Asia-spezifische Crawler. Security-Scanner (Censys, Shodan, Palo Alto Expanse, LeakIX) machen keinen Schaden, listen aber offene Services öffentlich auf, was Recon erleichtert.

Was bedeutet User-agent: * in der robots.txt?

Eine Catch-All-Gruppe, die für alle Bots gilt, die keine eigene, namentlich passende Gruppe haben. Wichtig zu verstehen: ein Bot, der zum Beispiel über User-agent: GPTBot eine eigene Gruppe hat, IGNORIERT die *-Gruppe komplett. Die Spezifitäts-Regel ist: längster passender User-Agent-Token gewinnt, * ist die schwächste Stufe.

Wie blockiere ich einen Bot, der robots.txt ignoriert?

Auf Webserver-Ebene über den User-Agent-Header. Beispiel für Nginx: if ($http_user_agent ~* (PerplexityBot|Bytespider|CCBot)) { return 444; }. Status 444 schließt die Verbindung ohne Antwort. Apache: per mod_rewrite mit RewriteCond. Wenn der Bot UAs spooft, brauchst du IP-Blocks oder rDNS-Prüfung gegen die offiziellen Owner-Domains.

Soll ich Google-Extended und Applebot-Extended blocken?

Das sind keine echten Crawler, sondern reine Steuer-Tokens. Google-Extended sagt nur Google: "nimm meine Inhalte nicht für Gemini- oder Vertex-AI-Training". Applebot-Extended das Gleiche für Apple Intelligence. Wenn du gegen LLM-Training bist, aber in der Suche bleiben willst, blockst du genau diese beiden und lässt Googlebot bzw. Applebot offen.

Ich will Suche erlauben, aber AI-Training verbieten. Welcher Block-Set ist richtig?

Block: GPTBot, ClaudeBot, CCBot, Bytespider, meta-externalagent, Amazonbot, Google-Extended, Applebot-Extended, cohere-ai. Erlaubt: Googlebot, Bingbot, OAI-SearchBot, Claude-SearchBot, PerplexityBot, ChatGPT-User, Claude-User, Mistral-User, Applebot. Mit dem Generator oben in der Sidebar lässt sich das in zwei Klicks zusammenstellen, "Alle AI-Trainer" deckt das im Wesentlichen ab.

Was passiert, wenn ich keine robots.txt habe?

Dann gilt: alle Bots dürfen alles. Eine fehlende Datei wird als implizites "voller Zugriff erlaubt" interpretiert. Status 404 oder 410 auf /robots.txt wird genauso behandelt. Aus SEO-Sicht ist eine vorhandene robots.txt, selbst wenn sie nur auf die Sitemap verweist, immer besser als keine.