Redirect Checker, Header Inspector, robots.txt-Tester

Folge der URL.
Sieh, wer rein darf.

Jeder Redirect, jeder Header, jede robots.txt. Dazu eine Matrix mit 56 bekannten Crawlern, die dir pro Bot zeigt: erlaubt oder blockiert? Server-seitig in PHP, kein Login, keine Werbung, keine Tracker.

60
Bots gepflegt
10
Hops max
0
Tracking
0 €
Kosten, immer
01

Redirect-Chain im Detail

Jeder einzelne Hop wird separat ausgeführt. Du siehst Status (200, 301, 302, 307, 308, 4xx, 5xx), HTTP-Version (1.1, 2, 3), TTFB, Total-Time, Response-Size, Server-IP, das emittierte Location-Header sowie die TLS-Issuer und Restlaufzeit pro https-Hop. Loops werden erkannt, die Maximaltiefe ist auf 10 Stufen begrenzt.

02

Header im Klartext

Alle Response-Header pro Hop. Farbcodiert nach Funktion: Security (HSTS, CSP, XFO, COOP, CORP), Caching (Cache-Control, ETag, Vary), Cookies (Set-Cookie mit Flags) und Meta (Server, Content-Type, Encoding). Du erkennst auf einen Blick, welche Stufe in der Kette ein Sicherheitsheader vergisst oder ein zu langes Cache-TTL setzt.

03

robots.txt pro Host

Jede einzigartige Domain in der Redirect-Chain bekommt ihre robots.txt abgerufen, geparst und nach RFC 9309 ausgewertet. Sitemap-Verweise werden extrahiert, Crawl-Delay wird angezeigt, Wildcard-Regeln (* und $) werden korrekt aufgelöst.

04

Bot-Matrix mit 56 Crawlern

Suche (Googlebot, Bingbot, DuckDuckBot, Yandex, Baidu, Applebot, Naver, Seznam), AI/LLM (GPTBot, Claude, Perplexity, Gemini via Google-Extended, Apple Intelligence, Bytespider, CCBot, Cohere, Mistral), SEO (Ahrefs, Semrush, Majestic, Moz, BLEX, DataForSEO), Social (Facebook, X, LinkedIn, Slack, Discord, Telegram, WhatsApp, Pinterest, Reddit, TikTok), Archive, Monitoring und Security-Scanner. Pro Bot: erlaubt oder blockiert, mit der konkreten Regel, die das Verdict ausgelöst hat.

Workflow

So funktioniert ein Trace in vier Schritten

  1. 1

    URL eingeben

    Du kannst die URL mit oder ohne Schema eingeben. Ohne https:// wird automatisch das sichere Protokoll vorangestellt. Subdomains, Pfade und Query-Strings sind erlaubt.

  2. 2

    SSRF-Prüfung

    Bevor irgendein Request rausgeht, wird die Zieladresse aufgelöst und gegen private IP-Bereiche geprüft. Verweist die Domain auf 10.0.0.0/8, 172.16.0.0/12, 192.168.0.0/16, 127.0.0.1, IPv6-Loopback oder andere reservierte Bereiche, bricht der Trace ab. Das verhindert, dass das Tool als Sprungbrett zu internen Diensten missbraucht wird.

  3. 3

    Hop für Hop folgen

    Pro Hop ein eigener Request mit explizitem CURLOPT_RESOLVE, damit Host und IP konsistent bleiben. Auto-Redirect ist deaktiviert, damit jeder Hop einzeln sichtbar wird. Bei jedem Schritt: Status, Header, TTFB, TLS-Info. Kommt ein Status 3xx mit Location-Header, geht die Reise zur nächsten Stufe.

  4. 4

    robots.txt und Bot-Matrix

    Für jeden in der Chain besuchten Host wird die robots.txt einmalig abgeholt, geparst und auf den Final-Pfad angewendet. Anschließend wird jeder von 56 Crawlern in der Datenbank gegen die parsed Regeln gematcht. Die Bot-Matrix zeigt pro Bot: erlaubt, blockiert, welche Regel gegriffen hat und welche User-Agent-Gruppe ihn betroffen hat.

Anwendungsfälle

Wann brauchst du trace?

Migration oder Relaunch

Du hast die Site auf eine neue Domain oder Struktur umgezogen und willst sicherstellen, dass alte URLs sauber per 301 auf die neue Final-URL gehen, ohne mehrfache Zwischenstationen oder Loops.

SEO-Audit vor dem Launch

Vor jedem größeren Release prüfst du die wichtigen Landing-Pages. trace zeigt dir, ob HSTS, CSP und Co. korrekt gesetzt sind, ob die Cache-Header sinnvoll konfiguriert sind und ob keine Cookies an unerwarteten Stellen gesetzt werden.

AI-Crawler-Strategie

Du willst Klarheit, ob GPTBot, ClaudeBot, PerplexityBot und Bytespider deine Inhalte trainieren dürfen. trace zeigt dir den Ist-Zustand, die Bot-Datenbank unter /bots hilft dir, eine bewusste Entscheidung zu treffen.

Debug von Cookie- oder Session-Bugs

Wenn ein Set-Cookie auf dem falschen Host gesetzt wird oder das SameSite-Flag fehlt, sieht man das in der Chain sofort. Auch versehentlich doppelt gesetzte Cookies werden sichtbar.

Prüfung fremder Sites

Du willst wissen, was eine Konkurrenz-Site macht: welche Crawler sie zulässt, ob sie Sitemaps publiziert, ob sie HTTP/3 nutzt, ob sie sauber 301 statt 302 redirectet.

Pentest-Vorbereitung

Im Recon: Welche TLS-Cert-Issuer? Welche Server-Banner? Welche security-relevanten Header fehlen? trace gibt dir die Antworten ohne Browser-Setup, mit klassifizierter Header-Tabelle.

Wissen

Begriffe in 30 Sekunden

Wenn dir einer der Begriffe in der Ergebnisansicht fremd ist, hier die Kurzdefinition. Im Zweifel ist die Quelle immer der jeweilige RFC oder die MDN-Doku.

R
Redirect-Chain
Folge von HTTP-Antworten mit Status 3xx, die einen Client von einer URL über mehrere Stationen zur finalen Ziel-URL leiten. Jede Station ist ein eigener Request mit eigener Latenz, eigenen Headern und eigenem TLS-Handshake.
3
301 Moved Permanently
Permanente Weiterleitung. Suchmaschinen ersetzen die alte URL durch die neue. Linkjuice und Ranking werden weitestgehend übertragen. Standardwahl bei dauerhaften Umzügen.
3
302 Found
Temporäre Weiterleitung. Die alte URL bleibt im Index. Wer permanent umzieht, aber 302 sendet, verschenkt Sichtbarkeit. HTTP-Methode darf vom Client gewechselt werden (POST kann zu GET werden).
3
307 Temporary Redirect
Wie 302, aber mit Garantie: die HTTP-Methode bleibt gleich. Wichtig für APIs, die Redirects auf POST-Endpoints machen.
3
308 Permanent Redirect
Wie 301, aber mit Methoden-Erhalt. Ideal für permanente Redirects auf API-Endpoints. Wird von allen modernen Browsern und Crawlern unterstützt.
T
TTFB (Time to First Byte)
Zeit zwischen Request-Send und Eingang des ersten Antwort-Bytes. Enthält DNS-Resolve, TCP-Handshake, TLS-Handshake und Server-Verarbeitungszeit. Werte unter 200 ms gelten als gut, über 600 ms als problematisch.
H
HSTS (Strict-Transport-Security)
Response-Header, der dem Browser sagt: "Komm für die nächsten X Sekunden ausschließlich über HTTPS." Schützt vor Downgrade-Angriffen und Cookie-Diebstahl über unverschlüsselte Verbindungen. Mit includeSubDomains gilt es für alle Subdomains, mit preload kann die Domain in die Preload-Liste der Browser aufgenommen werden.
C
CSP (Content-Security-Policy)
Response-Header, der definiert, von welchen Quellen Skripte, Stylesheets, Bilder, Fonts und andere Ressourcen geladen werden dürfen. Wirksamster Schutz gegen XSS, wenn streng konfiguriert.
S
Set-Cookie
Response-Header, mit dem der Server Cookies setzt. Wichtige Flags: Secure (nur über HTTPS), HttpOnly (kein JS-Zugriff), SameSite (Cross-Site-Schutz: Strict, Lax oder None), Domain und Path (Geltungsbereich), Max-Age oder Expires (Lebensdauer).
R
robots.txt
Textdatei im Root jeder Domain, die Crawlern sagt, welche Pfade sie besuchen dürfen. Standardisiert in RFC 9309. Pro Bot eine User-Agent-Gruppe mit Allow- und Disallow-Regeln. Wildcards: * matcht beliebig viele Zeichen, $ markiert Pfad-Ende.
U
User-Agent-Token
Identifikations-String, mit dem ein Crawler sich beim Server vorstellt. Bots matchen sich gegen die User-agent-Zeilen in der robots.txt nach längstem Substring (Spezifitäts-Regel).
C
Crawl-Delay
Optionale Anweisung in der robots.txt, die einem Bot eine Wartezeit zwischen Requests vorgibt. Nicht im RFC standardisiert, wird aber von vielen Crawlern (Bing, Yandex, Baidu) respektiert. Google ignoriert das Feld bewusst.
FAQ

Häufige Fragen

Warum sehe ich drei Hops, obwohl ich nur eine URL eingegeben habe?

Webserver leiten aus vielen Gründen weiter: HTTP zu HTTPS, www zu non-www (oder umgekehrt), Sprachversion, Login-Wall, Mobile-Variante, alte URL auf neue Struktur, Tracking-Parameter normalisieren. Jede dieser Stufen ist ein eigener HTTP-Request mit eigenen Headern und eigener Antwortzeit. trace zeigt jede Stufe einzeln, damit du sehen kannst, ob eine davon unnötig ist (jeder zusätzliche Hop kostet Ladezeit, Crawl-Budget bei Suchmaschinen und Klick-Verluste auf Mobile).

Was ist der Unterschied zwischen 301, 302, 307 und 308?

301 ist die permanente Weiterleitung. Suchmaschinen übernehmen die neue URL in den Index und droppen die alte. 302 ist temporär. Die alte URL bleibt im Index, weil der Server sagt: "kommt gleich zurück". 307 ist wie 302, aber zwingt den Client, die HTTP-Methode beizubehalten (ein POST bleibt ein POST, statt zu GET zu werden). 308 ist wie 301, ebenfalls mit Methoden-Erhalt. Faustregel: Wer dauerhaft umzieht, nimmt 301 oder 308. Wer nur kurzzeitig umleitet, 302 oder 307. Eine 302 dort einzusetzen, wo eigentlich 301 hingehört, kostet messbar Sichtbarkeit.

Ist das nur ein curl im Browser, oder kann das mehr?

curl -L -v zeigt dir die Kette und die Header. trace zeigt dir zusätzlich pro Hop die TLS-Info (Issuer, Restlaufzeit), klassifiziert die Header farblich (Security, Cache, Cookie, Meta), erkennt Loops, holt auf jeder besuchten Domain die robots.txt und wertet sie automatisch gegen 56 bekannte Bots aus. Du sparst dir das Parsen von Hand und siehst sofort, wo Probleme stecken.

Speichert ihr meine Trace-Anfragen?

Nein. Es gibt keinen Cache, kein Logging der eingegebenen URLs, keinen Account, keine Cookies, keine Tracker. Der Server führt jeden Trace frisch aus und vergisst ihn danach. Falls du die Anfrage nochmal sehen willst, ist sie als URL-Parameter in der Adresszeile, kopierbar und teilbar.

Warum funktioniert das nicht mit meiner internen IP oder localhost?

Aus Sicherheitsgründen (SSRF-Schutz). Würde das Tool private IPs aufrufen, könnte jemand es als Proxy missbrauchen, um aus dem Internet auf interne Server-Endpunkte zuzugreifen, die normalerweise nicht erreichbar sind. trace lehnt deshalb 127.0.0.1, 10.0.0.0/8, 172.16.0.0/12, 192.168.0.0/16, IPv6-Loopback und alle reservierten Bereiche ab.

Wieviele Redirects sind zu viele?

Google folgt bis zu 10 Hops, danach gilt die URL als nicht erreichbar und fällt aus dem Index. Aus User-Sicht: jeder Hop kostet zwischen 50 und 400 ms je nach Verbindung. Ab drei Stufen merkst du das messbar im Lighthouse-Score. Ideal ist genau eine Stufe: nicht-kanonische URL leitet einmal direkt auf die kanonische Final-URL, ohne Zwischenstationen.

Was bedeutet "blockiert" in der Bot-Matrix, wenn die robots.txt scheinbar nichts verbietet?

Drei Fälle: (1) Es gibt eine User-agent: *-Gruppe mit Disallow: / und keine bot-spezifische Allow-Regel. (2) Der Bot hat eine eigene Gruppe, die ihn explizit blockiert. (3) Die Pfad-Regel matcht über Wildcards (zum Beispiel Disallow: /api/ blockiert auch /api/v2/data). trace zeigt in der Spalte "Regel" genau, welche Zeile der robots.txt für das Verdict verantwortlich ist.

Funktioniert das auch mit HTTP/2 oder HTTP/3?

Ja. Das Tool nutzt curl mit aktuellem Protokoll-Auto-Negotiation. In jedem Hop steht in der HTTP-Spalte, welches Protokoll tatsächlich verwendet wurde (HTTP/1.1, HTTP/2 oder HTTP/3). HTTP/3 (QUIC) wird unterstützt, sofern der Zielserver es per Alt-Svc-Header anbietet und curl die Verbindung nicht im Voraus festlegt.

Werden Cookies gesetzt oder JavaScript ausgeführt?

Nein. trace ist ein reiner HTTP-Client wie curl. Kein Cookie-Jar, kein Browser, kein JavaScript. Du siehst die Set-Cookie-Header genau so, wie der Server sie sendet, aber sie werden nicht persistiert oder beim nächsten Hop mitgeschickt. Für Audits, die Browser-Verhalten brauchen (Web Vitals, Render-Pfad), ist das Schwester-Tool unter dev.crawlerbase.de zuständig.

Gibt es eine API?

Aktuell nicht. Die Eingabe läuft über den GET-Parameter url, das Ergebnis ist HTML. Eine JSON-Schnittstelle ist geplant, sobald sich das Tool stabilisiert. Wenn du das brauchst, schreib eine Mail an info@crawlerbase.de.