Wenn dir einer der Begriffe in der Ergebnisansicht fremd ist, hier die Kurzdefinition. Im Zweifel ist die Quelle immer der jeweilige RFC oder die MDN-Doku.
R
- Redirect-Chain
- Folge von HTTP-Antworten mit Status 3xx, die einen Client von einer URL über mehrere Stationen zur finalen Ziel-URL leiten. Jede Station ist ein eigener Request mit eigener Latenz, eigenen Headern und eigenem TLS-Handshake.
3
- 301 Moved Permanently
- Permanente Weiterleitung. Suchmaschinen ersetzen die alte URL durch die neue. Linkjuice und Ranking werden weitestgehend übertragen. Standardwahl bei dauerhaften Umzügen.
3
- 302 Found
- Temporäre Weiterleitung. Die alte URL bleibt im Index. Wer permanent umzieht, aber 302 sendet, verschenkt Sichtbarkeit. HTTP-Methode darf vom Client gewechselt werden (POST kann zu GET werden).
3
- 307 Temporary Redirect
- Wie 302, aber mit Garantie: die HTTP-Methode bleibt gleich. Wichtig für APIs, die Redirects auf POST-Endpoints machen.
3
- 308 Permanent Redirect
- Wie 301, aber mit Methoden-Erhalt. Ideal für permanente Redirects auf API-Endpoints. Wird von allen modernen Browsern und Crawlern unterstützt.
T
- TTFB (Time to First Byte)
- Zeit zwischen Request-Send und Eingang des ersten Antwort-Bytes. Enthält DNS-Resolve, TCP-Handshake, TLS-Handshake und Server-Verarbeitungszeit. Werte unter 200 ms gelten als gut, über 600 ms als problematisch.
H
- HSTS (Strict-Transport-Security)
- Response-Header, der dem Browser sagt: "Komm für die nächsten X Sekunden ausschließlich über HTTPS." Schützt vor Downgrade-Angriffen und Cookie-Diebstahl über unverschlüsselte Verbindungen. Mit includeSubDomains gilt es für alle Subdomains, mit preload kann die Domain in die Preload-Liste der Browser aufgenommen werden.
C
- CSP (Content-Security-Policy)
- Response-Header, der definiert, von welchen Quellen Skripte, Stylesheets, Bilder, Fonts und andere Ressourcen geladen werden dürfen. Wirksamster Schutz gegen XSS, wenn streng konfiguriert.
S
- Set-Cookie
- Response-Header, mit dem der Server Cookies setzt. Wichtige Flags: Secure (nur über HTTPS), HttpOnly (kein JS-Zugriff), SameSite (Cross-Site-Schutz: Strict, Lax oder None), Domain und Path (Geltungsbereich), Max-Age oder Expires (Lebensdauer).
R
- robots.txt
- Textdatei im Root jeder Domain, die Crawlern sagt, welche Pfade sie besuchen dürfen. Standardisiert in RFC 9309. Pro Bot eine User-Agent-Gruppe mit Allow- und Disallow-Regeln. Wildcards: * matcht beliebig viele Zeichen, $ markiert Pfad-Ende.
U
- User-Agent-Token
- Identifikations-String, mit dem ein Crawler sich beim Server vorstellt. Bots matchen sich gegen die User-agent-Zeilen in der robots.txt nach längstem Substring (Spezifitäts-Regel).
C
- Crawl-Delay
- Optionale Anweisung in der robots.txt, die einem Bot eine Wartezeit zwischen Requests vorgibt. Nicht im RFC standardisiert, wird aber von vielen Crawlern (Bing, Yandex, Baidu) respektiert. Google ignoriert das Feld bewusst.