crawlerbase.de / trace URL tracen

60 Crawler / 7 Kategorien

Wer crawlt das Web. Wer bleibt draußen.

Datenbank aller relevanten Crawler: Suche, AI/LLM, SEO, Social, Archive, Monitoring, Security. Pro Bot UA-Token, Verifikation, Doku-Link. Plus Generator: ankreuzen, Modus wählen, robots.txt kopieren.

Quick
  • AhrefsBot

    Ahrefs SEO-Tools Bewusst entscheiden

    Backlink-Index für Ahrefs-Kunden. Block schützt vor Konkurrenz-Recherche.

    Details
    UA-Token
    AhrefsBot
    UA-Beispiel
    Mozilla/5.0 (compatible; AhrefsBot/7.0; +http://ahrefs.com/robot/)
    Verifikation
    rDNS auf ahrefs.com / ahrefs.net
    Doku
    https://ahrefs.com/robot
  • AhrefsSiteAudit

    Ahrefs SEO-Tools Empfohlen erlauben

    Eigene Site-Audits durch Ahrefs-Kunden auf der eigenen Domain.

    Details
    UA-Token
    AhrefsSiteAudit
    UA-Beispiel
    Mozilla/5.0 (compatible; AhrefsSiteAudit/6.1; +http://ahrefs.com/robot/site-audit)
    Verifikation
    rDNS auf ahrefs.com
    Doku
    https://ahrefs.com/robot
  • SemrushBot

    Semrush SEO-Tools Bewusst entscheiden

    Backlink- und SERP-Index für Semrush-Kunden.

    Details
    UA-Token
    SemrushBot
    UA-Beispiel
    Mozilla/5.0 (compatible; SemrushBot/7~bl; +http://www.semrush.com/bot.html)
    Verifikation
    IP-Range publiziert
    Doku
    https://www.semrush.com/bot/
  • MJ12bot (Majestic)

    Majestic SEO-Tools Bewusst entscheiden

    Majestic-Backlink-Index. Distributed Crawling.

    Details
    UA-Token
    MJ12bot
    UA-Beispiel
    Mozilla/5.0 (compatible; MJ12bot/v1.4.8; http://mj12bot.com/)
    Verifikation
    UA-basiert
    Doku
    https://mj12bot.com/
  • DotBot (Moz)

    Moz SEO-Tools Bewusst entscheiden

    Moz-Link-Index für die Domain Authority und Link Explorer.

    Details
    UA-Token
    DotBot
    UA-Beispiel
    Mozilla/5.0 (compatible; DotBot/1.2; +https://opensiteexplorer.org/dotbot;)
    Verifikation
    UA-basiert
    Doku
    https://moz.com/help/moz-procedures/crawlers/dotbot
  • rogerbot (Moz)

    Moz SEO-Tools Empfohlen erlauben

    Moz-Pro-Site-Audit-Crawler für die eigene Site.

    Details
    UA-Token
    rogerbot
    UA-Beispiel
    rogerbot/1.2 (http://moz.com/help/pro/what-is-rogerbot-, rogerbot-crawler+pp@moz.com)
    Verifikation
    UA-basiert
    Doku
    https://moz.com/help/moz-procedures/crawlers/rogerbot
  • BLEXBot (WebMeUp)

    WebMeUp SEO-Tools Bewusst entscheiden

    Backlink-Index. Häufig sehr aggressiv im Crawl-Verhalten.

    Details
    UA-Token
    BLEXBot
    UA-Beispiel
    Mozilla/5.0 (compatible; BLEXBot/1.0; +http://webmeup-crawler.com/)
    Verifikation
    UA-basiert
    Doku
    http://webmeup-crawler.com/
  • DataForSeoBot

    DataForSEO SEO-Tools Bewusst entscheiden

    SERP- und Backlink-Daten als API für Reseller und Tools.

    Details
    UA-Token
    DataForSeoBot
    UA-Beispiel
    Mozilla/5.0 (compatible; DataForSeoBot/1.0; +https://dataforseo.com/dataforseo-bot)
    Verifikation
    UA-basiert
    Doku
    https://dataforseo.com/dataforseo-bot
  • Screaming Frog SEO Spider

    Screaming Frog SEO-Tools Empfohlen erlauben

    Desktop-SEO-Crawler. Kann jede beliebige UA spoofen.

    Details
    UA-Token
    Screaming Frog SEO Spider
    UA-Beispiel
    Screaming Frog SEO Spider/19.0
    Verifikation
    Desktop-Tool, beliebige IP
    Doku
    https://www.screamingfrog.co.uk/seo-spider/
  • Sitebulb

    Sitebulb SEO-Tools Empfohlen erlauben

    Desktop-SEO-Audit-Tool.

    Details
    UA-Token
    Sitebulb
    UA-Beispiel
    Mozilla/5.0 (compatible; Sitebulb/...)
    Verifikation
    Desktop-Tool
    Doku
    https://sitebulb.com/

RFC 9309

Wie robots.txt funktioniert.

Die robots.txt liegt im Root jeder Domain. Standardisiert seit September 2022 in RFC 9309. Auswertung in den Crawlern der großen Suchmaschinen ist heute präzise und reproduzierbar.

Aufbau

Pro Gruppe eine oder mehrere User-agent:-Zeilen, dann Allow:, Disallow:, optional Crawl-delay:. Gruppe endet mit der nächsten User-agent-Zeile.

/robots.txt
# Beispiel mit drei Gruppen User-agent: Googlebot Disallow: /search Allow: /search/about User-agent: GPTBot Disallow: / User-agent: * Disallow: /admin Disallow: /api/private Crawl-delay: 5 Sitemap: https://example.com/sitemap.xml

Spezifitäts-Regel

Findet ein Bot mehrere passende Gruppen, gilt der längste Token-Match. Googlebot-Image sieht Googlebot und Googlebot-Image, befolgt nur die letztere. Die User-agent: *-Gruppe gilt nur für Bots OHNE eigene namentliche Gruppe.

Wildcards

  • * matcht beliebig viele Zeichen. Disallow: /*.pdf blockt alle PDFs.
  • $ verankert Pfad-Ende. Disallow: /tmp$ blockt nur /tmp, nicht /tmp/foo.
  • Längste passende Regel gewinnt. Allow: /api/public sticht Disallow: /api.
  • Bei gleicher Länge gewinnt Allow vor Disallow (Konvention RFC 9309).

Crawl-Delay

Nicht in RFC 9309, aber von Bing, Yandex, Baidu und vielen kleineren respektiert. Wartezeit in Sekunden. Google ignoriert es bewusst und nutzt die Search Console.

Sitemap

Sitemap:-Zeilen außerhalb der Gruppen. Absolute URLs zu XML-Sitemaps. Crawler nutzen sie als zusätzlichen Hinweis.

06 / Strategie

Welche Bots blocken?

Keine pauschale Antwort. Die richtige Auswahl hängt von deinem Geschäftsmodell ab. Sechs Site-Typen, sechs Strategien.

Content / Magazin

Suche immer erlauben (Googlebot, Bingbot, OAI-SearchBot, Claude-SearchBot, PerplexityBot). AI-Training individuell: wer nicht in LLM-Korpora landen will, blockt GPTBot, ClaudeBot, CCBot, Google-Extended, Applebot-Extended.

E-Commerce

Suchmaschinen alle, plus Social (LinkedInBot, Twitterbot, facebookexternalhit, WhatsApp, Pinterestbot). AdsBot-Google MUSS rein, sonst werden Landing-Pages "Slow" markiert. AI-Training defensiv blocken.

SaaS-Marketing

Alles, was Sichtbarkeit bringt: Suche, Social, AI-Search-Bots. AI-Training Geschmackssache. Wenn Marketing-Texte sowieso öffentlich repliziert werden dürfen: erlauben.

Dokumentation

Strategie umgekehrt: AI-Training EXPLIZIT erlauben, denn jeder Entwickler mit LLM-Assistant profitiert davon, wenn deine Doku im Korpus ist. Treibt Adoption.

Privater Blog

Default ist "alles offen" und meist richtig. Eine robots.txt mit nur Sitemap-Verweis hilft Suchmaschinen mehr als alle Block-Listen.

News / Verlag

Googlebot-News explizit erlauben. AI-Training politisch: viele Verlage blocken pauschal, verhandeln eigene Lizenzdeals (NYT, Springer, FT). ChatGPT-User und Claude-User trotzdem zulassen.

Grenzen

Was robots.txt nicht kann.

Eine Bitte, kein Zaun

Freiwillige Empfehlung. Böse Bots, Scraper, Wettbewerbs-Späher und Security-Scanner ignorieren sie. Wer hart blocken will, braucht Webserver-seitige UA-Filter, IP-Blocklisten, Rate-Limiting, fail2ban, WAFs (CrowdSec, ModSecurity).

Verhindert keine Indexierung

Per Disallow: blockierte URL kann trotzdem in den Suchergebnissen auftauchen, wenn andere Sites darauf verlinken. Google zeigt dann nur die URL ohne Snippet. Wer Indexierung verhindern will: <meta name="robots" content="noindex"> oder X-Robots-Tag-Header. WICHTIG: damit das Tag gelesen werden kann, darf die URL NICHT per robots.txt blockiert sein.

Schützt keine sensiblen Daten

Was in der robots.txt steht, ist öffentlich. Pfade, die du dort als Disallow: aufnimmst, gibst du jedem zur Lektüre frei. Sensible Pfade gehören NICHT in die robots.txt, sondern hinter Authentifizierung.

UA-Spoofing umgeht alles

Jeder Crawler kann seinen User-Agent frei wählen. Schutz nur per Reverse-DNS-Lookup auf die Owner-Domain (googlebot.com, search.msn.com, applebot.apple.com) oder via publizierte IP-Range-Listen.

07 / FAQ

Häufige Fragen.

Halten sich alle Bots an robots.txt?
Nein. robots.txt ist eine freiwillige Empfehlung. Große Anbieter (Google, Bing, OpenAI, Anthropic) respektieren sie. Aber: Perplexity-User ignoriert sie bewusst, Bytespider war 2023/2024 dafür berüchtigt, viele Scraper bauen sich eigene UAs oder spoofen Googlebot. Wer wirklich blocken will, braucht Webserver-seitige UA- oder IP-Filter.
Wenn ich Googlebot blockiere, falle ich aus dem Index?
Ja, schrittweise. Google entfernt URLs, die per robots.txt geblockt sind, aus dem Live-Index. Bestätigt im Search Console Bericht "Indexabdeckung". Versehentliche Disallow: /-Zeile für Googlebot ist eine der häufigsten Ursachen für Sichtbarkeitsverluste nach Relaunches.
Unterschied GPTBot vs ChatGPT-User?
GPTBot crawlt für das Training neuer Modelle. Block verhindert Aufnahme in den Trainings-Korpus. ChatGPT-User holt eine URL nur, wenn ein Nutzer in ChatGPT explizit nach ihr fragt. Den zu blocken ist meist schädlich, weil dann keine Zusammenfassung möglich ist.
AhrefsBot oder SemrushBot blockieren?
Kommt drauf an. Wenn du Ahrefs- oder Semrush-Kunde bist, lass beide drauf (du willst Konkurrenz-Daten). Wenn du verhindern willst, dass die Konkurrenz dein Backlink-Profil analysiert, blockst du beide. Faustregel: kleine Sites profitieren vom Blocken, große mit aktivem Off-Page-Tracking nicht.
Welche Bots sind gefährlich?
Im Sinne von Sicherheit: keine. Bots scrapen Inhalte und Header, sie greifen nichts an. Lästig sind aggressiv crawlende wie BLEXBot, MJ12bot, MegaIndex. Security-Scanner (Censys, Shodan) listen offene Services öffentlich auf, was Recon erleichtert.
Was bedeutet User-agent: *?
Catch-All-Gruppe für Bots, die keine eigene namentliche Gruppe haben. Wichtig: ein Bot mit eigener Gruppe (z.B. User-agent: GPTBot) IGNORIERT die *-Gruppe komplett. Spezifitäts-Regel: längster passender User-Agent-Token gewinnt.
Wie blockiere ich Bots, die robots.txt ignorieren?
Auf Webserver-Ebene über User-Agent-Header. Nginx: if ($http_user_agent ~* (PerplexityBot|Bytespider|CCBot)) { return 444; } - 444 schließt die Verbindung ohne Antwort. Bei UA-Spoofing brauchst du IP-Blocks oder rDNS-Prüfung gegen die Owner-Domain.
Google-Extended und Applebot-Extended blocken?
Das sind keine Crawler, sondern Steuer-Tokens. Google-Extended steuert Nutzung für Gemini-/Vertex-AI-Training. Applebot-Extended das Gleiche für Apple Intelligence. Wer gegen LLM-Training ist, aber in der Suche bleiben will, blockt diese beiden und lässt Googlebot bzw. Applebot offen.
Suche erlauben, AI-Training verbieten?
Block: GPTBot, ClaudeBot, CCBot, Bytespider, meta-externalagent, Amazonbot, Google-Extended, Applebot-Extended, cohere-ai. Erlaubt: Googlebot, Bingbot, OAI-SearchBot, Claude-SearchBot, PerplexityBot, ChatGPT-User, Claude-User, Mistral-User, Applebot. Mit "Alle AI-Trainer" im Generator in zwei Klicks.
Was passiert ohne robots.txt?
Alle Bots dürfen alles. Fehlende Datei wird als implizites "voller Zugriff erlaubt" interpretiert. Status 404/410 auf /robots.txt genauso. SEO-seitig ist eine vorhandene robots.txt - selbst nur mit Sitemap-Verweis - immer besser als keine.