Robots.txt-Generator 2026
Stand April 2026robots.txt mit Vorlagen für Blog, Shop und private Sites – inklusive Sitemap-Referenz und individueller Regeln.
Wählen Sie eine Vorlage (Komplett offen, Blog, Shop, Privat oder Custom) und tragen Sie Ihre Sitemap-URL ein – das Tool erzeugt eine valide robots.txt nach dem Robots Exclusion Protocol. Datei zum Download bereit, einfach im Root-Verzeichnis Ihrer Domain ablegen.
User-agent: *
Allow: /
Sitemap: https://example.com/sitemap.xml
So funktioniert der Robots.txt-Generator
Der Generator setzt aus einer Vorlage und Ihrer Sitemap-URL eine valide robots.txt zusammen. Die Vorlagen decken die häufigsten Szenarien ab: komplett offen für die meisten Marketing-Sites, Blog-Setup mit typischen WordPress-Pfad-Sperren, Shop-Setup mit Schutz für Cart/Checkout/Filter, sowie ein Komplettausschluss für Staging-Umgebungen.
Im Custom-Modus können Sie eigene Regeln direkt eingeben. Die Sitemap-Direktive wird automatisch ans Ende angehängt. Die fertige Datei laden Sie als TXT-Datei herunter und legen sie im Root-Verzeichnis Ihrer Domain ab.
Robots Exclusion Protocol
Das Protokoll wurde 1994 informell eingeführt und 2022 als RFC 9309 offiziell standardisiert. Spezifikation und Erweiterungen sind in der RFC und auf robotstxt.org dokumentiert. Google, Bing, Yandex und alle seriösen Crawler folgen dem Standard.
Wichtige Direktiven: User-agent, Disallow, Allow, Sitemap, Crawl-delay (von Google ignoriert, von Bing/Yandex respektiert). Wildcards (*) und End-Anker ($) sind nicht im Original-RFC, aber von Google unterstĂĽtzt.
Anwendungsfälle
- Staging-Schutz: Komplettausschluss verhindert Indexierung von Test-Servern.
- Crawl-Budget: Bei groĂźen Sites unwichtige Bereiche sperren, damit Crawler sich auf Content fokussieren.
- Suchergebnis-Hygiene: Interne Suchergebnisse, Filter-URLs und Druckansichten ausschlieĂźen.
- KI-Crawler-Steuerung: GPTBot, ClaudeBot und andere LLM-Crawler gezielt blockieren oder zulassen.
- Sitemap-Discovery: Crawler entdecken die Sitemap automatisch via Sitemap-Direktive.
Datenschutz: Client-Side
Der Generator läuft komplett im Browser. Es findet keine Server-Verarbeitung statt. Sie können auch sensitive Pfadstrukturen (interne URLs) bedenkenlos eingeben, sie verlassen den Rechner nicht.
Damit ist die Nutzung DSGVO-konform ohne weitere MaĂźnahmen. Die heruntergeladene Datei landet lokal bei Ihnen.
Typische Fehler
- robots.txt als Sicherheit nutzen: Sperrt seriöse Crawler, nicht aber Angreifer. Sensible Daten gehören hinter Authentication.
- Disallow + indexierte Seite: Bestehende Index-Einträge verschwinden nicht. Erst noindex setzen, dann sperren.
- CSS/JS blockieren: Google muss CSS/JS rendern können, um die Seite zu verstehen. Nicht blockieren.
- Falscher Pfad: Disallow: /admin/ blockiert /admin/, aber nicht /admin (ohne Slash). Beide Varianten testen.
- Tippfehler: 'Disalow' statt 'Disallow' wird ignoriert. robots.txt-Tester der Search Console nutzen.
Häufige Fragen
Alle Tools laufen vollständig im Browser, es werden keine eingegebenen Daten an einen Server übertragen. Ohne Gewähr — keine Rechts-, Steuer- oder Finanzberatung.
Letzte Aktualisierung: April 2026 | Quellen: RFC 9309 – Robots Exclusion Protocol, Google – robots.txt Specifications, robotstxt.org