Vergleich
Indexierung
Fehlerprävention

Robots.txt vs. noindex

Die Verwechslung zwischen robots.txt und noindex gehört zu den häufigsten SEO-Fehlern. Robots.txt steuert den Zugriff von Crawlern, noindex die Indexierung einer erreichbaren URL.

Der zentrale Unterschied

Beide Mechanismen klingen ähnlich, lösen aber unterschiedliche Probleme.

robots.txt

Regelt, ob ein Crawler auf bestimmte Pfade zugreifen darf.

noindex

Sagt einer erreichbaren URL, dass sie nicht im Index auftauchen soll.

Praxisfolge

Wer das falsche Signal setzt, bekommt oft widersprüchliche oder ausbleibende Ergebnisse.

Wann welches Signal sinnvoll ist

Die richtige Wahl hängt vom Ziel ab.

  • Staging oder geschützte Bereiche: lieber per Auth absichern als nur per robots.txt.
  • Interne Suchseiten oder dünne Seiten: oft noindex sinnvoller als bloßes Blockieren.
  • PDFs oder Dateien: eher mit X-Robots-Tag arbeiten.
  • Crawl-Entlastung: robots.txt kann helfen, wenn wirklich der Zugriff auf Muster reduziert werden soll.

Häufige Praxisfehler

Diese Irrtümer kosten am häufigsten Sichtbarkeit oder Debugging-Zeit.

noindex in robots.txt erwartet

Google unterstützt kein noindex in der robots.txt.

Blockieren vor Prüfung

Wenn Google eine URL nicht crawlen darf, kann auch ein noindex auf der Seite nicht gelesen werden.

Signale gegeneinander gestellt

robots.txt, noindex, Canonical und Redirects verfolgen unterschiedliche Ziele und sollten bewusst kombiniert werden.

FAQ

Kurze Antworten auf typische Praxisfragen rund um robots.txt vs. noindex.

Kann ich eine URL mit robots.txt und noindex gleichzeitig ausschließen?

Das ist heikel. Wenn die URL durch robots.txt nicht abrufbar ist, kann Google ein noindex im HTML oft gar nicht lesen.

Was ist für PDFs besser?

Meist der X-Robots-Tag, weil PDFs kein klassisches Meta-Robots im HTML-Head haben.

Was ist für Staging am sichersten?

Ein echter Zugriffsschutz per Passwort oder IP-Restriktion – nicht nur robots.txt.

Weiterführende Begriffe