Indexierbarkeit prüfen
Canonical, Robots & Redirects

Indexability Checker

Prüft, ob eine URL technisch sauber indexierbar ist: Statuscode, Redirects, finale Ziel-URL, Canonical, Meta Robots, X-Robots-Tag und robots.txt.

Tipp: Ideal für Indexing-Debugging, Relaunch-QA und schnelle Einzelprüfungen.
Was wird geprüft?
  • Statuscode und finale Ziel-URL
  • Redirects und Redirect-Ketten
  • Meta-Robots und X-Robots-Tag
  • Canonical der Zielseite
  • robots.txt Zugriff auf den URL-Pfad
  • Gesamtbewertung der Indexierbarkeit
Ergebnis des Indexability Checks
Score —
Bereit
Noch keine Analyse gestartet.
Finale URL
Statuscode
Verdict
Indexierungs-Signale
Die wichtigsten Faktoren auf einen Blick.
Meta Robots
X-Robots-Tag
Canonical
robots.txt
Detailprüfung
Check Bewertung Wert Hinweis
Verbesserungshinweise
Noch keine Analyse gestartet.

Was ist ein Indexability Checker?

Ein Indexability Checker prüft, ob eine URL von Suchmaschinen grundsätzlich sauber verarbeitet und indexiert werden kann. Dabei geht es nicht nur um den Statuscode, sondern auch um Redirects, Canonicals, Robots-Signale und robots.txt.

Warum ist das wichtig?

Viele Seiten sind technisch erreichbar, aber trotzdem nicht sauber indexierbar – etwa wegen noindex, falschen Canonicals, blockierter Pfade oder unerwarteten Redirects. Gerade bei Relaunches, Templates oder neuen Landingpages ist ein schneller Indexability-Check extrem hilfreich.

Typische Probleme

  • URL liefert keinen 200-Status
  • Seite leitet auf eine andere URL weiter als erwartet
  • Meta Robots oder X-Robots-Tag setzen noindex
  • Canonical zeigt auf eine andere URL
  • robots.txt blockiert den Zielpfad
  • mehrere Signale widersprechen sich

FAQ

Reicht ein 200-Statuscode für Indexierbarkeit aus?

Nein. Eine URL kann 200 liefern und trotzdem durch noindex, Canonical oder robots.txt problematisch für die Indexierung sein.

Was ist wichtiger: Meta Robots oder X-Robots-Tag?

Beide sind wichtig. Der Checker zeigt deshalb HTML-Meta-Robots und X-Robots-Tag gemeinsam an, damit Konflikte sichtbar werden.

Warum ist robots.txt relevant?

Wenn ein Pfad per robots.txt blockiert ist, kann das Crawling eingeschränkt sein. Das ist besonders bei neuen Verzeichnissen oder Staging-Regeln wichtig.

Wann sollte ich den Check einsetzen?

Besonders nach Relaunches, bei neuen Landingpages, bei Indexierungsproblemen und immer dann, wenn eine URL nicht wie erwartet in Suchmaschinen auftaucht.

Weitere passende SEO Tools