Indexability Checker
Prüft, ob eine URL technisch sauber indexierbar ist: Statuscode, Redirects, finale Ziel-URL, Canonical, Meta Robots, X-Robots-Tag und robots.txt.
- Statuscode und finale Ziel-URL
- Redirects und Redirect-Ketten
- Meta-Robots und X-Robots-Tag
- Canonical der Zielseite
- robots.txt Zugriff auf den URL-Pfad
- Gesamtbewertung der Indexierbarkeit
| Check | Bewertung | Wert | Hinweis |
|---|---|---|---|
| — | |||
Was ist ein Indexability Checker?
Ein Indexability Checker prüft, ob eine URL von Suchmaschinen grundsätzlich sauber verarbeitet und indexiert werden kann. Dabei geht es nicht nur um den Statuscode, sondern auch um Redirects, Canonicals, Robots-Signale und robots.txt.
Warum ist das wichtig?
Viele Seiten sind technisch erreichbar, aber trotzdem nicht sauber indexierbar – etwa wegen noindex, falschen Canonicals, blockierter Pfade oder unerwarteten Redirects. Gerade bei Relaunches, Templates oder neuen Landingpages ist ein schneller Indexability-Check extrem hilfreich.
Typische Probleme
- URL liefert keinen 200-Status
- Seite leitet auf eine andere URL weiter als erwartet
- Meta Robots oder X-Robots-Tag setzen noindex
- Canonical zeigt auf eine andere URL
- robots.txt blockiert den Zielpfad
- mehrere Signale widersprechen sich
FAQ
Reicht ein 200-Statuscode für Indexierbarkeit aus?
Nein. Eine URL kann 200 liefern und trotzdem durch noindex, Canonical oder robots.txt problematisch für die Indexierung sein.
Was ist wichtiger: Meta Robots oder X-Robots-Tag?
Beide sind wichtig. Der Checker zeigt deshalb HTML-Meta-Robots und X-Robots-Tag gemeinsam an, damit Konflikte sichtbar werden.
Warum ist robots.txt relevant?
Wenn ein Pfad per robots.txt blockiert ist, kann das Crawling eingeschränkt sein. Das ist besonders bei neuen Verzeichnissen oder Staging-Regeln wichtig.
Wann sollte ich den Check einsetzen?
Besonders nach Relaunches, bei neuen Landingpages, bei Indexierungsproblemen und immer dann, wenn eine URL nicht wie erwartet in Suchmaschinen auftaucht.