Indexierbarkeit prüfen
Canonical, Robots & Redirects

Indexability Checker: Prüfen, ob eine Seite technisch indexierbar ist

Prüft, ob eine URL technisch sauber indexierbar ist: Statuscode, Redirects, finale Ziel-URL, Canonical, Meta Robots, X-Robots-Tag und robots.txt.

Tipp: Ideal für Indexing-Debugging, Relaunch-QA und schnelle Einzelprüfungen.
Was wird geprüft?
  • Statuscode und finale Ziel-URL
  • Redirects und Redirect-Ketten
  • Meta-Robots und X-Robots-Tag
  • Canonical der Zielseite
  • robots.txt Zugriff auf den URL-Pfad
  • Gesamtbewertung der Indexierbarkeit
Ergebnis des Indexability Checks
Score —
Bereit
Noch keine Analyse gestartet.
Finale URL
Statuscode
Verdict
Indexierungs-Signale
Die wichtigsten Faktoren auf einen Blick.
Meta Robots
X-Robots-Tag
Canonical
robots.txt
Detailprüfung
Check Bewertung Wert Hinweis
Verbesserungshinweise
Noch keine Analyse gestartet.

Was ist ein Indexability Checker?

Ein Indexability Checker prüft, ob eine URL von Suchmaschinen grundsätzlich sauber verarbeitet und indexiert werden kann. Dabei geht es nicht nur um den Statuscode, sondern auch um Redirects, Canonicals, Robots-Signale und robots.txt.

Warum ist das wichtig?

Viele Seiten sind technisch erreichbar, aber trotzdem nicht sauber indexierbar – etwa wegen noindex, falschen Canonicals, blockierter Pfade oder unerwarteten Redirects. Gerade bei Relaunches, Templates oder neuen Landingpages ist ein schneller Indexability-Check extrem hilfreich.

Typische Probleme

  • URL liefert keinen 200-Status
  • Seite leitet auf eine andere URL weiter als erwartet
  • Meta Robots oder X-Robots-Tag setzen noindex
  • Canonical zeigt auf eine andere URL
  • robots.txt blockiert den Zielpfad
  • mehrere Signale widersprechen sich

Was beeinflusst die Indexierbarkeit einer Seite?

Ob eine Seite technisch indexierbar ist, hängt nicht nur von einem einzigen Signal ab. In der Praxis wirken mehrere Faktoren zusammen – etwa Statuscodes, Meta Robots Tags, Canonicals, robots.txt-Regeln oder Weiterleitungen.

Statuscode

Eine Seite sollte in der Regel direkt einen 200 OK liefern. Redirects, 4xx- oder 5xx-Fehler können die Indexierbarkeit einschränken oder verhindern.

Meta Robots / X-Robots-Tag

Signale wie noindex können dazu führen, dass eine Seite bewusst nicht im Suchindex erscheinen soll.

Canonical

Canonical-Tags können Suchmaschinen signalisieren, dass eine andere URL bevorzugt werden soll. Dadurch ist eine Seite zwar erreichbar, aber nicht unbedingt die gewünschte Index-URL.

Robots.txt

Die robots.txt steuert das Crawling und kann wichtige Bereiche oder Pfade blockieren. Das beeinflusst oft auch die technische Einordnung der Seite.

Weiterleitungen

Wenn eine URL nur per Redirect erreichbar ist, ist meist die finale Ziel-URL relevant – nicht zwingend die ursprünglich geprüfte Adresse.

Widersprüchliche Signale

Besonders kritisch sind Kombinationen aus noindex, Canonical, Redirects oder robots.txt-Regeln, die nicht sauber zusammenpassen.

Typische Gründe, warum eine Seite nicht indexierbar ist

Wenn eine Seite nicht indexierbar ist, liegt das oft an wenigen wiederkehrenden technischen Mustern. Gerade nach Relaunches, Deployments oder Template-Änderungen treten solche Fehler besonders häufig auf.

noindex gesetzt

Ein aktives noindex-Signal ist einer der häufigsten Gründe, warum Seiten nicht im Suchindex erscheinen sollen.

URL liefert keinen 200-Status

Weiterleitungen, 404-Fehler, 410 oder 5xx-Probleme verhindern oft, dass die geprüfte URL selbst sinnvoll indexiert werden kann.

Canonical verweist auf andere URL

Eine Seite kann technisch erreichbar sein, aber per Canonical signalisieren, dass eigentlich eine andere URL indexiert werden soll.

Robots.txt blockiert Zugriff

Wenn Crawler wichtige Pfade nicht abrufen dürfen, kann das die Indexierbarkeit und Bewertung der Seite einschränken.

Indexierbar ist nicht automatisch indexiert

Eine Seite kann technisch indexierbar sein und trotzdem nicht oder noch nicht im Suchindex auftauchen. Die technische Indexierbarkeit ist nur eine Voraussetzung – keine Garantie für tatsächliche Sichtbarkeit.

Technisch okay, aber nicht relevant genug

Dünne Inhalte, Duplikate oder schwache interne Verlinkung können dazu führen, dass Seiten trotz technischer Indexierbarkeit nicht priorisiert werden.

Noch nicht entdeckt oder verarbeitet

Gerade neue URLs brauchen manchmal Zeit, bis sie gecrawlt, verarbeitet und tatsächlich indexiert werden.

Wann reicht ein Indexability Checker nicht mehr aus?

Ein Indexability Checker ist ideal, um einzelne URLs schnell technisch einzuordnen. Wenn aber viele Seiten betroffen sind oder zusätzlich Probleme bei Canonicals, Statuscodes, Meta Robots, robots.txt, Sitemaps oder interner Verlinkung auftreten, reicht ein Einzeltool oft nicht mehr aus.

Dann ist ein vollständiger Website-Check sinnvoll, um Indexierbarkeit, Crawl-Signale und weitere technische SEO-Faktoren im Zusammenhang zu prüfen.

FAQ: Indexability Checker

Häufige Fragen rund um Indexierbarkeit, noindex, Canonicals, Statuscodes, robots.txt und typische technische SEO-Ursachen dafür, dass Seiten nicht im Suchindex erscheinen.

Was bedeutet „indexierbar“?

Indexierbar bedeutet, dass aus technischer Sicht keine klaren Signale dagegen sprechen, eine Seite in den Suchindex aufzunehmen. Dazu gehören unter anderem ein sinnvoller Statuscode, keine blockierenden noindex-Signale und keine widersprüchlichen technischen Vorgaben.

Was ist der Unterschied zwischen indexierbar und indexiert?

Eine Seite kann technisch indexierbar sein, ohne bereits tatsächlich im Suchindex zu erscheinen. Die technische Indexierbarkeit ist eine Voraussetzung, aber keine Garantie dafür, dass eine Seite sofort oder überhaupt sichtbar wird.

Kann eine Seite trotz 200 OK nicht indexierbar sein?

Ja. Ein 200 OK allein reicht nicht aus. Wenn eine Seite zusätzlich per noindex, X-Robots-Tag, Canonical oder andere widersprüchliche Signale eingeschränkt wird, kann sie technisch trotzdem problematisch sein.

Was verhindert die Indexierbarkeit einer Seite?

Häufige Ursachen sind noindex, problematische Statuscodes, Weiterleitungen, Canonical-Tags auf andere URLs, blockierende robots.txt-Regeln oder widersprüchliche Signale zwischen mehreren technischen Ebenen.

Welche Rolle spielen noindex und Canonical?

noindex signalisiert, dass eine Seite nicht im Suchindex erscheinen soll. Ein Canonical kann dagegen anzeigen, dass eine andere URL bevorzugt werden soll. Beide Signale müssen im Zusammenhang bewertet werden, besonders wenn sie nicht sauber zusammenpassen.

Kann die robots.txt die Indexierbarkeit beeinflussen?

Ja, zumindest indirekt. Die robots.txt steuert in erster Linie das Crawling. Wenn wichtige Bereiche blockiert werden, kann das die technische Verarbeitung und Einordnung einer Seite beeinflussen, auch wenn robots.txt nicht dasselbe ist wie noindex.

Warum ist eine Seite technisch okay, erscheint aber trotzdem nicht bei Google?

Technisch indexierbar bedeutet nicht automatisch, dass eine Seite sofort im Index landet. Gründe können unter anderem schwache interne Verlinkung, doppelte Inhalte, geringe Relevanz, fehlende Entdeckung oder noch nicht abgeschlossene Verarbeitung durch Suchmaschinen sein.

Wann ist ein Indexability Checker sinnvoll?

Besonders sinnvoll ist das Tool, wenn eine URL nicht rankt, nicht indexiert wird, nach einem Relaunch unauffällig geprüft werden soll oder wenn unklar ist, ob noindex, Canonical, Statuscode oder andere technische Signale die Indexierbarkeit beeinträchtigen.

Wann reicht ein Indexability Checker nicht mehr aus?

Wenn viele URLs betroffen sind oder zusätzlich Probleme bei Canonicals, Meta Robots, robots.txt, Statuscodes, Sitemaps oder interner Verlinkung auftreten, reicht ein Einzeltool oft nicht mehr aus. Dann ist ein vollständiger Website-Check sinnvoll, um alle relevanten technischen Signale im Zusammenhang zu prüfen.

Weitere passende SEO Tools