Schnell
ohne Installation
Ergebnisse sofort

XML Sitemap Checker

Welche URLs sind in Ihrer XML Sitemap gelistet – und sind diese URLs erreichbar? Dieses Tool findet Ihre Sitemap (robots.txt & Standardpfade), prüft die Validität und testet Statuscodes.

Tipp: Sie können auch nur website.com eingeben – wir ergänzen automatisch https://.
Was wird geprüft?
  • Sitemap finden: robots.txt & Standardpfade
  • Validität: XML-Struktur & Sitemap-Index
  • Unter-Sitemaps erkennen: Sitemap-Index wird automatisch aufgelöst
  • URLs extrahieren: loc + lastmod
  • Statuscodes prüfen: HEAD → Fallback GET (2xx / 3xx / 4xx / 5xx)
  • CSV Export: URLs + Status + lastmod
  • SEO Kennzahlen: URL-Tiefe, Parameter-Anteil, Top-Verzeichnisse (ohne Crawl)
Hinweis: Sehr große Sitemaps können hunderttausende URLs enthalten. Um das Tool schnell zu halten, begrenzen wir ggf. Laufzeit und Anzahl geprüfter URLs (Fair Use).
Ergebnis der Sitemap-Analyse
Score —
Bereit
Noch keine Analyse gestartet.
Sitemaps gefunden
Urls gefunden
Tipp: Sitemap sollte über /sitemap.xml erreichbar sein und in robots.txt verlinkt werden.
Enthält: Sitemap-Index-Auflösung · parallele Statuschecks · Stop-Funktion · CSV Export · SEO Kennzahlen (ohne Crawl)
Sitemaps
Gefundene Sitemap(s) inkl. Last-Modified.
Sitemap Url(s) Zuletzt geändert XML
SEO Kennzahlen
Abgeleitet aus den Sitemap-URLs (ohne Crawl).
Max. Tiefe
Ø Tiefe
Parameter-URLs
Top-Verzeichnis
Top 25 Level-1 Verzeichnisse
Verzeichnis Anzahl %
Hinweis: Tiefe = Anzahl Pfadsegmente nach der Domain (z. B. /a/b/ → 2).
Verbesserungshinweise
Noch keine Analyse gestartet.
Enthaltene Urls
URLs aus der Sitemap inkl. Last-Modified und Statuscode.
Treffer: 0
2xx: 0 3xx: 0 4xx: 0 5xx: 0 404: 0
Angezeigt: 0 von 0
Hinweis: Zur Performance zeigen wir zunächst nur einen Teil der URLs. Mit Mehr laden können Sie weitere anzeigen.
Url Zuletzt geändert StatusCode Hinweis
Noch keine Daten.
Hinweis: HEAD/GET kann je nach Serverkonfiguration unterschiedlich reagieren. Bei Fehlern prüfen wir ggf. per GET.

Was ist eine XML-Sitemap?

Eine XML-Sitemap ist eine Datei, die Suchmaschinen eine strukturierte Liste wichtiger URLs Ihrer Website liefert. Sie unterstützt das Crawling und hilft dabei, neue oder geänderte Seiten schneller zu entdecken – vor allem bei großen Websites oder schwacher interner Verlinkung.

Was macht ein Sitemap-Checker?

Ein Sitemap-Checker findet und prüft Ihre Sitemap: Ist das XML valide, handelt es sich um eine Sitemap oder einen Sitemap-Index, und welche URLs sind enthalten? Zusätzlich werden URLs auf Erreichbarkeit geprüft (z. B. 200, 301/302, 404, 5xx).

Warum ist eine Sitemap wichtig?

Eine Sitemap liefert Suchmaschinen wie Google Hinweise, welche Seiten existieren und wann sie zuletzt geändert wurden (optional lastmod). Das kann die Indexierung unterstützen und typischen Problemen vorbeugen – etwa Redirects, Fehlerseiten oder veralteten URLs in der Sitemap.

Wichtig: In eine Sitemap gehören idealerweise nur kanonische, indexierbare URLs – also keine noindex-Seiten, keine Tracking- oder Filter-Parameter und keine Weiterleitungen.

Wo liegt die Sitemap und wie wird sie gefunden?

Häufig ist die Sitemap unter /sitemap.xml erreichbar und in der robots.txt verlinkt, z. B. Sitemap: https://example.com/sitemap.xml. Viele CMS erzeugen die XML-Sitemap automatisch; größere Websites nutzen oft mehrere Teil-Sitemaps über einen Sitemap-Index.

Tipp: In der Google Search Console können Sie die Sitemap zusätzlich einreichen und siehst dort auch, ob URLs aus der Sitemap erfolgreich indexiert werden oder Fehler auftreten.

Wie prüft der Seitenreport Sitemap Checker?

Der Seitenreport Sitemap Checker sucht die Sitemap über robots.txt und Standardpfade, validiert die XML-Struktur, löst Sitemap-Indexe auf und extrahiert alle URLs (inkl. lastmod).

Anschließend werden die enthaltenen URLs auf Statuscodes geprüft (mit HEAD und Fallback auf GET, wenn nötig). Die Ergebnisse können Sie als CSV exportieren; zusätzlich werden SEO-Kennzahlen wie URL-Tiefe, Parameter-Anteil und Top-Verzeichnisse direkt aus der Sitemap abgeleitet (ohne Crawl).

Tools Pass: Alle Seitenreport SEO Tools im Abo-Bundle

Wählen Sie Ihr Modell und starten sofort. Abrechnung alle 1/3/6/12 Monate · automatische Verlängerung · Kündigung zum Laufzeitende

Der technische SEO-Tools-Pass für schnelle Checks & Exporte – ohne Installation, ideal für Freelancer & Agenturen, wenn Sie schnell Klarheit für Kundenprojekte brauchst.

Vollzugriff auf alle SEO Tools (z. B. Sitemap Checker, Statuscodes, Header, Blacklist, …).
Website Analyse (100+ Checks) ist ein separates Produkt.

🛡️
14 Tage Geld-zurück-Garantie
Wenn der Tools Pass nicht passt: innerhalb von 14 Tagen erstatten wir dir den Betrag zurück.
Abo: verlängert sich automatisch um die gewählte Laufzeit. Kündigung jederzeit möglich – wirksam zum Laufzeitende.
Abrechnung
Solo
Ideal für Freelancer & Sideprojects
zzgl. MwSt. · nur B2B · verlängert sich automatisch
bis 5 Projekte** · ideal für mehrere Kundendomains
  • In 60 Sekunden: Sitemap + Statuscodes + CSV für den Kunden
  • Findet 404/5xx/Redirects in der Sitemap sofort
  • Alle SEO Tools inklusive
  • CSV Export inklusive
  • Priorisierte Limits (schnellere Checks)
  • E-Mail Support (Fair-Use)
  • ⏱️ Antwortzeit: bis 2 Werktage
  • 🧾 Kein individuelles SEO-Consulting enthalten
🛡️ 14 Tage Geld-zurück – ohne Risiko testen
Hinweis: Website Analyse ist nicht enthalten.
Team
Für wachsende Teams & kleine Agenturen
Empfehlung
zzgl. MwSt. · nur B2B · verlängert sich automatisch
bis 25 Projekte** · ideal für mehrere Kundendomains
  • Alle SEO Tools inklusive
  • CSV Export + größere Exporte
  • Höhere Limits (mehr URLs / schnellere Checks)
  • Priorisierter E-Mail Support (Fair-Use)
  • ⏱️ Antwortzeit: bis 1 Werktag
  • 🧾 Kein individuelles SEO-Consulting enthalten
🛡️ 14 Tage Geld-zurück – ohne Risiko testen
Hinweis: Website Analyse ist nicht enthalten.
Agency
Für Agenturen mit vielen Projekten
zzgl. MwSt. · nur B2B · verlängert sich automatisch
bis 100 Projekte** · ideal für mehrere Kundendomains
  • Alle SEO Tools inklusive
  • Große Exporte + höhere Limits
  • Priorität beim Crawl/Check
  • Priorisierter E-Mail Support (Fair-Use)
  • ⏱️ Antwortzeit: bis 24h (werktags)
  • 🧾 Kein individuelles SEO-Consulting enthalten
  • ☎️ Optional: Onboarding/Support-Upgrade
🛡️ 14 Tage Geld-zurück – ohne Risiko testen
Hinweis: Website Analyse ist nicht enthalten.
* Nur für Unternehmer (B2B). Kein Verkauf an Verbraucher. Preise zzgl. MwSt.
** „Projekte“ = gespeicherte Domains/Properties im Account. Laufzeit beginnt mit Kaufdatum.
Support & Leistungsumfang

Enthalten: Fragen zur Nutzung der Tools, Erklärung von Ergebnissen, Bug-Reports, Abrechnung.

Nicht enthalten / auf Anfrage: individuelles SEO-Consulting, Analyse kompletter Websites, Implementierungs-Support in Kundensystemen.

Fair-Use: Support ist für normale Nutzung gedacht. Bei außergewöhnlich hohem Supportaufwand bieten wir ein Support-Upgrade an.

Support-Upgrade anfragen z. B. Onboarding-Call oder priorisierte Hilfe bei Implementierung
Individuelle Anfrage starten z.B. höhere Kontingente & Limits, White-Label-Integrationen, Kunden-Zugänge, API usw.

Limits & Funktionsvergleich

Transparente Limits pro Paket (fair use). Für sehr große Sites/Agenturen ist Agency gedacht.

Tipp: Limits sind pro Projekt/Domain & Check.
Feature Solo Team Empfehlung Agency
Projekte (Domains/Properties)
Wie viele Domains Sie im Account speichern können
bis 5 bis 25 bis 100
Sitemap Checker
Max. URLs pro Analyse
2.000 URLs 5.000 URLs 15.000 URLs
Sitemap Checker
Max. Teil-Sitemaps
30 Sitemaps 60 Sitemaps 120 Sitemaps
Statuscode Checks
Max. URL-Statusprüfungen pro Run
1.000 Checks 3.000 Checks 8.000 Checks
Geschwindigkeit (Worker)
Konkurrierende Requests pro Run (schneller = mehr)
2 Worker 3 Worker 4 Worker
CSV Export
Max. Zeilen je Export
2.000 Zeilen 5.000 Zeilen 15.000 Zeilen
Export-Formate
Verfügbare Exporte im Tool
CSV CSV + Verzeichnisse CSV + Verzeichnisse
Ergebnis-Historie
Wie lange Runs/Ergebnisse im Account gespeichert werden
7 Tage 30 Tage 180 Tage
Laufzeit-Limit pro Run
Maximale Ausführungszeit (Fair Use & Stabilität)
5 Min 10 Min 20 Min
Priorität in der Warteschlange
Bevorzugte Abarbeitung bei hoher Auslastung
normal hoch sehr hoch
Gleichzeitige Runs
Wie viele Checks parallel pro Account laufen können
1 2 4
Support
Antwortzeit / Priorität
E-Mail priorisiert priorisiert
Fair-Use & Stabilität: Bei hoher Auslastung werden Runs priorisiert und ggf. gedrosselt (Queue, Worker, Laufzeit-Limit), um das Tool für alle schnell und verfügbar zu halten.

FAQ

Kurz & praxisnah: typische Fragen rund um XML Sitemaps, robots.txt und Statuscodes.

Findet ihr die Sitemap immer automatisch?

Wir prüfen zuerst die robots.txt auf Sitemap:-Einträge und testen danach gängige Standardpfade (z. B. /sitemap.xml). Wenn eine Website mehrere Sitemaps nutzt, erkennen wir i. d. R. auch Sitemap-Indexe.

Was ist der Unterschied: Sitemap vs Sitemap-Index?

Eine Sitemap enthält direkt URLs. Ein Sitemap-Index enthält Links auf weitere Sitemaps (z. B. getrennt nach Sprache/Segment). Das Tool löst diese Unter-Sitemaps auf, damit Sie am Ende alle URLs sehen.

Welche Statuscodes sind problematisch?

Ideal ist 200. Weiterleitungen (3xx) sind oft okay, aber in Sitemaps besser zu vermeiden. Fehlercodes wie 404 oder 5xx sollten nicht in einer Sitemap stehen.

Sollten 301/302-URLs in der Sitemap stehen?

Im Regelfall: nein. Besser ist, die finale Ziel-URL (200) in der Sitemap zu listen. Weiterleitungen in Sitemaps können Crawl-Budget verschwenden und erschweren Debugging.

Warum zeigt ihr manchmal “HEAD/GET Unterschiede”?

Manche Server liefern auf HEAD andere Antworten als auf GET (z. B. durch WAF/CDN-Regeln). Bei Auffälligkeiten prüft man idealerweise per Browser/GET nach.

Wie groß darf eine Sitemap sein?

Häufiger Richtwert: max. 50.000 URLs pro Sitemap und max. 50 MB (unkomprimiert). Große Websites nutzen daher Sitemap-Indexe mit vielen Teil-Sitemaps.

Muss die Sitemap in robots.txt verlinkt sein?

Es ist nicht zwingend, aber sehr empfehlenswert. Die Zeile Sitemap: https://example.com/sitemap.xml hilft Suchmaschinen und Tools beim Auffinden.

Warum fehlt bei manchen URLs “lastmod”?

lastmod ist optional. Manche Generatoren lassen es weg oder setzen es nur für bestimmte Bereiche. Für SEO ist ein korrektes lastmod hilfreich, aber wichtiger ist: URLs erreichbar & aktuell.

Kann ich Noindex-URLs in der Sitemap haben?

Technisch ja, sinnvoll meist nicht. Eine Sitemap soll indexierbare Inhalte abbilden. Noindex-URLs können Signale verwässern und führen zu unnötigem Crawling.

Warum ist “Sitemap korrekt, aber URLs werden nicht indexiert” möglich?

Indexierung hängt nicht nur von der Sitemap ab: interne Verlinkung, Content-Qualität, Canonicals, Robots-Meta, Serverantworten, Duplicate Content und Crawl-Budget spielen mit rein. Die Sitemap ist “Eintrittskarte”, aber nicht die Garantie.

Löst ihr Sitemap-Indexe automatisch auf?

Ja. Wenn Ihre Sitemap ein sitemapindex ist, laden wir die verlinkten Unter-Sitemaps und sammeln daraus alle URLs. Bei sehr großen Installationen kann die Analyse aus Performance-Gründen begrenzt werden (Fair Use).

Warum dauert die Statuscode-Prüfung länger als die Sitemap-Analyse?

Die Sitemap-Analyse liest XML und extrahiert URLs. Danach prüfen wir die URLs per Request (parallel), was je nach Servergeschwindigkeit, CDNs oder Schutzmechanismen variieren kann. Sie können die Prüfung jederzeit stoppen.

Was bedeuten die SEO Kennzahlen (Tiefe/Parameter/Verzeichnisse)?

Die Kennzahlen sind aus den Sitemap-URLs abgeleitet (ohne Crawl): Pfadtiefe = Anzahl Segmente nach der Domain, Parameter-URLs = URLs mit Query-String, Top-Verzeichnis = häufigstes Level-1 Verzeichnis. Das hilft, Struktur- und Filterprobleme schnell zu erkennen.

Kostenlose Tools zur Suchmaschinenoptimierung

Weitere SEO Tools auf Seitenreport: