Keywords

Kennzahlen






Backlinks Domains nach Gewichtung

Backlinks Gesamtauflistung nach Gewichtung

SEO / 94,53%

Status Codes
Page Title
Meta Description
HTML Fehler
Indexierbarkeit
Canonical Tags
Hreflang
Sitemap XML
Robots.txt
Content Code Ratio
Keywords
Headlines
Images
Fehler Liste

Content

Spam
Sprache
Rich Text Snippets
Lesbarkeit
Text Statistiken
Content only

Links

Interne Links
Ausgehende Links
Anker Links

Alleinstellungsmerkmale

  • Umfangreiche Analysen mit nativem Browser inkl. JavaScript Unterstützung - Ermittlung von JavaScript Fehlern auf Unterseiten, Traffic auf allen Unterseiten und vieles mehr
  • Über 100 professionelle Analysen
  • Jede Analyse wird auf jede Unterseite angewandt
  • Live Analyse - alle Daten ändern sich dynamisch mit jedem neuen Analyse-Ergegbnis
  • eine der am besten getesteten Analyse-Engines im deutschsprachigen Raum - Seitenreport gibt es bereits seit 2007 - seit über 14 Jahren - das spiegelt sich in den Analysen.

Noch kein Premium-Mitglied?

Als Premium-Mitglied können Sie nicht nur 10 Unterseiten einer Website analysieren wie in der kostenlosen Version, sondern die gesamte Website mit bis zu 10.000 Unterseiten.

SEO Wiki und Best Practices

Besuchen Sie auch das Seitenreport SEO Wiki mit bereits über 50 Artikeln zu den wichtigsten SEO-Fachbegriffen und wie Sie das jeweilige Thema bestmöglich umsetzen um gute Platzierungen zu erreichen.

Warum eigentlich optimieren?

  • bessere Platzierungen in den Suchmaschinen erhalten
  • mehr kostenlose Besucher auf die Website locken
  • durch mehr Besucher den Online-Umsatz vergrößern
  • mehr Besucher erreichen durch eine fehlerfreie Website
  • für eine längere Verweildauer der Benutzer sorgen und damit die Markenbindung verbessern

Page Title

Der Seitentitel sollte maximal 524 Pixel lang sein. Das entspricht in etwa 58-65 Zeichen. Damit ist eine optimale Darstellung in den Ergebnissen der Suchmaschinen und eine optimale Nutzung der Keywords gewährleistet. Die analysierte Website erreicht dabei folgende Ergebnisse:


0leer
0zu lang
0zu kurz
0doppelt
0optimale Länge
0Nicht analysierte Urls
Nr.UrlPage TitleLängeBewertungHandlungsbedarf

Meta Description

Der in der Meta Description angegebene Text wird in vielen Suchmaschinen, u.a. bei Google als Beschreibungstexte in den Suchergebnissen (SERPs) verwendet. Eine Meta Description sollte mindestens ca. 100 Zeichen und maximal ca. 145 Zeichen lang sein. mehr erfahren


0leer
0zu lang
0zu kurz
0doppelt
0optimale Länge
0Nicht analysierte Urls
Nr.UrlMeta DescriptionLängeBewertungHandlungsbedarf

StatusCodes

Bei StatusCodes handelt es sich um bei jedem Aufruf einer Internetseite oder Ressource vom Server zurückgelieferten Code, inwieweit der Aufruf erfolgreich war. Aus SEO-Sicht ist es bspw. wichtig, für Suchmaschinen korrekte StatusCodes zu senden. mehr erfahren


0504 Gateway Timeout
0502 Bad Gateway
0500 Internal Server Error
0410 Gone
0404 Not Found
0403 Forbidden
0401 Unauthorized
0307 Temporary Redirect
0303 See Other
0302 Found (Moved Temporarily)
0301 Moved Permanently
0200 OK
0Other
0Nicht analysierte Urls

Nr.UrlMimeTypeStatusCodeBedeutungBewertungHandlungsbedarf

HTML Fehler

Eine valide HTML Website sorgt dafür, dass die Website auf allen Endgeräten fehlerfrei dargestellt wird. In Bezug auf SEO wird eine valide Website von Suchmaschinen-Crawlern leichter und fehlerfrei indexiert. Seitenreport prüft die Validität auf Basis der Vorgaben des W3C.


0HTML Fehler
0HTML Warnungen
0Seiten mit HTML Fehlern
0Seiten mit HTML Warnungen
0valide Seiten gesamt
0Nicht analysierte Urls
Nr.UrlHTML FehlerHTML WarnungenBewertungHandlungsbedarf

HTML Fehler Detailinformationen

Eine valide HTML Website sorgt dafür, dass die Website auf allen Endgeräten fehlerfrei dargestellt wird. In Bezug auf SEO wird eine valide Website von Suchmaschinen-Crawlern leichter und fehlerfrei indexiert. Seitenreport prüft die Validität auf Basis der Vorgaben des W3C.


Fehler
Nr.ZeileSpalteFehlerBewertungHandlungsbedarf

Warnungen
Nr.ZeileSpalteWarnungBewertungHandlungsbedarf

Headlines

Überschriften sind ein wichtiges SEO Kriterium. Auf dieser Seite finden Sie die wichtigsten Überschriften der jeweiligen Unterseiten.


Nr.UrlH1H2H3H4H5H1 Content

Indexierbarkeit

Mit Indexierbarkeit werden wichtige Anweisungen für Suchmaschinen-Bots bezeichnet sowie die Erreichbarkeit der Urls, die von der Suchmaschine indexiert werden sollen.


0Warnung
0validiert
0Nicht analysierte Urls
Nr.UrlMeta robots indexMeta robots followBewertungHandlungsbedarf

Canonical Tags

Das Canonical Tag ist dafür vorgesehen, Suchmaschinen auf Doppelte Inhalte („Duplicate Content“) hinzuweisen. Anhand des Canonical Tags kann die Suchmaschine erkennen, welche URL die Originalquelle darstellt und berücksichtigt diese nun hauptsächlich für das Ranking. mehr erfahren


0nicht vorhanden
0vorhanden
0Nicht analysierte Urls
Nr.UrlvorhandenCanonical ZielBewertungHandlungsbedarf

Content Code Ratio

Verhältnis von Content zu HTML Quellcode. Achten Sie darauf, dass der HTML Code im Vergleich zum ausgelieferten Inhalt so schlank wie möglich ist.


Nr.UrlAnteil ContentAnteil CodeBewertungHandlungsbedarf

Keywords

Auflistung der am stärksten gewichteten Keywords der einzelnen Unterseiten


Nr.UrlKeyword 1Keyword 2Keyword 3Keyword 4

Images

Auflistung der Alt und Title Attribute aller auf den Unterseiten gefundener Bild-Ressourcen


Nr.UrlAnzahl ImagesLeere Alt AttributeAlt AttributeTitle Attribute

Hreflang

Das hreflang-Attribut wurde im Dezember 2011 von Google eingeführt und wird benötigt, sobald es von einer Webseite mehr als eine Sprachversion gibt. Hierdurch wird sichergestellt, dass dem Benutzer bei den Suchergebnissen die Internetseite in seiner Sprache angezeigt wird und zusätzlich lässt sich damit Duplicate Content vermeiden. mehr erfahren


0nicht vorhanden
0vorhanden
0Nicht analysierte Urls
Nr.UrlvorhandenHreflang EintragBewertungHandlungsbedarf

Rich Snippets (Mikroformate)

tbd


Nr.UrlValide SemantikH1H2H3H4H5H1 Content

Robots.txt

Eine robots.txt ist eine Steuerungsdatei im Stammverzeichnis der Website, die aus reinem Text besteht und Anweisungen für verschiedene Bots, sogenannte Crawler enthält, welche Urls und Verzeichnisse sie crawlen dürfen und welche nicht. Die meisten Bots halten sich an diese Anweisungen (u.a. der Googlebot). Beachten Sie jedoch, dass ein Crawler nicht verplfichtet ist, sich an die Anweisungen der robots.txt zu halten.


Robots.txt

Nr.robots.txtvorhandenSitemap verlinktHandlungsbedarf

KennzahlAnzahl

Inhalt der Robots.txt


	

Sitemap XML

In einer Sitemap XML werden alle auf einer Website enthaltenen Unterseiten-Urls in maschinenlesbarer strukturierter XML Form für Suchmaschinen-Bots bereitsgestellt. Dies macht es den Suchmaschinen leichter, schnell neu hinzugefügte Seiten zu erkennen und spart Ressourcen und Traffic auf Seiten des Suchmaschinen-Betreibers wie auf Anbieter-Seite. Das Vorhandensein einer XML Sitemap sorgt dafür, dass neue Inhalte schneller indexiert werden und die Suchmaschinen-Crawler häufiger vorbeikommen um die Website auf Änderungen zu überprüfen.


Sitemap

Nr.Sitemapin Robots.txt verlinktEnthaltene UrlsBewertungHandlungsbedarf

Sub-Sitemaps

Nr.SitemapEnthaltene UrlsLast modifiedBewertungHandlungsbedarf

Sitemap Urls

Nr.UrlLast modifiedChange frequencyPriorityEnthalten in SitemapBewertungHandlungsbedarf

Gefundene Urls die nicht in Sitemap eingetragen sind

UrlBewertungHandlungsbedarf

Übersicht

Hier finden Sie eine Auflistung aller in den Unterseiten-Analysen gefundener Fehler, Warnungen und Tipps

Analysierte Urls: 0
Nicht analysierte Urls: 0
auf Premium-Account upgraden und alle Unterseiten analysieren

Fehler

AnalyseBewertungUrlBeschreibungHandlungsbedarf

Warnungen

AnalyseBewertungUrlBeschreibungHandlungsbedarf

Validiert

AnalyseBewertungUrlBeschreibungHandlungsbedarf

Spam

Hier finden Sie eine Auflistung von Unterseiten, auf denen potentielle Spamwörter gefunden wurden. Spamwörter können bspw. in Foren oder in Bereichen mit Benutzer-Kommentaren auftreten, aber auch, wenn eine Website gehackt wurde. Die Analyse prüft den Content Ihrer Website mit einer umfangreichen Liste diverser Spamwörter.


0Seiten mit potentiellen Spam
0Seiten ohne Spamverdacht
0Nicht analysierte Urls
Nr.UrlFrei von potentiellem SpamGefundene SpamwörterBewertungHandlungsbedarf

Lesbarkeit

Die Lesbarkeit von Texten im Internet beeinflusst die Verweildauer auf Webseiten. Sie erhöht die Usability und überhaupt die Nützlichkeit einer Seite und ist daher auch für die SEO interessant: Die Verweildauer ist ein Rankingfaktor, den Google-Algorithmen direkt messen. Die Analyse wendet verschiedene Berechnungsmethoden an um die Lesbarkeit anhand der verschiedenen Algorithmen auszugeben. mehr erfahren


Nr.UrlFlesch-Wert (Kincaid)Gunning Fog IndexColeman Liau IndexSMOG IndexSpache Readability Score


Lesbarkeitsindex nach Flesch

Flesch-WertLesbarkeitVerständlich für
0-30sehr schwerAkademiker
30-50schwer
50-60mittelschwer
60-70mittel13-15 jährige Schüler
70-80mittelleicht
80-90leicht
90-100sehr leicht11-jährige Schüler

Text Statistiken

Auf dieser Seite erhalten Sie Informationen darüber, wie viele Wörter und Sätze der Content der jeweiligen Unterseite der Website umfasst. Ein Blog-Beitrag sollte mindestens 300 Wörter enthalten. Posts mit mehr als 1.000 Wörtern haben eine höhere Chance auf eine gute Rankingposition.


Nr.UrlAnzahl WörterAnzahl SätzeØ Wörter pro Satz

Sprache

Die für den Content verwendete Sprache sollte zur Sprache in den sprechenden Links sowie zum HTML Language Attribut passen, damit die Inhalte optimal von Suchmaschinen indexiert werden können.


0Erkannte Sprache stimmt nicht mit Language Key überein
0Erkannte Sprache stimmt mit Language Key überein
0Nicht analysierte Urls
Nr.UrlErkannte Sprache der InhalteHTML Language KeyBewertungHandlungsbedarf

Content only

Der reine Content einer Webseite, so wie Suchmaschinen Crawler ihn sehen. In dieser Analyse werden alle HTML Codes entfernt und es bleibt nur der reine Content der Webseite übrig.


Nr.UrlPlain Content

Rich Snippets

Die Mikroformate sind dafür vorgesehen, die Bedeutung von Inhalten jeglicher Art dem Web verständlich zu machen, ohne dabei den eigentlichen Inhalt zu ändern. Sie sind ein wichtiges SEO-Instrument, da hiermit zusätzliche Informationen in Form von kleinen Inhaltsauszügen (Rich Snippets) für die Ergebnisseiten der Suchmaschinen (SERP) gekennzeichnet werden. mehr erfahren


Nr.UrlGefundene Rich Snippets

Vorkommen HTML Tags und deren Häufigkeit

In dieser Auflistung wird Ihnen die Verwendung und die Häufigkeit wichtiger HTML Tags aufgezeigt. Dies ist beispielsweise sinnvoll, um Strukturfehler schnell erkennen zu können und in den SEO-Optimierungen das letzte herauskitzeln zu können.


Nr.Urltableimgnavpformtextareainputbuttonhrstylescriptbrselecth1h2h3h4h5h6ulliastrongi

Veraltete Tags

Bestimmte HTML Tags sind veraltet und sollten in einer zeitgemäßen Website nicht mehr verwendet werden. Diese Analyse prüft die Unterseiten der analysierten Website auf folgende deprecated HTML Tags: applet, basefont, center, dir, embed, font, s, strike, u, xmp


Nr.UrlDeprecated Tags

Spaghetti Codes

Mit dem Begriff „Spaghetti Code“ wird im allgemeinen Software-Quellcode bezeichnet, der chaotisch bzw. unübersichtlich geschrieben wurde. Dabei handelt es sich nicht automatisch um den gesamten Quellcode, sondern es kann durchaus auch nur ein Teil der Software betroffen sein. Das eigentliche Problem besteht darin, dass solch ein Code schwierig zu pflegen und zu warten ist. Im Bereich der Web-Entwicklung ist hiermit vor allem das verwenden von Inline-Styles gemeint. Besser ist es, CSS Styles strukturiert in CSS/SASS/LESS Dateien vorzuhalten. mehr erfahren


Nr.UrlSpaghetti Code

Grundstruktur

Auf dieser Seite werden die Ergebnisse der Analyse der Grundstruktur der analysierten Website ausgegeben.


Nr.UrlDoctypeZeichenkodierungverwendetes CMS

Favicons

Das Favicon (=Favourite Icon) dient grundsätzlich dazu, eine Webseite mit einem kleinen Icon wiedererkennbar zu machen. Häufig wird hierzu das Logo der Webseite verwendet. mehr erfahren


Nr.UrlFaviconMobile Touch Icon

Server

Hier werdden Ihnen Informationen über den zur analysierten Website gehörigen Server angezeigt.


KennzahlErgebnis

Nameserver

TypeHostTTLTarget

Mailserver

Mailserver

Whois

Whois-Daten zeigen Kontaktdaten über den Domain-Inhaber oder den administrativen Ansprechpartner. Sie waren zu einer registrierten Domain bis zum 25. Mai 2018 öffentlich zugänglich. Mit der Anwendung der Datenschutz-Grundverordnung (DSGVO) haben fast alle Vergabestellen und Registrare die öffentlich einsehbaren Informationen zu einer Domain reduziert. Heute ist es für die meisten Domain-Endungen nicht mehr möglich, ohne einen begründeten Anlass die persönlichen Daten von Domaininhabern abzufragen.


		Analysiere...
	

JavaScript Fehler

In dieser Analyse werden Ihnen JavaScript Fehler aufgelistet, die beim Aufruf einer Webseite vom Browser erkannt werden. JavaScript Fehler können zu Fehlern bei der Ausführung einer Website und dem auf der Webseite ausgeführten JavaScript führen.


Nr.UrlBrowser JavaScript Fehler

Open Graph

Die Open-Graph-Metadaten dienen dazu, auf Social Media Plattformen die Vorschau eines geteilten Artikels festzulegen. mehr erfahren


Nr.UrlOG TitleOG TypeOG UrlOG ImageBewertungHandlungsbedarf

Load times

Ladezeiten der Webseiten wie er beim Aufruf über einen herkömmlichen Browser auftritt. Diese Seitenreport Analyse wird über einen Browser gesteuert, der auch JavaScript interpretiert.


Nr.UrlPage Load TimeFully Loaded TimeFirst Paint TimeFirst Visual Change TimeLast Visual Change TimeFirst Contentful Paint TimeLargest Contentful Paint Time

Datentransfer

Aktueller Datentransfer der einzelnen Webseiten, analysiert über einen Browser mit unterstütztem JavaScript. Dadurch werden von Seitenreport auch Requests erkannt, die beispielsweise per JavaScript ausggeführt werden (bspw. AJAX oder Lazy Loading Implementierungen).


Nr.UrlRequestsTraffic gesamtHTMLCSSJavaScriptImagesFontSVGJSONPlainThird Party

Assets

tbd



HTML

Nr.Urlintern/externTypeCache TimeSize

CSS

Nr.Urlintern/externTypeCache TimeSize

JavaScript

Nr.Urlintern/externTypeCache TimeSize

Font

Nr.Urlintern/externTypeCache TimeSize

JSON

Nr.Urlintern/externTypeCache TimeSize

Plain

Nr.Urlintern/externTypeCache TimeSize

ResponseCodes

Hier werden Ihnen die Anzahl der jeweiligen StatusCodes über alle auf der jeweilig analysierten Internetseite verwendeten Ressourcen angezeigt. Zur Ermittlung der geladenen Ressourcen wird ein nativer Browser mit JavaScript Unterstützung verwendet, so dass bspw. auch AJAX Requests aufgelöst werden.


Nr.Url200301302303307401403404410500502504

Domains und Ladezeiten

Auflistung der Domains, von denen die jeweiligen Webseiten Inhalte laden. Zur Ermittlung der geladenen Ressourcen wird ein nativer Browser mit JavaScript Unterstützung verwendet, so dass bspw. auch AJAX Requests aufgelöst werden.


Nr.DomainRequestsLadezeit gesamtTime blockedTime DNSTime ConnectTime SendTime Wait

Einsparpotentiale

Auf dieser Analyse-Seite erhalten Sie Informationen darüber, auf welchen Seiten überflüssiges CSS oder überflüssiges JavaScript eingespart werden kann und wie groß das Einsparungspotential auf den jeweiligen Seiten ist.


Nr.UrlCSS minifizierenJavaScript minifizierenUnused CSS RulesUnused JavaScriptModerne Bild-Formate

Screenshots

Auf dieser Analyse-Seite werden Ihnen Screenshots der jeweiligen zur analysierten Website gehörigen Urls angezeigt.


Nr.UrlSeite vollständig geladen

Barrierefreiheit

Auf dieser Analyse-Seite werden Ihnen die Ergebnisse der Barrierefreiheits-Prüfung der Unterseiten nach WCAG 2.1 angezeigt. Gute Werte im Bereich der Barrierearmut sorgen dafür, dass die Website von Menschen mit Behinderungen, bspw. einer Sehschwäche bestmöglich nutzbar ist und so wenig Barrieren wie möglich beim Zugriff bietet. Eine hohe Barrierearmut ist zudem sinnvoll, damit die Website auf allen Endgeräten fehlerfrei dargestellt wird.


Nr.UrlFehler gesamtFehler Typenkritischernstmäßiggeringerbestandennicht anwendbar

Barrierefreiheit Detailinformationen

Auf dieser Analyse-Seite werden Ihnen die Ergebnisse der Barrierefreiheits-Prüfung der Unterseiten nach WCAG 2.1 angezeigt. Gute Werte im Bereich der Barrierearmut sorgen dafür, dass die Website von Menschen mit Behinderungen, bspw. einer Sehschwäche bestmöglich nutzbar ist und so wenig Barrieren wie möglich beim Zugriff bietet. Eine hohe Barrierearmut ist zudem sinnvoll, damit die Website auf allen Endgeräten fehlerfrei dargestellt wird.


Fehler
Nr.ZeileSpalteFehlerBewertungHandlungsbedarf

Content Hash

Diese Analyse erzeugt einen Hash über den gesamten Content der analysierten Webseite. Über den erzeugten Hash können Sie beispielsweise erkennen, ob die textuellen Inhalte auf einer Url verändert worden sind, was auf eine Manipulation hinweisen kann, sofern Sie an der Seite nichts verändert haben.


Nr.UrlHashBewertungHandlungsbedarf

Plaintext E-Mail-Adressen

E-Mail-Adressen sollten im Quellcode immer nur verschlüsselt auftreten, da Crawler die E-Mail-Adressen sonst auslesen und an diese Spam verschicken können. Für die Verschlüsselung der E-Mail-Adressen eignen sich verschiedene Methoden, u.a. JavaScript Funktionen.


Nr.UrlAnzahlUnverschlüsselte E-Mail-AdressenBewertungHandlungsbedarf

Security Header

Durch das Senden von Security-Headern wird die Sicherheit der Website erhöht.


Nr.UrlContent-Security-PolicyX-Frame-OptionsX-Content-Type-OptionsReferrer-PolicyFeature-PolicyBewertungHandlungsbedarf

Domain Blacklisted

Prüfung, ob die Domain in einer Blacklist eingetragen ist. Einträge in Blacklisten können zu erheblichen Verschlechterungen der Suchmaschinen-Platzierungen führen.


Ergebnis

Web Of Trust

Reputation der Website bei Web of Trust.


Ergebnis