Gefundene Seiten:prüfe…
Score:analysiere…

Keywords

Kennzahlen






Backlinks Domains nach Gewichtung

Backlinks Gesamtauflistung nach Gewichtung

SEO / 94,53%

Status Codes
Page Title
Meta Description
HTML Fehler
Indexierbarkeit
Canonical Tags
Hreflang
Sitemap XML
Robots.txt
Content Code Ratio
Keywords
Headlines
Images
Fehler Liste

Content

Spam
Sprache
Rich Text Snippets
Lesbarkeit
Text Statistiken
Content only

Links

Interne Links
Ausgehende Links
Anker Links

Alleinstellungsmerkmale

  • Umfangreiche Analysen mit nativem Browser inkl. JavaScript Unterstützung - Ermittlung von JavaScript Fehlern auf Unterseiten, Traffic auf allen Unterseiten und vieles mehr
  • Über 100 professionelle Analysen
  • Jede Analyse wird auf jede Unterseite angewandt
  • Live Analyse - alle Daten ändern sich dynamisch mit jedem neuen Analyse-Ergegbnis
  • eine der am besten getesteten Analyse-Engines im deutschsprachigen Raum - Seitenreport gibt es bereits seit 2007 - seit über 14 Jahren - das spiegelt sich in den Analysen.

Noch kein Premium-Mitglied?

Als Premium-Mitglied können Sie nicht nur 10 Unterseiten einer Website analysieren wie in der kostenlosen Version, sondern die gesamte Website mit bis zu 10.000 Unterseiten.

SEO Wiki und Best Practices

Besuchen Sie auch das Seitenreport SEO Wiki mit bereits über 50 Artikeln zu den wichtigsten SEO-Fachbegriffen und wie Sie das jeweilige Thema bestmöglich umsetzen um gute Platzierungen zu erreichen.

Warum eigentlich optimieren?

  • bessere Platzierungen in den Suchmaschinen erhalten
  • mehr kostenlose Besucher auf die Website locken
  • durch mehr Besucher den Online-Umsatz vergrößern
  • mehr Besucher erreichen durch eine fehlerfreie Website
  • für eine längere Verweildauer der Benutzer sorgen und damit die Markenbindung verbessern

Page Title

Der Seitentitel sollte maximal 524 Pixel lang sein. Das entspricht in etwa 58-65 Zeichen. Damit ist eine optimale Darstellung in den Ergebnissen der Suchmaschinen und eine optimale Nutzung der Keywords gewährleistet. Die analysierte Website erreicht dabei folgende Ergebnisse:


0leer
0zu lang
0zu kurz
0doppelt
0optimale Länge
0Nicht analysierte Urls
Nr.UrlPage TitleLängeBewertungHandlungsbedarf

Meta Description

Der in der Meta Description angegebene Text wird in vielen Suchmaschinen, u.a. bei Google als Beschreibungstexte in den Suchergebnissen (SERPs) verwendet. Eine Meta Description sollte mindestens ca. 100 Zeichen und maximal ca. 145 Zeichen lang sein. mehr erfahren


0leer
0zu lang
0zu kurz
0doppelt
0optimale Länge
0Nicht analysierte Urls
Nr.UrlMeta DescriptionLängeBewertungHandlungsbedarf

HTTP-Statuscodes

Suchmaschinen reagieren sensibel auf 4xx/5xx. Ziel: ≤ 1 % Fehler, ≤ 25 % Redirects. mehr erfahren

Fehlerrate (4xx/5xx)
404 Not Found
5xx Serverfehler
Weiterleitungen (3xx)
200 OK Anteil
Analysierte URLs

0504 Gateway Timeout
0502 Bad Gateway
0500 Internal Server Error
0410 Gone
0404 Not Found
0403 Forbidden
0401 Unauthorized
0307 Temporary Redirect
0303 See Other
0302 Found (Moved Temporarily)
0301 Moved Permanently
0200 OK
0Other
0Nicht analysierte Urls

Top 5 Fehler-URLs

    Top 5 404-Pfade

      Nr.UrlMimeTypeStatusCodeBedeutungBewertungHandlungsbedarf

      HTML Fehler

      Eine valide HTML Website sorgt dafür, dass die Website auf allen Endgeräten fehlerfrei dargestellt wird. In Bezug auf SEO wird eine valide Website von Suchmaschinen-Crawlern leichter und fehlerfrei indexiert. Seitenreport prüft die Validität auf Basis der Vorgaben des W3C.


      0HTML Fehler
      0HTML Warnungen
      0Seiten mit HTML Fehlern
      0Seiten mit HTML Warnungen
      0valide Seiten gesamt
      0Nicht analysierte Urls
      Nr.UrlHTML FehlerHTML WarnungenBewertungHandlungsbedarf

      HTML Fehler Detailinformationen

      Eine valide HTML Website sorgt dafür, dass die Website auf allen Endgeräten fehlerfrei dargestellt wird. In Bezug auf SEO wird eine valide Website von Suchmaschinen-Crawlern leichter und fehlerfrei indexiert. Seitenreport prüft die Validität auf Basis der Vorgaben des W3C.


      Fehler
      Nr.ZeileSpalteFehlerBewertungHandlungsbedarf

      Warnungen
      Nr.ZeileSpalteWarnungBewertungHandlungsbedarf

      Headlines

      Überschriften sind ein wichtiges SEO Kriterium. Auf dieser Seite finden Sie die wichtigsten Überschriften der jeweiligen Unterseiten.


      Nr.UrlH1H2H3H4H5H1 Content

      Indexierbarkeit

      Mit Indexierbarkeit werden wichtige Anweisungen für Suchmaschinen-Bots bezeichnet sowie die Erreichbarkeit der Urls, die von der Suchmaschine indexiert werden sollen.


      0Warnung
      0validiert
      0Nicht analysierte Urls
      Nr.UrlMeta robots indexMeta robots followBewertungHandlungsbedarf

      Canonical Tags

      Das Canonical Tag ist dafür vorgesehen, Suchmaschinen auf Doppelte Inhalte („Duplicate Content“) hinzuweisen. Anhand des Canonical Tags kann die Suchmaschine erkennen, welche URL die Originalquelle darstellt und berücksichtigt diese nun hauptsächlich für das Ranking. mehr erfahren


      0nicht vorhanden
      0vorhanden
      0Nicht analysierte Urls
      Nr.UrlvorhandenCanonical ZielBewertungHandlungsbedarf

      Content Code Ratio

      Verhältnis von Content zu HTML Quellcode. Achten Sie darauf, dass der HTML Code im Vergleich zum ausgelieferten Inhalt so schlank wie möglich ist.


      Nr.UrlAnteil ContentAnteil CodeBewertungHandlungsbedarf

      Keywords

      Auflistung der am stärksten gewichteten Keywords der einzelnen Unterseiten


      Nr.UrlKeyword 1Keyword 2Keyword 3Keyword 4

      Images

      Auflistung der Alt und Title Attribute aller auf den Unterseiten gefundener Bild-Ressourcen


      Nr.UrlAnzahl ImagesLeere Alt AttributeAlt AttributeTitle Attribute

      Hreflang

      Das hreflang-Attribut wurde im Dezember 2011 von Google eingeführt und wird benötigt, sobald es von einer Webseite mehr als eine Sprachversion gibt. Hierdurch wird sichergestellt, dass dem Benutzer bei den Suchergebnissen die Internetseite in seiner Sprache angezeigt wird und zusätzlich lässt sich damit Duplicate Content vermeiden. mehr erfahren


      0nicht vorhanden
      0vorhanden
      0Nicht analysierte Urls
      Nr.UrlvorhandenHreflang EintragBewertungHandlungsbedarf

      Rich Snippets (Mikroformate)

      tbd


      Nr.UrlValide SemantikH1H2H3H4H5H1 Content

      Robots.txt

      Eine robots.txt ist eine Steuerungsdatei im Stammverzeichnis der Website, die aus reinem Text besteht und Anweisungen für verschiedene Bots, sogenannte Crawler enthält, welche Urls und Verzeichnisse sie crawlen dürfen und welche nicht. Die meisten Bots halten sich an diese Anweisungen (u.a. der Googlebot). Beachten Sie jedoch, dass ein Crawler nicht verplfichtet ist, sich an die Anweisungen der robots.txt zu halten.


      Robots.txt

      Nr.robots.txtvorhandenSitemap verlinktHandlungsbedarf

      KennzahlAnzahl

      Inhalt der Robots.txt

      
      	

      Sitemap XML

      In einer Sitemap XML werden alle auf einer Website enthaltenen Unterseiten-Urls in maschinenlesbarer strukturierter XML Form für Suchmaschinen-Bots bereitsgestellt. Dies macht es den Suchmaschinen leichter, schnell neu hinzugefügte Seiten zu erkennen und spart Ressourcen und Traffic auf Seiten des Suchmaschinen-Betreibers wie auf Anbieter-Seite. Das Vorhandensein einer XML Sitemap sorgt dafür, dass neue Inhalte schneller indexiert werden und die Suchmaschinen-Crawler häufiger vorbeikommen um die Website auf Änderungen zu überprüfen.


      Sitemap

      Nr.Sitemapin Robots.txt verlinktEnthaltene UrlsBewertungHandlungsbedarf

      Sub-Sitemaps

      Nr.SitemapEnthaltene UrlsLast modifiedBewertungHandlungsbedarf

      Sitemap Urls

      Nr.UrlLast modifiedChange frequencyPriorityEnthalten in SitemapBewertungHandlungsbedarf

      Gefundene Urls die nicht in Sitemap eingetragen sind

      UrlBewertungHandlungsbedarf

      SEO-Übersicht (Multipage)

      Das Wichtigste zuerst: Anzahl, Verteilung und Prioritäten.

      Analysiert0
      Nicht analysiert0
      0 Fehler
      0 Warnungen
      0 Validiert
      Alle Unterseiten analysieren (Premium)

      Gruppiert nach Thema. Klicke auf ein Thema, um betroffene URLs zu sehen.


      Fehler

      AnalyseBewertungUrlBeschreibungHandlungsbedarf

      Warnungen

      AnalyseBewertungUrlBeschreibungHandlungsbedarf

      Validiert

      AnalyseBewertungUrlBeschreibungHandlungsbedarf

      Spam

      Hier finden Sie eine Auflistung von Unterseiten, auf denen potentielle Spamwörter gefunden wurden. Spamwörter können bspw. in Foren oder in Bereichen mit Benutzer-Kommentaren auftreten, aber auch, wenn eine Website gehackt wurde. Die Analyse prüft den Content Ihrer Website mit einer umfangreichen Liste diverser Spamwörter.


      0Seiten mit potentiellen Spam
      0Seiten ohne Spamverdacht
      0Nicht analysierte Urls
      Nr.UrlFrei von potentiellem SpamGefundene SpamwörterBewertungHandlungsbedarf

      Lesbarkeit

      Die Lesbarkeit von Texten im Internet beeinflusst die Verweildauer auf Webseiten. Sie erhöht die Usability und überhaupt die Nützlichkeit einer Seite und ist daher auch für die SEO interessant: Die Verweildauer ist ein Rankingfaktor, den Google-Algorithmen direkt messen. Die Analyse wendet verschiedene Berechnungsmethoden an um die Lesbarkeit anhand der verschiedenen Algorithmen auszugeben. mehr erfahren


      Nr.UrlFlesch-Wert (Kincaid)Gunning Fog IndexColeman Liau IndexSMOG IndexSpache Readability Score


      Lesbarkeitsindex nach Flesch

      Flesch-WertLesbarkeitVerständlich für
      0-30sehr schwerAkademiker
      30-50schwer
      50-60mittelschwer
      60-70mittel13-15 jährige Schüler
      70-80mittelleicht
      80-90leicht
      90-100sehr leicht11-jährige Schüler

      Text Statistiken

      Auf dieser Seite erhalten Sie Informationen darüber, wie viele Wörter und Sätze der Content der jeweiligen Unterseite der Website umfasst. Ein Blog-Beitrag sollte mindestens 300 Wörter enthalten. Posts mit mehr als 1.000 Wörtern haben eine höhere Chance auf eine gute Rankingposition.


      Nr.UrlAnzahl WörterAnzahl SätzeØ Wörter pro Satz

      Sprache

      Die für den Content verwendete Sprache sollte zur Sprache in den sprechenden Links sowie zum HTML Language Attribut passen, damit die Inhalte optimal von Suchmaschinen indexiert werden können.


      0Erkannte Sprache stimmt nicht mit Language Key überein
      0Erkannte Sprache stimmt mit Language Key überein
      0Nicht analysierte Urls
      Nr.UrlErkannte Sprache der InhalteHTML Language KeyBewertungHandlungsbedarf

      Content only

      Der reine Content einer Webseite, so wie Suchmaschinen Crawler ihn sehen. In dieser Analyse werden alle HTML Codes entfernt und es bleibt nur der reine Content der Webseite übrig.


      Nr.UrlPlain Content

      Rich Snippets

      Die Mikroformate sind dafür vorgesehen, die Bedeutung von Inhalten jeglicher Art dem Web verständlich zu machen, ohne dabei den eigentlichen Inhalt zu ändern. Sie sind ein wichtiges SEO-Instrument, da hiermit zusätzliche Informationen in Form von kleinen Inhaltsauszügen (Rich Snippets) für die Ergebnisseiten der Suchmaschinen (SERP) gekennzeichnet werden. mehr erfahren


      Nr.UrlGefundene Rich Snippets

      Vorkommen HTML Tags und deren Häufigkeit

      In dieser Auflistung wird Ihnen die Verwendung und die Häufigkeit wichtiger HTML Tags aufgezeigt. Dies ist beispielsweise sinnvoll, um Strukturfehler schnell erkennen zu können und in den SEO-Optimierungen das letzte herauskitzeln zu können.


      Nr.Urltableimgnavpformtextareainputbuttonhrstylescriptbrselecth1h2h3h4h5h6ulliastrongi

      Veraltete Tags

      Bestimmte HTML Tags sind veraltet und sollten in einer zeitgemäßen Website nicht mehr verwendet werden. Diese Analyse prüft die Unterseiten der analysierten Website auf folgende deprecated HTML Tags: applet, basefont, center, dir, embed, font, s, strike, u, xmp


      Nr.UrlDeprecated Tags

      Spaghetti Codes

      Mit dem Begriff „Spaghetti Code“ wird im allgemeinen Software-Quellcode bezeichnet, der chaotisch bzw. unübersichtlich geschrieben wurde. Dabei handelt es sich nicht automatisch um den gesamten Quellcode, sondern es kann durchaus auch nur ein Teil der Software betroffen sein. Das eigentliche Problem besteht darin, dass solch ein Code schwierig zu pflegen und zu warten ist. Im Bereich der Web-Entwicklung ist hiermit vor allem das verwenden von Inline-Styles gemeint. Besser ist es, CSS Styles strukturiert in CSS/SASS/LESS Dateien vorzuhalten. mehr erfahren


      Nr.UrlSpaghetti Code

      Grundstruktur

      Auf dieser Seite werden die Ergebnisse der Analyse der Grundstruktur der analysierten Website ausgegeben.


      Nr.UrlDoctypeZeichenkodierungverwendetes CMS

      Favicons

      Das Favicon (=Favourite Icon) dient grundsätzlich dazu, eine Webseite mit einem kleinen Icon wiedererkennbar zu machen. Häufig wird hierzu das Logo der Webseite verwendet. mehr erfahren


      Nr.UrlFaviconMobile Touch Icon

      Server

      Hier werdden Ihnen Informationen über den zur analysierten Website gehörigen Server angezeigt.


      KennzahlErgebnis

      Nameserver

      TypeHostTTLTarget

      Mailserver

      Mailserver

      Whois

      Whois-Daten zeigen Kontaktdaten über den Domain-Inhaber oder den administrativen Ansprechpartner. Sie waren zu einer registrierten Domain bis zum 25. Mai 2018 öffentlich zugänglich. Mit der Anwendung der Datenschutz-Grundverordnung (DSGVO) haben fast alle Vergabestellen und Registrare die öffentlich einsehbaren Informationen zu einer Domain reduziert. Heute ist es für die meisten Domain-Endungen nicht mehr möglich, ohne einen begründeten Anlass die persönlichen Daten von Domaininhabern abzufragen.


      		Analysiere...
      	

      JavaScript Fehler

      In dieser Analyse werden Ihnen JavaScript Fehler aufgelistet, die beim Aufruf einer Webseite vom Browser erkannt werden. JavaScript Fehler können zu Fehlern bei der Ausführung einer Website und dem auf der Webseite ausgeführten JavaScript führen.


      Nr.UrlBrowser JavaScript Fehler

      Open Graph

      Die Open-Graph-Metadaten dienen dazu, auf Social Media Plattformen die Vorschau eines geteilten Artikels festzulegen. mehr erfahren


      Nr.UrlOG TitleOG TypeOG UrlOG ImageBewertungHandlungsbedarf

      Load times

      Ladezeiten der Webseiten wie er beim Aufruf über einen herkömmlichen Browser auftritt. Diese Seitenreport Analyse wird über einen Browser gesteuert, der auch JavaScript interpretiert.


      Nr.UrlPage Load TimeFully Loaded TimeFirst Paint TimeFirst Visual Change TimeLast Visual Change TimeFirst Contentful Paint TimeLargest Contentful Paint Time

      Datentransfer

      Aktueller Datentransfer der einzelnen Webseiten, analysiert über einen Browser mit unterstütztem JavaScript. Dadurch werden von Seitenreport auch Requests erkannt, die beispielsweise per JavaScript ausggeführt werden (bspw. AJAX oder Lazy Loading Implementierungen).


      Nr.UrlRequestsTraffic gesamtHTMLCSSJavaScriptImagesFontSVGJSONPlainThird Party

      Assets

      tbd



      HTML

      Nr.Urlintern/externTypeCache TimeSize

      CSS

      Nr.Urlintern/externTypeCache TimeSize

      JavaScript

      Nr.Urlintern/externTypeCache TimeSize

      Font

      Nr.Urlintern/externTypeCache TimeSize

      JSON

      Nr.Urlintern/externTypeCache TimeSize

      Plain

      Nr.Urlintern/externTypeCache TimeSize

      ResponseCodes

      Hier werden Ihnen die Anzahl der jeweiligen StatusCodes über alle auf der jeweilig analysierten Internetseite verwendeten Ressourcen angezeigt. Zur Ermittlung der geladenen Ressourcen wird ein nativer Browser mit JavaScript Unterstützung verwendet, so dass bspw. auch AJAX Requests aufgelöst werden.


      Nr.Url200301302303307401403404410500502504

      Domains und Ladezeiten

      Auflistung der Domains, von denen die jeweiligen Webseiten Inhalte laden. Zur Ermittlung der geladenen Ressourcen wird ein nativer Browser mit JavaScript Unterstützung verwendet, so dass bspw. auch AJAX Requests aufgelöst werden.


      Nr.DomainRequestsLadezeit gesamtTime blockedTime DNSTime ConnectTime SendTime Wait

      Einsparpotentiale

      Auf dieser Analyse-Seite erhalten Sie Informationen darüber, auf welchen Seiten überflüssiges CSS oder überflüssiges JavaScript eingespart werden kann und wie groß das Einsparungspotential auf den jeweiligen Seiten ist.


      Nr.UrlCSS minifizierenJavaScript minifizierenUnused CSS RulesUnused JavaScriptModerne Bild-Formate

      Screenshots

      Auf dieser Analyse-Seite werden Ihnen Screenshots der jeweiligen zur analysierten Website gehörigen Urls angezeigt.


      Nr.UrlSeite vollständig geladen

      Barrierefreiheit

      Auf dieser Analyse-Seite werden Ihnen die Ergebnisse der Barrierefreiheits-Prüfung der Unterseiten nach WCAG 2.1 angezeigt. Gute Werte im Bereich der Barrierearmut sorgen dafür, dass die Website von Menschen mit Behinderungen, bspw. einer Sehschwäche bestmöglich nutzbar ist und so wenig Barrieren wie möglich beim Zugriff bietet. Eine hohe Barrierearmut ist zudem sinnvoll, damit die Website auf allen Endgeräten fehlerfrei dargestellt wird.


      Nr.UrlFehler gesamtFehler Typenkritischernstmäßiggeringerbestandennicht anwendbar

      Barrierefreiheit Detailinformationen

      Auf dieser Analyse-Seite werden Ihnen die Ergebnisse der Barrierefreiheits-Prüfung der Unterseiten nach WCAG 2.1 angezeigt. Gute Werte im Bereich der Barrierearmut sorgen dafür, dass die Website von Menschen mit Behinderungen, bspw. einer Sehschwäche bestmöglich nutzbar ist und so wenig Barrieren wie möglich beim Zugriff bietet. Eine hohe Barrierearmut ist zudem sinnvoll, damit die Website auf allen Endgeräten fehlerfrei dargestellt wird.


      Fehler
      Nr.ZeileSpalteFehlerBewertungHandlungsbedarf

      Content Hash

      Diese Analyse erzeugt einen Hash über den gesamten Content der analysierten Webseite. Über den erzeugten Hash können Sie beispielsweise erkennen, ob die textuellen Inhalte auf einer Url verändert worden sind, was auf eine Manipulation hinweisen kann, sofern Sie an der Seite nichts verändert haben.


      Nr.UrlHashBewertungHandlungsbedarf

      Plaintext E-Mail-Adressen

      E-Mail-Adressen sollten im Quellcode immer nur verschlüsselt auftreten, da Crawler die E-Mail-Adressen sonst auslesen und an diese Spam verschicken können. Für die Verschlüsselung der E-Mail-Adressen eignen sich verschiedene Methoden, u.a. JavaScript Funktionen.


      Nr.UrlAnzahlUnverschlüsselte E-Mail-AdressenBewertungHandlungsbedarf

      Security Header

      Durch das Senden von Security-Headern wird die Sicherheit der Website erhöht.


      Nr.UrlContent-Security-PolicyX-Frame-OptionsX-Content-Type-OptionsReferrer-PolicyFeature-PolicyBewertungHandlungsbedarf

      Domain Blacklisted

      Prüfung, ob die Domain in einer Blacklist eingetragen ist. Einträge in Blacklisten können zu erheblichen Verschlechterungen der Suchmaschinen-Platzierungen führen.


      Ergebnis

      Web Of Trust

      Reputation der Website bei Web of Trust.


      Ergebnis