Google Webmaster Guidelines

Die Google Webmaster Guidelines sind allgemeine Richtlinien für die Betreiber von Webseiten, deren Einhaltung es den Googlealgorithmen erleichtert, eine Webseite zu finden, zu indexieren und zu platzieren. Ein Verstoß gegen diese Richtlinien kann zu einer Penalty (Strafe) führen. Welche Verstöße das sein können, geht aus den Qualitätsrichtlinien hervor, die Bestandteil der Webmasterrichtlinien sind. Strafen können ein Delisting (Entfernung der Webseite aus dem Google-Index) oder ein Herabsetzen im Rang sein.

Allgemeine Webmasterrichtlinien für die Googlebots

Um die Googlebots beim Auffinden der eigenen Webseite inklusive ihrer Unterseiten zu unterstützen, sollen Webmaster sicherstellen, dass die Unterseiten von der Hauptseite per Link zu erreichen sind (Anlegen einer Sitemap), während auf die Hauptseite idealerweise ein Link von mindestens einer Landingpage verweist. Es kann sich um Textlinks oder Bilderlinks mit ALT-Attribut handeln.

Auf einer Webseite sollen aber nicht zu viele Links auftauchen. In den Webmasterrichtlinien wird von einem „vernünftigen Maß“ gesprochen. Auch um die Funktionsweise der Webserver geht es in den Webmasterrichtlinien. Sie müssen die Crawler unterstützen. Unter anderem sollen Webmaster das Crawling-Budget mit robots.txt unterstützen. In den Webmasterrichtlinien wird auch erwähnt, dass Webmaster beim Google-Support eine neue Webseite melden können, damit die Crawler sie schneller finden.

Das ist aber nicht unbedingt nötig: Sie wird auch von selbst gefunden, nur dauert es möglicherweise einige Stunden länger. Des Weiteren verweisen die Webmasterrichtlinien auf das Verwenden von Keywords, das bekanntermaßen ein Kernelement der SEO ist, auf die klar strukturierte Seitenhierarchie und auf Best Practices für Videos, Bilder und strukturierte Daten. Auch um den Einsatz von Content-Management-Systemen geht es: Sie sollen Seiten und Links erstellen, welche die Googlebots crawlen können.

Webmaster sollen grundsätzlich auch das Crawlen von CSS- und JavaScript-Dateien zulassen, welche die Nutzer sehen können. Von der Verwendung von URL-Parametern und Sitzungs-IDs, welche den Weg von Crawlern durch die Seite aufzeichnen, raten die Webmasterrichtlinien ab. Solche Tools werden manchmal für das Nutzertracking verwendet, doch das Zugriffsmuster der Googlebots unterscheidet sich vom Nutzerverhalten grundsätzlich, sodass solche Tools eine unvollständige Indexierung der Seite bewirken können.

Werbelinks auf der Seite sollen für die Crawler mit rel="sponsored" oder rel="nofollow" gekennzeichnet werden, damit ihnen die Bots nicht folgen. Ansonsten würde das Ranking der Seite leiden.

Google Webmaster Guidelines für die Webseitenbesucher

Damit die Besucher eine Seite gut nutzen können, soll diese Namen und wichtige Inhalte stets als Text, nicht als Bild anzeigen. Von der Seite abgehende Links sollen immer mit gültigem HTML auf Live-Webseiten verweisen. Die Ladezeiten sollen so kurz wie möglich ausfallen. Als Test-Tools empfehlen die Webmasterrichtlinien Webpagetest.org und PageSpeed Insights.

Der Einsatz von Responsive Webdesign, welches zum geräteangepassten Öffnen der Webseite führt, wird ausdrücklich empfohlen. Auch soll die Seite in allen Browsern richtig dargestellt werden. Die Webmasterrichtlinien empfehlen den Verbindungsaufbau via HTTPS (nicht nur HTTP), um sichere Verbindungen zu schaffen. Auch die Barrierefreiheit von Webseiten legen sie den Webmastern dringend ans Herz.

Qualitätsrichtlinien für Webmaster

Die Qualitätsrichtlinien nennen Grundprinzipien der Webseitengestaltung und die häufigsten Manipulationsversuche, die zu Penalties führen können. Ausdrücklich erwähnen sie, dass es weitere irreführende Praktiken geben kann, die zwar aktuell nicht in den Webmasterrichtlinien aufgeführt werden, jedoch genauso zu Strafen führen können. Gleichzeitig verweisen die Guidelines darauf, dass bei ihrer Einhaltung Webseiten ein besseres Ranking erzielen. Auch werden Webmaster aufgefordert, Verstöße, die sie auf anderen Webseiten entdecken, an den Google-Support zu melden. Grundprinzipien der Qualitätsrichtlinien sind:

  • Eine Webseite soll immer für Nutzer und nicht primär für die Suchmaschine erstellt werden.
  • Webmaster sollen niemals ihre Nutzer täuschen.
  • Sie sollen alle Tricks für ein besseres Ranking unterlassen. Als Indikator für das Feststellen einer unseriösen Maßnahme empfehlen die Qualitätsrichtlinien, sich zu fragen, wie man diesen Trick bei einer fremden Webseite bewerten würde. Auch sollen sich Webmaster immer fragen, ob sie einen Taschenspielertrick auf ihrer Webseite anwenden würden, wenn es keine Suchmaschinen mit ihren Algorithmen gäbe.
  • Webmaster sollen immer von der Überlegung ausgehen, was ihre Seite wertvoll für die Nutzer machen kann.

Wer sich allein an diese Grundprinzipien der Google Webmaster Guidelines hält, unterstützt schon die SEO seiner Webseite. Jedoch listen die Webmasterrichtlinien auch ganz konkret verbotene Maßnahmen auf. Zu diesen gehören:

  • Implementierung automatisch generierter Inhalte
  • Linkkauf oder Teilnahme an Linktauschprogrammen
  • Erstellen von sinnfreien Seiten allein zu Zwecken der SEO
  • Cloaking
  • irreführende Weiterleitungen
  • Hidden Content (verborgener Text oder verborgene Links)
  • Duplicate Content
  • Doorway Pages (Brückenseiten)
  • Affiliate-Marketing ohne ausreichenden Mehrwert
  • Schadsoftware auf der Seite
  • irrelevante Keywords
  • Markup für Strukturdaten
  • automatisierte Googleanfragen

Auch auf einige Best Practices gehen die Webmasterrichtlinien ein. So sollen Webmaster ihre Seiten grundsätzlich pflegen, tote Links entfernen, die Seite auf mögliches Hacking überprüfen, gehackte Inhalte umgehend entfernen und auch nutzergenerierten Spam unterbinden. Dieser kann beispielsweise in Seiten mit einer Kommentarfunktion oder in Foren auftauchen. Dort hinterlassen scheinbar harmlose User ihren Text (Bewertung, Kommentar etc.) allein zu dem Zweck, Links auf ihre eigene Webseite unterzubringen.

Es handelt sich offenkundig um den Versuch, eine andere Webseite zum Zweck der OffPage-SEO zu missbrauchen. Die betroffene Seite wird daraufhin von den Googlebots als Spam-Versender erkannt, was ihr extrem schadet.

Penalties und ihre Aufhebung

Die Webmasterrichtlinien gehen am Schluss auch auf mögliche Strafen ein. Diese erfolgen bekanntermaßen auch algorithmisch, also als automatisiertes Herabsetzen in den SERPs (den organischen Suchergebnissen), wenn die Googlebots einen Richtlinienverstoß erkannt haben, es gibt aber auch manuelle Strafen. Webmaster können in jedem Fall die Aufhebung einer Penalty beantragen, müssen aber nachweisen, dass sie alle Mängel abgestellt haben und sich künftig an die Webmasterrichtlinien halten.

zurück zur Übersichtsseite