Die Google Webmaster Guidelines sind allgemeine Richtlinien für die Betreiber von Webseiten, deren Einhaltung es den Googlealgorithmen erleichtert, eine Webseite zu finden, zu indexieren und zu platzieren. Ein Verstoß gegen diese Richtlinien kann zu einer Penalty (Strafe) führen. Welche Verstöße das sein können, geht aus den Qualitätsrichtlinien hervor, die Bestandteil der Webmasterrichtlinien sind. Strafen können ein Delisting (Entfernung der Webseite aus dem Google-Index) oder ein Herabsetzen im Rang sein.
Um die Googlebots beim Auffinden der eigenen Webseite inklusive ihrer Unterseiten zu unterstützen, sollen Webmaster sicherstellen, dass die Unterseiten von der Hauptseite per Link zu erreichen sind (Anlegen einer Sitemap), während auf die Hauptseite idealerweise ein Link von mindestens einer Landingpage verweist. Es kann sich um Textlinks oder Bilderlinks mit ALT-Attribut handeln.
Auf einer Webseite sollen aber nicht zu viele Links auftauchen. In den Webmasterrichtlinien wird von einem „vernünftigen Maß“ gesprochen. Auch um die Funktionsweise der Webserver geht es in den Webmasterrichtlinien. Sie müssen die Crawler unterstützen. Unter anderem sollen Webmaster das Crawling-Budget mit robots.txt unterstützen. In den Webmasterrichtlinien wird auch erwähnt, dass Webmaster beim Google-Support eine neue Webseite melden können, damit die Crawler sie schneller finden.
Das ist aber nicht unbedingt nötig: Sie wird auch von selbst gefunden, nur dauert es möglicherweise einige Stunden länger. Des Weiteren verweisen die Webmasterrichtlinien auf das Verwenden von Keywords, das bekanntermaßen ein Kernelement der SEO ist, auf die klar strukturierte Seitenhierarchie und auf Best Practices für Videos, Bilder und strukturierte Daten. Auch um den Einsatz von Content-Management-Systemen geht es: Sie sollen Seiten und Links erstellen, welche die Googlebots crawlen können.
Webmaster sollen grundsätzlich auch das Crawlen von CSS- und JavaScript-Dateien zulassen, welche die Nutzer sehen können. Von der Verwendung von URL-Parametern und Sitzungs-IDs, welche den Weg von Crawlern durch die Seite aufzeichnen, raten die Webmasterrichtlinien ab. Solche Tools werden manchmal für das Nutzertracking verwendet, doch das Zugriffsmuster der Googlebots unterscheidet sich vom Nutzerverhalten grundsätzlich, sodass solche Tools eine unvollständige Indexierung der Seite bewirken können.
Werbelinks auf der Seite sollen für die Crawler mit rel="sponsored" oder rel="nofollow" gekennzeichnet werden, damit ihnen die Bots nicht folgen. Ansonsten würde das Ranking der Seite leiden.
Damit die Besucher eine Seite gut nutzen können, soll diese Namen und wichtige Inhalte stets als Text, nicht als Bild anzeigen. Von der Seite abgehende Links sollen immer mit gültigem HTML auf Live-Webseiten verweisen. Die Ladezeiten sollen so kurz wie möglich ausfallen. Als Test-Tools empfehlen die Webmasterrichtlinien Webpagetest.org und PageSpeed Insights.
Der Einsatz von Responsive Webdesign, welches zum geräteangepassten Öffnen der Webseite führt, wird ausdrücklich empfohlen. Auch soll die Seite in allen Browsern richtig dargestellt werden. Die Webmasterrichtlinien empfehlen den Verbindungsaufbau via HTTPS (nicht nur HTTP), um sichere Verbindungen zu schaffen. Auch die Barrierefreiheit von Webseiten legen sie den Webmastern dringend ans Herz.
Die Qualitätsrichtlinien nennen Grundprinzipien der Webseitengestaltung und die häufigsten Manipulationsversuche, die zu Penalties führen können. Ausdrücklich erwähnen sie, dass es weitere irreführende Praktiken geben kann, die zwar aktuell nicht in den Webmasterrichtlinien aufgeführt werden, jedoch genauso zu Strafen führen können. Gleichzeitig verweisen die Guidelines darauf, dass bei ihrer Einhaltung Webseiten ein besseres Ranking erzielen. Auch werden Webmaster aufgefordert, Verstöße, die sie auf anderen Webseiten entdecken, an den Google-Support zu melden. Grundprinzipien der Qualitätsrichtlinien sind:
Wer sich allein an diese Grundprinzipien der Google Webmaster Guidelines hält, unterstützt schon die SEO seiner Webseite. Jedoch listen die Webmasterrichtlinien auch ganz konkret verbotene Maßnahmen auf. Zu diesen gehören:
Auch auf einige Best Practices gehen die Webmasterrichtlinien ein. So sollen Webmaster ihre Seiten grundsätzlich pflegen, tote Links entfernen, die Seite auf mögliches Hacking überprüfen, gehackte Inhalte umgehend entfernen und auch nutzergenerierten Spam unterbinden. Dieser kann beispielsweise in Seiten mit einer Kommentarfunktion oder in Foren auftauchen. Dort hinterlassen scheinbar harmlose User ihren Text (Bewertung, Kommentar etc.) allein zu dem Zweck, Links auf ihre eigene Webseite unterzubringen.
Es handelt sich offenkundig um den Versuch, eine andere Webseite zum Zweck der OffPage-SEO zu missbrauchen. Die betroffene Seite wird daraufhin von den Googlebots als Spam-Versender erkannt, was ihr extrem schadet.
Die Webmasterrichtlinien gehen am Schluss auch auf mögliche Strafen ein. Diese erfolgen bekanntermaßen auch algorithmisch, also als automatisiertes Herabsetzen in den SERPs (den organischen Suchergebnissen), wenn die Googlebots einen Richtlinienverstoß erkannt haben, es gibt aber auch manuelle Strafen. Webmaster können in jedem Fall die Aufhebung einer Penalty beantragen, müssen aber nachweisen, dass sie alle Mängel abgestellt haben und sich künftig an die Webmasterrichtlinien halten.