OnPage-Optimierung

Die OnPage-Optimierung ist derjenige Teil der SEO, der sich auf Optimierungsmaßnahmen auf einer Webseite bezieht. Der andere Teil ist die OffPage-Optimierung, bei der es um die Optimierung von außen per Backlinks geht.

Worum geht es bei der OnPage-Optimierung?

Optimiert werden auf der Webseite zentrale technische, inhaltliche und strukturelle Bestandteile. Die beiden Ziele sind ein besseres Ranking bei Google & Co. sowie eine verbesserte Nutzererfahrung. Beides hängt miteinander zusammen. Bezahlte Werbung in Suchmaschinen benötigt ebenfalls eine OnPage-Optimierung. Sie rankt dadurch besser, was die Anzeigenkosten senkt, die als CpC (Cost per Click) bezahlt werden.

Diesen Klickpreis können Werbetreibende selbst festlegen und damit beeinflussen, wie weit vorn ihre Anzeige in den Suchergebnissen gezeigt wird. Der Klickpreis ist es aber nicht allein. Wenn zwei Wettbewerber zur selben Produktgruppe Anzeigen in einer Suchmaschine schalten, in etwa den gleichen Klickpreis bieten und einer von beiden seine Anzeige onpage besser optimiert hat, erscheint diese weiter vorn.

Zwei grundsätzliche Teilbereiche der OnPage-Optimierung

Grundsätzlich setzt sich die OnPage-Optimierung aus den beiden Teilbereichen Content und Technik zusammen. Die Webseite soll technisch einwandfrei aufgesetzt werden und schnell laden. Diese Technik und Performance führen dazu, dass die Crawler von Google und anderen Suchmaschinen die Seite schnell finden. Außerdem soll sie dem Nutzer einzigartigen und hochwertigen Content bieten, der die wichtigen Schlüsselbegriffe (Keywords) enthält, nach denen bei Google & Co. gesucht wird.

OnPage-Optimierung als erste Maßnahme der SEO

Da eine Seite zuerst entwickelt, dann ins Netz gestellt und nachfolgend auch mit Backlinks optimiert wird, geht die OnPage-Optimierung der OffPage-Optimierung voraus. Letztere ist allerdings beim Erstellen der Seite schon einzuplanen. Es ist wenig effizient, auf eine onpage schlecht optimierte Seite viele Backlinks zu schicken. Wenn nach einer guten OnPage-Optimierung die Seite im Netz steht und die OffPage-Optimierung beginnt, ist gleichzeitig ein permanentes Monitoring erforderlich, um die gesamte SEO so effektiv wie möglich zu gestalten.

Die inhaltliche OnPage-Optimierung kann auch fortgesetzt werden, wenn die Seite online ist. Mit einem guten Content-Management-System lassen sich Inhalte ständig editieren und erweitern. Technisch ist allerdings an der Seite im Nachhinein nur noch wenig zu ändern.

Einzelne Punkte der OnPage-Optimierung

Die nachfolgend genannten Punkte sind für die OnPage-Optimierung zentral. Die Aufzählung erhebt allerdings keinen Anspruch auf Vollständigkeit. Es kann durchaus noch mehr relevante Faktoren geben, die auch von der Thematik und Struktur der Seite abhängen.

  • Webseitenstruktur und URL: Die Seite sollte eine optimale, von den Crawlern zu zu erkennende und gut zu indexierende Struktur mit Sitemap und optimaler interner Verlinkung haben. Die URL kann sprechend sein, also das Hauptkeyword enthalten bzw. in Form eines Longtail-Keywords aufgebaut sein („autohaus-mercedes-in-berlin.de“).
  • Klicktiefe/Verzeichnistiefe: Idealerweise weist die Webseite eine eher geringe Klicktiefe auf. Das bedeutet: Der User kommt mit einem Klick zur Unterseite. Auch dem Crawler wird damit das Indexieren erleichtert.
  • Title Tag: Dieses Tag ist der Seitentitel, der in den Suchergebnissen als Search-Snippet erscheint. Es muss das Hauptkeyword als Titel enthalten.
  • Meta Description: Diese Hauptbeschreibung ist zwar schon länger kein Rankingfaktor mehr, aber für die User wichtig. Auch sie ist in kurzer Form in den Suchergebnissen sichtbar.
  • Canonical Tag: Dieses zeigt bei vielen Unterseiten, welche URL als kanonisch (bevorzugt) zu betrachten ist, falls sich Inhalte und URLs ähneln.
  • Ladezeit: Die Ladezeit einer Webseite lässt sich messen, auch die Googlebots sind offenkundig dazu imstande. Es gilt: Je schneller sie lädt, desto nutzerfreundlich ist sie beschaffen, was durch ein besseres Ranking belohnt wird.
  • Responsive Webdesign: Die Seite sollte sich für die beste Usibility angepasst an das Endgerät öffnen, also auf einem Smartphone anders als auf dem PC-Bildschirm oder dem Tablet. Erreicht wird das durch Media Queries, welche das Endgerät erkennen.
  • Content: Die Inhalte müssen hochwertig, einzigartig und strukturiert sein. Strukturen lassen sich durch Überschriften und Listen im Text sowie den Einsatz verschiedener Medien (Text, Bild, Video, Grafik) erreichen. Innerhalb des Contents sollen sich die relevanten Keywords in der empfohlenen Density (Dichte) von ~3 – 4 % finden. Es ist sinnvoll, wenigstens einzelne Unterseiten auf nur ein Keyword bzw. Longtail-Keyword zu optimieren. Dieses soll sich bevorzugt in Überschriften sowie am Textanfang und -ende finden, weil Crawler – so eine gängige Theorie – einen Text abschnittsweise sowie von vorn und hinten crawlen. Hochwertiger Content bindet die User und erhöht damit die Verweildauer, was ein Rankingfaktor ist.
  • ALT-Attribut: Bilder und Videos sollen ein ALT-Attribut als Inhaltsbeschreibung erhalten, das der Crawler erkennen kann.
  • Bilder mit Dateinamen: Zusätzlich ist es hilfreich, Bildern einen Dateinamen zu geben, der gut zu crawlen ist.
  • HTML-Code, CSS, Media Queries, JavaScript & Co.: Alle Codes auf der Webseite sollen W3C-konform beschaffen sein. Es gibt immer wieder Optimierer, die das nicht für absolut ausschlaggebend halten, doch in der Praxis hat sich gezeigt, dass Webseiten mit einem sauberen Code besser ranken.
  • Einsatz von robots.txt: Diese Datei unterstützt das Crawling, sie wird ausdrücklich in den Google-Guidelines für Webmaster empfohlen. Sie zeigt dem Crawler, welche Bereiche er durchsuchen soll und welche nicht. Das ist unter anderem nötig, weil manche Unterseiten aus rein inhaltlichen Gründen duplicate content enthalten, den der Crawler nicht finden soll, den aber die User brauchen. Ein Beispiel liefern Webshops, die viele sehr ähnliche Produkte mit dementsprechend ähnlichen Slogans für die Produktbeschreibung verwenden. Es ist auch möglich, die Indexierung von Unterseiten mit dem nofollow-Attribut in der internen Verlinkung zu unterbinden, doch robots.txt gilt inzwischen als die elegantere Lösung.
  • Erreichbarkeit des Servers: Das Problem eines zeitweise nicht erreichbaren Servers ist wenig verbreitet, doch es kommt vor und richtet dann großen Schaden an. Der Vollständigkeit halber sei deshalb darauf hingewiesen, dass zur OnPage-Optimierung auch gehört, die Servererreichbarkeit zu überprüfen. Des Weiteren benötigen Webseiten, auf die stark zugegriffen wird, genügend Bandbreite und generelle Performance vonseiten des Hosters. Dass eine Seite wegen Überlastung nicht mehr erreichbar ist, gilt als GAU der OnPage-Optimierung. Ein negatives Beispiel lieferte mit dem Ausbruch der Corona-Pandemie 2020 und dem Beginn des Homeschoolings der Server für das Mebis-System des bayerischen Kultursministerium. Sein Hosting war (und ist mit Stand Juni 2021 immer noch) für gelegentliche Zugriffe von Pädagogen ausgelegt. Nachdem nun Schüler massenhaft darauf zugriffen, brach das System regelmäßig zusammen. Die Verantwortung dafür trägt der bayerische Kultursminister Prof. Dr. Michael Piazolo, dessen technische Inkompetenz unter den Betroffenen und selbst in den Medien Wut, Verbitterung, Kopfschütteln und Spott auslöst. Warum der bayerische Ministerpräsident Markus Söder (CSU) an ihm festhält, weiß kein Mensch.
  • SSL-Verschlüsselung: Schon länger kennzeichen Suchmaschinen Seiten ohne ausreichende SSL-Verschlüsselung (https://) als unsicher. Sie ist ein Rankingfaktor. Noch besser werden Seiten mit Extended Validation bewertet (grün unterlegte, nicht kopierbare Browserzeile, wie sie Banken und viele Shops verwenden). Für eine Extended Validation muss sich der Webseitenbetreiber gegenüber dem Hoster identifizieren.
zurück zur Übersichtsseite