Kaheti schrieb:
Aber: warum sollte z.B. Google auf den Zug der sich da Validation, Usability, SEO und was es da sonst nicht noch alles gibt, NICHT mit aufspringen ? Vielleicht satteln die das Pferd auch von hinten ...sprich: sog. "Panda Update"
Weil Webseiten von Menschen für Menschen gemacht werden. Der Mensch macht nun mal Fehler und mit denen muss die Maschine, in diesem Fall der BOT, umgehen können. Ein nicht geschlossener DIV-Container ist nicht valide, doch es stört den BOT nicht weiter, er merkt schon, dass es nicht weiter geht.
Schlechter schneiden hingegen Seiten ab, welche fatalere Fehler eingebaut haben oder sich dem Black-SEO bedienen (weiße Schrift auf weißen Grund). Kann der BOT die Seite nicht komplett einscannen oder kann er das ermittelte Ergebnis nicht sauber interpretieren, dann schneidet die Seite nun mal schlechter ab. Das ist ja auch korrekt so, denn was hätte diese Seite ganz vorn zu suchen?
Nun kommt aber noch der andere Faktor Mensch hinzu und das ist der Besucher. Fallen die Besucherzahlen gering aus, so bleibt die schlechtere SERP-Position. Gelangen hingegen viele Besucher auf diese Seite, so steigen die Positionen deutlich an.
Das Panda-Update wird sich hauptsächlich mit der Spam-Bekämpfung beschäftigen respektive wird ein großangelegter Frühjahrsputz die SERP gründlich aufräumen. Seiten, welche durch Linkfarmen auf die forderen Plätze gebracht wurden, werden zukünftig deutlich schlechter positioniert werden.
Kaheti schrieb:
Backlinks haben natürlich jetzt mit dieser Sache nix zu tun aber: sind es nicht reine Kommerzseiten die sich einen Dreck um Validation scheren, die durch dieses Update nach hinten rausfallen werden und andere (vielleicht validere Seiten) nach vorne bringt ?
Nein, Nein, Ja und Nein.
Zunächst geht es einmal um das Keyword. Auf einer Seite können sich mehrere Suchbegriffe tummeln und jeder hat eine eigene Position in den SERP. Daher darf man keine Vermischung anstellen und sich immer bewusst sein, dass mehrere Faktoren einen Einfluss auf die SERP haben werden.
Die von Dir angesprochenen Kommerzseiten werden nur dann rausfallen oder nach hinten durchgereicht, wenn die Besucher ausbleiben oder es erkennbar ist, dass eine kleine Linkfarm zu dem besseren Ergebnis führte. (An dieser Stelle möchte ich einen Test mit dem Keyword Kommerzseite anstellen und schauen, wo sich Seitenreport einreihen wird.)
Was eher interessant sein wird, ist eine zielführende Ergebnisliste, denn diese ist derzeit oftmals nicht gegeben. Foren schneiden durch Aktualität und höhere Keywordübereinstimmung meist besser ab, doch ist es nicht Sinn und Zweck, dass man sich nach einer Suche noch eine halbe Stunde durch Post\'s kämpfen muss, um dann zu erkennen, dass kein brauchbares Ergebnis vorliegt und eine erneute Suche gestartet werden muss. Führte hingegen das gelieferte Ergebnis zum Erfolg, so darf der Foreneintrag den forderen Platz in den SERP behalten. Und genau das wird respektive soll das Panda-Update umsetzen. Google hat offensichtlich einen neuen Suchalgorithmus entwickelt, der deutlich bessere Ergebnisse liefern kann.
Von daher nochmal. Valider Code ist mit Sicherheit EIN Faktor für die Suchergebnisposition, aber nur bei fatalen Fehlern entscheidend.
Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com
Beitrag erstellen
EinloggenKostenlos registrieren