Hallo Ralph
Ich wüsste schon einige die Steine werfen dürften nach deiner Definition.
Du hast doch auf diesen Artikel hingewiesen. www.prometeo.de/2010/11/matt-cutts-pubcon-pagerank-search/
Wenn diese Punkte in der Liste teilweise keine Kritik an Google sind fresst ich einen Besen. Oder ist nur offizielle Kritik zugelassen?
Im Grunde sagt der eine Punkt aus der Liste doch schon alles. Man soll sich darauf konzentrieren das momentan angestrebte Ziel zu erreichen anstatt den momentanen Zustand auszunutzen.
Das Ziel wird bewusst nicht bekannt gegeben. Der Zustand der momentan existiert weist zuviele Möglichkeiten aus diesen auszunutzen. Menschen sind halt eben erfinderisch.
@Matthias Das ist doch nicht das Problem die Seiten würden weiter vorne auch mit ranken.
Nur auf was habe ich denn hingewiesen das gravierend die Qualität des HTML Quellcode in den Serps nicht berücksichtigt wird. Und das deshalb Google bestimmt höhere Serverkapazitäten braucht. Fliesst dagegen in stärkeren Masse als jetzt diese Qualität mit ein kann Google Kapazitäten auf lange Sicht einsparen. Ich habe jetzt nicht gesagt das dieser Punkt die Hauptrolle bei der Bestimmung der Serps spielen soll.
Google sieht Qualität einer Webseite wohl aber mehr in Punkt Datenübertragungsvolumen. Die Ratschläge von Google die Page Speed gibt selbst wenn man validen Code hat sind eh nur in der Richtung die Datenmenge zu reduzieren. Darauf weist ja auch die Ankündigung hin die Geschwindigkeit mit in die Serps einfliessen zu lassen. Also schont die Server von Google.
Nur wieviele Autoren sind deiner Ansicht nach wirklich hervorragend? 1% wenn es hoch kommt?
Wieviele Webseiten prozentual gesehen würdest du schätzen besitzen validen Quellcode?
Wieviele Webseiten haben überflüssige Bytes?
Gruß
Jörg
Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools
Beitrag erstellen
EinloggenKostenlos registrieren