Bohrmann
Themenersteller
Guru (112 Beiträge)

Backlinkaufbau, wie am besten? (Seite 3)


Bohrmann
Guru (112 Beiträge)
am 15.01.2010, 08:16 Uhr schrieb Bohrmann

MarioFischer schrieb:

Don´t try to find Mario Fischer, he finds You!



1 : 0 für Herrn Fischer


der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 15.01.2010, 08:44 Uhr schrieb der_booker

Bohrmann schrieb:

1 : 0 für Herrn Fischer



So sollte man das nicht im Raum stehen lassen. Programmier sind bestrebt, fehlerfreien Code zu schreiben. Du setzt Dich ja auch nicht auf ein Fahrrad ohne Sattel.

Weiterhin sollte man die Sichtweise auch mal von Google betrachten. Wir dienen nicht Google, sondern Google dient uns! Fakt! Wenn wir also Fehler hinterlassen, versucht Google diese "großzügig" zu übersehen. Natürlich muss eine ordentliche Struktur vorhanden sein. Google versucht, und das um jeden Preis, sich UNSEREN Bedürfnissen anzupassen. Als Beispiel führe ich mal Flash an. Zunächst wurden wir gewarnt kein Flash einzusetzen und heute kann Google bereits Textelemente aus Flash erkennen.

Fazit: Es ist nicht wichtig einen "vollkommenen" Code zu schreiben, doch jeder soll dazu aufgerufen sein, einen fehlerfreien Code zu produzieren. Zumindest ist dies ein Appell an alle Webprogrammierer!

Quelle Flash: www.google.com/support/webmasters/bin/answer.py


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

Bohrmann
Guru (112 Beiträge)
am 15.01.2010, 08:57 Uhr schrieb Bohrmann

ich meinte damit nicht den Beitrag von ihm (richtig / falsch) sondern die Tatsache das er hier gepostet hat. Zu dem Thema kann ich mich gar nicht äußern, habe keine Ahnung davon.
Gruß
Benjamin


willmann
Avatar willmann
TYPO3-Freelancer.
Guru (246 Beiträge)
am 15.01.2010, 09:00 Uhr schrieb willmann

MarioFischer schrieb:

Nicht konforme Seiten ranken etwas besser. Ich nehme an, dass es sich hier um eine Art Kollateralschaden bei der Prüfung/Beurteilung anderer Rankingfaktoren handelt. Es ist also sicher nicht so, dass Google sagt: Wir bevorzugen nicht-val. Dokumente. Das wäre Unsinn. Das ist sicherlich eine Folgeerscheinung eines anderen Kriteriums.



Auch wenn dieser Thread nun völlig aus dem Thema rudert - bei dieser Aussage ("Folgeerscheinung eines anderen Kriteriums") liegt des Pudels Kern:

Auch wenn Tests ergeben, dass nicht valide Seiten etwas besser ranken, muss man sich bewusst machen, dass Google - von einigen wenigen Insidern (und damit meine ich NICHT Herrn Fischer) abgesehen - für alle User eine Blackbox ist. Man gibt Google Futter und hofft, dass Google gnädig ist und die eigene Seite gut rankt.

Es gibt ein paar "Rituale" und Regeln, an die man sich halten sollte, weil Google das so sagt. Und es gibt ein paar weitere, die sich in der Vergangenheit als anscheinend erstrebenswert herausgestellt haben. ABER (und das vergessen viele): Es gibt keine Garantie für irgendwas.

Ich bin in den letzten Jahren sehr gut damit gefahren, möglichst valide Seiten zu erstellen und damit den großen Internetgott Google zu ehren. Eins darf man aber auch nicht vergessen: Man erstellt Seiten für Menschen, die etwas von dieser Seite haben sollen. Google versucht meiner Meinung nach Menschen zu simulieren (und das gar nicht schlecht) und eine Vorauswahl zu treffen - ist diese Seite interessant für den Suchenden oder nicht. Das ist nicht trivial, aber der Erfolg gibt Google da ja durchaus recht.

Ich schreib das nur, weil ich schon wieder Scharen von SR-Usern loslaufen sehe, um mit "kleinen Fehlern" bessere SERPS zu erzielen. Und ich höre schon mein Telefon klingeln und Kunden fragen "Können wir bitte einen kleinen Fehler..." *aaaaah*


Marc Willmann. TYPO3-Freelancer.
http://www.marc-willmann.de

hansen
Foren Moderator
Content Gott (1886 Beiträge)
am 15.01.2010, 09:22 Uhr schrieb hansen

Nachdem nun Google einen eigenen Browser hat und sich nun auch mit der korrekten Darstellung der Webseiten auseinander setzen muss, ist es aber nicht abwegig, dass sich in naher Zukunft ein fehlerfreier Code positiv auf das Ranking auswirkt.

hansen


Nepal Rundreisen

romacron
JDev Xer
Content Gott (1224 Beiträge)
am 15.01.2010, 09:44 Uhr schrieb romacron

Hallo Marc
Da geb ich Dir vollkommen Recht. Es ist eigentlich nicht so schwer ein gutes Grund-Setup zu erstellen. Valider Code ist ein Teil davon, dann eine solide Verwendung der Auszeichnung. Relevanz im Sinne von Backlinks generieren.

Es kommt auf den Fall an.
Ist eine Seite so gut wie valide(wenig Fehler) sollte man nicht bis aufs Milligramm optimieren, da sind gewiss andere Sachen wie zum Beispiel die Ladezeiten im argen. Und schon befinden sich viele Webmaster in der technischen Endlosschleife der Optimierung.

Einfach mal über den Tellerrand schauen nach "Was muss optimiert werden" und nicht "Was kann ich optimieren"

...und nicht verrückt machen "was ich nicht kann, kann ich lernen und muss nicht nur das machen was ich kann"



gelöschter Benutzer
am 15.01.2010, 10:31 Uhr schrieb

hansen schrieb:

Nachdem nun Google einen eigenen Browser hat und sich nun auch mit der korrekten Darstellung der Webseiten auseinander setzen muss, ist es aber nicht abwegig, dass sich in naher Zukunft ein fehlerfreier Code positiv auf das Ranking auswirkt.

hansen



@Prof.
Ich verstehe nicht warum Webseiten besser ranken sollen, wenn der Code nicht valide ist - Zitat:

MarioFischer schrieb:

Es ist also sicher nicht so, dass Google sagt: Wir bevorzugen nicht-val. Dokumente. Das wäre Unsinn. Das ist sicherlich eine Folgeerscheinung eines anderen Kriteriums.


Wäre ja ein Widerspruch!

Vielmehr ist es doch ein Zufall, dass die Seiten mit guten Content nicht valide sind - oder nicht?
Das heisst ja eigentlich nur, dass Webmaster mit guten Ranking eher auf guten Content und nicht auf validen Code achten.
In dem Zusammenhang müsste man doch untersuchen, wie das Ranking, bei Seiten mit guten Ranking und nicht validen Quelltext, sich verhält, wenn der Quelltext valide ist.

@hansen
Dieses Argument halte ich auch für wesentlich!

Gruß,
Claudio.


joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 15.01.2010, 12:03 Uhr schrieb joerg

Hallo

Ich habe nie gesagt das ich nichts zu Mario Fischer finden konnte! Sondern zu der Aussage das valider Code schlechter als nicht valider Code rankt!

Die Aussage in dem Blog ist fast 4 Jahre alt! Bei meiner Suche war ich auch auf ihn gestossen!

Diesen Abschnitt habe ich mal aus dem Blog Kopiert!

Mindestens einmal standen die fehlerfreien Seiten über den fehlerbehafteten - die Rankingberechung scheint also tatsächlich recht knapp auszugehen und eine eindeutige Empfehlung, absichtlich Fehler zu produzieren kann ich daher nicht ableiten.



Alleine dieser Satz macht für mich die ganze Aussage in dem Blog für mich schon sehr fragwürdig!

Ursachen für ein schlechteres Ranking von validen Seiten gegenüber nicht validen Seiten können auch sein:
- Rechtschreibfehler
- Fehlende semantische Html Elemente
- Abstände im Text zwischen den Keywords nach denen gesucht wird!

Für Verwendung von validen Code spricht folgendes!

Die schlimmen Fehler die eine Seite im Ranking runterreissen hat man dann auf gar keinen Fall!

Die Seite wird dann nicht browserseitig oder serverseitig korrigiert.
Irgendwo habe ich mal gelesen das aus einer nicht validen Seite automatisch eine valide gemacht wird. Sehe ich in Zeiten wo Google schon angekündigt hat schnellere Seiten zu bevorzugen als Steinchen an was dazu beiträgt!

Barrierefreie Seiten kann ich nur mit validen Seiten erreichen!

Und dann was die Einhaltung von Webstandards angeht ist es einfach ein schlechter Stil nicht valide Seiten zu produzieren!

coderesponsibly.org/de/



Das Fehler im Quellcode von den Browsern auch richtig dargestellt werden dadurch entsteht diese Diskussion überhaupt! Wenn ich die Entwicklung von HTML5 mir so anschaue geht das wieder in diese Richtung. Ich würde mir echt wünschen das es eine Strict Version von HTML5 gibt!

Gruß

Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

hhsumaopt
Avatar hhsumaopt
Diplom-Ökonom, Kaufmann, Geschäftsführer, Gesellschafter
Guru (226 Beiträge)
am 15.01.2010, 12:40 Uhr schrieb hhsumaopt

@Jörg: Ich denke, Herr Fischer wollte sich "nur" in die Diskussion einbringen und damit auch zeigen, dass sein im Buch vorgestelltes Web-Radar funktioniert. Keiner hat ernsthaft daran gezweifelt, dass Du seine Websites gefunden hast. Und natürlich dürfen auch keine Bugs im Quelltext sein.

@all:
Google versucht (wie Marc richtig sagte) Menschen zu imitieren - veranstaltet also keinen (Hinter-der-Bühne-) Quelltext-Wettbewerb, sondern einen (Auf-der-Bühne-) Content-Contest. Für ein möglichst zutreffendes Urteil (= Ranking) bezieht die Jury über Backlinks auch externe Votes mit ein - aber auch Backlinks dürften i. d. R. nicht als Votum für 100% validen Quelltext zu verstehen sein, oder sehe ich das falsch?

Das Argument, dass wer mehr auf den Code schaut, weniger auf den Content achtet (und umgekehrt), klingt logisch und ist wohl gar nicht so selten zutreffend. Aber die Tests, von denen oben die Rede war, werden - wie bei Wissenschaftlern üblich - doch hoffentlich sog. Head-to-Head-Tests und keine Äpfel-mit-Birnen-Vergleiche gewesen sein, oder etwa nicht (Herr Fischer)? Andere Frage: Kann denn jemand das Gegenteil "beweisen", also dass nachträglich eingebaute Quelltext-Fehler(chen) dem/den Ranking(s) geschadet hätten?

Und zur allgemeine Abkühlung empfehle ich insbesondere den Gegnern jeglicher Ãœberoptimierung einen kurzen Blick in das erfrischende Video "Stop the SEO-Madness": www.youtube.com/watch


Google News & SEO Updates in Echtzeit
Suchmaschinenoptimierung Tipps plus
Zugriff auf >1.000 Fa

Raptor
Avatar Raptor
IT-Student
Content Gott (1013 Beiträge)
am 15.01.2010, 12:49 Uhr schrieb Raptor

Ich finde diese "Studie" ist so oder so ein Witz. Da wurde die Analyse mit vier (4) Websites durchgeführt und das soll nachher beweisen, dass das Resultat für die Allgemeinheit gilt? Ich denke, das Resultat lässt sich unter Zufall abstempeln.
Ich bin immer noch der Meinung, dass es keinen Unterschied zwischen valide und nicht-valide gibt, sofern man keine grob-fahrlässigen syntaktischen oder semantischen Fehler im Code hat.


Meine Developer-Website mit den Web-Entwickler-Tools.
Meine Web-Entwicklungs-Dienstleistungen

[url="http://www.seitenreport.de/forum/beitraege/seitenreport_verlosungen/wichtig_neue_regel



« zurück zu: Linkaufbau

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48369 Mitglieder registriert.