Bohrmann
Themenersteller
Guru (112 Beiträge)

Backlinkaufbau, wie am besten? (Seite 2)


hhsumaopt
Avatar hhsumaopt
Diplom-Ökonom, Kaufmann, Geschäftsführer, Gesellschafter
Guru (226 Beiträge)
am 09.01.2010, 19:51 Uhr schrieb hhsumaopt

Vom Thema Backlink-Aufbau zum Thema Whitespace-Reduzierung ... nun ja ... ganz persönlich fände ich es schön, wenn in den Threads auch drin wäre, was drüber steht.

Benjamin, zu Deiner Frage: Die m. E. beste Methode für Dich wäre, z. B. mal für die Top 50-Factoring-Seiten die Backlinks zu checken und auf alle Domains "zuzugehen", die dabei häufiger vorkommen (Ãœberschneidungen sind durch Export und Sortierung in Excel relativ leicht zu finden). Das funktioniert von der Quote her meist viel besser als auf die Top-Seiten selbst zuzugehen, die ja meist Konkurrenten sind. Ich will Dich sicher nicht entmutigen, aber für ein Keyword wie Factoring (solo) wird es nicht ganz leicht werden, auf Seite 1 zu kommen - aber das wirst Du dann ja sehen, wenn Du die Verlinkung der Top-Seiten analysierst.

Zu Deiner Zusatzfrage "Helfen Webkataloge?" steht ja wirklich viel in dem oben bereits zitierten Thread.

An dieser Stelle (Whitespaces/CSS/HTML) erlaube ich mir mit besten Grüßen an alle Bastelschlümpfe mal Professor Dr. Mario Fischer (wer ihn nicht kennt, bitte nicht faul fragen, sondern einfach mal "fleißig" googeln) zum Thema SEO zu zitieren: Fehlerfreier HTML-Code? Nö. Die Seite muss entgegen der allgemeinen Auffassung NICHT W3C-konform sein ... Sie dürfen keine Fehler in der Programmierung haben, mit denen die Robots bei der Interpretation des Aufbaus Probleme bekommen ... Einzelne Tests haben im Gegenteil sogar gezeigt, dass nicht-konforme Seiten sogar etwas besser ranken als konforme ...
Ich füge noch hinzu: Natürlich darf der Code nicht zu unnötig langer Ladezeit führen. Aber viele CMS legen die Seiten (weil dynamisch) heutzutage ja schon vorab in den Cache ...

Und noch etwas, was hier nicht alle gerne lesen werden (bei manchem fleißigen SR-Poster kommen 95% der Backlinks von hier): Viele Backlinks aus EINEM Forum verhelfen nicht zu einem besseren Google-Ranking - weil ja alle Links von EINER Domain/IP kommen. Aber sicher verhelfen viele Posts zu mehr Besuchern - wie viele das sind, sagt Euch ja Eure Logfile-Analyse. Und natürlich erfüllt so ein Forum (hoffentlich) auch noch ganz andere Aufgaben als Besucher, Backlinks und Selbstdarstellung.


Google News & SEO Updates in Echtzeit
Suchmaschinenoptimierung Tipps plus
Zugriff auf >1.000 Fa

adi
Avatar adi
Content Meister (447 Beiträge)
am 09.01.2010, 20:15 Uhr schrieb adi

na ich denk mal du solltest deine kritik (so sie ernst gemeint war) doch doch auch selbst beherzigen von einem tip mal abgesehen befaßt sich dein ellenlanger beitrag nicht mit dem threat

kritik ok aber dein posting kann man auch so schreiben : haltet euch doch bitte an das thema des threats

wenn man alles rausnimmt was nichts mit dem threat zu tun hat bleibt da recht wenig übrig
bei den anderen postings werden tips gegeben die letztendlich eine verbesserung der seite bringen


TAS Schwinghammer
https://www.rohrvereisung.de






gelöschter Benutzer
am 09.01.2010, 20:24 Uhr schrieb

hhsumaopt schrieb:

Vom Thema Backlink-Aufbau zum Thema Whitespace-Reduzierung ... nun ja ... ganz persönlich fände ich es schön, wenn in den Threads auch drin wäre, was drüber steht.


Ich finde auch, dass man das anders fomulieren könnte.

Ansonsten finde ich deine Beiträge stets sehr informativ - auch in diesem Fall!

Gruß,
Claudio.


joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 09.01.2010, 23:46 Uhr schrieb joerg

Hallo Markus

Ich habe jetzt mal drei Fragen!

Nachdem ich jetzt lange nach diesem Mario Fischer gesucht habe und keine Quelle finden konnte die deine Aussage unterstützt mit dem validen Quellcode bitte ich doch mal um Angabe einer konkreten Quelle! Frage 1: Wo finde ich diese Aussage?

Auf special/quellcode/ auf deiner Seite finde ich folgende Stellungsnahme!

Tipp 66: Ãœberprüfen Sie den Quellcode jeder Seite Ihrer Website auf Validität. Die HTML-Validität ist ein wichtiger Baustein der "technischen" Suchmaschinenoptimierung.

Frage 2: Widerspricht das nicht der getätigten Aussage?
Würde ich dann so schnell wie möglich abändern!

Auf der selben Seite finde ich auch das hier !

Tipp 69: Manche Editoren zum Erstellen von Webseiten erzeugen durch automatische Einrückungen ein deutlich erhöhtes Quellcode-Volumen. Eliminieren Sie alle überflüssigen Leerzeichen im Quelltext.

Frage 3: Warum gibst du dann auch diese Empfehlung wenn die deiner Aussage nach nicht weiterhilft?

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

Raptor
Avatar Raptor
IT-Student
Content Gott (1013 Beiträge)
am 10.01.2010, 00:01 Uhr schrieb Raptor

hhsumaopt schrieb:

Fehlerfreier HTML-Code? Nö. Die Seite muss entgegen der allgemeinen Auffassung NICHT W3C-konform sein ... Sie dürfen keine Fehler in der Programmierung haben, mit denen die Robots bei der Interpretation des Aufbaus Probleme bekommen ...


Dem muss ich zustimmen.
Wenn du unter einem XHTML-Doctype nur HTML schreibst, dann ist das wohl oder über überhaupt nicht valide bzw. W3C-konform.
Aber was kratzt das die Suchmaschinen-Robots? Wenn die HTML verstehen, verstehen sie auch das HTML unter dem XHTML-Doctype. Es lohnt sich für die Suchmaschine doch nicht, jede Seite bis ins Detail nach W3C zu validieren. Schliesslich geht es um die Qualität des Inhalts und nicht um die Qualität des Codes.

hhsumaopt schrieb:

Tipp 66: Ãœberprüfen Sie den Quellcode jeder Seite Ihrer Website auf Validität. Die HTML-Validität ist ein wichtiger Baustein der "technischen" Suchmaschinenoptimierung.


Mit Validität ist hier wohl die Gültigkeit des Dokumentaufbaus gemeint: Also keine Syntaxfehler und kein Blödsinn beim HTML-Grundgerüst. Denn dann haben die Robots Probleme.


Meine Developer-Website mit den Web-Entwickler-Tools.
Meine Web-Entwicklungs-Dienstleistungen

[url="http://www.seitenreport.de/forum/beitraege/seitenreport_verlosungen/wichtig_neue_regel

MatthiasHuehr
Avatar MatthiasHuehr
Programmierer
Content Halbgott (705 Beiträge)
am 10.01.2010, 06:03 Uhr schrieb MatthiasHuehr

Was hat der Quelltext mit den Verlinkungen zu tun? Sorry, aber mit solchen themenfremden Aussagen disqualifiziert man sich in meinen Augen.

Damit es beim Thema bleibt: suche dir Blogs zum Thema, kommentiere einge Artikel, und dann hat man ein paar Backlinks. Problematisch ist es aber kommerzielle Seiten zu verlinken, denn es gibt eine Menge gestörter Leute, die denken Abmahnungen verteilen zu möchten, wenn einer einen in ihren Augen kommerziellen Link angibt (ich hab da schon sehr krasse "Kommentarregeln" gelesen).


MV-Trip - mein Reiseführer für Mecklenburg-Vorpommern
insideGREIFSWALD - mein Newsmagazin über Greifswald

hhsumaopt
Avatar hhsumaopt
Diplom-Ökonom, Kaufmann, Geschäftsführer, Gesellschafter
Guru (226 Beiträge)
am 11.01.2010, 18:07 Uhr schrieb hhsumaopt

@Tas/Adi:
1) Flo schrieb: Backlinks über Kommentare in Blogs und Foren. Ich ergänze: Schon der 2. Backlink im gleichen Blog oder Forum bringt keine zusätzliche Google-Power. Dass das nicht zum Allgemeinwissen gehört, kann man daran ablesen, dass Ein-Satz-Poster hier immer wieder mal als Linkschnorrer bezeichnet werden.
2) Arnold schrieb: Themenrelevante Backlinks über Top X für die Haupt-Keywords. Ich ergänze: Themenrelevante Backlinks über die sich überschneidenden Backlinks auf die Top X zu bekommen, ist erfahrungsgemäß wesentlich erfolgreicher.
3) Jörg schrieb: Whitespaces (das Thema habe NICHT ich reingebracht) "entfernen macht schon sehr viel aus" - und in der ursprünglichen Frage von Benjamin ging es offensichtlich um das Google-Ranking. Ich stelle also richtig. (@Jörg: Kommt inkl. der "Bastelschlümpfe" aus Mario Fischer\'s BUCH "Website Boosting 2.0". Und zu Deinen berechtigten Fragen: Flo hat\'s schon perfekt auf den Punkt gebracht.)
Somit sind 100% meines Beitrags zu den Posts (wenn auch nicht zur Thread-Überschrift). Und ausführlich schreibe ich immer, weil ich diese "Hab ich Dich richtig verstanden? Nein, das hab ich anders gemeint!"-Ping-Pong-Partien wenig vergnüglich finde.

@ Claudio: Akzeptiert und danke.

@ Mathias: Was stört mich eine Abmahnung, die nicht gerechtfertigt ist? Linksetzung auf irgendeine bzw. die eigene kommerzielle Seite kann man m. E. qua "AGB" nicht bindend ausschließen - auch, wenn zugestimmt wurde (Die Frage wird immer sein: Musste ich die Klausel erwarten? Die Antwort i. d. R.: Nein). Der Betreiber kann den Backlink höchstens entfernen und den Zugang sperren. Oder Missverständnis?

@ Alexa-Gang: Ein anderes RECHTLICHES Thema, das ich aber mit voller Absicht (und ich denke nachvollziehbarer Weise) NICHT in den passenden Thread stelle, liegt mir am Herzen: Ranking-Manipulationen (Keyword-Stuffing, Cloaking und alle anderen den Google-Richtlinien NICHT entsprechenden Techniken bei Faktoren, die Ranking-Relevanz haben, also auch bei den Besucherzahlen) werden auf geschäftlichen Seiten (und geschäftlich fängt bei AdSense an) von der Mehrzahl der Gerichte als wettbewerbswidrig eingestuft und können schnell teuer werden, wenn ein oder mehrere Konkurrenten dahinter kommen. Bei der nächsten Black Hat-Verabredung den Thread besser nicht öffentlich über das Forum laufen lassen...


Google News & SEO Updates in Echtzeit
Suchmaschinenoptimierung Tipps plus
Zugriff auf >1.000 Fa

MatthiasHuehr
Avatar MatthiasHuehr
Programmierer
Content Halbgott (705 Beiträge)
am 11.01.2010, 18:26 Uhr schrieb MatthiasHuehr

Der Hinweis mit der Abmahnung stand dort wo der Kommentar engetragen wird. Man hat auch ein gewisses Hausrecht auf seinen Seiten, niemand hat zbs das Recht irgendwo in einem Forum etc. was schreiben zu können. Hab da mal Urteile gelesen. Wie es mit solchen Abmahnungen rechtlich korrekt ist, kann ich daher nicht sagen, ausschließen schon gar nicht.


MV-Trip - mein Reiseführer für Mecklenburg-Vorpommern
insideGREIFSWALD - mein Newsmagazin über Greifswald

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 12.01.2010, 08:40 Uhr schrieb der_booker

hhsumaopt schrieb:

@ Alexa-Gang: Ein anderes RECHTLICHES Thema, das ich aber mit voller Absicht (und ich denke nachvollziehbarer Weise) NICHT in den passenden Thread stelle, liegt mir am Herzen: Ranking-Manipulationen (Keyword-Stuffing, Cloaking und alle anderen den Google-Richtlinien NICHT entsprechenden Techniken bei Faktoren, die Ranking-Relevanz haben, also auch bei den Besucherzahlen) werden auf geschäftlichen Seiten (und geschäftlich fängt bei AdSense an) von der Mehrzahl der Gerichte als wettbewerbswidrig eingestuft und können schnell teuer werden, wenn ein oder mehrere Konkurrenten dahinter kommen. Bei der nächsten Black Hat-Verabredung den Thread besser nicht öffentlich über das Forum laufen lassen...



Genau aus diesem Grund war der Test zeitlich befristet und auch so kommuniziert worden. Wenn sich nun noch eine Klickgemeinschaft gebildet hat, sollte diese, und da hat Markus recht, nur über PN oder eMail miteinander sprechen.

Ich habe mich mit einem befreundeten Anwalt darüber unterhalten und er hat mich gleich gewarnt. Als Test ja und dann, wie schon geschrieben, muss dies auch so nach außen kommuniziert und zeitlich befristet werden.
ALLERDINGS, kann über Alexa nichts passieren. Nur bei gelisteten Seiten, so wie hier bei SR im Ranking, kommt diese Manipulation zum tragen. Ich hatte ja auch unterschwellig darauf hingewiesen, dass der Test Alexa-Manipulation und nicht SR-Ranking-Manipulation heißt.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

MarioFischer
Professor
Neuling (1 Beiträge)
am 15.01.2010, 08:07 Uhr schrieb MarioFischer

joerg schrieb:

...Nachdem ich jetzt lange nach diesem Mario Fischer gesucht habe..


Don´t try to find Mario Fischer, he finds You!
Spaß bei Seite. Hab diesen Thread hier von einem Suchscanner bekommen, weil mein Name erwähnt wurde. Was micht stutzig macht ist, dass man lange nach mir suchen muss. Meines Wissens nach steht ich seit 1992 bei Google mit meinem Namen auf Platz 1
Die Aussage oben, dass valider Code etwas schlechter rankt, steht in meinem Buch "Website Boosting" - dessen Inhalte freilich nicht online recherchierbar sind. Trotzdem kann man darüber etwas in meinem Blog nachlesen: Wie wichtig ist sauberer HTML-Code? Hier unter

www.website-boosting.de/blog/2006-05-28/wie-wichtig-ist-sauberer-hmtlcode.html


Da steht eigentlich das wichtigste schon drin.

Ich weiß, dass Programmierpuristen jetzt den Kopf schütteln und eine wichtige Säule des eigenen Weltbildes wegzubrechen droht... Und dass sich HTML-Nerds (ich kenne selber einen, der bis heute noch mit dem Notepad html-Code schreibt!!) bis zum Tode dagegen wehren. Nützt aber alles nichts. Es wurde von Ungläubigen auch immer wieder mal getestet und die Ergebnisse waren eigentlich immer recht eindeutig: Nicht konforme Seiten ranken etwas besser. Ich nehme an, dass es sich hier um eine Art Kollateralschaden bei der Prüfung/Beurteilung anderer Rankingfaktoren handelt. Es ist also sicher nicht so, dass Google sagt: Wir bevorzugen nicht-val. Dokumente. Das wäre Unsinn. Das ist sicherlich eine Folgeerscheinung eines anderen Kriteriums.

Natürlich (!) dürfen keine strukturellen Fehler im Code sein. Fehlende Tags können dem Bot schon Probleme machen.

Nur präventiv: Ich kann leider auf Grund meiner Zeit in keine umfangreiche Diskussion hier eintreten. Ich schreib das nur, weil ich aus Erfahrung weiß, dass jetzt einige massiv "ja aber" antworten oder es einfach doch nicht glauben. Ich will niemanden bekehren und wer wem vertraut/glaubt bleibt auch jedem selber überlassen. Ich will ja niemanden missionieren - sondern wollte nur meine fachliche Sicht liefern.




« zurück zu: Linkaufbau

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.