blaumi
Themenersteller
Elektrotechniker
Beginner (15 Beiträge)

Von PR4 auf PR1 gefallen trotz "Weiterentwicklung" der Website? (Seite 3)


matthes
Avatar matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
am 19.08.2010, 21:54 Uhr schrieb matthes

Das abschliessende Slash ist ein Muss


Narf. Ja. Ich habe jetzt Ordner und die URL vermischt, Asche auf mein Haupt.

Was wäre denn wohl empfehlenswerter, die Variante abc.de/ oder die mit einer index-Datei?


Make Seitenreport great again!

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 19.08.2010, 22:32 Uhr schrieb der_booker

Matthes schrieb:

Was wäre denn wohl empfehlenswerter, die Variante abc.de/ oder die mit einer index-Datei?



domain.de/ anstelle der index-Datei. Danach kannst Du natürlich noch weiter mit bla.php und blub.php arbeiten, nur nach dem Folder kommt ein / und keine index.php

@Flo: Das sollten wir tun.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 23.08.2010, 20:14 Uhr schrieb joerg

Hallo

Ich finde man sollte darauf verzichten es zu implementieren.

Für mich hört es sich laut dieser Quelle so an als ob man alleine schon mit einer Sitemap in der Lage ist Duplicate Content auszuschliessen.

googlewebmastercentral-de.blogspot.com/2008/06/duplicate-content-aufgrund-von-scraper.html



Für mich spricht auch dagegen eine Lösung per htaccess für meine Seiten zu implementieren weil es auch CMS Systeme gibt die die Index Datei benutzen. prskspedia.de/wiki/index.php



Weiterhin gibt es CMS Systeme die ihre Hauptseite nicht mit dem Root Verzeichnis und auch nicht mit einer Index Datei aufbauen.

Ich würde zwar immer bevorzugen das Rootverzeichnis als Startseite stehen zu lassen. In einigen Fällen wird das aber schwierig.

Und wenn man das implementieren würde käme auch die Frage auf wie will man das letztendlich prüfen? Canocial Tag gesetzt? Umleitung von Index Datei zum Verzeichnis. Ist nur eine Version in der Sitemap eingetragen?

Und die PHP Lösung scheint in der letzen Zeit echt gefragt zu sein.

www.seitenreport.de/forum/beitraege/sonstige-3/alternative_zu_rewriteengine_on/seite/1.html



Könnte man das mt dem Canocial Tag , der Sitemap und die PHP Lösung man auf dieser Seite vielleicht ergänzen? www.seitenreport.de/was-wird-analysiert/suchmaschinenoptimierung/doppelter-content.html



Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

UFOMelkor
Avatar UFOMelkor
Student
Content Meister (350 Beiträge)
am 23.08.2010, 21:25 Uhr schrieb UFOMelkor

Ich gehe in meinem Post davon aus, dass es Heiko und Flo darum geht, domain.com/ und domain.com/index.php als Duplicate Content zu erkennen und Jörgs Posting sich darauf bezieht. Ansonsten habe ich einiges hier falsch verstanden und ihr dürft meinen Beitrag ignorieren

joerg schrieb:
Für mich hört es sich laut dieser Quelle so an als ob man alleine schon mit einer Sitemap in der Lage ist Duplicate Content auszuschliessen.



Das Problem beim D.C. ist nicht, dass Suchmaschinen ein herabstufen o.Ä. sondern dass andere Seiten auf verschiedene Schreibweisen verlinken. Du verlierst also quasi Backlinks, wenn deine Seite über mehrere Schreibweisen erreichbar ist. Mit einer Sitemap oder den Google-Webmastertools kann man zwar bei einigen Fällen einstellen, welche Version Google bevorzugt anzeigen soll, Backlinks verlierst du aber trotzdem.

joerg schrieb:

Für mich spricht auch dagegen eine Lösung per htaccess für meine Seiten zu implementieren weil es auch CMS Systeme gibt die die Index Datei benutzen. prskspedia.de/wiki/index.php


Bei deinem Wiki ist doch alles soweit korrekt, schließlich wird sowohl / als auch /index.php auf /index.php?title=Hauptseite weitergeleitet. Die htaccess kannst du dir also sparen. Es geht Heiko und Flo ja nicht darum, dass man keine index.php mehr verwendet bzw. anzeigt.

joerg schrieb:
Weiterhin gibt es CMS Systeme die ihre Hauptseite nicht mit dem Root Verzeichnis und auch nicht mit einer Index Datei aufbauen.



Es gibt auch CMS Systeme die Spaghetti Code erzeugen. Wer schlechte Werkzeuge auswählt, muss sie verändern oder mit den entstehenden Problemen leben.


Naturkosmetik in Bochum

Steppenhahn Ultramarathon-Community

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 23.08.2010, 22:56 Uhr schrieb der_booker

Dem Beitrag von Oskar kann ich nicht mehr viel hinzufügen.
es ist vollkommen richtig, dass wir aufzeigen wollten was DC ist, wie er entsteht und wie er vermieden werden kann. Dabei ist es egal, ob es um eine Domain, eine index.php oder eine blablub.php geht, mit DC verliert man, wie Oskar richtig beschrieben hat, Backlinks und damit Linksaft/Trust. Im schlechtesten Fall wird man abgewertet.

Google versucht zwar mit DC umzugehen und Lösungen zu finden, doch der Linksaft entsteht bei der Verlinkung. Wenn 20 Leute auf die Domain/index.php verlinken und man fängt es nicht ab, dann ist der Trust flöten.

Mit der internen Sitemap muss ich Jörg ein Stückweit recht geben, doch die Masse der Links entscheidet, wohin der Saft fließen soll. Das soll heißen, dass man nicht allein entscheidet wohin der Trust geleitet wird. Oftmals werden Links einfach auf die Domain ohne / gesetzt, was zunächst kein Fehler ist, doch hat man seine Seite auf / optimiert, dann ist der Trust weg. Schlimmer noch, wenn man auf index.php optimiert hat. Ohne 301\'er Weiterleitung, kann man machen was man will, da kommt kaum Saft zustande.

Auf meiner Seite habe ich von Shortlinks auf sprechende Links umgestellt (am 15.08.2010). Die alten externen Links gehen dabei alle noch auf die Shortlinks. Um den Trust behalten zu können, musste ich notwendigerweise auf eine 301\'er Weiterleitung zurückgreifen. Google hat einige der seiten bereits neu indiziert und auch den Trust an die neuen Seiten weitergegeben. Wen es interessiert, auf meiner Seo Laborseite berichte ich ausführlich darüber. Link steht in der Signatur.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 23.08.2010, 23:28 Uhr schrieb joerg

Hallo Oskar

Mein Posting bezog sich darauf das hier über eine Methode zur Erkennung von Duplicate Content bezogen auf / und /index.php oder andere Dateiformate implementiert werden soll in der Analyse.

Bei meinen Seiten verwende ich in der Regel in der internen Navigation nur eine Version und gebe diese bevorzugte auch in der Sitemap an.

Probleme mit Duplicate Content habe ich nie festgestellt mit diesem Aufbau.

Du wirst es auch nie erreichen können meiner Ansicht nach das jeder Link ohne einen 301 von einer externen Webseite deine Seite erreicht. Ob da ein Verlust von Backlinks wirklich entsteht bezweifle ich denn dann müsste wenn ich die Links bei Yahoo abfrage wirklich weniger erscheinen.

Mit /?title=Hauptseite müsste ich noch Probleme haben derzeit da existiert keine Weiterleitung wenn ich das richtig sehe.

Mein Beitrag sollte klarstellen das es wohl noch die Möglichkeit gibt es über die Sitemap zu steuern.
Neben halt eben diesem Canonical Tag und htaccess und PHP Weiterleitungen.

Ich werde nicht bestreiten das es sinnvoll ist möglichst viel über htaccess oder alternativ PHP oder Canonical zu steuern.

Nur in Hinsicht index Dateien und Verzeichnis würde ich nicht soweit gehen das per htaccess oder einem der anderen Wege zu steuern.
Denn ich habe halt eben den Fall das ich in einem Unterverzeichnis eben den Weg mit index Datei gehe und in den anderen Verzeichnissen auf dieser Domain halt eben bevorzuge das Verzeichnis anzugeben.

Sicher findet man auch noch einen Weg per htaccess diese Verzeichnis auszuschliessen und alle anderen auf jeden Fall weiter zu leiten.

Nur die Lösung per Sitemap scheint schon soweit ich das beurteilen kann alles abzudecken.

@Heiko Dein Experiment widerlegt ja wohl die Aussagen das 301 Google nicht folgt wenn ich das richtig sehe. Was die sprechenden Urls angeht da geht meine momentane Erfahrung eher dahin das wohl auch nicht sprechende bevorzugt werden können.

Das zeigt mir ein interner Vergleich von Seiten die dieselben Keywords benutzen. Da ranken die nichtsprechenden Urls teilweise sogar besser wenn die sprechenden wenig Content aufweisen.

Was den Linksaft und einen entsprechenden Verlust angeht dafür wird in der Analyse schon der Pagerank bewertet. Wenn also eine entsprechende Bewertung von index Datei und Verzeichnis in dieser Hinsicht vorgenommen wird, wird praktisch der Pagerank doppelt bewertet.

Und für den Trust(rank) einer Seite sehe ich momentan keine Möglichkeit diesen berechnen zu können.

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 24.08.2010, 00:07 Uhr schrieb der_booker

joerg schrieb:

@Heiko Dein Experiment widerlegt ja wohl die Aussagen das 301 Google nicht folgt wenn ich das richtig sehe.



Da ich ein positiv denkender Mensch bin, möchte ich es so ausdrücken. Das Experiment bestätigt, dass eine 301\'er Weiterleitung erfolgreich ist. DerTrust wird durchgegeben.

joerg schrieb:
Was die sprechenden Urls angeht da geht meine momentane Erfahrung eher dahin das wohl auch nicht sprechende bevorzugt werden können.
Das zeigt mir ein interner Vergleich von Seiten die dieselben Keywords benutzen. Da ranken die nichtsprechenden Urls teilweise sogar besser wenn die sprechenden wenig Content aufweisen.



Mit über 1.000 Seiten im Index kann ich mir ein neutrales Urteil erlauben. Einige Seiten, welchen einen Short-URL verwenden ranken teilweise besser, als die sprechenden Links. Das liegt aber oftmals an den Backlinks. Ohne die Verwendung von Backlinks muss ich allerdings sagen, dass bei gleicher internen Verlinkung, die sprechenden Links besser ranken. Aber das ist aber alles subjektiv und nicht für SEO relevant, denn zur Suchmaschinenoptimierung zählt unter anderem, dass Backlinks gezielt platziert werden, was zumindest bei Google das Ranking in den SERP beeinflusst.

joerg schrieb:
Was den Linksaft und einen entsprechenden Verlust angeht dafür wird in der Analyse schon der Pagerank bewertet. Wenn also eine entsprechende Bewertung von index Datei und Verzeichnis in dieser Hinsicht vorgenommen wird, wird praktisch der Pagerank doppelt bewertet.



Das verstehe ich nicht. Wie meinst Du das?


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 24.08.2010, 13:45 Uhr schrieb joerg

Hallo Heiko

Okay du bringst mich auf die Idee das auch die interne Verlinkung in den Fällen wo meine sprechenden Urls besser ranken die interne Verlinkung anstatt dem Content auch eine Ursache sein könnte.

Klar basiert mein Vergleich nur auf meinen 2000 Seiten im Index und Positionen innerhalb der Domain.
Nur den Rückschluss werde ich doch daraus ziehen das die Interne Verlinkung oder der Contentanteil eine Ursache für die Positionen sein wird.

Dein Vergleich geht mehr in die Richtung was passiert mit meinen Positionen wenn ich sprechende Urls verwende.

Könnte es sein das wir beide unter Trust nicht dasselbe verstehen? Mir kommt es so vor als ob du Trust mit Pagerank

Nochmal ich meine wenn du den Einflussfaktor von Duplicate Content bezogen auf Backlinkfaktoren der Index Dateien im Verglecih zu Verhältnissen in die Analyse hier einfliessen lannsen möchtest dann stärkst du damit indirekt noch mehr den Analyse Punkt Pagerank.

Den damit werden bereits hier in der Analyse solche Backlinkfaktoren gemessen. Sicher es wird sich auswirken auf die interne Verlinkung und deren Stärke wenn ich Links mal zur index Datei und mal zum Verzeichnis setze.

Nur messbar denke ich wird das nicht sein und von der Aussagekraft nicht unbedingt schlüssig.
Seitenreport ist bisher daseinzige Tool was darüber nachdenkt ob bestimmte Analysen Sinn machen anstatt einfach in die Analyse aufgenommen zu werden.

Und wenn es fraglich ist ob es Sinn macht werden solche Punkte einfach mal ohne Bewertung dargestellt.

Nach dem was ich da gelesen habe von der Sitemap und der Steuerung von Duplicate Content über diese frage ich mich eher würde es Sinn machen zu schauen ob die robots.txt eine Sitemap Angabe enthält. Nur das ist eine Weg den man nicht unbedingt gehen muss weil man diese Sitemaps auch bei den Suchmaschinen zumindest den grössten einreichen kann.

Wie du in diesem Thread in einem anderen Bezug schon selbst geschrieben hast gibt es mehrere Wege die man gehen kann an dieser Stelle. Für welchen man sich entscheidet ist dann wieder eine Philosophie.

Aber fragen wir doch mal in die Runde wer eine Steuerung von Duplicate Content bezogen auf die index Datei und dem Verzeichnis per htaccess oder anderer Methoden für sinnvoll hält.

Ich halte es nicht für sinnvoll weil es mich an anderer Stelle einschränken kann und das entsprechende Beispiel habe ich auch schon bereits genannt. Deshalb strebe ich nur die Lösung per Sitemap an.

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

havanesertreff
Call-Center
Guru (164 Beiträge)
am 24.08.2010, 16:57 Uhr schrieb havanesertreff

Ist immer wieder ein Hammerthema mit google und PR. Aber eine Frage zwischendurch, wie lange dauert es Erfahrungsgemäß bis man einen PR bekommt? Oder kann man das gar nicht in Zeiträumen festlegen?


https://www.havanesertreff.de

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 24.08.2010, 23:59 Uhr schrieb der_booker

joerg schrieb:
Dein Vergleich geht mehr in die Richtung was passiert mit meinen Positionen wenn ich sprechende Urls verwende.

Die sprechende URL waren der Auslöser für die Umstellung. Ich hatte vorher nur Shortlinks und die brachten kaum etwas, weil sie aus einer verschlüsselten ID bestanden. Daher wollte ich wissen was passiert, wenn ich alle Seiten mit einer 301\'er Weiterleitung auf neue URL-Namen umleite.

joerg schrieb:
Könnte es sein das wir beide unter Trust nicht dasselbe verstehen? Mir kommt es so vor als ob du Trust mit Pagerank


Das von mir verwendete Wort Trust ist gleichzusetzen mit Linksaft. Wird mir zukünftig nicht mehr passieren und ich verwende in diesem Zusammenhang nur noch Linksaft!

Ich glaube wir sollten beim Thema 301\'er Weiterleitung bleiben respektive welche Gründe gibt es, dass die Seite von Carsten so abgerutscht ist.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com



« zurück zu: Analyse-Ergebnisse

Das Seitenreport Forum hat aktuell 5275 Themen und 36110 Beiträge.
Insgesamt sind 48360 Mitglieder registriert.