Ich gehe in meinem Post davon aus, dass es Heiko und Flo darum geht, domain.com/ und domain.com/index.php als Duplicate Content zu erkennen und Jörgs Posting sich darauf bezieht. Ansonsten habe ich einiges hier falsch verstanden und ihr dürft meinen Beitrag ignorieren
joerg schrieb:
Für mich hört es sich laut dieser Quelle so an als ob man alleine schon mit einer Sitemap in der Lage ist Duplicate Content auszuschliessen.
Das Problem beim D.C. ist nicht, dass Suchmaschinen ein herabstufen o.Ä. sondern dass andere Seiten auf verschiedene Schreibweisen verlinken. Du verlierst also quasi Backlinks, wenn deine Seite über mehrere Schreibweisen erreichbar ist. Mit einer Sitemap oder den Google-Webmastertools kann man zwar bei einigen Fällen einstellen, welche Version Google bevorzugt anzeigen soll, Backlinks verlierst du aber trotzdem.
joerg schrieb:
Für mich spricht auch dagegen eine Lösung per htaccess für meine Seiten zu implementieren weil es auch CMS Systeme gibt die die Index Datei benutzen. prskspedia.de/wiki/index.php
Bei deinem Wiki ist doch alles soweit korrekt, schließlich wird sowohl / als auch /index.php auf /index.php?title=Hauptseite weitergeleitet. Die htaccess kannst du dir also sparen. Es geht Heiko und Flo ja nicht darum, dass man keine index.php mehr verwendet bzw. anzeigt.
joerg schrieb:
Weiterhin gibt es CMS Systeme die ihre Hauptseite nicht mit dem Root Verzeichnis und auch nicht mit einer Index Datei aufbauen.
Es gibt auch CMS Systeme die Spaghetti Code erzeugen. Wer schlechte Werkzeuge auswählt, muss sie verändern oder mit den entstehenden Problemen leben.
Naturkosmetik in Bochum
Steppenhahn Ultramarathon-Community
Beitrag erstellen
EinloggenKostenlos registrieren