masa8
Avatar masa8
Themenersteller
Selbständig
Content Gott (1001 Beiträge)

XML-Sitemap

am 18.07.2010, 16:19 Uhr eröffnete masa8 folgenden Thread
Google    7228 mal gelesen    23 Antwort(en).

Hallo zusammen,

ich habe bei meinen Seiten immer 2 XML-Sitemaps, einemal sitemap.xml und als Gzip-Version sitemap.xml.gz. Beide sind auch bei G**gles WMT's eingetragen.

Frage nun: Ist das gut so, oder wäre eine einzige besser.

Es gibt nämlich immer deutliche Schwankungen bei "URLs im Web-Index". Mal fehlen 10% der Seiten in der einen, dann in der anderen und auch schon mal in beiden.

Gruß Matthias


Mein Blog über Wordpress, SEO, interne Verlinkung und mehr
alles-mit-links
BLACKINK Webkatalog 20-25 Backlinks "Lifetime"

neitzelsecuweb
Avatar neitzelsecuweb
Content Meister (278 Beiträge)
am 18.07.2010, 16:27 Uhr schrieb neitzelsecuweb

Hallo Matthias,

warum hast Du beide eingetragen? - Einge eingetragene ist ausreichend. - Die Oprion mehere Einzutragen gibt es falls Du verschiedene Typen hast z.B. zusätzliche für Bilder, Videos, etc. - was aber seit neuestem auch nicht mehr nötig ist weil man die unterschiedlichen Typen nun uch in einer Sitemap zusammenfassen kann.

Meiner Meinung nach verursachst Du mit beiden Dateien nur das Problem, dass nicht klar ist welche ausgewertet weren soll. - Bzw. wenn beide ausgewertet werden ist zumindest für mich nicht klar was das für Interferenzen mit sich bringt.

Ich würde einen Eintrag löschen.

Viele Grüße,

Gabriel


G.K. Neitzel
Webdesign, Joomla Websites, Magento Onlineshops und Suchmaschinenoptimierung

masa8
Avatar masa8
Selbständig
Content Gott (1001 Beiträge)
am 18.07.2010, 19:25 Uhr schrieb masa8

Hallo Gabriel,

extremeforce schrieb:

warum hast Du beide eingetragen? - Einge eingetragene ist ausreichend.


Die normale war zuerst da, und dann, mann lernt ja dazu, kam die .gz dazu. Da diese aber eine ganze zeitlang immer deutlich weniger "URLs im Web-Index" angezeigt hatte, hielt ich es für besser die alte noch eine Weile drin zu lassen.

Jetzt wo beide gleichgezogen haben denke ich auch, das eine weg kann, Das wollte ich hier gerne fachmännisch bestätigt haben.

Gruß Matthias


Mein Blog über Wordpress, SEO, interne Verlinkung und mehr
alles-mit-links
BLACKINK Webkatalog 20-25 Backlinks "Lifetime"


gelöschter Benutzer
am 20.07.2010, 20:40 Uhr schrieb

Mach aus beiden einfach eine!

Die führenden Suchmaschinen Anbieter kommen mit komprimierten Sitemaps klar und empfehlen diese in der Regel auch.

Am besten ist es (so mach ich es auch) wenn du auf die Anfrage Header reagierst.

Accept-Encoding: gzip,deflate

Der Apache kann das mit dem entsprechenden Modulen (mod_expires und mod_deflate) von allein und wir als Programmierer haben eine Sorge weniger.

MFG Ultima


masa8
Avatar masa8
Selbständig
Content Gott (1001 Beiträge)
am 20.07.2010, 23:55 Uhr schrieb masa8

Ultima schrieb:

Mach aus beiden einfach eine!


Es ist ja ein und dieselbe Sitemap. Einmal halt als GZip-Version.

Laut Server-Log greiffen:

12 IP Adressen (xxx.xxx.~.~) auf die normale Sitemap,
5 IP Adressen (xxx.xxx.~.~) auf die GZip-Version,

zu. Erstaunlicher Weise liest der Google-Bot (66.249.~.~) mit etwa 70% zu 30% lieber die ungezipte Version ein.

Bis jetzt kann ich nicht beurteilen, welche der 12 IP\'s von "wichtigen" Diensten, oder von unwichtige Bots sind.

Die ungezipte Version aus den Webmaster-Tools zu löschen brachte eigentlich nichts, da der Google-Bot sie trotzdem weiter erfasst. Siehe oben.

Jetzt könnte ich die ungezipte Version natürlich vom Server löschen. Aber das könnte auch nach hinen losgehen.

Darum frage ich hier. Gebt mir INPUT !

Gruß Matthias


Mein Blog über Wordpress, SEO, interne Verlinkung und mehr
alles-mit-links
BLACKINK Webkatalog 20-25 Backlinks "Lifetime"

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 21.07.2010, 08:49 Uhr schrieb der_booker

Was stört Dich an einer doppelten Haltung. Ich persönlich habe auch 2 im Root-Verzeichnis stehen und dann nochmals jeweils 2 für die einzelnen Bereiche. Diese beziehen sich auf das Thema und der bot scheint das so zu mögen.

Seit ich die einzelnen Bereiche ebenfalls mit einer Sitemap ausgestattet habe, werden deutlich mehr Seiten gescant und indiziert.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

masa8
Avatar masa8
Selbständig
Content Gott (1001 Beiträge)
am 21.07.2010, 09:54 Uhr schrieb masa8

Hallo Heiko,

ich habe nichts gegen die 2 Sitemaps, mir sind nur die o.g. Schwankungen aufgefallen.

der_booker schrieb:

Seit ich die einzelnen Bereiche ebenfalls mit einer Sitemap ausgestattet habe, werden deutlich mehr Seiten gescant und indiziert.



Das hört sich interessant an.

Gruß Matthias


Mein Blog über Wordpress, SEO, interne Verlinkung und mehr
alles-mit-links
BLACKINK Webkatalog 20-25 Backlinks "Lifetime"

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 21.07.2010, 10:03 Uhr schrieb der_booker

Du meinst die Schwankungen in den WMT? Das macht nix. Die Gesamtsumme der indizierten Seiten ist das, worauf es ankommt.
Bei mir war es so, dass anfangs lediglich 350-380 Seiten aufgenommen wurden, trotz ständiger News etc. Durch den Einsatz neuer Sitmaps in den einzelnen Unterordnern, habe ich nun das 3-fache an indizierten Seiten.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

masa8
Avatar masa8
Selbständig
Content Gott (1001 Beiträge)
am 21.07.2010, 10:40 Uhr schrieb masa8

der_booker schrieb:

Du meinst die Schwankungen in den WMT?



Jepp - Ich will ja nur klären ob ich die mit 2 Sitemaps eventuell selber verursache.

Gruß Matthias


Mein Blog über Wordpress, SEO, interne Verlinkung und mehr
alles-mit-links
BLACKINK Webkatalog 20-25 Backlinks "Lifetime"

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 21.07.2010, 11:10 Uhr schrieb der_booker

masa8 schrieb:
Jepp - Ich will ja nur klären ob ich die mit 2 Sitemaps eventuell selber verursache.


Ja das tust Du. Du gibst ja der SuMa an, dass der BOT 2Mal bei Dir durch darf, zumal es ja nicht der gleiche BOT sein muss, technisch gesehen.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com


gelöschter Benutzer
am 21.07.2010, 12:46 Uhr schrieb

der_booker schrieb:

Du meinst die Schwankungen in den WMT? Das macht nix. Die Gesamtsumme der indizierten Seiten ist das, worauf es ankommt.
Bei mir war es so, dass anfangs lediglich 350-380 Seiten aufgenommen wurden, trotz ständiger News etc. Durch den Einsatz neuer Sitmaps in den einzelnen Unterordnern, habe ich nun das 3-fache an indizierten Seiten.



Wie viel Prozent sind das den?
Bei meinen Seiten schwankt der Anteil an Indizierten Seiten immer zwischen 30% und rund 95%.
Und wie Prüfst du das, über die WMT oder die Option link: bei der Suche wenn man jetzt von Google ausgeht.




« zurück zu: Google

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48368 Mitglieder registriert.