Labelident
Themenersteller
Pixelschubser
Neuling (2 Beiträge)

sitemap.xml wird nicht als solche erkannt wenn es eine Indexsitemap ist?

am 27.08.2009, 17:24 Uhr eröffnete Labelident folgenden Thread
Feedback    4546 mal gelesen    18 Antwort(en).

Hallo zusammen,

für eine größere Seite habe ich mehrere Sitemaps im XML-Format erstellt. Passend dazu habe ich eine Sitemap-Index Datei erstellt, in welcher halt die einzelnen Sitemaps aufgeführt sind - alles wie hier beschrieben:

www.sitemaps.org/de/protocol.php



Diese Sitemap-Index Datei trägt nun den Namen sitemap.xml, liegt im Hauptverzeichnis und ist auch in der robots.txt eingetragen.

Warum erkennt Seitenreport diese nun nicht und sagt mir, sie würde fehlen?


Viele Grüße


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 27.08.2009, 20:05 Uhr schrieb seitenreport

Hallo Markus,

Seitenreport prüft die sitemap.xml auf Validität und konnte Deine Sitemap aufgrund fehlender <url> Angaben nicht verifizieren.

Ich habe die Analyse gerade dahingehend erweitert, dass nun auch Sitemaps, die weitere XML-Sitemaps enthalten als gültig angenommen werden. Die entsprechende Analyse sollte damit nun bei Deiner Webseite korrekte Werte ausgeben :wink:.

Gruß,
Matthias


SEO Analyse und Website-Check mit Seitenreport

Labelident
Pixelschubser
Neuling (2 Beiträge)
am 28.08.2009, 08:15 Uhr schrieb Labelident

Ausgezeichnet,
das ging ja fix!

8)


Grüße


der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 29.08.2009, 08:06 Uhr schrieb der_booker

So isser, unser Matthias.
Danke, hilft mir auch. :P


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

srep
Selbständig
Beginner (23 Beiträge)
am 22.01.2010, 11:32 Uhr schrieb srep

Hallo,

wenn ich einen Seitenreport für eine Unterseite durchführen lasse (z. B. www.familienbande24.de/geld/kindergeld) wird weder die robots.txt noch die sitemap.xml erkannt und als fehlend gemeldet - obwohl beide Files im Hauptverzeichnis liegen.



Lasse ich meine Startseite (http://www.familienbande24.de/) validieren, werden beide Files vom Seitenreport korrekt gefunden.

Da ich Dateien aus Unterverzeichnissen (also z. B. /geld/kindergeld) via .htaccess an ein Skript umleite, weiß ich jetzt nicht genau ob der Fehler bei mir liegt oder bei SR - what to do?

lg, Stephan


http://www.familienbande24.de - alles rund um Familie, Kinder, Gesundheit

gerard
Content Gott (1271 Beiträge)
am 22.01.2010, 11:41 Uhr schrieb gerard

srep schrieb:

wenn ich einen Seitenreport für eine Unterseite durchführen lasse (z. B. www.familienbande24.de/geld/kindergeld) wird weder die robots.txt noch die sitemap.xml erkannt und als fehlend gemeldet - obwohl beide Files im Hauptverzeichnis liegen.



Es liegt an SR und nicht an dir. Das Problem ist bekannt - Unterseiten lassen sich noch nicht vollständig testen.

Gérard


http://bretagne-virtuell.de

Bazzel
Avatar Bazzel
Content Meister (251 Beiträge)
am 22.01.2010, 11:45 Uhr schrieb Bazzel

srep schrieb:

Hallo,

wenn ich einen Seitenreport für eine Unterseite durchführen lasse (z. B. www.familienbande24.de/geld/kindergeld) wird weder die robots.txt noch die sitemap.xml erkannt und als fehlend gemeldet - obwohl beide Files im Hauptverzeichnis liegen.



Lasse ich meine Startseite (http://www.familienbande24.de/) validieren, werden beide Files vom Seitenreport korrekt gefunden.

Da ich Dateien aus Unterverzeichnissen (also z. B. /geld/kindergeld) via .htaccess an ein Skript umleite, weiß ich jetzt nicht genau ob der Fehler bei mir liegt oder bei SR - what to do?

lg, Stephan


Hallo Stephan,

es liegt nicht an dir. Dies ist auch bei all meinen Unterseiten so.

Viele Grüße Joachim


Rock'n'Roll Club Lörrach
Deutsche Meisterschaft 2009 Rock'n'Roll
   

srep
Selbständig
Beginner (23 Beiträge)
am 22.01.2010, 12:16 Uhr schrieb srep

Ist doch aber vermutlich nur eine kleine Änderung im SR-Script nötig, um dem Mißstand abzuhelfen? *lieben Gruß an den Admin schick*


http://www.familienbande24.de - alles rund um Familie, Kinder, Gesundheit

gerard
Content Gott (1271 Beiträge)
am 22.01.2010, 12:36 Uhr schrieb gerard

srep schrieb:

Ist doch aber vermutlich nur eine kleine Änderung im SR-Script nötig, um dem Missstand abzuhelfen?


Matthias hat vermutlich - wie ich auch - ein Schild überm Tisch hängen:

Unmögliches wird sofort erledigt, Wunder dauern etwas länger ...

Gérard


http://bretagne-virtuell.de

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 22.01.2010, 13:30 Uhr schrieb joerg

Hallo

So klein wird die Änderung wohl nicht sein! Nur eine Abfrage für das Rootverzeichnis mag ja in den meisten Fällen ausreichen.

Beispielsweise kann ich jedem Unterverzeichnis eine eigene Sitemap zuordnen und lege sie auch in diesem dann ab!

Es empfiehlt sich zwar sitemaps im root Verzeichnis abzulegen aber man kann auch von dieser Vorgehensweise halt eben auch abgehen!

Wenn ich nicht wüsste das einige Seiten statt dem root Verzeichnis für die Eingangsseite andere Seiten ansprechen hätte ich jetzt wohl vorgeschlagen solche Analysen bei Unterseiten gar nicht durchzuführen!

@gerard Bei Matthias muss das aber mittlerweile schon ein sehr grosses Schild sein!

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 22.01.2010, 13:50 Uhr schrieb der_booker

Was für den einen eine Unterseite ist, kann für einen ANDEREN eine Subdomain respektive Microsite sein. Ich verwende auf einer Testseite richtige abgelegte Verzeichnisse und stellte fest, dass eine robots.txt in jedem Verzeichnis klare Vorteile bieten kann. Je nachdem wir der Bot auf der Seite einsteigt bzw. von woher verlinkt wurde. Zusätzlich wurde dort eine sitemap.xml abgelegt und auch hier habe ich das Gefühl, mehr indexierte Seiten zu erhalten.

Machen wir den Test aber nun mal öffentlich und ich verwende dazu meine Seite. Derzeit stehen 205 Seiten beim Punkt "Yahoo indizierte Seiten". Ich baue jetzt eine robots.txt in alle Unterverzeichnisse ein sowie eine entsprechende sitmap.xml.

Natürlich melde ich die sitemaps.xml auch bei den Webmaster-Tools an.

Ergebnisse folgen.

Struktur:

www.phw-jendreck.de


www.phw-jendreck.de/contact/


www.phw-jendreck.de/faq/


www.phw-jendreck.de/news/


www.phw-jendreck.de/macrocenter/


www.phw-jendreck.de/macrocenter/grutzeck/


www.phw-jendreck.de/macrocenter/vb/


www.phw-jendreck.de/seo_suchmaschinenoptimierung/


www.phw-jendreck.de/seo_suchmaschinenoptimierung/blog_alexa_manipulieren/


www.phw-jendreck.de/seo_suchmaschinenoptimierung/blog_backlink/


www.phw-jendreck.de/testimonials/


www.phw-jendreck.de/helpdesk/



Diese Subdomains sind mit einer 301-Weiterleitung versehen:

news.phw-jendreck.de


seo.phw-jendreck.de


helpdesk.phw-jendreck.de


ag-vip-sql.phw-jendreck.de


makrocenter.phw-jendreck.de


faq.phw-jendreck.de


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com



« zurück zu: Feedback

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.