gelöschter Benutzer
Webseite konnte nicht analysiert werden Fehler 403 Zugriff verweigert!
Hallo Forum,
wenn ich meine htaccess Datei mit dem Inhalt
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.foerderverein-stadthalle-bss\.de$ [NC]
RewriteRule ^(.*)$ www.foerderverein-stadthalle-bss.de/$1 [R=301,L]
online stelle, kommt obige Meldung mit Fehler 403 - das verstehe ich jetzt nicht wirklich, da die analyse mit genau der selben htacces (natürlich andere Domain) funktioniert.
In der robots.txt steht nur:
User-agent: Googlebot-Image
Disallow: /
Woran kann das liegen ?
Danke und noch schönen Sonntag
Sven
matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
Den Fehler bekomme ich aber auch, wenn ich die Seite so aufrufe.
Das liegt nicht an der .htaccess, bzw. nicht an diesem Part.
Funktioniert es, wenn Du die .htaccess völlig rausnimmst?
Kannst Du - was mich wundern würde - die Seite aufrufen?
Make Seitenreport great again!
hi Sven
bedeutet dieses
websven schrieb:
...
Disallow: /
...
nicht dass Du das oberste Verzeichnis in dem Deine Data liegt, zur Ausgabe unterdrückt wird?
wat is, wenn Du das disallow rausnimmst, und/oder spasseshalber einem Ordner oder Datei explizit ein Allow/ dieses oder jenes zuweist?
grüsse, juergen
Joomla Webdesign Freiburg, Lörrach, Basel - SEO/SEM - Support - Security - Schulungen: webart-workers | joomla services
Joomla Portfolio: [url="http://www.webart-workers.de/portfolio/webdesi
matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
Das "Disallow: /" weist nur den vorher genannten Bot mit dem User-Agent Googlebot-Image an, sich von der Domain fernzuhalten.
Mit dem 403 hat die robots.txt nichts zu tun.
Kann denn irgendwer die Seite korrekt aufrufen? Ich bekomme den 403 auch zu sehen, da ist entweder ein entsprechender Ausschluss in der .htaccess, irgendwelche Verzeichnisrechte sind nicht korrekt gesetzt oder es ist keine Datei gemäß des "DirectoryIndex" vorhanden und Directory Listing abgeschaltet.
Make Seitenreport great again!
beim 403 Code macht doch normalerweise der Server zu wegen zu vieler Anfragen - oder irre ich mich da? - Wenn man z.B. mit dem GSiteCrawler mit 6 Crawlern eine Site crawlt (grausam diese Anglismen), dann macht u.U. der SErver zu und auch bei normalen Aufrufen kommt 403... hingegen mit nur 2 Crawlern ist alles O.K.
Der 403er kommt auch bisweilen bei der Qulidator Analyse...
Ich habe bei Joomla bei verwendung von sh404SEF auch bemerkt, dass Analysen als Angriff (Flooding) gewertet werden, weil viele Anfragen auf einmal kommen.
Mit Sicherheit liegt\'s nicht am Redirect in der .htaccess!
Was steht dann da sonst noch so drinn??? - Bzw. mit welchem CMS ist die Site aufgebaut etc...
Da wir die Site auch nicht sehen brauchen wir mehr Infos!
Viele Grüße,
Gabriel
G.K. Neitzel
Webdesign, Joomla Websites, Magento Onlineshops und Suchmaschinenoptimierung
lwulfe
Consultant
Content Halbgott (743 Beiträge)
@Gabriel: nach meinem Wissen bedeutet der Fehlercode 403, dass der Inhalt vorhanden ist, aber der jeweilige Client nicht die erforderlichen Rechte hat, darauf zugreifen zu können.
@Sven: bei einem Unix-System würde ich mal fehlende Rechte vermuten. Sieht aus, als wenn niemand von aussen das Recht hat auf deine Weblocation, also die "Wurzel" deiner Seite, zuzugreifen.
Aber Gabriel hat da ganz Recht, ohne mehr Infos ist das eine Ratespiel.
joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
joerg schrieb:
Wenn keine index Datei mit welcher Endung auch immer in dem Verzeichnis vorliegt dann kann es zu diesem 403 kommen.
Ah, richtig geraten (ok, nicht schwer, wenn man alle Möglichkeiten aufzählt).
Also fehlt die im DirectoryIndex festgelegte Datei.
Wenn bei dir, Sven, eine andere Datei die Startdatei sein soll, in der .htaccess einfach
DirectoryIndex dateiname.dateiendung
ergänzen.
Oder jene Datei in index.wasauchimmer umbenennen.
403 bedeutet, dass der Client keine Rechte hat, auf den gewünschten Inhalt zuzugreifen. In diesem Fall, weil es keine im DirectoryIndex festgelegte Datei gibt und das Listing nicht gestattet ist.
Einen 403-Fehler bei zu vielen Anfragen habe ich aber noch nicht gehabt, kann es sein, dass das CMS aus Sicherheitsgründen so antwortet, wenn mehr als x Zugriffe vom gleichen Client kommen? Mir ist das als Antwort vom Server direkt noch nicht untergekommen.
Make Seitenreport great again!
joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
Hallo
So was haben wir denn an zusätzlichen Informationen.
Nach dem Cache von Google würde ich auf Web to date als CMS tippen. Und das auch eine index Datei bereits vorliegt. Also liegt es daran nicht.
Weiterhin tippe ich mal darauf das dieselbe htaccess die funktioniert bei einem anderem Provider liegt.
Wahrscheinlich bei 1und1 wenn ich den NS Lookup von Svens eigener Seite richtig interpretiere.
Grins erinnert mich daran das nach dem Umzug von meinem alten Provider die htacess bei Alfahosting auch nicht mehr funktionierte.
Alfahosting hat aber zu diesen Fehlermeldungen schon Antworten veröffentlicht
alfahosting.de/faq/technische-fragen.html
Gruß
Jörg
Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools
Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.
Beitrag erstellen
EinloggenKostenlos registrieren