gelöschter Benutzer

Webseite konnte nicht analysiert werden Fehler 403 Zugriff verweigert!

am 25.07.2010, 18:43 Uhr eröffnete folgenden Thread
Analyse-Ergebnisse    5914 mal gelesen    14 Antwort(en).

Hallo Forum,

wenn ich meine htaccess Datei mit dem Inhalt

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.foerderverein-stadthalle-bss\.de$ [NC]

RewriteRule ^(.*)$ www.foerderverein-stadthalle-bss.de/$1 [R=301,L]



online stelle, kommt obige Meldung mit Fehler 403 - das verstehe ich jetzt nicht wirklich, da die analyse mit genau der selben htacces (natürlich andere Domain) funktioniert.

In der robots.txt steht nur:
User-agent: Googlebot-Image
Disallow: /

Woran kann das liegen ?
Danke und noch schönen Sonntag

Sven


matthes
Avatar matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
am 25.07.2010, 19:00 Uhr schrieb matthes

Den Fehler bekomme ich aber auch, wenn ich die Seite so aufrufe.
Das liegt nicht an der .htaccess, bzw. nicht an diesem Part.

Funktioniert es, wenn Du die .htaccess völlig rausnimmst?
Kannst Du - was mich wundern würde - die Seite aufrufen?


Make Seitenreport great again!

webart_workers
Avatar webart_workers
Mediengestalter
Content Halbgott (512 Beiträge)
am 25.07.2010, 19:25 Uhr schrieb webart_workers

hi Sven

bedeutet dieses

websven schrieb:

...
Disallow: /
...



nicht dass Du das oberste Verzeichnis in dem Deine Data liegt, zur Ausgabe unterdrückt wird?
wat is, wenn Du das disallow rausnimmst, und/oder spasseshalber einem Ordner oder Datei explizit ein Allow/ dieses oder jenes zuweist?

grüsse, juergen


Joomla Webdesign Freiburg, Lörrach, Basel - SEO/SEM - Support - Security - Schulungen: webart-workers | joomla services
Joomla Portfolio: [url="http://www.webart-workers.de/portfolio/webdesi

matthes
Avatar matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
am 25.07.2010, 20:18 Uhr schrieb matthes

Das "Disallow: /" weist nur den vorher genannten Bot mit dem User-Agent Googlebot-Image an, sich von der Domain fernzuhalten.

Mit dem 403 hat die robots.txt nichts zu tun.

Kann denn irgendwer die Seite korrekt aufrufen? Ich bekomme den 403 auch zu sehen, da ist entweder ein entsprechender Ausschluss in der .htaccess, irgendwelche Verzeichnisrechte sind nicht korrekt gesetzt oder es ist keine Datei gemäß des "DirectoryIndex" vorhanden und Directory Listing abgeschaltet.


Make Seitenreport great again!

neitzelsecuweb
Avatar neitzelsecuweb
Content Meister (278 Beiträge)
am 25.07.2010, 20:26 Uhr schrieb neitzelsecuweb

beim 403 Code macht doch normalerweise der Server zu wegen zu vieler Anfragen - oder irre ich mich da? - Wenn man z.B. mit dem GSiteCrawler mit 6 Crawlern eine Site crawlt (grausam diese Anglismen), dann macht u.U. der SErver zu und auch bei normalen Aufrufen kommt 403... hingegen mit nur 2 Crawlern ist alles O.K.
Der 403er kommt auch bisweilen bei der Qulidator Analyse...

Ich habe bei Joomla bei verwendung von sh404SEF auch bemerkt, dass Analysen als Angriff (Flooding) gewertet werden, weil viele Anfragen auf einmal kommen.

Mit Sicherheit liegt\'s nicht am Redirect in der .htaccess!

Was steht dann da sonst noch so drinn??? - Bzw. mit welchem CMS ist die Site aufgebaut etc...

Da wir die Site auch nicht sehen brauchen wir mehr Infos!

Viele Grüße,

Gabriel


G.K. Neitzel
Webdesign, Joomla Websites, Magento Onlineshops und Suchmaschinenoptimierung

lwulfe
Avatar lwulfe
Consultant
Content Halbgott (743 Beiträge)
am 25.07.2010, 21:35 Uhr schrieb lwulfe

@Gabriel: nach meinem Wissen bedeutet der Fehlercode 403, dass der Inhalt vorhanden ist, aber der jeweilige Client nicht die erforderlichen Rechte hat, darauf zugreifen zu können.

@Sven: bei einem Unix-System würde ich mal fehlende Rechte vermuten. Sieht aus, als wenn niemand von aussen das Recht hat auf deine Weblocation, also die "Wurzel" deiner Seite, zuzugreifen.
Aber Gabriel hat da ganz Recht, ohne mehr Infos ist das eine Ratespiel.


neitzelsecuweb
Avatar neitzelsecuweb
Content Meister (278 Beiträge)
am 25.07.2010, 22:10 Uhr schrieb neitzelsecuweb

Hallo Lutz,

das ist natürlich richtig, aber bei zu vielen Anfragen passiert das Selbe...

Aber so wie ich das nun sehe wird\'s an den Rechten liegen! - Aber wir brauchen Input, sonst können wir nicht helfen!

Viele Grüße,

Gabriel


G.K. Neitzel
Webdesign, Joomla Websites, Magento Onlineshops und Suchmaschinenoptimierung

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 25.07.2010, 22:38 Uhr schrieb joerg

Hallo Sven

Deine Domain ist bei Alfahosting gehostet so wie meine auch.

Wenn keine index Datei mit welcher Endung auch immer in dem Verzeichnis vorliegt dann kann es zu diesem 403 kommen.

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

matthes
Avatar matthes
Foren Moderator
Evil Genius
Content Halbgott (973 Beiträge)
am 25.07.2010, 23:05 Uhr schrieb matthes

joerg schrieb:

Wenn keine index Datei mit welcher Endung auch immer in dem Verzeichnis vorliegt dann kann es zu diesem 403 kommen.


Ah, richtig geraten (ok, nicht schwer, wenn man alle Möglichkeiten aufzählt).
Also fehlt die im DirectoryIndex festgelegte Datei.

Wenn bei dir, Sven, eine andere Datei die Startdatei sein soll, in der .htaccess einfach
DirectoryIndex dateiname.dateiendung
ergänzen.
Oder jene Datei in index.wasauchimmer umbenennen.

403 bedeutet, dass der Client keine Rechte hat, auf den gewünschten Inhalt zuzugreifen. In diesem Fall, weil es keine im DirectoryIndex festgelegte Datei gibt und das Listing nicht gestattet ist.

Einen 403-Fehler bei zu vielen Anfragen habe ich aber noch nicht gehabt, kann es sein, dass das CMS aus Sicherheitsgründen so antwortet, wenn mehr als x Zugriffe vom gleichen Client kommen? Mir ist das als Antwort vom Server direkt noch nicht untergekommen.


Make Seitenreport great again!

neitzelsecuweb
Avatar neitzelsecuweb
Content Meister (278 Beiträge)
am 25.07.2010, 23:08 Uhr schrieb neitzelsecuweb

Hallo,

klar bei fehlender Indexdatei gibt\'s ein Problem!

@ Matthes: Yepp!

Viele Grüße,

Gabriel


G.K. Neitzel
Webdesign, Joomla Websites, Magento Onlineshops und Suchmaschinenoptimierung

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 25.07.2010, 23:32 Uhr schrieb joerg

Hallo

So was haben wir denn an zusätzlichen Informationen.

Nach dem Cache von Google würde ich auf Web to date als CMS tippen. Und das auch eine index Datei bereits vorliegt. Also liegt es daran nicht.

Weiterhin tippe ich mal darauf das dieselbe htaccess die funktioniert bei einem anderem Provider liegt.

Wahrscheinlich bei 1und1 wenn ich den NS Lookup von Svens eigener Seite richtig interpretiere.

Grins erinnert mich daran das nach dem Umzug von meinem alten Provider die htacess bei Alfahosting auch nicht mehr funktionierte.

Alfahosting hat aber zu diesen Fehlermeldungen schon Antworten veröffentlicht

alfahosting.de/faq/technische-fragen.html



Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools



« zurück zu: Analyse-Ergebnisse

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.