gelöschter Benutzer

Hallo (Seite 2)


XTREM
Avatar XTREM
Beginner (32 Beiträge)
am 05.01.2011, 12:55 Uhr schrieb XTREM

Hallo Christina,

ich weiß nicht, was du mit + und - meinst, aber es könnte 444er Zugriff sein (je nach Ebene). Heißt das alle lesen können, aber niemand ausführen oder schreiben. Ich befürchte eher, dass du mit diesem Baukasten keine robots.txt erstellen kannst, da du für deinen "Home"-Folder nicht die notwendigen Rechte hast und evtl. schon auf anderer Ebene liegst...

So meine Vermutung.


www.kostenlos-vergleichen.com - Kostenloser Versicherungsvergleich, Kreditvergleich, Strom-, Gas und Kreditkarten Vergleich

www.suche-webhoster.de - Webhosting Anbieter im Vergleich


gelöschter Benutzer
am 05.01.2011, 13:38 Uhr schrieb

Hallo Eugen,

danke für Deine Antwort, habe gerade mal dort angerufen, die Zugriffsrechte sind vorhanden und der txt liegt auch im richtigen Ordner. Er meinte es könnte aber ein paar Tage dauern bis das gefunden wird??? Habe meine bisherigen Optimierungen hier immer sofort abrufen können.
Den Text selbst habe ich auch nicht mit dem Baukasten erstellt, da hast Du Recht, das geht nicht.
Muss in den Rechten ein 444er Zugriff stehen?
Bei mir steht 555

Habe das mal auf 444 eingestellt.....funzt auch nicht...mmf
LG
Christina


XTREM
Avatar XTREM
Beginner (32 Beiträge)
am 05.01.2011, 16:48 Uhr schrieb XTREM

Hallo Christina,

nein, lass auf 555.

Komisch, dass das ein paar Tage dauern kann, eigentlich geht sowas immer ratzfatz. Da ich diesen Homepage-Baukasten leider auch nicht kenne, kann ich dir da auch nicht helfen, bis auf die Basics, die ja gegeben sind.


www.kostenlos-vergleichen.com - Kostenloser Versicherungsvergleich, Kreditvergleich, Strom-, Gas und Kreditkarten Vergleich

www.suche-webhoster.de - Webhosting Anbieter im Vergleich


gelöschter Benutzer
am 05.01.2011, 18:51 Uhr schrieb

Hallo Christina,

wenn soweit noch vieles unklar ist, versuchen wir es mal auf einem anderen Weg:

Lege bitte eine neue TXT-Datei an, z.B. my_roboter.txt mit einem einfachen Blind-Text und lade diese in das gleiche Verzeichnis auf Deinem Webspace wie die robots.txt.

Rufe die Datei mit "ikamani.de/my_roboter.txt" im Browser auf. Der Inhalt dieser Datei sollte dann auf dem Bildschirm zu sehen sein.

Ist dies der Fall, dann liegt wahrscheinlich der Fehler weniger an/in der Datei "robots.txt" sondern möglicherweise in anderen Befehlen/Einstellungen und wir können weiter rätseln.


Das von Dir heute selbst angelegte Verzeichnis "htdocs" kannste übrigens wieder löschen oder besser vorsichtshalber erstmal umbennen in "_htdocs" (falls Du doch das Falsche erwischt hast).
Wenn dies keine Auswirkungen beim Aufruf der Homepage hat, kannst Du es endgültig löschen, damit Du Müll auf Deinem Webspace vermeidest.

Gruß

kajo



gelöschter Benutzer
am 08.01.2011, 16:43 Uhr schrieb

Hallo und danke für Deine Antwort,

Habe jetzt eine neue Datei erstelllt,

User-agent *
Disallow: /

Habe Sie heute Nacht in jedem einzelnen Ordner versucht zu orten....geht nicht..
Meintest Du ich soll zusätzlich noch eine Datei "my_roboter,txt" anlegen, oder die alte Datei gegen die neue austauschen? Das habe ich nun versucht, allerdings ohne den Namen der Datei zu ändern.

Werde jetzt mal den neuen Dateinamen versuchen...
Schönes Wochenende Euch allen
lg
Christina


hansen
Foren Moderator
Content Gott (1886 Beiträge)
am 08.01.2011, 17:42 Uhr schrieb hansen

Hallo Christina,

Du solltest bei 1und1 einen Ordner haben der wsc.... oder so ähnlich heißt (ist bei mir so). Das ist der Hauptordner Deiner Seite.
Da gehört die robots.txt Datei rein und sollte dann auch gefunden werden.


Nepal Rundreisen


gelöschter Benutzer
am 08.01.2011, 19:48 Uhr schrieb

Ja, wsb...und dann eine Nummernfolge, wird der bei Dir dort gefunden? Da lag er die ganze Zeit schon, aber bei mir wird er dort nicht gefunden
1&1 sagte mir, das es eine Weile dauern würde, bis man die finden würde, war das bei Dir auch so?
Danke für Deine Antwort...


hansen
Foren Moderator
Content Gott (1886 Beiträge)
am 08.01.2011, 19:54 Uhr schrieb hansen

Habe ich nicht überprüft, aber bin mir sicher, dass die sofort gefunden wurde.
Deine ist ja auch zu finden:

www.ikamani.de/robots.txt



Auch von der Analyse.

hansen


Nepal Rundreisen


gelöschter Benutzer
am 08.01.2011, 19:57 Uhr schrieb

ICH FASSE ES NICHT!!!! JETZT IST SIE DA!!!
JUCHUUUUUUUU

DANKE, DANKE; DANKE.-)

@hansen, wurde Dein robots.txt in den letzten Tagen immer gefunden? Hatte sie definitv die ganze Zeit, noch bevor ich wusste was das überhaupt ist, in dem Ordner drin...

Hatte eben noch Kontakt zum techn. Support.....vielleicht hatten die ja ein internes Problem....mmh.., dann kann man ja lange suchen...


Danke allen, die mir hier hilfreich und geduldig zur Seite gestanden haben, eine tolle Seite ist das hier!


hansen
Foren Moderator
Content Gott (1886 Beiträge)
am 08.01.2011, 19:59 Uhr schrieb hansen

Hatte keine Probleme die letzten Tage.
Wurde immer gefunden.


Nepal Rundreisen



« zurück zu: Analyse-Ergebnisse

Das Seitenreport Forum hat aktuell 5275 Themen und 36110 Beiträge.
Insgesamt sind 48360 Mitglieder registriert.