shoxii
Themenersteller
Beginner (18 Beiträge)

Robots.txt | Bewertung

am 13.10.2011, 15:08 Uhr eröffnete shoxii folgenden Thread
OnPage Optimierung    2791 mal gelesen    1 Antwort(en).

Hallo zusammen,
wenn ich Seiten oder Dateien durch die Robots.txt sperre werden diese dann sofort von Google aus der Webseitenbewertung genommen?

Bsp:
Webseite besteht aus 30 Seiten.
Ich gebe nur 12 Seiten frei.
Ich sperre 18 Seiten per Robots.txt
Google sind die 18 Seiten aber bereits bekannt.
Die 18 Seiten beinhalten Doppelten Content.

Werden nun nach einer Sperre nur noch meine 12 freigegebenen Seiten von Google bewertet?

Wie lange dauert eine solche Umstellung?

Dank vorab.

Beste Grüße
shoxii


der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 14.10.2011, 09:18 Uhr schrieb der_booker

Hallo Shoxii,

bei den Suchmaschinen geht niemals alles gleich sofort.

Wenn Du Seiten aus dem Index haben möchtest, so kannst Du diese bei Google in den WebMasterTools entfernen.

www.google.com/webmasters/tools/crawl-access


Dazu muss die Seite bei Google angemeldet sein. Diese Änderungen greifen recht zeitnah, meist täglich.

Die zusätzliche Sperre kann Sicherheit geben, dass die Seiten nicht erneut in den Index gelangen. Sicherheitshalber würde ich für die Bots aber eine .htaccess-Sperre einbauen. Dann kannst Du ganz sicher sein.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

  • 1


« zurück zu: OnPage Optimierung

Das Seitenreport Forum hat aktuell 5274 Themen und 36108 Beiträge.
Insgesamt sind 48346 Mitglieder registriert.