VPNwelt.com sucht Feedback Wie der Name schon sagt handelt es sich um eine Review Website für…
von: florian.berg.privat
Versuch Backlinks oder Keywords zu erstellen. Dein Content muss auch gut sein. Hier ein Artikel das…
von: welkercarmen5

Hallo SR Community,
auch bei mir sind in den letzten Tagen extrem viele Zugriffe gewesen.
Die jetzt folgenden Statistiken sind Tageszugriffe über die Google Suchergebnisse!!!
Keyword: "Webpräsents"
Zugriff: 1
Seiten: 496,00
Besuchszeit: 02:02:24 (also 2h)
Keyword: "träume sind scheume " (eigentlich Schäume, aber tja..Forum)
Zugriff: 3
Seiten: 81,00
Besuchszeit: 03:37:42 (weit über 3h!)
Keyword: "webchars"
Zugriffe: 5
Seiten pro Zugriff: 159,80 (Duchschnittlich)
Besuchszeit: 02:40:31 (bald 3h!)
Da gibt es noch einige mehr Keywords, die so enorm anschlagen. Da die Besuche aber durch die Google Suchergebnisse sind, schließe ich Crawler grundsätzlich aus. Irgendjemand hatte hier etwas ähnliches.
Seit unsere neue Sitemap indexiert wurde, geht das richtig rund, wobei die genannten Keywords nicht in der neuen Sitemap auftauchen
Mfg, Marcus
Hallo Speedy!
Hast Du einmal die Verweildauer, die weiteren Klicks und die IP\'s verglichen?
Es kann auch eine Art WebsiteCopierer sein.
Das geht auch recht einfach zu machen.
Thema: "Wie erzeuge ich bei meinen Freunden Traffic".
Alle Jumps die unter 4 Sekunden und der folgende auch usw. wird kein Mensch sein können.
Keyword: "Webpräsents"
Zugriff: 1
Seiten: 496,00 // wenn das 496.00 heissen soll sind das 65 Zugriffe pro Sekunde sonst 6,5 (das ist schon recht schwer, da Menschen mit einer Reaktionszeit von 0,25 sekunden schon zu den schnellen gehören)
Besuchszeit: 02:02:24 (also 2h)
496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?
Was meinst du direkt mit "Wie erzeuge ich bei meinen Freunden Traffic" ? Habe keine Freunde die so meinen Content durchwühlen nur vll 2..3 Seiten anschauen... leider kann ich nicht einsehen, welche Seiten genau abgerufen wurden, aber 65 Seiten pro Sekunde, das wäre nicht möglich, da die Seite laut Google schon 1,5 Sekunden zum Aufbau braucht.
Naja, denke das haben viele Webmaster, ist mir aber erst so aufgefallen seit wir mit einigen Keywords weit oben standen.
Danke schonmal für deinen Beitrag
Mfg, Marcus
Speedy86 schrieb:
496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?
Damit werden Webseiten kopiert.
Speedy86 schrieb:
Was meinst du direkt mit "Wie erzeuge ich bei meinen Freunden Traffic" ? Habe keine Freunde die so meinen Content durchwühlen nur vll 2..3 Seiten anschauen... leider kann ich nicht einsehen, welche Seiten genau abgerufen wurden, aber 65 Seiten pro Sekunde, das wäre nicht möglich, da die Seite laut Google schon 1,5 Sekunden zum Aufbau braucht.
Wenn Webseiten abgefragt werden, heißt das nicht, das diese Seiten auch vollständig beim Client komplett aufgebaut werden müssen.
Ein nicht ganz unbekanntes "Phänomen": Die Rankings werden besser, der Content wird interessanter, die Kopier-Crawler kommen häufiger und der Content landet, wenn man Pech hat, auf einer stärkeren Domain (natürlich im Ausland gehostet) - was besonders dann, wenn neuer Content auf der eigenen Seite noch nicht indiziert wurde, ärgerlich ist, weil Google v. a. dann dazu tendiert, den Content der stärkeren Domain zuzurechnen.
Einfach mal mit www.copyscape.com beobachten (bisher scheint bei Dir noch nichts passiert zu sein, aber evtl. mal über ein Base Tag, das zumindest verhindern kann, dass die Links an neuer Wirkungsstätte noch funktionieren, nachdenken).
BTW: Auch E-Mail-Adressen werden von Robots ausgespäht. Damit die Besucherstatistik dann nicht auch noch falsch interpretiert bzw. überschätzt wird, besser Analysetools, die Mensch und Maschine unterscheiden bzw. maschinelle Zugriffe nicht mitzählen, verwenden.
romacron schrieb:
Speedy86 schrieb:
496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?
Damit werden Webseiten kopiert.
Ein Webseiten-Kopierer, den ich selber gerne verwende, ist z.B. HTTrack (kostenlos). Mit ihm lassen sich kinderleicht komplette Webseiten herunterladen, archivieren und offline lesen.
Gruß,
Matthias
hhsumaopt schrieb:
Ein nicht ganz unbekanntes "Phänomen": Die Rankings werden besser, der Content wird interessanter, die Kopier-Crawler kommen häufiger und der Content landet, wenn man Pech hat, auf einer stärkeren Domain (natürlich im Ausland gehostet) - was besonders dann, wenn neuer Content auf der eigenen Seite noch nicht indiziert wurde, ärgerlich ist, weil Google v. a. dann dazu tendiert, den Content der stärkeren Domain zuzurechnen.
Guter Tip mit dem Zurechnen!!
Vielen Dank.
Also, sobald die IP von einem CopyCrawler bekannt ist. deny from setzen
Hey vielen Dank! Die CopyScape Seite ist echt total der Wahnsinn Hab bisher Stichprobenartik überprüft - keine Befunde.. also bisher positiv, wobei Google vielleicht nicht der älteren Domain glaubt, sondern der, wo es zuerst indexiert wurde - jedenfalls würd ich dies so machen
Da ist man bei Auslandsservern leider fast Machtlos, außer man "hackt" zurück :p
Meine interne Statistik vom Server muss ich noch genauer überprüfen, aber Analytic zeigt leider keine IP. Ich glaube auch nicht das hinter einer Proxy die Zugriffe so schnell wären. Ich bleib da mal dran.
Ist Google beim indexieren auch so schnell? Man könnte mit PHP ja einfach aussperren, wer Seiten zu schnell wechselt - unter 1 Sekunde, der bekommt angezeigt "Nicht so rassant bitte.."
Wäre jedenfalls ne Möglichkeit. Würde sich sicher mit Timestamp und ner Session machen lassen - problematisch nur wenn man Suchmaschinenspider ausschließt, .. auch wenn man die IP derer großteils kennen sollte, nutzt Google z.B. einen Bot der die IP wechselt und sich als normaler User tarnt, damit festgestellt werden kann, ob eine Seite nur für Suchmaschinen zusammengestellt wurde.
Mfg, Marcus
Speedy86 schrieb:
Hey vielen Dank! Die CopyScape Seite ist echt total der Wahnsinn Hab bisher Stichprobenartik überprüft - keine Befunde.. also bisher positiv, wobei Google vielleicht nicht der älteren Domain glaubt, sondern der, wo es zuerst indexiert wurde - jedenfalls würd ich dies so machen
Da ist man bei Auslandsservern leider fast Machtlos, außer man "hackt" zurück :p
Meine interne Statistik vom Server muss ich noch genauer überprüfen, aber Analytic zeigt leider keine IP. Ich glaube auch nicht das hinter einer Proxy die Zugriffe so schnell wären. Ich bleib da mal dran.
Ist Google beim indexieren auch so schnell? Man könnte mit PHP ja einfach aussperren, wer Seiten zu schnell wechselt - unter 1 Sekunde, der bekommt angezeigt "Nicht so rassant bitte.."
Wäre jedenfalls ne Möglichkeit. Würde sich sicher mit Timestamp und ner Session machen lassen - problematisch nur wenn man Suchmaschinenspider ausschließt, .. auch wenn man die IP derer großteils kennen sollte, nutzt Google z.B. einen Bot der die IP wechselt und sich als normaler User tarnt, damit festgestellt werden kann, ob eine Seite nur für Suchmaschinen zusammengestellt wurde.
Mfg, Marcus
Nicht unbedingt die ältere, sondern die stärkere (vertrauenswürdigere) Domain bekommt anscheinend oft "den Zuschlag". So paradox es zunächst klingen mag, aber Domains mit relativ viel doppeltem Content sind oft sehr vertrauenswürdige Domains ("Copyscape" z. B. mal interessante Artikel bzw. Seiten von großen Newsportalen und Du wirst sehen, wie oft der Content mehr oder weniger unverändert übernommen wird. Selbst Rechtsanwälte klauen von top-gerankten RA-Seiten "wie die Raben"). Domains, auf denen regelmäßig News veröffentlicht werden (so wie z. B. auch SR), werden auch häufig gecrawlt. Je stärker also eine Domain, desto wahrscheinlicher gleichzeitig auch, dass ggf. DEIN Content DORT zuerst gecrawlt wird (Wenn Du Duplikate von Newsartikeln gefunden hast, dann kopier\' einfach mal je einen charakteristischen bzw. längeren Satz in die Google-Suche und schau, welche Seite/Site Google jeweils als erste anzeigt; teilweise dauert es auch länger, bis Google DC als solchen erkennt; ein ganz klares Muster, wie Google an der Stelle "funktioniert", kann ich jedenfalls nicht erkennen).
Wenn man von einer stärkeren Domain im Ausland beklaut wurde bzw. häufiger wird (und es merkt -> Copyscape), ist die Änderung/Abwandlung des eigenen Contents - so nervig ist es - m. E. noch die schnellste und sicherste Lösung. Ich könnte mir auch gut vorstellen, dass das Problem "automatisierer Content-Klau" für Seiten/Sites, die für wettbewerbsintensive/teure Keywords weit vorne im Ranking stehen, eher noch zunehmen wird.
Beitrag erstellen
EinloggenKostenlos registrieren