Speedy86
Avatar Speedy86
Themenersteller
(Ãœberlebens-) Künstler - nein, Programmierer und Designer
Fortgeschrittener (94 Beiträge)

Extrem viele Zugriffe die letzten Tage

am 27.01.2010, 02:45 Uhr eröffnete Speedy86 folgenden Thread
Sonstige    4101 mal gelesen    8 Antwort(en).

Hallo SR Community,

auch bei mir sind in den letzten Tagen extrem viele Zugriffe gewesen.

Die jetzt folgenden Statistiken sind Tageszugriffe über die Google Suchergebnisse!!!


Keyword: "Webpräsents"
Zugriff: 1
Seiten: 496,00
Besuchszeit: 02:02:24 (also 2h)

Keyword: "träume sind scheume " (eigentlich Schäume, aber tja..Forum)
Zugriff: 3
Seiten: 81,00
Besuchszeit: 03:37:42 (weit über 3h!)

Keyword: "webchars"
Zugriffe: 5
Seiten pro Zugriff: 159,80 (Duchschnittlich)
Besuchszeit: 02:40:31 (bald 3h!)


Da gibt es noch einige mehr Keywords, die so enorm anschlagen. Da die Besuche aber durch die Google Suchergebnisse sind, schließe ich Crawler grundsätzlich aus. Irgendjemand hatte hier etwas ähnliches.
Seit unsere neue Sitemap indexiert wurde, geht das richtig rund, wobei die genannten Keywords nicht in der neuen Sitemap auftauchen

Mfg, Marcus


http://webmaster-glossar.de

romacron
JDev Xer
Content Gott (1224 Beiträge)
am 27.01.2010, 10:50 Uhr schrieb romacron

Hallo Speedy!

Hast Du einmal die Verweildauer, die weiteren Klicks und die IP\'s verglichen?

Es kann auch eine Art WebsiteCopierer sein.
Das geht auch recht einfach zu machen.
Thema: "Wie erzeuge ich bei meinen Freunden Traffic".

Alle Jumps die unter 4 Sekunden und der folgende auch usw. wird kein Mensch sein können.

Keyword: "Webpräsents"
Zugriff: 1
Seiten: 496,00 // wenn das 496.00 heissen soll sind das 65 Zugriffe pro Sekunde sonst 6,5 (das ist schon recht schwer, da Menschen mit einer Reaktionszeit von 0,25 sekunden schon zu den schnellen gehören)
Besuchszeit: 02:02:24 (also 2h)


Speedy86
Avatar Speedy86
(Ãœberlebens-) Künstler - nein, Programmierer und Designer
Fortgeschrittener (94 Beiträge)
am 27.01.2010, 11:47 Uhr schrieb Speedy86

496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?
Was meinst du direkt mit "Wie erzeuge ich bei meinen Freunden Traffic" ? Habe keine Freunde die so meinen Content durchwühlen nur vll 2..3 Seiten anschauen... leider kann ich nicht einsehen, welche Seiten genau abgerufen wurden, aber 65 Seiten pro Sekunde, das wäre nicht möglich, da die Seite laut Google schon 1,5 Sekunden zum Aufbau braucht.

Naja, denke das haben viele Webmaster, ist mir aber erst so aufgefallen seit wir mit einigen Keywords weit oben standen.

Danke schonmal für deinen Beitrag
Mfg, Marcus


http://webmaster-glossar.de

romacron
JDev Xer
Content Gott (1224 Beiträge)
am 27.01.2010, 11:56 Uhr schrieb romacron

Speedy86 schrieb:

496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?


Damit werden Webseiten kopiert.

Speedy86 schrieb:

Was meinst du direkt mit "Wie erzeuge ich bei meinen Freunden Traffic" ? Habe keine Freunde die so meinen Content durchwühlen nur vll 2..3 Seiten anschauen... leider kann ich nicht einsehen, welche Seiten genau abgerufen wurden, aber 65 Seiten pro Sekunde, das wäre nicht möglich, da die Seite laut Google schon 1,5 Sekunden zum Aufbau braucht.



Wenn Webseiten abgefragt werden, heißt das nicht, das diese Seiten auch vollständig beim Client komplett aufgebaut werden müssen.


hhsumaopt
Avatar hhsumaopt
Diplom-Ökonom, Kaufmann, Geschäftsführer, Gesellschafter
Guru (226 Beiträge)
am 27.01.2010, 12:11 Uhr schrieb hhsumaopt

Ein nicht ganz unbekanntes "Phänomen": Die Rankings werden besser, der Content wird interessanter, die Kopier-Crawler kommen häufiger und der Content landet, wenn man Pech hat, auf einer stärkeren Domain (natürlich im Ausland gehostet) - was besonders dann, wenn neuer Content auf der eigenen Seite noch nicht indiziert wurde, ärgerlich ist, weil Google v. a. dann dazu tendiert, den Content der stärkeren Domain zuzurechnen.

Einfach mal mit www.copyscape.com beobachten (bisher scheint bei Dir noch nichts passiert zu sein, aber evtl. mal über ein Base Tag, das zumindest verhindern kann, dass die Links an neuer Wirkungsstätte noch funktionieren, nachdenken).

BTW: Auch E-Mail-Adressen werden von Robots ausgespäht. Damit die Besucherstatistik dann nicht auch noch falsch interpretiert bzw. überschätzt wird, besser Analysetools, die Mensch und Maschine unterscheiden bzw. maschinelle Zugriffe nicht mitzählen, verwenden.


Google News & SEO Updates in Echtzeit
Suchmaschinenoptimierung Tipps plus
Zugriff auf >1.000 Fa

seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 27.01.2010, 12:11 Uhr schrieb seitenreport

romacron schrieb:

Speedy86 schrieb:

496 Seiten für den Zugriff ist schon richtig... und was sind Website Kopierer? Die Content direkt klauen?


Damit werden Webseiten kopiert.


Ein Webseiten-Kopierer, den ich selber gerne verwende, ist z.B. HTTrack (kostenlos). Mit ihm lassen sich kinderleicht komplette Webseiten herunterladen, archivieren und offline lesen.

Gruß,
Matthias


SEO Analyse und Website-Check mit Seitenreport

romacron
JDev Xer
Content Gott (1224 Beiträge)
am 27.01.2010, 12:14 Uhr schrieb romacron

hhsumaopt schrieb:

Ein nicht ganz unbekanntes "Phänomen": Die Rankings werden besser, der Content wird interessanter, die Kopier-Crawler kommen häufiger und der Content landet, wenn man Pech hat, auf einer stärkeren Domain (natürlich im Ausland gehostet) - was besonders dann, wenn neuer Content auf der eigenen Seite noch nicht indiziert wurde, ärgerlich ist, weil Google v. a. dann dazu tendiert, den Content der stärkeren Domain zuzurechnen.



Guter Tip mit dem Zurechnen!!
Vielen Dank.

Also, sobald die IP von einem CopyCrawler bekannt ist. deny from setzen


Speedy86
Avatar Speedy86
(Ãœberlebens-) Künstler - nein, Programmierer und Designer
Fortgeschrittener (94 Beiträge)
am 28.01.2010, 02:12 Uhr schrieb Speedy86

Hey vielen Dank! Die CopyScape Seite ist echt total der Wahnsinn Hab bisher Stichprobenartik überprüft - keine Befunde.. also bisher positiv, wobei Google vielleicht nicht der älteren Domain glaubt, sondern der, wo es zuerst indexiert wurde - jedenfalls würd ich dies so machen
Da ist man bei Auslandsservern leider fast Machtlos, außer man "hackt" zurück :p

Meine interne Statistik vom Server muss ich noch genauer überprüfen, aber Analytic zeigt leider keine IP. Ich glaube auch nicht das hinter einer Proxy die Zugriffe so schnell wären. Ich bleib da mal dran.

Ist Google beim indexieren auch so schnell? Man könnte mit PHP ja einfach aussperren, wer Seiten zu schnell wechselt - unter 1 Sekunde, der bekommt angezeigt "Nicht so rassant bitte.."
Wäre jedenfalls ne Möglichkeit. Würde sich sicher mit Timestamp und ner Session machen lassen - problematisch nur wenn man Suchmaschinenspider ausschließt, .. auch wenn man die IP derer großteils kennen sollte, nutzt Google z.B. einen Bot der die IP wechselt und sich als normaler User tarnt, damit festgestellt werden kann, ob eine Seite nur für Suchmaschinen zusammengestellt wurde.

Mfg, Marcus


http://webmaster-glossar.de

hhsumaopt
Avatar hhsumaopt
Diplom-Ökonom, Kaufmann, Geschäftsführer, Gesellschafter
Guru (226 Beiträge)
am 28.01.2010, 10:09 Uhr schrieb hhsumaopt

Speedy86 schrieb:

Hey vielen Dank! Die CopyScape Seite ist echt total der Wahnsinn Hab bisher Stichprobenartik überprüft - keine Befunde.. also bisher positiv, wobei Google vielleicht nicht der älteren Domain glaubt, sondern der, wo es zuerst indexiert wurde - jedenfalls würd ich dies so machen
Da ist man bei Auslandsservern leider fast Machtlos, außer man "hackt" zurück :p

Meine interne Statistik vom Server muss ich noch genauer überprüfen, aber Analytic zeigt leider keine IP. Ich glaube auch nicht das hinter einer Proxy die Zugriffe so schnell wären. Ich bleib da mal dran.

Ist Google beim indexieren auch so schnell? Man könnte mit PHP ja einfach aussperren, wer Seiten zu schnell wechselt - unter 1 Sekunde, der bekommt angezeigt "Nicht so rassant bitte.."
Wäre jedenfalls ne Möglichkeit. Würde sich sicher mit Timestamp und ner Session machen lassen - problematisch nur wenn man Suchmaschinenspider ausschließt, .. auch wenn man die IP derer großteils kennen sollte, nutzt Google z.B. einen Bot der die IP wechselt und sich als normaler User tarnt, damit festgestellt werden kann, ob eine Seite nur für Suchmaschinen zusammengestellt wurde.

Mfg, Marcus


Nicht unbedingt die ältere, sondern die stärkere (vertrauenswürdigere) Domain bekommt anscheinend oft "den Zuschlag". So paradox es zunächst klingen mag, aber Domains mit relativ viel doppeltem Content sind oft sehr vertrauenswürdige Domains ("Copyscape" z. B. mal interessante Artikel bzw. Seiten von großen Newsportalen und Du wirst sehen, wie oft der Content mehr oder weniger unverändert übernommen wird. Selbst Rechtsanwälte klauen von top-gerankten RA-Seiten "wie die Raben"). Domains, auf denen regelmäßig News veröffentlicht werden (so wie z. B. auch SR), werden auch häufig gecrawlt. Je stärker also eine Domain, desto wahrscheinlicher gleichzeitig auch, dass ggf. DEIN Content DORT zuerst gecrawlt wird (Wenn Du Duplikate von Newsartikeln gefunden hast, dann kopier\' einfach mal je einen charakteristischen bzw. längeren Satz in die Google-Suche und schau, welche Seite/Site Google jeweils als erste anzeigt; teilweise dauert es auch länger, bis Google DC als solchen erkennt; ein ganz klares Muster, wie Google an der Stelle "funktioniert", kann ich jedenfalls nicht erkennen).

Wenn man von einer stärkeren Domain im Ausland beklaut wurde bzw. häufiger wird (und es merkt -> Copyscape), ist die Änderung/Abwandlung des eigenen Contents - so nervig ist es - m. E. noch die schnellste und sicherste Lösung. Ich könnte mir auch gut vorstellen, dass das Problem "automatisierer Content-Klau" für Seiten/Sites, die für wettbewerbsintensive/teure Keywords weit vorne im Ranking stehen, eher noch zunehmen wird.


Google News & SEO Updates in Echtzeit
Suchmaschinenoptimierung Tipps plus
Zugriff auf >1.000 Fa

  • 1


« zurück zu: Sonstige

Das Seitenreport Forum hat aktuell 5277 Themen und 36111 Beiträge.
Insgesamt sind 48343 Mitglieder registriert.