Zum Inhalt springen
ThreadGoogle

Von Google abgestraft - aber warum?

Kategorie
Google
Antworten
10
Verfasst von: ehemaliges Mitglied Datum: 17.03.2011, 11:51 Uhr
Archiv-KommentarSelektiv indexiertGoogle

Redaktionelle Einordnung

Diese archivierte Diskussion behandelt Von Google abgestraft - aber warum? aus Sicht der Rubrik Google.

Die Diskussion bleibt als Archiv nutzbar. Für die aktuelle Bewertung empfehlen sich ergänzend neuere Artikel, Tools oder eine konkrete Analyse.

Sinnvoll nutzbar bleibt der Thread vor allem als historischer Kontext, für typische Fragestellungen und zur Einordnung älterer Empfehlungen.

Startbeitrag

Archivierter Thread aus dem Seitenreport-Forum.

Zur Kategorie
ehemaliges Mitglied
Threadstart · Google · 17.03.2011, 11:51 Uhr

Hallo Seitenreporter,


meine Webseite ist (nur bei Guugl) von Platz 1 bis 5 auf Platz ~670 abgestrzt (Suchbegriff Homepage Stadt, Webdesign Stadt). Da ich soweit ich wei ausschlielich White-Hat SEO anwende habe ich keine Idee, warum das passiert ist. Ich kaufe keine Links, habe originren Content und bin mit der Webseite schon relativ lange sehr weit vorn gewesen. Es gab hier und da mal eine neue Seite und marginale globale nderungen - aber ich suche mich bld und finde keinen Grund fr die offensichtliche Abstrafung. Yahoo und Bing positionieren die Webseite immer noch an der Spitze.

Die Keyworddichte:

1 webdesign 32 4,92%
2 homepage 23 3,53%

Bei den relevanten Keywords (Webdesign / Stadt, Homepage / Stadt) liegt die Dichte nur bei 0.57%.

Ich wäre wirklich dankbar für hilfreiche Hinweise, denn ich bin mit meinem Latein am Ende. Vielleicht fällt einem von euch ja direkt etwas auf und ich habe nur Bohnen auf den Augen.


Gruß, Infidel

Antworten

10 Beiträge
gelöschter Benutzer · 17.03.2011, 14:31 Uhr
Antwort

Hallo Infidel,

was mir so auf den ersten Blick auffällt sind die Darstellungsfehler die die Navigation unbrauchbar machen und Teile des Inhalts unlesbar. Das ganze aus der Besuchersichtweise.

Nun aus der SEO Sicht:


  • Tag-Cloud

  • Spamm in den Seitentiteln

  • Unvollständige Meta Angaben

  • Doppelter Content³

  • Zu viele Ausgehende Links auf allen Seiten

  • Keine Link Struktur oder Links die eigentlich keine Links sind

  • und und und


So viel "White-Hat SEO" ist da eigentlich gar nicht.


Gruß Thomas

gelöschter Benutzer · 17.03.2011, 14:33 Uhr
Antwort

Hallo Infidel

Duplicate Content mit der index.html und mit www und ohne wäre eine Möglichkeit.

Die Pagespeed Werte sind auch ausbaufähig.

Nebenbei in XHTML1.1 ist das lang Attribut nicht zulässig.

Möglicher negativer Einfluss der Schlagwortwolke?

Gruß
Jörg

gelöschter Benutzer · 17.03.2011, 15:40 Uhr
Antwort

Hallo Thomas, hallo Jörg!


Danke für eure Antworten. Thomas, du erwähnst Darstellungsfehler. Kannst du mir bitte sagen, in welchem Browser und Betriebssystem diese auftreten? In Browsershots konnte ich solche Fehler nicht feststellen.

Auerdem habt ihr beide Duplicate Content erwhnt. Darum habe ich das entgegen meines besseren Wissens (habe ja eine .htaccess dafr angelegt) nochmal gecheckt. Das scheint in der Tat das Problem zu sein. Wie es dazu gekommen ist, kann ich mir allerdings nicht erklren - ich habe seit ber einem Jahr die entsprechende .htaccess auf dem Server. Gerade eben habe ich sie erneuert und jetzt funktioniert wieder alles - mal sehen, wann Google die nderung honoriert.

Nochmal: DANKE!




gelöschter Benutzer · 17.03.2011, 16:04 Uhr
Antwort

Infidel schrieb:

Thomas, du erwähnst Darstellungsfehler. Kannst du mir bitte sagen, in welchem Browser und Betriebssystem diese auftreten?



Ja klar, Firefox 3.6.15 unter Linux, im Anhang ist ein Screenshot, die Stellen hab ich mal markiert.

gelöschter Benutzer · 17.03.2011, 16:28 Uhr
Antwort

Hallo Infidel,

sicher hier etwas "offtopic", weil die SIGNATUR betreffend, dennoch:


Denkfehler sind oft auch Ursache für viele Katastrophen.

"Der späte Wurm überlebt den Vogel" ist unkorrekt!

denn: Er berlebt nur den FRHEN Vogel"

Den SPTEN Vogel berlebt er (ziemlich sicher) nicht!

Die meisten Dinge sollte man nicht aus dem Zusammenhang reißen,
sondern immer KOMPLEX BETRACHTEN.

Gruß

kajo

gelöschter Benutzer · 17.03.2011, 18:15 Uhr
Antwort

Hallo Tobias,

vieleicht hattest du Besuch aus Mountain View gehabt und die waren von deinen Textkünsten wohl nicht ganz so begeistert wie du selbst.

"Schauen Sie mal: So einfach kann die Benutzung einer KEYWORD1 aus KEYWORD2 sein!" darüber wurde noch mit em "eine KEYWORD1 aus KEYWORD2 benutzen"

und das ganze Spiel setzt sich bis zum Ende der Seite durch ...

Sowas tut auch den Lesern weh, denn du vergewaltigt deine Keywords um diese auf deiner Seite unterzubringen. Das ist in den Augen von Google spammy und nach meiner Meinung liegt darin das Problem.

romacron
JDev Xer · Content Gott (1224 Beiträge) · 17.03.2011, 18:24 Uhr
Antwort

"Fehlerfreier Html/CSS Code der neuesten Generation Zertifiziert durch W3C"
meinst du das ernst?

Was unterscheidet meine Seite von einer Spam Seite? Die Fragestellung könnte weiterhelfen

gelöschter Benutzer · 17.03.2011, 18:39 Uhr
Antwort

So hab da noch einen Fehler gefunden.

[html]<?xml version="1.0" encoding="UTF-8"?>[/html]
Deine Seite ist vollständig in "ISO-8859-1" Codiert, dein Zeichensatz ist also nicht nur falsch sondern auch veraltet.

EDIT:
Diese Angabe im HTTP-Header verursacht den Fehler.

Content-Type text/html; charset=ISO-8859-1


Die Seite ist doch in UTF-8 Codiert aber der Header überschreibt die Angabe.

Den Fehler sieht man zB im Title des Menüpunktes "SEO: Begriffszuordnung".


Gruß Thomas

gelöschter Benutzer · 17.03.2011, 20:46 Uhr
Antwort

Danke für eure vielen Hinweise und Anregungen. Ich nehme alle sehr ernst und werde die Seite entsprechend überarbeiten. Vielleicht habe ich es mit den Keywords tatsächlich etwas übertrieben - ein Jahr lang hat es so prima funktioniert, aber vielleicht hatte ich auch nur Glück. In jedem Fall habe ich mich in letzter Zeit zu wenig mit der Seite beschäftigt - oft haben meine Kinder oder meine Kunden Vorrang. Aussagen wie die von Romacron zitierte (die ursprünglich zutraf) müssen natürlich kontinuierlich garantiert werden - oder eben von der Seite verschwinden.

Ich überlege, ob ich jeweils nur eine Sache pro Monat ändere - so könnte ich evtl. dem Ausschlag gebenden Punkt auf die Spur kommen. Was meint ihr - würde das Sinn machen oder wäre der Zeitraum noch immer zu kurz?


Gruß, Infidel

gelöschter Benutzer · 17.03.2011, 20:55 Uhr
Antwort

Ich würde die Mängel sofort abstellen, denn du weißt nicht wie lange es dauert, bis die Seite neu eingestuft wird. Daher würde ich das nicht noch künstlich hinauszögern.