hansen
Themenersteller
Foren Moderator
Content Gott (1886 Beiträge)

Google drängt Webmaster zur Eile (Seite 5)


hansen
Foren Moderator
Content Gott (1886 Beiträge)
am 12.12.2009, 16:24 Uhr schrieb hansen

gerard schrieb:


Wobei sich Google bisher (zumindest bei mir) auf drei Themenbereich beschränkt - und da sind Bilder - zum Glück - nicht dabei. Die machen aber oft nicht nur die Ansehlichkeit einer Seite, sondern in großem Umfang die Ladezeiten aus.


Bei der Bildersuche legt Google, zumindest bis jetzt, Wert auf große Dateien.

hansen


Nepal Rundreisen

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 12.12.2009, 16:36 Uhr schrieb der_booker

hansen schrieb:

Bei der Bildersuche legt Google, zumindest bis jetzt, Wert auf große Dateien.
hansen



Das stimmt, denn Google möchte eigentlich FOTO\'s finden.Im Grundsatz bis jetzt genau das Gegenteil. Mit einer guten Mischung kann aber beides erreicht werden.

Generell die Seiten schlank halten und die Seiten mit Foto\'s als DIA-Show auf einer eigenen Seite einbauen.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

gerard
Content Gott (1271 Beiträge)
am 12.12.2009, 16:53 Uhr schrieb gerard

der_booker schrieb:

Generell die Seiten schlank halten und die Seiten mit Foto\'s als DIA-Show auf einer eigenen Seite einbauen.


Da würde meine Ferienhausseite recht langweilig ...

Gérard


http://bretagne-virtuell.de

joerg
Avatar joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
am 12.12.2009, 17:48 Uhr schrieb joerg

Hallo

2 Tools mehr die ich mir mal genauer anschauen muss! Zumindest habe ich einen Fehler in meinem CSS gefunden ist auch schon mal was wert!

Was dieses Pagespeed in Bezug auf CSS mir bei meiner Prskspedia anzeigt dann brauche ich wohl für jede Seite ein eigenes CSS und das soll dann auch noch gezippt werden!

Ironie an
Langsam frage ich mich dann doch ob ich die CSS Angaben dann nicht gleich in der Seite mache!
Ironie aus

Was mir jetzt aber nach Suchen nicht ganz klar ist was will Pagespeed im Punkt
Leverage browser caching von mir!

Bei der Optimierung für Yahoo verstehe ich nur das ich ein Ablaufdatum für den Cache setzen sollte und auf 4 Server weltweit verfügbar meine Seiten haben sollte und einen Etag im Header setzen müsste um mich da wirklich zu verbessern.

developer.yahoo.com/performance/rules.html


Wie erschliesst sich mir momentan nicht wirklich! Sonst stehe ich wohl bereits sehr gut da!

Gruß
Jörg


Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools

lwulfe
Avatar lwulfe
Consultant
Content Halbgott (743 Beiträge)
am 17.12.2009, 22:48 Uhr schrieb lwulfe

Hallo,

Webmaster Lutz hat sich zur Eile drängen lassen.
Meine letzten Feierabende habe ich darauf verwendet,
an Hand von Page Speed (tolles Plugin!) meine Seiten zu optimieren.
Das gestaltet sich mit Typo3 und YAML nicht gar so einfach.
Erst recht, wenn man keinen Root-Zugriff auf den Host hat.
Die Bilder habe ich mit Corel Paint, wie ich meine, ohne sichtbaren Verlust erheblich verkleinert.
Bei den CSS- und JS-Dateien hat mir, wie üblich, eine ausgezeichnete Extension "scriptmerger" von Stefan Galinski geholfen.
Die Extension hatte noch einen kleinen Fehler, den ich im direkten Kontakt mit dem Entwickler in kürzester Zeit beheben konnte.
Ein Hoch auf Open Source!!!
Diese Extension merged die immerhin 10 CSS-Dateien zu einer zusammen und geht dann noch mit dem gzip darüber.
Leider lässt unser Hoster mod_expire nicht zu. Das wurmt mich natürlich enorm!
Ergebnis für www.feelfreecoache.de:
vorher
79,98% Gesamtbewertung
Ranking: 339 / 49990
Gesamtgöße 129 KB (137 KB unkomprimiert)

nachher
80,35% Gesamtbewertung
Ranking: 314 / 49997
Gesamtgröße 71 KB (109 KB unkomprimiert)

Auch in Flo´s Traffic Scanner ist die Seite von 3 mal neutral auf 1 mal sehr gut, 2 mal positiv geklettert.



Allen hier im Forum noch einmal vielen Dank.

Viele Grüße
Lutz


airxelo
Beginner (32 Beiträge)
am 18.12.2009, 10:49 Uhr schrieb airxelo

In deinem Beitrag hast du die Page falsch geschrieben aber zum Glück gibts die ja noch in der signatur.

- Title-Attribute in Links: 27 / 36 Links ok
Na das kannst du doch noch verbessern das ist ja nicht schwer

- Verh. Content zu Quelltext: 14.57 % Content
Sollte man auch verbessern, denn um so mehr Text unter um so mehr Keywords wirst du gefunden, auch wenn du Sie weder in den Metadaten noch sonst wo hast

- Ausgehende Links: 4 ausgehende Links
Wenn gewollt ist es gut falls nicht setzte ein NoFollow hinein.

- DOCTYPE: XHTML 1.0 Transitional
Würde auf XHTML . umändern

- Meta Daten
Puuh ich habe mir gerade mal die Meta Daten angeschaut und gesehen das du viel zu viele Keywords hast, meines erachtens nach. Falls du wirklich so viele brauchst mache die auf die Unterseiten bei denen auch mal ein Keyword im Text auftaucht. Naja wir wissen ja das Metadaten eh keine große Rolle spielen, zumindest die Keywords werden von Google garnicht erst angeschaut (siehe Google-Blog)

Wenn du das hast bist du bei ungefair 83 - 85%
Aber hey, ich habe Seiten gesehen die haben gerade mal 50% und sind bei google unter den TOP Plätzen


Nicht mehr aktiv im Board!

lwulfe
Avatar lwulfe
Consultant
Content Halbgott (743 Beiträge)
am 18.12.2009, 20:12 Uhr schrieb lwulfe

airxelo schrieb:

In deinem Beitrag hast du die Page falsch geschrieben aber zum Glück gibts die ja noch in der signatur.

- Title-Attribute in Links: 27 / 36 Links ok
Na das kannst du doch noch verbessern das ist ja nicht schwer

- Verh. Content zu Quelltext: 14.57 % Content
Sollte man auch verbessern, denn um so mehr Text unter um so mehr Keywords wirst du gefunden, auch wenn du Sie weder in den Metadaten noch sonst wo hast

- Ausgehende Links: 4 ausgehende Links
Wenn gewollt ist es gut falls nicht setzte ein NoFollow hinein.

- DOCTYPE: XHTML 1.0 Transitional
Würde auf XHTML . umändern

- Meta Daten
Puuh ich habe mir gerade mal die Meta Daten angeschaut und gesehen das du viel zu viele Keywords hast, meines erachtens nach. Falls du wirklich so viele brauchst mache die auf die Unterseiten bei denen auch mal ein Keyword im Text auftaucht. Naja wir wissen ja das Metadaten eh keine große Rolle spielen, zumindest die Keywords werden von Google garnicht erst angeschaut (siehe Google-Blog)

Wenn du das hast bist du bei ungefair 83 - 85%
Aber hey, ich habe Seiten gesehen die haben gerade mal 50% und sind bei google unter den TOP Plätzen



Hallo Manuel,
danke für deine nette Kritik. Die keywords liegen meiner "Chefin" irgendwie am Herzen. Darf ich nicht raus schmeißen!

Die ausgehenden Links sind tatsächlich gewollt. Eigene Seiten.

Den doctype habe ich jetzt mal auf XHTML 1.1 geändert. Meintest du das?

Tja, und beim Verhältnis Content zu Quelltext habe ich noch keine Lösung gefunden.

Ebenso bei denTitle-Attributen in Links. In einigen Fällen geht das bei Typo nicht. Oder ich weiß nicht, wie.

Grüße Lutz


airxelo
Beginner (32 Beiträge)
am 22.12.2009, 12:24 Uhr schrieb airxelo

lwulfe schrieb:

airxelo schrieb:

In deinem Beitrag hast du die Page falsch geschrieben aber zum Glück gibts die ja noch in der signatur.

- Title-Attribute in Links: 27 / 36 Links ok
Na das kannst du doch noch verbessern das ist ja nicht schwer

- Verh. Content zu Quelltext: 14.57 % Content
Sollte man auch verbessern, denn um so mehr Text unter um so mehr Keywords wirst du gefunden, auch wenn du Sie weder in den Metadaten noch sonst wo hast

- Ausgehende Links: 4 ausgehende Links
Wenn gewollt ist es gut falls nicht setzte ein NoFollow hinein.

- DOCTYPE: XHTML 1.0 Transitional
Würde auf XHTML . umändern

- Meta Daten
Puuh ich habe mir gerade mal die Meta Daten angeschaut und gesehen das du viel zu viele Keywords hast, meines erachtens nach. Falls du wirklich so viele brauchst mache die auf die Unterseiten bei denen auch mal ein Keyword im Text auftaucht. Naja wir wissen ja das Metadaten eh keine große Rolle spielen, zumindest die Keywords werden von Google garnicht erst angeschaut (siehe Google-Blog)

Wenn du das hast bist du bei ungefair 83 - 85%
Aber hey, ich habe Seiten gesehen die haben gerade mal 50% und sind bei google unter den TOP Plätzen



Hallo Manuel,
danke für deine nette Kritik. Die keywords liegen meiner "Chefin" irgendwie am Herzen. Darf ich nicht raus schmeißen!

Die ausgehenden Links sind tatsächlich gewollt. Eigene Seiten.

Den doctype habe ich jetzt mal auf XHTML 1.1 geändert. Meintest du das?

Tja, und beim Verhältnis Content zu Quelltext habe ich noch keine Lösung gefunden.

Ebenso bei denTitle-Attributen in Links. In einigen Fällen geht das bei Typo nicht. Oder ich weiß nicht, wie.

Grüße Lutz


Hallo Lutz,
das mit den Title-Tags ist eigentlich ganz einfach :

Blablabla

So sieht das Ganze aus.
Ich denke mal in Typolight musst du die Bilder die du reingesetzt hast auswählen und Ihnen eine Beschreibung einfügen, hast aber schon fast alle mit title Tags verseehn.


Wie ich sehe hast du die HTML-Sprache auf XHTML 1.0 Strict geändert was auch ok ist

P.S. würde mich freuen wenn eure Seite bald vollständig ist


Nicht mehr aktiv im Board!

georg123
Avatar georg123
Diplomökonom (Pensionär)
Content Halbgott (569 Beiträge)
am 23.12.2009, 17:29 Uhr schrieb georg123

gerard schrieb:

romacron schrieb:

Mal sehen wie arg Google die Quali in den Suchergebnissen bewertet. Vielleicht gibt das noch ne Menge zu Coden, weil die ganzen 2000-2004 geschriebenen Seiten dann durch den Raster fallen. Also Freunde, ich glaub das lässt sich ganz gut als Verkaufsargument nutzen.


Google fällt selbst durchs Raster. Ich lese bei mir folgende Empfehlung:

DNS-Lookups minimieren

Die Domains der folgenden URLs stellen nur jeweils eine Ressource bereit. Vermeiden Sie falls möglich zusätzliche DNS-Lookups durch die Bereitstellung dieser Ressourcen von bereits bestehenden Domains: www.google-analytics.com/urchin.js



Scheint alles sehr fragwürdig.

Gérard



Hallo Gerard und andere Komprimier-Skeptiker,

in den G-Labs erhalte ich den Hinweis, dass meine index.html und meine kern.css stark komprimierbar sind, gzip wird empfohlen.
Meine schwachen Vorkenntnisse erinnern mich an zip-Dateien- zum Archivieren.
Nachdem moderne Festplattengrössen das Archivieren unproblematisch werden liessen hatte ich mich mit dem Thema nicht mehr befasst.
Ãœber CHIP ein Tool heruntergeladen, eingedeutscht, das gzip leistet.
Mit unspektakulären Dateien getestet, hochgeladen- funktioniert nicht. (Dateiendung *.html.gzip)
Nach Löschung Endungsteil .gzip unleserlicher code.

Vermutung: Serverseitig muß ein Entpackungstool installiert werden, das die ge-gzipten Dateien erkennt und rasch entpackt???
Ob aber dadurch der Gesamt-Ladevorgang beschleunigt wird???

Wer hat Erfahrung?
Weihnachtsgrüsse
Fritz




http://georg-hh.freimaurerei.de

Freiheit-Gleichheit-Brüderlichkeit, Toleranz und Humanität:
Dafür stehen und danach streben Freimaurer

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 23.12.2009, 17:35 Uhr schrieb der_booker

georg123 schrieb:

gerard schrieb:

romacron schrieb:

Mal sehen wie arg Google die Quali in den Suchergebnissen bewertet. Vielleicht gibt das noch ne Menge zu Coden, weil die ganzen 2000-2004 geschriebenen Seiten dann durch den Raster fallen. Also Freunde, ich glaub das lässt sich ganz gut als Verkaufsargument nutzen.


Google fällt selbst durchs Raster. Ich lese bei mir folgende Empfehlung:

DNS-Lookups minimieren

Die Domains der folgenden URLs stellen nur jeweils eine Ressource bereit. Vermeiden Sie falls möglich zusätzliche DNS-Lookups durch die Bereitstellung dieser Ressourcen von bereits bestehenden Domains: www.google-analytics.com/urchin.js



Scheint alles sehr fragwürdig.

Gérard



Hallo Gerard und andere Komprimier-Skeptiker,

in den G-Labs erhalte ich den Hinweis, dass meine index.html und meine kern.css stark komprimierbar sind, gzip wird empfohlen.
Meine schwachen Vorkenntnisse erinnern mich an zip-Dateien- zum Archivieren.
Nachdem moderne Festplattengrössen das Archivieren unproblematisch werden liessen hatte ich mich mit dem Thema nicht mehr befasst.
Ãœber CHIP ein Tool heruntergeladen, eingedeutscht, das gzip leistet.
Mit unspektakulären Dateien getestet, hochgeladen- funktioniert nicht. (Dateiendung *.html.gzip)
Nach Löschung Endungsteil .gzip unleserlicher code.

Vermutung: Serverseitig muß ein Entpackungstool installiert werden, das die ge-gzipten Dateien erkennt und rasch entpackt???
Ob aber dadurch der Gesamt-Ladevorgang beschleunigt wird???

Wer hat Erfahrung?
Weihnachtsgrüsse
Fritz



Hallo Fritz, schau mal hier: floern.com/webscripting/dateien-mit-htaccess-gzip-komprimieren


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com



« zurück zu: Google

Das Seitenreport Forum hat aktuell 5274 Themen und 36108 Beiträge.
Insgesamt sind 48348 Mitglieder registriert.