hansen
Themenersteller
Foren Moderator
Content Gott (1886 Beiträge)
joerg
Fachinformatiker Anwendungsentwicklung
Content Gott (1941 Beiträge)
Hallo Hansen
Ich habe es gestern in den Webmastertools gesehen!
Da habe ich bereits externe Bilder auf meinen Server geladen!
Heute habe ich dann mal bei meinem Hoster angerufen und erfahren das ich gzip verwenden kann!
Nützlich in dem Zusammenhang sich echt die Tools von Flo.
Get Header
Wenn bei Accept-Encoding gzip steht hat man die funktion zur Verfügung!
Und mit dem Traffic Scanner kann man wohl das Optimum herrausholen!
Obwohl ich mir noch nicht ganz sicher bin ob ich mein CSS nicht doch noch reduzieren kann durch Umstellung der Angaben!
Und dann habe ich eben die PHP Zeile auf meinen Seiten aufgeführt die ich gefunden habe!
Was die Anzahl der CSS Dateien anbetrifft sehe ich keinen Vorteil darin die zu reduzieren weil ich mir das so aufgebaut habe das ich einen Standard habe und entsprechendes CSS dazulade wenn ich es brauche!
Gruß
Jörg
Zufällige Umleitung zu der Startseite einer meiner Domains
Meine ungewöhnlichen Tools
georg123
Diplomökonom (Pensionär)
Content Halbgott (569 Beiträge)
joerg schrieb:
Hallo Hansen
Ich habe es gestern in den Webmastertools gesehen!
Da habe ich bereits externe Bilder auf meinen Server geladen!
Heute habe ich dann mal bei meinem Hoster angerufen und erfahren das ich gzip verwenden kann!
Nützlich in dem Zusammenhang sich echt die Tools von Flo.
Get Header
Wenn bei Accept-Encoding gzip steht hat man die funktion zur Verfügung!
Und mit dem Traffic Scanner kann man wohl das Optimum herrausholen!
Obwohl ich mir noch nicht ganz sicher bin ob ich mein CSS nicht doch noch reduzieren kann durch Umstellung der Angaben!
Und dann habe ich eben die PHP Zeile auf meinen Seiten aufgeführt die ich gefunden habe!
Was die Anzahl der CSS Dateien anbetrifft sehe ich keinen Vorteil darin die zu reduzieren weil ich mir das so aufgebaut habe das ich einen Standard habe und entsprechendes CSS dazulade wenn ich es brauche!
Gruß
Jörg
Hallo Hansen, hallo Jörg,
gleich das FT (FloTool...) für meine georg-hh.freimaurerei.de ausprobiert-
und nun muß ich zusehen, wie ich 18% einsparen kann!
Meine index wie auch meine (eine) css-Dateien haben auch deshalb weisse Kommentare, weil mir noch Weisheit fehlt, und Erinnerungsvermögen. Aber ich will versuchen, über Kopien auf dem Lappi meinem Gedächtnis nachzuhelfen...
Hilfe erbitte ich aber zu: Wo finde ich was in den Webmastertools???
Möglicherweise habe ich Tomaten auf den Augen, ich finde einfach nichts...
Grüsse
Fritz
http://georg-hh.freimaurerei.de
Freiheit-Gleichheit-Brüderlichkeit, Toleranz und Humanität:
Dafür stehen und danach streben Freimaurer
Raptor
IT-Student
Content Gott (1013 Beiträge)
Ich hab\'s einen Tag nachdem es online ging bereits bemerkt. (Ich schaue immer nach, ob\'s was neuen bei den Labs gibt.)
Unterdessen habe ich die 1.5 Sekunden-Marke erreicht (nach oben durchgeschlagen). Vor einer Woche war\'s knapp eine Sekunde.
joerg schrieb:
Nützlich in dem Zusammenhang sich echt die Tools von Flo.
Get Header
Wenn bei Accept-Encoding gzip steht hat man die funktion zur Verfügung!
Und mit dem Traffic Scanner kann man wohl das Optimum herrausholen!
Mach doch nicht noch mehr Werbung, meine Website wird total überrannt.
Spass beiseite:
georg123 schrieb:
Hilfe erbitte ich aber zu: Wo finde ich was in den Webmastertools???
Möglicherweise habe ich Tomaten auf den Augen, ich finde einfach nichts...
Menü: Google Labs > Website-Leistung
Edit: Moment, im Artikel steht, dass nichts angezeigt wird wenn zu wenig Daten vorhanden sind. Das könnte der Grund sein warum du es nicht findest.
Meine Developer-Website mit den Web-Entwickler-Tools.
Meine Web-Entwicklungs-Dienstleistungen
[url="http://www.seitenreport.de/forum/beitraege/seitenreport_verlosungen/wichtig_neue_regel
romacron
JDev Xer
Content Gott (1224 Beiträge)
Im Firebug ist bereits ein Tool installiert, namens="Netzwerk". Damit lassen sich die relevanten paramter herausfinden.
Das Tool was bei www.golem.de/0912/71621.html
"Page Speed" empfohlen wurde zeigt keine hübschen Grafiken
Hoffentlich bauen die Leut von Firebug die genauere Bewertung in das eigene Tool ein.
Würd mich mal interessieren was in diesem "Page speed tool" alles steckt, in Sachen "ich informiere meinen Schöpfer über alles "
Dauert nicht mehr lange dann bringt mir google die hausschuhe.
georg123
Diplomökonom (Pensionär)
Content Halbgott (569 Beiträge)
Raptor schrieb:
Ich hab\'s einen Tag nachdem es online ging bereits bemerkt. (Ich schaue immer nach, ob\'s was neuen bei den Labs gibt.)
Unterdessen habe ich die 1.5 Sekunden-Marke erreicht (nach oben durchgeschlagen). Vor einer Woche war\'s knapp eine Sekunde.
joerg schrieb:
Nützlich in dem Zusammenhang sich echt die Tools von Flo.
Get Header
Wenn bei Accept-Encoding gzip steht hat man die funktion zur Verfügung!
Und mit dem Traffic Scanner kann man wohl das Optimum herrausholen!
Mach doch nicht noch mehr Werbung, meine Website wird total überrannt.
Spass beiseite:
georg123 schrieb:
Hilfe erbitte ich aber zu: Wo finde ich was in den Webmastertools???
Möglicherweise habe ich Tomaten auf den Augen, ich finde einfach nichts...
Menü: Google Labs > Website-Leistung
Edit: Moment, im Artikel steht, dass nichts angezeigt wird wenn zu wenig Daten vorhanden sind. Das könnte der Grund sein warum du es nicht findest.
Hallo raptor,
Ganz herzlichen Dank für den Hinweis. Ich gestehe forumsöffentlich, daß ich erstmals bewusst in den Google-Labs zu Besuch war.... Vielleicht ermuntert das andere sr-Forumsleser, die insofern meinen Wissensstand haben, auch zu forschen.
Das Ergebnis liest sich so: Ladezeit 0,4sec, "besser als 97% der bewerteten Seiten".
Mein PR ist (und wird vermutlich noch länger stehen bleiben bei) 1- was könnte ein "Schrauben" an der Stelle bringen?
Und: Mit welchem Freeware-Tool könnte ich meine Freimaurer-Mauer auf der Startseite, mauer.gif, komprimieren?
Grüße (war das nicht in die Schweiz???)
Fritz
http://georg-hh.freimaurerei.de
Freiheit-Gleichheit-Brüderlichkeit, Toleranz und Humanität:
Dafür stehen und danach streben Freimaurer
romacron
JDev Xer
Content Gott (1224 Beiträge)
Nun ging mir das nicht aus dem Kopf, angekündigt war bereits schon seit einiger Zeit, dass die Qualität eine noch grössere Rolle spielt.
Mal sehen wie arg Google die Quali in den Suchergebnissen bewertet. Vielleicht gibt das noch ne Menge zu Coden, weil die ganzen 2000-2004 geschriebenen Seiten dann durch den Raster fallen. Also Freunde, ich glaub das lässt sich ganz gut als Verkaufsargument nutzen.
Google === Webtüv
Raptor
IT-Student
Content Gott (1013 Beiträge)
georg123 schrieb:
Das Ergebnis liest sich so: Ladezeit 0,4sec, "besser als 97% der bewerteten Seiten".
Mein PR ist (und wird vermutlich noch länger stehen bleiben bei) 1- was könnte ein "Schrauben" an der Stelle bringen?
Und: Mit welchem Freeware-Tool könnte ich meine Freimaurer-Mauer auf der Startseite, mauer.gif, komprimieren?
Bilder lassen sich nur schwer komprimieren. Eine Möglichkeit wäre sie als jpeg abzuspeichern und dann die Qualität derart runterzuschrauben, dass sich nichts mehr erkennen lässt.
Und was das dann effektiv bzl. Google bring, kann ich dir nicht sagen.
georg123 schrieb:
(war das nicht in die Schweiz???)
Kommt drauf an, wen sie betreffen aber, ja.
Grüsse zurück
Meine Developer-Website mit den Web-Entwickler-Tools.
Meine Web-Entwicklungs-Dienstleistungen
[url="http://www.seitenreport.de/forum/beitraege/seitenreport_verlosungen/wichtig_neue_regel
der_booker
Foren Moderator
selbständig
(2762 Beiträge)
Raptor schrieb:
Bilder lassen sich nur schwer komprimieren. Eine Möglichkeit wäre sie als jpeg abzuspeichern und dann die Qualität derart runterzuschrauben, dass sich nichts mehr erkennen lässt.
Und was das dann effektiv bzl. Google bring, kann ich dir nicht sagen.
Das wird schwer werden eine sauber Balance zu finden. Die User legen Wert auf Bilder und Animation in Form von Videos. Nun soll das aber alles so klein wie möglich gehalten werden.
Mal sehen, Google kann ja nun auch Flash lesen respektive fast. Vielleicht ist das ja die Rückkehr zum Flash?!?!
Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com
gerard
Content Gott (1271 Beiträge)
romacron schrieb:
Mal sehen wie arg Google die Quali in den Suchergebnissen bewertet. Vielleicht gibt das noch ne Menge zu Coden, weil die ganzen 2000-2004 geschriebenen Seiten dann durch den Raster fallen. Also Freunde, ich glaub das lässt sich ganz gut als Verkaufsargument nutzen.
Google fällt selbst durchs Raster. Ich lese bei mir folgende Empfehlung:
DNS-Lookups minimieren
Die Domains der folgenden URLs stellen nur jeweils eine Ressource bereit. Vermeiden Sie falls möglich zusätzliche DNS-Lookups durch die Bereitstellung dieser Ressourcen von bereits bestehenden Domains: www.google-analytics.com/urchin.js
Scheint alles sehr fragwürdig.
Gérard
http://bretagne-virtuell.de
romacron
JDev Xer
Content Gott (1224 Beiträge)
Geb ich Dir Recht. Jeder hat wohl eine Tracker laufen. Ich kann mir auch vorstellen, dass google erstmal fleißig auf die Reaktionen wartet und dann die "Fehler" anders bewertet.
result=(DNS lookups = 1)
-
(allowed lookups=1)
:klatschen:
@booker bitte kein Flash(bitte nicht)
Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.
Beitrag erstellen
EinloggenKostenlos registrieren