gelöschter Benutzer

CSS Bewertung (Seite 7)


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 16.05.2009, 20:23 Uhr schrieb seitenreport

Ich habe gerade einige TYPO3-Systeme getestet. Diese waren um eine Kommastelle langsamer (0.2 - 0.3) :wink:

Auch Seitenreport, obwohl ich hier eine Turbo-Extension verwende, welche normale HTML-Dateien erzeugt und diese auf dem Server abspeichert... (das wundert mich jetzt ein wenig :o )


Nachtrag: Hier gibt es eine kleine Unverträglichkeit der Extension nc_staticfilecache (Statischer Seiten-Cache, schreibt die Webseite als HTML auf den Server) mit der PHP-include-Extension (lumophpinclude).


Werte von WordPress-Systemen liegen hier ebenfalls bei etwa 0.2 - 0.3 (statt 0.03 - 0.05).


SEO Analyse und Website-Check mit Seitenreport


gelöschter Benutzer
am 16.05.2009, 20:27 Uhr schrieb

seitenreport schrieb:

Ich habe gerade einige TYPO3-Systeme getestet. Diese waren um eine Kommastelle langsamer :wink:

Auch Seitenreport, obwohl ich hier eine Turbo-Extension verwende, welche normale HTML-Dateien erzeugt und diese auf dem Server abspeichert... (das wundert mich jetzt ein wenig :o )



Nicht jeder ist so ein Geizhals wie ich es bin was Serverzeit betrifft. :P

Ich klopfe solche Sprüche nicht aus jux und dollerei:

PowerCMS eines der sparsamsten und schnellsten CMS

Und in der kommenden 2 er Version gehts eine Potenz schneller.


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 16.05.2009, 20:47 Uhr schrieb seitenreport

Es gibt auch TYPO3-Systeme, die es unter 0.03 schaffen (gerade getestet).

z.B. www.visionall.de :wink:



Nun bleibt natürlich die Frage der Bewertung, mein Vorschlag:

0 - 0.05 = 100%
0.20 = 50%
>0.50 = 0%


SEO Analyse und Website-Check mit Seitenreport


gelöschter Benutzer
am 16.05.2009, 20:57 Uhr schrieb

Würde ich gut finden.



gelöschter Benutzer
am 16.05.2009, 21:11 Uhr schrieb

Ãœbrigens PowerCMS auf einem VServer mit 4 weiteren Domains.

Zugriffs- und Generierungszeit: 0.011 sec.

auf einem Singleserver unter 0.007 ohne jeglichen Cache.

Das zeigt mal wieder das solche Zeiten immer stark abhängig sind auch von der Serverleistung selbst.

Wo wenig ist kann man auch nicht das optimalste heraus holen.

PCMS ist eigentlich auf shared Webserver getrimmt da das die normal am häufigsten vorkommende Hostingart ist.


gerard
Content Gott (1271 Beiträge)
am 16.05.2009, 21:40 Uhr schrieb gerard

So richtig verstehe ich die Ergebnisse noch nicht. Ich habe 6 Seiten je 3x durchlaufen lassen. Das sieht so aus:

finistere-ferienhaus.de 0,011 0,011 0,012


ferienhaus-kertanguy.de 0,024 0,023 0,035


bretagnefotos.de 0,030 0,029 0,029


www.tagesschau.de 0,054 0,016 0,026


dciwam.de 0,049 0,051 0,048


www.w3.org 0,390 0,373 0,374



1. Seite: statisch, wenig Text, einige Bilder
2. Seite: wie 1. Seite aber mit Tabellenlayout
3. Seite: statisch, wenig Text, recht viele Bilder
4. Seite: dürfte bekannt sein, aber warum so unterschiedliche Ergebnisse
5. Seite: statisch, sehr wenig Text, 2 Bilder von einem anderen Server
6. Seite: ist wohl bekannt - ist aber nicht schwerer als 4. - aber warum dauert es so lange (Faktor 10!)

Nachtrag: Was wird da nun wirklich ermittelt? Läßt sich das wirklich im Vergleich zu einer anderen Seite bewerten oder überhaupt bewerten? Habe ich als Gestalter Einfluss auf das Ergebnis?

... oder hab ich was falsch verstanden?

Gérard


http://bretagne-virtuell.de


gelöschter Benutzer
am 17.05.2009, 10:25 Uhr schrieb

Es wird die Zeit gemessen die benötigt wird um 1,5 kb von einer Seite zu laden.

Es ist eine Beschränkung auf 1,5 kb weil man damit einen sicheren, praktisch somit genormnten Wert zu Vergleichszwecken hat - das Ergebnis wird dann hoch gerechnet.

Unterschiedlich große Webseiten und deren konkrete Inhalte spielen dann keine Rolle mehr und somit auch deine konkrete Betrachtung bezüglich des tatsächlichen Inhaltes.

Die Zeiten können NIE 100% konstant sein (sie werden hier zudem auch noch gerundet, d.h. die Schwankungen der 8 Kommastellen sind nicht zu sehen).

Der Grund ist natürlich die Belastung eines Webservers selbst.

Für Betrachtung hier ist das aber nicht relevant.

Wie das Ranking selbst ist die Messung eine Momentaufnahme und verschafft denen Vorteile die für die Website und Besucher am meisten machen.

Das wäre z.B.

1. hocheffiziente CMS einsetzen (kleinste Generierunsgzeit und kleinster RAM Verbrauch)
2. Domain auf qualititiv hochwertigen Server hosten
3. Server so einstellen das der Besucher den optimalen Nutzen hat (siehe Diskussion gzip oder nicht), d.h. die Leute die z.B. wegen gzip einen Vorteil für Ihre Seite heraus holen, werden belohnt.

Ziel ist hier im wesentlichen eine Bewertung für einen selbst zu finden um geeignete Massnahmen ergreifen zu können um alles optimal abzuliefern - Ranking fällt nebenbei an und ist völlig unwichtig.


gerard
Content Gott (1271 Beiträge)
am 17.05.2009, 12:07 Uhr schrieb gerard

piratos schrieb:

Es wird die Zeit gemessen die benötigt wird um 1,5 kb von einer Seite zu laden. ... Unterschiedlich große Webseiten und deren konkrete Inhalte spielen dann keine Rolle mehr.


OK - damit ist Vergleichbarkeit hergestellt.

piratos schrieb:

Die Zeiten können NIE 100% konstant sein (sie werden hier zudem auch noch gerundet, d.h. die Schwankungen der 8 Kommastellen sind nicht zu sehen).


Unterschiede im Bereich eines Faktors von 3 sind schon recht gewaltig (Tagesschau). Gut - wenn ich es recht verstanden habe, könnte dies auf die Belastung des Servers zurückzuführen sein.

piratos schrieb:

Für Betrachtung hier ist das aber nicht relevant.


Das ist mir nicht klar.

piratos schrieb:

Wie das Ranking selbst ist die Messung eine Momentaufnahme und verschafft denen Vorteile, die für die Website und Besucher am meisten machen.


An den möglichen Schrauben können aber die meisten nicht selbst drehen ...!

piratos schrieb:

2. Domain auf qualititiv hochwertigen Server hosten


Genau da habe ich nun ein Problem:
Beispiel 1 (Kernaléguen) liegt offensichtlich auf einem guten Server (der Webspace kostet auch tatsächlich etwas mehr). Von den anderen Beispielen liegen 3 auf dem gleichen Server im gleichen Verzeichnis: Kertanguy, Bretagnefotos und dciwam. Zumindest für Kertanguy und Bretagnefotos würde ich ein gleiches Ergebnis erwarten, aber es gibt einen konstanten Unterschied (0,002 zugunsten von Kertanguy - das sind immerhin ca. 10%). dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.

Gérard


http://bretagne-virtuell.de


gelöschter Benutzer
am 17.05.2009, 12:41 Uhr schrieb

Gerard schrieb:

Das ist mir nicht klar.



Nehmen wir mal als Beispiel meine eigene Site.
Die liegt auf einem shared Webserver mit rund 100 Domains.
Die Zeiten schwanken beträchtlich und können im Rahmen von 0.06 bis unter 0.0006 liegen, d.h. Faktor 100.

Das liegt daran das der Server als ganzes mal sehr stark belastet ist und mal eben sozusagen normal arbeitet.
Einfluss darauf hätte ich, müsste nur eine andere Qualitätsstufe einkaufen wie Vserver mit wenigen Domains oder Exklusivserver.
Bei Vservern kann man aber auch Pech haben, denn die Nachbarn und die von denen ausgelöste Last kennt man nicht, aber normal - je weniger Domains desto höher die Leistung für einen selbst.

Aber es hat für hier keine Bedeutung - die Zeit ist da und die muss man so nehmen. Es ist nicht die Aufgabe es schön zu rechnen aus früheren Ergebnissen und geht auch nicht denn die Inhalte sind anonym.


Gerard schrieb:

An den möglichen Schrauben können aber die meisten nicht selbst drehen ...!



Natürlich - einen Weg hatte ich ja beschrieben, die meisten scheuen den Aufwand dann wenn er mit Zeit und /oder Geld verbunden ist.

Nicht jeder eingesetzte Titel ist zeitlich optimal. Man kann viel geweinnen, wenn man einen in dieser Hinsicht besseren Titel einsetzt.
Oder man macht es mit einem besseren Server wett.

Es ist aber eine Sache des Betreibers, der muss für sich entscheiden ob und was er machen will, er muss auch entscheiden ob sich das lohnt.



Gerard schrieb:

Genau da habe ich nun ein Problem:
Beispiel 1 (Kernaléguen) liegt offensichtlich auf einem guten Server (der Webspace kostet auch tatsächlich etwas mehr). Von den anderen Beispielen liegen 3 auf dem gleichen Server im gleichen Verzeichnis: Kertanguy, Bretagnefotos und dciwam. Zumindest für Kertanguy und Bretagnefotos würde ich ein gleiches Ergebnis erwarten, aber es gibt einen konstanten Unterschied (0,002 zugunsten von Kertanguy - das sind immerhin ca. 10%). dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.



Dazu kann ich sagen, das z.B. alle bei mir unter Subdomains angelegte Inhalte sind erheblich langsamer.
Das hat aber etwas mit dem Einrichtungsteil des Servers zu tun, auf den wir keinen Einfluss haben.


gerard
Content Gott (1271 Beiträge)
am 17.05.2009, 13:43 Uhr schrieb gerard

Gerard schrieb:

Genau da habe ich nun ein Problem:
... dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.


Es liegt nicht an den Bildern. Damit bleibt als Erklärung nur php - daran hatte ich nicht gedacht. dciwam wird über php generiert, die beiden anderen Seiten sind statisches HTML/XHTML und damit deutlich schneller.

Gérard


http://bretagne-virtuell.de



« zurück zu: Feedback

Das Seitenreport Forum hat aktuell 5274 Themen und 36108 Beiträge.
Insgesamt sind 48346 Mitglieder registriert.