Ich habe gerade einige TYPO3-Systeme getestet. Diese waren um eine Kommastelle langsamer (0.2 - 0.3) :wink:
Auch Seitenreport, obwohl ich hier eine Turbo-Extension verwende, welche normale HTML-Dateien erzeugt und diese auf dem Server abspeichert... (das wundert mich jetzt ein wenig :o )
Nachtrag: Hier gibt es eine kleine Unverträglichkeit der Extension nc_staticfilecache (Statischer Seiten-Cache, schreibt die Webseite als HTML auf den Server) mit der PHP-include-Extension (lumophpinclude).
Werte von WordPress-Systemen liegen hier ebenfalls bei etwa 0.2 - 0.3 (statt 0.03 - 0.05).
seitenreport schrieb:
Ich habe gerade einige TYPO3-Systeme getestet. Diese waren um eine Kommastelle langsamer :wink:
Auch Seitenreport, obwohl ich hier eine Turbo-Extension verwende, welche normale HTML-Dateien erzeugt und diese auf dem Server abspeichert... (das wundert mich jetzt ein wenig :o )
Nicht jeder ist so ein Geizhals wie ich es bin was Serverzeit betrifft. :P
Ich klopfe solche Sprüche nicht aus jux und dollerei:
PowerCMS eines der sparsamsten und schnellsten CMS
Und in der kommenden 2 er Version gehts eine Potenz schneller.
Es gibt auch TYPO3-Systeme, die es unter 0.03 schaffen (gerade getestet).
z.B. www.visionall.de :wink:
Würde ich gut finden.
Ãœbrigens PowerCMS auf einem VServer mit 4 weiteren Domains.
Zugriffs- und Generierungszeit: 0.011 sec.
auf einem Singleserver unter 0.007 ohne jeglichen Cache.
Das zeigt mal wieder das solche Zeiten immer stark abhängig sind auch von der Serverleistung selbst.
Wo wenig ist kann man auch nicht das optimalste heraus holen.
PCMS ist eigentlich auf shared Webserver getrimmt da das die normal am häufigsten vorkommende Hostingart ist.
So richtig verstehe ich die Ergebnisse noch nicht. Ich habe 6 Seiten je 3x durchlaufen lassen. Das sieht so aus:
finistere-ferienhaus.de 0,011 0,011 0,012
ferienhaus-kertanguy.de 0,024 0,023 0,035
bretagnefotos.de 0,030 0,029 0,029
www.tagesschau.de 0,054 0,016 0,026
dciwam.de 0,049 0,051 0,048
www.w3.org 0,390 0,373 0,374
Es wird die Zeit gemessen die benötigt wird um 1,5 kb von einer Seite zu laden.
Es ist eine Beschränkung auf 1,5 kb weil man damit einen sicheren, praktisch somit genormnten Wert zu Vergleichszwecken hat - das Ergebnis wird dann hoch gerechnet.
Unterschiedlich große Webseiten und deren konkrete Inhalte spielen dann keine Rolle mehr und somit auch deine konkrete Betrachtung bezüglich des tatsächlichen Inhaltes.
Die Zeiten können NIE 100% konstant sein (sie werden hier zudem auch noch gerundet, d.h. die Schwankungen der 8 Kommastellen sind nicht zu sehen).
Der Grund ist natürlich die Belastung eines Webservers selbst.
Für Betrachtung hier ist das aber nicht relevant.
Wie das Ranking selbst ist die Messung eine Momentaufnahme und verschafft denen Vorteile die für die Website und Besucher am meisten machen.
Das wäre z.B.
1. hocheffiziente CMS einsetzen (kleinste Generierunsgzeit und kleinster RAM Verbrauch)
2. Domain auf qualititiv hochwertigen Server hosten
3. Server so einstellen das der Besucher den optimalen Nutzen hat (siehe Diskussion gzip oder nicht), d.h. die Leute die z.B. wegen gzip einen Vorteil für Ihre Seite heraus holen, werden belohnt.
Ziel ist hier im wesentlichen eine Bewertung für einen selbst zu finden um geeignete Massnahmen ergreifen zu können um alles optimal abzuliefern - Ranking fällt nebenbei an und ist völlig unwichtig.
piratos schrieb:
Es wird die Zeit gemessen die benötigt wird um 1,5 kb von einer Seite zu laden. ... Unterschiedlich große Webseiten und deren konkrete Inhalte spielen dann keine Rolle mehr.
OK - damit ist Vergleichbarkeit hergestellt.
piratos schrieb:
Die Zeiten können NIE 100% konstant sein (sie werden hier zudem auch noch gerundet, d.h. die Schwankungen der 8 Kommastellen sind nicht zu sehen).
Unterschiede im Bereich eines Faktors von 3 sind schon recht gewaltig (Tagesschau). Gut - wenn ich es recht verstanden habe, könnte dies auf die Belastung des Servers zurückzuführen sein.
piratos schrieb:
Für Betrachtung hier ist das aber nicht relevant.
Das ist mir nicht klar.
piratos schrieb:
Wie das Ranking selbst ist die Messung eine Momentaufnahme und verschafft denen Vorteile, die für die Website und Besucher am meisten machen.
An den möglichen Schrauben können aber die meisten nicht selbst drehen ...!
piratos schrieb:
2. Domain auf qualititiv hochwertigen Server hosten
Genau da habe ich nun ein Problem:
Beispiel 1 (Kernaléguen) liegt offensichtlich auf einem guten Server (der Webspace kostet auch tatsächlich etwas mehr). Von den anderen Beispielen liegen 3 auf dem gleichen Server im gleichen Verzeichnis: Kertanguy, Bretagnefotos und dciwam. Zumindest für Kertanguy und Bretagnefotos würde ich ein gleiches Ergebnis erwarten, aber es gibt einen konstanten Unterschied (0,002 zugunsten von Kertanguy - das sind immerhin ca. 10%). dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.
Gérard
Gerard schrieb:
Das ist mir nicht klar.
Nehmen wir mal als Beispiel meine eigene Site.
Die liegt auf einem shared Webserver mit rund 100 Domains.
Die Zeiten schwanken beträchtlich und können im Rahmen von 0.06 bis unter 0.0006 liegen, d.h. Faktor 100.
Das liegt daran das der Server als ganzes mal sehr stark belastet ist und mal eben sozusagen normal arbeitet.
Einfluss darauf hätte ich, müsste nur eine andere Qualitätsstufe einkaufen wie Vserver mit wenigen Domains oder Exklusivserver.
Bei Vservern kann man aber auch Pech haben, denn die Nachbarn und die von denen ausgelöste Last kennt man nicht, aber normal - je weniger Domains desto höher die Leistung für einen selbst.
Aber es hat für hier keine Bedeutung - die Zeit ist da und die muss man so nehmen. Es ist nicht die Aufgabe es schön zu rechnen aus früheren Ergebnissen und geht auch nicht denn die Inhalte sind anonym.
Gerard schrieb:
An den möglichen Schrauben können aber die meisten nicht selbst drehen ...!
Natürlich - einen Weg hatte ich ja beschrieben, die meisten scheuen den Aufwand dann wenn er mit Zeit und /oder Geld verbunden ist.
Nicht jeder eingesetzte Titel ist zeitlich optimal. Man kann viel geweinnen, wenn man einen in dieser Hinsicht besseren Titel einsetzt.
Oder man macht es mit einem besseren Server wett.
Es ist aber eine Sache des Betreibers, der muss für sich entscheiden ob und was er machen will, er muss auch entscheiden ob sich das lohnt.
Gerard schrieb:
Genau da habe ich nun ein Problem:
Beispiel 1 (Kernaléguen) liegt offensichtlich auf einem guten Server (der Webspace kostet auch tatsächlich etwas mehr). Von den anderen Beispielen liegen 3 auf dem gleichen Server im gleichen Verzeichnis: Kertanguy, Bretagnefotos und dciwam. Zumindest für Kertanguy und Bretagnefotos würde ich ein gleiches Ergebnis erwarten, aber es gibt einen konstanten Unterschied (0,002 zugunsten von Kertanguy - das sind immerhin ca. 10%). dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.
Dazu kann ich sagen, das z.B. alle bei mir unter Subdomains angelegte Inhalte sind erheblich langsamer.
Das hat aber etwas mit dem Einrichtungsteil des Servers zu tun, auf den wir keinen Einfluss haben.
Gerard schrieb:
Genau da habe ich nun ein Problem:
... dciwam ist um den Faktor 2 schlechter. Hier fällt mir eine mögliche Erklärung ein: Eines der zwei winzigen Bilder kommt von dem grotten lahmen Server des W3C. Ich werde da mal experimentieren.
Es liegt nicht an den Bildern. Damit bleibt als Erklärung nur php - daran hatte ich nicht gedacht. dciwam wird über php generiert, die beiden anderen Seiten sind statisches HTML/XHTML und damit deutlich schneller.
Gérard
Beitrag erstellen
EinloggenKostenlos registrieren