<a href=""></a> <a href="-online-5"></a> <a href="-couple-name-2378"></a> <a href=""></a> <a…
von:
<a href=""></a> <a href=""></a> <a href="-online-30"></a> <a href=""></a> <a href=""></a> <a…
von:
piratos schrieb:
Es sind so oder so immer Sekunden. kann man auch aus dem Manual (siehe Link vom Vorposter) entnehmen.
Das stimmt zwar prinzipiell, aber wenn man den Parameter weglässt kann man NICHT einfach die beiden Werte Subtrahieren, da dann ein etwas seltsamer String zurückgegeben wird, der form "msec sec" also erst die millisekunden, dann ein space und dann die sekunden. keine Ahnung warum, aber so ist das
Das führt dann zu komischen dingen, wie zB das dass ergebnis negativ ist, und genau das wurde mir gerade angezeigt, juhu! meine seite ist überlichtschnell! .
kann es sein, das mit microtime() getestet wird, und nicht mit microtime(TRUE)? Das würde auch erklären, warum die ergebnisse so schwanken.
Gerade testweise eingebaut.
Für deine Seite erhalte ich nun Werte zwischen 0.02 und 0.05.
Auf Schwankungen kann man keine Rücksicht nehmen die kommen bei shared Webservern z.B. laufend vor und teils extrem.
Da gibt es eben keine konstanten Werte wie bei einem Image.
Selbst gzip schwankt enorm, da ich gzip mal wieder zum Test aktiviert habe kann ich das gut beurteilen, werde das auch wieder in ein paar Tagen verschwinden lassen, denn unterm Strich kohnt es nicht.
kann es sein, das mit microtime() getestet wird, und nicht mit microtime(TRUE)? Das würde auch erklären, warum die ergebnisse so schwanken.
Nein, wird per microtime(true) getestet :wink:
Minus-Zahlen tauchten nur vorhin auf, als ich gerade die Analyse umstellte auf 3 Proben und ergebnis = wert3-wert2. (wert1 fällt weg). Diese werden nun "positiviert"
seitenreport schrieb:
Gerade testweise eingebaut.
Für deine Seite erhalte ich nun Werte zwischen 0.02 und 0.05.
Total beim Empfänger kann das sein.
PowerCMS -> Website powercms.org :: Verbrauch normal:235908 Verbrauch Spitze:524288 Supercache in Aktion Gesamtzeit:0.00070595741271973
Für ein faires Ergebnis müsste man jetzt natürlich noch das Ergebnis durch die Größe des Quellcodes teilen, bzw. nur eine bestimmte Anzahl von Bytes der Homepage auslesen.
Die Zeiten sind stimmig, meine Pingzeit liegt bei 22 ms.
seitenreport schrieb:
Für ein faires Ergebnis müsste man jetzt natürlich noch das Ergebnis durch die Größe des Quellcodes teilen, bzw. nur eine bestimmte Anzahl von Bytes der Homepage auslesen.
Dann aber auch alle sonstigen Inhalte inkl. Flash und Videos.
Dann aber auch alle sonstigen Inhalte inkl. Flash und Videos.
Äh dann aber stimmen die Zeiten sowieso nicht mehr.
Dann musst du wohl die reine HTML Größe nehmen und dann sind die Gewinner mit 400 Byte Inhalt.
Ich würde das so lassen, denn wie haben ja eine Bewertung Quellcode zu Inhalt.
Irgendwann kann man sich auch tot bewerten.
Halte das für wichtig, weil ja die Generierungszeit gemessen werden soll. Wenn sonst einer einen Quellcode von 1 KB hat, ein anderer aber von 10 KB würde es beim letzteren natürlich länger dauern, bis die (X)HTML-Datei heruntergeladen wäre.
Ich habe den Code gerade dahingehend umgebaut, dass nur die ersten 2 KB heruntergeladen werden.
Die Ergebnisse passen doch recht gut:
powercms.org 0.02 - 0.04,
matthias-glaessner.de ca. 0.03 (PHP / eigenes simples CMS)
und seitenreport ca. 0.3 :o (TYPO3)
Beitrag erstellen
EinloggenKostenlos registrieren