gelöschter Benutzer

CSS Bewertung (Seite 4)



gelöschter Benutzer
am 16.05.2009, 18:39 Uhr schrieb

Es sind so oder so immer Sekunden. kann man auch aus dem Manual (siehe Link vom Vorposter) entnehmen.



gelöschter Benutzer
am 16.05.2009, 18:49 Uhr schrieb

seitenreport schrieb:

So Freunde, ich habe euch die entsprechenden Analysen mal eingebaut.
Ihr findet sie ganz unten in der neuen Analyse-Rubrik "Geschwindigkeit (beta)".

(1) Zugriffszeit:
Zeit in Mikrosekunden, die der Seitenreport Server benötigt, um eine Verbindung zur Homepage aufzubauen (ähnlich wie ping)

(2) Ladezeit der Homepage:
Zeit in Mikrosekunden, die der Seitenreport Server benötigt, um die komplette (X)HTML-Datei herunterzuladen. Hierin ist z.B. dann auch die Erstellungszeit der HTML-Datei bei einem CM-Sytem enthalten.

Welche Bewertungen würdet ihr vorschlagen?


Die Zugriffszeit (ping) ist so eine Sache, die würde ich aus Fairnessgründen nicht bewerten, da ping stark davon abhängt von wo aus ich die Abfrage abschicke und wie das geroutet wird.
Teste ich also eine Site in Jammerland, dann ist die immer "angeschissen" da ein ping über diverse Stationen gehen würde.

Bei der Ladezeit habe ich gerade mal meine eigene Site getestet:

Zugriffszeit: 0.056489 sec.
Ladezeit der Homepage: 0.073381 sec.

Ich würde bei der Ladezeit von folgendem ausgehen.

<=0,1 100%

und dann in 0,1 sek. Stufen bis 0,5 sek - pro Stufe 20% Abzug

Ãœber 0,5 sek, gibt es nichts.

Man muss sich überlegen das man mit 20 mbit 2,5 MB pro Sekunde bekommt, mit 6 mbit immerhin 750 KB das ist weit mehr als eine einzelne Seite enthalten sollte.

Da sind 0,5 Sekunden schon eine Ewigkeit.


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 16.05.2009, 18:53 Uhr schrieb seitenreport

piratos schrieb:

Die Zugriffszeit (ping) ist so eine Sache, die würde ich aus Fairnessgründen nicht bewerten, da ping stark davon abhängt von wo aus ich die Abfrage abschicke und wie das geroutet wird.


Ja, wobei dieser "ping"-Wert ja in beiden Analysen drin ist. Ich schlage daher vor, den Wert "Zugriffszeit" vom Wert "Ladezeit der Homepage" abzuziehen, so käme man auf die tatsächliche Erstellungszeit, die z.B. ein CMS braucht um eine Seite zu erzeugen.


SEO Analyse und Website-Check mit Seitenreport


gelöschter Benutzer
am 16.05.2009, 18:58 Uhr schrieb

Das wäre fair gegenüber allen, denn viele wissen überhaupt nicht wo ihr Server konkret steht.

Die Ladezeit würde dann die Generierungszeit beinhalten plus. alles was danach kommt um die Seite abzuliefern.

Dann hätten Leute die gzip einsetzen vielleicht ihren Vorteil die anderen eben nicht und alle können zufrieden sein.




gelöschter Benutzer
am 16.05.2009, 19:03 Uhr schrieb

Die Plausibilität deiner Berechnungen kannst du auf meiner Site sehen (Quelltext) da ist die Generierungszeit angegeben.



gelöschter Benutzer
am 16.05.2009, 19:08 Uhr schrieb

Pingzeit enthalten.

Da kann etwas nicht stimmen mit deinen Angaben.

Zugriffszeit: 1.166858 sec.
Ladezeit der Homepage: 0.066061 sec.


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 16.05.2009, 19:11 Uhr schrieb seitenreport

Besser wird es, wenn ich mehrere Abfragen starte und den Durchschnitt nehme (momentan verändern sich die Abfragen noch mit jeder Analyse).

Zusätzlich: beides per cURL, momentan ist das eine mit cURL, das andere noch für das erste Austesten per fsockopen() realisiert => ging schneller. Da ist es natürlich kein Wunder, wenn die Daten noch etwas verfälscht sind


SEO Analyse und Website-Check mit Seitenreport


gelöschter Benutzer
am 16.05.2009, 19:17 Uhr schrieb

Meine Testfunktion sieht so ais:

function speedtest($domain=\'powercms.org\')
{ $starttime = microtime(true);
$ch = curl_init(\'http://\'.trim($domain));
curl_setopt($ch, CURLOPT_TIMEOUT, 50);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_HEADER, 1);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);
curl_setopt($ch, CURLOPT_USERAGENT, "Mozilla/5.0 (Windows; U; Windows NT 5.1; rv:1.7.3) Gecko/20041001 Firefox/0.10.1");
$curl_ret = curl_exec($ch);
curl_close($ch);
$gesamt =microtime(true) - $starttime;
echo \'

# \'.$domain.\' Gesamtzeit:\'. $gesamt.\'

\';
}



gelöschter Benutzer
am 16.05.2009, 19:19 Uhr schrieb

seitenreport schrieb:

Besser wird es, wenn ich mehrere Abfragen starte und den Durchschnitt nehme (momentan verändern sich die Abfragen noch mit jeder Analyse).

Zusätzlich: beides per cURL, momentan ist das eine mit cURL, das andere noch für das erste Austesten per fsockopen() realisiert => ging schneller. Da ist es natürlich kein Wunder, wenn die Daten noch etwas verfälscht sind



Das ist möglich, würde 3 Abfragen machen und die erste wegwerfen, dann hat man realistische Werte nach dem Wakeup.

Machst du noch mehr wird\'s wieder langsamer.


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 16.05.2009, 19:26 Uhr schrieb seitenreport

Habe gerade mal beides auf socket umgestellt und lasse die Werte nun jeweils 2x auslesen und nehme dann denn Durchschnitt.

Die Ergebnisse schwanken leider sehr stark. Liegt wahrscheinlich mit daran, wieviele Besucher sich gerade auf Seitenreport befinden und wieviele Analysen gerade durchlaufen.

Das ist möglich, würde 3 Abfragen machen und die erste wegwerfen, dann hat man realistische Werte nach dem Wakeup.


Teste ich mal schnell aus...


SEO Analyse und Website-Check mit Seitenreport



« zurück zu: Feedback

Das Seitenreport Forum hat aktuell 5274 Themen und 36108 Beiträge.
Insgesamt sind 48349 Mitglieder registriert.