tschersich schrieb:
Probleme gibt es bei Browsern und Proxies der letzten 3-4 Jahre damit nicht mehr.
17% sind mit dem IE 6 unterwegs und da gibt es Probleme.
tschersich schrieb:
Für ältere Browserversionen lassen sich in der Apache Config aber Ausnahmen definieren.
Ãœber 90% aller Domains befinden sich auf shared Webservern, also ist diese Methode absolut kein praktischer Standard, da auf diesen shared Webservern keinerlei Eingriff möglich ist.
tschersich schrieb:
Beim Seitenreport wird deshalb zu Recht table im Vergleich zu div abgestraft
Gleiche Logik wie bei dir - table ist ebenfalls definierter HTML Standard, auch wenn verpönt und in den meisten Fällen durch DIV ersetzbar.
tschersich schrieb:
Wenn meine reine HTML Seite durch Kompression z.B. statt 75KB nur noch 20KB groß ist, ist das (plus Overhead) das real übertragene Volumen.
Das Thema hat durch die inzwischen der Mehrheit zur Verfügung stehende Breitbandanbindung absolut an Bedeutung verloren.
Es ist ein Witz einer nicht sicher auf der Mehrzahl der Domains einsetzbaren Technologie hinterher zu laufen um durch Komprimierung ein paar Bytes an den Textdatene einzusparen, während heute hochauflösende Images und noch "schlimmer" Videos das Bild bestimmen. Bei deiner durchaus möglichen Beispielrechnung würde ohne Berücksichtigung der Zusatzzeit fürs Entkomprimieren bei mir eine Zeitersparnis von 0,00002 Sekunden heraus kommen, die ich an Transferzeit spare - interessiert niemanden.
tschersich schrieb:
Die Zeit für das Zippen und Entzippen ist dabei zu vernachlässigen, da es auf noch so betagten Servern und Client Rechnern nicht mal eine Millisekunde dauert.
Ein sehr guter shared Webserver hat 100 Domains gehostet und es sind durchaus andere Mengen von 1000 und mehr Domains pro Server möglich.
Man stelle sich einmal 100 x 0,001 oder 1000 x 0,001 vor, wenn jede Domain komprimieren würde oder wenn 100 oder 1000 Besucher gleichzeitig vorhanden sind.
Damit hat nun auch der letzte begriffen, warum Komprimierung zwar auf der einen Seite bestechend aber auf der anderen Seite nur Nachteile bringt.
Denn wenn es unterm Strich Vorteile bringen würde, dann hätten alle Provider es im Angebot da alle Seitenbesitzer darauf bestehen würden.
Auf die anderen Dinge wie bereits extrem starke Nutzung von internen Buffern von auf Templateengines basierenden Systemen oder Problemen mit bereits komprimierten Javascriptanwendungen wird natürlich nicht eingegangen.
Halten wir fest:
1. 17 % aller Leute sind mit dem IE6 unterwegs der Problem macht.
2.Ãœber 90% aller Domains haben keinerlei Möglichkeit das nutzen zu können.
3. Die reale Zeitersparnis ist völlig ohne Bedeutung
4. Der Zeitaufwand kann sich bei Servern je nach Betrieb so summieren das der Schuss nach hinten los geht.
5. Auf Templatengines basierenden Systemen bringt der finale gz_handler - Buffer reichlich Zeitverlust, ja kann sogar zur Nichtfunktion führen.
6.Es sind Probleme mit bereits komprimierten Anwendungen zu erwarten.
Unterm Strich wird kein Profianwender die Komprimierung verwenden um diese gewaltigen Probleme nicht wegen eines winzigen Vorteils zu haben, den die Besucher in der Masse wegen ihrer Highspeed .- Anbindung überhaupt nicht bemerken.
Die Vorteile gehen zudem auch noch vollständig flöten wenn eine Seite ein zweites mal besucht wird, da der Inhalt dann im Browsercache vorliegt.
Beitrag erstellen
EinloggenKostenlos registrieren