Marcus
Avatar Marcus
Themenersteller
Guru (223 Beiträge)

Hohe Ladezeiten einzelner Seiten

am 05.03.2013, 12:52 Uhr eröffnete Marcus folgenden Thread
Wordpress    1675 mal gelesen    6 Antwort(en).

Hallo zusammen!

Woher kann es kommen, das manche meiner Blog-Artikel eine Ladezeit von über 5 Sekunden haben, obwohl darin nichts anders ist als in anderen Artikeln?

Jemand eine Idee und einen Vorschlag, wie man das wieder korrigieren kann?

Gruß

Marcus


Das Regional-Magazin für Lüneburg und die Region:
salzsau-panorama.de

Chance
Programmierer
Guru (173 Beiträge)
am 05.03.2013, 15:59 Uhr schrieb Chance

Auf welchen Seiten genau ?
Oder tritt es nur sporadisch auf ?


Marcus
Avatar Marcus
Guru (223 Beiträge)
am 05.03.2013, 17:01 Uhr schrieb Marcus

Hi!

Im Anhang sind nur mal ein paar der 68 betroffenen Seiten / Artikel zu sehen.


Das Regional-Magazin für Lüneburg und die Region:
salzsau-panorama.de

gambler
Student
Guru (101 Beiträge)
am 05.03.2013, 17:54 Uhr schrieb gambler

Hallo Marcus,

die Ladzeiten deines Blogs sind generell sehr hoch wie ich finde.

Nutzt du ein Cache-Plugin? Könnte sein, dass der Sistrix-Crawler die Artikel-Seiten angefragt hat, die Seite nicht im Cache war und so die nicht gecachte Version der Seite erhalten hat und deswegen diese extremen Zeiten zustande kommen.

Rufe ich z.B. die aufgeführte Artikel-Seite "Mein neues Smartphone" auf und zwar mit gelöschtem Browser-Cache (inwieweit du halt auf Serverseite mittels Plugin cached weiß ich nicht) dann dauert der Aufbau locker 5s und mehr.

Das ist aber auch kein Wunder bei 98 HTTP-Anfragen (Requests). Wenn ich dann noch in deinen Footer schaue wo steht: "277 database queries in 3,815 seconds" dann ist es eigentlich nicht verwunderlich, dass die Seite so hohe Ladezeiten hat.

Grüße

Stephan


Belegungsplan Ferienwohnung
Blog: Smart-Webentwicklung

Marcus
Avatar Marcus
Guru (223 Beiträge)
am 05.03.2013, 18:00 Uhr schrieb Marcus

Hi Stephan!

Ich nutze ein cache-Plugin namens cachify!

Mich wundert es halt, das \'nur\' 68 Seiten diese lange Ladezeit aufweisen, und die restlichen 400 nicht!

Ansonsten versuche ich schon, die Ladezeiten niedrig zu bekommen. Aber mehr oder minder bislang erfolglos!

Gruß

Marcus


Das Regional-Magazin für Lüneburg und die Region:
salzsau-panorama.de

gambler
Student
Guru (101 Beiträge)
am 05.03.2013, 19:20 Uhr schrieb gambler

Der Cache einer Seite hat ja eine bestimmte Gültigkeit - ist also nur für eine gewisse Zeit gültig. Sobald die Gültigkeit abgelaufen ist, wird die gecachte Version einer Seite verworfen und neu erstellt.

Angenommen es wird nicht mit Cronjobs gearbeitet, dann ist es meistens so, dass der Cache neu generiert wird, sobald der nächste Besucher die Seite aufruft. Genau dieser Besucher, der die Neugenerierung anstupst, muss im Normalfall also mit einer erhöhten Ladezeit vorlieb nehmen. Alle Besucher die danach auf die Seite zugreifen, erhalten dann wieder die gecachte Version der Seite (solange bis auch diese Version nicht mehr gültig ist und verworfen wird), was zu niedrgeren Ladzeiten führt.

Es kann also sein, dass zum Zeitpunkt als der Sistrix-Crawler die Artikel/Seiten angefragt hat, genau diese Seiten keine gültige Cache-Version mehr hatten und neu generiert werden mussten.

Bzgl. Optimierung: Bei mehr als 80 HTTP-Anfragen und weit über 200 Datenbankanfragen hast du doch noch reichlich Potenzial zur Optimierung.

Ich tippe darauf, dass du sehr viele Plugins nutzt - schon mal probiert auszumisten? Gibt für WordPress z.B. das Plugin P3 (Plugin Performance Profiler) mit dem du sehen kannst, welche Plugins am meisten Ressourcen fressen und die Ladezeit beeinflussen. Habe ich selbst zwar noch nicht ausprobiert, aber vielleicht findest du damit einige Plugins, die du nicht unbedingt benötigst und die die Ladzeit stark negativ beeinflussen.

Ansonsten halt das was hier im Forum schon des Öfteren empfohlen wurde - CSS/JS zusammenfassen, unnötige Whitespaces löschen, schauen was PageSpeed/YSlow ankreiden etc.

Gruß

Stephan


Belegungsplan Ferienwohnung
Blog: Smart-Webentwicklung

Marcus
Avatar Marcus
Guru (223 Beiträge)
am 09.03.2013, 12:02 Uhr schrieb Marcus

Hallo zusammen!

Ich vermute im Zusammenhang mit den hohen Ladenzeiten auch, das meine htaccess besser aufgeräumt sein müsste.

Habt ihr da Vorschläge zur Optimierung / Verbesserung?

SetOutputFilter DEFLATE
AddHandler php53-cgi .php
php_value memory_limit 256M
<Files wp-login.php>
AuthName "Admin-Bereich"
AuthType Basic
AuthUserFile /***/****/****/themenfreund/.htpasswd
require valid-user
</Files>

# BEGINN CACHIFY
<IfModule mod_rewrite.c>
# ENGINE ON
RewriteEngine On

# GZIP FILE
<IfModule mod_mime.c>
RewriteCond %{REQUEST_URI} /$
RewriteCond %{REQUEST_URI} !^/wp-admin/.*
RewriteCond %{REQUEST_METHOD} !=POST
RewriteCond %{QUERY_STRING} =""
RewriteCond %{HTTP_COOKIE} !(wp-postpass|wordpress_logged_in|comment_author)_
RewriteCond %{HTTP:Accept-Encoding} gzip
RewriteCond %{DOCUMENT_ROOT}/wp-content/cache/cachify/%{HTTP_HOST}%{REQUEST_URI}/index.html.gz -f
RewriteRule ^(.*) /wp-content/cache/cachify/%{HTTP_HOST}/$1/index.html.gz [L]

AddType text/html .gz
AddEncoding gzip .gz
</IfModule>

# HTML FILE
RewriteCond %{REQUEST_URI} /$
RewriteCond %{REQUEST_URI} !^/wp-admin/.*
RewriteCond %{REQUEST_METHOD} !=POST
RewriteCond %{QUERY_STRING} =""
RewriteCond %{HTTP_COOKIE} !(wp-postpass|wordpress_logged_in|comment_author)_
RewriteCond %{DOCUMENT_ROOT}/wp-content/cache/cachify/%{HTTP_HOST}%{REQUEST_URI}/index.html -f
RewriteRule ^(.*) /wp-content/cache/cachify/%{HTTP_HOST}/$1/index.html [L]
</IfModule>
# END CACHIFY

# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index\\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>

# END WordPress

<IfModule pagespeed_module>
ModPagespeed on
# using commands,filters etc
</IfModule>


<IfModule mod_deflate.c>
AddOutputFilterByType DEFLATE text/plain text/html text/xml
AddOutputFilterByType DEFLATE text/css text/javascript text/x-js
AddOutputFilterByType DEFLATE application/xml application/xhtml+xml
AddOutputFilterByType DEFLATE application/rss+xml
AddOutputFilterByType DEFLATE application/javascript application/x-javascript
</IfModule>

# mod_deflate (gzip) aktivieren
<FilesMatch "\\\\.(js|css|html|htm|php|xml)$">
SetOutputFilter DEFLATE
</FilesMatch>

# ExpiresHeader: verhindert bedingte GET-Anfragen
<IfModule mod_expires.c>
ExpiresActive on
ExpiresDefault "access plus 35 days"
</IfModule>

<ifModule mod_gzip.c>
mod_gzip_on Yes
mod_gzip_dechunk Yes
mod_gzip_item_include file \\.(html?|txt|css|js|php|pl)$
mod_gzip_item_include handler ^cgi-script$
mod_gzip_item_include mime ^text/.*
mod_gzip_item_include mime ^application/x-javascript.*
mod_gzip_item_exclude mime ^image/.*
mod_gzip_item_exclude rspheader ^Content-Encoding:.*gzip.*
</ifModule>


# BEGIN Expire headers
<IfModule mod_expires.c>
ExpiresActive On
ExpiresByType image/jpg "access 1 year"
ExpiresByType image/jpeg "access 1 year"
ExpiresByType image/gif "access 1 year"
ExpiresByType image/png "access 1 year"
ExpiresByType text/css "access 1 month"
ExpiresByType application/pdf "access 1 month"
ExpiresByType text/x-javascript "access 1 month"
ExpiresByType application/x-shockwave-flash "access 1 month"
ExpiresByType image/x-icon "access 1 year"
ExpiresDefault "access 2 days"
</IfModule>
# END Expire headers


<IfModule mod_mime.c>
AddEncoding gzip .gz
</IfModule>

<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^AppEngine-Google
RewriteRule ^(.*)$ - [F]
</IfModule>

# BEGIN Cache-Control Headers
<ifmodule mod_headers.c>
<filesmatch "\\\\.(ico|jpe?g|png|gif|swf)$">
Header set Cache-Control "max-age=5184000, public"
</filesmatch>
<filesmatch "\\\\.(css)$">
Header set Cache-Control "max-age=5184000, private"
</filesmatch>
<filesmatch "\\\\.(js)$">
Header set Cache-Control "max-age=216000, private"
</filesmatch>
</ifmodule>

# Turn ETags Off
<ifmodule mod_headers.c>
Header unset ETag
</ifmodule>
FileETag None

RewriteEngine On
RewriteRule ^gravatar/(.*).png$ /wp-content/gravatar/cache/$1.png [L]

# BEGIN Cache-Control Headers
<ifModule mod_headers.c>
<filesMatch "\\.(ico|jpe?g|png|gif|swf)$">
Header set Cache-Control "public"
</filesMatch>
<filesMatch "\\.(css)$">
Header set Cache-Control "public"
</filesMatch>
<filesMatch "\\.(js)$">
Header set Cache-Control "private"
</filesMatch>
<filesMatch "\\.(x?html?|php)$">
Header set Cache-Control "private, must-revalidate"
</filesMatch>
</ifModule>
# END Cache-Control Headers


# Robots noindex sitemap.xml
<IfModule mod_headers.c>
<FilesMatch "sitemap\\.xml$">
Header append X-Robots-Tag "noindex"
</FilesMatch>
</IfModule>

# Robots noindex robots.txt
<IfModule mod_headers.c>
<FilesMatch "robots\\.txt$">
Header append X-Robots-Tag "noindex"
</FilesMatch>
</IfModule>

<FilesMatch "(\\.htaccess|\\.htpasswd|wp-config\\.php|liesmich\\.html|readme\\.html)">
order deny,allow
deny from all
</FilesMatch>


# protect wpconfig.php
<files wp-config.php>
order allow,deny
deny from all
</files>


Zumal YSlow auch meckert, das einige Dateitypen keine Ablaufzeit haben.


Das Regional-Magazin für Lüneburg und die Region:
salzsau-panorama.de

  • 1


« zurück zu: Wordpress

Das Seitenreport Forum hat aktuell 5275 Themen und 36110 Beiträge.
Insgesamt sind 48360 Mitglieder registriert.