.gz Dateien wieder entpacken und weitere Konsolen-Tipps für Linux(-Server)
Redaktionelle Einordnung
Diese archivierte Diskussion behandelt .gz Dateien wieder entpacken und weitere Konsolen-Tipps für Linux(-Server) aus Sicht der Rubrik Webserver.
Die Diskussion bleibt als Archiv nutzbar. Für die aktuelle Bewertung empfehlen sich ergänzend neuere Artikel, Tools oder eine konkrete Analyse.
Sinnvoll nutzbar bleibt der Thread vor allem als historischer Kontext, für typische Fragestellungen und zur Einordnung älterer Empfehlungen.
Startbeitrag
Originaler Foreninhalt in modernisierter Darstellung.
Wer SSH-Zugriff auf seine Website hat, kann Dateien ja recht einfach über die Konsole komprimieren (GZIP):
[infobox]gzip dump.sql > dump.sql.gz
[/infobox]
Doch wie entpackt man die komprimierte Datei wieder?
Dies ist ebenfalls sehr einfach:
[infobox]gunzip dump.sql.gz
[/infobox]
Das Ergebnis der Ausgabe ist wieder die ursprüngliche Datei dump.sql
Anmerkung: Die Befehle gzip und gunzip beziehen sich immer auf das jeweils aktive Verzeichnis.
Mittels "cd ...", z.B. "cd var/www/vhosts/" kann man das Verzeichnis wechseln (ähnlich wie in der MS DOS Konsole). Um den aktuellen Inhalt eines Verzeichnisses anzuzeigen, verwendet man unter Linux allerdings den Befehl ls (list).
Grüße,
Matthias
SEO Analyse und Website-Check mit Seitenreport
Antworten
4 Beiträgehm man sollte noch dazu sagen das die original Datei dabei gelscht wird.
Das reicht aus, mit > leitet man die Standardausgabe um.
[infobox]gzip dump.sql[/infobox]Ich bevorzuge eher tar.
cd ...
Da ist ein Punkt zu viel und würde nicht gehen, zudem muss man auf das Leerzeichen achten unter Windows kann man das weglassen.
Es gibt auch noch:
. für das aktuelle Verzeichnis
/ steht für das root Verzeichnis
~ ist das home Verzeichnis des Users mit dem man gerade angemeldet ist
cd var/www/vhosts/
Das würde auch nur funktionieren solange man im root Verzeichnis ist da der slash vor var fehlt.
Und noch einen kleiner Tipp zu ls, mit
[infobox]ls -a[/infobox]sieht man auch die Versteckten Dateien und Verzeichnisse. Das sind die meisten Konfigurationsdateien zum Beispiel .htaccess.
Gruß Thomas
Ultima schrieb:
Man sollte noch dazu sagen das die original Datei dabei gelöscht wird.
Ja, die ist dann futsch (was einem manchmal ein wenig Arbeit erspart ).
Ultima schrieb:
Ich bevorzuge eher tar.
tar geht natürlich ebenso. Mein Ansatz war, dass den Befehl "gzip" hier im Forum schon einige kennen, da wir das bzgl. CSS- und JS-Komprimierung schon behandelt hatten. tar dürfte für unsere "Neulinge" (meiner Meinung nach) noch zu komplex sein.
Ultima schrieb:
cd ...
Da ist ein Punkt zu viel und würde nicht gehen, zudem muss man auf das Leerzeichen achten unter Windows kann man das weglassen.
Hehe, die drei Punkte stehen hier für "da kommt was dahinter" . Direkt als Befehl funktionieren die drei Punkte natürlich NICHT, daher das Beispiel (wer MS-DOS kennt, für den sollte der Befehl ohnehin (fast) selbsterklärend sein).
Ultima schrieb:
cd var/www/vhosts/
Das würde auch nur funktionieren solange man im root Verzeichnis ist da der slash vor var fehlt.
Und nicht nur das: Sondern auch nur, wenn die Webstruktur wie oben aufgebaut ist (z.B. per PLESK). Bei Hostloco liegt das www-Verzeichnis z.B. nicht im var, sondern direkt im root: /www/htdocs/...
Ultima schrieb:
Und noch einen kleiner Tipp zu ls, mit
ls -a
sieht man auch die Versteckten Dateien und Verzeichnisse. Das sind die meisten Konfigurationsdateien zum Beispiel .htaccess.
Gute Ergänzung.
Grüße,
Matthias
SEO Analyse und Website-Check mit Seitenreport
Wenn wir schon bei kleinen Tipps für die Shell sind.
Mit ls -ltra kannst du dir alle Dateien mit Attributen ansehen und die zuletzt geänderten Dateien kommen zum Schluß.
Sehr wertvoll ist für mich das Kommando "grep":
grep repeat-x *.css
ergibt
style.css:#mainmenu a:hover{background:url(images/magenta_submenu.jpg) center left repeat-x;}
style.css:#mainmenu li.current a{background:url(images/magenta_submenu.jpg) center left repeat-x;}
red.css: background: url(images/menuhover-red.jpg) center left repeat-x;
Das grep-Kommando sucht Begriffe (hier repeat-x) aus allen Dateien im Verzeichnis, die mit ".css" enden und listet sie auf.
Da kenn ich auch noch einen, hier mal was zum Grafik optimieren über die ssh/bash.
Hier sind 2 Beispiele mit dem vorher / nachher Prinzip.
Vorher: 26,72 kb 
Nachher: 10,8 kb das sind ~ 60% weniger 
Der Befehl dazu ist
[infobox]jpegoptim -fotm95 --strip-all *.jpg[/infobox]
Test 2 mit PNGs
Vorher: 7,9 kb 
Nachher: 4,3 kb das sind ~ 45% weniger 
Der Befehl dazu ist
[infobox]pngnq -s1 *.png[/infobox]
Den Qualitätsverlust könnt Ihr so am besten beurteilen, aber ich denke der sollte nicht so stören.