seitenreport
Avatar seitenreport
Themenersteller
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)

.gz Dateien wieder entpacken und weitere Konsolen-Tipps für Linux(-Server)

am 03.09.2010, 19:05 Uhr eröffnete seitenreport folgenden Thread
Webserver, Rootserver, Linux-Server    35721 mal gelesen    4 Antwort(en).

Wer SSH-Zugriff auf seine Website hat, kann Dateien ja recht einfach über die Konsole komprimieren (GZIP):

[infobox]gzip dump.sql > dump.sql.gz
[/infobox]
Doch wie entpackt man die komprimierte Datei wieder?

Dies ist ebenfalls sehr einfach:

[infobox]gunzip dump.sql.gz
[/infobox]
Das Ergebnis der Ausgabe ist wieder die ursprüngliche Datei dump.sql

Anmerkung: Die Befehle gzip und gunzip beziehen sich immer auf das jeweils aktive Verzeichnis.

Mittels "cd ...", z.B. "cd var/www/vhosts/" kann man das Verzeichnis wechseln (ähnlich wie in der MS DOS Konsole). Um den aktuellen Inhalt eines Verzeichnisses anzuzeigen, verwendet man unter Linux allerdings den Befehl ls (list).

Grüße,
Matthias


SEO Analyse und Website-Check mit Seitenreport


gelöschter Benutzer
am 03.09.2010, 19:50 Uhr schrieb

Ähm man sollte noch dazu sagen das die original Datei dabei gelöscht wird.

Das reicht aus, mit > leitet man die Standardausgabe um.
[infobox]gzip dump.sql[/infobox]Ich bevorzuge eher tar.

cd ...
Da ist ein Punkt zu viel und würde nicht gehen, zudem muss man auf das Leerzeichen achten unter Windows kann man das weglassen.
Es gibt auch noch:
. für das aktuelle Verzeichnis
/ steht für das root Verzeichnis
~ ist das home Verzeichnis des Users mit dem man gerade angemeldet ist

cd var/www/vhosts/
Das würde auch nur funktionieren solange man im root Verzeichnis ist da der slash vor var fehlt.

Und noch einen kleiner Tipp zu ls, mit
[infobox]ls -a[/infobox]sieht man auch die Versteckten Dateien und Verzeichnisse. Das sind die meisten Konfigurationsdateien zum Beispiel .htaccess.


Gruß Thomas


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 03.09.2010, 20:04 Uhr schrieb seitenreport

Ultima schrieb:

Man sollte noch dazu sagen das die original Datei dabei gelöscht wird.


Ja, die ist dann futsch (was einem manchmal ein wenig Arbeit erspart ).

Ultima schrieb:

Ich bevorzuge eher tar.


tar geht natürlich ebenso. Mein Ansatz war, dass den Befehl "gzip" hier im Forum schon einige kennen, da wir das bzgl. CSS- und JS-Komprimierung schon behandelt hatten. tar dürfte für unsere "Neulinge" (meiner Meinung nach) noch zu komplex sein.

Ultima schrieb:

cd ...
Da ist ein Punkt zu viel und würde nicht gehen, zudem muss man auf das Leerzeichen achten unter Windows kann man das weglassen.


Hehe, die drei Punkte stehen hier für "da kommt was dahinter" . Direkt als Befehl funktionieren die drei Punkte natürlich NICHT, daher das Beispiel (wer MS-DOS kennt, für den sollte der Befehl ohnehin (fast) selbsterklärend sein).

Ultima schrieb:

cd var/www/vhosts/
Das würde auch nur funktionieren solange man im root Verzeichnis ist da der slash vor var fehlt.


Und nicht nur das: Sondern auch nur, wenn die Webstruktur wie oben aufgebaut ist (z.B. per PLESK). Bei Hostloco liegt das www-Verzeichnis z.B. nicht im var, sondern direkt im root: /www/htdocs/...

Ultima schrieb:

Und noch einen kleiner Tipp zu ls, mit

ls -a

sieht man auch die Versteckten Dateien und Verzeichnisse. Das sind die meisten Konfigurationsdateien zum Beispiel .htaccess.


Gute Ergänzung.

Grüße,
Matthias


SEO Analyse und Website-Check mit Seitenreport

lwulfe
Avatar lwulfe
Consultant
Content Halbgott (743 Beiträge)
am 03.09.2010, 22:01 Uhr schrieb lwulfe

Wenn wir schon bei kleinen Tipps für die Shell sind.
Mit ls -ltra kannst du dir alle Dateien mit Attributen ansehen und die zuletzt geänderten Dateien kommen zum Schluß.
Sehr wertvoll ist für mich das Kommando "grep":
grep repeat-x *.css
ergibt
style.css:#mainmenu a:hover{background:url(images/magenta_submenu.jpg) center left repeat-x;}
style.css:#mainmenu li.current a{background:url(images/magenta_submenu.jpg) center left repeat-x;}
red.css: background: url(images/menuhover-red.jpg) center left repeat-x;

Das grep-Kommando sucht Begriffe (hier repeat-x) aus allen Dateien im Verzeichnis, die mit ".css" enden und listet sie auf.



gelöschter Benutzer
am 03.09.2010, 22:27 Uhr schrieb

Da kenn ich auch noch einen, hier mal was zum Grafik optimieren über die ssh/bash.

Hier sind 2 Beispiele mit dem vorher / nachher Prinzip.

Vorher: 26,72 kb


Nachher: 10,8 kb das sind ~ 60% weniger


Der Befehl dazu ist
[infobox]jpegoptim -fotm95 --strip-all *.jpg[/infobox]

Test 2 mit PNGs

Vorher: 7,9 kb


Nachher: 4,3 kb das sind ~ 45% weniger


Der Befehl dazu ist
[infobox]pngnq -s1 *.png[/infobox]

Den Qualitätsverlust könnt Ihr so am besten beurteilen, aber ich denke der sollte nicht so stören.


  • 1


« zurück zu: Webserver, Rootserver, Linux-Server

Das Seitenreport Forum hat aktuell 5276 Themen und 36111 Beiträge.
Insgesamt sind 48364 Mitglieder registriert.