Hallo Ich m�chte eine gr��ere Menge html-Dateien von einem Server laden. Da diese sich sehr gut komprimieren lassen, und der Server gzip-Kompression auch unterst�tzt, habe ich versucht, wget folgenderma�en zu starten:
wget -nc -np -k -r --header\="Accept-Encoding: gzip" http://adresse wget speichert die erste Datei auch normal unter dem richtigen Namen ab, allerdings ist diese nun immer noch komprimiert. Im n�chsten Schritt m�sste wget aus der Datei Links auslesen und diese auch herunterladen, wegen der Kompression klappt das aber nicht. Nat�rlich kann ich die Datei jetzt von Hand entpacken und dann wget erneut starten, aber das w�rde dann mehrere solcher Durchl�uft erfordern und w�re �rgerlich. Ich suche also nach einer M�glichkeit, entweder wget die Dateien gleich beim Speichern wieder entpacken zu lassen, oder wget irgendwie beizubringen, in den komprimierten Dateien die Links zu finden. Irgendwelche Ideen? Gr��e Andreas Janssen -- Andreas Janssen [EMAIL PROTECTED] PGP-Key-ID: 0xDC801674 Registered Linux User #267976 -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject "unsubscribe". Probleme? Mail an [EMAIL PROTECTED] (engl)

