Hallo

Ich m�chte eine gr��ere Menge html-Dateien von einem Server laden. Da
diese sich sehr gut komprimieren lassen, und der Server
gzip-Kompression auch unterst�tzt, habe ich versucht, wget
folgenderma�en zu starten:

wget -nc -np -k -r --header\="Accept-Encoding: gzip" http://adresse

wget speichert die erste Datei auch normal unter dem richtigen Namen ab,
allerdings ist diese nun immer noch komprimiert. Im n�chsten Schritt
m�sste wget aus der Datei Links auslesen und diese auch herunterladen,
wegen der Kompression klappt das aber nicht. Nat�rlich kann ich die
Datei jetzt von Hand entpacken und dann wget erneut starten, aber das
w�rde dann mehrere solcher Durchl�uft erfordern und w�re �rgerlich.

Ich suche also nach einer M�glichkeit, entweder wget die Dateien gleich
beim Speichern wieder entpacken zu lassen, oder wget irgendwie
beizubringen, in den komprimierten Dateien die Links zu finden.

Irgendwelche Ideen?

Gr��e
        Andreas Janssen

-- 
Andreas Janssen
[EMAIL PROTECTED]
PGP-Key-ID: 0xDC801674
Registered Linux User #267976


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject "unsubscribe". Probleme? Mail an [EMAIL PROTECTED] (engl)

Antwort per Email an