Hallo!

gibt es ein Tool, mit dem ich
aus einer Homepage alle Files eines Typs
(oder gleich die ganze Homepage)
runterladen kann, ohne jedes einzelne im
Browswer zu laden, und dann zu speichern?

Ich hab� mir schon mal fetchurl angesehen,
aber das funktioniert irgentwie nicht :-(

Ich will z.B. alle Bilder auf www.nasa.gov auf meinem eigenen
Rechner haben, ohne dazu die ganze site "per Hand" durchsuchen zu
m�ssen.

X-Frontend waehre nett, Kommandozeile ist aber auch gut.

Roland
--
Um aus der Liste ausgetragen zu werden, eine Mail an [EMAIL PROTECTED]
schicken, mit dem Text: unsubscribe suse-linux

Antwort per Email an