* Andrea Celli ha scritto:
> Come si fa a recuperare solo l'elenco dei file di una directory?
> Con pavuk ci riesco usando l'opzione -ftpdir. Con wget
> ho provato a maneggiare l'opzione --spider, ma non ci ho
> cavato molto :-(

Al contrario di ftp con http le cose sono più complicate con wget.
Per quanto riguarda --spider a me funziona con ftp, scarico il 
solo elenco dei file di una directory, ma il file che mi 
ritrovo è nel formato html, per questo a wget preferisco curl con 
l'opzione --list-only perchè scarico un listato nel suo aspetto 
tipico direttamente nella shell. Con http invece sono entrambi 
inefficaci.
Tuttavia con wget dopo alcune prove sono riuscito a scaricare dal 
sito dell'amico di Chiara un file index.html che altri non è che 
l'elenco dei soli file jpg contenuti nella directory della URL 
specificata, questo comando forse potrebbe fare al caso tuo, prevede 
l'utilizzo dell'opzione -E e dell'opzione -R con la quale ho 
effettuato un reject del file robots.txt. 

$ wget -E -R 'robots.txt,+img+' http://metaldave.altervista.org/Mimmata/

per questioni di tempo ho provato solo con la URL suddetta, con altre
URL ci sarebbe da rivedere l'opzione -R, ma si potrebbe utilizzare solo
l'opzione -E perchè con la URL suddetta  se ne ottiene sempre il file 
index.html col solo elenco dei file della directory specificata.
Mi sembra di essere riuscito a scaricare l'elenco che tu chiedi
anche se in formato html e senza nessuna indicazione aggiuntiva
riguardo la dimensione dei file ecc.
Il difficile con http sembra ora effettuare una copia ricorsiva 
dei file dell'intera directory con wget.

Ciao, Giuseppe.

-- 
GNU/Linux Powered
Red Hat 9.A (Shrike) Kernel 2.4.20

Rispondere a