* Andrea Celli ha scritto: > Come si fa a recuperare solo l'elenco dei file di una directory? > Con pavuk ci riesco usando l'opzione -ftpdir. Con wget > ho provato a maneggiare l'opzione --spider, ma non ci ho > cavato molto :-(
Al contrario di ftp con http le cose sono più complicate con wget. Per quanto riguarda --spider a me funziona con ftp, scarico il solo elenco dei file di una directory, ma il file che mi ritrovo è nel formato html, per questo a wget preferisco curl con l'opzione --list-only perchè scarico un listato nel suo aspetto tipico direttamente nella shell. Con http invece sono entrambi inefficaci. Tuttavia con wget dopo alcune prove sono riuscito a scaricare dal sito dell'amico di Chiara un file index.html che altri non è che l'elenco dei soli file jpg contenuti nella directory della URL specificata, questo comando forse potrebbe fare al caso tuo, prevede l'utilizzo dell'opzione -E e dell'opzione -R con la quale ho effettuato un reject del file robots.txt. $ wget -E -R 'robots.txt,+img+' http://metaldave.altervista.org/Mimmata/ per questioni di tempo ho provato solo con la URL suddetta, con altre URL ci sarebbe da rivedere l'opzione -R, ma si potrebbe utilizzare solo l'opzione -E perchè con la URL suddetta se ne ottiene sempre il file index.html col solo elenco dei file della directory specificata. Mi sembra di essere riuscito a scaricare l'elenco che tu chiedi anche se in formato html e senza nessuna indicazione aggiuntiva riguardo la dimensione dei file ecc. Il difficile con http sembra ora effettuare una copia ricorsiva dei file dell'intera directory con wget. Ciao, Giuseppe. -- GNU/Linux Powered Red Hat 9.A (Shrike) Kernel 2.4.20