Re: [newbie-it] wget nuova domanda

2003-10-01 Per discussione Giuseppe Ferruzzi
* Andrea Celli ha scritto:
 Come si fa a recuperare solo l'elenco dei file di una directory?
 Con pavuk ci riesco usando l'opzione -ftpdir. Con wget
 ho provato a maneggiare l'opzione --spider, ma non ci ho
 cavato molto :-(

Al contrario di ftp con http le cose sono più complicate con wget.
Per quanto riguarda --spider a me funziona con ftp, scarico il 
solo elenco dei file di una directory, ma il file che mi 
ritrovo è nel formato html, per questo a wget preferisco curl con 
l'opzione --list-only perchè scarico un listato nel suo aspetto 
tipico direttamente nella shell. Con http invece sono entrambi 
inefficaci.
Tuttavia con wget dopo alcune prove sono riuscito a scaricare dal 
sito dell'amico di Chiara un file index.html che altri non è che 
l'elenco dei soli file jpg contenuti nella directory della URL 
specificata, questo comando forse potrebbe fare al caso tuo, prevede 
l'utilizzo dell'opzione -E e dell'opzione -R con la quale ho 
effettuato un reject del file robots.txt. 

$ wget -E -R 'robots.txt,+img+' http://metaldave.altervista.org/Mimmata/

per questioni di tempo ho provato solo con la URL suddetta, con altre
URL ci sarebbe da rivedere l'opzione -R, ma si potrebbe utilizzare solo
l'opzione -E perchè con la URL suddetta  se ne ottiene sempre il file 
index.html col solo elenco dei file della directory specificata.
Mi sembra di essere riuscito a scaricare l'elenco che tu chiedi
anche se in formato html e senza nessuna indicazione aggiuntiva
riguardo la dimensione dei file ecc.
Il difficile con http sembra ora effettuare una copia ricorsiva 
dei file dell'intera directory con wget.

Ciao, Giuseppe.

-- 
GNU/Linux Powered
Red Hat 9.A (Shrike) Kernel 2.4.20



Re: [newbie-it] wget - BUGscript

2003-10-01 Per discussione Ikki The Porcupine
Il corriere di Linux

Scoperto il primo bug nel programma Iget (Ikki wget)
Cominciamo bene ;-D

 #!/bin/sh
 a = 1
 if [ $a  59 ]
   then
   if [ $a  10 ]
   then
   wget -x http://metaldave.altervista.org/Mimmata/Mim0${a}_.jpg
   else
   wget -x http://metaldave.altervista.org/Mimmata/Mim${a}_.jpg
   fi
   a=`expr $a + 1`
 fi

versione senza bug

#!/bin/sh
a = 1
while [ $a  59 ]
do
if [ $a  10 ]
then
wget -x http://metaldave.altervista.org/Mimmata/Mim0${a}_.jpg
else
wget -x http://metaldave.altervista.org/Mimmata/Mim${a}_.jpg
fi
a=`expr $a + 1`
done

Sono un fenomeno para...
... plegico!!!
Naturalmente non metto in dubbio la presenza di altri bug.

Mandi

Ikki



Re: [newbie-it] wget

2003-09-30 Per discussione Ikki The Porcupine
Alle 21:27, lunedì 29 settembre 2003, Eraser Head ha scritto:
 On Mon, 29 Sep 2003, Ikki The Porcupine wrote:
 
 [...]
 
 Ma wget scarica partendo dalla pagina index che trova? Io credevo che non 
 dandogli il nome di un file html e mettendogli -r tra le opzioni avrebbe 
 scaricato tutto il contenuto della directory... Ma a quanto pare non è 
 così... =/

scarica dalla pagina che gli fornisce il server, ke può essere index.html (o 
qualsiasi altra sia la pagina di default) e se non c'è il server può agire in 
due modi:
1 - creare una index.html fittizia ke contiene l'elenco di file e directory 
presenti nella directory specificata nell'indirizzo (scusa il gioco di 
parole);
2 - negare l'accesso, dicendo che non ha trovato la pagina o cose simili.
nel primo caso wget scarica, nel secondo non può fare assolutamente niente, 
neanche coi caratteri jolly, xchè non può sapere cosa contiene la directory.

 [...]
  prova col seguente script:
 [...]
 
 Sì, può essere un'idea... a condizione che riesca a trovare il modo di 
 dire alla shell di passarsi da sola tutti i numeri...

#!/bin/sh
a = 1
if [ $a  59 ]
then
if [ $a  10 ]
then
wget -x http://metaldave.altervista.org/Mimmata/Mim0${a}_.jpg
else
wget -x http://metaldave.altervista.org/Mimmata/Mim${a}_.jpg
fi
a=`expr $a + 1`
fi

Non ho avuto modo di provarlo ma...

 Perchè sennò faccio prima a dire al mio amico di mettermi il link ad un 
 bello zippone... =P

Bella idea.
Ma prova anche con lo script, magari migliorandolo; impara la shell...
... e usala

 Grazie mille per le delucidazioni! =)
 
Chiara
 
 ==
 Molti si suicidano perchè sono già stati uccisi da altri.
 
 (Goethe)

Prego 0.50 c

Elia

Perché usare le Finestre quando c'è la Porta?



Re: [newbie-it] wget

2003-09-29 Per discussione Giuseppe Ferruzzi
* Eraser Head ha scritto:
 Ciao a tutti.
 Ho provato a consultare il man di wget, ma ci ho capito ben poco...
 
 Quello che devo fare è scaricare una serie di immagini che si trovano 
 all'url:
 http://metaldave.altervista.org/Mimmata/
 e che sono nominate tutte tipo: Mim02_.jpg, cambia solo il numero.
 
 Ho provato con:
 wget -c -r -np http://metaldave.altervista.org/Mimmata/
 ma mi ha scaricato solo l'index.
 
 Ho provato con un po' di altre combinazioni, ma sempre con lo stesso 
 risultato.
 
 Quello che voglio io è riuscire a scaricare tutto il contenuto di quella 
 directory.
 Dov'è che sbaglio?

Prova così e se necessario aggiusta:

$ wget -m -t3 -I /Mimmata http://metaldave.altervista.org/Mimmata/ -o Mimmata.log

oppure

$ wget -m -r -I1 -np -A.jpg  http://metaldave.altervista.org/Mimmata/

Ciao, Giuseppe

-- 
GNU/Linux Powered
Red Hat 9.A (Shrike) Kernel 2.4.20



Re: [newbie-it] wget

2003-09-29 Per discussione Giuseppe Ferruzzi
* Giuseppe Ferruzzi ha scritto:
 
 $ wget -m -r -I1 -np -A.jpg  http://metaldave.altervista.org/Mimmata/

mi sono accorto di un errore sostituisci -I1 con -l1 

Ciao, Giuseppe

-- 
GNU/Linux Powered
Red Hat 9.A (Shrike) Kernel 2.4.20



Re: [newbie-it] wget nuova domanda

2003-09-29 Per discussione Andrea Celli
Alle 09:28, lunedì 29 settembre 2003, Eraser Head ha scritto:
 Ciao a tutti.
 Ho provato a consultare il man di wget, ma ci ho capito ben poco...


Scusami se mi infilo nel tuo thread,
ma visto che scomodiamo gli esperti di wget ...

Come si fa a recuperare solo l'elenco dei file di una directory?
Con pavuk ci riesco usando l'opzione -ftpdir. Con wget
ho provato a maneggiare l'opzione --spider, ma non ci ho
cavato molto :-(

ciao, Andrea



Re: [newbie-it] wget

2003-09-29 Per discussione Ikki The Porcupine
Alle 09:28, lunedì 29 settembre 2003, Eraser Head ha scritto:
 Ciao a tutti.
 Ho provato a consultare il man di wget, ma ci ho capito ben poco...
 
 Quello che devo fare è scaricare una serie di immagini che si trovano 
 all'url:
 http://metaldave.altervista.org/Mimmata/
 e che sono nominate tutte tipo: Mim02_.jpg, cambia solo il numero.
 [...]
 Dov'è che sbaglio?
 
 Grazie mille!
 
Chiara

non sbagli,
wget -np -r ...
è giusto (-c non serve la prima volta che lo fai, poi se non erro è attivo di 
default)

non so se hai notato (e se li conosci) ma sul sito incriminato esiste un file 
chiamato robots.txt (oltretutto non scaricabile, quindi posso solo immaginare 
cosa ci sta scritto) che blocca lo scaricamento indiscriminato.

tieni conto che i link alle immagini sono dei javascript (non so se wget li 
gestisce)

ho scaricato un'immagine per curiosità:
300 e rotti kB
che moltiplicati per il numero delle immagini
300 x 54 = 16.2 MB
credo sia per quello che c'è il robots.txt, pensa se 20 persone si mettono a 
scaricare in contemporanea...

prova col seguente script:
-
#!/bin/sh
for num in 01 02 03 04 ... 54 #continua tu a inserire i numeri (mi son 
dimenticato come si dice alla sh da x a y)
do
wget -x http://metaldave.altervista.org/Mimmata/Mim${num}_.jpg
done
-

-x dice a wget di ricreare le directory remote anche in locale. nella tua home 
troverai una dir di nome:
metaldave.altervista.org

ricordati di rendere eseguibile lo script:
chmod 744 NOMEDELLOSCRIPT
e di eseguirlo indicando il percorso completo. es:
./NOMEDELLOSCRIPT

Mandi

Ikki



Re: [newbie-it] wget

2003-09-29 Per discussione Eraser Head
On Mon, 29 Sep 2003, Ikki The Porcupine wrote:

 non so se hai notato (e se li conosci) ma sul sito incriminato esiste un file 
 chiamato robots.txt (oltretutto non scaricabile, quindi posso solo immaginare 
 cosa ci sta scritto) che blocca lo scaricamento indiscriminato.

Uhm... Effettivamente avevo notato la presenza di questo file, e avevo 
giustamente immaginato che fosse non accessibile, ma non pensavo che 
questo avrebbe bloccato del tutto wget, pensavo che l'avrebbe saltato e 
sarebbe andato avanti... Per questo pensavo che fossi io a sbagliare 
comando...


 tieni conto che i link alle immagini sono dei javascript (non so se wget li 
 gestisce)

Ma wget scarica partendo dalla pagina index che trova? Io credevo che non 
dandogli il nome di un file html e mettendogli -r tra le opzioni avrebbe 
scaricato tutto il contenuto della directory... Ma a quanto pare non è 
così... =/


 ho scaricato un'immagine per curiosità:
 300 e rotti kB
 che moltiplicati per il numero delle immagini
 300 x 54 = 16.2 MB
 credo sia per quello che c'è il robots.txt, pensa se 20 persone si mettono a 
 scaricare in contemporanea...

Uhm... No, non credo che sia per quello... Il sito è di un mio amico di 
università, che attualmente si sta interessando molto di intelligenza 
artificiale e robotica, quindi a giudicare dal nome suppongo siano suoi 
appunti di qualche tipo...


 prova col seguente script:
 -
 #!/bin/sh
   for num in 01 02 03 04 ... 54 #continua tu a inserire i numeri (mi son 
 dimenticato come si dice alla sh da x a y)
   do
   wget -x http://metaldave.altervista.org/Mimmata/Mim${num}_.jpg
   done
 -

Sì, può essere un'idea... a condizione che riesca a trovare il modo di 
dire alla shell di passarsi da sola tutti i numeri...
Perchè sennò faccio prima a dire al mio amico di mettermi il link ad un 
bello zippone... =P

Grazie mille per le delucidazioni! =)

   Chiara


-- 
==
Molti si suicidano perchè sono già stati uccisi da altri.

(Goethe)



Re: [newbie-it] wget e problemino della settimana - file .swf

2003-07-02 Per discussione bombadur
Arwan wrote:

Aggiungo un quesito (sono ferma al passaggio precedente): ma se wget
non scarica tutto? Ho provato, e sono certa che si e' dimenticato di
scaricare di file. Che se fa?

Strano: prima di postare avevo provato, e mi con wget -r [url] avevo scaricato bene 
tutto un sito. Non so cosa dirti. Prova magari con l'opzione 
-cr (con la c riprendi il download da dove lo avevi lasciato, e se manca qualcosa 
dobrebbe accorgersi).
Se continuasse a darti problemi, guarda sul man (lungo) di wget: ora non ho un Linux a 
disposizione, ma è probabile che ci sia un'opzione per scaricare il database dei files 
del sito che ti interessa. Così ti scarichi solo quelli che ti servono, e risparmi i 
soldini per Appignà ;-))

Per la stampa, poi, ho provato mentre ero online: al primo giro col
terzo tasto del mouse e' comparsa anche l'ozione stampa, ma poi non
mi da' la possibilita' di scegliere alcuna stampante, e nemmeno
stampa su pdf (uso Mozilla). Al secondo giro per sbolccare il cp ho
dovuto staccare la spina del telefono, aprire un'altro terminale (era
tutto inchiodato, anche la console di kdee il mouse) loggarmi come
root e fare reboot. Eviterei altre esperienze del genere...

Boh ?!? Ogni tanto Mozilla si blocca anche a me, ma non in modo così tristo..
Prova Konqueror.

Burp! ;-)

Arwan

Ciao



--
Email.it, the professional e-mail, gratis per te: http://www.email.it/f

Sponsor:
Digitalpix: Stampe digitali su vera carta fotografica
direttamente a casa tua a partire da € 0,18.
Clicca qui: http://adv.email.it/cgi-bin/foclick.cgi?mid=1535d=2-7



Re: [newbie-it] wget e problemino della settimana - file .swf

2003-07-01 Per discussione Arwan -
Deve aver avuto molto sonno, perche' il martedì 01 luglio 2003, alle 10:23, bombadur 
ha scritto:
 
 Rilancio: supponi che abbia scaricato con wget le pagine del sito, e 

Aggiungo un quesito (sono ferma al passaggio precedente): ma se wget
non scarica tutto? Ho provato, e sono certa che si e' dimenticato di
scaricare di file. Che se fa?

Per la stampa, poi, ho provato mentre ero online: al primo giro col
terzo tasto del mouse e' comparsa anche l'ozione stampa, ma poi non
mi da' la possibilita' di scegliere alcuna stampante, e nemmeno
stampa su pdf (uso Mozilla). Al secondo giro per sbolccare il cp ho
dovuto staccare la spina del telefono, aprire un'altro terminale (era
tutto inchiodato, anche la console di kdee il mouse) loggarmi come
root e fare reboot. Eviterei altre esperienze del genere...

Arwan
-- 
 There's so many different worlds
 So many different suns
 And we have just one world
 But we live in different ones.



Re: [newbie-it] wget e urpmi

2003-03-02 Per discussione Corrado
Il dom, 2003-03-02 alle 21:00, Luigi Pinna ha scritto:

 Dato che e` un argomento di questo periodo...
 Io vorrei settare urpmi perche' mi aggiorni i programmi passando solo da 
 fonte locale e allo stesso tempo avere in pratica tutto il mirror 
 aggiornato sulla fonte locale.
 Ora come settare urpmi e` stato detto in questi giorni, ma non so come 
 fare in modo che wget scarichi solo i nuovi files da un mirror 
 ufficiale.
 Inutile dire che e` stata vana la ricerca nel man di wget...
 Grazie a chiunque possa illuminarmi la strada!

In effetti una volta usai tale opzione, ma poi la smania di aggiornare
mi è un po' passat :)
Hai guardato man urpmi? Perchè mi pare di aver trovato li le info del
caso...

Corrado




Re: [newbie-it] WGET

2002-12-09 Per discussione Andrea Celli
On Mon, 9 Dec 2002 00:20:02 +0100
francesco manini [EMAIL PROTECTED] wrote:

 Sto cercando da diversi giorni di scaricare la seguente directory 
 www.osce.org/kosovo/documents/reports/hr 
 Tale directory contiene due sotto directory con vari files al loro interno.
 Purtroppo nonstante i vari tentativi che ho effettuato non riesco a 
 imbroccare il sistema giusto.
 I tentativi da me fatti sono i seguenti :
 wget -k -K -E -nH -nd -P prova /indirizzo da scaricare
 


di solito faccio qualcosa del tipo

wget -np -r http://www.osce.org/kosovo/documents/reports/hr 

-np per evitare che mi scarichi anche tutto quello che sta sopra
-r  per scaricare ricorsivamente tutte le sotto-directory

ciao, Andrea