Re: Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet Michelle Konzack
Am 2004-10-27 18:34:08, schrieb LEBRETON Philippe:
> bonjour,
> 
> je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386.
> Dans ce répertoiree il y en exite deux qui sont de liens symbolique.
> A chaque fois que j'utilise wget avec la commande suivante :
> wget -r --passive-ftp -nH -x -np -X "*current" -R "*htm*" 
> http://ftp.fr.debian.org/debian/dists/woody/main/disks-i386/
> les répertoire current et base-image-current ne sont pas pris en tant 
> que lien mais en tant que répertoire.
> 
> Comment faire

Je utilise ça:

  ( 'stdin' )___
 /
| TARGET=ftp://ftp.de.debian.org/debian
| REL=woody
| ARCH=i386
| PATH_TMP=/tmp
| SPEED=60k
| 
| wget --directory-prefix=$TARGET/dists/$REL/main/disks-$ARCH \
|  --limit-rate=$SPEED --tries=10 --timeout=90 \
|  --output-file=$PATH_TMP/Floppies.wget --cut-dirs=5 -x -nH -r \
|  $SERVER/dists/$REL/main/disks-$ARCH/
 \__


> Merci
> 
> Philippe LEBRETON


Greetings
Michelle

-- 
Linux-User #280138 with the Linux Counter, http://counter.li.org/ 
Michelle Konzack   Apt. 917  ICQ #328449886
   50, rue de Soultz MSM LinuxMichi
0033/3/8845235667100 Strasbourg/France   IRC #Debian (irc.icq.com)


signature.pgp
Description: Digital signature


Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet LEBRETON Philippe

bonjour,

je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386.
Dans ce répertoiree il y en exite deux qui sont de liens symbolique.
A chaque fois que j'utilise wget avec la commande suivante :
wget -r --passive-ftp -nH -x -np -X "*current" -R "*htm*" 
http://ftp.fr.debian.org/debian/dists/woody/main/disks-i386/
les répertoire current et base-image-current ne sont pas pris en tant 
que lien mais en tant que répertoire.


Comment faire

Merci

Philippe LEBRETON



Re: wget

2004-08-26 Par sujet J.Pierre Pourrez
Le 26/08/04 à 15:41, momo écrivait:

> bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur 
> wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je 
> cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas 
> trés compris les fonctions récursives, et d'autres  dailleurs:
> merci de votre réponse,quelle qu'elle soit

Un ptit coup de Google dans les pages francophones amène à ceci :
http://www.delafond.org/traducmanfr/man/man1/wget.1.html

Bonne lecture
Jean-Pierre



Re: wget

2004-08-26 Par sujet Frédéric Bothamy
* momo <[EMAIL PROTECTED]> [2004-08-26 15:41] :
> bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur 
> wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je 
> cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas 
> trés compris les fonctions récursives, et d'autres  dailleurs:
> merci de votre réponse,quelle qu'elle soit

La page de manuel de wget est traduite en français et est accessible à
l'adresse suivante :
http://www.delafond.org/traducmanfr/man/man1/wget.1.html.


Fred

PS : coupe tes lignes à 72 caractères.

-- 
Comment poser les questions de manière intelligente ?
http://www.gnurou.org/documents/smart-questions-fr.html
Comment signaler efficacement un bug ?
http://www.chiark.greenend.org.uk/~sgtatham/bugs-fr.html



wget

2004-08-26 Par sujet momo
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget 
en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche 
mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris 
les fonctions récursives, et d'autres  dailleurs:
merci de votre réponse,quelle qu'elle soit

-- 
salut et à +
momo
tel 05.61.09.96.06

(Veuillez ne pas me joindre de textes aux formats Word ou PowerPoint, mais
 plutôt aux formats .html,.pdf,.tex .txt..dvi). Merci. :o)


  
 La liberté d'expression cessera d'être le substitut de la liberté d'action 
 lorsque la vitalité et l'efficience qu'elle recèle préviendront et
 décourageront les contrefaçons en créant une adéquation entre la fraternité
 des mots et la fraternité des hommes.

 R. Waneigem
 



Re: wget + user-agent

2004-01-27 Par sujet Mathieu ROCHE



[...]
wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12"
http://www.hebus.com/cat/info/linux/linux_001.jpg

 


En fait, il s'avère que cela marche !
J'ai supprimé le .wgetrc que j'avais où j'avais déjà un user agent... il 
devait y avoir un conflit où je ne sais pas trop...



si ça t'intéresse, j'avais fais un script pour un copain qui permettait de
récupérer les images sur hebus en outre passant le pseudo système de
protection
 


Pourquoi pas... tu peux me l'envoyer par mail ?

Merci et à bientôt...



Re: wget + user-agent

2004-01-26 Par sujet Manu
Salut,


c'est étrange car chez moi ça fonctionne avec le user-agent de Lynx...

exemple : 

wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12"
http://www.hebus.com/cat/info/linux/linux_001.jpg

si ça t'intéresse, j'avais fais un script pour un copain qui permettait de
récupérer les images sur hebus en outre passant le pseudo système de
protection


M.

-- 
Emmanuel Bouthenot - Kolter
  MAIL : [EMAIL PROTECTED]
   GPG : 0x414EC36E
   WWW : http://kolter.free.fr
JABBER : [EMAIL PROTECTED]
   TEL : (+33) 06 17 29 01 91



Selon Mathieu ROCHE <[EMAIL PROTECTED]>:

> Bonjour,
> 
> J'ai quelque problème avec l'utilisation de wget
> 
> Quand je fais par exemple un
> "wget http://www.hebus.com/cat/info/linux/linux_001.jpg";
> Je me fait jeter avec une erreur 403 (accès interdit)
> Même chose quand je modifie le user-agent et que je met celui de mon 
> mozilla par exemple.
> 
> Je ne comprend pas pourquoi, car quand je copie le lien direct dans lynx 
> ou mozilla pas de problème.
> 
> le .htaccess ne peut se servir que du user-agent ou du referer pour me 
> dégager, non ?
> De quoi peut venir le problème ?
> 
> A ma connaissance, on ne peut pas bloquer l'accès à un fichier de cette 
> façon, la seule technique que
> je connaisse est de bloquer le répertoire contenant puis d'afficher les 
> images avec la lib gd par exemple.
> 
> Merci.
> 
> 
> 
> 
> 
> 
> -- 
> Pensez à lire la FAQ de la liste avant de poser une question :
> http://savannah.nongnu.org/download/debfr-faq/html/
> 
> Pensez à rajouter le mot ``spam'' dans vos champs "From" et "Reply-To:"
> 
> To UNSUBSCRIBE, email to [EMAIL PROTECTED]
> with a subject of "unsubscribe". Trouble? Contact
> [EMAIL PROTECTED]
> 
> 



wget + user-agent

2004-01-26 Par sujet Mathieu ROCHE

Bonjour,

J'ai quelque problème avec l'utilisation de wget

Quand je fais par exemple un
"wget http://www.hebus.com/cat/info/linux/linux_001.jpg";
Je me fait jeter avec une erreur 403 (accès interdit)
Même chose quand je modifie le user-agent et que je met celui de mon 
mozilla par exemple.


Je ne comprend pas pourquoi, car quand je copie le lien direct dans lynx 
ou mozilla pas de problème.


le .htaccess ne peut se servir que du user-agent ou du referer pour me 
dégager, non ?

De quoi peut venir le problème ?

A ma connaissance, on ne peut pas bloquer l'accès à un fichier de cette 
façon, la seule technique que
je connaisse est de bloquer le répertoire contenant puis d'afficher les 
images avec la lib gd par exemple.


Merci.







Re: wget

2003-11-02 Par sujet Erwan David
Le Sun  2/11/2003, claude.parisot disait
> 
> 
>   Bonsoir !
> 
>   Question au sujet de wget :
> 
>   Existe t-il une option ou un moyen pour que wget ne capture 
>   que les pages mises à jour sur un site que l'on a déjà chargé 
>   précédemment ?? Au lieu de recommencer toute la capture du site ...
>   Je n'ai rien trouvé de valable, ai-je mal regardé ?

regarde wget -N


-- 
Erwan



Re: wget

2003-11-02 Par sujet Michel Grentzinger
Le Dimanche 2 Novembre 2003 17:11, claude.parisot a écrit :
>   Bonsoir !
>
>   Question au sujet de wget :
>
>   Existe t-il une option ou un moyen pour que wget ne capture
>   que les pages mises à jour sur un site que l'on a déjà chargé
>   précédemment ?? Au lieu de recommencer toute la capture du site ...
>   Je n'ai rien trouvé de valable, ai-je mal regardé ?

Essauie plutôt du coté de htttrack qui copie des site web. Il doit bien y 
avoir une option pour celà.

-- 
Michel Grentzinger
OpenPGP key ID : B2BAFAFA
Available on http://www.keyserver.net



wget

2003-11-02 Par sujet claude.parisot


  Bonsoir !

  Question au sujet de wget :

  Existe t-il une option ou un moyen pour que wget ne capture 
  que les pages mises à jour sur un site que l'on a déjà chargé 
  précédemment ?? Au lieu de recommencer toute la capture du site ...
  Je n'ai rien trouvé de valable, ai-je mal regardé ?

   Merci 

   Claude



wget

2003-06-17 Par sujet Badier Vincent
Hello,

J'utilise wget ds un script, tel que :
wget -c --waitretry=15 --tries=inf $URLM || exit 1

avec la variable URLM qui varie. Mais mon problème est
que lorsque je reviens de WE, je trouve souvent le
script arrêté avec un gateway timeout. Pourtant il me
semblais que le --tries=inf spécifiait que le nombre
de tentative de connexion est infinie?

Aurais-je loupé qq chose?

--
Vincent

___
Do You Yahoo!? -- Une adresse @yahoo.fr gratuite et en français !
Yahoo! Mail : http://fr.mail.yahoo.com



Re: wget

2003-03-26 Par sujet Nicolas C.
Le mercredi 26 mars 2003 à 10:11, Claude Parisot écrivait :
>  Bonjour !

Bonjour,
 
 
> Comment faire pour relancer la capture et récupérer le reste dus site ??

Peut-être que les .zip ne sont pas entreposés sur le même serveur que
les pages du site. Par défaut, même avec l'option -r wget ne sort pas
du serveur spécifié (logique sinon un lien vers l'extérieur dans le
site et tu te retrouve à télécharger tout l'internet ...) donc si tu
veux forcer la récupération sur d'autres hôtes que celui de départ il
faut ajouter -H à ta commande. Pour de plus amples informations $ man
wget.

À plus !

-- 
Mail   : Bounga at altern.org
Clef GPG   : http://linuxpower.free.fr/bounga.asc



wget

2003-03-26 Par sujet Claude Parisot



 Bonjour !

 Je viens de découvrir wget, bien utile pour rapatrier des sites à
consulter hors-connexion...

J'ai rapatrié un site avec la commande 
# wget -c -r -15 -P/opt/webs/www.tartempion.org


 ça va plutôt vite, très bien, en parcourant le site hors connexion
 je retrouve pratiquement toutes les pages html, mais tout un répertoire
de fichiers zips est absent, jusque là je me dis , c'est normal, j'avais
interrompu la capture, je devais m'absenter, donc je relance la même
commande citée plus haut et wget me répond :

requête HTTP transmise, en attente de la réponse...416 Requested Range
Not Satisfiable
 
Le fichier a déjà été complètement récupéré; rien à faire.

j'ai essayé avec l'option -20 pour aller plus en profondeur mais il n'en
veut pas.

Comment faire pour relancer la capture et récupérer le reste dus site ??

  Merci
 

-- 
Claude Parisot <[EMAIL PROTECTED]>



Re: wget .fr.html

2002-03-24 Par sujet nicolas
Le jeu, 21 mar 2002 13:54:54 Brandl Bernard a écrit :

» il me semble que httrack te serai plus utile, il fait un
» mirroir qui se browse off-line, et est pourri d'options 
sympas.

Oui mais il n'est pas disponible sur ma patate de base.
Ça serait bien que quand on répond « apt-get install bidule » 
de préciser si la machine est stable, testing ou unstable. Ça 
éviterait de taper « apt-cache show bidule » et d'être déçu une 

fois sur deux.
C'est tout !

nicolas patrois, pts noir asocial
-- 
Le bon sens statistique est ce qui manque le plus dans notre 
pays.
-- Duby, Jean-Jacques ; Tangente




-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: wget .fr.html

2002-03-21 Par sujet Jacques L'helgoualc'h
Nicolas Bertolissio a écrit, jeudi 21 mars 2002, à 16:37 :
> Le jeudi 21 mars 2002, Loïc Le Guyader écrit :
> > Et avec -m au lieu de -r -p?
> > -p et -A est contradictoire il me semble.
> c'est pas mieux.
> 
> et d'ailleurs, avec httrack il me récupère toujours tous les xx.html
> avec les options -D -%l "fr, en", donc ça ne résoud pas le problème, j'ai
> bien lu le manuel rapidement (peut-être trop), mais je n'arrive pas à
> lui faire télécharger uniquement le français, ou l'anglais si ce n'est
> pas traduit.

C'est possible avec Wwwoffle, dans la section DontGet de la
configuration, et aussi peut-être CensorHeader ?
-- 
Jacques L'helgoualc'h



Re: wget .fr.html

2002-03-21 Par sujet Loïc Le Guyader
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour
taper sur son écran:
> Le jeudi 21 mars 2002, Loïc Le Guyader écrit :
> > Et avec -m au lieu de -r -p?
> > -p et -A est contradictoire il me semble.
> c'est pas mieux.

Effectivement. Mais là je crois que tous les outils pour faire un
mirroir vont faire la même erreur. Car quoi qu'il arrive, ils récupèrent
tous les fichiers html pour suivre les liens, et donc y comprit les
xx.html.
Il te reste plus qu'a modifier les sources de wget (ou autres).

-- 
Pixar's "Toy Story": > $180M domestic box office.
Oscar for Special Achievement. Three Oscar nominations.



Re: wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Le jeudi 21 mars 2002, Loïc Le Guyader écrit :
> Et avec -m au lieu de -r -p?
> -p et -A est contradictoire il me semble.
c'est pas mieux.

et d'ailleurs, avec httrack il me récupère toujours tous les xx.html
avec les options -D -%l "fr, en", donc ça ne résoud pas le problème, j'ai
bien lu le manuel rapidement (peut-être trop), mais je n'arrive pas à
lui faire télécharger uniquement le français, ou l'anglais si ce n'est
pas traduit.


Nicolas B.
-- 



RE: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Lucas Bruand
> QUEL outil conseilleriez-vous pour cela ?
Après une étude sur la question d'une ou deux journées, définitivement
HTTRACK!
C'est ce qui marche le mieux à ma connaissance pour la transformation d'URL
absolues en URL locales.



Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet MadCoder
apt-get install fmirror
-- 
MadCoder (53 53)

"Pour réussir un examen, un étudiant doit lutter contre toutes les forces 
centrifuges qui peuvent le distraire de son travail."

- T. de Montbrial



Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Davy Gigan
Laurent PETIT writes:
 > Bonjour,
 > 
 > Je rebondis sur cette question pour l'élargir :
 > Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, 
 > meme si effectivement il le permet.
 > 
 > QUEL outil conseilleriez-vous pour cela ?
 > 
 > (merci de ne pas repondre google.com)

Plus simplement, il y a déjà eu des fils de discussion là dessus, as-tu cherché 
?
pour ma part, je te dirais rsync+ssh.

http://lists.debian.org/search.html

-- 
Davy Gigan
System & Network Administration  [Please no HTML, I'm not a browser]
University Of Caen (France)   [Pas d'HTML, je ne suis pas un navigateur]



Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Laurent PETIT
Bonjour,

Je rebondis sur cette question pour l'élargir :
Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, 
meme si effectivement il le permet.

QUEL outil conseilleriez-vous pour cela ?

(merci de ne pas repondre google.com, ce que je cherche c'est les retours 
d'experience de vrais p'tits abonnés à cette ML, de ceux qui font du mirroring 
actuellement ou ont une experience plus que livresque sur le sujet ;-)

Merci d'avance,

Laurent.


Re: wget .fr.html

2002-03-21 Par sujet Loïc Le Guyader
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour
taper sur son écran:
> Bonjour,
> 
> Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
> pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
> manuel de wget et il me semble que l'option -A est ce que je cherche,
> malheureusement, lorque je lance :
> wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html

Et avec -m au lieu de -r -p?
-p et -A est contradictoire il me semble.

-- 
The "Toy Story Animated Storybook" CD was the best selling software product
during the month of May, outselling the Windows '95 upgrade, Quicken, etc.



Re: wget .fr.html

2002-03-21 Par sujet Brandl Bernard

> Bonjour,
> 
> Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
> pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
> manuel de wget et il me semble que l'option -A est ce que je cherche,
> malheureusement, lorque je lance :
> wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html
> 
> il télécharge tout un tas de fichiers xx.html qu'il efface ensuite,
> quelqu'un aurait-ilune solution ?
> 
> 


il me semble que httrack te serai plus utile, il fait un mirroir qui se browse 
off-line, et est pourrit d'options sympas.


-- 
Bernard Brandl
[EMAIL PROTECTED]
ICQ:111842968
06.63.27.10.97



wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Bonjour,

Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
manuel de wget et il me semble que l'option -A est ce que je cherche,
malheureusement, lorque je lance :
wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html

il télécharge tout un tas de fichiers xx.html qu'il efface ensuite,
quelqu'un aurait-ilune solution ?


Nicolas B.
-- 



<    1   2