Re: Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet Michelle Konzack
Am 2004-10-27 18:34:08, schrieb LEBRETON Philippe: > bonjour, > > je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. > Dans ce répertoiree il y en exite deux qui sont de liens symbolique. > A chaque fois que j'utilise wget avec la commande suivante :

Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet LEBRETON Philippe
bonjour, je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. Dans ce répertoiree il y en exite deux qui sont de liens symbolique. A chaque fois que j'utilise wget avec la commande suivante : wget -r --passive-ftp -nH -x -np -X "*current" -

Re: wget

2004-08-26 Par sujet J.Pierre Pourrez
Le 26/08/04 à 15:41, momo écrivait: > bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur > wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je > cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai

Re: wget

2004-08-26 Par sujet Frédéric Bothamy
* momo <[EMAIL PROTECTED]> [2004-08-26 15:41] : > bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur > wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je > cherche mal ? si vous avez une adresse, je serai trés intéressé,

wget

2004-08-26 Par sujet momo
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris les fonctions récursives, et d'autr

Re: wget + user-agent

2004-01-27 Par sujet Mathieu ROCHE
[...] wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12" http://www.hebus.com/cat/info/linux/linux_001.jpg En fait, il s'avère que cela marche ! J'ai supprimé le .wgetrc que j'avais où j'avais déjà un user agent... il devait y avoi

Re: wget + user-agent

2004-01-26 Par sujet Manu
Salut, c'est étrange car chez moi ça fonctionne avec le user-agent de Lynx... exemple : wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12" http://www.hebus.com/cat/info/linux/linux_001.jpg si ça t'intéresse, j'avais fais un script pour un

wget + user-agent

2004-01-26 Par sujet Mathieu ROCHE
Bonjour, J'ai quelque problème avec l'utilisation de wget Quand je fais par exemple un "wget http://www.hebus.com/cat/info/linux/linux_001.jpg"; Je me fait jeter avec une erreur 403 (accès interdit) Même chose quand je modifie le user-agent et que je met celui de mon mozil

Re: wget

2003-11-02 Par sujet Erwan David
Le Sun 2/11/2003, claude.parisot disait > > > Bonsoir ! > > Question au sujet de wget : > > Existe t-il une option ou un moyen pour que wget ne capture > que les pages mises à jour sur un site que l'on a déjà chargé > précédemment ?? Au lieu de reco

Re: wget

2003-11-02 Par sujet Michel Grentzinger
Le Dimanche 2 Novembre 2003 17:11, claude.parisot a écrit : > Bonsoir ! > > Question au sujet de wget : > > Existe t-il une option ou un moyen pour que wget ne capture > que les pages mises à jour sur un site que l'on a déjà chargé > précédemment ?? Au li

wget

2003-11-02 Par sujet claude.parisot
Bonsoir ! Question au sujet de wget : Existe t-il une option ou un moyen pour que wget ne capture que les pages mises à jour sur un site que l'on a déjà chargé précédemment ?? Au lieu de recommencer toute la capture du site ... Je n'ai rien trouvé de valable, ai-je m

wget

2003-06-17 Par sujet Badier Vincent
Hello, J'utilise wget ds un script, tel que : wget -c --waitretry=15 --tries=inf $URLM || exit 1 avec la variable URLM qui varie. Mais mon problème est que lorsque je reviens de WE, je trouve souvent le script arrêté avec un gateway timeout. Pourtant il me semblais que le --tries=inf spéci

Re: wget

2003-03-26 Par sujet Nicolas C.
Le mercredi 26 mars 2003 à 10:11, Claude Parisot écrivait : > Bonjour ! Bonjour, > Comment faire pour relancer la capture et récupérer le reste dus site ?? Peut-être que les .zip ne sont pas entreposés sur le même serveur que les pages du site. Par défaut, même avec l'option -r w

wget

2003-03-26 Par sujet Claude Parisot
Bonjour ! Je viens de découvrir wget, bien utile pour rapatrier des sites à consulter hors-connexion... J'ai rapatrié un site avec la commande # wget -c -r -15 -P/opt/webs/www.tartempion.org ça va plutôt vite, très bien, en parcourant le site hors connexion je retrouve pratiqu

Re: wget .fr.html

2002-03-24 Par sujet nicolas
Le jeu, 21 mar 2002 13:54:54 Brandl Bernard a écrit : » il me semble que httrack te serai plus utile, il fait un » mirroir qui se browse off-line, et est pourri d'options sympas. Oui mais il n'est pas disponible sur ma patate de base. Ça serait bien que quand on répond « apt-get install bidule »

Re: wget .fr.html

2002-03-21 Par sujet Jacques L'helgoualc'h
Nicolas Bertolissio a écrit, jeudi 21 mars 2002, à 16:37 : > Le jeudi 21 mars 2002, Loïc Le Guyader écrit : > > Et avec -m au lieu de -r -p? > > -p et -A est contradictoire il me semble. > c'est pas mieux. > > et d'ailleurs, avec httrack il me récupère toujours tous les xx.html > avec les options

Re: wget .fr.html

2002-03-21 Par sujet Loïc Le Guyader
ue tous les outils pour faire un mirroir vont faire la même erreur. Car quoi qu'il arrive, ils récupèrent tous les fichiers html pour suivre les liens, et donc y comprit les xx.html. Il te reste plus qu'a modifier les sources de wget (ou autres). -- Pixar's "Toy Story"

Re: wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Le jeudi 21 mars 2002, Loïc Le Guyader écrit : > Et avec -m au lieu de -r -p? > -p et -A est contradictoire il me semble. c'est pas mieux. et d'ailleurs, avec httrack il me récupère toujours tous les xx.html avec les options -D -%l "fr, en", donc ça ne résoud pas le problème, j'ai bien lu le manue

RE: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Lucas Bruand
> QUEL outil conseilleriez-vous pour cela ? Après une étude sur la question d'une ou deux journées, définitivement HTTRACK! C'est ce qui marche le mieux à ma connaissance pour la transformation d'URL absolues en URL locales.

Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet MadCoder
apt-get install fmirror -- MadCoder (53 53) "Pour réussir un examen, un étudiant doit lutter contre toutes les forces centrifuges qui peuvent le distraire de son travail." - T. de Montbrial

Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Davy Gigan
Laurent PETIT writes: > Bonjour, > > Je rebondis sur cette question pour l'élargir : > Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, > meme si effectivement il le permet. > > QUEL outil conseilleriez-vous pour cela ? >

Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Laurent PETIT
Bonjour, Je rebondis sur cette question pour l'élargir : Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, meme si effectivement il le permet. QUEL outil conseilleriez-vous pour cela ? (merci de ne pas repondre google.com, ce que je cherche c'est l

Re: wget .fr.html

2002-03-21 Par sujet Loïc Le Guyader
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour taper sur son écran: > Bonjour, > > Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour > pouvoir lire tranquillement sur mon portable. J'ai regardé la page de > manuel de wget et il me semble

Re: wget .fr.html

2002-03-21 Par sujet Brandl Bernard
> Bonjour, > > Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour > pouvoir lire tranquillement sur mon portable. J'ai regardé la page de > manuel de wget et il me semble que l'option -A est ce que je cherche, > malheureusement, lorque je lance : &

wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Bonjour, Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour pouvoir lire tranquillement sur mon portable. J'ai regardé la page de manuel de wget et il me semble que l'option -A est ce que je cherche, malheureusement, lorque je lance : wget -c -N -r -p -A.fr

<    1   2