Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet LEBRETON Philippe
bonjour, je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. Dans ce répertoiree il y en exite deux qui sont de liens symbolique. A chaque fois que j'utilise wget avec la commande suivante : wget -r --passive-ftp -nH -x -np -X *current -R *htm* http://ftp.fr.debian.org

Re: Utilisation de WGET - Problème des liens symboliques

2004-10-27 Par sujet Michelle Konzack
Am 2004-10-27 18:34:08, schrieb LEBRETON Philippe: bonjour, je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. Dans ce répertoiree il y en exite deux qui sont de liens symbolique. A chaque fois que j'utilise wget avec la commande suivante : wget -r --passive-ftp -nH

wget

2004-08-26 Par sujet momo
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris les fonctions récursives, et d'autres dailleurs: merci

Re: wget

2004-08-26 Par sujet Frédéric Bothamy
* momo [EMAIL PROTECTED] [2004-08-26 15:41] : bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris les

Re: wget

2004-08-26 Par sujet J.Pierre Pourrez
Le 26/08/04 à 15:41, momo écrivait: bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris les fonctions

Re: wget + user-agent

2004-01-27 Par sujet Mathieu ROCHE
[...] wget --user-agent=Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12 http://www.hebus.com/cat/info/linux/linux_001.jpg En fait, il s'avère que cela marche ! J'ai supprimé le .wgetrc que j'avais où j'avais déjà un user agent... il devait y avoir un conflit où je ne sais pas

wget + user-agent

2004-01-26 Par sujet Mathieu ROCHE
Bonjour, J'ai quelque problème avec l'utilisation de wget Quand je fais par exemple un wget http://www.hebus.com/cat/info/linux/linux_001.jpg; Je me fait jeter avec une erreur 403 (accès interdit) Même chose quand je modifie le user-agent et que je met celui de mon mozilla par exemple. Je ne

Re: wget + user-agent

2004-01-26 Par sujet Manu
Salut, c'est étrange car chez moi ça fonctionne avec le user-agent de Lynx... exemple : wget --user-agent=Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12 http://www.hebus.com/cat/info/linux/linux_001.jpg si ça t'intéresse, j'avais fais un script pour un copain qui permettait de

wget

2003-11-02 Par sujet claude.parisot
Bonsoir ! Question au sujet de wget : Existe t-il une option ou un moyen pour que wget ne capture que les pages mises à jour sur un site que l'on a déjà chargé précédemment ?? Au lieu de recommencer toute la capture du site ... Je n'ai rien trouvé de valable, ai-je mal regardé

Re: wget

2003-11-02 Par sujet Michel Grentzinger
Le Dimanche 2 Novembre 2003 17:11, claude.parisot a écrit : Bonsoir ! Question au sujet de wget : Existe t-il une option ou un moyen pour que wget ne capture que les pages mises à jour sur un site que l'on a déjà chargé précédemment ?? Au lieu de recommencer toute la capture du

Re: wget

2003-11-02 Par sujet Erwan David
Le Sun 2/11/2003, claude.parisot disait Bonsoir ! Question au sujet de wget : Existe t-il une option ou un moyen pour que wget ne capture que les pages mises à jour sur un site que l'on a déjà chargé précédemment ?? Au lieu de recommencer toute la capture du site

wget

2003-06-17 Par sujet Badier Vincent
Hello, J'utilise wget ds un script, tel que : wget -c --waitretry=15 --tries=inf $URLM || exit 1 avec la variable URLM qui varie. Mais mon problème est que lorsque je reviens de WE, je trouve souvent le script arrêté avec un gateway timeout. Pourtant il me semblais que le --tries=inf spécifiait

wget

2003-03-26 Par sujet Claude Parisot
Bonjour ! Je viens de découvrir wget, bien utile pour rapatrier des sites à consulter hors-connexion... J'ai rapatrié un site avec la commande # wget -c -r -15 -P/opt/webs/www.tartempion.org ça va plutôt vite, très bien, en parcourant le site hors connexion je retrouve pratiquement

Re: wget

2003-03-26 Par sujet Nicolas C.
Le mercredi 26 mars 2003 à 10:11, Claude Parisot écrivait : Bonjour ! Bonjour, Comment faire pour relancer la capture et récupérer le reste dus site ?? Peut-être que les .zip ne sont pas entreposés sur le même serveur que les pages du site. Par défaut, même avec l'option -r wget ne sort

wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Bonjour, Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour pouvoir lire tranquillement sur mon portable. J'ai regardé la page de manuel de wget et il me semble que l'option -A est ce que je cherche, malheureusement, lorque je lance : wget -c -N -r -p -A.fr.html http

Re: wget .fr.html

2002-03-21 Par sujet Brandl Bernard
Bonjour, Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour pouvoir lire tranquillement sur mon portable. J'ai regardé la page de manuel de wget et il me semble que l'option -A est ce que je cherche, malheureusement, lorque je lance : wget -c -N -r -p -A.fr.html http

Re: wget .fr.html

2002-03-21 Par sujet Loc Le Guyader
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour taper sur son écran: Bonjour, Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour pouvoir lire tranquillement sur mon portable. J'ai regardé la page de manuel de wget et il me semble que l'option -A est ce

Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Laurent PETIT
Bonjour, Je rebondis sur cette question pour l'élargir : Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, meme si effectivement il le permet. QUEL outil conseilleriez-vous pour cela ? (merci de ne pas repondre google.com, ce que je cherche c'est les retours

Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Davy Gigan
Laurent PETIT writes: Bonjour, Je rebondis sur cette question pour l'élargir : Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, meme si effectivement il le permet. QUEL outil conseilleriez-vous pour cela ? (merci de ne pas repondre google.com) Plus

Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet MadCoder
apt-get install fmirror -- MadCoder (53 53) Pour réussir un examen, un étudiant doit lutter contre toutes les forces centrifuges qui peuvent le distraire de son travail. - T. de Montbrial

RE: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]

2002-03-21 Par sujet Lucas Bruand
QUEL outil conseilleriez-vous pour cela ? Après une étude sur la question d'une ou deux journées, définitivement HTTRACK! C'est ce qui marche le mieux à ma connaissance pour la transformation d'URL absolues en URL locales.

Re: wget .fr.html

2002-03-21 Par sujet Nicolas Bertolissio
Le jeudi 21 mars 2002, Loïc Le Guyader écrit : Et avec -m au lieu de -r -p? -p et -A est contradictoire il me semble. c'est pas mieux. et d'ailleurs, avec httrack il me récupère toujours tous les xx.html avec les options -D -%l fr, en, donc ça ne résoud pas le problème, j'ai bien lu le manuel

Re: wget .fr.html

2002-03-21 Par sujet Loc Le Guyader
mirroir vont faire la même erreur. Car quoi qu'il arrive, ils récupèrent tous les fichiers html pour suivre les liens, et donc y comprit les xx.html. Il te reste plus qu'a modifier les sources de wget (ou autres). -- Pixar's Toy Story: $180M domestic box office. Oscar for Special Achievement

Re: wget .fr.html

2002-03-21 Par sujet Jacques L'helgoualc'h
Nicolas Bertolissio a écrit, jeudi 21 mars 2002, à 16:37 : Le jeudi 21 mars 2002, Loïc Le Guyader écrit : Et avec -m au lieu de -r -p? -p et -A est contradictoire il me semble. c'est pas mieux. et d'ailleurs, avec httrack il me récupère toujours tous les xx.html avec les options -D -%l

<    1   2