Re: Utilisation de WGET - Problème des liens symboliques
Am 2004-10-27 18:34:08, schrieb LEBRETON Philippe: > bonjour, > > je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. > Dans ce répertoiree il y en exite deux qui sont de liens symbolique. > A chaque fois que j'utilise wget avec la commande suivante : > wget -r --passive-ftp -nH -x -np -X "*current" -R "*htm*" > http://ftp.fr.debian.org/debian/dists/woody/main/disks-i386/ > les répertoire current et base-image-current ne sont pas pris en tant > que lien mais en tant que répertoire. > > Comment faire Je utilise ça: ( 'stdin' )___ / | TARGET=ftp://ftp.de.debian.org/debian | REL=woody | ARCH=i386 | PATH_TMP=/tmp | SPEED=60k | | wget --directory-prefix=$TARGET/dists/$REL/main/disks-$ARCH \ | --limit-rate=$SPEED --tries=10 --timeout=90 \ | --output-file=$PATH_TMP/Floppies.wget --cut-dirs=5 -x -nH -r \ | $SERVER/dists/$REL/main/disks-$ARCH/ \__ > Merci > > Philippe LEBRETON Greetings Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/8845235667100 Strasbourg/France IRC #Debian (irc.icq.com) signature.pgp Description: Digital signature
Utilisation de WGET - Problème des liens symboliques
bonjour, je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386. Dans ce répertoiree il y en exite deux qui sont de liens symbolique. A chaque fois que j'utilise wget avec la commande suivante : wget -r --passive-ftp -nH -x -np -X "*current" -R "*htm*" http://ftp.fr.debian.org/debian/dists/woody/main/disks-i386/ les répertoire current et base-image-current ne sont pas pris en tant que lien mais en tant que répertoire. Comment faire Merci Philippe LEBRETON
Re: wget
Le 26/08/04 à 15:41, momo écrivait: > bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur > wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je > cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas > trés compris les fonctions récursives, et d'autres dailleurs: > merci de votre réponse,quelle qu'elle soit Un ptit coup de Google dans les pages francophones amène à ceci : http://www.delafond.org/traducmanfr/man/man1/wget.1.html Bonne lecture Jean-Pierre
Re: wget
* momo <[EMAIL PROTECTED]> [2004-08-26 15:41] : > bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur > wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je > cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas > trés compris les fonctions récursives, et d'autres dailleurs: > merci de votre réponse,quelle qu'elle soit La page de manuel de wget est traduite en français et est accessible à l'adresse suivante : http://www.delafond.org/traducmanfr/man/man1/wget.1.html. Fred PS : coupe tes lignes à 72 caractères. -- Comment poser les questions de manière intelligente ? http://www.gnurou.org/documents/smart-questions-fr.html Comment signaler efficacement un bug ? http://www.chiark.greenend.org.uk/~sgtatham/bugs-fr.html
wget
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris les fonctions récursives, et d'autres dailleurs: merci de votre réponse,quelle qu'elle soit -- salut et à + momo tel 05.61.09.96.06 (Veuillez ne pas me joindre de textes aux formats Word ou PowerPoint, mais plutôt aux formats .html,.pdf,.tex .txt..dvi). Merci. :o) La liberté d'expression cessera d'être le substitut de la liberté d'action lorsque la vitalité et l'efficience qu'elle recèle préviendront et décourageront les contrefaçons en créant une adéquation entre la fraternité des mots et la fraternité des hommes. R. Waneigem
Re: wget + user-agent
[...] wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12" http://www.hebus.com/cat/info/linux/linux_001.jpg En fait, il s'avère que cela marche ! J'ai supprimé le .wgetrc que j'avais où j'avais déjà un user agent... il devait y avoir un conflit où je ne sais pas trop... si ça t'intéresse, j'avais fais un script pour un copain qui permettait de récupérer les images sur hebus en outre passant le pseudo système de protection Pourquoi pas... tu peux me l'envoyer par mail ? Merci et à bientôt...
Re: wget + user-agent
Salut, c'est étrange car chez moi ça fonctionne avec le user-agent de Lynx... exemple : wget --user-agent="Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12" http://www.hebus.com/cat/info/linux/linux_001.jpg si ça t'intéresse, j'avais fais un script pour un copain qui permettait de récupérer les images sur hebus en outre passant le pseudo système de protection M. -- Emmanuel Bouthenot - Kolter MAIL : [EMAIL PROTECTED] GPG : 0x414EC36E WWW : http://kolter.free.fr JABBER : [EMAIL PROTECTED] TEL : (+33) 06 17 29 01 91 Selon Mathieu ROCHE <[EMAIL PROTECTED]>: > Bonjour, > > J'ai quelque problème avec l'utilisation de wget > > Quand je fais par exemple un > "wget http://www.hebus.com/cat/info/linux/linux_001.jpg"; > Je me fait jeter avec une erreur 403 (accès interdit) > Même chose quand je modifie le user-agent et que je met celui de mon > mozilla par exemple. > > Je ne comprend pas pourquoi, car quand je copie le lien direct dans lynx > ou mozilla pas de problème. > > le .htaccess ne peut se servir que du user-agent ou du referer pour me > dégager, non ? > De quoi peut venir le problème ? > > A ma connaissance, on ne peut pas bloquer l'accès à un fichier de cette > façon, la seule technique que > je connaisse est de bloquer le répertoire contenant puis d'afficher les > images avec la lib gd par exemple. > > Merci. > > > > > > > -- > Pensez à lire la FAQ de la liste avant de poser une question : > http://savannah.nongnu.org/download/debfr-faq/html/ > > Pensez à rajouter le mot ``spam'' dans vos champs "From" et "Reply-To:" > > To UNSUBSCRIBE, email to [EMAIL PROTECTED] > with a subject of "unsubscribe". Trouble? Contact > [EMAIL PROTECTED] > >
wget + user-agent
Bonjour, J'ai quelque problème avec l'utilisation de wget Quand je fais par exemple un "wget http://www.hebus.com/cat/info/linux/linux_001.jpg"; Je me fait jeter avec une erreur 403 (accès interdit) Même chose quand je modifie le user-agent et que je met celui de mon mozilla par exemple. Je ne comprend pas pourquoi, car quand je copie le lien direct dans lynx ou mozilla pas de problème. le .htaccess ne peut se servir que du user-agent ou du referer pour me dégager, non ? De quoi peut venir le problème ? A ma connaissance, on ne peut pas bloquer l'accès à un fichier de cette façon, la seule technique que je connaisse est de bloquer le répertoire contenant puis d'afficher les images avec la lib gd par exemple. Merci.
Re: wget
Le Sun 2/11/2003, claude.parisot disait > > > Bonsoir ! > > Question au sujet de wget : > > Existe t-il une option ou un moyen pour que wget ne capture > que les pages mises à jour sur un site que l'on a déjà chargé > précédemment ?? Au lieu de recommencer toute la capture du site ... > Je n'ai rien trouvé de valable, ai-je mal regardé ? regarde wget -N -- Erwan
Re: wget
Le Dimanche 2 Novembre 2003 17:11, claude.parisot a écrit : > Bonsoir ! > > Question au sujet de wget : > > Existe t-il une option ou un moyen pour que wget ne capture > que les pages mises à jour sur un site que l'on a déjà chargé > précédemment ?? Au lieu de recommencer toute la capture du site ... > Je n'ai rien trouvé de valable, ai-je mal regardé ? Essauie plutôt du coté de htttrack qui copie des site web. Il doit bien y avoir une option pour celà. -- Michel Grentzinger OpenPGP key ID : B2BAFAFA Available on http://www.keyserver.net
wget
Bonsoir ! Question au sujet de wget : Existe t-il une option ou un moyen pour que wget ne capture que les pages mises à jour sur un site que l'on a déjà chargé précédemment ?? Au lieu de recommencer toute la capture du site ... Je n'ai rien trouvé de valable, ai-je mal regardé ? Merci Claude
wget
Hello, J'utilise wget ds un script, tel que : wget -c --waitretry=15 --tries=inf $URLM || exit 1 avec la variable URLM qui varie. Mais mon problème est que lorsque je reviens de WE, je trouve souvent le script arrêté avec un gateway timeout. Pourtant il me semblais que le --tries=inf spécifiait que le nombre de tentative de connexion est infinie? Aurais-je loupé qq chose? -- Vincent ___ Do You Yahoo!? -- Une adresse @yahoo.fr gratuite et en français ! Yahoo! Mail : http://fr.mail.yahoo.com
Re: wget
Le mercredi 26 mars 2003 à 10:11, Claude Parisot écrivait : > Bonjour ! Bonjour, > Comment faire pour relancer la capture et récupérer le reste dus site ?? Peut-être que les .zip ne sont pas entreposés sur le même serveur que les pages du site. Par défaut, même avec l'option -r wget ne sort pas du serveur spécifié (logique sinon un lien vers l'extérieur dans le site et tu te retrouve à télécharger tout l'internet ...) donc si tu veux forcer la récupération sur d'autres hôtes que celui de départ il faut ajouter -H à ta commande. Pour de plus amples informations $ man wget. À plus ! -- Mail : Bounga at altern.org Clef GPG : http://linuxpower.free.fr/bounga.asc
wget
Bonjour ! Je viens de découvrir wget, bien utile pour rapatrier des sites à consulter hors-connexion... J'ai rapatrié un site avec la commande # wget -c -r -15 -P/opt/webs/www.tartempion.org ça va plutôt vite, très bien, en parcourant le site hors connexion je retrouve pratiquement toutes les pages html, mais tout un répertoire de fichiers zips est absent, jusque là je me dis , c'est normal, j'avais interrompu la capture, je devais m'absenter, donc je relance la même commande citée plus haut et wget me répond : requête HTTP transmise, en attente de la réponse...416 Requested Range Not Satisfiable Le fichier a déjà été complètement récupéré; rien à faire. j'ai essayé avec l'option -20 pour aller plus en profondeur mais il n'en veut pas. Comment faire pour relancer la capture et récupérer le reste dus site ?? Merci -- Claude Parisot <[EMAIL PROTECTED]>
Re: wget .fr.html
Le jeu, 21 mar 2002 13:54:54 Brandl Bernard a écrit : » il me semble que httrack te serai plus utile, il fait un » mirroir qui se browse off-line, et est pourri d'options sympas. Oui mais il n'est pas disponible sur ma patate de base. Ça serait bien que quand on répond « apt-get install bidule » de préciser si la machine est stable, testing ou unstable. Ça éviterait de taper « apt-cache show bidule » et d'être déçu une fois sur deux. C'est tout ! nicolas patrois, pts noir asocial -- Le bon sens statistique est ce qui manque le plus dans notre pays. -- Duby, Jean-Jacques ; Tangente -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]
Re: wget .fr.html
Nicolas Bertolissio a écrit, jeudi 21 mars 2002, à 16:37 : > Le jeudi 21 mars 2002, Loïc Le Guyader écrit : > > Et avec -m au lieu de -r -p? > > -p et -A est contradictoire il me semble. > c'est pas mieux. > > et d'ailleurs, avec httrack il me récupère toujours tous les xx.html > avec les options -D -%l "fr, en", donc ça ne résoud pas le problème, j'ai > bien lu le manuel rapidement (peut-être trop), mais je n'arrive pas à > lui faire télécharger uniquement le français, ou l'anglais si ce n'est > pas traduit. C'est possible avec Wwwoffle, dans la section DontGet de la configuration, et aussi peut-être CensorHeader ? -- Jacques L'helgoualc'h
Re: wget .fr.html
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour taper sur son écran: > Le jeudi 21 mars 2002, Loïc Le Guyader écrit : > > Et avec -m au lieu de -r -p? > > -p et -A est contradictoire il me semble. > c'est pas mieux. Effectivement. Mais là je crois que tous les outils pour faire un mirroir vont faire la même erreur. Car quoi qu'il arrive, ils récupèrent tous les fichiers html pour suivre les liens, et donc y comprit les xx.html. Il te reste plus qu'a modifier les sources de wget (ou autres). -- Pixar's "Toy Story": > $180M domestic box office. Oscar for Special Achievement. Three Oscar nominations.
Re: wget .fr.html
Le jeudi 21 mars 2002, Loïc Le Guyader écrit : > Et avec -m au lieu de -r -p? > -p et -A est contradictoire il me semble. c'est pas mieux. et d'ailleurs, avec httrack il me récupère toujours tous les xx.html avec les options -D -%l "fr, en", donc ça ne résoud pas le problème, j'ai bien lu le manuel rapidement (peut-être trop), mais je n'arrive pas à lui faire télécharger uniquement le français, ou l'anglais si ce n'est pas traduit. Nicolas B. --
RE: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]
> QUEL outil conseilleriez-vous pour cela ? Après une étude sur la question d'une ou deux journées, définitivement HTTRACK! C'est ce qui marche le mieux à ma connaissance pour la transformation d'URL absolues en URL locales.
Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]
apt-get install fmirror -- MadCoder (53 53) "Pour réussir un examen, un étudiant doit lutter contre toutes les forces centrifuges qui peuvent le distraire de son travail." - T. de Montbrial
Re: Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]
Laurent PETIT writes: > Bonjour, > > Je rebondis sur cette question pour l'élargir : > Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, > meme si effectivement il le permet. > > QUEL outil conseilleriez-vous pour cela ? > > (merci de ne pas repondre google.com) Plus simplement, il y a déjà eu des fils de discussion là dessus, as-tu cherché ? pour ma part, je te dirais rsync+ssh. http://lists.debian.org/search.html -- Davy Gigan System & Network Administration [Please no HTML, I'm not a browser] University Of Caen (France) [Pas d'HTML, je ne suis pas un navigateur]
Conseil sur logiciel pour faire du mirroring [Was: Re: wget .fr.html]
Bonjour, Je rebondis sur cette question pour l'élargir : Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring, meme si effectivement il le permet. QUEL outil conseilleriez-vous pour cela ? (merci de ne pas repondre google.com, ce que je cherche c'est les retours d'experience de vrais p'tits abonnés à cette ML, de ceux qui font du mirroring actuellement ou ont une experience plus que livresque sur le sujet ;-) Merci d'avance, Laurent.
Re: wget .fr.html
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour taper sur son écran: > Bonjour, > > Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour > pouvoir lire tranquillement sur mon portable. J'ai regardé la page de > manuel de wget et il me semble que l'option -A est ce que je cherche, > malheureusement, lorque je lance : > wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html Et avec -m au lieu de -r -p? -p et -A est contradictoire il me semble. -- The "Toy Story Animated Storybook" CD was the best selling software product during the month of May, outselling the Windows '95 upgrade, Quicken, etc.
Re: wget .fr.html
> Bonjour, > > Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour > pouvoir lire tranquillement sur mon portable. J'ai regardé la page de > manuel de wget et il me semble que l'option -A est ce que je cherche, > malheureusement, lorque je lance : > wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html > > il télécharge tout un tas de fichiers xx.html qu'il efface ensuite, > quelqu'un aurait-ilune solution ? > > il me semble que httrack te serai plus utile, il fait un mirroir qui se browse off-line, et est pourrit d'options sympas. -- Bernard Brandl [EMAIL PROTECTED] ICQ:111842968 06.63.27.10.97
wget .fr.html
Bonjour, Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour pouvoir lire tranquillement sur mon portable. J'ai regardé la page de manuel de wget et il me semble que l'option -A est ce que je cherche, malheureusement, lorque je lance : wget -c -N -r -p -A.fr.html http://www.fr.debian.org/devel/index.fr.html il télécharge tout un tas de fichiers xx.html qu'il efface ensuite, quelqu'un aurait-ilune solution ? Nicolas B. --