bonjour,
je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386.
Dans ce répertoiree il y en exite deux qui sont de liens symbolique.
A chaque fois que j'utilise wget avec la commande suivante :
wget -r --passive-ftp -nH -x -np -X *current -R *htm*
http://ftp.fr.debian.org
Am 2004-10-27 18:34:08, schrieb LEBRETON Philippe:
bonjour,
je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386.
Dans ce répertoiree il y en exite deux qui sont de liens symbolique.
A chaque fois que j'utilise wget avec la commande suivante :
wget -r --passive-ftp -nH
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur wget
en français et j'ai du mal à trouver ceci sur le net, peut-être que je cherche
mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas trés compris
les fonctions récursives, et d'autres dailleurs:
merci
* momo [EMAIL PROTECTED] [2004-08-26 15:41] :
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur
wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je
cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas
trés compris les
Le 26/08/04 à 15:41, momo écrivait:
bonjour, ayant quelques problémes avec l'anglais, je recherche une doc sur
wget en français et j'ai du mal à trouver ceci sur le net, peut-être que je
cherche mal ? si vous avez une adresse, je serai trés intéressé, j'ai pas
trés compris les fonctions
[...]
wget --user-agent=Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12
http://www.hebus.com/cat/info/linux/linux_001.jpg
En fait, il s'avère que cela marche !
J'ai supprimé le .wgetrc que j'avais où j'avais déjà un user agent... il
devait y avoir un conflit où je ne sais pas
Bonjour,
J'ai quelque problème avec l'utilisation de wget
Quand je fais par exemple un
wget http://www.hebus.com/cat/info/linux/linux_001.jpg;
Je me fait jeter avec une erreur 403 (accès interdit)
Même chose quand je modifie le user-agent et que je met celui de mon
mozilla par exemple.
Je ne
Salut,
c'est étrange car chez moi ça fonctionne avec le user-agent de Lynx...
exemple :
wget --user-agent=Lynx/2.8.4rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/0.8.12
http://www.hebus.com/cat/info/linux/linux_001.jpg
si ça t'intéresse, j'avais fais un script pour un copain qui permettait de
Bonsoir !
Question au sujet de wget :
Existe t-il une option ou un moyen pour que wget ne capture
que les pages mises à jour sur un site que l'on a déjà chargé
précédemment ?? Au lieu de recommencer toute la capture du site ...
Je n'ai rien trouvé de valable, ai-je mal regardé
Le Dimanche 2 Novembre 2003 17:11, claude.parisot a écrit :
Bonsoir !
Question au sujet de wget :
Existe t-il une option ou un moyen pour que wget ne capture
que les pages mises à jour sur un site que l'on a déjà chargé
précédemment ?? Au lieu de recommencer toute la capture du
Le Sun 2/11/2003, claude.parisot disait
Bonsoir !
Question au sujet de wget :
Existe t-il une option ou un moyen pour que wget ne capture
que les pages mises à jour sur un site que l'on a déjà chargé
précédemment ?? Au lieu de recommencer toute la capture du site
Hello,
J'utilise wget ds un script, tel que :
wget -c --waitretry=15 --tries=inf $URLM || exit 1
avec la variable URLM qui varie. Mais mon problème est
que lorsque je reviens de WE, je trouve souvent le
script arrêté avec un gateway timeout. Pourtant il me
semblais que le --tries=inf spécifiait
Bonjour !
Je viens de découvrir wget, bien utile pour rapatrier des sites à
consulter hors-connexion...
J'ai rapatrié un site avec la commande
# wget -c -r -15 -P/opt/webs/www.tartempion.org
ça va plutôt vite, très bien, en parcourant le site hors connexion
je retrouve pratiquement
Le mercredi 26 mars 2003 à 10:11, Claude Parisot écrivait :
Bonjour !
Bonjour,
Comment faire pour relancer la capture et récupérer le reste dus site ??
Peut-être que les .zip ne sont pas entreposés sur le même serveur que
les pages du site. Par défaut, même avec l'option -r wget ne sort
Bonjour,
Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
manuel de wget et il me semble que l'option -A est ce que je cherche,
malheureusement, lorque je lance :
wget -c -N -r -p -A.fr.html http
Bonjour,
Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
manuel de wget et il me semble que l'option -A est ce que je cherche,
malheureusement, lorque je lance :
wget -c -N -r -p -A.fr.html http
Le 21 mars 2002, Nicolas Bertolissio, à bout, prit son clavier pour
taper sur son écran:
Bonjour,
Je souhaite faire un miroir de www.fr.debian.org/devel chez moi pour
pouvoir lire tranquillement sur mon portable. J'ai regardé la page de
manuel de wget et il me semble que l'option -A est ce
Bonjour,
Je rebondis sur cette question pour l'élargir :
Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring,
meme si effectivement il le permet.
QUEL outil conseilleriez-vous pour cela ?
(merci de ne pas repondre google.com, ce que je cherche c'est les retours
Laurent PETIT writes:
Bonjour,
Je rebondis sur cette question pour l'élargir :
Je ne suis pas sûr que wget soit le meilleur outil pour faire du mirroring,
meme si effectivement il le permet.
QUEL outil conseilleriez-vous pour cela ?
(merci de ne pas repondre google.com)
Plus
apt-get install fmirror
--
MadCoder (53 53)
Pour réussir un examen, un étudiant doit lutter contre toutes les forces
centrifuges qui peuvent le distraire de son travail.
- T. de Montbrial
QUEL outil conseilleriez-vous pour cela ?
Après une étude sur la question d'une ou deux journées, définitivement
HTTRACK!
C'est ce qui marche le mieux à ma connaissance pour la transformation d'URL
absolues en URL locales.
Le jeudi 21 mars 2002, Loïc Le Guyader écrit :
Et avec -m au lieu de -r -p?
-p et -A est contradictoire il me semble.
c'est pas mieux.
et d'ailleurs, avec httrack il me récupère toujours tous les xx.html
avec les options -D -%l fr, en, donc ça ne résoud pas le problème, j'ai
bien lu le manuel
mirroir vont faire la même erreur. Car quoi qu'il arrive, ils récupèrent
tous les fichiers html pour suivre les liens, et donc y comprit les
xx.html.
Il te reste plus qu'a modifier les sources de wget (ou autres).
--
Pixar's Toy Story: $180M domestic box office.
Oscar for Special Achievement
Nicolas Bertolissio a écrit, jeudi 21 mars 2002, à 16:37 :
Le jeudi 21 mars 2002, Loïc Le Guyader écrit :
Et avec -m au lieu de -r -p?
-p et -A est contradictoire il me semble.
c'est pas mieux.
et d'ailleurs, avec httrack il me récupère toujours tous les xx.html
avec les options -D -%l
101 - 124 sur 124 matches
Mail list logo