d group "root". This could be dangerous.
> Capturing on 'eno1'
> 1 0.0 192.168.1.24→ 10.90.90.90 ICMP 98 Echo (ping)
> request id=0x15e9, seq=1/256, ttl=64
>
> Ceci me laisse penser que l'option -I est ignorée puisque le serveur
> semble émettre avec son
ai:
>>
>> # tshark -f 'ip host 10.90.90.90' -i eno1
>> Running as user "root" and group "root". This could be dangerous.
>> Capturing on 'eno1'
>> 1 0.0 192.168.1.24→ 10.90.90.90 ICMP 98 Echo (ping)
>> request id=0x15e9, seq=1
roup "root". This could be dangerous.
Capturing on 'eno1'
1 0.0 192.168.1.24→ 10.90.90.90 ICMP 98 Echo (ping)
request id=0x15e9, seq=1/256, ttl=64
Ceci me laisse penser que l'option -I est ignorée puisque le serveur
semble émettre avec son adresse par défaut 192.168.1.24.
En utilisa
Bonjour,
(rappel: je suis une véritable bille en réseaux)
C'est peut-être moi qui ne comprends pas grand chose, mais la page man
de ping me ferait tendre à supposer que l'option -I que tu utilises
spécifie de démarrer avec l'adresse spécifiée mais n'interdit pas
qu'elle soit changée par la
défaut 192.168.1.24.
En utilisant une commande wget --bind-address 10.90.90.91
http://10.90.90.90, tshark indique une IP source en 192.168.1.24 et
non en 10.90.90.91, comme demandé.
En attribuant une autre adresse du réseau 10.0.0.0/8 au switch
Mikrotik, le ping de celui-ci vers 10.90.90.90 réussit
Bonsoir,
Si le but est de jouer avec wget j'ai peur que ce soit un peu chiant.
Si le but est d'avoir une copie d'un site, ou juste une partie (ce que
j'ai compris) je conseille https://www.httrack.com
C'est le package webhttrack.
Un script avec rsync est aussi possible si tu as accès au système
Le dimanche 24 mai 2020 à 20:21 +0200, Belaïd a écrit :
> Bonjour,
>
> Pour ta première question, je pense que la phrase ci-dessous extraite
> de man page de wget pourrait faire l'affaire:
>
> -N: indépendamment de -r, la décision de télécharger la nouvelle
> version du fic
Bonjour,
Pour ta première question, je pense que la phrase ci-dessous extraite de
man page de wget pourrait faire l'affaire:
-N: indépendamment de -r, la décision de télécharger la nouvelle version du
fichier dépend des dates du fichier local et distant et de la taille du
fichier.
Le dim. 24
Bonsoir.
J'ai téléchargé avec "wget -np" le répertoire d'un site contenant beaucoup
de fichiers qui sont régulièrement mis à jour.
Je souhaite télécharger régulèrement ces fichiers pour obtenir lorsque je le
juge nécessaire les mises à jour.
Aussi comment faire avec "wget" p
et tout fonctionne.
>
> Mais tu restes tributaire de la formulation des messages wget, rien ne dit
> qu'ils soient les mêmes après une montée de version (et le script dépend
> aussi de la locale utilisée, faudrait la forcer à fr_FR.UTF-8 dans l'appel
> de wget).
>
> Laisser
son, merci d'avoir précisé.
> J'ai testé et tout fonctionne.
Mais tu restes tributaire de la formulation des messages wget, rien ne dit
qu'ils soient les mêmes après une montée de version (et le script dépend
aussi de la locale utilisée, faudrait la forcer à fr_FR.UTF-8 dans l'appel
de wget).
L
a écrit :
> Le 18/07/19 à 15h11, David BERCOT a écrit :
>> Je vous fais juste un petit retour rapide...
>> J'ai donc suivi le conseil de Daniel et ça fonctionne.
>>
>> En gros :
>> wget -o code_retour_slimjet --show-progress -N
>> "https://www.slimje
Le 18/07/19 à 15h11, David BERCOT a écrit :
> Je vous fais juste un petit retour rapide...
> J'ai donc suivi le conseil de Daniel et ça fonctionne.
>
> En gros :
> wget -o code_retour_slimjet --show-progress -N
> "https://www.slimjet.com/download.php?location=local==lnx6
Bonjour,
Je vous fais juste un petit retour rapide...
J'ai donc suivi le conseil de Daniel et ça fonctionne.
En gros :
wget -o code_retour_slimjet --show-progress -N
"https://www.slimjet.com/download.php?location=local==lnx64=deb==;
if [[ $(grep "Téléchargement sauté" code
Le 15/07/19 à 14:28, Daniel Caillibaud a écrit :
> Le 15/07/19 à 13:21, David BERCOT a écrit :
> > Prenons le cas de Slimjet (qui n'existe pas, sauf erreur de ma part, dans
> > un "vrai"
> > repository) : wget -O slimjet_amd64.deb
> > "https://www.slim
Le 15/07/19 à 13:21, David BERCOT a écrit :
> Prenons le cas de Slimjet (qui n'existe pas, sauf erreur de ma part, dans un
> "vrai"
> repository) : wget -O slimjet_amd64.deb
> "https://www.slimjet.com/download.php?location=local==lnx64=deb==;
> J'aimerais éviter
Le 15/07/2019 à 13:21, David BERCOT a écrit :
Je pense que ma demande n'était pas complète ;-)
Ce sera sûrement plus clair avec un exemple...
Prenons le cas de Slimjet (qui n'existe pas, sauf erreur de ma part, dans un
"vrai" repository) :
wget -O slimjet_amd64.deb
"https://
Je pense que ma demande n'était pas complète ;-)
Ce sera sûrement plus clair avec un exemple...
Prenons le cas de Slimjet (qui n'existe pas, sauf erreur de ma part, dans un
"vrai" repository) :
wget -O slimjet_amd64.deb
"https://www.slimjet.com/download.php?location=l
- Mail original -
> De: "David BERCOT"
> À: debian-user-french@lists.debian.org
> Envoyé: Lundi 15 Juillet 2019 10:46:48
> Objet: Wget seulement si changement...
> Bonjour,
> Dans une procédure automatique, je souhaiterais télécharger un
> nouve
Bonjour,
Dans une procédure automatique, je souhaiterais télécharger un
nouveau paquet (via wget ou assimilé) seulement s'il a changé
depuis la version précédente.
Je suppose que cette comparaison peut se faire sur la taille du
fichier, sa date, etc
On Sun, Apr 17, 2016 at 12:26:10PM +0200, mireero wrote:
On 04/16/2016 04:40 PM, mahashakti89 wrote:
On Sat, Apr 16, 2016 at 02:27:56PM +0200, Belaïd wrote:
Bonjour,
Je suis sur une version 1.16-1 de wget, et l'option -c fonctionne très
bien.
Quelle est ta version ?
Bonjour,
Je suis en Sid
On 04/16/2016 04:40 PM, mahashakti89 wrote:
On Sat, Apr 16, 2016 at 02:27:56PM +0200, Belaïd wrote:
Bonjour,
Je suis sur une version 1.16-1 de wget, et l'option -c fonctionne très
bien.
Quelle est ta version ?
Bonjour,
Je suis en Sid , version 1.17.1-1+b1. Histoire de voir j'ai essayé sur
On Sat, Apr 16, 2016 at 02:27:56PM +0200, Belaïd wrote:
Bonjour,
Je suis sur une version 1.16-1 de wget, et l'option -c fonctionne très bien.
Quelle est ta version ?
Bonjour,
Je suis en Sid , version 1.17.1-1+b1. Histoire de voir j'ai essayé sur
une Ubuntu - sensiblement la même version de
Bonjour,
Je suis sur une version 1.16-1 de wget, et l'option -c fonctionne très bien.
Quelle est ta version ?
Le 16 avril 2016 à 10:04, <mahashakt...@orange.fr> a écrit :
> Bonjour,
>
> Auparavant on pouvait passer l'option -c à wget pour continuer un
> téléchargement interromp
Bonjour,
Auparavant on pouvait passer l'option -c à wget pour continuer un
téléchargement interrompu. Avec la version actuelle cela ne marche plus on
obtient la réponse : file not modified on server. Omitting download. Est-ce un
bogue ou une option à rajouter?
Cordialement
Envoyé depuis
Bonjour,
Lors de la mise à jour hebdomadaire de Calibre, par:
wget -nv -O- https://
j'obtiens l'erreur suivante:
GnuTLS: A TLS warning alert has been received.
Incapable d'établir une connexion SSL.
Download failed
Mon wget est celui de wheezy.
J'ai résolu le problème en changeant le wget
Le dimanche 23 mars 2014 11:41:30 Didier Durand a écrit :
Bonjour,
’jour,
Lors de la mise à jour hebdomadaire de Calibre, par:
wget -nv -O- https://
Questions au passage :
— le paquet n’est pas suffisamment à jour ?
— hebdomadaire ? Calibre a tant de màj de sécurité que ça qu’il
sa mise à jour en général
le vendredi dans la journée, mais ce n'est pas fait par apt-get update
puis upgrade. C'est le logiciel qui montre qu'il existe une màj que l'on
peut faire ou pas par wget et une install python, mais ce n'est pas de
la sécurité, ce sont de nouvelles fonctionnalités, enfin
pas par
wget et une install python, mais ce n'est pas de la sécurité,
ce sont de nouvelles fonctionnalités, enfin, c'est presque
rituel.
Mouaif… jamais trop eu confiance dans les mises à jour
automatique (surtout non signées) des logiciels. Surtout pour
des « fonctionnalités » qui ne me
Bonjour,
Le lundi 20 mai 2013 à 12:32, andre_deb...@numericable.fr a écrit :
wget (ou outils équivalents) aspire les fichiers html et uniquement
les scripts html, javascript ... càd que les scripts exécutés dans le
navigateur.
Ce serait très ennuyeux si il capte les scripts php car
Le lundi 20 mai 2013 à 12:32, andre_deb...@numericable.fr a écrit :
wget (ou outils équivalents) aspire les fichiers html et uniquement
les scripts html, javascript ... càd que les scripts exécutés dans le
navigateur.
Ce serait très ennuyeux si il capte les scripts php car certains
On Tue, 21 May 2013 17:46:24 +0200
andre_deb...@numericable.fr wrote:
Peut-on enregistrer avec wget ou un outil équivalent,
un fichier .PHP d'un sit Web contenant les codes d'accès
à une base de données ?
Faudrait voir à changer tes lunettes, Sébastien _vient_ de
répondre à cette question
Le mardi 21 mai 2013 à 17:46, andre_deb...@numericable.fr a écrit :
On Tuesday 21 May 2013 13:39:05 Sébastien NOBILI wrote:
est renvoyé. Si le serveur est mal configuré et qu'il renvoie le script
PHP, wget enregistrera le script PHP.
Peut-on enregistrer avec wget ou un outil équivalent
andre_deb...@numericable.fr wrote:
Peut-on enregistrer avec wget ou un outil équivalent,
un fichier .PHP d'un sit Web contenant les codes d'accès
à une base de données ?
On Tuesday 21 May 2013 17:53:52 Bzzz wrote:
Faudrait voir à changer tes lunettes, Sébastien _vient_ de
répondre à
On Tue, 21 May 2013 20:39:15 +0200
andre_deb...@numericable.fr wrote:
C'est pas un problème de binocles.
La réponse n'est pas complètement claire.
Si le serveur est mal configuré : c'est donc possible !
Vi, mais celui qui s'amuserait à mettre en ligne un svr non
sécurisé ne tiendrait pas
: les fichiers .PHP sont téléchargés mais ses scripts PHP
sont vides.
C’est parce qu’ils sont considérés comme des scripts mais que
le serveur ne peut pas les interpréter et donc leur résultat est
vide.
wget ne télécharge que les scripts exécutés dans le
navigateur (HTML, JS, etc ...) donc
On Sunday 19 May 2013 23:41:57 Adrien Poupin wrote:
Le 19/05/2013 06:50, Belaïd MOUNSI a écrit :
Bonjour,
Logiquement le client ne récupère que le résultat du code exécuté par
le serveur (php, perl, shell etc...)
J'espère que wget ne peut pas copier les scripts PHP
des fichiers d'un
Le 19/05/2013 06:50, Belaïd MOUNSI a écrit :
Bonjour,
Logiquement le client ne récupère que le résultat du code exécuté par
le serveur (php, perl, shell etc...)
Bonsoir,
J'espère que wget ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés
Bonsoir,
J'espère que wget ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés dans le navigateur
et pas ceux excutés dans le serveur).
André
--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists
Pour
Bonjour,
Logiquement le client ne récupère que le résultat du code exécuté par le
serveur (php, perl, shell etc...)
Bonsoir,
J'espère que wget ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés dans le navigateur
et pas ceux excutés dans le
On Mon, Jan 28, 2013 at 11:04:34PM +0100,
Luxpopuli Open source luxpopul...@gmail.com wrote
a message of 69 lines which said:
J'utilise wget mais il m'est impossible de faire fonctionner
correctement li site en local: en effet, avec un CMS, un répertoire
est également une page web affichant
On Tue, Jan 29, 2013 at 04:10:25PM +0100,
Bernard Schoenacker bernard.schoenac...@free.fr wrote
a message of 51 lines which said:
pourquoi vouloir s'escrimer avec wget alors que curl le fait
si bien
Euh ? curl ne sait pas faire de requêtes récursives, ne sait pas
modifier les
Salut,
J'utilise aussi un CMS (SPIP, si tu veux tout savoir) pour
quelques sites dont par exemple : http://www.grognon.net
mais je ne procède pas comme toi.
J'installe en local (LAMP) et chez mon hébergeur deux SPIP de même
version complets.
Je
Le Mon, 28 Jan 2013 23:04:34 +0100,
Luxpopuli Open source luxpopul...@gmail.com a écrit :
Bonjour,
J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
fonctionnelle en local.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement le site en local: en effet
...@gmail.com a écrit :
Bonjour,
J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
fonctionnelle en local.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement le site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du
l'impression qu'avec wget il n'y a
aucune solution, mais bon, sait-on jamais...
Il y a des alternatives peut-être plus adaptées à ton besoin, comme
httrack par exemple.
Amicalement
David
signature.asc
Description: OpenPGP digital signature
Bonjour,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que sa
liaison dsl est trop instable (512 k et déconnections
intempestives) ...
Je recherche les options pour wget afin d'éviter de
Le 16/07/2011 08:24, en cette année 2010 *Bernard Schoenacker* a écrit
fort justement :
Bonjour,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que sa
liaison dsl est trop instable (512 k et déconnections
Bonjour,
On Sat, Jul 16, 2011 at 08:24:54AM +0200, Bernard Schoenacker wrote:
Bonjour,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que sa
liaison dsl est trop instable (512 k et déconnections
Le 16/07/2011 08:24, Bernard Schoenacker a écrit :
Bonjour,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que sa
liaison dsl est trop instable (512 k et déconnections
intempestives) ...
Je
Le Sat, 16 Jul 2011 12:31:07 +0200,
Gilles Mocellin gilles.mocel...@free.fr a écrit :
Le 16/07/2011 08:24, Bernard Schoenacker a écrit :
Bonjour,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que
sa liaison dsl est
Bonsoir,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que
sa liaison dsl est trop instable (512 k et déconnections
intempestives) ...
jigdo fonctionne bien aussi, je crois que c'est d'ailleurs la méthode
Le Sat, 16 Jul 2011 21:02:21 +0200,
kaliderus kalide...@gmail.com a écrit :
Bonsoir,
J'ai une personne de mon entourage qui n'arrive pas à
télécharger proprement une image iso avec wget du fait que
sa liaison dsl est trop instable (512 k et déconnections
login 'user' et le mot de passe 'passwd'
si pas de proxy ftp la commande suivante
wget ftp://user:pas...@server/fichier fonctionne correctement
si activation du proxy ftp :
dans iceweasel l'url ftp://u...@server:pas...@ftp-proxy:2121 fonctionne
correctement
en ligne de commande :
export ftp_proxy
yop,
Comme indiqué ci-dessus (merci à Fanfan et Julien), je télécharge toutes
mes pages gzipée avec wget. Ensuite, j'utilise gunzip pour leur rendre
leur clarté originelle. (oui, gunzip lave plus blanc;) )
Sinon, j'attends avec impatience des nouvelles de la mailing list de
wget. A mon avis
module apache mod_gzip ou deflate).
Coté client, j'ai wget 1.11.4, qui récupère ces pages avec quelque chose
du genre:
wget -S --header='Accept-Encoding: gzip,deflate' mon_url
Le résultat de wget est bien sous format gzip.
Mais, le hic, c'est lorsque je veux utiliser firefox pour ouvrir cette
Le mardi 19 mai 2009 à 09:49 +0200, fabrice régnier a écrit :
wget -S --header='Accept-Encoding: gzip,deflate' mon_url
Le résultat de wget est bien sous format gzip.
wget ne gère pas lui-même la décompression, il télécharge le fichier
comme il arrive... il faut le décompresser avec la
Le Tuesday 19 May 2009 à 09:49:49 (+0200), fabrice régnier a écrit :
Coté client, j'ai wget 1.11.4, qui récupère ces pages avec quelque chose
du genre:
wget -S --header='Accept-Encoding: gzip,deflate' mon_url
Salut Fabrice,
Il y a peut-être plus propre, mais tu peux essayer d'ajouter -O
bonjour a tous ,
Je suis a la recherche d'une solution simple pour bloquer l'acces d'un site
web (apache) à wget
pensez vous qu'il soit possible de le faire dans la configuration d'un
virtualhost
avec quelques chose comme ça :
SetEnvIf User-Agent .*Wget.* ...
--
- GanGan -
www.system
Le Tue, May 19, 2009 at 10:54:29AM +0200, GanGan a écrit :
Je suis a la recherche d'une solution simple pour bloquer l'acces d'un site
web (apache) à wget pensez vous qu'il soit possible de le faire dans la
configuration d'un virtualhost avec quelques chose comme ça : SetEnvIf
User-Agent
dans mon cas ça sera efficace car c'est des appliances qui abusent de wget
et awstats reconnait bien wget qui est le deuxieme navigateur (en %) a
visiter le site apres firefox mais devant ie :p
On Tue, 19 May 2009 18:38:16 +0900, Charles Plessy ple...@debian.org
wrote:
Le Tue, May 19, 2009
On Tue, May 19, 2009 at 11:52:36AM +0200, GanGan wrote:
dans mon cas ça sera efficace car c'est des appliances qui abusent de wget
et awstats reconnait bien wget qui est le deuxieme navigateur (en %) a
visiter le site apres firefox mais devant ie :p
À ce moment là, le plus simple est sans
:
Le Tuesday 19 May 2009 à 11:52:36 (+0200), GanGan a écrit :
dans mon cas ça sera efficace car c'est des appliances qui abusent de
wget
et awstats reconnait bien wget qui est le deuxieme navigateur (en %) a
visiter le site apres firefox mais devant ie :p
Salut,
Quel type d'appliance
les as identifiés, à ta place, je me prendrais pas la tête et je
ne risquerais pas de pénaliser des utilisateurs légitimes de wget. Je
pense que je blacklisterais les IP directement dans netfilter, la table
de routage ou les tcpwrappers (j'essaye de garder ces considérations de
filtrage de bas niveau
GanGan a écrit :
dans mon cas ça sera efficace car c'est des appliances qui abusent de wget
et awstats reconnait bien wget qui est le deuxieme navigateur (en %) a
visiter le site apres firefox mais devant ie :p
RewriteCond %{HTTP_USER_AGENT} ^Wget
RewriteRule ^.*$ - [F]
mais:
- problème 1
bonjour,
j'ai un soucis de compréhension, le problème doit être évident, mais j'arrive
pas à le voir :
$ wget -nc http://monserver.com/274.swf; -O /home/user/274.swf
Fichier « 274.swf » est déjà là; pas de récupération.
[EMAIL PROTECTED]:~$ rm /home/user/274.swf
[EMAIL PROTECTED]:~$ rm /home
probablement une question de droit
fais tu cette opération sous root
André
Le Wednesday 10 October 2007 12:07:04 BULOT Grégory, vous avez écrit :
bonjour,
j'ai un soucis de compréhension, le problème doit être évident, mais
j'arrive pas à le voir :
$ wget -nc http://monserver.com/274.swf
/user/LeRepertoireDeTravail/,
par contre aucun soucis si je me place ailleurs !!
j'ai ~200 fichiers qui fonctionnent, sauf celui là, je vais pas modifier tous
mes scripts juste pour celui-là !
wget ne gère-t-il pas une blackliste de fichier par hasard (pas vu dans le
man)
lance un wget :
wget -nc http://monserver.com/274.swf; -O /home/user/FichierTempRecu/274.swf
suite à un plantage le mois dernier, j'avais récupérer 'a la main
dans /home/user/LeRepertoireDeTravail :
wget -nc http://monserver.com/274.swf;
puis j'avais copié ce fichier dans FichierTempRecu
Bulot Grégory, mercredi 10 octobre 2007, 14:47:21 CEST
Le mercredi 10 octobre 2007 12:41, on4hu a écrit :
probablement une question de droit
fais tu cette opération sous root
André
ça marche en root, sauf si je suis dans le
répertoire /home/user/LeRepertoireDeTravail/ (même erreur
!!
est-ce reproductible chez vous, dans ce cas ptet un bug a remonter, non ?
On dirait (je suis sous Sid) :
[EMAIL PROTECTED]:/tmp$ mkdir wget
[EMAIL PROTECTED]:/tmp$ wget -nc www.debian.org
- --09:44:25-- http://www.debian.org/
= `index.html'
Résolution de www.debian.org
Bulot Grégory, mercredi 10 octobre 2007, 15:53:29 CEST
[…]
Et une comparaison des droits/options de montages/… des
répertoires où cela fonctionne et des autres, ça pourrait
être intéressant, non ? Surtout pour nous : ça nous
éviterait de jouer aux devinettes.
Je pense que ma
Le mercredi 10 octobre 2007 15:29, Sylvain Sauvage a écrit :
Bulot Grégory, mercredi 10 octobre 2007, 14:47:21 CEST
Le mercredi 10 octobre 2007 12:41, on4hu a écrit :
probablement une question de droit
fais tu cette opération sous root
André
ça marche en root, sauf si je suis dans
Le mercredi 10 octobre 2007 16:08, Sylvain Sauvage a écrit :
Bulot Grégory, mercredi 10 octobre 2007, 15:53:29 CEST
Ce que je voulais dire c’est qu’à part « ça marche pas », on
n’avait pas trop d’info. Puisque ça fonctionnait d’un rép. et
pas d’un autre, le premier réflexe doit être de
Reply-To:
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of unsubscribe. Trouble? Contact
[EMAIL PROTECTED]
Bonjour,
Moi j'utilise regulierement le wget pour recup des fichier derrierre un
htaccess, et je confirme la commande est:
wget --http-user=moi --http-passwd=abcd http://domaine.com
On Sat, Jun 09, 2007 at 10:24:24AM +0200, Le poulpe qui bloppe ! wrote:
Bonjour,
Moi j'utilise regulierement le wget pour recup des fichier derrierre un
htaccess, et je confirme la commande est:
wget --http-user=moi --http-passwd=abcd http://domaine.com/fichier.txt
Je viens de tester ca
Le 13673ième jour après Epoch,
Le poulpe qui bloppe ! écrivait:
aptitude show wget
Paquet : wget
État: installé
Automatiquement installé: non
Version : 1.10.2-2
(Désolé, je ne sais pas donner autrement que par aptitude une
version...)
Tu peux faire aussi dpkg -l wget
François TOURDE a écrit, samedi 9 juin 2007, à 15:06 :
Le 13673ième jour après Epoch,
Le poulpe qui bloppe ! écrivait:
aptitude show wget
[...]
Version : 1.10.2-2
(Désolé, je ne sais pas donner autrement que par aptitude une
version...)
Tu peux faire aussi dpkg -l wget
Plus concis
Cédric LE BRIS wrote:
oui déjà testé!, malheureusement, ça ne fonctionne pas...
Une autre idée?
ça marche pour tout le monde. si ça ne marche pas pour toi, c'est que
t'as vraiment pas de chance, et là, personne ici ne pourra t'aider ;-p
la page en question ne serait pas plutot un
helo la liste,
Quelqu'un connaîtrait-il un moyen d'utiliser la commande wget sur un site
necessitant une authentif par htaccess ?
Le but étant de récupérer des fichiers via wget en passant les login/passwd du
htaccess en paramètres...
Merci
Cédric LE BRIS a écrit :
helo la liste,
Quelqu'un connaîtrait-il un moyen d'utiliser la commande wget sur un site
necessitant une authentif par htaccess ?
Le but étant de récupérer des fichiers via wget en passant les login/passwd
du htaccess en paramètres...
Merci
Salut,
Une
Après une visite à mon ami man, je dirais :
wget --user=user --password=password http://www.microproute.com/blabla.zip
RTFM powa ;-)
Cédric LE BRIS a écrit :
helo la liste,
Quelqu'un connaîtrait-il un moyen d'utiliser la commande wget sur un site necessitant une authentif par htaccess ?
Le but étant de récupérer des fichiers via wget en passant les login/passwd du
htaccess en paramètres...
Merci
Extrait de la page
Cédric LE BRIS wrote:
helo la liste,
Quelqu'un connaîtrait-il un moyen d'utiliser la commande wget sur un site
necessitant une authentif par htaccess ? Le but étant de récupérer des
fichiers via wget en passant les login/passwd du htaccess en paramètres...
Merci
Intuitivement, je
Yannick P. wrote:
Après une visite à mon ami man, je dirais :
wget --user=user --password=password http://www.microproute.com/blabla.zip
RTFM powa ;-)
C'est clair... :-)
Mais chez moi, le processus 'flemme' a un 'nice' largement plus bas que le
processus 'rtfm'.
++, Didier
--
Lisez
On Thu, Jun 07, 2007 at 01:38:18PM +0200, Didier Raboud wrote:
RTFM powa ;-)
C'est clair... :-)
Mais chez moi, le processus 'flemme' a un 'nice' largement plus bas que le
processus 'rtfm'.
Fais gaffe quand même, avec ce genre de comportement ça
prendra pas longtemps pour que le 'nice' de
oui déjà testé!, malheureusement, ça ne fonctionne pas...
Une autre idée?
[~]-Message d'origine-
[~]De : Vincent Gay [mailto:[EMAIL PROTECTED]
[~]Envoyé : jeudi 7 juin 2007 13:20
[~]À : Cédric LE BRIS
[~]Objet : Re: Wget... htaccess
[~]
[~]Cédric LE BRIS a écrit :
[~] helo la liste
Yves Rutschle wrote:
On Thu, Jun 07, 2007 at 01:38:18PM +0200, Didier Raboud wrote:
RTFM powa ;-)
C'est clair... :-)
Mais chez moi, le processus 'flemme' a un 'nice' largement plus bas que
le processus 'rtfm'.
Fais gaffe quand même, avec ce genre de comportement ça
prendra pas
On Thu, Jun 07, 2007 at 02:40:37PM +0200,
Cédric LE BRIS [EMAIL PROTECTED] wrote
a message of 45 lines which said:
oui déjà testé!, malheureusement, ça ne fonctionne pas...
Ça ne fonctionne pas aide drôlement.
Quelle commande exacte ?
Quel message d'erreur exact ?
Car la solution donnée
BeZiLLa wrote:
Pour quelle raison cette commande :
wget
http://mirror.opensourcehub.com/pub/speedtouch/residentialCD/5.4.0.5/STRESv5405.iso
me renvoie sur = `STRESv5405.iso.1'
evidemment comme STRESv5405.iso.1 n'existe pas ca peut pas marcher !
si tu veux poursuivre un download
BeZiLLa a écrit :
Pour quelle raison cette commande :
wget
http://mirror.opensourcehub.com/pub/speedtouch/residentialCD/5.4.0.5/STRESv5405.iso
me renvoie sur = `STRESv5405.iso.1'
evidemment comme STRESv5405.iso.1 n'existe pas ca peut pas marcher !
En ce qui me concerne wget m'indique le
On 2006-01-14 11:13 +0100, BeZiLLa wrote:
Pour quelle raison cette commande :
wget
http://mirror.opensourcehub.com/pub/speedtouch/residentialCD/5.4.0.5/STRESv5405.iso
me renvoie sur = `STRESv5405.iso.1'
Le message = `STRESv5405.iso.1' qu'émet wget ne correspond pas
à une redirection
On 2006-01-14 11:33 +0100, BeZiLLa wrote:
*pascal* /[EMAIL PROTECTED]/ nous contait le Samedi 14 Janvier 2006
11:26 :
En ce qui me concerne wget m'indique le bon fichier (sans .1) mais je
n'ai pas le droit d'accéder à la ressource.
ok mais pour le probleme de permission , je
sur votre amabilité pour me rediriger
| si besoin.
C'est le bon endroit :)
|
| Je viens d'installer debian 3.1r0a et puis j'ai installé
| les programmes testing. Malgré tout, quand j'ai lancé
| wget il a répondu qu'il ne trouvait pas /usr/lib/libintl.so.2
| et s'est bloqué.
|
Faut controler ca car
viens d'installer debian 3.1r0a et puis j'ai installé
les programmes testing. Malgré tout, quand j'ai lancé
wget il a répondu qu'il ne trouvait pas /usr/lib/libintl.so.2
et s'est bloqué.
En fait j'ai trouvé cette librairie sous Mandrake 10.0
(c'est un lien symbolique sur /usr/lib/libintl.so) et l'ai
, quand j'ai lancé
wget il a répondu qu'il ne trouvait pas /usr/lib/libintl.so.2
et s'est bloqué.
Si tu as utilisé aptitude ou apt-get pour installer ce paquet wget,
c'est possible qu'il y ai actuellement un pb en testing avec wget,
c'est ce que semble dire http://bugs.debian.org/ concernant les
* nicolas dresse [EMAIL PROTECTED] [2004-12-08 11:54] :
bonjour à tous,
il m'est impossible de copier d'un réseau à l'autre un fichier de 2.8Go.
A chaque fois cp me dit que le fichier est trop gros.
Je suppose (j'espère) qu'il y a moyen de contourner ce problème
Apparemment, wget ne gère
bonjour tous,
il m'est impossible de copier d'un rseau l'autre un fichier de 2.8Go. A chaque fois cp me dit que le fichier est trop gros.
Je suppose (j'espre) qu'il y a moyen de contourner ce problme
merci d'avance
--
nicolas dresse [EMAIL PROTECTED]
signature.asc
Le Wed, Dec 08, 2004 at 11:54:58AM +0100, nicolas dresse ecrit :
bonjour à tous,
il m'est impossible de copier d'un réseau à l'autre un fichier de 2.8Go.
A chaque fois cp me dit que le fichier est trop gros.
Je suppose (j'espère) qu'il y a moyen de contourner ce problème
merci d'avance
bonjour,
je veux récupérer sur un mirroir Debian le seul répertoire main/disk-i386.
Dans ce répertoiree il existe deux répertoire qui sont de liens symbolique.
A chaque fois que j'utilise wget avec la commande suivante :
wget -r --passive-ftp -nH -x -np -X *current -R *htm*
http
1 - 100 sur 124 matches
Mail list logo