Pierre Crescenzo a écrit :
> Bonjour,

Bonjour,

[...]

> J'aimerais donc faire un script qui mette automatiquement dans un
> répertoire une copie HTML de l'ensemble des pages accédées pour que je
> puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL,
> une seule page m'intéresse, pas tout un site.)
> 
> Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire
> un script Shell, ce sont les outils d'accès en ligne de commande à une
> page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que
> je ne connais pas.) Merci.

Ça m'a tout l'air d'un boulot pour wget...
wget <url> sauvegarde le fichier pointé par url sur le disque dur.

Seb


-- 
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench   
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]

Répondre à