Pierre Crescenzo a écrit : > Bonjour, Bonjour,
[...] > J'aimerais donc faire un script qui mette automatiquement dans un > répertoire une copie HTML de l'ensemble des pages accédées pour que je > puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL, > une seule page m'intéresse, pas tout un site.) > > Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire > un script Shell, ce sont les outils d'accès en ligne de commande à une > page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que > je ne connais pas.) Merci. Ça m'a tout l'air d'un boulot pour wget... wget <url> sauvegarde le fichier pointé par url sur le disque dur. Seb -- Lisez la FAQ de la liste avant de poser une question : http://wiki.debian.net/?DebianFrench Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et "Reply-To:" To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]

