> Eu já tentei algo parecido, só que fiz um roteiro um pouco diferente:
> $ wget http://..../index.html?print=1
> $ vi index.html (não utilizei sed) mantive só os link e acrescentei a
> os ?print=1
> $ wget -i arquivo_com_listagem_dos_links
>
> O problema é que muitos arquivos não estão listados em index.html, são
> listados em arquivos referenciados por index.html e se eu baixar
> recursivamente, estarei fazendo exatamente o que não quero, baixar todos
os
> arquivos sem a opção ?print=1 no final.
>
> Mas, muito obrigado pela sua ajuda e atenção.

calma que eu nao desisti ainda.

eu não sugeri que você baixasse resursivamente. tanto que falei para você
pôr a opção -l=1 . Agora realmente, a solução que eu te dei não vai
funcionar
se houverem arquivos não referenciados no index.html

se voce tiver um servidor http na sua maquina (apache, por exemplo), voce
pode
mandar o wget salvar em ~/public_html e depois acessar pelo seu navegador
usando o link http:/localhost/~biande/www.smarty.php.net/

e pode usar o wget com a opção --spider para verificar os links faltando.
note que o wget vai buscar em localhost e não na máquina remota
www.smarty.php.net . continua sendo uma opção meio artesenal.

que tal mandar um e-mail para o webmaster e pedir as paradas?



Responder a