:19, Francisco M Neto escreveu:
Bom dia
Não sei pra quê alguém faria isso, mas
$ man wget
mostra que a opção -O é o que você está procurando.
Francisco
On Tue, 2019-04-23 at 19:28 +, Vitor Hugo wrote:
Como usar o wget para baixar um site e não salvar o conteudo dele no
hd?
es
Francisco
On Wed, 2019-04-24 at 13:42 +, Vitor Hugo wrote:
> Não deu certo com o -O
>
> Utilizo para testar sites que hospedamos.
>
> Em 24/04/2019 06:19, Francisco M Neto escreveu:
> > Bom dia
> >
> > Não sei pra quê alguém faria isso, mas
> >
&
Não deu certo com o -O
Utilizo para testar sites que hospedamos.
Em 24/04/2019 06:19, Francisco M Neto escreveu:
> Bom dia
>
> Não sei pra quê alguém faria isso, mas
>
> $ man wget
>
> mostra que a opção -O é o que você está procurando.
>
> Francisco
>
Bom dia
Não sei pra quê alguém faria isso, mas
$ man wget
mostra que a opção -O é o que você está procurando.
Francisco
On Tue, 2019-04-23 at 19:28 +, Vitor Hugo wrote:
> Como usar o wget para baixar um site e não salvar o conteudo dele no
> hd?
> estou usando
Como usar o wget para baixar um site e não salvar o conteudo dele no hd?
estou usando o comando abaixo e não esta dando certo.
wget --limit-rate=5k -qr www.site.com.br &> /dev/null
É indiferente como seu proxy está configurado.
Existem duas formas de voce usar o wget com proxy, uma delas é setando
as variaveis de ambiente http_proxy e ftp_proxy :
http_proxy="http://usuario:se...@ip.do.servidor.proxy:porta";
ftp_proxy="http://usuario:se...@ip.do.servidor.proxy
Olá,
Preciso autenticar num proxy que utiliza kerberos como esquema (e sem
suporte a basic authentication e NTLM) para ter acesso a endereços da
Internet. Há como configurar o wget e o aptitude para autenticar no
proxy de saída para internet utilizando esse esquema?
Atc,
Leonardo Andrade
Marcos Lazarini escreveu:
Em 02/03/07, sluiz<[EMAIL PROTECTED]> escreveu:
Estou baixando as isos do testing, só que quando testo com
o md5sum, algumas apresentam erro. Será que tem alguma
forma de utilizar o rsync para corrigir a falha? Baixar tudo
de novo, é dose!
Vc está baixando a iso de
Em 02/03/07, sluiz<[EMAIL PROTECTED]> escreveu:
Estou baixando as isos do testing, só que quando testo com
o md5sum, algumas apresentam erro. Será que tem alguma
forma de utilizar o rsync para corrigir a falha? Baixar tudo
de novo, é dose!
Vc está baixando a iso de DVD? Se for isso, por ser
Estou baixando as isos do testing, só que quando testo com
o md5sum, algumas apresentam erro. Será que tem alguma
forma de utilizar o rsync para corrigir a falha? Baixar tudo
de novo, é dose!
Abraços
--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Conta
Marcos na verdade isso depende da conexão. Falei sobre isso pois com
alguns teste no wget e no FDM para windows puxando os mesmos arquivos
dos mesmos locais, deu uma diferença incrivel!!! Isso porque o linux
estava direto no link e o windows uma estação.
Mas fizx os testes e deu certo sim.
Valew
Cássio Rosas - KMS wrote:
Ola a todos,
Alguem sabe se o wget consegue fazer mais de uma conexao por arquivo
baixado!? Procurei na documentação e nas man pages e não identifquei
nada do tipo.
Seria como os demais gerenciadores de download que alem de controlar o
downaload e deixar a
Ok entao eu achei mesmo que nao fazia, mas na duvida...
Valew,
Abraços,
Cássio Rosas,
Bruno de Oliveira Schneider escreveu:
On 6/23/06, Cássio Rosas - KMS wrote:
Alguem sabe se o wget consegue fazer mais de
uma conexao por arquivo
baixado!? Procurei na documentação e nas
* Konnichiwa Cássio Rosas - KMS-sama:
> Ola a todos,
>
> Alguem sabe se o wget consegue fazer mais de uma conexao por arquivo
> baixado!? Procurei na documentação e nas man pages e não identifquei
> nada do tipo.
>
> Seria como os demais gerenciadores de download qu
On 6/23/06, Cássio Rosas - KMS wrote:
Alguem sabe se o wget consegue fazer mais de uma conexao por arquivo
baixado!? Procurei na documentação e nas man pages e não identifquei
nada do tipo.
O wget não faz isso.
--
Bruno de Oliveira Schneider
http://www.dcc.ufla.br/~bruno/
Ola a todos,
Alguem sabe se o wget consegue fazer mais de uma conexao por arquivo
baixado!? Procurei na documentação e nas man pages e não identifquei
nada do tipo.
Seria como os demais gerenciadores de download que alem de controlar o
downaload e deixar a possibilidade de continuar de onde
wget -qcr http://www.fairchildsemi.com/ds/74/.
O ponto no final da URL é parte do link
Para duvidas sobre as opcoes (-q, -c, -r) veja man wget
Gustavo Mendes de Carvalho
Diveo do Brasil Telecomunicações
www.diveo.net.br
-Mensagem original-
De: Fabio Guerrazzi [mailto:[EMAIL
> Carlos Augusto Beltrame wrote:
> ola pessoal tem um site aki q to vendo http://www.fairchildsemi.com/ds/74/
> que dentro desse link soh tem arkivos para baixar, eu keria saber como com
> o wget ow d outra forma consigo baixar todo os arkivos desse site.
> obrigado.
>
>
De
ola pessoal tem um site aki q to vendo http://www.fairchildsemi.com/ds/74/ que dentro desse link soh tem arkivos para baixar, eu keria saber como com o wget ow d outra forma consigo baixar todo os arkivos desse site. obrigado. AtenciosamenteCarlos Beltrame Engenharia ElétricaUNESP - FEIS - Ilha
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Fernando Morgenstern wrote:
> Existe algum programa de download como o wget que tenha um opção de
> colocar o limite de banda para, por exemplo, 30kb/s ?
Olá.
Do manual do Wget.
- --limit-rate=amount
Limit the download speed to amount byt
Existe algum programa de download como o wget que tenha um opção de
colocar o limite de banda para, por exemplo, 30kb/s ?
--
Fernando Marcelo Morgenstern
Programador Web
que não é tão simples assim... colocando a barra ele procura o
index.html
Bom, vc nao foi detalista o suficiente. Tente assim:
wget -r -np ftp://meuftp/servicos/ftpgst/vsat/
coloque a barra no final e tente de novo. Acho que assim funciona.
Kléber Alves Leal
Muito estranho, acabei de te
locando a barra ele procura o
index.html
>Bom, vc nao foi detalista o suficiente. Tente assim:
>wget -r -np ftp://meuftp/servicos/ftpgst/vsat/
>coloque a barra no final e tente de novo. Acho que assim funciona.
Kléber Alves Leal
--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with
Bom, vc nao foi detalista o suficiente. Tente assim:
wget -r -np ftp://meuftp/servicos/ftpgst/vsat/
coloque a barra no final e tente de novo. Acho que assim funciona.
--
Marcos
On Wed, 23 Nov 2005, Kl?ber Alves Leal wrote:
> Não funcionou.
>
> #wget -r -np ftp://meuftp/servicos/ft
Não funcionou.
#wget -r -np ftp://meuftp/servicos/ftpgst/vsat
--13:58:11-- ftp://meuftp/servicos/ftpgst/vsat
=> `ftp.servicos.intranet/servicos/ftpgst/.listing'
Connecting to meuftp:21... connected!
Logging in as anonymous ... Logged in!
==> TYPE I ... done. ==> CWD s
gt; disponível em um servidor
> > > ftp?
> >
> > wget -r -np ftp://ftp.xxx.com.br/pasta/inteira/ ?
>
> E se der erro 403 ???
___
Yahoo! Acesso Grátis: Internet rápida e gráti
* Marcos Vinicius Lazarini ([EMAIL PROTECTED]) wrote:
> On Wed, 23 Nov 2005, Kl?ber Alves Leal wrote:
>
> > Olá pessoal, como baixar uma pasta inteira disponível em um servidor
> > ftp?
>
> wget -r -np ftp://ftp.xxx.com.br/pasta/inteira/ ?
E se der erro 403 ???
--
"
On Wed, 23 Nov 2005, Kl?ber Alves Leal wrote:
> Olá pessoal, como baixar uma pasta inteira disponível em um servidor ftp?
wget -r -np ftp://ftp.xxx.com.br/pasta/inteira/ ?
--
Marcos
Instale o ncftp e use o comando mget.
Fabiano;
Em 23/11/05, Kléber Alves Leal<[EMAIL PROTECTED]> escreveu:
> Olá pessoal, como baixar uma pasta inteira disponível em um servidor ftp?
>
>
> Kléber Alves Leal
>
>
> --
> To UNSUBSCRIBE, email to [EMAIL PROTECTED]
> with a subject of "unsubscribe". T
Olá pessoal, como baixar uma pasta inteira disponível em um servidor ftp?
Kléber Alves Leal
--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]
--- Carlucio Lopes <[EMAIL PROTECTED]> escreveu:
> Pessoal bom dia,
>
> como Eu uso o wget para copiar um diretorio inteiro,
> quero copiar o tutorial do http://gtk.org.
>
> Estou tentando fazer assim:
>
> $wget -r ftp://gtk.org/tutorial/
>
>
>
man wget
ou google -> wget manual
T+,
Wendell.
--- Carlucio Lopes <[EMAIL PROTECTED]> escreveu:
> Pessoal bom dia,
>
> como Eu uso o wget para copiar um diretorio inteiro,
> quero copiar o tutorial do http://gtk.org.
>
> Estou tentando fazer assim:
>
>
Pessoal bom dia,
como Eu uso o wget para copiar um diretorio inteiro, quero copiar o tutorial do
http://gtk.org.
Estou tentando fazer assim:
$wget -r ftp://gtk.org/tutorial/
Alguem poderia me dar uma dica ou outra sugestao.
desde já agradeco.
--
Carlucio Lopes - Debian Gnu/Linux+Tinycobol
Marcos Vinicius Lazarini wrote:
Olá amigos,
essa msg é meio fora, mas enfim...
Hj tentei fazer uma cópia de um site (wget -r ...) para levar no meu
pendrive e mostrar para alguns colegas, mas o site não veio inteiro - em
especial algumas imagens.
Investigando um pouco, havia vários links de
Olá amigos,
essa msg é meio fora, mas enfim...
Hj tentei fazer uma cópia de um site (wget -r ...) para levar no meu
pendrive e mostrar para alguns colegas, mas o site não veio inteiro - em
especial algumas imagens.
Investigando um pouco, havia vários links de imagens no .css do site; mas
pelo
On Fri, 02 Jul 2004 16:01:32 -0300, Marcio de Araujo Benedito
<[EMAIL PROTECTED]> wrote:
> A solucao e voce mandar um e-mail para o proprietario da pagina, pedindo
> a ele que libere a copia do site. O arquivo robots.txt e explicito:
> proibe a copia do site.
>
Boa piada
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Jupercio Juliano wrote:
| Marcio de Araujo Benedito wrote:
|
|>
|> Eu falei que o problema era esse desde o pricipio ...
|>
|> http://lists.debian.org/debian-user-portuguese/2004/07/msg9.html
|
|
| E pode dizer qual é a solução, pois não enten
Marcio de Araujo Benedito wrote:
Eu falei que o problema era esse desde o pricipio ...
http://lists.debian.org/debian-user-portuguese/2004/07/msg9.html
E pode dizer qual é a solução, pois não entendi sobre isto na man page?
abraços.
--
jupercio juliano
DebianUser
Jabber: juperc
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Jupercio Juliano wrote:
| Mas na estrutura de diretórios que ele baixa, no segundo nível, tem
| um arquivo robots.txt com o conteúdo:
|
| User-agent: *
| Disallow: /
|
| Será que é aí o pau?
Eu falei que o problema era esse desde o pricipio .
thiagomz wrote:
www.linuxbsd.com.br
e procure meu how-to !
É o que está em
http://www.linuxbsd.com.br/phpLinuxBSD/modules/artigos_tecnicos/wget.htm?
Tentei com a opção -A * e ele continua apenas gerando o html como os
arquivos no diretório.
Mas na estrutura de diretórios que ele baixa, n
on 01/07/2004 10:43 Jupercio Juliano said the following:
Ae pessoal.
Seguinte, quero baixar todos os arquivos de um diretório via http,
mas quando dou um wget -r http://bla.lba.bal/bla/bla/, ele me cria um
arquivo index.html com os arquivos e não baixa os mesmos.
A versão é a
herlon wrote:
Tente:
wget -r http://bla.bla.bla/blabla/.
ou
wget -r http://bla.bla.bla/blabla/*
Um dos dois deve funcionar. Já passei por isso.
Já e não funfa.
té.
--
jupercio juliano
DebianUser
Jabber: jupercio at jabber.org
Tente:
wget -r http://bla.bla.bla/blabla/.
ou
wget -r http://bla.bla.bla/blabla/*
Um dos dois deve funcionar. Já passei por isso.
Herlon
>
> Marcio de Araujo Benedito wrote:
>
> >
> > Pode ser que o site tenha um robots.txt que nao permita
> este tipo de acao.
>
Marcio de Araujo Benedito wrote:
Pode ser que o site tenha um robots.txt que nao permita este tipo de acao.
Acho que é isso, mas entrei na hierarquia de diretórios e não o
encontrei.
Mesmo que exista, tem como "ignorá-lo"?
abraços.
--
jupercio juliano
DebianUser
Jabber: jup
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Jupercio Juliano wrote:
| Ae pessoal.
| Seguinte, quero baixar todos os arquivos de um diretório via http,
| mas quando dou um wget -r http://bla.lba.bal/bla/bla/, ele me cria um
| arquivo index.html com os arquivos e não baixa os mesmos
Se tu quiser fazer tipo um mirror...
$wget -L -m http://bla.lba.bal/bla/bla
On Thursday 01 July 2004 10:43, Jupercio Juliano wrote:
] Ae pessoal.
] Seguinte, quero baixar todos os arquivos de um diretório via http, mas
] quando dou um wget -r http://bla.lba.bal/bla/bla/, ele me
Ae pessoal.
Seguinte, quero baixar todos os arquivos de um diretório via http, mas
quando dou um wget -r http://bla.lba.bal/bla/bla/, ele me cria um
arquivo index.html com os arquivos e não baixa os mesmos.
A versão é a 1.8.2.
Já tentei com as opções -np, -nd e nada
sim, usa o seguinte: wget -c arquivo-a-baixar
- Original Message -
From: "Savio Ramos" <[EMAIL PROTECTED]>
To: "Debian"
Sent: Monday, June 28, 2004 12:30 PM
Subject: Dúvida sobre o wget
> Olá,
>
> O wget permite continuar um download interrompido p
On Monday 28 June 2004 12:30, Savio Ramos wrote:
] Olá,
]
] O wget permite continuar um download interrompido por Ctrl+C?
wget -c
]
] Grato.
--
Alessandro M. Correia
ºVº
/(_)\
^ ^
Olá,
O wget permite continuar um download interrompido por Ctrl+C?
Grato.
--
Savio Martins Ramos - Arquiteto
Rio de Janeiro ICQ 174972645
Pirataria não, seja livre: Linux
http://www.debian.org
> > claudio,
> > viajasse
>
> pq? Foi assim que eu baixei todas as charges de www.charges.com.br :).
> Acho que não entendi sua pergunta então :(.
mas no caso da página em questão não se aplica.
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
2004-01-09, 13:40 -0300, [EMAIL PROTECTED]:
>
>
>
> > for i in `seq 1 100`
>
> claudio,
> viajasse
pq? Foi assim que eu baixei todas as charges de www.charges.com.br :).
Acho que não entendi sua pergunta então :(.
Até
Claudio
- --
+- .''`. ---
> for i in `seq 1 100`
claudio,
viajasse
> Eu já tentei algo parecido, só que fiz um roteiro um pouco diferente:
> $ wget http:///index.html?print=1
> $ vi index.html (não utilizei sed) mantive só os link e acrescentei a
> os ?print=1
> $ wget -i arquivo_com_listagem_dos_links
>
> O problema é que muit
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
2004-01-08, 17:48 -0300, [EMAIL PROTECTED]:
> > 2004-01-07, 17:05 -0200, biande:
> > ...
> > > Estou utilizando:
> > > wget --mirror --noparent smarty.php.net/manual/pt_BR/?print=1
> >
> > Talvez com um -
site
smarty.
> > > O problema é que para cada novo link teria que acrescentar a mão o
sufixo
> > > ao endereço
> > > (ex: http://smarty.php.net/manual/pt_BR/what.is.smarty.php?print=1).
> > >
> > > Como fazer para o wget acrescentar um sufixo automaticam
> 2004-01-07, 17:05 -0200, biande:
> ...
> > Estou utilizando:
> > wget --mirror --noparent smarty.php.net/manual/pt_BR/?print=1
>
> Talvez com um -r ?
>
provavelmente não. o --mirror ativa o -r
problema é que para cada novo link teria que acrescentar a mão o sufixo
> > ao endereço
> > (ex: http://smarty.php.net/manual/pt_BR/what.is.smarty.php?print=1).
> >
> > Como fazer para o wget acrescentar um sufixo automaticamente a cada
> > página que ele vai baixar?
>
o site smarty. O problema é que para cada novo link teria que
> acrescentar a mão o sufixo ao endereço
> (ex: http://smarty.php.net/manual/pt_BR/what.is.smarty.php?print=1).
>
> Como fazer para o wget acrescentar um sufixo automaticamente a cada página que
> ele vai baixar?
>
>
(ex: http://smarty.php.net/manual/pt_BR/what.is.smarty.php?print=1).
Como fazer para o wget acrescentar um sufixo automaticamente a cada página que
ele vai baixar?
Estou utilizando:
wget --mirror --noparent smarty.php.net/manual/pt_BR/?print=1
Obrigado pela atenção
Flávio M. Reis
[EMAIL PROTECTED]
usa o jigdo (http://www.debian.org/CD/jigdo-cd/)
ontem mesmo eu peguei a imagem do sarge a 3 Mbps (ehehhe)
o jigdo foi feito pra isso ele usa o wget pra pegar de varios mirrors os
pacotes e depois no final escreve a ISOle lá
- Original Message -
From: "Felipe Roman" <[EM
usa o jigdo (http://www.debian.org/CD/jigdo-cd/)
ontem mesmo eu peguei a imagem do sarge a 3 Mbps (ehehhe)
o jigdo foi feito pra isso ele usa o wget pra pegar de varios mirrors os
pacotes e depois no final escreve a ISOle lá
- Original Message -
From: "Felipe Roman" <[EM
Pessoal,
quero baixar uma imagem do debian sarge ao inves de instalar o woody e
atualizar acontece que todos servidores que testei sao lentos.
tem como eu criar uma lista de servidores que possuem o arquivo e fazer o
wget pegar de todos ao mesmo tempo?
já criei a lista mas não achei essa
on/octet-stream");
header("Accept-Ranges: bytes");
header("Content-Transfer-Encoding: binary");
header("Content-Length: $fs");
Bom, o wget não consegue interpretar isso baixar os arquivos com este
tipo de url diretamente. Existe alguma opção que o faça, dentro dos
tões?
>
> Já tive problemas de falha de segmentação com o wget. A propósito, você
está
> usando o wget da unstable?
Não. Meu sistema é totalmente woody. E outra coisa. Rodei de novo com a
opção -b, como falei que ia fazer e não deu pau nenhum. Fiquei olhando com
tail -f -n 20 wget-log. Ag
No dia 17/07/2003 às 15:34,
<[EMAIL PROTECTED]> escreveu:
> gente,
> O comando é este:
> ...
> Tá foda. Já aconteceu três vezes hoje. Dei apt-get update; apt-get upgrade
> a mais ou menos uma semana atrás...
>
> Sugestões?
Já tive problemas de falha de segmentação co
gente,
O comando é este:
rec1:/home/ftp/pub# wget -m -nH --cut-dirs=1
ftp://ftp2.de.debian.org/pub/mirror/security.debian.org/debian-security/ -X
*/*/*/dists,*/*/*/*/*/*/*/binary-alpha,*/*/*/*/*/*/*/binary-arm,
*/*/*/*/*/*/*/binary-hppa,*/*/*/*/*/*/*/binary-ia64,
*/*/*/*/*/*/*/binary-m68k
Gente,
depois de muito tentar botar o mirror e o mm para fazer um espelho do
debian,
desisti e fui tentar na marra, com o wget. Ficou tão monstruoso o comando
que
eu queria compartilhar com vocês. mandem esculhambações.
wget -m
ftp://ftp.de.debian.org/pub/mirror/security.debian.org/debian
>> certo. mas seria mais correto dizer "sublinks a partir do arquivo
inicial".
>> Mas você entendeu a idéia. Tem uma opção também muito boa, que não deixa
o
>> wget começar a seguir links de fora do domínio inicial e ganhar o mundo.
>> Mas não lembro qual é...
>> certo. mas seria mais correto dizer "sublinks a partir do arquivo
inicial".
>> Mas você entendeu a idéia. Tem uma opção também muito boa, que não deixa
o
>> wget começar a seguir links de fora do domínio inicial e ganhar o mundo.
>> Mas não lembro qual é...
> certo. mas seria mais correto dizer "sublinks a partir do arquivo inicial".
> Mas você entendeu a idéia. Tem uma opção também muito boa, que não deixa o
> wget começar a seguir links de fora do domínio inicial e ganhar o mundo.
> Mas não lembro qual é...
>
Eu le
les,certo?
certo. mas seria mais correto dizer "sublinks a partir do arquivo inicial".
Mas você entendeu a idéia. Tem uma opção também muito boa, que não deixa o
wget começar a seguir links de fora do domínio inicial e ganhar o mundo.
Mas não lembro qual é...
Paro por aqui, fred
On Wed, 23 Apr 2003 13:36:51 -0300
<[EMAIL PROTECTED]> escreveu:
>>
>> Semente,
>> Vou responder teoricamente, pois estou num lugar M$.
...
>
>Ok cara, valeu! Esses "levels" é de quantos "sublinks" ele vai entrar e
puxar tudo deles,certo?
Certo. Mas seria mais correto falar de qu
On Wed, 23 Apr 2003 20:21:43 -0300, Guilherme Mesquita Gondim wrote:
> On Wed, 23 Apr 2003 13:36:51 -0300
> <[EMAIL PROTECTED]> escreveu:
>
>> -l depth
>> --level=depth
>>Specify recursion maximum depth level _d_e_p_t_h. The
>> default maximum depth is 5.
>
> Ok car
On Wed, 23 Apr 2003 13:36:51 -0300
<[EMAIL PROTECTED]> escreveu:
>
> Semente,
> Vou responder teoricamente, pois estou num lugar M$.
> Use, além das opções que você botou (E, p) a opção -r (recursiva),
> senão ele só baixa o arquivo fotos.htm e para por aí. pense também em usar
On Wed, 23 Apr 2003 13:18:48 -0300
Mario Olimpio de Menezes <[EMAIL PROTECTED]> escreveu:
> wget -m -c -t0 http://www.xtetex.com/fotos.htm
Deu certo Márcio, obrigado!
Um abraço,
semente
.''`.Guilherme Mesquita Gondim - semente
: :' : [EMAIL PROTEC
cc:
om.br> Assunto: wget: Dúvidas!
On Tue, Apr 22, 2003 at 06:48:29PM -0300, Guilherme Mesquita Gondim wrote:
> Oi gente,
>
> Como usa esse wget!? Eu queria puxar todos os .htm, .jpg e .gif do site
> http://www.xtetex.com/xgalleryx/ só que dá erro 404 not found e etc... no
> diretório desse site não h
Oi gente,
Como usa esse wget!? Eu queria puxar todos os .htm, .jpg e .gif do site
http://www.xtetex.com/xgalleryx/ só que dá erro 404 not found e etc... no
diretório desse site não há um html index... Existe o fotos.htm em / que tem os
links para as páginas que quero puxar (que fica no
tem sim !!
Advanced Usage
· If you want to encode your own username and password to HTTP
or FTP, use the appropriate URL syntax.
wget ftp://hniksic:[EMAIL PROTECTED]/.emacs
-
Fábio Rabelo wrote:
é isso mesmo !
wget -r ftp://user:[EMAIL
é isso mesmo !
wget -r ftp://user:[EMAIL PROTECTED]
funciona perfeitamente !
isso deveria estar em algum lugar do man-pages ou do help do wget e NÃO
está
thanks !!!
Fábio Rabelo
On Wed, Dec 18, 2002 at 11:05:14AM -0200, Fábio Rabelo wrote:
> acho q o meu caminho é pelo wget e Ñ pelo lynx !!
> Qdo conecto um ftp pelo gftp ele entra sem problemas, e o gftp é
> "apenas" um gront-end p/o wget feito em GTK correto ?
Não. Ele é um cliente FTP completo.
> pto deve existir algum parâmetro p/o wget passar o nome do usuário e a
> senha p/um ftp !!!
> via http tem, funciona e está nos man-pages :
> wget -r ftp://200.xxx.xxx.xxx --http-user=eu --http-passwd=minha
A solucao para o wget passar o user e senha para o ftp eh simples.
wge
acho q o meu caminho é pelo wget e Ñ pelo lynx !!
Qdo conecto um ftp pelo gftp ele entra sem problemas, e o gftp é
"apenas" um gront-end p/o wget feito em GTK correto ?
pto deve existir algum parâmetro p/o wget passar o nome do usuário e a
senha p/um ftp !!!
via http tem, funciona
Ola,
Sempre que tento fazer um wget de um ftp tenho problemas mesmo utilizando ou
não --passive-ftp
Ex:
zeus:~# wget --passive-ftp ftp://sofia.ufp.pt/pub/AVSEQ01.DAT
--21:17:36-- ftp://sofia.ufp.pt/pub/AVSEQ01.DAT
=> `AVSEQ01.DAT'
Resolving sofia.ufp.pt... feito.
Conne
85 matches
Mail list logo