Re: Pobieranie wielowątko we.Dzielenie na 20-50 części

2005-12-30 Wątek Tomasz T. Ciaszczyk
Witam,

Dnia czw, gru 29, 2005 at 05:44:51 CET, ja napisał:

 Zassałęm tego lftp lecz komenda pget jest niedostępna :/

SOA#1.

lftp sunsite.icm.edu.pl:/linux/kernel/v2.6 pget -n 20 linux-2.6.14.tar.gz
`linux-2.6.14.tar.gz', mam 3921648 z 49075080 (7%) 359,6K/s

btw. pget nie ma opcji -c, jedyna jego opcja jest -n



Pozdrawiam,
Tomasz T. Ciaszczyk


-- 
.: ciacho#ciacho%pl ][ :.
.: http://ciacho.pl ][   Sometimes mu is the answer. :.
.: ciacho#jabber%org][ :.


pgp46aZy7djLA.pgp
Description: PGP signature


Re: Pobieranie wielowątko we.Dzielenie na 20-50 części

2005-12-29 Wątek Tomasz T. Ciaszczyk
Witam,

Dnia czw, gru 29, 2005 at 01:59:41 CET, ja napisał:

 Coś z mi ta aria nie pasuje w opcjach pod GUI mozna ustawić maxymalną 
 ilość 10 natomiast pod konsolą niby domaga sie liczby od 1 do 30 lecz 
 jaką liczbe bym nie wpisał zewsze podglądając opcje alementu wartość 
 jest nastawiona na 10 i nie da rady zrbic więcej.

use lftp

pget [OPTS] rfile [-o lfile ]

   Gets the specified file using several connections. This can
speed up transfer, but loads the net  heavily impacting  other  users.
Use only if you really have to transfer the file ASAP, or some other
user may go mad :) Options:

-n   maxconn  set maximum number of connections (default
5)


Pozdrawiam,
Tomasz T. Ciaszczyk


-- 
.: ciacho#ciacho%pl ciacho#jabber%org http://ciacho.pl :.
.:  ...tu kończy się świat, a zaczyna fizyka.  :.
.:   -- Łukasz Pudło   :.



Re: Pobieranie wielowątko we.Dzielenie na 20-50 części

2005-12-29 Wątek Paweł Tęcza
Hej!

On Thu, Dec 29, 2005 at 10:50:40AM +0100, Cezary Siwek wrote:
[...] 
 NIe o to chodzilo pytającemu. chodzi o to aby transfer byl bardzo
 efektywny przez sciaganie jednego pliku w kilku(dziesieciu) sesjach
 a potem scalenie go w jednosc.

Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze,
przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju rury
o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz
w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za
roznica, czy robisz to za pomoca jednego, czy wielu polaczen?

Pozdrawiam,

P.



Re: Pobieranie wielowątko we.Dzielenie na 20-50 części

2005-12-29 Wątek Jacek Politowski
On Thu, Dec 29, 2005 at 07:34:14PM +0100, Paweł Tęcza wrote:

Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze,
przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju rury
o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz
w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za
roznica, czy robisz to za pomoca jednego, czy wielu polaczen?

Pod warunkiem, że rura nie składa się z kilku(nastu) mniejszych
kanalików :)

A różne mogą być tego przyczyny.
Load-balancing per flow -- to pierwsze, co przychodzi na myśl.
Limity przepustowości dla sesji na serwerach (lub w sieci -- założę
się, że i takie coś się znajdzie).
I pewnie jeszcze wiele innych potencjalnych przyczyn da się znaleźć.


A za czasów generalnie mniej obciążonego (ale i generalnie
wolniejszego) internetu pamiętam namiastkę p2p realizowaną przez
GetRighta -- różne częsci pliku pobierane z oddzielnych mirrorów.
Z pojedynczego hosta często nie dawało się osiągnąć sensownej
prędkości (nawet na modemie), dopiero agregacja transmisji z kilku
źródeł dawała sensowne wyniki (oczywiście zbyt dużo źródeł też nie ma
sensu, bo narzut na ich obsługę dochodzi w końcu do znaczącej
wielkości).

A szczerze powiedziawszy aktualnie, w dobie ,,szybkiego'' internetu,
wracają nieco stare wspomnienia. Zdecydowanie nie wszyscy są w stanie
podać dane z odpowiednią prędkością, w zasadzie chwilami mam wrażenie,
że głównie wielcy pokroju TASKu, ICMu, dużych portali i innych dużych
ISP są w stanie wysycić pełne 4mbit pojedynczą transmisją.

-- 
Jacek Politowski


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]