Re: Pobieranie wielowątko we.Dzielenie na 20-50 części
Witam, Dnia czw, gru 29, 2005 at 05:44:51 CET, ja napisał: > Zassałęm tego lftp lecz komenda pget jest niedostępna :/ SOA#1. lftp sunsite.icm.edu.pl:/linux/kernel/v2.6> pget -n 20 linux-2.6.14.tar.gz `linux-2.6.14.tar.gz', mam 3921648 z 49075080 (7%) 359,6K/s btw. pget nie ma opcji -c, jedyna jego opcja jest -n Pozdrawiam, Tomasz T. Ciaszczyk -- .: ciacho#ciacho%pl ][ :. .: http://ciacho.pl ][ Sometimes "mu" is the answer. :. .: ciacho#jabber%org][ :. pgp46aZy7djLA.pgp Description: PGP signature
Re: Pobieranie wielowątko we.Dzielenie na 20-50 części
On Thu, Dec 29, 2005 at 07:34:14PM +0100, Paweł Tęcza wrote: >Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze, >przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju "rury" >o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz >w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za >roznica, czy robisz to za pomoca jednego, czy wielu polaczen? Pod warunkiem, że rura nie składa się z kilku(nastu) mniejszych kanalików :) A różne mogą być tego przyczyny. Load-balancing per flow -- to pierwsze, co przychodzi na myśl. Limity przepustowości dla sesji na serwerach (lub w sieci -- założę się, że i takie coś się znajdzie). I pewnie jeszcze wiele innych potencjalnych przyczyn da się znaleźć. A za czasów generalnie mniej obciążonego (ale i generalnie wolniejszego) internetu pamiętam namiastkę p2p realizowaną przez GetRighta -- różne częsci pliku pobierane z oddzielnych mirrorów. Z pojedynczego hosta często nie dawało się osiągnąć sensownej prędkości (nawet na modemie), dopiero agregacja transmisji z kilku źródeł dawała sensowne wyniki (oczywiście zbyt dużo źródeł też nie ma sensu, bo narzut na ich obsługę dochodzi w końcu do znaczącej wielkości). A szczerze powiedziawszy aktualnie, w dobie ,,szybkiego'' internetu, wracają nieco stare wspomnienia. Zdecydowanie nie wszyscy są w stanie podać dane z odpowiednią prędkością, w zasadzie chwilami mam wrażenie, że głównie wielcy pokroju TASKu, ICMu, dużych portali i innych dużych ISP są w stanie wysycić pełne 4mbit pojedynczą transmisją. -- Jacek Politowski -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]
Re: Pobieranie wielowątko we.Dzielenie na 20-50 części
Hej! On Thu, Dec 29, 2005 at 10:50:40AM +0100, Cezary Siwek wrote: [...] > NIe o to chodzilo pytającemu. chodzi o to aby transfer byl bardzo > efektywny przez sciaganie jednego pliku w kilku(dziesieciu) sesjach > a potem scalenie go w jednosc. Dlaczego wtedy transfer mialby byc bardzo efektywny? Przeciez lacze, przez ktore sciagasz plik nie jest z gumy, ale to cos w rodzaju "rury" o ograniczonej powierzchni przekroju. Jesli wiec przez ta rure mozesz w danej chwili maksymalnie przeslac okreslona liczbe bajtow, to co za roznica, czy robisz to za pomoca jednego, czy wielu polaczen? Pozdrawiam, P.
Re: Pobieranie wielowątko we.Dzielenie na 20-50 części
Witam, Dnia czw, gru 29, 2005 at 01:59:41 CET, ja napisał: > Coś z mi ta aria nie pasuje w opcjach pod GUI mozna ustawić maxymalną > ilość 10 natomiast pod konsolą niby domaga sie liczby od 1 do 30 lecz > jaką liczbe bym nie wpisał zewsze podglądając opcje alementu wartość > jest nastawiona na 10 i nie da rady zrbic więcej. use lftp pget [OPTS] rfile [-o lfile ] Gets the specified file using several connections. This can speed up transfer, but loads the net heavily impacting other users. Use only if you really have to transfer the file ASAP, or some other user may go mad :) Options: -n maxconn set maximum number of connections (default 5) Pozdrawiam, Tomasz T. Ciaszczyk -- .: ciacho#ciacho%pl ciacho#jabber%org http://ciacho.pl :. .: ...tu kończy się świat, a zaczyna fizyka. :. .: -- Łukasz Pudło :.