Re: tar cvzf

2003-02-21 Wątek Marcin Owsiany
On Fri, Feb 21, 2003 at 11:26:52AM +0100, Maciej Bobrowski wrote:
> a system plikow to ext2. zeby zmienic musze przekompilowac kernel,

Chyba wystarczy zainstalować nowy, po co od razu kompilować?
Zwróć też uwagę żeby glibc obsługiwał takie duże pliki (czytaj: pod
potato wymiana samego jądra niedużo daje).

Marcin
-- 
Marcin Owsiany <[EMAIL PROTECTED]> http://marcin.owsiany.pl/
GnuPG: 1024D/60F41216  FE67 DA2D 0ACA FC5E 3F75  D6F6 3A0D 8AA0 60F4 1216



Re: tar cvzf

2003-02-21 Wątek Tomasz T. Ciaszczyk
Witam,

Dnia pią, lut 21, 2003 at 11:26:52 CET, Maciej Bobrowski napisał:

: 
: > ulimit sie klania
: > a dokladnie ulimit -f
: 
: ~>ulimit -f
: 
: file size (blocks, -f) unlimited
: 
: wiec wszystko gra.
: a system plikow to ext2. zeby zmienic musze przekompilowac kernel, a robie
: teraz backup wlasnie przed kompilacja nowego kernela, bo chce raid-a
: potestowac.

bez zmiany fs'a mozna tez go ominac:

tar -c -M -L 100 -F /bin/bash -f ala /backup

tworzy pliki o wielkosci 100KB ;>


-- 
Pozdrawiam,
TTC

  .-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-
.:: Tomasz T. Ciaszczyk [ ciachociacho.pl ] >> http://ciacho.pl <<
.::
.:: Nieważne, co robisz - ważne, jak to robisz.
.:: Styl jest wszystkim.
.:: -- Nina Liedke, "CyberJoly Drim"
  `-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-


pgpVKhKKcpjhp.pgp
Description: PGP signature


Re: tar cvzf

2003-02-21 Wątek Jacek Kawa
Jak podają anonimowe źródła, przepowiedziano, że Adrian Siemieniak napisze:

> > Jesli to NFS to wymus wersje 3, ktora nie posiada ograniczenia 
> > wielkosci plikow do 2G.
> Ext2 tez ma "standardowo" 2GB.

?

linux-2.4.20/Documentation/fs/ext2.txt
...
Filesystem block size: 1kB2kB4kB8kB

File size limit:  16GB  256GB 2048GB 2048GB
Filesystem size limit:  2047GB 8192GB16384GB32768GB

There is a 2.4 kernel limit of 2048GB for a single block device, so no
filesystem larger than that can be created at this time.  There is also
an upper limit on the block size imposed by the page size of the kernel,
so 8kB blocks are only allowed on Alpha systems (and other architectures
which support larger pages).
...

Problem z 2GB był przy starszych wersjach Linuksa - jeśli chodzi o wersję
stabilną to OIMW przed 2.4.X (w każdym razie bez odpowiednich łatek); 
ściśle z tym związany był problem obsługi dużych plików w glibc, które
po prostu nie umiały jeszcze wykorzystac nowych możliwości jądra.

Pozdrawiam

-- 
Jacek Kawa  **You are not obliged to say anything unless you wish to do
so, but whatever you say may be given in evidence.**



Re: tar cvzf

2003-02-21 Wątek Slawomir Goryczka


On Fri, 21 Feb 2003, Maciej Bobrowski wrote:

>
> > ulimit sie klania
> > a dokladnie ulimit -f
>
> ~>ulimit -f
>
> file size (blocks, -f) unlimited
>
> wiec wszystko gra.
> a system plikow to ext2. zeby zmienic musze przekompilowac kernel, a robie
> teraz backup wlasnie przed kompilacja nowego kernela, bo chce raid-a
> potestowac.

Problem, to sposob zapisu danych przez system, teoretyczne ograniczenie to
4GB dla blokow chyba 1kB.

Dokladne dane w: Bach "Budowa systemu operacyjnego UNIX"
Polecam - ciezkostrawna, ale warto

Slawek



Re: tar cvzf

2003-02-21 Wątek Maciej Bobrowski

> ulimit sie klania
> a dokladnie ulimit -f

~>ulimit -f

file size (blocks, -f) unlimited

wiec wszystko gra.
a system plikow to ext2. zeby zmienic musze przekompilowac kernel, a robie
teraz backup wlasnie przed kompilacja nowego kernela, bo chce raid-a
potestowac.

Maciej Bobrowski



Re: tar cvzf

2003-02-21 Wątek Adrian Siemieniak
On Fri, 21 Feb 2003 10:54:30 +0100
Grzegorz Kusnierz <[EMAIL PROTECTED]> wrote:

> Jesli to NFS to wymus wersje 3, ktora nie posiada ograniczenia 
> wielkosci plikow do 2G.
Ext2 tez ma "standardowo" 2GB.

Pozdrawiam
--
Adrian Siemieniak | Administrator (at) Internet Center Polska
sauron(at)icenter.pl
tel. (0-71) 344-82-52 wew 26



Re: tar cvzf

2003-02-21 Wątek Radoslaw Antoniuk

> w /dir jest okolo 9GB danych. Przy 2147483647 bajtow dir.tar.gz tar
> sie wykrzaczyl i napisal:
> gzip: stdout: File too large

Uhm. A sam tar cvvf | gzip -9 ?


-- 
Pozdrawiam,
Radoslaw 'Warden' Antoniuk  | GG: 260746 ICQ:55423024
warden(at)debian.black.pl   | #lgul #debian.pl #lms



Re: tar cvzf

2003-02-21 Wątek Grzegorz Kusnierz
On Fri, Feb 21, 2003 at 10:22:17AM +0100, Maciej Bobrowski wrote:
> 
> czesc
> 
> chcialem zrobic backup dosc znacznych zbiorow, ale zebranych w systemie w
> jedym katalogu:
> tar cvfz /backup/dir.tar.gz /dir
> 
> w /dir jest okolo 9GB danych. Przy 2147483647 bajtow dir.tar.gz tar
> sie wykrzaczyl i napisal:
> gzip: stdout: File too large
> 

Typuje albo NFS v2 albo jakis glupiutki system plikow np fat.
Jesli to NFS to wymus wersje 3, ktora nie posiada ograniczenia 
wielkosci plikow do 2G.

Jesli jest to fat, to dobrym rozwiazaniem jest:

dd if=/dev/zero of=/dev/partycja-z-fatem
mkfs.xxx /dev/partycja-z-fatem 

gdzie xxx nalezy do {ext2,ext3,reiserfs,xfs,jfs}

pzdr
k.

-- 
 ___
|  /)/)
|   Grzegorz Kusnierz  |  GG: 1756511 |   ( xx\
|  [EMAIL PROTECTED]  |  http://www.bezkitu.com  |   /'-._) 
|   [EMAIL PROTECTED]  |  * radio * bez * kitu *  |  /#/  U
 \__/#/



Re: tar cvzf

2003-02-21 Wątek Adrian Siemieniak
On Fri, 21 Feb 2003 10:22:17 +0100 (CET)
Maciej Bobrowski <[EMAIL PROTECTED]> wrote:

> w /dir jest okolo 9GB danych. Przy 2147483647 bajtow dir.tar.gz tar
> sie wykrzaczyl i napisal:
> gzip: stdout: File too large
> 
> Wie ktos jak to rozwiazac?
Zrobic mniejszy pliki lub zmienic filesystem (wieksze bloki).

Pozdrawiam
--
Adrian Siemieniak | Administrator (at) Internet Center Polska
sauron(at)icenter.pl
tel. (0-71) 344-82-52 wew 26



Re: tar cvzf

2003-02-21 Wątek Tomasz T. Ciaszczyk
Witam,

Dnia Fri, Feb 21, 2003 at 10:22:17AM CET, Maciej Bobrowski napisał:

: 
: czesc
: 
: chcialem zrobic backup dosc znacznych zbiorow, ale zebranych w systemie w
: jedym katalogu:
: tar cvfz /backup/dir.tar.gz /dir
: 
: w /dir jest okolo 9GB danych. Przy 2147483647 bajtow dir.tar.gz tar
: sie wykrzaczyl i napisal:
: gzip: stdout: File too large

ulimit sie klania
a dokladnie ulimit -f
~ > ulimit  -a
core file size(blocks, -c) 0
data seg size (kbytes, -d) 200240
file size (blocks, -f) 200240
max locked memory (kbytes, -l) unlimited
max memory size   (kbytes, -m) 2048
open files(-n) 10240
pipe size  (512 bytes, -p) 8
stack size(kbytes, -s) 8192
cpu time (seconds, -t) 1200
max user processes(-u) 120
virtual memory(kbytes, -v) unlimited

przestaw sobie -f na unlimited i po sprawie


-- 
Pozdrawiam,
TTC

  .-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-
.:: Tomasz T. Ciaszczyk [ ciachociacho.pl ] >> http://ciacho.pl <<
.::
.:: If it doesn't work, force it.
.:: If it breaks, it needed replacing anyway.
  `-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-


pgpnWCv1h0JLZ.pgp
Description: PGP signature


tar cvzf

2003-02-21 Wątek Maciej Bobrowski

czesc

chcialem zrobic backup dosc znacznych zbiorow, ale zebranych w systemie w
jedym katalogu:
tar cvfz /backup/dir.tar.gz /dir

w /dir jest okolo 9GB danych. Przy 2147483647 bajtow dir.tar.gz tar
sie wykrzaczyl i napisal:
gzip: stdout: File too large

Wie ktos jak to rozwiazac?

Pozdrowienia,
Maciej Bobrowski