Re: [rlug] Sa imi cumpar alte HDD-uri ?

2014-03-12 Thread Tarhon-Onu Victor
On Mon, 10 Mar 2014, Paul Lacatus (Personal) wrote:

> Azi am rulat un test scurt de citeva ori . Rezultatul este mai jos .
> Discurile nu au sectoare realocate  inca . Ce sa fac sa le schimb pe
> cele doua ?

Nu inca. E vorba de un singur sector, altele realocate nu mai 
sint, si chair daca ar fi ar trebui sa incepi sa te panichezi pe la 
15-20..

>
>> [root@datavault ~]# smartctl -a /dev/sde
>> smartctl 5.43 2012-06-30 r3573
>> [x86_64-linux-2.6.32-431.5.1.el6.x86_64] (local build)
>> Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net
>>
>> === START OF INFORMATION SECTION ===
>> Model Family: SAMSUNG SpinPoint F3

Datavault... samsung... valeleuu...! CPU-ul e un amd si chipsetul 
nvidia?

-- 
I'm a genuine network and sys admin.
I swear, I curse, I stick my dick into things in order to fix them.
So don't ack like you're having a bad day with me around,
'cause I'll have fix to you and will not be able to fight it!
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Din nou despre ZFS (was Re: Sa imi cumpar alte HDD-uri ?)

2014-03-12 Thread Iulian Murgulet
Quoting Adi Pircalabu :

> Pe mine m-ar interesa integrarea ZFS intr-un cluster activ/activ cu
> pacemaker si corosync.

Nu vad de ce nu ar merge. Eu am ceva similar cu 4 noduri(activ/activ,  
datele pe ZFS) dar e cu ucarp/haproxy si glusterfs(raid1 pe 4 cai si  
quorum). Peste astea,
am servicii de cluster(load-balancing/fail-over):  
proxy-http/http(s)/web-mail/postfix/samba(numai fail-over). Nu am  
lucrat cu pacemaker, deci mai mult nu
stiu sa zic




>
> 2014-03-13 0:10 GMT+11:00 Iulian Murgulet :
>> Quoting Alex 'CAVE' Cernat :
>>
>>> On 3/12/2014 1:05 PM, Iulian Murgulet wrote:
 Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
 unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
 ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
 Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
 cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
 ZFS).
>>>
>>> sa zica si 'convertitul' vreo 2 vorbe, avantaje si 'dezavantaje' la zfs
>>>
>>> sa incepem cu dezavantajele:
>>> - nu e in kernel (mama lor de licente); insa folosind zol se compileaza
>>> relativ usor cu dkms (cel putin pe debian); nu prea imi place sa stiu
>>> compilator pe servere, dar spre exemplu si la un banal varnish e aceeasi
>>> cerinta; ca sa fii mai catolic decat papa cred ca merge sa ai o masina
>>> virtuala ceva in care sa compilezi si sa transferi modulele pe serverul
>>> de productie
>>> - consum cam maricel de memorie (pleci de la 3-4 giga doar pentru el)
>>> - cam multe procese zfs-related pe masina (se poate tuna, momentan mi-a
>>> fost lene)
>>> - la ce am avut eu nevoie (backup) performantele au fost asemanatoare cu
>>> celelalte fs-uri (poate un pic mai lent, dar nu vizibil)
>>> - desi se poate pune ca root filesystem, eu unul cel putin nu l-as
>>> folosi, parca e prea rocket science si prea multe chestii care ar putea
>>> duce la belele (parerea mea)
>>>
>>> si acum sa vina avantajele (multe s-au zis, le reiau doar fugitiv, si
>>> probabil de multe o sa uit)
>>> - posibilitate de raid; rebuildul doar la datele existente
>>> - verificare a datelor (realtime si on/offline - nu stiu unde sa trec
>>> scrub-ul, ca practic se face online cu partitia montata si functionala)
>>> - gestionare flexibila a spatiului de pe disc, se foloseste la gramada
>>> (nu mai stai sa te mai gandesti din start ca am nevoie de atat pentru
>>> proiectul x); ai posibilitatea de garantari si rezervari, in caz ca vrei
>>> sa lasi spatiu prealocat pentru un mount, sau vrei sa fixezi o limita
>>> superioara pentru altul
>>> - compresie onthefly, separat pentru fiecare mount in parte
>>> - snapshot-uri fara numar fara numar, posibilitate de revert si clonare
>>> (am testat niste scenarii si am fost multumit)
>>>
>>> enormul dezavantaj este partea de de-duplicare a datelor, care este
>>> implementat cam cu fundul, si care pentru a-l folosi e nevoie de
>>> cantitati uriase de memorie (cca 5 GB memorie la 1 TB date alocate); si
>>> degeaba pui ssd, ca tot nu o scoti la capat (poate pe viitor vor gandi
>>> sa ii faca cumva cache-ul separat pe un ssd ceva, sau o implementare
>>> non-realtime, cum e la geamuri); in prezent asa cum e, in marea-marea
>>> majoritate a cazurilor nu este fezabil, deci e ca si cum nu ar fi
>>>
>>> in concluzie, daca pe un server gen web parca nu l-as pune (desi
>>> avantajele ar fi multe), in schimb pentru un storage merge brici, deci
>>> il pot recomanda cu incredere
>>>
>>> Alex
>>>
>>
>> Mersi Alex, prezentarea este foarte obiectiva(si cu bune si cu rele).
>>
>> Am o singura observatie la ce a scris Alex, intradevar partea de deduplicare
>> e cam super-nashpa in termeni de performanta, dar totusi da rezultate
>> acceptatbile intr-un caz particular: de-deuplicare pe volume relativ
>> mici
>> de date(2-300 GB) plasate pe SSD-ri.
>>
>> Si mai mentionez 2 avantaje/posibilitati:
>> 1. Posibilitatea de a modifica varianta de redundanta curenta intr-o
>> varianta superioara, adaugand HDD-ri suplimentare: am zpool
>> mirror(adica raid1)
>>   peste 2 HDD-ri, si vreau sa ajung la raidz2, adaugand inca 2 HDD-ri. Este
>> perfect posibil(mie mi-a resuit in mai multe ocazii, evident aveam  
>> si backup)
>> 2. zfs send/receive: am 2 masini diferite zfs-capabile, pot crea un  
>> stream de
>> pe masina 1 catre masina 2 printr-un pipe de transport gen ssh
>> - in felul asta pot face backup de pe 1 pe 2 foarte eficient(incremental de
>> exemplu, si pt. asta zfs-ul nu trebuie sa faca ceva gen rsync, adica
>> sa calculeze pe moment ce trenuie transmis, zfs-ul are deja stocata
>> informatia privind blocurile afectate)
>>
>>
>>
>>
>>
>>
>>
>>> ___
>>> RLUG mailing list
>>> RLUG@lists.lug.ro
>>> http://lists.lug.ro/mailman/listinfo/rlug
>>>
>>
>>
>>
>> 
>> This message was sent using IMP, the Internet Messaging Program.
>>
>>
>> 

[rlug] Din nou despre ZFS (was Re: Sa imi cumpar alte HDD-uri ?)

2014-03-12 Thread Adi Pircalabu
Pe mine m-ar interesa integrarea ZFS intr-un cluster activ/activ cu
pacemaker si corosync.

2014-03-13 0:10 GMT+11:00 Iulian Murgulet :
> Quoting Alex 'CAVE' Cernat :
>
>> On 3/12/2014 1:05 PM, Iulian Murgulet wrote:
>>> Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
>>> unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
>>> ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
>>> Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
>>> cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
>>> ZFS).
>>
>> sa zica si 'convertitul' vreo 2 vorbe, avantaje si 'dezavantaje' la zfs
>>
>> sa incepem cu dezavantajele:
>> - nu e in kernel (mama lor de licente); insa folosind zol se compileaza
>> relativ usor cu dkms (cel putin pe debian); nu prea imi place sa stiu
>> compilator pe servere, dar spre exemplu si la un banal varnish e aceeasi
>> cerinta; ca sa fii mai catolic decat papa cred ca merge sa ai o masina
>> virtuala ceva in care sa compilezi si sa transferi modulele pe serverul
>> de productie
>> - consum cam maricel de memorie (pleci de la 3-4 giga doar pentru el)
>> - cam multe procese zfs-related pe masina (se poate tuna, momentan mi-a
>> fost lene)
>> - la ce am avut eu nevoie (backup) performantele au fost asemanatoare cu
>> celelalte fs-uri (poate un pic mai lent, dar nu vizibil)
>> - desi se poate pune ca root filesystem, eu unul cel putin nu l-as
>> folosi, parca e prea rocket science si prea multe chestii care ar putea
>> duce la belele (parerea mea)
>>
>> si acum sa vina avantajele (multe s-au zis, le reiau doar fugitiv, si
>> probabil de multe o sa uit)
>> - posibilitate de raid; rebuildul doar la datele existente
>> - verificare a datelor (realtime si on/offline - nu stiu unde sa trec
>> scrub-ul, ca practic se face online cu partitia montata si functionala)
>> - gestionare flexibila a spatiului de pe disc, se foloseste la gramada
>> (nu mai stai sa te mai gandesti din start ca am nevoie de atat pentru
>> proiectul x); ai posibilitatea de garantari si rezervari, in caz ca vrei
>> sa lasi spatiu prealocat pentru un mount, sau vrei sa fixezi o limita
>> superioara pentru altul
>> - compresie onthefly, separat pentru fiecare mount in parte
>> - snapshot-uri fara numar fara numar, posibilitate de revert si clonare
>> (am testat niste scenarii si am fost multumit)
>>
>> enormul dezavantaj este partea de de-duplicare a datelor, care este
>> implementat cam cu fundul, si care pentru a-l folosi e nevoie de
>> cantitati uriase de memorie (cca 5 GB memorie la 1 TB date alocate); si
>> degeaba pui ssd, ca tot nu o scoti la capat (poate pe viitor vor gandi
>> sa ii faca cumva cache-ul separat pe un ssd ceva, sau o implementare
>> non-realtime, cum e la geamuri); in prezent asa cum e, in marea-marea
>> majoritate a cazurilor nu este fezabil, deci e ca si cum nu ar fi
>>
>> in concluzie, daca pe un server gen web parca nu l-as pune (desi
>> avantajele ar fi multe), in schimb pentru un storage merge brici, deci
>> il pot recomanda cu incredere
>>
>> Alex
>>
>
> Mersi Alex, prezentarea este foarte obiectiva(si cu bune si cu rele).
>
> Am o singura observatie la ce a scris Alex, intradevar partea de deduplicare
> e cam super-nashpa in termeni de performanta, dar totusi da rezultate
> acceptatbile intr-un caz particular: de-deuplicare pe volume relativ
> mici
> de date(2-300 GB) plasate pe SSD-ri.
>
> Si mai mentionez 2 avantaje/posibilitati:
> 1. Posibilitatea de a modifica varianta de redundanta curenta intr-o
> varianta superioara, adaugand HDD-ri suplimentare: am zpool
> mirror(adica raid1)
>   peste 2 HDD-ri, si vreau sa ajung la raidz2, adaugand inca 2 HDD-ri. Este
> perfect posibil(mie mi-a resuit in mai multe ocazii, evident aveam si backup)
> 2. zfs send/receive: am 2 masini diferite zfs-capabile, pot crea un stream de
> pe masina 1 catre masina 2 printr-un pipe de transport gen ssh
> - in felul asta pot face backup de pe 1 pe 2 foarte eficient(incremental de
> exemplu, si pt. asta zfs-ul nu trebuie sa faca ceva gen rsync, adica
> sa calculeze pe moment ce trenuie transmis, zfs-ul are deja stocata
> informatia privind blocurile afectate)
>
>
>
>
>
>
>
>> ___
>> RLUG mailing list
>> RLUG@lists.lug.ro
>> http://lists.lug.ro/mailman/listinfo/rlug
>>
>
>
>
> 
> This message was sent using IMP, the Internet Messaging Program.
>
>
>  ATENTIONARI =
>
> - pentru atasamente tip Office va rugam sa folositi format OFFICE 97;
> - nu trimiteti date personale (CNP, copii dupa acte de identitate etc).
>
>  O lista completa cu reguli de utilizare exista la:
>
> http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106
>
> C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov
> [web-site]: http://www.casbv.ro
> [forum]: http://gw.casbv.ro/forum_smf/index.php
>
> ===

Re: [rlug] Sa imi cumpar alte HDD-uri ?

2014-03-12 Thread Iulian Murgulet
Quoting Alex 'CAVE' Cernat :

> On 3/12/2014 1:05 PM, Iulian Murgulet wrote:
>> Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
>> unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
>> ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
>> Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
>> cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
>> ZFS).
>
> sa zica si 'convertitul' vreo 2 vorbe, avantaje si 'dezavantaje' la zfs
>
> sa incepem cu dezavantajele:
> - nu e in kernel (mama lor de licente); insa folosind zol se compileaza
> relativ usor cu dkms (cel putin pe debian); nu prea imi place sa stiu
> compilator pe servere, dar spre exemplu si la un banal varnish e aceeasi
> cerinta; ca sa fii mai catolic decat papa cred ca merge sa ai o masina
> virtuala ceva in care sa compilezi si sa transferi modulele pe serverul
> de productie
> - consum cam maricel de memorie (pleci de la 3-4 giga doar pentru el)
> - cam multe procese zfs-related pe masina (se poate tuna, momentan mi-a
> fost lene)
> - la ce am avut eu nevoie (backup) performantele au fost asemanatoare cu
> celelalte fs-uri (poate un pic mai lent, dar nu vizibil)
> - desi se poate pune ca root filesystem, eu unul cel putin nu l-as
> folosi, parca e prea rocket science si prea multe chestii care ar putea
> duce la belele (parerea mea)
>
> si acum sa vina avantajele (multe s-au zis, le reiau doar fugitiv, si
> probabil de multe o sa uit)
> - posibilitate de raid; rebuildul doar la datele existente
> - verificare a datelor (realtime si on/offline - nu stiu unde sa trec
> scrub-ul, ca practic se face online cu partitia montata si functionala)
> - gestionare flexibila a spatiului de pe disc, se foloseste la gramada
> (nu mai stai sa te mai gandesti din start ca am nevoie de atat pentru
> proiectul x); ai posibilitatea de garantari si rezervari, in caz ca vrei
> sa lasi spatiu prealocat pentru un mount, sau vrei sa fixezi o limita
> superioara pentru altul
> - compresie onthefly, separat pentru fiecare mount in parte
> - snapshot-uri fara numar fara numar, posibilitate de revert si clonare
> (am testat niste scenarii si am fost multumit)
>
> enormul dezavantaj este partea de de-duplicare a datelor, care este
> implementat cam cu fundul, si care pentru a-l folosi e nevoie de
> cantitati uriase de memorie (cca 5 GB memorie la 1 TB date alocate); si
> degeaba pui ssd, ca tot nu o scoti la capat (poate pe viitor vor gandi
> sa ii faca cumva cache-ul separat pe un ssd ceva, sau o implementare
> non-realtime, cum e la geamuri); in prezent asa cum e, in marea-marea
> majoritate a cazurilor nu este fezabil, deci e ca si cum nu ar fi
>
> in concluzie, daca pe un server gen web parca nu l-as pune (desi
> avantajele ar fi multe), in schimb pentru un storage merge brici, deci
> il pot recomanda cu incredere
>
> Alex
>

Mersi Alex, prezentarea este foarte obiectiva(si cu bune si cu rele).

Am o singura observatie la ce a scris Alex, intradevar partea de deduplicare
e cam super-nashpa in termeni de performanta, dar totusi da rezultate  
acceptatbile intr-un caz particular: de-deuplicare pe volume relativ  
mici
de date(2-300 GB) plasate pe SSD-ri.

Si mai mentionez 2 avantaje/posibilitati:
1. Posibilitatea de a modifica varianta de redundanta curenta intr-o
varianta superioara, adaugand HDD-ri suplimentare: am zpool  
mirror(adica raid1)
  peste 2 HDD-ri, si vreau sa ajung la raidz2, adaugand inca 2 HDD-ri. Este
perfect posibil(mie mi-a resuit in mai multe ocazii, evident aveam si backup)
2. zfs send/receive: am 2 masini diferite zfs-capabile, pot crea un stream de
pe masina 1 catre masina 2 printr-un pipe de transport gen ssh
- in felul asta pot face backup de pe 1 pe 2 foarte eficient(incremental de
exemplu, si pt. asta zfs-ul nu trebuie sa faca ceva gen rsync, adica  
sa calculeze pe moment ce trenuie transmis, zfs-ul are deja stocata  
informatia privind blocurile afectate)







> ___
> RLUG mailing list
> RLUG@lists.lug.ro
> http://lists.lug.ro/mailman/listinfo/rlug
>




This message was sent using IMP, the Internet Messaging Program.


 ATENTIONARI =

- pentru atasamente tip Office va rugam sa folositi format OFFICE 97;
- nu trimiteti date personale (CNP, copii dupa acte de identitate etc).

 O lista completa cu reguli de utilizare exista la:

http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106

C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov
[web-site]: http://www.casbv.ro
[forum]: http://gw.casbv.ro/forum_smf/index.php

==

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Sa imi cumpar alte HDD-uri ?

2014-03-12 Thread Alex 'CAVE' Cernat
On 3/12/2014 1:05 PM, Iulian Murgulet wrote:
> Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
> unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
> ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
> Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
> cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
> ZFS).

sa zica si 'convertitul' vreo 2 vorbe, avantaje si 'dezavantaje' la zfs

sa incepem cu dezavantajele:
- nu e in kernel (mama lor de licente); insa folosind zol se compileaza 
relativ usor cu dkms (cel putin pe debian); nu prea imi place sa stiu 
compilator pe servere, dar spre exemplu si la un banal varnish e aceeasi 
cerinta; ca sa fii mai catolic decat papa cred ca merge sa ai o masina 
virtuala ceva in care sa compilezi si sa transferi modulele pe serverul 
de productie
- consum cam maricel de memorie (pleci de la 3-4 giga doar pentru el)
- cam multe procese zfs-related pe masina (se poate tuna, momentan mi-a 
fost lene)
- la ce am avut eu nevoie (backup) performantele au fost asemanatoare cu 
celelalte fs-uri (poate un pic mai lent, dar nu vizibil)
- desi se poate pune ca root filesystem, eu unul cel putin nu l-as 
folosi, parca e prea rocket science si prea multe chestii care ar putea 
duce la belele (parerea mea)

si acum sa vina avantajele (multe s-au zis, le reiau doar fugitiv, si 
probabil de multe o sa uit)
- posibilitate de raid; rebuildul doar la datele existente
- verificare a datelor (realtime si on/offline - nu stiu unde sa trec 
scrub-ul, ca practic se face online cu partitia montata si functionala)
- gestionare flexibila a spatiului de pe disc, se foloseste la gramada 
(nu mai stai sa te mai gandesti din start ca am nevoie de atat pentru 
proiectul x); ai posibilitatea de garantari si rezervari, in caz ca vrei 
sa lasi spatiu prealocat pentru un mount, sau vrei sa fixezi o limita 
superioara pentru altul
- compresie onthefly, separat pentru fiecare mount in parte
- snapshot-uri fara numar fara numar, posibilitate de revert si clonare 
(am testat niste scenarii si am fost multumit)

enormul dezavantaj este partea de de-duplicare a datelor, care este 
implementat cam cu fundul, si care pentru a-l folosi e nevoie de 
cantitati uriase de memorie (cca 5 GB memorie la 1 TB date alocate); si 
degeaba pui ssd, ca tot nu o scoti la capat (poate pe viitor vor gandi 
sa ii faca cumva cache-ul separat pe un ssd ceva, sau o implementare 
non-realtime, cum e la geamuri); in prezent asa cum e, in marea-marea 
majoritate a cazurilor nu este fezabil, deci e ca si cum nu ar fi

in concluzie, daca pe un server gen web parca nu l-as pune (desi 
avantajele ar fi multe), in schimb pentru un storage merge brici, deci 
il pot recomanda cu incredere

Alex

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Sa imi cumpar alte HDD-uri ?

2014-03-12 Thread Abibula Aygun
Votez si eu tot ZFS si fa backup la matrice pe un alt mediu e tern si
folisrste rsync sa actualizezi datele. Cand pica matricea sa ai de unde lua
datele. Nu are rost ptr un sector sa te hazardezi.
Numai de bine.
În data de 12.03.2014 13:05, "Iulian Murgulet"  a scris:

> Quoting Adrian Sevcenco :
>
> > On 03/10/2014 02:24 PM, Paul Lacatus (Personal) wrote:
> >> Ieri la pornirea unui sistem  am primit doua e-mail-uri  de la Smartd ca
> >> a avut o eroare de citire pe cite un  disc . Discurile sunt parti a unei
> >> matrici raid 5 cu 4 discuri .
> > relativ offtopic : IMHO nu e sanatos sa folosesti raid 5 cind totul se
> > poate duce de ripa la un hdd cazut + o eroare de citire tranzienta.
>
>Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
> unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
> ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
> Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
> cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
> ZFS).
>
>In loc sa ai acest RAID5(habar nu am daca e md-raid sau hardware), te
> poti
> gandi la la ZFS, si pe cele 4 HDD-ri sa pui un ZFS de tip raidz1 sau
> chiar raidz2(cu simpla=z1 sau dubla-z2 informatie de paritate). Deci
> la raidz1 poti sa pierzi un disk si ai datele OK, la raidz2 poti
> pierde 2 discuri, iar la raidz3 poti suptorta 3 discuri picate. Daca
> ai fi avut asa
> ceva era nesemnificativ daca aveai erori pe zona/zonele acoperite de
> ZFS(atata timp cat exista suficienta informatie de paritate). Mai mult
> chiar, ai fi putut determina relativ usor daca sunt si alte sectoare
> care au probleme, iar ZFS-ul le rezolva on-the-fly(in cazul in care
> exista suficienta redundanta de paritate) la citirea acelor sectoare
> cu probleme, sau prin rularea unuei comenzi(zpool scrub) care
> realizeaza verificare intregului pool cu date, si daca gaseste ceva
> probleme te anunta frumos(a gasit X erori si a reparat eventual Y din
> ele, unde Y poate sa fie egal cu X daca exista suficienta informatie
> de paritate).
>
>   Raidz 1/2/3 este de fapt echivalent cun raid6 clasic.
>
>Mai ai si avantajul, ca ceea ce se poate citi fara erori din pool, este
> identic cu ce a fost scris in pool(se scrie un checksum la orice block
> scris in pool, si se verifica acest checksum la orice citire).
>
> > am frecvente (2-3 la citeva luni) rebuilduri la arrayuri raid6 la care
> > am avut 2 discuri cu read error in acelasi timp .. (arrayuri de pina la
> > 15 discuri)
> >
>
>Si eu am trecut cu raidz2(4 discuri) in regim de productie 1 HDD
> picat(model enterprise), dar am stat linistit(pentru ca am fost sigur
> ca probabilitatea sa mai pice inca 2 discuri era f. mica), dupa 3 zile
> am pus alt disk in loc, sa re-sincronizat raid-ul(aici e alt avantaj,
> ca se face sincronizarea DOAR pe partea cu date, nu pe tot HDD-ul sau
> pe toata partitia). Am avut/am si sectoare care sunt raportate cu read
> error(pe alte HDD-ri prinse tot in ZFS), dar in situatia in care sunt
> depistate(la citire date sau la zpool scrub), ele sunt rezolvate de
> ZFS, si asta nu conduce la excluderea vre'unui disk din mirror/raidzX,
> si apoi la re-build de matrice(alt avantaj).
>
>Asta nu inseamna ca nu sunt si dezavantaje  dar de multe ori
> acestea pot fi minimizate.
>
>
>
>
>
>
> > Adrian
> >
> >
>
>
>
> 
> This message was sent using IMP, the Internet Messaging Program.
>
>
>  ATENTIONARI =
>
> - pentru atasamente tip Office va rugam sa folositi format OFFICE 97;
> - nu trimiteti date personale (CNP, copii dupa acte de identitate etc).
>
>  O lista completa cu reguli de utilizare exista la:
>
> http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106
>
> C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov
> [web-site]: http://www.casbv.ro
> [forum]: http://gw.casbv.ro/forum_smf/index.php
>
> ==
>
> ___
> RLUG mailing list
> RLUG@lists.lug.ro
> http://lists.lug.ro/mailman/listinfo/rlug
>
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug


Re: [rlug] Sa imi cumpar alte HDD-uri ?

2014-03-12 Thread Iulian Murgulet
Quoting Adrian Sevcenco :

> On 03/10/2014 02:24 PM, Paul Lacatus (Personal) wrote:
>> Ieri la pornirea unui sistem  am primit doua e-mail-uri  de la Smartd ca
>> a avut o eroare de citire pe cite un  disc . Discurile sunt parti a unei
>> matrici raid 5 cu 4 discuri .
> relativ offtopic : IMHO nu e sanatos sa folosesti raid 5 cind totul se
> poate duce de ripa la un hdd cazut + o eroare de citire tranzienta.

   Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate  
unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre  
ZFS(facand abstratie de peisajul in care opereaza acel RAID5).  
Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta  
cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la  
ZFS).

   In loc sa ai acest RAID5(habar nu am daca e md-raid sau hardware), te poti
gandi la la ZFS, si pe cele 4 HDD-ri sa pui un ZFS de tip raidz1 sau  
chiar raidz2(cu simpla=z1 sau dubla-z2 informatie de paritate). Deci  
la raidz1 poti sa pierzi un disk si ai datele OK, la raidz2 poti  
pierde 2 discuri, iar la raidz3 poti suptorta 3 discuri picate. Daca  
ai fi avut asa
ceva era nesemnificativ daca aveai erori pe zona/zonele acoperite de  
ZFS(atata timp cat exista suficienta informatie de paritate). Mai mult  
chiar, ai fi putut determina relativ usor daca sunt si alte sectoare  
care au probleme, iar ZFS-ul le rezolva on-the-fly(in cazul in care  
exista suficienta redundanta de paritate) la citirea acelor sectoare  
cu probleme, sau prin rularea unuei comenzi(zpool scrub) care  
realizeaza verificare intregului pool cu date, si daca gaseste ceva  
probleme te anunta frumos(a gasit X erori si a reparat eventual Y din  
ele, unde Y poate sa fie egal cu X daca exista suficienta informatie  
de paritate).

  Raidz 1/2/3 este de fapt echivalent cun raid6 clasic.

   Mai ai si avantajul, ca ceea ce se poate citi fara erori din pool, este
identic cu ce a fost scris in pool(se scrie un checksum la orice block  
scris in pool, si se verifica acest checksum la orice citire).

> am frecvente (2-3 la citeva luni) rebuilduri la arrayuri raid6 la care
> am avut 2 discuri cu read error in acelasi timp .. (arrayuri de pina la
> 15 discuri)
>

   Si eu am trecut cu raidz2(4 discuri) in regim de productie 1 HDD  
picat(model enterprise), dar am stat linistit(pentru ca am fost sigur  
ca probabilitatea sa mai pice inca 2 discuri era f. mica), dupa 3 zile  
am pus alt disk in loc, sa re-sincronizat raid-ul(aici e alt avantaj,  
ca se face sincronizarea DOAR pe partea cu date, nu pe tot HDD-ul sau  
pe toata partitia). Am avut/am si sectoare care sunt raportate cu read  
error(pe alte HDD-ri prinse tot in ZFS), dar in situatia in care sunt  
depistate(la citire date sau la zpool scrub), ele sunt rezolvate de  
ZFS, si asta nu conduce la excluderea vre'unui disk din mirror/raidzX,  
si apoi la re-build de matrice(alt avantaj).

   Asta nu inseamna ca nu sunt si dezavantaje  dar de multe ori  
acestea pot fi minimizate.






> Adrian
>
>




This message was sent using IMP, the Internet Messaging Program.


 ATENTIONARI =

- pentru atasamente tip Office va rugam sa folositi format OFFICE 97;
- nu trimiteti date personale (CNP, copii dupa acte de identitate etc).

 O lista completa cu reguli de utilizare exista la:

http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106

C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov
[web-site]: http://www.casbv.ro
[forum]: http://gw.casbv.ro/forum_smf/index.php

==

___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug