Votez si eu tot ZFS si fa backup la matrice pe un alt mediu e tern si
folisrste rsync sa actualizezi datele. Cand pica matricea sa ai de unde lua
datele. Nu are rost ptr un sector sa te hazardezi.
Numai de bine.
În data de 12.03.2014 13:05, "Iulian Murgulet" <gul...@casbv.ro> a scris:

> Quoting Adrian Sevcenco <adrian.sevce...@cern.ch>:
>
> > On 03/10/2014 02:24 PM, Paul Lacatus (Personal) wrote:
> >> Ieri la pornirea unui sistem  am primit doua e-mail-uri  de la Smartd ca
> >> a avut o eroare de citire pe cite un  disc . Discurile sunt parti a unei
> >> matrici raid 5 cu 4 discuri .
> > relativ offtopic : IMHO nu e sanatos sa folosesti raid 5 cind totul se
> > poate duce de ripa la un hdd cazut + o eroare de citire tranzienta.
>
>    Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate
> unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre
> ZFS(facand abstratie de peisajul in care opereaza acel RAID5).
> Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta
> cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la
> ZFS).
>
>    In loc sa ai acest RAID5(habar nu am daca e md-raid sau hardware), te
> poti
> gandi la la ZFS, si pe cele 4 HDD-ri sa pui un ZFS de tip raidz1 sau
> chiar raidz2(cu simpla=z1 sau dubla-z2 informatie de paritate). Deci
> la raidz1 poti sa pierzi un disk si ai datele OK, la raidz2 poti
> pierde 2 discuri, iar la raidz3 poti suptorta 3 discuri picate. Daca
> ai fi avut asa
> ceva era nesemnificativ daca aveai erori pe zona/zonele acoperite de
> ZFS(atata timp cat exista suficienta informatie de paritate). Mai mult
> chiar, ai fi putut determina relativ usor daca sunt si alte sectoare
> care au probleme, iar ZFS-ul le rezolva on-the-fly(in cazul in care
> exista suficienta redundanta de paritate) la citirea acelor sectoare
> cu probleme, sau prin rularea unuei comenzi(zpool scrub) care
> realizeaza verificare intregului pool cu date, si daca gaseste ceva
> probleme te anunta frumos(a gasit X erori si a reparat eventual Y din
> ele, unde Y poate sa fie egal cu X daca exista suficienta informatie
> de paritate).
>
>   Raidz 1/2/3 este de fapt echivalent cun raid6 clasic.
>
>    Mai ai si avantajul, ca ceea ce se poate citi fara erori din pool, este
> identic cu ce a fost scris in pool(se scrie un checksum la orice block
> scris in pool, si se verifica acest checksum la orice citire).
>
> > am frecvente (2-3 la citeva luni) rebuilduri la arrayuri raid6 la care
> > am avut 2 discuri cu read error in acelasi timp .. (arrayuri de pina la
> > 15 discuri)
> >
>
>    Si eu am trecut cu raidz2(4 discuri) in regim de productie 1 HDD
> picat(model enterprise), dar am stat linistit(pentru ca am fost sigur
> ca probabilitatea sa mai pice inca 2 discuri era f. mica), dupa 3 zile
> am pus alt disk in loc, sa re-sincronizat raid-ul(aici e alt avantaj,
> ca se face sincronizarea DOAR pe partea cu date, nu pe tot HDD-ul sau
> pe toata partitia). Am avut/am si sectoare care sunt raportate cu read
> error(pe alte HDD-ri prinse tot in ZFS), dar in situatia in care sunt
> depistate(la citire date sau la zpool scrub), ele sunt rezolvate de
> ZFS, si asta nu conduce la excluderea vre'unui disk din mirror/raidzX,
> si apoi la re-build de matrice(alt avantaj).
>
>    Asta nu inseamna ca nu sunt si dezavantaje .... dar de multe ori
> acestea pot fi minimizate.
>
>
>
>
>
>
> > Adrian
> >
> >
>
>
>
> ----------------------------------------------------------------
> This message was sent using IMP, the Internet Messaging Program.
>
>
> ================================ ATENTIONARI =============================
>
> - pentru atasamente tip Office va rugam sa folositi format OFFICE 97;
> - nu trimiteti date personale (CNP, copii dupa acte de identitate etc).
>
>  O lista completa cu reguli de utilizare exista la:
>
> http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106
>
> C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov
> [web-site]: http://www.casbv.ro
> [forum]: http://gw.casbv.ro/forum_smf/index.php
>
> ==========================================================================
>
> _______________________________________________
> RLUG mailing list
> RLUG@lists.lug.ro
> http://lists.lug.ro/mailman/listinfo/rlug
>
_______________________________________________
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug

Reply via email to