Quoting Adrian Sevcenco <adrian.sevce...@cern.ch>: > On 03/10/2014 02:24 PM, Paul Lacatus (Personal) wrote: >> Ieri la pornirea unui sistem am primit doua e-mail-uri de la Smartd ca >> a avut o eroare de citire pe cite un disc . Discurile sunt parti a unei >> matrici raid 5 cu 4 discuri . > relativ offtopic : IMHO nu e sanatos sa folosesti raid 5 cind totul se > poate duce de ripa la un hdd cazut + o eroare de citire tranzienta.
Subscriu si eu la asta, si adaug tot offtopic, chiar daca poate unii o sa ma "ciufuleasca" din nou, dar o sa pomenesc din nou despre ZFS(facand abstratie de peisajul in care opereaza acel RAID5). Evident, daca doresti detalii pentru cazul tau concret, te pot ajuta cu mai multe(mai ales ca am reusit sa convertesc un alt co-listas la ZFS). In loc sa ai acest RAID5(habar nu am daca e md-raid sau hardware), te poti gandi la la ZFS, si pe cele 4 HDD-ri sa pui un ZFS de tip raidz1 sau chiar raidz2(cu simpla=z1 sau dubla-z2 informatie de paritate). Deci la raidz1 poti sa pierzi un disk si ai datele OK, la raidz2 poti pierde 2 discuri, iar la raidz3 poti suptorta 3 discuri picate. Daca ai fi avut asa ceva era nesemnificativ daca aveai erori pe zona/zonele acoperite de ZFS(atata timp cat exista suficienta informatie de paritate). Mai mult chiar, ai fi putut determina relativ usor daca sunt si alte sectoare care au probleme, iar ZFS-ul le rezolva on-the-fly(in cazul in care exista suficienta redundanta de paritate) la citirea acelor sectoare cu probleme, sau prin rularea unuei comenzi(zpool scrub) care realizeaza verificare intregului pool cu date, si daca gaseste ceva probleme te anunta frumos(a gasit X erori si a reparat eventual Y din ele, unde Y poate sa fie egal cu X daca exista suficienta informatie de paritate). Raidz 1/2/3 este de fapt echivalent cun raid6 clasic. Mai ai si avantajul, ca ceea ce se poate citi fara erori din pool, este identic cu ce a fost scris in pool(se scrie un checksum la orice block scris in pool, si se verifica acest checksum la orice citire). > am frecvente (2-3 la citeva luni) rebuilduri la arrayuri raid6 la care > am avut 2 discuri cu read error in acelasi timp .. (arrayuri de pina la > 15 discuri) > Si eu am trecut cu raidz2(4 discuri) in regim de productie 1 HDD picat(model enterprise), dar am stat linistit(pentru ca am fost sigur ca probabilitatea sa mai pice inca 2 discuri era f. mica), dupa 3 zile am pus alt disk in loc, sa re-sincronizat raid-ul(aici e alt avantaj, ca se face sincronizarea DOAR pe partea cu date, nu pe tot HDD-ul sau pe toata partitia). Am avut/am si sectoare care sunt raportate cu read error(pe alte HDD-ri prinse tot in ZFS), dar in situatia in care sunt depistate(la citire date sau la zpool scrub), ele sunt rezolvate de ZFS, si asta nu conduce la excluderea vre'unui disk din mirror/raidzX, si apoi la re-build de matrice(alt avantaj). Asta nu inseamna ca nu sunt si dezavantaje .... dar de multe ori acestea pot fi minimizate. > Adrian > > ---------------------------------------------------------------- This message was sent using IMP, the Internet Messaging Program. ================================ ATENTIONARI ============================= - pentru atasamente tip Office va rugam sa folositi format OFFICE 97; - nu trimiteti date personale (CNP, copii dupa acte de identitate etc). O lista completa cu reguli de utilizare exista la: http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106 C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov [web-site]: http://www.casbv.ro [forum]: http://gw.casbv.ro/forum_smf/index.php ========================================================================== _______________________________________________ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug