Em 15/10/2011 20:23, Paulo Henrique BSD Brasil escreveu: > Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que > disponibilizar suporte a GPT assim como o loader do sistema tambem, > Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos > recentemente só poderá ser usados em placas sandy-bridge. > Para mais informação: > http://www.rodsbooks.com/gdisk/booting.html
Opa essa é uma excelente informação Paulo. Bom saber para não comprar errado. > At.t. > Em 15/10/2011 19:57, Marcelo Gondim escreveu: >> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: >>> Buenas Marcelo !!! >>> >>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas >>> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, >>> mas até algum tempo atras não estava estavel (falo isso mas eu não sei >>> como esta o estado dele hoje). >> Opa Luiz, >> >> É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem >> 12Gb de ram então é de boa. >> Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos >> para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela >> dica do RaidZ. >> >>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 >>> no ports, sinceramente nunca usei, mas pode-se testar: >>> >>> [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr >>> FreeBSD GEOM class for RAID5. >>> >>> This is RAID5 geom class, originally written by Arne Worner >>> <arne_woer...@yahoo.com> >>> >>> WWW: http://lev.serebryakov.spb.ru/download/graid5/ >>> >>> Abraços >>> >>> >>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gon...@bsdinfo.com.br> >>> escreveu: >>> >>>> Olá Pesssoal, >>>> >>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 >>>> com eles. Usei o gvinum: >>>> >>>> drive r0 device /dev/ad12a >>>> drive r1 device /dev/ad14a >>>> drive r2 device /dev/ad16a >>>> drive r3 device /dev/ad18a >>>> volume raid5 >>>> plex org raid5 512k >>>> sd drive r0 >>>> sd drive r1 >>>> sd drive r2 >>>> sd drive r3 >>>> >>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 >>>> ou existe alguma outra forma melhor no FreeBSD? >>>> Uma outra coisa que aparece no boot é essa mensagem: >>>> >>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. >>>> gvinum/raid5[READ(offset=1500321938944, length=512)] >>>> >>>> Mas parece que está tudo funcionando: >>>> >>>> gvinum -> printconfig >>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 >>>> 14:48:59 2011 >>>> drive r0 device /dev/ad12a >>>> drive r1 device /dev/ad14a >>>> drive r2 device /dev/ad16a >>>> drive r3 device /dev/ad18a >>>> volume raid5 >>>> plex name raid5.p0 org raid5 1024s vol raid5 >>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex >>>> raid5.p0 plexoffset 0s >>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex >>>> raid5.p0 plexoffset 1024s >>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex >>>> raid5.p0 plexoffset 2048s >>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex >>>> raid5.p0 plexoffset 3072s >>>> >>>> gvinum -> l >>>> 4 drives: >>>> D r0 State: up /dev/ad12a A: 0/476939 MB >>>> (0%) >>>> D r1 State: up /dev/ad14a A: 0/476939 MB >>>> (0%) >>>> D r2 State: up /dev/ad16a A: 0/476939 MB >>>> (0%) >>>> D r3 State: up /dev/ad18a A: 0/476939 MB >>>> (0%) >>>> >>>> 1 volume: >>>> V raid5 State: up Plexes: 1 Size: 1397 >>>> GB >>>> >>>> 1 plex: >>>> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 >>>> GB >>>> >>>> 4 subdisks: >>>> S raid5.p0.s0 State: up D: r0 Size: 465 >>>> GB >>>> S raid5.p0.s1 State: up D: r1 Size: 465 >>>> GB >>>> S raid5.p0.s2 State: up D: r2 Size: 465 >>>> GB >>>> S raid5.p0.s3 State: up D: r3 Size: 465 >>>> GB >>>> >>>> Essa mensagem de erro no boot é normal? >>>> >>>> Grande abraço à todos >>>> ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd