Em Thu, 13 Nov 2008 10:10:42 -0200
Welington R. Braga [EMAIL PROTECTED] escreveu:
Opa, adaptando o que vc sugeriu acho que no meu caso ficaria assim:
/dev/sda1 (128MB) + /dev/sdb1 (128MB)= /dev/md0
/dev/sda2 (o restante) + /dev/sdb2 (o restante)= /dev/md1
/dev/sdc1 (todo o disco) + /dev/sdd1 (todo o disco) = /dev/md2
- -
/dev/md0 = /boot
/dev/md1 + /dev/md2 = LVM (grupo contendo todos os volumes que
preciso)
O que acha?
Acho que pode ser assim.
O grub está instalado em /dev/sda e em /dev/sdb. No menu.lst use a
opção fallback. Se não me engano, o grub não entende LVM, por isso
você deve colocar o /boot fora do LVM.
Não entendi essa colocação. E o link que passei[1] no primeiro e-mail
que indica a inclusão das linhas insmod lvm e insmod raid no
arquivo de configuração do grub?
Não seria este o fim delas? talvez esteja descrito errado no tal link,
como por exemplo o RAID só passou a ser reconhecido quando mudei o
insmod raid para insmod raid1 (observe o 1), já que este era
especificamente o módulo que precisava. No caso do LVM pode ser que o
módulo tenha outro nome, ou mesmo não esteja nem compilado no Debian
Etch.
Eu pensava que o grub não entendesse LVM, mas pelo jeito entende. Já
conferiu se a versão do grub que você está usando já tem suporte a LVM?
No link citado diz que tem a partir da versão 1.95, mas no Etch a
versão é a 0.97 (será isso?).
De qualquer forma vou seguir a sugestão de colocar o /boot fora do LVM
já que este está sendo o meu problema atual e ainda tenho tempo
brincar com o servidor. Quando ele estiver realmente em produção ai
eu já terei que trabalhar sério e saber exatamente como resolver estes
problemas sem deixar a máquina offline muito tempo.
Aproveite agora :-) Nos relate os resultados.
A propósito, como tem sido a performance do sistema com esta
configuração? Há uma degradação de performance muito notável? e quanto
aos problemas reais, você já necessitou fazer a troca de algum disco?
O procedimento foi muito trabalhoso?
Quanto ao desempenho do sistema, não fiz testes _com_ e _sem_ a
configuração em questão, para poder comparar. Mas estou satisfeito, está
atendendo as necessidades.
Pergunto pelo procedimento pelo seguinte: Eu fiz uma simulação de
pane, onde saquei o sdb da máquina (após um shutdown, é claro, a
máquin não é hotswap) ao ligar a máquina o sdd assumiu a posição do
sdb, ou seja o md0 ficou degradado e com um HD (como era de se
esperar), pois eu tinha removido para simular a falha, e o md1 ficou
com um HD já que o sdd foi renomeado para sdb. Nada demais até que eu
coloquei o antigo sdb no local, refiz o particionamento e o inclui no
RAID outra vez. No boot seguinte o sistema reclamava de erro no meu
grupo de volumes LVM por conta dos malditos UUID que até hoje só
serviram para atrapalhar minha vida. Após um ritual macabro com discos
de recuperação e vários textos sobre recuperação do UUID perdido no
LVM consegui iniciar o servidor normalmente.
Até agora nenhum disco falhou de verdade. Simulei uma falha com o mdadm
--set-faulty, mas não tive problemas com a ordem de reconhecimento dos
discos (só não me lembro se cheguei a remover fisicamente o disco, ou
se não deu problema porque eram apenas dois discos). Depois reativei o
disco com o mdadm e o RAID1 sincronizou os dois discos.
ps: Aproveite as férias. Essa vida de sysadmin que fica monitorando
servidores de casa, só serve pra morrermos mais cedo :)
Pena que as férias acabam logo :-)
--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]