Re: Grub con UEFI in RAID1
On Fri, Feb 16, 2018 at 11:26:48AM +0100, Piviul wrote: > Il 16/02/2018 11:06, Gollum1 ha scritto: > > [...] > > È proprio questo che intendevo, una volta che sei in raid 1, ci pensa il > > raid a sincronizzare le partizioni, ti fai l'installazione su md0 e vivi > > tranquillo > > > E ritorniamo a bomba: vale la pena mettere in raid la partizione EFI? > > Secondo me no perché basta lanciare la prima volta un grub-install sui > dischi che si vogliono come "backup" di boot e ridare lo stesso comando > quando viene aggiornato grub il che avviene molto di rado. > > Inoltre siccome la partizione EFI contiene anche tutte le informazioni sul > partizionamento del disco, la si può mettere in RAID soltanto se i dischi > sono identici e identicamente partizionati. > > Infine siccome non se ne è mai sentita l'esigenza sui dischi non EFI con il > vecchio settore di boot per intenderci, non vedo perché adesso, solo perché > lo si possa fare debba essere consigliato il farlo... > > Ma temo che qualcosa mi sfugga... E' una questione di simmetrie.. :) Scherzi a parte, alla fine è solo una questione di gusti, credo. Ma magari vista la facilità della soluzione (alla fine basta passare un'opzione a mdadm), potrebbe essere integrata nell'installer debian.
Re: Grub con UEFI in RAID1
Il 16/02/2018 11:06, Gollum1 ha scritto: [...] È proprio questo che intendevo, una volta che sei in raid 1, ci pensa il raid a sincronizzare le partizioni, ti fai l'installazione su md0 e vivi tranquillo E ritorniamo a bomba: vale la pena mettere in raid la partizione EFI? Secondo me no perché basta lanciare la prima volta un grub-install sui dischi che si vogliono come "backup" di boot e ridare lo stesso comando quando viene aggiornato grub il che avviene molto di rado. Inoltre siccome la partizione EFI contiene anche tutte le informazioni sul partizionamento del disco, la si può mettere in RAID soltanto se i dischi sono identici e identicamente partizionati. Infine siccome non se ne è mai sentita l'esigenza sui dischi non EFI con il vecchio settore di boot per intenderci, non vedo perché adesso, solo perché lo si possa fare debba essere consigliato il farlo... Ma temo che qualcosa mi sfugga... Piviul
Re: Grub con UEFI in RAID1
Il February 16, 2018 9:39:18 AM UTC, Piviulha scritto: > > >sembra che tu abbia la possibilità[¹] di mettere anche la partizione di > >boot EFI in raid... > > >[¹] https://lars.st0ne.at/blog/efi+partition+on+software+raid+1 È proprio questo che intendevo, una volta che sei in raid 1, ci pensa il raid a sincronizzare le partizioni, ti fai l'installazione su md0 e vivi tranquillo -- Gollum1 Tesssoro, dov'è il mio tesssoro... Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori (maledetto correttore automatico).
Re: Grub con UEFI in RAID1
Il 16/02/2018 10:13, Gollum1 ha scritto: [...] Ora non vorrei dire una stronzata, ma se non ricordo male, in passato ho messo due dischi in raid1, e successivamente ho fatto le partizioni, quindi anche la partizione uefi era in raid 1. Trattavo tutto come fosse un unico disco attraverso md0, e tolto un disco, l'altro partiva tranquillamente. L'ho fatto solo su una macchina, è un bel po' di tempo fa, poi sulle macchine successive ho sempre litigato in malo modo con uefi, e comunque non ho più fatto macchine in raid1. Questo per dire che quello che ricordo è un po' nebuloso, ma sono convinto di aver fatto il raid completo. ti ricordi male; se hai fatto il raid della partizione EFI dovresti ricordartelo perché non è cosa normale. Ma se non si è in presenza di EFI in ogni caso si ha lo stesso problema: devi installare grub sul settore di boot di ohni disco altrimenti quando cambi disco di boot il sistema non parte. Con EFI non hai il settore di boot ma la partizione di boot e devi sempre fare un grub-install sui dischi che vuoi che possano essere selezionati come dischi di boot in caso di guasto del disco di boot... almeno da quel che credo di sapere ;) Quindi con EFI o senza EFI è esattamente la stessa cosa... con EFI però sembra che tu abbia la possibilità[¹] di mettere anche la partizione di boot EFI in raid... Ciao Piviul [¹] https://lars.st0ne.at/blog/efi+partition+on+software+raid+1
Re: Grub con UEFI in RAID1
Il February 16, 2018 8:21:40 AM UTC, Piviul <piv...@riminilug.it> ha scritto: >Il 16/02/2018 09:14, Gollum1 ha scritto: >> Il February 15, 2018 8:24:37 AM UTC, Piviul <piv...@riminilug.it> ha >scritto: >>> Il 14/02/2018 20:55, Mattia Oss ha scritto: >>> ed è quello che dicevo: non è sufficiente effettuare un grub-install >>> sui >>> dischi non di boot? >>> >> >> Non riesco a capire il senso di tutto ciò... >> Se stai lavorando con i dischi in gpt e uefi, la macchina cerca di >partire dalla partizione uefi del disco indicato come primario, e >quindi tutto funziona regolarmente. >> >> Se sei in raid 1, non c'è necessità di procurarsi di aggiornare la >partizione uefi del secondario, ci pensa in autonomia il raid a >sincronizzare i due dischi, altrimenti che raid è? >ma se la partizione UEFI non è in raid (come normalmente avviene) e >sostituisci ildisco di boot il sistema non parte più perché nella >partizione UEFI oltre alle informazioni delle partizioni c'è il settore > >di avvio di grub. Se non fai un grub-install anche sugli altri dischi >non potrai fare il boot da quei dischi... almeno non mi risulta. > >Ciao > >Piviul Ora non vorrei dire una stronzata, ma se non ricordo male, in passato ho messo due dischi in raid1, e successivamente ho fatto le partizioni, quindi anche la partizione uefi era in raid 1. Trattavo tutto come fosse un unico disco attraverso md0, e tolto un disco, l'altro partiva tranquillamente. L'ho fatto solo su una macchina, è un bel po' di tempo fa, poi sulle macchine successive ho sempre litigato in malo modo con uefi, e comunque non ho più fatto macchine in raid1. Questo per dire che quello che ricordo è un po' nebuloso, ma sono convinto di aver fatto il raid completo. -- Gollum1 Tesssoro, dov'è il mio tesssoro... Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori (maledetto correttore automatico).
Re: Grub con UEFI in RAID1
Il 16/02/2018 09:14, Gollum1 ha scritto: Il February 15, 2018 8:24:37 AM UTC, Piviulha scritto: Il 14/02/2018 20:55, Mattia Oss ha scritto: ed è quello che dicevo: non è sufficiente effettuare un grub-install sui dischi non di boot? Non riesco a capire il senso di tutto ciò... Se stai lavorando con i dischi in gpt e uefi, la macchina cerca di partire dalla partizione uefi del disco indicato come primario, e quindi tutto funziona regolarmente. Se sei in raid 1, non c'è necessità di procurarsi di aggiornare la partizione uefi del secondario, ci pensa in autonomia il raid a sincronizzare i due dischi, altrimenti che raid è? ma se la partizione UEFI non è in raid (come normalmente avviene) e sostituisci ildisco di boot il sistema non parte più perché nella partizione UEFI oltre alle informazioni delle partizioni c'è il settore di avvio di grub. Se non fai un grub-install anche sugli altri dischi non potrai fare il boot da quei dischi... almeno non mi risulta. Ciao Piviul
Re: Grub con UEFI in RAID1
Il February 15, 2018 8:24:37 AM UTC, Piviulha scritto: >Il 14/02/2018 20:55, Mattia Oss ha scritto: >ed è quello che dicevo: non è sufficiente effettuare un grub-install >sui >dischi non di boot? > Non riesco a capire il senso di tutto ciò... Se stai lavorando con i dischi in gpt e uefi, la macchina cerca di partire dalla partizione uefi del disco indicato come primario, e quindi tutto funziona regolarmente. Se sei in raid 1, non c'è necessità di procurarsi di aggiornare la partizione uefi del secondario, ci pensa in autonomia il raid a sincronizzare i due dischi, altrimenti che raid è? Se crei un raid, non lavorerai più sui dischi /dev/sdX, ma sul disco /dev/md0 Byez -- Gollum1 Tesssoro, dov'è il mio tesssoro... Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori (maledetto correttore automatico).
Re: Grub con UEFI in RAID1
Il 02/16/18 02:23, Mattia Oss ha scritto: On Thu, Feb 15, 2018 at 09:24:37AM +0100, Piviul wrote: "...che hai in /etc/fstab"??? veramente AFAIK se lanci il comando grub-install /dev/sdb aggiorni la partizione di boot EFI del disco sdb no? Probabilmente si, ma non sono in grado di confermare. Tu me lo stai dicendo o me lo stai chiedendo? no lo stavo dando per scontato... da quel che ne so io è grub-install che aggiorna la partizione EFi di boot. Ora non posso provare ma sono sicuro di averlo anche verificato in passato... Piviul
Re: Grub con UEFI in RAID1
Il 14/02/2018 20:55, Mattia Oss ha scritto: On Wed, Feb 14, 2018 at 12:01:26PM +0100, Piviul wrote: Mi sono un po' perso... non è sufficiente altrimenti ricordarsi di eseguire un grub-install sui dischi che compongono il raid ogni volta che si cambia la configurazione di grub? si ma grub-install aggiornerà solo la partizione efi che hai in /etc/fstab. Se ti muore il disco in cui c'è questa partizione, l'altro non sarà aggiornato e quindi probabilmente non partirà. "...che hai in /etc/fstab"??? veramente AFAIK se lanci il comando grub-install /dev/sdb aggiorni la partizione di boot EFI del disco sdb no? Tutto questo ammesso che la partizione efi venga effettivamente modificata ogni qual volta si cambia la configurazione di grub, cosa che dubito. Ma prima o poi verrà modificata (aggiornamento di grub?). ed è quello che dicevo: non è sufficiente effettuare un grub-install sui dischi non di boot? Piviul
Re: Grub con UEFI in RAID1
On Wed, Feb 14, 2018 at 12:01:26PM +0100, Piviul wrote: > Mi sono un po' perso... non è sufficiente altrimenti ricordarsi di eseguire > un grub-install sui dischi che compongono il raid ogni volta che si cambia > la configurazione di grub? si ma grub-install aggiornerà solo la partizione efi che hai in /etc/fstab. Se ti muore il disco in cui c'è questa partizione, l'altro non sarà aggiornato e quindi probabilmente non partirà. Tutto questo ammesso che la partizione efi venga effettivamente modificata ogni qual volta si cambia la configurazione di grub, cosa che dubito. Ma prima o poi verrà modificata (aggiornamento di grub?). Mattia
Re: Grub con UEFI in RAID1
Il 13/02/2018 22:06, Mattia Oss ha scritto: On Wed, Feb 07, 2018 at 02:24:37PM +0100, gerlos wrote: [...] Se qualcuno fosse interessato, mi sono imbattuto per caso su questo articolo che spiega come fare per avere la partizione efi in raid: https://lars.st0ne.at/blog/efi+partition+on+software+raid+1 In pratica, si fa l'installazione creando le partizioni efi senza metterle in raid. Poi, a sistema installato, si crea un array RAID1 di queste partizioni passando l'opzione --metadata=1.0. Un po' scomodo, ma meglio di niente. Mi sono un po' perso... non è sufficiente altrimenti ricordarsi di eseguire un grub-install sui dischi che compongono il raid ogni volta che si cambia la configurazione di grub? Piviul
Re: Grub con UEFI in RAID1
On Wed, Feb 07, 2018 at 02:24:37PM +0100, gerlos wrote: > > > Il giorno 06 feb 2018, alle ore 20:11, Mattia Oss <mais.to...@gmail.com> ha > > scritto: > > > > On Tue, Feb 06, 2018 at 04:15:57PM +0100, Lorenzo "Palinuro" Faletra wrote: > >> posso confermare che la esp non può essere messa in raid > > > > Da come mi avevi risposto nella prima mi sembravi sicuro del contrario. > > Penso anch’io che la ESP non possa essere messa in RAID. > Sicuramente non in un RAID software linux, visto che il firmware del computer > ne ha bisogno per fare il boot. Se qualcuno fosse interessato, mi sono imbattuto per caso su questo articolo che spiega come fare per avere la partizione efi in raid: https://lars.st0ne.at/blog/efi+partition+on+software+raid+1 In pratica, si fa l'installazione creando le partizioni efi senza metterle in raid. Poi, a sistema installato, si crea un array RAID1 di queste partizioni passando l'opzione --metadata=1.0. Un po' scomodo, ma meglio di niente.
Re: Grub con UEFI in RAID1
On 02/07/2018 02:24 PM, gerlos wrote: > In casi come questi, io prenderei un piccolo SSD (ormai i tagli piccoli hanno > costi irrisori), su cui metterei la ESP e /boot. Il resto del sistema lo > metterei sul RAID. Questo drive verrebbe usato quasi sempre in sola lettura, > quindi penso sia ragionevole considerare molto bassa la probabilità di > guasti. > > Lo spazio rimanente sul SSD si potrebbe usare anche per un sistema live > (Debian, System Rescue CD, ...) che potrebbe essere utile in caso di > emergenza, o se dovesse essere necessario ripartizionare i dischi di sistema. aggiungo un bello carrico presentandovi il progetto bcache [1], sostanzialmente l'ssd lo si può usare come IO cache per lo storage classico per velocizzare l'accesso ai blocchi dei dischi meccanici piu usati con un meccanismo del tutto simile a quello della componente flash degli SSHD [1]: https://bcache.evilpiepirate.org/
Re: Grub con UEFI in RAID1
> Il giorno 06 feb 2018, alle ore 20:11, Mattia Ossha > scritto: > > On Tue, Feb 06, 2018 at 04:15:57PM +0100, Lorenzo "Palinuro" Faletra wrote: >> posso confermare che la esp non può essere messa in raid > > Da come mi avevi risposto nella prima mi sembravi sicuro del contrario. Penso anch’io che la ESP non possa essere messa in RAID. Sicuramente non in un RAID software linux, visto che il firmware del computer ne ha bisogno per fare il boot. > >> una soluzione che adotto sui miei server è di creare una partizione >> fat12/fat16/fat32 con flag esp su tutti i dischi del raid di boot. >> ovviamente solo una cartella farà da master, e solo una verrà tenuta >> aggiornata dagli update di grub, così ho fatto in modo che fstab mi >> monti /boot/efi, /boot/efi1, /boot/efi2 e così via, e che uno script di >> post-aggiornamento di grub vada a lanciare un rsync che tenga il tutto >> sempre aggiornato tra le varie cartelle > > Stavo pensando anch'io ad impostare qualcosa di simile. > > >> dato che non so se grub supporti il raid e non ho avuto tempo per >> sperimentare (e non sono il tipo che chiede), ho fatto la stessa cosa >> anche per la partizione di boot, montandomi /boot, /boot1, /boot2 ecc, e >> facendo uno script di post-aggiornamento con rsync simile al primo > > Ti posso confermare che la partizione /boot può essere messa in raid. > Confermo anche io: /boot può essere messa in RAID. In casi come questi, io prenderei un piccolo SSD (ormai i tagli piccoli hanno costi irrisori), su cui metterei la ESP e /boot. Il resto del sistema lo metterei sul RAID. Questo drive verrebbe usato quasi sempre in sola lettura, quindi penso sia ragionevole considerare molto bassa la probabilità di guasti. Lo spazio rimanente sul SSD si potrebbe usare anche per un sistema live (Debian, System Rescue CD, ...) che potrebbe essere utile in caso di emergenza, o se dovesse essere necessario ripartizionare i dischi di sistema. saluti, gerlos
Re: Grub con UEFI in RAID1
On Tue, Feb 06, 2018 at 04:15:57PM +0100, Lorenzo "Palinuro" Faletra wrote: > posso confermare che la esp non può essere messa in raid Da come mi avevi risposto nella prima mi sembravi sicuro del contrario. > una soluzione che adotto sui miei server è di creare una partizione > fat12/fat16/fat32 con flag esp su tutti i dischi del raid di boot. > ovviamente solo una cartella farà da master, e solo una verrà tenuta > aggiornata dagli update di grub, così ho fatto in modo che fstab mi > monti /boot/efi, /boot/efi1, /boot/efi2 e così via, e che uno script di > post-aggiornamento di grub vada a lanciare un rsync che tenga il tutto > sempre aggiornato tra le varie cartelle Stavo pensando anch'io ad impostare qualcosa di simile. > dato che non so se grub supporti il raid e non ho avuto tempo per > sperimentare (e non sono il tipo che chiede), ho fatto la stessa cosa > anche per la partizione di boot, montandomi /boot, /boot1, /boot2 ecc, e > facendo uno script di post-aggiornamento con rsync simile al primo Ti posso confermare che la partizione /boot può essere messa in raid.
Re: Grub con UEFI in RAID1
posso confermare che la esp non può essere messa in raid una soluzione che adotto sui miei server è di creare una partizione fat12/fat16/fat32 con flag esp su tutti i dischi del raid di boot. ovviamente solo una cartella farà da master, e solo una verrà tenuta aggiornata dagli update di grub, così ho fatto in modo che fstab mi monti /boot/efi, /boot/efi1, /boot/efi2 e così via, e che uno script di post-aggiornamento di grub vada a lanciare un rsync che tenga il tutto sempre aggiornato tra le varie cartelle dato che non so se grub supporti il raid e non ho avuto tempo per sperimentare (e non sono il tipo che chiede), ho fatto la stessa cosa anche per la partizione di boot, montandomi /boot, /boot1, /boot2 ecc, e facendo uno script di post-aggiornamento con rsync simile al primo ho anche fatto una prova tirando via un disco alla volta e riavviare il server e non ho riscontrato problemi. ma bisogna ricordarsi di modificare /etc/fstab affinchè non vada in errore nel caso in cui una partizione non venga trovata (opzione nofail) On 02/06/2018 12:49 AM, Mattia Oss wrote: > On Mon, Feb 05, 2018 at 08:30:01PM +0100, Mattia Oss wrote: >> On Sun, Feb 04, 2018 at 11:05:49PM +, Lorenzo "Palinuro" Faletra wrote: >>> se esterna al raid rispetto ai 2 dischi in raid allora si, perchè la >>> rottura di uno dei 2 dischi non compromette lanrottura della partizione di >>> boot (che è altrove) >>> >>> se invece la partizione è su uno dei 2 dischi, ti ricordo che i raid da >>> raid1 a salire nascono per il semplice fatto che a rompersi per usura sono >>> i dischi, non le singole partizioni, quindi replicare anche la partizione >>> esp di uefi è cosa buona e giusta >> Ma porc.. Che svista. Per fortuna non faccio il sistemista di >> professione. Che faccio adesso? Se creo un array per queste 2 partizioni >> parte debian? > Leggendo in rete sembra che la partizione per un sistem UEFI deve essere > di tipo efi/vfat. Sei sicuro che si possa mettere in RAID? > > Per il momento l'ho semplicemente clonata sull'altro disco e facendo la > prova staccando i dischi sembra funzionare. >
Re: Grub con UEFI in RAID1
On Mon, Feb 05, 2018 at 08:30:01PM +0100, Mattia Oss wrote: > On Sun, Feb 04, 2018 at 11:05:49PM +, Lorenzo "Palinuro" Faletra wrote: > > se esterna al raid rispetto ai 2 dischi in raid allora si, perchè la > > rottura di uno dei 2 dischi non compromette lanrottura della partizione di > > boot (che è altrove) > > > > se invece la partizione è su uno dei 2 dischi, ti ricordo che i raid da > > raid1 a salire nascono per il semplice fatto che a rompersi per usura sono > > i dischi, non le singole partizioni, quindi replicare anche la partizione > > esp di uefi è cosa buona e giusta > > Ma porc.. Che svista. Per fortuna non faccio il sistemista di > professione. Che faccio adesso? Se creo un array per queste 2 partizioni > parte debian? Leggendo in rete sembra che la partizione per un sistem UEFI deve essere di tipo efi/vfat. Sei sicuro che si possa mettere in RAID? Per il momento l'ho semplicemente clonata sull'altro disco e facendo la prova staccando i dischi sembra funzionare.
Re: Grub con UEFI in RAID1
On Sun, Feb 04, 2018 at 11:05:49PM +, Lorenzo "Palinuro" Faletra wrote: > se esterna al raid rispetto ai 2 dischi in raid allora si, perchè la rottura > di uno dei 2 dischi non compromette lanrottura della partizione di boot (che > è altrove) > > se invece la partizione è su uno dei 2 dischi, ti ricordo che i raid da raid1 > a salire nascono per il semplice fatto che a rompersi per usura sono i > dischi, non le singole partizioni, quindi replicare anche la partizione esp > di uefi è cosa buona e giusta Ma porc.. Che svista. Per fortuna non faccio il sistemista di professione. Che faccio adesso? Se creo un array per queste 2 partizioni parte debian?
Re: Grub con UEFI in RAID1
se esterna al raid rispetto ai 2 dischi in raid allora si, perchè la rottura di uno dei 2 dischi non compromette lanrottura della partizione di boot (che è altrove) se invece la partizione è su uno dei 2 dischi, ti ricordo che i raid da raid1 a salire nascono per il semplice fatto che a rompersi per usura sono i dischi, non le singole partizioni, quindi replicare anche la partizione esp di uefi è cosa buona e giusta On February 4, 2018 7:21:41 PM UTC, Mattia Oss <mais.to...@gmail.com> wrote: >Ciao a tutti, > >ho da poco installato debian con 2 dischi in raid1. Siccome vorrei >essere in grado di avviare il sistema se uno dei dischi si rompe, in >rete si suggerisce di installare grub su entrambi i dischi. > >Mi chiedevo, nei sistemi UEFI è ancora vero? Grub viene installato >sulla >partizione EFI (esterna al raid), quindi in teoria non dovrebbe essere >necessario? O sbaglio? -- Lorenzo "Palinuro" Faletra Parrot Security GPG FINGERPRINT: B350 5059 3C2F 7656 40E6 DDDB 97CA A129 F4C6 B9A4 GPG Info: http://pgp.mit.edu/pks/lookup?op=vindex=0x97CAA129F4C6B9A4 GPG Key: http://pgp.mit.edu/pks/lookup?op=get=0x97CAA129F4C6B9A4
Grub con UEFI in RAID1
Ciao a tutti, ho da poco installato debian con 2 dischi in raid1. Siccome vorrei essere in grado di avviare il sistema se uno dei dischi si rompe, in rete si suggerisce di installare grub su entrambi i dischi. Mi chiedevo, nei sistemi UEFI è ancora vero? Grub viene installato sulla partizione EFI (esterna al raid), quindi in teoria non dovrebbe essere necessario? O sbaglio?
Re: raid1 messaggi di errore
Il 31/10/2017 17:57, beppe ha scritto: cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[0] sdc1[1] 488253440 blocks super 1.2 [2/2] [UU] bitmap: 2/4 pages [8KB], 65536KB chunk Il raid non è degradato, quindi i dischi sono entrambi funzionanti e allineati. tail -20 /var/log/kern.log ata4.00: status: { DRDY ERR } ata4.00: error: { UNC } ata4.00: configured for UDMA/133 ata4.01: configured for UDMA/133 sd 3:0:0:0: [sdb] Unhandled sense code sd 3:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE sd 3:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor] Descriptor sense data with sense descriptors (in hex): 72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00 17 52 c7 37 sd 3:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed sd 3:0:0:0: [sdb] CDB: Read(10): 28 00 17 52 c7 37 00 00 08 00 end_request: I/O error, dev sdb, sector 391300919 ata4: EH complete md/raid1:md0: read error corrected (8 sectors at 391298871 on sdb1) md/raid1:md0: redirecting sector 391036671 to other mirror: sdb1 Gli errori sono stati corretti: il disco funziona correttamente riallocando i settori sciupati. Sarebbe il caso di controllare con smartctl il conteggio dei settori riallocati: se è elevato e/o aumenta devi cambiare il disco prima possibile. ls -l /dev/disk/by-id/ ata-WDC_WD5000AAKS-00A7B0_WD-WMASY7404637 -> ../../sdc ata-WDC_WD5000AAKS-00A7B0_WD-WMASY7404637-part1 -> ../../sdc1 ata-WDC_WD5000AAKS-00A7B2_WD-WCASY3463424 -> ../../sdb ata-WDC_WD5000AAKS-00A7B2_WD-WCASY3463424-part1 -> ../../sdb1 intanto sta facendo il backup su un altro disco, spero vada a buon fine, perche' si ferma con alcuni files generando gli errori che ho riportato, poi controllo. il disco che non va bene penso sia sdb. Non so se provare a farlo ricostruire, ma opterei per cambiarlo. Qualche consiglio? Grazie. Beppe -- Luciano Franchi Modula Informatica Srl Via dell'Alloro 33 F/G 59100 Prato PO Tel.: 0574643599 4 linee r.a. Fax: 0574540479 web: www.modula.net
Re: raid1 messaggi di errore
Il 01/11/2017 19:34, Pol Hallen ha scritto: magari arrivo tardi :-/ sdb si staccalo fisicamente e sostituiscilo con uno nuovo e ricrea la struttura raid (ovviamente con i dovuti comandi raid fault, -add, etc) intanto sta facendo il backup su un altro disco, spero vada a buon fine, perche' si ferma con alcuni files generando gli errori che ho riportato, poi controllo. il disco che non va bene penso sia sdb. Non so se provare a farlo ricostruire, ma opterei per cambiarlo. Qualche consiglio? Grazie. Beppe Grazie a tutti, tolto e testato e' da buttare, domani ne rimetto uno nuovo. ciao Beppe -- le nuvole non hanno regole, perchè non hanno mai rinunciato alla libertà di sognare.
Re: raid1 messaggi di errore
magari arrivo tardi :-/ sdb si staccalo fisicamente e sostituiscilo con uno nuovo e ricrea la struttura raid (ovviamente con i dovuti comandi raid fault, -add, etc) intanto sta facendo il backup su un altro disco, spero vada a buon fine, perche' si ferma con alcuni files generando gli errori che ho riportato, poi controllo. il disco che non va bene penso sia sdb. Non so se provare a farlo ricostruire, ma opterei per cambiarlo. Qualche consiglio? Grazie. Beppe -- Pol
Re: raid1 messaggi di errore
Il 31/10/17 17:57, beppe ha scritto: > > il disco che non va bene penso sia sdb. > > Non so se provare a farlo ricostruire, ma opterei per cambiarlo. cambialo, non aspettare. magari dopo, con calma, lo testi, formatti e lo riutilizza in altre soluzioni. -- Mauro Morichi
raid1 messaggi di errore
cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[0] sdc1[1] 488253440 blocks super 1.2 [2/2] [UU] bitmap: 2/4 pages [8KB], 65536KB chunk tail -20 /var/log/kern.log ata4.00: status: { DRDY ERR } ata4.00: error: { UNC } ata4.00: configured for UDMA/133 ata4.01: configured for UDMA/133 sd 3:0:0:0: [sdb] Unhandled sense code sd 3:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE sd 3:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor] Descriptor sense data with sense descriptors (in hex): 72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00 17 52 c7 37 sd 3:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed sd 3:0:0:0: [sdb] CDB: Read(10): 28 00 17 52 c7 37 00 00 08 00 end_request: I/O error, dev sdb, sector 391300919 ata4: EH complete md/raid1:md0: read error corrected (8 sectors at 391298871 on sdb1) md/raid1:md0: redirecting sector 391036671 to other mirror: sdb1 ls -l /dev/disk/by-id/ ata-WDC_WD5000AAKS-00A7B0_WD-WMASY7404637 -> ../../sdc ata-WDC_WD5000AAKS-00A7B0_WD-WMASY7404637-part1 -> ../../sdc1 ata-WDC_WD5000AAKS-00A7B2_WD-WCASY3463424 -> ../../sdb ata-WDC_WD5000AAKS-00A7B2_WD-WCASY3463424-part1 -> ../../sdb1 intanto sta facendo il backup su un altro disco, spero vada a buon fine, perche' si ferma con alcuni files generando gli errori che ho riportato, poi controllo. il disco che non va bene penso sia sdb. Non so se provare a farlo ricostruire, ma opterei per cambiarlo. Qualche consiglio? Grazie. Beppe -- le nuvole non hanno regole, perchè non hanno mai rinunciato alla libertà di sognare.
Re: raid1 fallito, come recuperarlo?
Puoi postare il file mdadm.conf? Luciano Il 26/02/2014 07:55, Fabrizio Mancini ha scritto: Salve ragazzi, ho un pc con dentro due dischi da 2 tb cadauno messi in raid1 con mdadm e un altro disco ssd dove ho i volumi lvm. Ieri sera uno dei dischi del raid è fallito. Allora la prima cosa che ho fatto è fare un reboot per far vedere il disco fallito al sistema operativo e capire quale fosse il danno. Però dopo il reboot mi sono trovato in una condizione del genere: fabrizio@gf:~$ cat /proc/mdstat Personalities : [raid1] md123 : active (auto-read-only) raid1 sdc2[2] 19530680 blocks super 1.2 [2/1] [_U] md124 : active (auto-read-only) raid1 sdc3[2] 97654712 blocks super 1.2 [2/1] [_U] md125 : active (auto-read-only) raid1 sdc5[2] 1816793976 blocks super 1.2 [2/1] [_U] md2 : active raid1 sda5[0] 1816793976 blocks super 1.2 [2/1] [U_] md126 : active raid1 sda3[0] 97654712 blocks super 1.2 [2/1] [U_] md127 : active raid1 sda2[0] 19530680 blocks super 1.2 [2/1] [U_] unused devices: none fabrizio@gf:~$ mount /dev/mapper/gfVol-root on / type ext4 (rw,noatime,nodiratime,discard,commit=15,errors=remount-ro) tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755) proc on /proc type proc (rw,noexec,nosuid,nodev) sysfs on /sys type sysfs (rw,noexec,nosuid,nodev) udev on /dev type tmpfs (rw,mode=0755) tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev) devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620) /dev/sdb1 on /boot type ext3 (rw) /dev/mapper/gfVol-home on /home type ext4 (rw,noatime,nodiratime,discard,commit=15) /dev/md2 on /mnt/dati type ext4 (rw,acl) /dev/md127 on /tmp type ext4 (rw) /dev/md126 on /var type ext4 (rw) Naturalmente i raid che mi interessano sono md2, md126 e md127 e non i primi tre, come si vede dal comando mount. Come mi dovrei comportare? butto fuori i raid che ha ritrovato (md12[345]) e li riunisco? quali comandi è meglio usare di mdadm? Ciao e grazie per l'aiuto Fabrizio
Re: raid1 fallito, come recuperarlo?
Il giorno 26 febbraio 2014 09:49, fran...@modula.net fran...@modula.netha scritto: Puoi postare il file mdadm.conf? Originariamente non l'ho postato perché non vi ho apportato modifiche, è quello autogenerato Comunque eccolo # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default, scan all partitions (/proc/partitions) for MD superblocks. # alternatively, specify devices to scan, using wildcards if desired. DEVICE partitions # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST system # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Thu, 23 Aug 2012 22:22:23 +0200 # by mkconf 3.1.4-1+8efb9d1+squeeze1 ciao e grazie
raid1 fallito, come recuperarlo?
Salve ragazzi, ho un pc con dentro due dischi da 2 tb cadauno messi in raid1 con mdadm e un altro disco ssd dove ho i volumi lvm. Ieri sera uno dei dischi del raid è fallito. Allora la prima cosa che ho fatto è fare un reboot per far vedere il disco fallito al sistema operativo e capire quale fosse il danno. Però dopo il reboot mi sono trovato in una condizione del genere: fabrizio@gf:~$ cat /proc/mdstat Personalities : [raid1] md123 : active (auto-read-only) raid1 sdc2[2] 19530680 blocks super 1.2 [2/1] [_U] md124 : active (auto-read-only) raid1 sdc3[2] 97654712 blocks super 1.2 [2/1] [_U] md125 : active (auto-read-only) raid1 sdc5[2] 1816793976 blocks super 1.2 [2/1] [_U] md2 : active raid1 sda5[0] 1816793976 blocks super 1.2 [2/1] [U_] md126 : active raid1 sda3[0] 97654712 blocks super 1.2 [2/1] [U_] md127 : active raid1 sda2[0] 19530680 blocks super 1.2 [2/1] [U_] unused devices: none fabrizio@gf:~$ mount /dev/mapper/gfVol-root on / type ext4 (rw,noatime,nodiratime,discard,commit=15,errors=remount-ro) tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755) proc on /proc type proc (rw,noexec,nosuid,nodev) sysfs on /sys type sysfs (rw,noexec,nosuid,nodev) udev on /dev type tmpfs (rw,mode=0755) tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev) devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620) /dev/sdb1 on /boot type ext3 (rw) /dev/mapper/gfVol-home on /home type ext4 (rw,noatime,nodiratime,discard,commit=15) /dev/md2 on /mnt/dati type ext4 (rw,acl) /dev/md127 on /tmp type ext4 (rw) /dev/md126 on /var type ext4 (rw) Naturalmente i raid che mi interessano sono md2, md126 e md127 e non i primi tre, come si vede dal comando mount. Come mi dovrei comportare? butto fuori i raid che ha ritrovato (md12[345]) e li riunisco? quali comandi è meglio usare di mdadm? Ciao e grazie per l'aiuto Fabrizio
Re: raid1 fallito, come recuperarlo?
Inoltre nel syslog ho trovato questo: Feb 26 00:19:08 gf kernel: [55136.069131] sd 5:0:0:0: [sdc] Unhandled error code Feb 26 00:19:08 gf kernel: [55136.069133] sd 5:0:0:0: [sdc] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK Feb 26 00:19:08 gf kernel: [55136.069140] sd 5:0:0:0: [sdc] CDB: Write(10): 2a 00 02 54 08 08 00 00 02 00 Feb 26 00:19:08 gf kernel: [55136.069150] end_request: I/O error, dev sdc, sector 39061512 Feb 26 00:19:08 gf kernel: [55136.069153] end_request: I/O error, dev sdc, sector 39061512 Feb 26 00:19:08 gf kernel: [55136.069161] md/raid1:md127: Disk failure on sdc2, disabling device. Feb 26 00:19:08 gf kernel: [55136.069179] sd 5:0:0:0: [sdc] Unhandled error code Feb 26 00:19:08 gf kernel: [55136.069181] sd 5:0:0:0: [sdc] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK Feb 26 00:19:08 gf kernel: [55136.069184] sd 5:0:0:0: [sdc] CDB: Write(10): 2a 00 04 a8 18 08 00 00 02 00 Feb 26 00:19:08 gf kernel: [55136.069192] end_request: I/O error, dev sdc, sector 78125064 Feb 26 00:19:08 gf kernel: [55136.069194] end_request: I/O error, dev sdc, sector 78125064 Feb 26 00:19:08 gf kernel: [55136.069200] md/raid1:md126: Disk failure on sdc3, disabling device. Feb 26 00:19:08 gf kernel: [55136.090627] disk 0, wo:0, o:1, dev:sda2 Feb 26 00:19:08 gf kernel: [55136.090630] disk 1, wo:1, o:0, dev:sdc2 Feb 26 00:19:08 gf kernel: [55136.093056] disk 0, wo:0, o:1, dev:sda2 Feb 26 00:19:08 gf kernel: [55136.115384] disk 0, wo:0, o:1, dev:sda3 Feb 26 00:19:08 gf kernel: [55136.115387] disk 1, wo:1, o:0, dev:sdc3 Feb 26 00:19:09 gf kernel: [55136.132945] disk 0, wo:0, o:1, dev:sda3 Feb 26 00:19:09 gf mdadm[1392]: FailSpare event detected on md device /dev/md127, component device /dev/sdc2 Feb 26 00:19:09 gf mdadm[1392]: FailSpare event detected on md device /dev/md126, component device /dev/sdc3 Feb 26 00:20:02 gf kernel: [55189.461550] sd 5:0:0:0: [sdc] Unhandled error code Feb 26 00:20:02 gf kernel: [55189.461554] sd 5:0:0:0: [sdc] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK Feb 26 00:20:02 gf kernel: [55189.461558] sd 5:0:0:0: [sdc] CDB: Write(10): 2a 00 10 4c 58 08 00 00 02 00 Feb 26 00:20:02 gf kernel: [55189.461568] end_request: I/O error, dev sdc, sector 273438728 Feb 26 00:20:02 gf kernel: [55189.461572] end_request: I/O error, dev sdc, sector 273438728 Feb 26 00:20:02 gf kernel: [55189.461579] md/raid1:md2: Disk failure on sdc5, disabling device. Feb 26 00:20:02 gf kernel: [55189.504240] disk 0, wo:0, o:1, dev:sda5 Feb 26 00:20:02 gf kernel: [55189.504242] disk 1, wo:1, o:0, dev:sdc5 Feb 26 00:20:02 gf kernel: [55189.504525] disk 0, wo:0, o:1, dev:sda5 Feb 26 00:20:02 gf mdadm[1392]: FailSpare event detected on md device /dev/md2, component device /dev/sdc5 Feb 26 00:21:49 gf kernel: [55296.056012] sd 5:0:0:0: [sdc] Synchronizing SCSI cache Feb 26 00:21:49 gf kernel: [55296.056401] sd 5:0:0:0: [sdc] Stopping disk Feb 26 00:21:49 gf kernel: [55296.706418] sd 5:0:0:0: [sdd] 3907029168 512-byte logical blocks: (2.00 TB/1.81 TiB) Feb 26 00:21:49 gf kernel: [55296.706422] sd 5:0:0:0: [sdd] 4096-byte physical blocks Feb 26 00:21:49 gf kernel: [55296.706470] sd 5:0:0:0: [sdd] Write Protect is off Feb 26 00:21:49 gf kernel: [55296.706474] sd 5:0:0:0: [sdd] Mode Sense: 00 3a 00 00 Feb 26 00:21:49 gf kernel: [55296.706494] sd 5:0:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA Feb 26 00:21:49 gf kernel: [55296.706941] sd 5:0:0:0: Attached scsi generic sg3 type 0 Feb 26 00:21:51 gf kernel: [55298.427618] sdd: sdd1 sdd2 sdd3 sdd4 sdd5 Feb 26 00:21:51 gf kernel: [55298.428557] sd 5:0:0:0: [sdd] Attached SCSI disk A questo punto pensate che il disco fallito sia possibile recuperarlo o è meglio toglierlo? grazie fabrizio
mdadm raid1 rename md4 in md9
Scusate sto provando a rinominare un raid software md4 in md9 attualmente sto facendo cosi: cat /proc/mdstat Personalities : [raid1] md4 : active (auto-read-only) raid1 sda6[0] sdb6[2] sdc6[1] 184594752 blocks [3/3] [UUU] mdadm --stop /dev/md4 mdadm -A /dev/md9 /dev/sda6 /dev/sdb6 /dev/sdc6 cat /proc/mdstat Personalities : [raid1] md9 : active (auto-read-only) raid1 sda6[0] sdb6[2] sdc6[1] 184594752 blocks [3/3] [UUU] pero al riavvio del computer ritorna ad essere cosi: cat /proc/mdstat Personalities : [raid1] md4 : active (auto-read-only) raid1 sda6[0] sdb6[2] sdc6[1] 184594752 blocks [3/3] [UUU] c'e' qualcuno che mi puo' aiutare un grazie in anticipo -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/201211140937.37739.compact.comp...@tiscali.it
Re: mdadm raid1 rename md4 in md9
Il 14/11/2012 09:37, compact ha scritto: c'e' qualcuno che mi puo' aiutare un grazie in anticipo Assemble con --update=super-minor e --super-minor=9 dovrebbe fare al caso tuo. Se vuoi fare un backup del superblock prima di fare quel cambiamento, informati qui per sapere dov'è e com'è composto: https://raid.wiki.kernel.org/index.php/RAID_superblock_formats#The_version-1_Superblock_Format te lo scrivo perché lì non è menzionato il super-minor, e con un diff tra l'output di xxd sul superblock prima e dopo il cambiamento si può capire dove sta. Ciaooo -- Davide -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50a3e787.80...@gmail.com
Re: GRUB2 e RAID1
Mandi! mailing - effem In chel dì si favelave... me Poi questo post mi ha aperto gli occhi :-) me http://www.debianitalia.org/forum/varie/raid1-squeeze-grub2 L'avevo trovata con google, ma poi avevo sentenziato che «non è possibile, non può essere così, è troppo stupido». Invece è proprio così. ;-) Grazie. -- The number of UNIX installations has grown to 10, with more expected. (_The UNIX Programmer's Manual_, Second Edition, June 1972) -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/705tv8-l38@lily.sv.lnf.it
GRUB2 e RAID1
Mi è arrivato un serverino nuovo (ProLiant ML110G7) che ha un fake raid intel, e mi sono messo ad installarlo con squeeze. Con grub, normalmente a fine installazione eseguivo nella console (di grub): root (hd0,0) setup (hd0) root (hd1,0) setup (hd1) ovvero installa il bootloader nel primo disco usando come partizione di root la prima partizione del primo disco, e installa il bootloader nel secondo disco usando come partizione di root la prima partizione del secondo disco. In questo modo potevo felicemente staccare uno dei due dischi e il sistema buttava correttamente, perchè i bootloader erano interdipendenti tra loro. Con grub2 ho ravanato un po' in giro, ma consigliano di fare solo: grub-install /dev/sda grub-install /dev/sdb e non funziona: se lascio solo il secondo disco, grub si vede per un istante che carica ma poi la macchina si riavvia, a naso perchè cerca i file nella partizione di root del disco che non c'è. Ho cercato di usare grub-setup, ma non mi riesce (in qualsiasi modo io definisca --root-device non me lo piglia, mi da parametro errato). Qualcuno ha qualche hint da darmi? Grazie. -- L'essenziale e` invisibile agli occhi (Il piccolo principe) -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/liaov8-ada@lily.sv.lnf.it
Re: GRUB2 e RAID1
On Wed, 1 Feb 2012 18:49:41 +0100 Marco Gaiarin marcog...@libero.it wrote: Qualcuno ha qualche hint da darmi? Grazie. Ci avevo sbattuto la testa non poco. Quello che fai è giusto...ed è quello che facevo io. Poi questo post mi ha aperto gli occhi :-) Verifica se ti può essere utile: http://www.debianitalia.org/forum/varie/raid1-squeeze-grub2 Ciao Francesco -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120202082514.57f5c907@macux
Re: Raid software, md raid1 vs LVM mirror
CIAO ! soluzione si rivela piu' performante, La soluzione più performante è un controller RAID HW, ma non penso sia di tuo interesse. Ti consiglio LVM over MD, se fai RAID 1 è ancora accettabile. CIAO Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20110829072952.m71...@corep.it
Raid software, md raid1 vs LVM mirror
Salve lista, come da oggetto mi chiedevo quale delle due soluzione si rivela piu' performante, ho letto in giro un po' di pareri discordanti, e comunque tutti derivanti da banchmark fatti in casa. C'e' qualcuno che ne sa di piu' o che magari usa una delle due soluzioni e puo' darmi qualche feedback? Ora come ora ho solo usato il raid software di linux (md) e sinceramente dopo 3 anni non ho avuto grossi problemi, ma adesso avendo la necessita' di utilizzare lvm mi chiedevo se era meglio fare gestire il mirror a lvm stesso o utilizzare md e poi utilizzare lvm sopra lui. a presto. Biagio Massimo -- GPG fingerprint: B139 25E9 F6BB 56DC 5B53 32BB 1C43 44BB C387 61DB -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/cadqj6yzp2agrr9kly9bkytzp5lchy-mwdo0qbiep5exewdz...@mail.gmail.com
raid1 guasto sospetto
Ciao a tutti, su un serverino (pc che fa finta di fare il server) con Lenny e raid 1 software, ho da pochi giorni sostituito un disco che il kernel mi diceva essere guasto. Onestamente non ho perso tempo a verificare se fosse guasto veramente, perché aveva già un po' di anni ed ho dato per scontato che il kernel avesse ragione, quindi il disco ora è già alla discarica. Però adesso, dopo pochi giorni, il kernel mi dice che il disco che ho appena messo al posto di quello vecchio è pure lui guasto, con messaggi del tutto simili a quelli che avevo in dmesg per l'altro disco... mi sorge il sospetto che la vera causa sia altrove. Dai messaggi voi riuscite a capire se sia davvero colpa del disco? Grazie in anticipo, Lucio. [2194433.292268] ata3: exception Emask 0x10 SAct 0x0 SErr 0x181 action 0xe frozen [2194433.292268] ata3: SError: { PHYRdyChg LinkSeq TrStaTrns } [2194433.292268] ata3: hard resetting link [2194434.026467] ata3: SATA link down (SStatus 0 SControl 300) [2194434.026476] ata3: failed to recover some devices, retrying in 5 secs [2194439.028012] ata3: hard resetting link [2194439.762475] ata3: SATA link down (SStatus 0 SControl 300) [2194439.762483] ata3: failed to recover some devices, retrying in 5 secs [219.764012] ata3: hard resetting link [2194445.498466] ata3: SATA link down (SStatus 0 SControl 300) [2194445.498475] ata3.00: disabled [2194445.498570] sd 2:0:0:0: rejecting I/O to offline device [2194445.498583] sd 2:0:0:0: rejecting I/O to offline device [2194445.498587] sd 2:0:0:0: rejecting I/O to offline device [2194445.498590] end_request: I/O error, dev sdc, sector 26362493 [2194445.498594] md: super_written gets error=-5, uptodate=0 [2194445.498598] raid1: Disk failure on sdc2, disabling device. [2194445.498600] raid1: Operation continuing on 1 devices. [2194445.507103] RAID1 conf printout: [2194445.507103] --- wd:1 rd:2 [2194445.507103] disk 0, wo:1, o:0, dev:sdc2 [2194445.507103] disk 1, wo:0, o:1, dev:sdd2 [2194445.507103] RAID1 conf printout: [2194445.507103] --- wd:1 rd:2 [2194445.507103] disk 1, wo:0, o:1, dev:sdd2 [2194446.16] ata3: EH complete [2194446.000140] ata3.00: detaching (SCSI 2:0:0:0) [2194446.000312] sd 2:0:0:0: [sdc] Synchronizing SCSI cache [2194446.001275] sd 2:0:0:0: [sdc] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK,SUGGEST_OK [2194446.001282] sd 2:0:0:0: [sdc] Stopping disk [2194446.001408] sd 2:0:0:0: [sdc] START_STOP FAILED [2194446.001411] sd 2:0:0:0: [sdc] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK,SUGGEST_OK [2194446.006662] raid1: sdc4: rescheduling sector 192 [2194446.006662] raid1: sdc4: rescheduling sector 200 [2194446.006662] raid1: sdc4: rescheduling sector 208 [2194446.006662] raid1: sdc4: rescheduling sector 216 [2194446.006662] raid1: sdc4: rescheduling sector 224 [2194446.006662] raid1: sdc4: rescheduling sector 232 [2194446.006662] raid1: sdc4: rescheduling sector 240 [2194446.006662] raid1: sdc4: rescheduling sector 248 [2194446.024530] raid1: Disk failure on sdc4, disabling device. [2194446.024530] raid1: Operation continuing on 1 devices. [2194446.024530] raid1: sdd4: redirecting sector 192 to another mirror [2194446.065553] raid1: sdd4: redirecting sector 200 to another mirror [2194446.167599] RAID1 conf printout: [2194446.167599] --- wd:1 rd:2 [2194446.167599] disk 0, wo:1, o:0, dev:sdc4 [2194446.167599] disk 1, wo:0, o:1, dev:sdd4 [2194446.167599] RAID1 conf printout: [2194446.167599] --- wd:1 rd:2 [2194446.167599] disk 1, wo:0, o:1, dev:sdd4 [2227436.000278] scsi 2:0:0:0: rejecting I/O to dead device [2227436.000286] scsi 2:0:0:0: rejecting I/O to dead device [2227436.000290] end_request: I/O error, dev sdc, sector 945328640 [2227436.000293] md: super_written gets error=-5, uptodate=0 [2227436.000298] raid1: Disk failure on sdc3, disabling device. [2227436.000299] raid1: Operation continuing on 1 devices. [2227436.022508] RAID1 conf printout: [2227436.022508] --- wd:1 rd:2 [2227436.022508] disk 0, wo:1, o:0, dev:sdc3 [2227436.022508] disk 1, wo:0, o:1, dev:sdd3 [2227436.022508] RAID1 conf printout: [2227436.022508] --- wd:1 rd:2 [2227436.022508] disk 1, wo:0, o:1, dev:sdd3 [2227491.585847] scsi 2:0:0:0: rejecting I/O to dead device [2227491.585847] scsi 2:0:0:0: rejecting I/O to dead device [2227491.585847] end_request: I/O error, dev sdc, sector 979712 [2227491.585847] md: super_written gets error=-5, uptodate=0 [2227491.585847] raid1: Disk failure on sdc1, disabling device. [2227491.585847] raid1: Operation continuing on 1 devices. [2227491.805556] RAID1 conf printout: [2227491.805556] --- wd:1 rd:2 [2227491.805556] disk 0, wo:1, o:0, dev:sdc1 [2227491.805556] disk 1, wo:0, o:1, dev:sdd1 [2227491.805556] RAID1 conf printout: [2227491.805556] --- wd:1 rd:2 [2227491.805556] disk 1, wo:0, o:1, dev:sdd1 [2234930.725983] usb 2-1: USB disconnect, address 49 [2234930.726128] sd 50:0:0:0: [sde] Result: hostbyte=DID_ERROR driverbyte=DRIVER_OK,SUGGEST_OK [2234930.726134] end_request: I
Re: raid1 guasto sospetto
Hai provato a cambiare cavo SATA ? Io proverei a cambiare anche lo spinotto di alimentazione del disco rigido (una volta mi è capitato uno spinotto difettoso che alimentava il disco ed ogni tanto lo disalimentava... causa contatto precario). Poi proverei a cambiare attacco SATA sulla piastra madre (lo colleghi su un'altro spinotto) se i primi due passi non hanno successo. CIAO Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20110722081225.m34...@corep.it
Re: un dubbio con raid1
Pol.. sarà l'ora, ma sai che non capisco questa frase ? Perchè devi copiare files tra dischi in RAID1 ? seguendo questo howto http://www.howtoforge.com/software-raid1-grub-boot-debian-etch Perchè parli di copia di files quando specifichi di accedere al disco ad un livello inferiore a quello del file system ? non ho mai creato un raid1, seguendo quella guida viene proposto quel metodo. Qual è la procedura raid1 senza toccare i dati del disco? tnks :-) Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/201106011406.32972.debl...@fuckaround.org
Re: un dubbio con raid1
seguendo questo howto http://www.howtoforge.com/software-raid1-grub-boot-debian-etch Perchè parli di copia di files quando specifichi di accedere al disco ad un livello inferiore a quello del file system ? non ho mai creato un raid1, seguendo quella guida viene proposto quel metodo. Qual è la procedura raid1 senza toccare i dati del disco? tnks :-) Pol Passo la palla ad altri.. ho usato pochissimo RAID in md ed ho poca esperienza al riguardo. Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20110601121816.m67...@corep.it
Re: un dubbio con raid1
Passo la palla ad altri.. ho usato pochissimo RAID in md ed ho poca esperienza al riguardo. da quanto ho capito io, per creare un raid1 occorre cambiare il label del disco ergo perdere dati. Se la tecnica di quell'howto è l'unica utilizzabile le cose stanno proprio così. Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/201106011503.35215.debitv...@fuckaround.org
Re: un dubbio con raid1
Ciao Io ho usato quella stessa guida 5-6 mesi fà e funziona senza perdere i dati... l'unica cosa che mi ha creato difficoltà è stato il grub che avevo sbagliato la configurazione, ma con una live ho risolto... Comunque fatti un backup per sicurezza del disco buono... Sono d'accordo con l'autore della guida quando all'inizio dice: I do not issue any guarantee that this will work for you! E ripeto Mi Raccomando il Backup! Ciao Il giorno 01 giugno 2011 15:03, Pol Hallen debitv...@fuckaround.org ha scritto: Passo la palla ad altri.. ho usato pochissimo RAID in md ed ho poca esperienza al riguardo. da quanto ho capito io, per creare un raid1 occorre cambiare il label del disco ergo perdere dati. Se la tecnica di quell'howto è l'unica utilizzabile le cose stanno proprio così. Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/201106011503.35215.debitv...@fuckaround.org -- Diego Bacchin Sysadmin
Re: un dubbio con raid1
Io ho usato quella stessa guida 5-6 mesi fà e funziona senza perdere i dati... i dati non vanno persi, si copiano sull'altro disco dopo aver creato il label linux raid (sempre secondo la guida). Domanda: ieri dopo la costruzione ho fatto una prova failure (tolto lo spinotto del disco) e il raid1 funzionava. Riavviando però, il sistema non mi riconosceva più /dev/md1 (/dev/md0 è un altro raid) non riconosceva cioè il raid1 appena creato. è una condizione normale? come ripristino il raid1 degradato senza aggiungere il disco failure? cioè: come accedo ai dati del disco anche se è degradato? grazie :-) Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/201106011828.45690.debitv...@fuckaround.org
Re: un dubbio con raid1
Il giorno 01/giu/2011, alle ore 18.28, Pol Hallen ha scritto: Domanda: ieri dopo la costruzione ho fatto una prova failure (tolto lo spinotto del disco) e il raid1 funzionava. Riavviando però, il sistema non mi riconosceva più /dev/md1 (/dev/md0 è un altro raid) non riconosceva cioè il raid1 appena creato. il raid viene riconosciuto una volta che ha completato la replica, altrimenti ogni volta lo devi ricostruire. come ripristino il raid1 degradato senza aggiungere il disco failure? cioè: come accedo ai dati del disco anche se è degradato? -- mauro [at] majaglug [dot] net -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/9abcc919-2b30-4072-95d1-3b6b2f8df...@majaglug.net
un dubbio con raid1
'sera a tutti :-) stavo dando un'occhiata a mdadm circa il raid1 e da quanto ho capito il raid1 viene costruito in questo modo: partendo da un disco già funzionante si crea con (sfdisk) la stessa tabella di partizioni, si imposta il 2o disco come raid, si crea il raid escludendo il disco primario, format e mount di /dev/mdX e si copiano i dati dal disco primario a /dev/mdX poi si fa il processo inverso e si imposta il raid sul disco primario. Fin quì tutto ok: già fatto e funziona. Il dubbio è questo: se avessi un disco a cui accedo tramite settori come copio i file da un disco all'altro? semplicemente con dd? grazie :-) Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4de552c9.2020...@fuckaround.org
Re: un dubbio con raid1
Il giorno 31/mag/2011, alle ore 22.42, Pol Hallen ha scritto: stavo dando un'occhiata a mdadm circa il raid1 e da quanto ho capito il raid1 viene costruito in questo modo: partendo da un disco già funzionante si crea con (sfdisk) la stessa tabella di partizioni, si imposta il 2o disco come raid, si crea il raid escludendo il disco primario, format e mount di /dev/mdX e si copiano i dati dal disco primario a /dev/mdX poi si fa il processo inverso e si imposta il raid sul disco primario. Fin quì tutto ok: già fatto e funziona. Il dubbio è questo: se avessi un disco a cui accedo tramite settori come copio i file da un disco all'altro? semplicemente con dd? c'ho capito poco. intendi dire che hai i dati sul primo disco e vorresti far diventare raid questo disco aggiungendo il secondo disco. ora, premesso che il raid software non e' distruttivo in fase di creazione, puoi benissimo smontare la partizione, creare il raid considerando come primo disco quello con i dati e come unita' secondaria, quello vuoto su cui opportunamente sono state fatte le partizioni. una volta che il raid e' partito, il sync avviene automaticamente. non ti resta che salvare la configurazione per mdadm.conf e modificare il tipo partizione di entrambi i dischi come 'Linux Raid' (fd, mi pare). -- mauro [at] majaglug [dot] net -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/d4a93816-0d9a-4b1f-baac-1dcdbc6c1...@majaglug.net
Re: un dubbio con raid1
Il dubbio è questo: se avessi un disco a cui accedo tramite settori come copio i file da un disco all'altro? semplicemente con dd? Pol.. sarà l'ora, ma sai che non capisco questa frase ? Perchè devi copiare files tra dischi in RAID1 ? Perchè parli di copia di files quando specifichi di accedere al disco ad un livello inferiore a quello del file system ? Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20110601043944.m22...@corep.it
convertire il disco di sistema a raid1
salve a tutti, il mio problema è questo: ho un sistema funzionante (tutto il sistema, unica partizione) su /dev/sda1 e voglio metterlo in raid1 senza reinstallare. Ho trovato un paio di howto [1][2] e ho cercato si seguire il procedimento con le modifiche del caso. Il problema non è creare l'array raid con un solo disco (dev/md1 per me, spero che saltare md0 non sia un problema) (a cui poi aggiungerei l'altro) ne copiare il sistema ne montare la partizione come principale (modifico fstab a all'avvio successivo trovo /dev/md1 montato su /). Il problema è configurare grub per avviare da uno qualsiasi dei dischi /dev/sda o /dev/sdb e usare /dev/md1 come disco di avvio: sapete indicarmi dopo posso trovare delle informazioni? (sto usando testing) Ho visto i file di configurazione di grub in /etc/grub.d ma sono molto diversi dal vecchio menu.lst. Ultima cosa: come mai se creo l'array /dev/md1 all'avvio successivo questo si chiama /dev/md127 ? grazie Edoardo [1] http://www.mrgcorner.it/howto-linux/raid1-with-linux-and-mdadm/ [2] http://wiki.archlinux.org/index.ph/Convert_a_single_drive_system_to_RAID -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4c0cf7f4.3050...@aspix.it
Da RAID1 a RAID5
Scusate la domanda da niubbo: si può trasformare un RAID1 in RAID5 con mdadm? Grazie mille Piviul -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Re: Problema boot dopo spostamento su RAID1
On Mon, 2008-10-20 at 00:38 +0200, shacky wrote: trying to mount lvm root: (/dev/pve/root) mount: mounting /dev/pve/root on /mnt failed: No such file or directory mount: mounting /dev/pve/root on /mnt failed: No such file or directory mount: mounting /dev/pve/root on /mnt failed: No such file or directory testing again in 5 seconds [...] hai aggiornato l'immagine di init? -- Davide Corio email: davide.corioatdomsense.com web: http://www.domsense.com -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
hai aggiornato l'immagine di init? Devo aggiornarla per via del RAID? No, non l'ho fatto, mi puoi aiutare visto che non so quale sia il comando corretto? -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
hai aggiornato l'immagine di init? Devo aggiornarla per via del RAID? No, non l'ho fatto, mi puoi aiutare visto che non so quale sia il comando corretto? -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
On Mon, 2008-10-20 at 13:45 +0200, shacky wrote: cosa, come e dove LVM deve operare è scritto nell'immagine di init (altrimenti non potresti montare una root fosse scritto in files di conf sul filesystem ancora da montare). Ok, nello specifico, come creo l'immagine di init giusta? penso che prima ti convenga prendere l'immagine di init, aprirla e vedere che i file di conf del raid e di lvm siano a posto. PS: non ti conviene tenere la root fuori da LVM? :) -- Davide Corio email: davide.corioatdomsense.com web: http://www.domsense.com -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
shacky scrisse in data 20/10/2008 13:29: Devo aggiornarla per via del RAID? No, non l'ho fatto, mi puoi aiutare visto che non so quale sia il comando corretto? Hai provato con mkinitrd? Piviul -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
PS: non ti conviene tenere la root fuori da LVM? :) La root era già sotto LVM, il problema penso sia dovuto al fatto dell'inserimento di RAID... Il problema è che io non ho mai lavorato con l'immagine di init (anche se mi rendo conto che è una grave lacuna), quindi non so nemmeno da che parte incominciare. -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
On Mon, Oct 20, 2008 at 01:53:16PM +0200, shacky wrote: PS: non ti conviene tenere la root fuori da LVM? :) La root era già sotto LVM, il problema penso sia dovuto al fatto dell'inserimento di RAID... Il problema è che io non ho mai lavorato con l'immagine di init (anche se mi rendo conto che è una grave lacuna), quindi non so nemmeno da che parte incominciare. Inizia da qui: apt-get install initramfs-tools poi da qui: cd /etc/initramfs-tools Poi dalla relativa doc e infine da man mkinitramfs -- Franco (nextime) Lanza Busto Arsizio - Italy SIP://[EMAIL PROTECTED] NO TCPA: http://www.no1984.org you can download my public key at: http://danex.nexlab.it/nextime.asc || Key Servers Key ID = D6132D50 Key fingerprint = 66ED 5211 9D59 DA53 1DF7 4189 DFED F580 D613 2D50 --- echo 16i[q]sa[ln0=aln100%Pln100/snlbx]sbA0D212153574F444E49572045535520454D20454B414D204F54204847554F4E452059415020544F4E4E4143205345544147204C4C4942snlbxq | dc --- signature.asc Description: PGP signature
Re: Problema boot dopo spostamento su RAID1
cosa, come e dove LVM deve operare è scritto nell'immagine di init (altrimenti non potresti montare una root fosse scritto in files di conf sul filesystem ancora da montare). Ok, nello specifico, come creo l'immagine di init giusta? -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
On Mon, 2008-10-20 at 13:30 +0200, shacky wrote: hai aggiornato l'immagine di init? Devo aggiornarla per via del RAID? No, non l'ho fatto, mi puoi aiutare visto che non so quale sia il comando corretto? cosa, come e dove LVM deve operare è scritto nell'immagine di init (altrimenti non potresti montare una root fosse scritto in files di conf sul filesystem ancora da montare). -- Davide Corio email: davide.corioatdomsense.com web: http://www.domsense.com -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
On Mon, 2008-10-20 at 13:53 +0200, shacky wrote: PS: non ti conviene tenere la root fuori da LVM? :) La root era già sotto LVM, il problema penso sia dovuto al fatto dell'inserimento di RAID... Il problema è che io non ho mai lavorato con l'immagine di init (anche se mi rendo conto che è una grave lacuna), quindi non so nemmeno da che parte incominciare. prova a cercare decompress initrd o frasi simili su google, sicuramente trovi la risposta. ma anche lvm raid initrd può essere utile -- Davide Corio email: davide.corioatdomsense.com web: http://www.domsense.com -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
penso che prima ti convenga prendere l'immagine di init, aprirla e vedere che i file di conf del raid e di lvm siano a posto. Quando eseguo update-initramfs -u ottengo questo errore: [CODE] proxmox:~# update-initramfs -u /boot/initrd.img-proxmox_initrd.img does not exist. Cannot update. [/CODE] Dove sto sbagliando? Grazie mille per l'aiuto! Ciao. -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 shacky ha scritto: penso che prima ti convenga prendere l'immagine di init, aprirla e vedere che i file di conf del raid e di lvm siano a posto. Quando eseguo update-initramfs -u ottengo questo errore: [CODE] proxmox:~# update-initramfs -u /boot/initrd.img-proxmox_initrd.img does not exist. Cannot update. [/CODE] Dove sto sbagliando? Prova con: dpkg-reconfigure linux-image-`uname -r` Occhio agli apici invertiti, mi raccomando. Ciao :) Giovanni -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.6 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFI/KIIK0N8i/BT+egRAisWAJkBEO4umnEPP/Q0epfuGDyY9a/p/gCgoB7q hkZ+UH/8CG+CTP+s1N3XOTA= =Q27P -END PGP SIGNATURE- -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Problema boot dopo spostamento su RAID1
Prova con: dpkg-reconfigure linux-image-`uname -r` Non ha funzionato. Specifico che la distribuzione è PVE (http://pve.proxmox.com), basata su Debian Etch. -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Problema boot dopo spostamento su RAID1
Ciao a tutti. Sto tentando di spostare un'installazione esistente con LVM su disco singolo su due dischi in RAID1 su due dischi. Sto seguendo l'howto su http://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2. Ho formattato il secondo disco creando le partizioni RAID, e ho aggiunto una partizione al volume group esistente contenente il lv root (/dev/pve/root) con pvcreate /dev/md1, vgextend pve /dev/md1. Ho creato la configurazione di mdadm (mdadm --examine --scan /etc/mdadm/mdadm.conf) e ho spostato il logical volume sul nuovo array RAID1 (pvmove /dev/sda5 /dev/md1). Non ho fatto modifiche a Lilo (non viene utilizzato Grub). Ho riavviato il server e non effettua il boot, e mi vengono mostrati questi errori: Finding device mapper major and minor numbers: (10,63) No volume groups found trying to mount lvm root: (/dev/pve/root) mount: mounting /dev/pve/root on /mnt failed: No such file or directory mount: mounting /dev/pve/root on /mnt failed: No such file or directory mount: mounting /dev/pve/root on /mnt failed: No such file or directory testing again in 5 seconds [...] switch_root: bad newroot /mnt Kernel panic - not syncing: Attempted to kill init! Quale può essere il problema? Mi date una mano per cortesia? Grazie mille per l'aiuto! Ciao. -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Trasformare un sistema esistente in RAID1
Ciao a tutti. Vorrei installare Proxmox PVE (http://pve.proxmox.com) in RAID1 software, cosa che però il suo installatore non permette di fare. Proxmox PVE è basata su Debian (e utilizza anche i suoi repository apt ufficiali), quindi è come stessimo parlando di una Debian. Come posso fare per installare la distribuzione su un disco solo (senza RAID) e poi trasformarla in RAID1? Mi date qualche dritta per favore? Grazie mille! Ciao. -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Trasformare un sistema esistente in RAID1
shacky ha scritto: Ciao a tutti. Vorrei installare Proxmox PVE (http://pve.proxmox.com) in RAID1 software, cosa che però il suo installatore non permette di fare. Proxmox PVE è basata su Debian (e utilizza anche i suoi repository apt ufficiali), quindi è come stessimo parlando di una Debian. Come posso fare per installare la distribuzione su un disco solo (senza RAID) e poi trasformarla in RAID1? Mi date qualche dritta per favore? Puoi installarlo su un disco di appoggio e poi migrarlo su RAID1 facendo le opportune modifiche fstab e al grub ciao, -- Marco Bertorello System Administrator http://bertorello.ns0.it -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Trasformare un sistema esistente in RAID1
shacky ha scritto: Ciao a tutti. Vorrei installare Proxmox PVE (http://pve.proxmox.com) in RAID1 software, cosa che però il suo installatore non permette di fare. Proxmox PVE è basata su Debian (e utilizza anche i suoi repository apt ufficiali), quindi è come stessimo parlando di una Debian. Come posso fare per installare la distribuzione su un disco solo (senza RAID) e poi trasformarla in RAID1? Mi date qualche dritta per favore? c'è un ottimo howto a questo indirizzo: http://www.linuxtrent.it/documentazione/gnu-linux/RaidSoftwareSuDebian#installazione-debian angelo bosio -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: creare raid1
[EMAIL PROTECTED] scrisse in data 14/09/2007 17:21: [CUT] sfdisk -d /dev/sda | sfdisk /dev/sdc sync sync Scusa l'ignoranza, ma non ho ben capito cosa serva sync sync... se qualcuno fosse così gentile da darmi qualche spiegazione in più... poi crei gli array: mdadm --create /dev/md0 --raid-level=1 --disks=2 missing /dev/sdc1 mdadm --create /dev/md1 --raid-level=1 --disks=2 missing /dev/sdc2 mdadm --create /dev/md2 --raid-level=1 --disks=2 missing /dev/sdc3 mdadm --create /dev/md3 --raid-level=1 --disks=2 missing /dev/sdc4 fai i tuoi bei mkfs.ext3/mkswap sui device /dev/mdX appena creati Ma ha senso mettere in RAID anche la swap? Io normalmente quando faccio un mirror con due dischi identici faccio sempre la una partizione di swap in ogni disco e poi le uso entrambe come swap direttamente, senza metterle in mirror... anche perché pensavo che una swap su due dischi fosse più performante di una su un disco solo o una su due dischi in RAID1... nella mia ignoranza... oppure per aumentare le performance sarebbe meglio metterle in RAID0? Scusate le domande da niubbo. Piviul -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: creare raid1
Il giorno lun, 17/09/2007 alle 15.44 +0200, Paolo Sala ha scritto: Ma ha senso mettere in RAID anche la swap? Io normalmente quando faccio un mirror con due dischi identici faccio sempre la una partizione di swap in ogni disco e poi le uso entrambe come swap direttamente, senza metterle in mirror... anche perché pensavo che una swap su due dischi fosse più performante di una su un disco solo o una su due dischi in RAID1... nella mia ignoranza... oppure per aumentare le performance sarebbe meglio metterle in RAID0? Ci sono diverse scuole di pensiero. Io adotto quella della swap in RAID, per il semplice motivo che se il disco crasha mentre la swap e` occupata, corrompe anche dati nella swap (e quindi in memoria), mentre con la swap in mirror il disco viene escluso e i dati sono ancora buoni (nei limiti del possibile). L'altra scuola e` quella che dici tu: swap in striping o doppia swap (con la stessa priorita` dovrebbe essere usata come se fosse quasi in striping): meno sicurezza (dati corruttibili, possibile piantamento dei software) ma prestazioni piu` alte. Bye. -- Alessandro Pellizzari -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
creare raid1
Ho una macchina con due HD su cui ho installato la Etch sul primo HD. Adesso è possibile creare un RAID 1 (mirrored) software? Devo ricominciare l'installazione da zero? Grazie Maurizio -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: creare raid1
Il giorno ven, 14/09/2007 alle 17.10 +0200, mau ha scritto: Ho una macchina con due HD su cui ho installato la Etch sul primo HD. Adesso è possibile creare un RAID 1 (mirrored) software? si' Devo ricominciare l'installazione da zero? no e' un po' faraginosa come procedura ma si fa... su google trovi svariati esempi in pratica: - crei il raid partendo dal secondo disco - ci copi sopra il primo - spiani il primo - aggiungi il primo al raid - e voila' :-) al resto ci pensa lui signature.asc Description: Questa è una parte del messaggio firmata digitalmente
Re: creare raid1
Andrea Zagli ha scritto: e' un po' faraginosa come procedura ma si fa... su google trovi svariati esempi in pratica: - crei il raid partendo dal secondo disco - ci copi sopra il primo - spiani il primo - aggiungi il primo al raid - e voila' :-) al resto ci pensa lui ho cercato su Google ma niente... avete qualche link da postarmi? -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
RAID1 ed incongruenze tra dimensioni dischi
Ciao a tutti, oggi ho messo in piedi un server web composto da due hd sata Western Digital da 320 GB. In fase di installazione di Debian ho impostato il raid 1 software della partizione / (capacità totale 319 GB). Ho creato le partizioni identiche su entrambi i dischi sata e gli ho assegnato il file system per la creazione del raid, poi tramite la procedura guidata ho creato l'array raid chiamato /dev/md0. L'installazione è andata a buon fine e il sistema viene caricato correttamente. Succede una cosa strana, quando faccio df -h, /dev/md0 viene visto come disco di capacità totale di 9,2 GB invece di 319 GB. Se faccio un cat di /proc/mdstat vedo che il raid è funzionante e che i due dischi sono di 319 GB (espressi in blocchi da 1K). Secondo me df -h non riporta il valore corretto del device md0 perchè i due hd stanno ancora facendo il resync, e finchè non è finita l'operazione di resync non otterrò mai il valore corretto del disco. Secondo voi ho la possibilità di riavere tutto il mio spazio una volta che i dischi si sono syncati o è successo qualcosa di sbagliato in fase di installazione e devo quindi procedere alla reinstallazione di debian? Ciao -- Christian Silenzi -- Registered Linux User #393743 Registered Linux Machine: 1- portatile #295118 2- fisso #301222 Linux User Group Piacenza: www.lugpiacenza.org Associazione Italiana Contro il TC: www.no1984.org Blog: www.dynamicduo.it/ilfornaio -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto unsubscribe. Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Kernel-panic RAID1 su kernel 2.6.20
Ciao a tutti, ho una Debian testing con kernel compilato a mano 2.6.16 con RAID1 su due HD SATA. L'altro giorno ho deciso di compilare il nuovo kernel 2.6.20, quindi usando il .config del kernel 2.6.16 lo ho compilato. Al riavvio ahime` ottengo un bel: VFS: cannot open root device md1 or unknown-block(0,0) KENEL-PANIC - not syncing: VFS: ... Dopo aver sbattuto la testa senza nessuna risposta ho eseguito lo stesso procedimento per compilare un kernel 2.6.18 e tutto funziona... Ho notato che appunto dalla versione 2.6.20 sono state aggiornate libata e pata, e credo che il motivo di quel kernel panic sia proprio questo, solo che non so come risolvere... La mia config: == SCSI device support == RAID Transport Class * SCSI device support SCSI target support [*] legacy /proc/scsi/ support --- SCSI support type (disk, tape, CD-ROM) * SCSI disk support SCSI tape support SCSI OnStream SC-x0 tape support SCSI CDROM support SCSI generic support SCSI media changer support --- Some SCSI devices ( e.g. CD jukebox) support multiple LUNs [ ] Probe all LUNs on each SCSI device [ ] Verbose SCSI error reporting (kernel size +=12K) [ ] SCSI logging facility [*] Asynchronous SCSI scanning SCSI Transports --- SCSI low-level drivers --- == Multi-Device support (RAID and LVM) [*] Multiple devices driver support (RAID and LVM) * RAID support Linear (append) mode RAID-0 (striping) mode * RAID-1 (mirroring) mode RAID-10 (mirrored striping) mode (EXPERIMENTAL) RAID-4/RAID-5/RAID-6 mode Multipath I/O support Faulty test module for MD Device mapper support Grazie... so dispera`!!
Re: ricostruire raid1
non capisco perché usi un live-cd non ti serve a nulla se il sistema è in RAID come descrivi avvi semplicemente il sistema e fai la ricostruzione semmai potrebbe serviriti installare grub per avviare il sistema se non si trovava sul disco sostituito vedi CD http://open.rhx.it/live-cds/ uhmm, posso ricostruire il mirror di una partizione anche quando è montata ? __ Yahoo! FareChase: Search multiple travel sites in one click. http://farechase.yahoo.com -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: ricostruire raid1
johon Doe ha scritto: uhmm, posso ricostruire il mirror di una partizione anche quando è montata ? Ovvio :-) -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
ricostruire raid1
ciao, avevo due dischi in raid1 su cui ci stava anche / un disco è saltato ed è gia' stato sostituito. Le partizione piu' grandi come /srv sono gia' state ri-mirrorate. In pratica ho bootato con un live-cd ed ho ricostruito la partizion table con un: sfdisk -d /dev/sda|sfdisk /dev/sdc poi ho riavviato ed ho lanciato un: mdadm /dev/md* --add /dev/sdc* per ricostruire le partizioni grandi. ora dovrei fare la root ma non so come far vedere al live cd il raid. In teoria dovrei fare: mdadm --assemble /dev/md* /dev/sda* 'missing' e poi: mdadm /dev/md* --add /dev/sdc* è corretto ? __ Start your day with Yahoo! - Make it your home page! http://www.yahoo.com/r/hs -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: ricostruire raid1
johon Doe wrote: ciao, avevo due dischi in raid1 su cui ci stava anche / un disco è saltato ed è gia' stato sostituito. Le partizione piu' grandi come /srv sono gia' state ri-mirrorate. In pratica ho bootato con un live-cd ed ho ricostruito la partizion table con un: sfdisk -d /dev/sda|sfdisk /dev/sdc poi ho riavviato ed ho lanciato un: mdadm /dev/md* --add /dev/sdc* per ricostruire le partizioni grandi. ora dovrei fare la root ma non so come far vedere al live cd il raid. In teoria dovrei fare: mdadm --assemble /dev/md* /dev/sda* 'missing' e poi: mdadm /dev/md* --add /dev/sdc* è corretto ? non capisco perché usi un live-cd non ti serve a nulla se il sistema è in RAID come descrivi avvi semplicemente il sistema e fai la ricostruzione semmai potrebbe serviriti installare grub per avviare il sistema se non si trovava sul disco sostituito vedi CD http://open.rhx.it/live-cds/ Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Debian, RAID1 e IBM xSeries 206
Ciao a tutti, sto facendo un po' di prove per imparare a utilizzare un RAID di tipo 1 su un server IBM xSeries 206, che ho a disposizione. Questo server ha due dischi SATA e un controller raid Adaptec integrato. Allora... abilito il controller dal bios, e creo il raid1 con i due dischi identici da 160GB. Mi dice che l'Array Status è Optimal. Bene. Procedo. Al bootstrap la macchina mi rileva il raid, e vede i due dischi come un'unica unità logica. Ok. Avvio dal cd net install di debian 3.1 (stable). Al prompt digito linux26 e dopo alcuni passi di configurazione arrivo al momento di formattare e di partizionare. Scelgo la configurazione manuale. Ecco il mio primo intoppo: nell'elenco vedo entrambi i dischi! Mi aspetterei di vedere una sola unità, sbaglio? Che faccio? a) ignoro il secondo disco e installo Debian solo sul primo? Potrei dedurre che il controller raid si prenderà carico in automatico della replicazione, no? b) devo comunque formattare e partizionare il secondo disco? c) devo creare un Multi-Disk Device? Non credo... voglio utilizzare il controller hardware, non voglio creare un raid software... Capisco che le mie perplessità siano basilari, ma ho spulciato già una marea di documentazione online, senza venirne a capo. Un grazie a chiunque voglia aiutarmi! :-) -- gabriele
Re: Debian, RAID1 e IBM xSeries 206
Gabriele Caniglia wrote: Ecco il mio primo intoppo: nell'elenco vedo entrambi i dischi! Mi aspetterei di vedere una sola unità, sbaglio? Che faccio? fai un raid software o ti cerchi un driver per il controller. Se ti mostra i due dischi allora non ha visto il raid hardware. -- Non c'è più forza nella normalità, c'è solo monotonia. signature.asc Description: OpenPGP digital signature
Re: Debian, RAID1 e IBM xSeries 206
Gabriele Caniglia wrote: Tu dici che questo avviene perché il controller non è supportato? Ma il controller non è indipendente dall'OS? Si sarebbe dovuto occupare della replica, e fornire due dischi avviabili indipendentemente, sbaglio? non e' vero, perche' linux bypassa il controller. Questi controller integrati in verita' sono quasi sempre delle cagate pazzesche, che realizzano il mirroring direttamente via software nel driver. Un po' come i winmodem, per intenderci. Se non hai il driver non hai il controller. Tra questi controller e il raid software non cambia nulla. Al massimo hai un acceleratore dello xor in hardware, ma neanche sempre. -- Non c'è più forza nella normalità, c'è solo monotonia. signature.asc Description: OpenPGP digital signature
Re: RISOLTO raid1 non riprende una partizione all'avvio
Vinz486 wrote: Perchè? Perchè, in previsione dell'aggiunta a posteriore del nuovo disco nel raid, ho installato Debian con un solo disco su un raid1 in degraded mode. idea interessante ma se porta a questo problema... attualmente quando devo passare il sistema a RAID1 e non lo è precedentemente ricreo gli array e ricopio le partizioni, esiste un altro modo di agire a posteriori per ricreare un sistema su RAID1? in ogni caso compliemnti per l'analisi! Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: RISOLTO raid1 non riprende una partizione all'avvio
On Thu, Sep 08, 2005 at 11:24:09PM +0200, Vinz486 wrote: Per cui: mdadm /dev/md0 -a /dev/hdXX [attendere la FINE del sync] apt-get install --reinstall kernel-image-xx metodo pulito che non richiede di riscaricarsi il pacchetto: /var/lib/dpkg/info/kernel-image-x.x.x-y-zz.postinst configure Ciao -- - |Marco Nenciarini| Debian/GNU Linux Developer - Plug Member | | [EMAIL PROTECTED] | http://www.prato.linux.it/~mnencia | - Key fingerprint = FED9 69C7 9E67 21F5 7D95 5270 6864 730D F095 E5E4 signature.asc Description: Digital signature
Re: RISOLTO raid1 non riprende una partizione all'avvio
Marco Nenciarini wrote: metodo pulito che non richiede di riscaricarsi il pacchetto: /var/lib/dpkg/info/kernel-image-x.x.x-y-zz.postinst configure magari con il kernel funziona ma mica è una cosa di validità generale cioè il pacchetto deb potrebbe avere conffiles preinstall... non la vedo bene che root chiami direttamente gli script che dovrebbe eseguire dpkg Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: RISOLTO raid1 non riprende una partizione all'avvio
On Fri, Sep 09, 2005 at 11:25:39AM +0200, Alessandro De Zorzi wrote: Marco Nenciarini wrote: metodo pulito che non richiede di riscaricarsi il pacchetto: /var/lib/dpkg/info/kernel-image-x.x.x-y-zz.postinst configure magari con il kernel funziona ma mica è una cosa di validità generale ok hai ragione: dpkg-reconfigure -pcritical kernel-image-x.x.x-y-zz cioè il pacchetto deb potrebbe avere conffiles preinstall... cioe? non la vedo bene che root chiami direttamente gli script che dovrebbe eseguire dpkg ma dpkg-reconfigure è ok... Ciao -- - |Marco Nenciarini| Debian/GNU Linux Developer - Plug Member | | [EMAIL PROTECTED] | http://www.prato.linux.it/~mnencia | - Key fingerprint = FED9 69C7 9E67 21F5 7D95 5270 6864 730D F095 E5E4 signature.asc Description: Digital signature
dpkg e postinst (Re: RISOLTO raid1 non riprende una partizione all'avvio)
Marco Nenciarini wrote: cioè il pacchetto deb potrebbe avere conffiles preinstall... cioe? se vedi come è costruito un pacchetto deb noti che ci possono essere script che vengono eseguiti prima e dopo la scompattazione dei binari http://www.debian.org/doc/manuals/maint-guide/ch-dother.it.html#s-maintscripts in genere il più usato è postinst ma se lo invochi direttamente non ottiene un reconfigure del pacchetto, o meglio lo ottieni se il pacchetto non prevede altri script di configurazione non la vedo bene che root chiami direttamente gli script che dovrebbe eseguire dpkg ma dpkg-reconfigure è ok... si, perché appunto quegli script devono essere invocati da dpkg* che praticamente in soldoni esegue quello che fa dpkg -i saltando la parte di scompattazione e copia dei binari e usando le priorità del caso Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: dpkg e postinst (Re: RISOLTO raid1 non riprende una partizione all'avvio)
On Fri, Sep 09, 2005 at 01:11:16PM +0200, Alessandro De Zorzi wrote: Marco Nenciarini wrote: cioè il pacchetto deb potrebbe avere conffiles preinstall... cioe? se vedi come è costruito un pacchetto deb noti che ci possono essere script che vengono eseguiti prima e dopo la scompattazione dei binari http://www.debian.org/doc/manuals/maint-guide/ch-dother.it.html#s-maintscripts in genere il più usato è postinst ma se lo invochi direttamente non ottiene un reconfigure del pacchetto, o meglio lo ottieni se il pacchetto non prevede altri script di configurazione E che c'èntra? Qui stavamo parlando di fare rigenerare l'initrd al kernel, cosa che necessariamnte deve essere fatta nel postinst (prima i file necessari non ci sono). Altri script di configurazione non possono esserci, al massimo c'è il debconf, che pero non esegue modifiche. Le modifiche alla configurazione e la creazione di ile correlati deve essere fata nello script postinst. http://www.debian.org/doc/debian-policy/ch-maintainerscripts.html#s-configdetails non la vedo bene che root chiami direttamente gli script che dovrebbe eseguire dpkg ma dpkg-reconfigure è ok... si, perché appunto quegli script devono essere invocati da dpkg* che praticamente in soldoni esegue quello che fa dpkg -i saltando la parte di scompattazione e copia dei binari e usando le priorità del caso No, fa una miriade di altrwe cose che puoi vedere in http://www.debian.org/doc/debian-policy/ch-maintainerscripts.html#s-unpackphase Ciao -- - |Marco Nenciarini| Debian/GNU Linux Developer - Plug Member | | [EMAIL PROTECTED] | http://www.prato.linux.it/~mnencia | - Key fingerprint = FED9 69C7 9E67 21F5 7D95 5270 6864 730D F095 E5E4 signature.asc Description: Digital signature
Re: dpkg e postinst (Re: RISOLTO raid1 non riprende una partizione all'avvio)
Marco Nenciarini wrote: E che c'èntra? Qui stavamo parlando di fare rigenerare l'initrd al kernel, cosa che necessariamnte deve essere fatta nel postinst (prima i file necessari non ci sono). ho detto dal principio che non è che *non* funzioni, anzi! la tua soluzione funziona soltanto facevo notare il fatto di non invocare da shell script che dovrebbero essere invocati solo tramite appositi comandi e quindi non direttamente Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: Raid1: aggiungo un disco ma al reboot non se lo riprende.
On Wed, 7 Sep 2005 (22:19), Vinz486 wrote: # mdadm --add /dev/md0 /dev/hdg1 hdg1 ha come tipo partizione Linux raid autodetect (FD)? Ciao, -- Daniele JID: [EMAIL PROTECTED] (http://www.jabber.org) and remember: respect is everything . . . . . . . . . . . free your mind signature.asc Description: Digital signature
RISOLTO raid1 non riprende una partizione all'avvio
Ambiente: Linux Sarge con kernel da repository originale. boot su device md0 in raid1 con un disco mancante (rotto o mai inserito) Problema: all'aggiunta del disco con il comando mdam /dev/md0 -a /dev/hdXX , la partizione viene correttamente aggiunta al raid. mdrecovery fa correttamente il suo lavoro e parte col sync dei due dischi. Al termine del sync mdstat riporta che il raid1 è correttamente impostato con 2/2 dischi attivi. Al reboot un messaggio del kernel dice che il nuovo former disc ... is unavailable e non lo rimette nell'array md0. Ci si ritrova con md0 di nuovo in degraded mode. Soluzione: Cercando per ore su Google non ho trovato altro che risposte che dicevano di ricompilare il kernel col support raid integrato. Siccome sono contrario (quasi per principio) alla ricompilazione del kernel, ho cercato una strada alternativa. Dato che lo start e il mount della partizione di root viene effettuato da initrd, ho montato su una dir il mio initrd e ho scoperto che il file script in esso contenuto aveva un comando: /sdbin/mdam /dev/md0 -opzioni -UUID x /dev/hdXX cioè monta un solo disco. Perchè? Perchè, in previsione dell'aggiunta a posteriore del nuovo disco nel raid, ho installato Debian con un solo disco su un raid1 in degraded mode. Oppure, initrd è stato ricreato in un momento in cui l'array era in degraded mode (dopo una rottura ad esempio). initrd può essere ricreato a mano col comando mkinitrd oppure lo fa al volo apt quando si installa una immagine del kernel. Per cui: mdadm /dev/md0 -a /dev/hdXX [attendere la FINE del sync] apt-get install --reinstall kernel-image-xx oppure, se lo si sa usare, mkinitrd. Questo ricreerà all'interno del filesystem initrd uno script di start dell'array in maniera corretta. Vi scirvo questa mail perchè ho passato giorni (e ore e ore di attesa sei sync, per parecchie volte) prima di risolvere il problema e magari a qualcun altro potrebbe essere d'aiuto. In NESSUN raid-HOWTO si fa riferimento a questo problema. Ciao. -- PicoStreamer - the real WEB live streaming software vinz486.com
Re: RISOLTO raid1 non riprende una partizione all'avvio
complimenti, buono a saprersi ciao MaX Vinz486 wrote: Ambiente: Linux Sarge con kernel da repository originale. boot su device md0 in raid1 con un disco mancante (rotto o mai inserito) Problema: all'aggiunta del disco con il comando mdam /dev/md0 -a /dev/hdXX , la partizione viene correttamente aggiunta al raid. mdrecovery fa correttamente il suo lavoro e parte col sync dei due dischi. Al termine del sync mdstat riporta che il raid1 è correttamente impostato con 2/2 dischi attivi. Al reboot un messaggio del kernel dice che il nuovo former disc ... is unavailable e non lo rimette nell'array md0. Ci si ritrova con md0 di nuovo in degraded mode. Soluzione: Cercando per ore su Google non ho trovato altro che risposte che dicevano di ricompilare il kernel col support raid integrato. Siccome sono contrario (quasi per principio) alla ricompilazione del kernel, ho cercato una strada alternativa. Dato che lo start e il mount della partizione di root viene effettuato da initrd, ho montato su una dir il mio initrd e ho scoperto che il file script in esso contenuto aveva un comando: /sdbin/mdam /dev/md0 -opzioni -UUID x /dev/hdXX cioè monta un solo disco. Perchè? Perchè, in previsione dell'aggiunta a posteriore del nuovo disco nel raid, ho installato Debian con un solo disco su un raid1 in degraded mode. Oppure, initrd è stato ricreato in un momento in cui l'array era in degraded mode (dopo una rottura ad esempio). initrd può essere ricreato a mano col comando mkinitrd oppure lo fa al volo apt quando si installa una immagine del kernel. Per cui: mdadm /dev/md0 -a /dev/hdXX [attendere la FINE del sync] apt-get install --reinstall kernel-image-xx oppure, se lo si sa usare, mkinitrd. Questo ricreerà all'interno del filesystem initrd uno script di start dell'array in maniera corretta. Vi scirvo questa mail perchè ho passato giorni (e ore e ore di attesa sei sync, per parecchie volte) prima di risolvere il problema e magari a qualcun altro potrebbe essere d'aiuto. In NESSUN raid-HOWTO si fa riferimento a questo problema. Ciao. __ Renovamos el Correo Yahoo! Nuevos servicios, más seguridad http://correo.yahoo.es -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: RISOLTO raid1 non riprende una partizione all'avvio
Vinz486 ha scritto: In NESSUN raid-HOWTO si fa riferimento a questo problema. ottima occasione per proporla a chi ha scritto howto sull'argomento. Complimenti per aver scoperto l'arcano Ciao Davide -- Linux User: 302090: http://counter.li.org Prodotti consigliati: Sistema operativo: Debian: http://www.it.debian.org Strumenti per l'ufficio: OpenOffice.org: http://it.openoffice.org Database: PostgreSQL: http://www.postgres.org Browser: FireFox: http://www.mozilla.org/products/firefox Client di posta: ThunderBird: http://www.mozilla.org/products/thunderbird -- Non autorizzo la memorizzazione del mio indirizzo di posta a chi usa outlook: non voglio essere invaso da spam -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: RISOLTO raid1 non riprende una partizione all'avvio
On 9/8/05, Davide Prina [EMAIL PROTECTED] wrote: ottima occasione per proporla a chi ha scritto howto sull'argomento. Appena posso segnalo la cosa. -- PicoStreamer - the real WEB live streaming software vinz486.com
Raid1: aggiungo un disco ma al reboot non se lo riprende.
Avevo il sistema in degraded array con raid1. Ho spento il pc, aggiunto il secondo disco (perfettamente identico al primo, modello e partizioni) Al riavvio ho dato un: # mdadm --add /dev/md0 /dev/hdg1 ed è cominciato il sync (che è durato 1 ora) Ma al reboot, il nuovo disco non lo vuole e torna in degraded mode. Ecco un estratto di dmesg: - hde: attached ide-disk driver. hde: 490234752 sectors (251000 MB) w/16384KiB Cache, CHS=30515/255/63, UDMA(33) hdg: attached ide-disk driver. hdg: 490234752 sectors (251000 MB) w/16384KiB Cache, CHS=30515/255/63, UDMA(33) Partition check: /dev/ide/host2/bus0/target0/lun0: p1 p2 p3 /dev/ide/host2/bus1/target0/lun0: p1 p2 p3 md: md driver 0.90.0 MAX_MD_DEVS=256, MD_SB_DISKS=27 md: raid1 personality registered as nr 3 [events: 0014] md: bindide/host2/bus0/target0/lun0/part1,1 md: ide/host2/bus0/target0/lun0/part1's event counter: 0014 md0: former device ide/host2/bus1/target0/lun0/part1 is unavailable, removing from array! md0: max total readahead window set to 124k md0: 1 data-disks, max readahead per data-disk: 124k raid1: device ide/host2/bus0/target0/lun0/part1 operational as mirror 0 raid1: md0, not all disks are operational -- trying to recover array raid1: raid set md0 active with 1 out of 2 mirrors Ma perchè? il disco hdg è perfettamente funzionante, è riconosciuto al boot, e lo posso montare e smontare tranquillamente. Perchè dice che md0: former device ide/host2/bus1/target0/lun0/part1 is unavailable ? Ha qualcosa a che fare col superblock? Come faccio l'update del superblock dei 2 dischi? Se lo riaggancio all'array con mdadm funziona, fa il sync, ma al riavvio lo perdo... -- PicoStreamer - the real WEB live streaming software vinz486.com
[BIS] Raid1: aggiungo un disco ma al reboot non se lo riprende.
Avevo il sistema in degraded array con raid1. Ho spento il pc, aggiunto il secondo disco (perfettamente identico al primo, modello e partizioni) Al riavvio ho dato un: # mdadm --add /dev/md0 /dev/hdg1 ed è cominciato il sync (che è durato 1 ora) Ma al reboot, il nuovo disco non lo vuole e torna in degraded mode. Ecco un estratto di dmesg: - hde: attached ide-disk driver. hde: 490234752 sectors (251000 MB) w/16384KiB Cache, CHS=30515/255/63, UDMA(33) hdg: attached ide-disk driver. hdg: 490234752 sectors (251000 MB) w/16384KiB Cache, CHS=30515/255/63, UDMA(33) Partition check: /dev/ide/host2/bus0/target0/lun0: p1 p2 p3 /dev/ide/host2/bus1/target0/lun0: p1 p2 p3 md: md driver 0.90.0 MAX_MD_DEVS=256, MD_SB_DISKS=27 md: raid1 personality registered as nr 3 [events: 0014] md: bindide/host2/bus0/target0/lun0/part1,1 md: ide/host2/bus0/target0/lun0/part1's event counter: 0014 md0: former device ide/host2/bus1/target0/lun0/part1 is unavailable, removing from array! md0: max total readahead window set to 124k md0: 1 data-disks, max readahead per data-disk: 124k raid1: device ide/host2/bus0/target0/lun0/part1 operational as mirror 0 raid1: md0, not all disks are operational -- trying to recover array raid1: raid set md0 active with 1 out of 2 mirrors Ma perchè? il disco hdg è perfettamente funzionante, è riconosciuto al boot, e lo posso montare e smontare tranquillamente. Perchè dice che md0: former device ide/host2/bus1/target0/lun0/part1 is unavailable ? Ha qualcosa a che fare col superblock? Come faccio l'update del superblock dei 2 dischi? Se lo riaggancio all'array con mdadm funziona, fa il sync, ma al riavvio lo perdo... Ma che devo fare per dirgli di tenerselo? PS: il [BIS] nell'oggetto significa che questa è la seconda volta che mando questa mail. Non so perchè ma ogni tanto si perdono nell'oblio... -- PicoStreamer - the real WEB live streaming software vinz486.com
raid1 aggiungere disco
Aggiungo un disco ad un raid1: mdadm -a /dev/md0 /dev/hdg1 Parte il sync... un ora. Riavvio: l'array ritorna ad avere un solo disco... Che devo fare per fare in modo che al reboot si tenga tutti e 2 i dischi? (questa sarà la 4 o 5 mail che invio alla lista su questo argomento: nessuna di esse è mai apparsa sulla lista. E' vietato parlarne?) -- PicoStreamer - the real WEB live streaming software vinz486.com
Re: raid1 aggiungere disco
Vinz486 wrote: (questa sarà la 4 o 5 mail che invio alla lista su questo argomento: nessuna di esse è mai apparsa sulla lista. E' vietato parlarne?) ci devono essere dei problemi oppuire tu non sei (+) iscritto. si, sono arrivate tutte. Personalemnte non so darti una risposta, mi spiace. ciao MaX __ Renovamos el Correo Yahoo! 1GB de capacidad, nuevos servicios y más seguridad http://correo.yahoo.es -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Re: raid1 aggiungere disco
On 9/7/05, max [EMAIL PROTECTED] wrote: ci devono essere dei problemi oppuire tu non sei (+) iscritto. si, sono arrivate tutte. Questa ha funzionato. Cmq, sono iscritto: gli altri thread li vedo tutti. Se qualcuno a risposto nelle altre mail, potrebbe qualche anima pia accodarle a questo thread? thx -- PicoStreamer - the real WEB live streaming software vinz486.com
Re: migrazione RAID1 partizioni dati
Alessandro De Zorzi wrote: volevo però successivamente accedere alle vecchie partizioni RAID dati una volta installato il sistema e marcato le partizioni fd devo soltanto ricostruire il raidtab congruente, quindi dare un raidstart e montare il device e trovo tutti i dati? o ci possono essere inconvenienti? ...mi rispondo da solo raidtab è un file usato per la creazione dei raid dai vecchi kernel con un kernel 2.6 usare mdadm per tutte le operazioni per quanto riguarda il mantenimento di vecchie partizione in fase di installazioni è sufficiente creare il RAID e ovviamente non formattarlo... unico problema: usando il tool di debian decide lui come nominare i raid quindi non puoi fare un md5 usando la partizione hda5 e hdb5 e se vuoi avere un ordine mentale della numerazione delle partizioni devi ricorrere a mdadm Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
migrazione RAID1 partizioni dati
mi trovo a migrare un sistema linux redhat 7.3 a Debian-sarge che contiene alcune partizioni dati in raid1 ext3 per il sistema che sarà anch'esso su RAID non ho problemi volevo però successivamente accedere alle vecchie partizioni RAID dati una volta installato il sistema e marcato le partizioni fd devo soltanto ricostruire il raidtab congruente, quindi dare un raidstart e montare il device e trovo tutti i dati? o ci possono essere inconvenienti? Alessandro -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of unsubscribe. Trouble? Contact [EMAIL PROTECTED]
Raid1 demone ntp
Salve a tutti ! Ho un quesito da porre ... Ho installato su un server HP Proliant ML110 (SATA+2*160Gb su controller FastTrack 150 SX4) Debian Sarge con kernel 2.6.10 in maniera tale da supportare le nuove libdata che mi gestissero il raid con questa scheda. Dopo pochi giorni, o pochi reboot (nell'ordine dei 4/5) all'avvio mi dice che /dev/md0 è montato ma controllare con e2fsck perchè ci sono problemi. /dev/md0 è / ed è in ext3. Io provo ed effettivamente ci sono un po' di cose da fixxare, lo faaccio riavvio e sono al punto di partenza. Questo si ripresentava ad ogni avvio e nn solo per la partizione / ma anche per /home Quando poi ho installato il demone ntp tutto è andato a posto, o meglio nessun crash dovuto ad errori di filesystem. Quando ho spostato il server nel suo luogo e l'ho avviato, senza però avere il collegamento ad un server ntp mi diceva che avveva ancora errori sul filesystem. ora mi chiedo, tutto è frutto di follia o c'è un nesos logico? e ancora... avete qualche how-to o riferimento web per sapere quali strumenti posso usare per monitorizzare, correggere un sistema raid eil relativo filesystem? Grazie mille per l'aiuto! Cia! ..:eMa:..