Scusate, risolto, sono un cretino.
Piviul
On 7/24/24 08:39, Piviul wrote:
Ciao a tutti, ho la partizione di boot in raid1 e mi sono accorto che
entrambe le partizioni dei membri del raid hanno lo stesso uuid. Mi
son detto: no problem, smonto l'array, una partizione la marco come
fai
Ciao a tutti, ho la partizione di boot in raid1 e mi sono accorto che
entrambe le partizioni dei membri del raid hanno lo stesso uuid. Mi son
detto: no problem, smonto l'array, una partizione la marco come fail, la
rimuovo dal raid e gli cambio lo uuid con tune2fs... ma ho fallito. Ora
so
risolto con un dpkg-reconfigure grub-pc
Grazie comunque
Piviul
On 5/17/24 16:46, Piviul wrote:
Ciao a tutti, su un PC non EFI ho installato debian con / su lvm su un
disco gpt e partizione di boot separata in ext3. Ora vorrei
trasformare la partizione /boot su mdadm. Su un altro disco ho crea
Ciao a tutti, su un PC non EFI ho installato debian con / su lvm su un
disco gpt e partizione di boot separata in ext3. Ora vorrei trasformare
la partizione /boot su mdadm. Su un altro disco ho creato della stessa
dimensione della partizione di boot un volume raid1 e ho ricevuto il
messaggio:
È davvero molto interessante... secondo voi si può utilizzare un raid in
thin provisioning? Se la risposta fosse affermativa, il RAID va
impostato sull'LV del pool o sul volume logico creato dal pool?
Ma avrebbe senso secondo voi usare lo thin-provisioning per gestire i LV
di un server
ge un secondo PV in raid 1 al VG relativo il
sistema non fa più il boot[¹].
Secondo voi è normale? È una limitazione conosciuta di grub?
Grazie
Piviul
[¹] Ho provato anche con il "boot repair disk"...
Domanda forse scema: perché la dir /boot l'hai messa sull'LVM?
Io la /boot l
On Tue, Aug 10, 2021 at 12:59:59PM +0200, Piviul wrote:
> Ciao a tutti, ritorno sull'argomento... data una debian 10 la cui partizione
> di boot risiede su un LV basato su un VG con 1 solo PV in raid1 software nel
> momento in cui al LV si aggiunge un secondo PV in raid 1 al
Ciao a tutti, ritorno sull'argomento... data una debian 10 la cui
partizione di boot risiede su un LV basato su un VG con 1 solo PV in
raid1 software nel momento in cui al LV si aggiunge un secondo PV in
raid 1 al VG relativo il sistema non fa più il boot[¹].
Secondo voi è normale?
è attualmente indicato come
> spare, prende il posto del disco sfilato.
>
questa mi pare una bella notizia:
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Jun 29 21:09:02 2012
Raid Level : raid5
Array Size : 5860538880 (5589.05 GiB 6
pero dopo che avrò rifatto il raid (se dovesse
> collassare al cambio di un disco del raid stesso... visto che al primo
> cambio c'é stato un comportamento strano del disco inserito (è da 2TB
> come quelli che ci sono attualmente, ma non mi permette di crearci una
> partizione, che
il Sat, 2 May 2020 18:09:32 +0100
Antonio ha scritto:
| Grazie WinterMule,
|
| era proprio quello che cercavo. Adesso devo decidere se mi conviene
| risparmiare qualche euro al costo di perdere un po' di prestazioni.
|
| Saluti
|
buongiorno,
anche se a distanza di qualche giorno e probabilme
Grazie a tutti per le risposte e i suggerimenti.
In questo caso non mi interessa particolarmente tenere traccia di
backup incrementali, in quanto è un singolo backup che mi serve per un
eventuale recupero dopo che avrò rifatto il raid (se dovesse
collassare al cambio di un disco del raid stesso
Il 03/05/20 12:11, Paolo Miotto ha scritto:
Il 03/05/20 10:32, Alessandro Baggi ha scritto:
Se usi rsync, il primo consiglio che mi sento di darti è quello di
generare uno storico dei backup. Se continui ad eseguire il
sync/backup solo tra due dir hai solo l'ultima versione e non i
pregressi t
Il 03/05/20 10:32, Alessandro Baggi ha scritto:
Se usi rsync, il primo consiglio che mi sento di darti è quello di
generare uno storico dei backup. Se continui ad eseguire il
sync/backup solo tra due dir hai solo l'ultima versione e non i
pregressi tipo (con hardlink per salvare spazio):
(in
Ciao Alessandro...
in relatà non ho mai fatto il backup della nas, quindi non ho nulla da
verificare come integrità dei precedenti backup.
il backup che farò, in prima battuta, è della sola parte utente
"/home" e "/root", della parte di sistema, mi interessano solo un paio
di configurazioni, che
Il 02/05/20 11:19, WinterMute ha scritto:
> il Fri, 1 May 2020 23:06:20 +0100
> Antonio ha scritto:
>
> | Salve,
> |
> | sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
> | LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
>
il Fri, 1 May 2020 23:06:20 +0100
Antonio ha scritto:
| Salve,
|
| sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
| LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
| controllato la lista dei dischi compatibili con la scheda e
| sfortunatament
Il giorno gio 30 apr 2020 alle ore 07:52 Alessandro Baggi
ha scritto:
>
> Il 25/04/20 19:27, Gollum1 ha scritto:
> > Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino
> > il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei
> > di
A proposito, mi premeva anche fare menzione della configurazione:
1) Montare la scheda RAID su qualche vecchio Poweredge
2) Installare Debian 10 su un SSD connesso alla porta SATA della
motherboard - SSD da 500GB (evo860) con LUKS (ext4 in quanto non conosco
i nuovi ZFS, btrfs, ecc. ma accetto
Salve,
sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
controllato la lista dei dischi compatibili con la scheda e
sfortunatamente, tutti i dischi da 3-4TB sono di tipo enterprise e
quindi costano u
Il 25/04/20 19:27, Gollum1 ha scritto:
Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino
il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei
dischi, mandando quindi in degraded il raid, e vediamo se lo spare
viene usato correttamente, o se perdo tutto... Se
to:
> Ciao Antonio,
>
> Il giorno mer, 29/04/2020 alle 00.03 +0100, Antonio ha scritto:
> [...]
>> sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
>> porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
>> fare upgrade
Ciao Antonio,
Il giorno mer, 29/04/2020 alle 00.03 +0100, Antonio ha scritto:
[...]
> sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
> porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
> fare upgrade e costruirmi server nuovo con sche
Salve,
sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
fare upgrade e costruirmi server nuovo con scheda RAID (non voglio
soluzioni software).
La 3Ware non esiste più e mi chiedo cosa mi devo pr
onsigliate di fare? va bene così? posso fidarmi della
> > configurazione attuale?
> non so cosa consigliarti, non ho esperienze nell'utilizzo di dischi raw
> non partizionati in un raid... se nessuno ha esperienza in merito e non
> ci conforta con l'esperienza, io con qu
Emmanuel Gelati ha scritto il 03/03/20 alle 13:09:
Ciao,
Qualcosa come questo potrebbe andare bene:
# lvcreate -m1 --type raid1 -L1G debian-vg -n thin_pool
# lvcreate -m1 --type raid1 -L8MB debian-vg -n thin_meta
# lvconvert --thinpool debian-vg/thin_pool --poolmetadata debian-vg/thin_meta
# lv
utto gestito da lvm, invece di
> > creare altri layer unitili.
>
> Grazie Emmanuel, non ne conoscevo nemmeno l'esistenza; quindi non sono i
> VG che si appoggiano a volumi raid ma sono direttamente i volumi logici
> che vengono gestiti in raid... non capisco come ma pazienz
ono i
VG che si appoggiano a volumi raid ma sono direttamente i volumi logici
che vengono gestiti in raid... non capisco come ma pazienza, se funziona!
non ho capito però come creare uno thinpool in raid5. Io per creare lo
thinpool, dopo aver creato un vg "vgdata", ho creato prima un
in altro
> post ho scritto ho creato un LVM thinpool da un VG composto da 4
> partizioni uguali (180G) di 4 dischi diversi. Ora mi è venuto il dubbio:
> lvm non ridonda nulla, quindi il VG si doveva basare su un raid mdadm
> invece che su partizioni singole: è corretto?
> O esiste un
Ciao a tutti, volevo solo chiedere una precizazione... come in altro
post ho scritto ho creato un LVM thinpool da un VG composto da 4
partizioni uguali (180G) di 4 dischi diversi. Ora mi è venuto il dubbio:
lvm non ridonda nulla, quindi il VG si doveva basare su un raid mdadm
invece che su
in un raid... se nessuno ha esperienza in merito e non
ci conforta con l'esperienza, io con questa spada di damocle pendente
sul capo non starei. Dopo aver fatto un bel backup io proverei a mandare
in fail sde1 e vedere cosa succede... poi se va tutto bene finito il
sync su sda aggiungerei
ire la pelle d'oca. Funzionare
> funziona, con linux poi non e' complicato montarlo, pero', e' sempre
> qualcosa che preferisco tenere lontano (poi, comunque, per la cronaca,
> pure lvm piglia un disco senza partizionarlo, volendo).
>
> mi viene da pensare che
pero', e' sempre
qualcosa che preferisco tenere lontano (poi, comunque, per la cronaca,
pure lvm piglia un disco senza partizionarlo, volendo).
mi viene da pensare che i dischi che compongono il tuo raid siano piu'
grandi magari di pochissimo rispetto al nuovo e quindi giustamente non
l
quello morto era un segate, sempre da 2TB).
Il problema è che se faccio come ho fatto con gli altri HDD,
partizionare il disco con una unica partizione di tipologia RAID, non
riesco ad aggiungerlo al raid (MD) perché mi dice che lo spazio è
insufficiente.
Se invece non creo nessuna partizione
o' per avvocati, non per informatici. Tu
compri un server superfico con controller raid hardware e cache, e poi con
proxmox/ceph (o proxmox/zfs) lo usi come un server 'normale'...
se dici così penso a un disco fisico; io direi un device è un device...
Comunque è tutto chiaro.
Mille grazie!
Piviul
Mandi! Piviul
In chel di` si favelave...
> sono sempre più confuso, non è specificato che ceph non funziona su raid
> hardware?
Un disco e un disco, ceph funziona con i dischi.
Certo, non è la soluzione migliore, aggiungi degli strati di complessità
ulteriori che non servono, ma da qu
Marco Gaiarin ha scritto il 22/01/20 alle 21:49:
[...]
...fatto salvo che a mio avviso stai facendo troppo onanismo celebrale,
specie per un server di test, il mio cluster ceph è fatto con tre ML350G6,
con gli OSD (dischi) su RAID-0.
sono sempre più confuso, non è specificato che ceph non
Mandi! Piviul
In chel di` si favelave...
> Admin Guide for 6.x[¹] a pag. 9 nel paragrafo 2.1.2 a proposito della VM
> storage leggo: Neither ZFS nor Ceph are compatible with a hardware RAID
> controller.
> Ma io ho solo dischi sotto un controller RAID hardware!
...fatto sal
Ciao a tutti proseguo con l'installazione di proxmox. Su Proxmox VE
Admin Guide for 6.x[¹] a pag. 9 nel paragrafo 2.1.2 a proposito della VM
storage leggo: Neither ZFS nor Ceph are compatible with a hardware RAID
controller.
Ma io ho solo dischi sotto un controller RAID hardware!
Sono b
Ciao a tutti, tempo fa ho installato un nuovo server prendendo alcuni
dischi in raid+lvm da un server che è stato dismesso. Ora mi sono
accorto che nel file /etc/blkid.tab la label del disco ha un riferimento
al nome del vecchio server così come il file /etc/mdadm/mdadm.conf.
# cat /etc
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA256
Il 18/09/18 17:41, Giuliano Grandin ha scritto:
> Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6) sia
> condiviso fra linux e windows sulla stessa macchina in dual boot, si deve
> avere per forza un contro
Il giorno Tue, 18 Sep 2018 18:32:06 +0200
Luciano Franchi ha scritto:
...
> https://wiki.debian.org/DebianInstaller/SataRaid
>
> Io però non l'ho mai fatto.
Grazie Luciano!
Giuliano
--
Ci sono solamente 10 tipi di persone nel mondo:
chi comprende il sistema binario e chi no.
Il 18/09/2018 17:41, Giuliano Grandin ha scritto:
Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6)
sia condiviso fra linux e windows sulla stessa macchina in dual boot,
si deve avere per forza un controller hw?
Una parte del raid deve essere specifica per ciascu
Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6) sia
condiviso fra linux e windows sulla stessa macchina in dual boot, si deve
avere per forza un controller hw?
Una parte del raid deve essere specifica per ciascun s.o., un'altra
utilizzabile da entrambi (e qui,
razie per le utili informazioni!
Da quel che leggo, se uno vuole poter dismettere un disco senza troppe
preoccupazioni per i contenuti, la cosa migliore da fare è mettere una
partizione cifrata LUKS il più possibile "vicino al metallo":
- Se si usano dischi singoli, meglio fare Me
On Sun, Aug 12, 2018 at 03:07:04AM +0200, Lorenzo "Palinuro" Faletra wrote:
> Se sai quanto è grande l'header e sovrascrivi solo quello hai già reso
> il disco irrecuperabile salvo backup dell'header.
> ovviamente se scrivi un po di piu male non fa, quindi su un disco con
> una sola partizione luks
On 08/12/2018 02:40 AM, Felipe Salvador wrote:
> On Sat, Aug 11, 2018 at 05:13:26PM +0200, gerlos wrote:
>> In ultimo, vi chiedo una conferma: nel momento in cui dovessi
>> dismettere i dischi criptati, per rendere inaccessibili i dati sarebbe
>> sufficiente azzerare i primi MB dei dischi, giust
On Sat, Aug 11, 2018 at 05:13:26PM +0200, gerlos wrote:
> In ultimo, vi chiedo una conferma: nel momento in cui dovessi
> dismettere i dischi criptati, per rendere inaccessibili i dati sarebbe
> sufficiente azzerare i primi MB dei dischi, giusto?
Non ne ho idea, immagino di si, spesso immaginare n
Il 10/08/2018 19:19, Felipe Salvador ha scritto:
On Fri, Aug 10, 2018 at 01:52:51PM +0200, gerlos wrote:
Ciao a tutti,
Ciao
Devo criptare i dati[1] su un file server con Debian Stable.
Sullo stesso server devo configurare RAID 1 (per prestazioni e
ridondanza), e usare LVM per gestire i
On Fri, Aug 10, 2018 at 01:52:51PM +0200, gerlos wrote:
> Ciao a tutti,
Ciao
> Devo criptare i dati[1] su un file server con Debian Stable.
> Sullo stesso server devo configurare RAID 1 (per prestazioni e
> ridondanza), e usare LVM per gestire i volumi (per espandere i volumi
Il giorno 10 agosto 2018 16:14, gerlos ha scritto:
Da quel che vedo in giro l'approccio "standard" al momento è:
> linux-raid + dm_crypt e LUKS + LVM + ext4
>
> Solo non sono sicuro in quale "ordine" usarli.
>
>
ciao
io ho 2 dischi in raid 1 software ch
andard", in modo tale che in un secondo tempo altri possano
>intervenire senza troppe difficoltà (o in modo tale che io possa
>ricostruire il lavoro fatto anche a distanza di tempo).
>
>Da quel che vedo in giro l'approccio "standard" al momento è:
>linux-raid + dm_crypt e LUKS + LVM + ext4
>
>Solo non sono sicuro in quale "ordine" usarli.
>
>grazie lo stesso,
>gerlos
tà (o in modo tale che io possa
ricostruire il lavoro fatto anche a distanza di tempo).
Da quel che vedo in giro l'approccio "standard" al momento è:
linux-raid + dm_crypt e LUKS + LVM + ext4
Solo non sono sicuro in quale "ordine" usarli.
grazie lo stesso,
gerlos
<>
Tutto OK per quanto leggo... ma da qualche anno uso praticamente solo
più ZFS e mi trovo benissimo.
- SSD come accelerazione per lo ZIL e cache
- raid gestito da ZFS
- snapshot: sono il pane di ZFS, anche il push-pull di snapshot verso
server di backup in ZFS sono una "magia"
Ciao a tutti,
Devo criptare i dati[1] su un file server con Debian Stable.
Sullo stesso server devo configurare RAID 1 (per prestazioni e
ridondanza), e usare LVM per gestire i volumi (per espandere i volumi
secondo le esigenze, fare snapshot, etc).
È la prima volta che mi capita (e sto
stati da
stock diversi, ma dello stesso taglio, come dimensione. probabilmente la tua
scheda raid non è mai stata configurata, continui a lasciarla non configurata.
Per l'installatore a questo punto si ferma tutto, devi poi intervenire tu per
le Configurazioni software, che non sono parti
Il 27/06/2018 20:38, Gollum1 ha scritto:
>>
>> intanto attualmente faccio solo e soltanto raid software per svariate
>> ragioni, in primis per la flessibilità e la portabilità (metto i dischi
>> altrove e partono semza fare storie), poi per la flessibilità
>> (conver
l top-quoting,
no... non
sei perdonabile...
>
>intanto attualmente faccio solo e soltanto raid software per svariate
>ragioni, in primis per la flessibilità e la portabilità (metto i dischi
>altrove e partono semza fare storie), poi per la flessibilità
>(convertire raid1 in raid 5,
scusate il top-post ma voglio provare a dare un mio piccolo contributo dalle
briciole della mia esperienza sul campo
intanto attualmente faccio solo e soltanto raid software per svariate ragioni,
in primis per la flessibilità e la portabilità (metto i dischi altrove e
partono semza fare
Il 27/06/2018 17:07, Alessandro Pellizzari ha scritto:
> On 27/06/2018 16:00, Mario Vittorio Guenzi wrote:
>
>> Il 27/06/2018 15:09, Portobello ha scritto:
>>> Ad esempio tra Raid Hardware e Software che differenze ci sono ?
>
>> Sintetizzando al massimo la questi
On 27/06/2018 16:00, Mario Vittorio Guenzi wrote:
Il 27/06/2018 15:09, Portobello ha scritto:
Ad esempio tra Raid Hardware e Software che differenze ci sono ?
Sintetizzando al massimo la questione, un raid HW e' piu' veloce nelle
operazioni R/W ma costa di piu' il raid softw
Il 27/06/2018 15:09, Portobello ha scritto:
>
> Ad esempio tra Raid Hardware e Software che differenze ci sono ?
> Una volta configurato devo intervenire in qualche modo sulla parte del
> Raid Software ?
>
Sintetizzando al massimo la questione, un raid HW e' piu' veloc
un Seagate da 250 Giga con
>> tecnologia Sata, meno vecchio, ma comunque anche lui ha già i suoi
>> anni.
>
> e fino a qui non ci piove.
>
>> Io vorrei togliere il primo disco Maxtor. Quindi aggiungerei due
>> hard disk nuovi simili al secondo disco. Cioè due disch
Giga con
> tecnologia Sata, meno vecchio, ma comunque anche lui ha già i suoi
> anni.
>
e fino a qui non ci piove.
> Io vorrei togliere il primo disco Maxtor. Quindi aggiungerei due
> hard disk nuovi simili al secondo disco. Cioè due dischi da
> 250giga, da collegare in Raid Hardware
togliere il primo disco Maxtor.
Quindi aggiungerei due hard disk nuovi simili al secondo disco.
Cioè due dischi da 250giga, da collegare in Raid Hardware, tra loro due.
Il secondo hard disk (il Seagate) dovrebbe rimanere separato dagli altri
due. Ed una volta fatto l'intervento hardware io d
Il 09/01/2018 12:54, Pol Hallen ha scritto:
'giorno a tutti :-)
ho una debian jessie in raid 1 con ext4
vorrei migrare a stretch e vorrei info precauzionali sul raid evitando
la possibile perdita di dati se il raid avesse dei problemi (ovviamente
non ho modo di fare un backup dei dati)
'giorno a tutti :-)
ho una debian jessie in raid 1 con ext4
vorrei migrare a stretch e vorrei info precauzionali sul raid evitando
la possibile perdita di dati se il raid avesse dei problemi (ovviamente
non ho modo di fare un backup dei dati)
con apt-get dist-upgrade ci potrebbero e
Tutto ok.
Possibile alternativa raid su zfs con ssd per accelerazione ZIL e cache nativa
ZFS.
Ciao
Luca
Il giorno 22 ott 2017, 16:32, alle ore 16:32, Antonio
ha scritto:
>Salve,
>
>ho intenzione di rifarmi un server (uso un poweredge SC410 del 2004
>ormail da un po). Stavo pensa
Salve,
ho intenzione di rifarmi un server (uso un poweredge SC410 del 2004
ormail da un po). Stavo pensando di farmi un T110 e se ne trovano tanti
su ebay e con 100-200 euro me la dovrei cavare. Mi consentirà' di andare
avanti per un po'.
stavo pensando alla seguente configurazione:
i
> consiglio di fare delle prove simulate per capire come si comporta
> quando un disco si guasta e devi sostituirlo.
>
> N.B.:
> Mdadm mette in raid le partizioni e non gli interi dischi, quindi un
> hard disk guasto lo puoi sostituire, in futuro, con un disco di capacità
> d
Il 05/05/2017 16:12, Luciano Franchi ha scritto:
Il 03/05/2017 13:50, Marco Gaiarin ha scritto:
Mandi! Paolo Redaelli
In chel di` si favelave...
livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
I drive cciss non supportano i contro
Il 03/05/2017 13:50, Marco Gaiarin ha scritto:
Mandi! Paolo Redaelli
In chel di` si favelave...
livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
I drive cciss non supportano i controller "fake-raid".
Luciano
Mandi! Paolo Redaelli
In chel di` si favelave...
> livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
--
La tua tana sta in collina, Dr. Dobermann, seimilioni a metro quadro
e tua moglie sembra proprio una regina,
pero` e` la moglie di un ladro.
:
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios
con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
raid,
ma al reboot non vede la partizione di root che dovrebbe essere
&qu
; Lascia perdere, storia vecchia quella dei fakeraid, usa un raid
>software e configura in jbod i dischi.
>>
>Bella fregatura, questa storia dei fakeraid, non pensavo fosse di
>questo
>livello. C'è una guida "per tonti" sulla cosa?
Quando usi un controller fakeraid s
Il 02/05/2017 21:42, Luca De Andreis ha scritto:
> Aggiungo, si lo danno compatibile con le distro commerciali perché c'è
> un driver apposito per i kernel di quelle distro per farlo funzionare.
> Lascia perdere, storia vecchia quella dei fakeraid, usa un raid software e
> co
E ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios
> >
> >con due
> >
> >> > sata da 1TB ciscuno.
> >> >
> >> > Provato con installer jessie e stretch
> >> >
> >> > Se passo al kernel "dmraid=true", l
;> > sata da 1TB ciscuno.
>> >
>> > Provato con installer jessie e stretch
>> >
>> > Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
>raid,
>> > ma al reboot non vede la partizione di root che dovrebbe essere
>>
> >
> > Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid,
> > ma al reboot non vede la partizione di root che dovrebbe essere
> > "/dev/mapper/QUALCOSAp2" anche passando "dmraid=true".
> >
> > In /dev/ma
ssie e stretch
> >
> >Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
> >raid, ma
> >al reboot non vede la partizione di root che dovrebbe essere
> >"/dev/mapper/QUALCOSAp2" anche passando "dmraid=true".
>
Il 02/05/2017 19:12, Michele Orsenigo ha scritto:
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid, ma
al reboot no
Il 2 maggio 2017 19:12:35 CEST, Michele Orsenigo ha
scritto:
>Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios con
>due
>sata da 1TB ciscuno.
>
>Provato con installer jessie e stretch
>
>Se passo al kernel "dmraid=true", l'installazione rie
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid, ma
al reboot non vede la partizione di root che dovrebbe
icorda SEMPRE che il rebuilding è stressante,
quindi non ti fidare di dischi non sani posti al rebuilding di un'altro
compagno messo peggio, ho visto raid perdere dischi proprio durante il
rebuilding.
Una nota, è per questo che esiste il RAID10 piuttosto che il RAID01.
Fare striping d
Il 15/11/2016 23:48, Gollum1 ha scritto:
Il 15 novembre 2016 23:12, Vincenzo Villa ha scritto:
Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:
Ho un grosso problema, più di due anni fa, avevo realizzato una
macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
ho
Il 15 novembre 2016 23:12, Vincenzo Villa ha scritto:
> Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:
>
>> Ho un grosso problema, più di due anni fa, avevo realizzato una
>> macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
>> ho errori su
Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:
> Ho un grosso problema, più di due anni fa, avevo realizzato una
> macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
> ho errori sull'intera struttura RAID, più di un disco presentano
> problemi
Mi
Il 15 novembre 2016 21:41, dea ha scritto:
>
> Ciao, mi permetto di dire la mia ... se posso.
Certo che puoi dire la tua Luca... ogni tuo commento è sempre ben accetto...
anche perché sono sempre commenti molto pertinenti.
> 1) Cambiare un disco con uno nuovo, implica uno stress elevato per gli
Ciao, mi permetto di dire la mia ... se posso.
1) Cambiare un disco con uno nuovo, implica uno stress elevato per gli
altri dischi, durante la fase di rebuilding. IO NON LO FAREI
Rischi che ti si pianti la fase di rebuilding o (peggio) che un disco
con qualche problema collassi sotto il fort
Ciao Lista...
Ho un grosso problema, più di due anni fa, avevo realizzato una
macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
ha funzionato per tutto questo tempo senza grossi problemi, con una
debian stable, fornisce il servizio SMB e FTP. Niente grandi pretese,
serve solo per
Ciao a tutti,
Ho un file server con due dischi, configurati in RAID1 (raid software,
/dev/md0), e con LVM sopra. In LVM sono configurati 4 volumi (root, /var,
/server e swap). Sul sistema c’è Ubuntu 14.04, ma immagino che se fosse stato
Debian sarebbe stato lo stesso.
In /var e /srv ci sono
Il 19/05/2016 19:25, Giuliano Curti ha scritto:
ciao ragazzi,
...
devo cambiare il tipo di partizione di un vecchio disco ide da "linux
raid" a "linux
native" (quella normale) (per leggerlo in una di quelle enclosure usb;
mi sembra di aver visto la possibilità di farlo co
ciao ragazzi,
in attesa di risolvere il mio problema di gestione POP di gmail(*),
ho bisogno ancora del vostro aiuto :-)
devo cambiare il tipo di partizione di un vecchio disco ide da "linux
raid" a "linux
native" (quella normale) (per leggerlo in una di quelle enclosure us
prova ad invertire le schede logiche sui due dischi identici, potresti
avere una botta di culo e recuperarne almeno uno...
fran...@modula.net ha scrito il 01/10/2015 alle 11:10:
> Vuoi dire che hai fatto un raid5 con due dischi e tre partizioni?
> Se è così direi che si è guastato il disco con una sola partizione raid
> e il raid5 sta lavorando sulle due partizioni residenti sul disco
> superstite.
il r
fosse non è possibile provare a riassemblare il raid partendo da sda3 e
sdc3?
Piviul
Il 01/10/2015 08:23, Piviul ha scritto:
Ciao a tutti, questa mattina arrivo in ufficio e trovo che
contemporaneamente alcune partizioni sono state rimosse dal raid. Questo
è il contenuto di mdstat:
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid1 sda5[0] sdc5[2](F
Mario Vittorio Guenzi ha scrito il 01/10/2015 alle 09:02:
>
>
> Il 01/10/2015 08:37, Piviul ha scritto:
>
>>
>> Ma secondo voi se spengo il sistema, e provo a controllare i
>> cavi? È troppo azzardato? Il sistema ripartirà ancora?
>
> Se sono SATA/SAS non ti serve spegnere la macchina li puoi
Luca Costantino ha scrito il 01/10/2015 alle 08:52:
> ecco che succede a leggere troppo di fretta :)
>
> una bella botta di sfiga, direi...
>
> smartctl cosa ti dice?
>
> i dischi sono UGUALI (stessa marca/capacita'/numeri di lotto simili)?
> potrebbero venire da una partita non troppo felice...
Il 01/10/2015 08:37, Piviul ha scritto:
>
> Ma secondo voi se spengo il sistema, e provo a controllare i cavi? È
> troppo azzardato? Il sistema ripartirà ancora?
Se sono SATA/SAS non ti serve spegnere la macchina li puoi collegare a
caldo, quindi anche verificare, sullo spegnere il sistema dic
1 - 100 di 902 matches
Mail list logo