risolto con un dpkg-reconfigure grub-pc
Grazie comunque
Piviul
On 5/17/24 16:46, Piviul wrote:
Ciao a tutti, su un PC non EFI ho installato debian con / su lvm su un
disco gpt e partizione di boot separata in ext3. Ora vorrei
trasformare la partizione /boot su mdadm. Su un altro disco ho
Ciao a tutti, su un PC non EFI ho installato debian con / su lvm su un
disco gpt e partizione di boot separata in ext3. Ora vorrei trasformare
la partizione /boot su mdadm. Su un altro disco ho creato della stessa
dimensione della partizione di boot un volume raid1 e ho ricevuto il
messaggio:
È davvero molto interessante... secondo voi si può utilizzare un raid in
thin provisioning? Se la risposta fosse affermativa, il RAID va
impostato sull'LV del pool o sul volume logico creato dal pool?
Ma avrebbe senso secondo voi usare lo thin-provisioning per gestire i LV
di un server per i
secondo PV in raid 1 al VG relativo il
sistema non fa più il boot[¹].
Secondo voi è normale? È una limitazione conosciuta di grub?
Grazie
Piviul
[¹] Ho provato anche con il "boot repair disk"...
Domanda forse scema: perché la dir /boot l'hai messa sull'LVM?
Io la /boot l'avrei lasciata s
On Tue, Aug 10, 2021 at 12:59:59PM +0200, Piviul wrote:
> Ciao a tutti, ritorno sull'argomento... data una debian 10 la cui partizione
> di boot risiede su un LV basato su un VG con 1 solo PV in raid1 software nel
> momento in cui al LV si aggiunge un secondo PV in raid 1 al VG re
Ciao a tutti, ritorno sull'argomento... data una debian 10 la cui
partizione di boot risiede su un LV basato su un VG con 1 solo PV in
raid1 software nel momento in cui al LV si aggiunge un secondo PV in
raid 1 al VG relativo il sistema non fa più il boot[¹].
Secondo voi è normale? È una
tualmente indicato come
> spare, prende il posto del disco sfilato.
>
questa mi pare una bella notizia:
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Jun 29 21:09:02 2012
Raid Level : raid5
Array Size : 5860538880 (5589.05 GiB 6001.1
pero dopo che avrò rifatto il raid (se dovesse
> collassare al cambio di un disco del raid stesso... visto che al primo
> cambio c'é stato un comportamento strano del disco inserito (è da 2TB
> come quelli che ci sono attualmente, ma non mi permette di crearci una
> partizione, che poi
il Sat, 2 May 2020 18:09:32 +0100
Antonio ha scritto:
| Grazie WinterMule,
|
| era proprio quello che cercavo. Adesso devo decidere se mi conviene
| risparmiare qualche euro al costo di perdere un po' di prestazioni.
|
| Saluti
|
buongiorno,
anche se a distanza di qualche giorno e
Grazie a tutti per le risposte e i suggerimenti.
In questo caso non mi interessa particolarmente tenere traccia di
backup incrementali, in quanto è un singolo backup che mi serve per un
eventuale recupero dopo che avrò rifatto il raid (se dovesse
collassare al cambio di un disco del raid stesso
Il 03/05/20 12:11, Paolo Miotto ha scritto:
Il 03/05/20 10:32, Alessandro Baggi ha scritto:
Se usi rsync, il primo consiglio che mi sento di darti è quello di
generare uno storico dei backup. Se continui ad eseguire il
sync/backup solo tra due dir hai solo l'ultima versione e non i
pregressi
Il 03/05/20 10:32, Alessandro Baggi ha scritto:
Se usi rsync, il primo consiglio che mi sento di darti è quello di
generare uno storico dei backup. Se continui ad eseguire il
sync/backup solo tra due dir hai solo l'ultima versione e non i
pregressi tipo (con hardlink per salvare spazio):
(in
Ciao Alessandro...
in relatà non ho mai fatto il backup della nas, quindi non ho nulla da
verificare come integrità dei precedenti backup.
il backup che farò, in prima battuta, è della sola parte utente
"/home" e "/root", della parte di sistema, mi interessano solo un paio
di configurazioni,
Il 02/05/20 11:19, WinterMute ha scritto:
> il Fri, 1 May 2020 23:06:20 +0100
> Antonio ha scritto:
>
> | Salve,
> |
> | sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
> | LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
> | control
il Fri, 1 May 2020 23:06:20 +0100
Antonio ha scritto:
| Salve,
|
| sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
| LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
| controllato la lista dei dischi compatibili con la scheda e
| sfortunatamente, tutti i
Il giorno gio 30 apr 2020 alle ore 07:52 Alessandro Baggi
ha scritto:
>
> Il 25/04/20 19:27, Gollum1 ha scritto:
> > Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino
> > il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei
> >
A proposito, mi premeva anche fare menzione della configurazione:
1) Montare la scheda RAID su qualche vecchio Poweredge
2) Installare Debian 10 su un SSD connesso alla porta SATA della
motherboard - SSD da 500GB (evo860) con LUKS (ext4 in quanto non conosco
i nuovi ZFS, btrfs, ecc. ma accetto
Salve,
sono alla ricerca di un consiglio. Sarei orientato all'acquisto della
LSI MegaRAID 9266-4i su cui installero' 4 dischi in RAID 10. Ho
controllato la lista dei dischi compatibili con la scheda e
sfortunatamente, tutti i dischi da 3-4TB sono di tipo enterprise e
quindi costano una fortuna
Il 25/04/20 19:27, Gollum1 ha scritto:
Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino
il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei
dischi, mandando quindi in degraded il raid, e vediamo se lo spare
viene usato correttamente, o se perdo tutto... Se
lle 00.03 +0100, Antonio ha scritto:
> [...]
>> sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
>> porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
>> fare upgrade e costruirmi server nuovo con scheda RAID (non voglio
>> soluzio
Ciao Antonio,
Il giorno mer, 29/04/2020 alle 00.03 +0100, Antonio ha scritto:
[...]
> sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
> porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
> fare upgrade e costruirmi server nuovo con scheda RAID (n
Salve,
sono ormai 7 anni che giro un server RAID 5 on una 3Ware 9650SE a 4
porte. Devo dire che non ho mai avuto problemi ma e' arrivata l'ora di
fare upgrade e costruirmi server nuovo con scheda RAID (non voglio
soluzioni software).
La 3Ware non esiste più e mi chiedo cosa mi devo procurare al
onsigliate di fare? va bene così? posso fidarmi della
> > configurazione attuale?
> non so cosa consigliarti, non ho esperienze nell'utilizzo di dischi raw
> non partizionati in un raid... se nessuno ha esperienza in merito e non
> ci conforta con l'esperienza, io con questa spa
Emmanuel Gelati ha scritto il 03/03/20 alle 13:09:
Ciao,
Qualcosa come questo potrebbe andare bene:
# lvcreate -m1 --type raid1 -L1G debian-vg -n thin_pool
# lvcreate -m1 --type raid1 -L8MB debian-vg -n thin_meta
# lvconvert --thinpool debian-vg/thin_pool --poolmetadata debian-vg/thin_meta
#
utto gestito da lvm, invece di
> > creare altri layer unitili.
>
> Grazie Emmanuel, non ne conoscevo nemmeno l'esistenza; quindi non sono i
> VG che si appoggiano a volumi raid ma sono direttamente i volumi logici
> che vengono gestiti in raid... non capisco come ma pazienza, se
VG che si appoggiano a volumi raid ma sono direttamente i volumi logici
che vengono gestiti in raid... non capisco come ma pazienza, se funziona!
non ho capito però come creare uno thinpool in raid5. Io per creare lo
thinpool, dopo aver creato un vg "vgdata", ho creato prima un l'lv
ome in altro
> post ho scritto ho creato un LVM thinpool da un VG composto da 4
> partizioni uguali (180G) di 4 dischi diversi. Ora mi è venuto il dubbio:
> lvm non ridonda nulla, quindi il VG si doveva basare su un raid mdadm
> invece che su partizioni singole: è corretto?
> O esiste un
Ciao a tutti, volevo solo chiedere una precizazione... come in altro
post ho scritto ho creato un LVM thinpool da un VG composto da 4
partizioni uguali (180G) di 4 dischi diversi. Ora mi è venuto il dubbio:
lvm non ridonda nulla, quindi il VG si doveva basare su un raid mdadm
invece che su
raid... se nessuno ha esperienza in merito e non
ci conforta con l'esperienza, io con questa spada di damocle pendente
sul capo non starei. Dopo aver fatto un bel backup io proverei a mandare
in fail sde1 e vedere cosa succede... poi se va tutto bene finito il
sync su sda aggiungerei sde1 come
ire la pelle d'oca. Funzionare
> funziona, con linux poi non e' complicato montarlo, pero', e' sempre
> qualcosa che preferisco tenere lontano (poi, comunque, per la cronaca,
> pure lvm piglia un disco senza partizionarlo, volendo).
>
> mi viene da pensare che i dischi che compong
sempre
qualcosa che preferisco tenere lontano (poi, comunque, per la cronaca,
pure lvm piglia un disco senza partizionarlo, volendo).
mi viene da pensare che i dischi che compongono il tuo raid siano piu'
grandi magari di pochissimo rispetto al nuovo e quindi giustamente non
lo puoi utilizzare, quindi
quello morto era un segate, sempre da 2TB).
Il problema è che se faccio come ho fatto con gli altri HDD,
partizionare il disco con una unica partizione di tipologia RAID, non
riesco ad aggiungerlo al raid (MD) perché mi dice che lo spazio è
insufficiente.
Se invece non creo nessuna partizione
, non per informatici. Tu
compri un server superfico con controller raid hardware e cache, e poi con
proxmox/ceph (o proxmox/zfs) lo usi come un server 'normale'...
se dici così penso a un disco fisico; io direi un device è un device...
Comunque è tutto chiaro.
Mille grazie!
Piviul
Mandi! Piviul
In chel di` si favelave...
> sono sempre più confuso, non è specificato che ceph non funziona su raid
> hardware?
Un disco e un disco, ceph funziona con i dischi.
Certo, non è la soluzione migliore, aggiungi degli strati di complessità
ulteriori che non servono, ma da
Marco Gaiarin ha scritto il 22/01/20 alle 21:49:
[...]
...fatto salvo che a mio avviso stai facendo troppo onanismo celebrale,
specie per un server di test, il mio cluster ceph è fatto con tre ML350G6,
con gli OSD (dischi) su RAID-0.
sono sempre più confuso, non è specificato che ceph non
Mandi! Piviul
In chel di` si favelave...
> Admin Guide for 6.x[¹] a pag. 9 nel paragrafo 2.1.2 a proposito della VM
> storage leggo: Neither ZFS nor Ceph are compatible with a hardware RAID
> controller.
> Ma io ho solo dischi sotto un controller RAID hardware!
...fatto sal
Ciao a tutti proseguo con l'installazione di proxmox. Su Proxmox VE
Admin Guide for 6.x[¹] a pag. 9 nel paragrafo 2.1.2 a proposito della VM
storage leggo: Neither ZFS nor Ceph are compatible with a hardware RAID
controller.
Ma io ho solo dischi sotto un controller RAID hardware!
Sono basito
Ciao a tutti, tempo fa ho installato un nuovo server prendendo alcuni
dischi in raid+lvm da un server che è stato dismesso. Ora mi sono
accorto che nel file /etc/blkid.tab la label del disco ha un riferimento
al nome del vecchio server così come il file /etc/mdadm/mdadm.conf.
# cat /etc
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA256
Il 18/09/18 17:41, Giuliano Grandin ha scritto:
> Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6) sia
> condiviso fra linux e windows sulla stessa macchina in dual boot, si deve
> avere per forza un controller
Il giorno Tue, 18 Sep 2018 18:32:06 +0200
Luciano Franchi ha scritto:
...
> https://wiki.debian.org/DebianInstaller/SataRaid
>
> Io però non l'ho mai fatto.
Grazie Luciano!
Giuliano
--
Ci sono solamente 10 tipi di persone nel mondo:
chi comprende il sistema binario e chi no.
Il 18/09/2018 17:41, Giuliano Grandin ha scritto:
Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6)
sia condiviso fra linux e windows sulla stessa macchina in dual boot,
si deve avere per forza un controller hw?
Una parte del raid deve essere specifica per ciascun s.o
Ciao a tutti, ho un dubbio su 'sta cosa: volendo che un raid (5 o 6) sia
condiviso fra linux e windows sulla stessa macchina in dual boot, si deve
avere per forza un controller hw?
Una parte del raid deve essere specifica per ciascun s.o., un'altra
utilizzabile da entrambi (e qui, quale file
a quel che leggo, se uno vuole poter dismettere un disco senza troppe
preoccupazioni per i contenuti, la cosa migliore da fare è mettere una
partizione cifrata LUKS il più possibile "vicino al metallo":
- Se si usano dischi singoli, meglio fare Metallo -> LUKS -> LVM -> Fi
On Sun, Aug 12, 2018 at 03:07:04AM +0200, Lorenzo "Palinuro" Faletra wrote:
> Se sai quanto è grande l'header e sovrascrivi solo quello hai già reso
> il disco irrecuperabile salvo backup dell'header.
> ovviamente se scrivi un po di piu male non fa, quindi su un disco con
> una sola partizione
On 08/12/2018 02:40 AM, Felipe Salvador wrote:
> On Sat, Aug 11, 2018 at 05:13:26PM +0200, gerlos wrote:
>> In ultimo, vi chiedo una conferma: nel momento in cui dovessi
>> dismettere i dischi criptati, per rendere inaccessibili i dati sarebbe
>> sufficiente azzerare i primi MB dei dischi,
On Sat, Aug 11, 2018 at 05:13:26PM +0200, gerlos wrote:
> In ultimo, vi chiedo una conferma: nel momento in cui dovessi
> dismettere i dischi criptati, per rendere inaccessibili i dati sarebbe
> sufficiente azzerare i primi MB dei dischi, giusto?
Non ne ho idea, immagino di si, spesso immaginare
Il 10/08/2018 19:19, Felipe Salvador ha scritto:
On Fri, Aug 10, 2018 at 01:52:51PM +0200, gerlos wrote:
Ciao a tutti,
Ciao
Devo criptare i dati[1] su un file server con Debian Stable.
Sullo stesso server devo configurare RAID 1 (per prestazioni e
ridondanza), e usare LVM per gestire i
On Fri, Aug 10, 2018 at 01:52:51PM +0200, gerlos wrote:
> Ciao a tutti,
Ciao
> Devo criptare i dati[1] su un file server con Debian Stable.
> Sullo stesso server devo configurare RAID 1 (per prestazioni e
> ridondanza), e usare LVM per gestire i volumi (per espandere i volumi
Il giorno 10 agosto 2018 16:14, gerlos ha scritto:
Da quel che vedo in giro l'approccio "standard" al momento è:
> linux-raid + dm_crypt e LUKS + LVM + ext4
>
> Solo non sono sicuro in quale "ordine" usarli.
>
>
ciao
io ho 2 dischi in raid 1 software che uso
d", in modo tale che in un secondo tempo altri possano
>intervenire senza troppe difficoltà (o in modo tale che io possa
>ricostruire il lavoro fatto anche a distanza di tempo).
>
>Da quel che vedo in giro l'approccio "standard" al momento è:
>linux-raid + dm_crypt e LUKS + LVM + ext4
>
>Solo non sono sicuro in quale "ordine" usarli.
>
>grazie lo stesso,
>gerlos
in modo tale che io possa
ricostruire il lavoro fatto anche a distanza di tempo).
Da quel che vedo in giro l'approccio "standard" al momento è:
linux-raid + dm_crypt e LUKS + LVM + ext4
Solo non sono sicuro in quale "ordine" usarli.
grazie lo stesso,
gerlos
<>
Tutto OK per quanto leggo... ma da qualche anno uso praticamente solo
più ZFS e mi trovo benissimo.
- SSD come accelerazione per lo ZIL e cache
- raid gestito da ZFS
- snapshot: sono il pane di ZFS, anche il push-pull di snapshot verso
server di backup in ZFS sono una "magia"
Ciao a tutti,
Devo criptare i dati[1] su un file server con Debian Stable.
Sullo stesso server devo configurare RAID 1 (per prestazioni e
ridondanza), e usare LVM per gestire i volumi (per espandere i volumi
secondo le esigenze, fare snapshot, etc).
È la prima volta che mi capita (e sto
stati da
stock diversi, ma dello stesso taglio, come dimensione. probabilmente la tua
scheda raid non è mai stata configurata, continui a lasciarla non configurata.
Per l'installatore a questo punto si ferma tutto, devi poi intervenire tu per
le Configurazioni software, che non sono particolar
Il 27/06/2018 20:38, Gollum1 ha scritto:
>>
>> intanto attualmente faccio solo e soltanto raid software per svariate
>> ragioni, in primis per la flessibilità e la portabilità (metto i dischi
>> altrove e partono semza fare storie), poi per la flessibilità
>> (conver
l top-quoting,
no... non
sei perdonabile...
>
>intanto attualmente faccio solo e soltanto raid software per svariate
>ragioni, in primis per la flessibilità e la portabilità (metto i dischi
>altrove e partono semza fare storie), poi per la flessibilità
>(convertire raid1 in raid 5,
scusate il top-post ma voglio provare a dare un mio piccolo contributo dalle
briciole della mia esperienza sul campo
intanto attualmente faccio solo e soltanto raid software per svariate ragioni,
in primis per la flessibilità e la portabilità (metto i dischi altrove e
partono semza fare
Il 27/06/2018 17:07, Alessandro Pellizzari ha scritto:
> On 27/06/2018 16:00, Mario Vittorio Guenzi wrote:
>
>> Il 27/06/2018 15:09, Portobello ha scritto:
>>> Ad esempio tra Raid Hardware e Software che differenze ci sono ?
>
>> Sintetizzando al massimo la questi
On 27/06/2018 16:00, Mario Vittorio Guenzi wrote:
Il 27/06/2018 15:09, Portobello ha scritto:
Ad esempio tra Raid Hardware e Software che differenze ci sono ?
Sintetizzando al massimo la questione, un raid HW e' piu' veloce nelle
operazioni R/W ma costa di piu' il raid software e' semplice
Il 27/06/2018 15:09, Portobello ha scritto:
>
> Ad esempio tra Raid Hardware e Software che differenze ci sono ?
> Una volta configurato devo intervenire in qualche modo sulla parte del
> Raid Software ?
>
Sintetizzando al massimo la questione, un raid HW e' piu' veloce nelle
op
un Seagate da 250 Giga con
>> tecnologia Sata, meno vecchio, ma comunque anche lui ha già i suoi
>> anni.
>
> e fino a qui non ci piove.
>
>> Io vorrei togliere il primo disco Maxtor. Quindi aggiungerei due
>> hard disk nuovi simili al secondo disco. Cioè due disch
Giga con
> tecnologia Sata, meno vecchio, ma comunque anche lui ha già i suoi
> anni.
>
e fino a qui non ci piove.
> Io vorrei togliere il primo disco Maxtor. Quindi aggiungerei due
> hard disk nuovi simili al secondo disco. Cioè due dischi da
> 250giga, da collegare in Raid Hardware
togliere il primo disco Maxtor.
Quindi aggiungerei due hard disk nuovi simili al secondo disco.
Cioè due dischi da 250giga, da collegare in Raid Hardware, tra loro due.
Il secondo hard disk (il Seagate) dovrebbe rimanere separato dagli altri
due. Ed una volta fatto l'intervento hardware io dovrei
Il 09/01/2018 12:54, Pol Hallen ha scritto:
'giorno a tutti :-)
ho una debian jessie in raid 1 con ext4
vorrei migrare a stretch e vorrei info precauzionali sul raid evitando
la possibile perdita di dati se il raid avesse dei problemi (ovviamente
non ho modo di fare un backup dei dati)
che
'giorno a tutti :-)
ho una debian jessie in raid 1 con ext4
vorrei migrare a stretch e vorrei info precauzionali sul raid evitando
la possibile perdita di dati se il raid avesse dei problemi (ovviamente
non ho modo di fare un backup dei dati)
con apt-get dist-upgrade ci potrebbero essere
Tutto ok.
Possibile alternativa raid su zfs con ssd per accelerazione ZIL e cache nativa
ZFS.
Ciao
Luca
Il giorno 22 ott 2017, 16:32, alle ore 16:32, Antonio
<antoniogennar...@gmail.com> ha scritto:
>Salve,
>
>ho intenzione di rifarmi un server (uso un poweredge SC410 del 200
Salve,
ho intenzione di rifarmi un server (uso un poweredge SC410 del 2004
ormail da un po). Stavo pensando di farmi un T110 e se ne trovano tanti
su ebay e con 100-200 euro me la dovrei cavare. Mi consentirà' di andare
avanti per un po'.
stavo pensando alla seguente configurazione:
a) RAID 10
i
> consiglio di fare delle prove simulate per capire come si comporta
> quando un disco si guasta e devi sostituirlo.
>
> N.B.:
> Mdadm mette in raid le partizioni e non gli interi dischi, quindi un
> hard disk guasto lo puoi sostituire, in futuro, con un disco di capacità
> d
Il 05/05/2017 16:12, Luciano Franchi ha scritto:
Il 03/05/2017 13:50, Marco Gaiarin ha scritto:
Mandi! Paolo Redaelli
In chel di` si favelave...
livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
I drive cciss non supportano i controller
Il 03/05/2017 13:50, Marco Gaiarin ha scritto:
Mandi! Paolo Redaelli
In chel di` si favelave...
livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
I drive cciss non supportano i controller "fake-raid".
Luciano
Mandi! Paolo Redaelli
In chel di` si favelave...
> livello. C'è una guida "per tonti" sulla cosa?
http://cciss.sourceforge.net/
--
La tua tana sta in collina, Dr. Dobermann, seimilioni a metro quadro
e tua moglie sembra proprio una regina,
pero` e` la moglie di un ladro.
ichele Orsenigo ha scritto:
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios
con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
raid,
ma al reboot non vede la partizione di root che
o
>funzionare.
>> Lascia perdere, storia vecchia quella dei fakeraid, usa un raid
>software e configura in jbod i dischi.
>>
>Bella fregatura, questa storia dei fakeraid, non pensavo fosse di
>questo
>livello. C'è una guida "per tonti" sulla cosa?
Quando usi un
Il 02/05/2017 21:42, Luca De Andreis ha scritto:
> Aggiungo, si lo danno compatibile con le distro commerciali perché c'è
> un driver apposito per i kernel di quelle distro per farlo funzionare.
> Lascia perdere, storia vecchia quella dei fakeraid, usa un raid software e
> configu
t; >> > Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios
> >
> >con due
> >
> >> > sata da 1TB ciscuno.
> >> >
> >> > Provato con installer jessie e stretch
> >> >
> >> > Se passo al kernel "
gt;con due
>> > sata da 1TB ciscuno.
>> >
>> > Provato con installer jessie e stretch
>> >
>> > Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
>raid,
>> > ma al reboot non vede la partizione di root che dovrebb
> >
> > Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid,
> > ma al reboot non vede la partizione di root che dovrebbe essere
> > "/dev/mapper/QUALCOSAp2" anche passando "dmraid=true".
> >
> > In /dev/mapper trovo
;Provato con installer jessie e stretch
> >
> >Se passo al kernel "dmraid=true", l'installazione riesce sull'unità
> >raid, ma
> >al reboot non vede la partizione di root che dovrebbe essere
> >"/dev/mapper/QUALCOSAp2" anche passando "dmra
Il 02/05/2017 19:12, Michele Orsenigo ha scritto:
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid, ma
al reboot non vede la
t;, l'installazione riesce sull'unità
>raid, ma
>al reboot non vede la partizione di root che dovrebbe essere
>"/dev/mapper/QUALCOSAp2" anche passando "dmraid=true".
>
>In /dev/mapper trovo solo "QUALCOSA", senza l'identificativo di
>partizione.
>L
Server HPE ProLiant ML10 Gen9, bios EFI, configurato RAID1 da bios con due
sata da 1TB ciscuno.
Provato con installer jessie e stretch
Se passo al kernel "dmraid=true", l'installazione riesce sull'unità raid, ma
al reboot non vede la partizione di root che dovrebbe essere
&q
PRE che il rebuilding è stressante,
quindi non ti fidare di dischi non sani posti al rebuilding di un'altro
compagno messo peggio, ho visto raid perdere dischi proprio durante il
rebuilding.
Una nota, è per questo che esiste il RAID10 piuttosto che il RAID01.
Fare striping di coppie di dis
dischi da 2 TB in raid 5.
ho errori sull'intera struttura RAID, più di un disco presentano
problemi
Mi insospettisce il fatto che più di un disco ha problemi, e (mi sembra
di capire) il tutto si è manifestato contemporaneamente.
Non potrebbe essere altro ad avere problemi? Nello specifico
l'alimen
Il 15 novembre 2016 23:12, Vincenzo Villa <scriv...@vincenzov.net> ha scritto:
> Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:
>
>> Ho un grosso problema, più di due anni fa, avevo realizzato una
>> macchina con un disco di sistema e 4 dischi da 2 TB
Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto:
> Ho un grosso problema, più di due anni fa, avevo realizzato una
> macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
> ho errori sull'intera struttura RAID, più di un disco presentano
> problemi
Mi inso
Il 15 novembre 2016 21:41, dea ha scritto:
>
> Ciao, mi permetto di dire la mia ... se posso.
Certo che puoi dire la tua Luca... ogni tuo commento è sempre ben accetto...
anche perché sono sempre commenti molto pertinenti.
> 1) Cambiare un disco con uno nuovo, implica uno stress
Ciao, mi permetto di dire la mia ... se posso.
1) Cambiare un disco con uno nuovo, implica uno stress elevato per gli
altri dischi, durante la fase di rebuilding. IO NON LO FAREI
Rischi che ti si pianti la fase di rebuilding o (peggio) che un disco
con qualche problema collassi sotto il
Ciao Lista...
Ho un grosso problema, più di due anni fa, avevo realizzato una
macchina con un disco di sistema e 4 dischi da 2 TB in raid 5.
ha funzionato per tutto questo tempo senza grossi problemi, con una
debian stable, fornisce il servizio SMB e FTP. Niente grandi pretese,
serve solo per
Ciao a tutti,
Ho un file server con due dischi, configurati in RAID1 (raid software,
/dev/md0), e con LVM sopra. In LVM sono configurati 4 volumi (root, /var,
/server e swap). Sul sistema c’è Ubuntu 14.04, ma immagino che se fosse stato
Debian sarebbe stato lo stesso.
In /var e /srv ci sono
Il 19/05/2016 19:25, Giuliano Curti ha scritto:
ciao ragazzi,
...
devo cambiare il tipo di partizione di un vecchio disco ide da "linux
raid" a "linux
native" (quella normale) (per leggerlo in una di quelle enclosure usb;
mi sembra di aver visto la possibilità di farlo co
ciao ragazzi,
in attesa di risolvere il mio problema di gestione POP di gmail(*),
ho bisogno ancora del vostro aiuto :-)
devo cambiare il tipo di partizione di un vecchio disco ide da "linux
raid" a "linux
native" (quella normale) (per leggerlo in una di quelle enclosure us
Il 01/10/2015 08:23, Piviul ha scritto:
> Va beh, passi per md1, ci posso anche credere. Ma md2? come è possibile
> che un raid5 con un solo hd funzionante non comprometta il sistema?
>
> Che fo' provo a riaggiungerli al raid?
Domanda forse sciocca, ovviamente gli hd che son spar
Mario Vittorio Guenzi ha scrito il 01/10/2015 alle 08:29:
> Domanda forse sciocca, ovviamente gli hd che son spariti son sani
> e funzionano vero?
questa è una parola grossa... ora è partita anche sdc2... mi sa che
davvero sono partiti davvero 2 hd in una volta sola, forse 3. in
effetti i
ecco che succede a leggere troppo di fretta :)
una bella botta di sfiga, direi...
smartctl cosa ti dice?
i dischi sono UGUALI (stessa marca/capacita'/numeri di lotto simili)?
potrebbero venire da una partita non troppo felice...
Il 01/10/2015 08:37, Piviul ha scritto:
>
> Ma secondo voi se spengo il sistema, e provo a controllare i cavi? È
> troppo azzardato? Il sistema ripartirà ancora?
Se sono SATA/SAS non ti serve spegnere la macchina li puoi collegare a
caldo, quindi anche verificare, sullo spegnere il sistema
Ciao a tutti, questa mattina arrivo in ufficio e trovo che
contemporaneamente alcune partizioni sono state rimosse dal raid. Questo
è il contenuto di mdstat:
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid1 sda5[0] sdc5[2](F)
483130900 blocks super 1.2 [2/1] [U_]
md2
> Va beh, passi per md1, ci posso anche credere. Ma md2? come è possibile
> che un raid5 con un solo hd funzionante non comprometta il sistema?
a parte il poco senso (secondo me) di un raid5 con soli due hd (perche' non
un raid1??), il livello 5 consente la perdita di un hd, quindi e' normale
che
Luca Costantino ha scrito il 01/10/2015 alle 08:35:
>> Va beh, passi per md1, ci posso anche credere. Ma md2? come è possibile
>> che un raid5 con un solo hd funzionante non comprometta il sistema?
>
> a parte il poco senso (secondo me) di un raid5 con soli due hd (perche'
> non un raid1??), il
prova ad invertire le schede logiche sui due dischi identici, potresti
avere una botta di culo e recuperarne almeno uno...
Luca Costantino ha scrito il 01/10/2015 alle 08:52:
> ecco che succede a leggere troppo di fretta :)
>
> una bella botta di sfiga, direi...
>
> smartctl cosa ti dice?
>
> i dischi sono UGUALI (stessa marca/capacita'/numeri di lotto simili)?
> potrebbero venire da una partita non troppo
1 - 100 di 885 matches
Mail list logo