On Sunday, July 18, 2021 09:37:53 AM David wrote:
> On Sun, 18 Jul 2021 at 21:08, wrote:
> > Interesting -- not surprising, makes sense, but something (for me, at
> > least) to keep in mind -- probably not a good idea to run on an old
> > drive that hasn't been backed up.
>
> Sorry if my
On 7/18/21 2:29 PM, Urs Thuermann wrote:
David Christensen writes:
You should consider upgrading to Debian 10 -- more people run that and
you will get better support.
It's on my TODO list. As well as upgrading the very old hardware.
Currently, it's a Gigabyte P35-DS3L with an Intel
v/sda1 and
> > /dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
>
>
> ext4? That lacks integrity checking.
>
>
> btrfs? That has integrity checking, but requires periodic balancing.
Mostly ext4 for / /var /var/spool/news /usr /usr/local and /home file
systems.
On 7/18/21 2:16 AM, Reco wrote:
Hi.
On Sat, Jul 17, 2021 at 02:03:15PM -0700, David Christensen wrote:
But much more noticable is the difference of data reads of the two
disks, i.e. 55 GB and 27 GB, i.e. roughly twice as much data is read
from /dev/sdb compared to /dev/sda. Trying to
On 2021-07-18 14:37, David wrote:
On Sun, 18 Jul 2021 at 21:08, wrote:
On Saturday, July 17, 2021 09:30:56 PM David wrote:
> The 'smartctl' manpage explains how to run and abort self-tests.
> It also says that a running test can degrade the performance of the drive.
Interesting -- not
On Sun, 18 Jul 2021 at 21:08, wrote:
> On Saturday, July 17, 2021 09:30:56 PM David wrote:
> > The 'smartctl' manpage explains how to run and abort self-tests.
> > It also says that a running test can degrade the performance of the drive.
> Interesting -- not surprising, makes sense, but
/sda1 and /dev/sdb1. Then, /dev/sda1 and
/dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
--
# diff -U20 <(smartctl -x /dev/sda) <(smartctl -x /dev/sdb)
- 9 Power_On_Hours -O--CK 042 042
On Saturday, July 17, 2021 09:30:56 PM David wrote:
> The 'smartctl' manpage explains how to run and abort self-tests.
> It also says that a running test can degrade the performance of the drive.
Interesting -- not surprising, makes sense, but something (for me, at least)
to keep in mind --
Hi.
On Sat, Jul 17, 2021 at 02:03:15PM -0700, David Christensen wrote:
> > But much more noticable is the difference of data reads of the two
> > disks, i.e. 55 GB and 27 GB, i.e. roughly twice as much data is read
> > from /dev/sdb compared to /dev/sda. Trying to figure out the reason
>
.e. /dev/sda1 and /dev/sdb1. Then, /dev/sda1 and
> > /dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
> > --
> > # diff -U20 <(smartctl -x /dev/sda) <(smartctl -x /dev/sdb)
> &
drive spanning the
whole drive, i.e. /dev/sda1 and /dev/sdb1. Then, /dev/sda1 and
/dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
ext4? That lacks integrity checking.
btrfs? That has integrity checking, but requires periodic balancing.
I use ZFS. That has integrity checking
Hi Urs,
Your plan to change the SATA cable seems wise - your various error
rates are higher than I have normally seen.
Also worth bearing in mind that Linux MD RAID 1 will satisfy all
read IO for a given operation from one device in the mirror. If
you have processes that do occasional big reads
e:
https://arstechnica.com/gadgets/2020/06/western-digital-adds-red-plus-branding-for-non-smr-hard-drives/
So be careful to get the Pro version if you decide to try WD. I use the
WD4003FFBX (4T) drives (Raid 1) and have them at 2.8 years running 24/7 with no
problems.
If you value your data g
Thuermann wrote:
> On my server running Debian stretch, the storage setup is as follows:
> Two identical SATA disks with 1 partition on each drive spanning the
> whole drive, i.e. /dev/sda1 and /dev/sdb1. Then, /dev/sda1 and
> /dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
>
On my server running Debian stretch, the storage setup is as follows:
Two identical SATA disks with 1 partition on each drive spanning the
whole drive, i.e. /dev/sda1 and /dev/sdb1. Then, /dev/sda1 and
/dev/sdb1 form a RAID-1 /dev/md0 with LVM on top of it.
The disk I/O shows very different
On 2021-01-24 21:23, mick crane wrote:
On 2021-01-24 20:10, David Christensen wrote:
Please tell us why you must put the OS and the backup images on the
same RAID mirror of two HDD's, and why you cannot add one (or two?)
more devices for the OS.
I think I'll go with the first and last
Thanks Andy and Linux-Fan, for the detailed reply.
this by having OS and Swap on MDADM RAID 1
> > i.e. mirrored but without ZFS.
>
> I am still learning.
>
> 1. By "by having OS and Swap on MDADM", did you mean the /boot partition
>and swap.
When people say, "I put OS and Swap on MDADM" they typically mean
mick crane wrote:
> I think I'll go with the first and last suggestion to just have 2 disks
> in raid1.
> It seems that properly you'd want 2 disks in raid for the OS, 2 at least
> for the pool and maybe 1 for the cache.
> Don't have anything big enough I could put 5 disks in.
> I could probably
Hi Pankaj,
Not wishing to put words in Linux-Fan's mouth, but my own views
are…
On Mon, Jan 25, 2021 at 11:04:09AM +0530, Pankaj Jangid wrote:
> Linux-Fan writes:
>
> > * OS data bitrot is not covered, but OS single HDD failure is.
> > I achieve this by having OS and Sw
On Du, 24 ian 21, 23:21:38, Linux-Fan wrote:
> mick crane writes:
>
> > On 2021-01-24 17:37, Andrei POPESCU wrote:
>
> [...]
>
> > > If you want to combine Linux RAID and ZFS on just two drives you could
> > > partition the drives (e.g. two partitions on each drive), use the first
> > >
Linux-Fan writes:
> * OS data bitrot is not covered, but OS single HDD failure is.
> I achieve this by having OS and Swap on MDADM RAID 1
> i.e. mirrored but without ZFS.
I am still learning.
1. By "by having OS and Swap on MDADM", did you mean the /boot partition
an
On 2021-01-24 20:10, David Christensen wrote:
On 2021-01-24 03:36, mick crane wrote:
Let's say I have one PC and 2 unpartitioned disks.
Please tell us why you must put the OS and the backup images on the
same RAID mirror of two HDD's, and why you cannot add one (or two?)
more devices for the
t simple stupid: Let the installer setup
RAID 1 MDADM for OS, swap and data and be done with it, avoid ZFS unless
there is some reason to need it :)
For sure MDADM lacks the bit rot protection, but it is easier to setup
especially for the OS and you can mitigate the bit rot (to some extent)
On Du, 24 ian 21, 17:50:06, Andy Smith wrote:
>
> Once it's up and running you can then go and create a second
> partition that spans the rest of each disk, and then when you are
> ready to create your zfs pool:
>
> > "zpool create tank mirror disk1 disk2"
>
> # zpool create tank mirror
On 2021-01-24 03:36, mick crane wrote:
Let's say I have one PC and 2 unpartitioned disks.
Please tell us why you must put the OS and the backup images on the same
RAID mirror of two HDD's, and why you cannot add one (or two?) more
devices for the OS.
David
mbers, set them to
>RAID-1, install on that.
>...
You don't say if this is or will become a secure boot system, which
would require an EFI partition. Leaving a bit of space just in case
seems a good idea.
On 2021-01-24 17:37, Andrei POPESCU wrote:
On Du, 24 ian 21, 11:36:09, mick crane wrote:
I know I'm a bit thick about these things, what I'm blocked about is
where
is the OS.
Let's say I have one PC and 2 unpartitioned disks.
Put one disk in PC and install Debian on it.
Ok
Install
e for
the OS, and the second one would be for ZFS.
If you are going to keep your OS separate, I don't see any reason
not to use mdadm RAID-1 for the OS even if you're going to use zfs
for your data. Yes you could just install the OS onto a single
partition of a single disk, but you have two disks so why no
On Du, 24 ian 21, 11:36:09, mick crane wrote:
>
> I know I'm a bit thick about these things, what I'm blocked about is where
> is the OS.
> Let's say I have one PC and 2 unpartitioned disks.
> Put one disk in PC and install Debian on it.
Ok
> Install headers and ZFS-utils.
> I put other disk in
On 2021-01-23 22:01, David Christensen wrote:
On 2021-01-23 07:01, mick crane wrote:
On 2021-01-23 12:20, Andrei POPESCU wrote:
On Vi, 22 ian 21, 22:26:46, mick crane wrote:
hello,
I want to tidy things up as suggested.
Have one old PC that I'll put 2 disks in and tidy everything up so
On 2021-01-23 07:01, mick crane wrote:
On 2021-01-23 12:20, Andrei POPESCU wrote:
On Vi, 22 ian 21, 22:26:46, mick crane wrote:
hello,
I want to tidy things up as suggested.
Have one old PC that I'll put 2 disks in and tidy everything up so
what's
scattered about is on the running disks and
I actually used mdadm RAID 1 for OS+Swap and ZFS
mirrors for the actual data. This way, I can use the Debian Installer
for installation purposes and benefit from the bit rot protection for
the acutally important data while maintaining basic redundancy for the
OS installation. YMMV.
Here ar
thub.io/openzfs-docs/Getting%20Started/Debian/Debian%20Buster%20Root%20on%20ZFS.html
For my current system I actually used mdadm RAID 1 for OS+Swap and ZFS
mirrors for the actual data. This way, I can use the Debian Installer
for installation purposes and benefit from the bit rot protection for
tting%20Started/Debian/Debian%20Buster%20Root%20on%20ZFS.html
For my current system I actually used mdadm RAID 1 for OS+Swap and ZFS
mirrors for the actual data. This way, I can use the Debian Installer for
installation purposes and benefit from the bit rot protection for the
acutally im
On 2021-01-23 12:20, Andrei POPESCU wrote:
On Vi, 22 ian 21, 22:26:46, mick crane wrote:
hello,
I want to tidy things up as suggested.
Have one old PC that I'll put 2 disks in and tidy everything up so
what's
scattered about is on the running disks and this new/old one is just
backup
for
On Vi, 22 ian 21, 22:26:46, mick crane wrote:
> hello,
> I want to tidy things up as suggested.
> Have one old PC that I'll put 2 disks in and tidy everything up so what's
> scattered about is on the running disks and this new/old one is just backup
> for them.
> Can I assume that Debian installer
On 2021-01-22 15:10, David Christensen wrote:
A key issue with storage is bit rot.
I should have said "bit rot protection".
David
mode will sort out the
raid or do I need to install to one disk and then mirror it manually
before invoking the raid thing ?
I would install a small SSD and do a fresh install of the OS onto that.
I would then install the two HDD's and set up a mirror (RAID 1). Linux
options include
the partitions, then create MDADM RAID 1
devices on top of them and finally let them be formatted with
ext4/filesystem of choice and be the installation target.
AFAIK "Guided" installation modes do not automatically create RAID, i.e. I
recommend using the manual partitioning mode.
In th
hello,
I want to tidy things up as suggested.
Have one old PC that I'll put 2 disks in and tidy everything up so
what's scattered about is on the running disks and this new/old one is
just backup for them.
Can I assume that Debian installer in some expert mode will sort out the
raid or do I
On 10/26/2020 7:55 AM, Bill wrote:
Hi folks,
So we're setting up a small server with a pair of 1 TB hard disks
sectioned into 5x100GB Raid 1 partition pairs for data, with 400GB+
reserved for future uses on each disk.
Oh, also, why are you leaving so much unused space on the drives
This might be better handled on linux-r...@vger.kernel.org
On 10/26/2020 10:35 AM, Dan Ritter wrote:
Bill wrote:
So we're setting up a small server with a pair of 1 TB hard disks sectioned
into 5x100GB Raid 1 partition pairs for data, with 400GB+ reserved for
future uses on each disk
On 10/26/20 4:55 AM, Bill wrote:
> lsblk reveals sda and sdb with sda[1-5] and sdb[1-5] but no md[0-5].
> blkid reveals that sda[1-5] and sdb[1-5] are still listed as
> TYPE="linux_raid_member".
>
> So first of all I'd like to be able to diagnose what's going on. What
> commands should I use for
Hi folks,
So we're setting up a small server with a pair of 1 TB hard
diskssectioned into 5x100GB Raid 1 partition pairs for data, with
400GB+reserved for future uses on each disk.I'm not sure what
happened, we had the five pairs of disk partitions setup properly
through the installer
Bill wrote:
> So we're setting up a small server with a pair of 1 TB hard disks sectioned
> into 5x100GB Raid 1 partition pairs for data, with 400GB+ reserved for
> future uses on each disk.
That's weird, but I expect you have a reason for it.
> I'm not sure what happened, we
Hi folks,
So we're setting up a small server with a pair of 1 TB hard disks
sectioned into 5x100GB Raid 1 partition pairs for data, with 400GB+
reserved for future uses on each disk.
I'm not sure what happened, we had the five pairs of disk partitions set
up properly through the installer
Le 25/09/2019 à 09:25, Erwan RIGOLLOT a écrit :
Un raid 1 sur 3 disques fait que les 3 disques ont les données et t'autorise
donc à perdre jusqu'à 2 disques sans perte de données mais dans ce cas les 3
disques fonctionneront en permanence et s'userons mais tu n'auras pas de temps
de
Hello,
Si tu choisis de mettre le disque en spare, il ne se mettra en marche que quand
un autre tombera en panne.
C’est-à-dire qu'il ne s'usera pas en fonctionnement normal mais cela engendrera
un temps de reconstruction du raid (les données devront être copiées dessus).
Un raid 1 sur 3
, qui a subi la même usure,
flanche à son tour avant la fin n'est pas négligeable, d'autant plus
qu'il est plus fortement sollicité lors de la reconstruction qu'en temps
normal.
Et si la performance importe, le RAID 1 peut faire de la répartition de
charge en lecture entre tous les disques
Le 25/09/2019 à 11:39, steve a écrit :
Le 25-09-2019, à 10:12:49 +0200, Pascal Hambourg a écrit :
Le 25/09/2019 à 09:07, steve a écrit :
Bonjour,
J'ai trois disques que je souhaiterais monter en Raid 1.
J'ai le choix entre créer une grappe de deux disque plus un spare ou
alors créer une
Le 25-09-2019, à 11:21:42 +0200, Jean-Michel OLTRA a écrit :
Le mercredi 25 septembre 2019, steve a écrit...
J'ai le choix entre créer une grappe de deux disque plus un spare ou
Je fonctionne comme ça depuis des années. Si un disque présente des
faiblesses, ou une partie de disque, le spare
Bonjour,
Le mercredi 25 septembre 2019, steve a écrit...
> J'ai le choix entre créer une grappe de deux disque plus un spare ou
Je fonctionne comme ça depuis des années. Si un disque présente des
faiblesses, ou une partie de disque, le spare prend le relais. Ce qui laisse
le temps de
Le 25-09-2019, à 10:12:49 +0200, Pascal Hambourg a écrit :
Le 25/09/2019 à 09:07, steve a écrit :
Bonjour,
J'ai trois disques que je souhaiterais monter en Raid 1.
J'ai le choix entre créer une grappe de deux disque plus un spare ou
alors créer une grappe de trois disques sans spare.
Qu'est
Le 25/09/2019 à 10:14, kaliderus a écrit :
Si tu veux de la redondance (donc du Raid 1),
Non. On peut aussi avoir de la redondance avec du RAID 4, 5, 6 ou 10.
il te faut un disque de parité.
Non, pas forcément. Les RAID 1 et 10 n'ont pas de parité. Seul le RAID 4
a un disque de parité
Heu, je ne suis pas d'accord avec toi.
Un disque de spare c'est un disque inactif.
On peut faire un raid 1 sur 3 disques et les trois sont actifs et contiennent
les données et donc aucun spare.
-Message d'origine-
De : kaliderus
Envoyé : mercredi 25 septembre 2019 10:14
À : duf
Objet
bonjour
Le mer. 25 sept. 2019 à 10:14, kaliderus a écrit :
>
> Le mer. 25 sept. 2019 à 09:07, steve a écrit :
> >
> > Bonjour,
> >
> > J'ai trois disques que je souhaiterais monter en Raid 1.
> >
> > J'ai le choix entre créer une grappe de deux disque p
Le mer. 25 sept. 2019 à 09:07, steve a écrit :
>
> Bonjour,
>
> J'ai trois disques que je souhaiterais monter en Raid 1.
>
> J'ai le choix entre créer une grappe de deux disque plus un spare ou
> alors créer une grappe de trois disques sans spare.
Si tu veux de la redondance
Le 25/09/2019 à 09:07, steve a écrit :
Bonjour,
J'ai trois disques que je souhaiterais monter en Raid 1.
J'ai le choix entre créer une grappe de deux disque plus un spare ou
alors créer une grappe de trois disques sans spare.
Qu'est-ce qui est le mieux ?
Le mieux pour quoi ?
Le mieux dans
Bonjour,
J'ai trois disques que je souhaiterais monter en Raid 1.
J'ai le choix entre créer une grappe de deux disque plus un spare ou
alors créer une grappe de trois disques sans spare.
Qu'est-ce qui est le mieux ?
Merci
Steve
Marc Auslander wrote:
> The installer manual is silent about installing in an existing raid
> partition. I could follow my nose but wondered if there is any advice
> you can provide.
Does this help https://wiki.debian.org/DebianInstaller/SoftwareRaidRoot
regards
I have a debian system with three raid 1 partitions, root and 2 data
partitions. It's x86 and I've decided to clean install amd64 and face
the music of re configuring everything. My plan/hope is to install a
new amd64 stretch in my root partition and then clean up the mess.
The installer
Le 06/11/2017 à 11:38, Kohler Gerard a écrit :
bonjour,
je suis actuellement en Stretch avec un raid 1 pour ma partition /home
j'aimerai passer en debian buster, sans perdre mes données ;-)
Si l'installateur de buster est comme les versions précédentes, il
détectera et assemblera
effectivement ce n'est pas l'idéal,
j'utilise un RAID 1 avec 2 DD de 4To pour mes données, et je sauvegarde
sur un NAS
je n'ai pas mis / sur le RAID pour des raisons historiques : j'ai
construit mon RAID après une perte de données brutale lors d'une
sauvegarde sur mon NAS : DD ayant une panne
merci,
sauvegarde sur un NAS tous les jours, donc pas de problème, mais
rapatrier 3 To de données si on peut éviter !
Le 06/11/2017 à 12:06, Pierre L. a écrit :
Bonjour Gérard,
Déjà étape n°1 si je peux me permettre, la sauvegarde des données si
cela n'a pas encore été réalisé :)
Je
Bonjour Gérard,
Déjà étape n°1 si je peux me permettre, la sauvegarde des données si
cela n'a pas encore été réalisé :)
Je laisse la parole aux connaisseurs pour la suite ;)
Le 06/11/2017 à 11:38, Kohler Gerard a écrit :
> quelle stratégie pour que sous buster je retrouve mon raid sans perdre
Le 06/11/2017 à 11:38, Kohler Gerard a écrit :
bonjour,
je suis actuellement en Stretch avec un raid 1 pour ma partition /home
j'aimerai passer en debian buster, sans perdre mes données ;-)
ma table de partition :
/dev/sda1 linux-raid /dev/md0
/dev/sda2 linux-raid /dev/md1
/dev/sdb1 linux
bonjour,
je suis actuellement en Stretch avec un raid 1 pour ma partition /home
j'aimerai passer en debian buster, sans perdre mes données ;-)
ma table de partition :
/dev/sda1 linux-raid /dev/md0
/dev/sda2 linux-raid /dev/md1
/dev/sdb1 linux-raid /dev/md0
/dev/sdb2 linux-raid /dev/md1
Peter Ludikovsky writes:
> Ad 1: Yes, the SATA controller has to support Hot-Swap. You _can_ remove
> the device nodes by running
> # echo 1 > /sys/block//device/delete
Thanks, I have now my RAID array fully working again. This is what I
have done:
1. Like you suggested
Le 19/07/2016 à 16:01, Urs Thuermann a écrit :
Shouldn't the device nodes and entries in /proc/partitions
disappear when the drive is pulled? Or does the BIOS or the SATA
controller have to support this?
2. Can I hotplug the new drive and rebuild the RAID array?
As others replied,
Hi Urs,
On Tue, Jul 19, 2016 at 04:01:39PM +0200, Urs Thuermann wrote:
> 2. Can I hotplug the new drive and rebuild the RAID array?
It should work, if your SATA port supports hotplug. Plug the new
drive in and see if the new device node appears. If it does then
you're probably good to go.
You
HDD is within the BIOS boot order, that
should work.
Regards,
/peter
Am 19.07.2016 um 16:01 schrieb Urs Thuermann:
> In my RAID 1 array /dev/md0 consisting of two SATA drives /dev/sda1
> and /dev/sdb1 the first drive /dev/sda has failed. I have called
> mdadm --fail and mdadm --remove o
In my RAID 1 array /dev/md0 consisting of two SATA drives /dev/sda1
and /dev/sdb1 the first drive /dev/sda has failed. I have called
mdadm --fail and mdadm --remove on that drive and then pulled the
cables and removed the drive. The RAID array continues to work fine
but in degraded mode.
I have
Bonjour,
On 03/02/2016 00:05, Pascal Hambourg wrote:
> /dev/md0: TYPE="promise_fasttrack_raid_member"
> A mon avis, je le répète, c'est de ce côté qu'il faut chercher.
>
>
>
Je pense que tu as raison Pascal, je n'avais pas saisi la signification
de "promise".
Il y a fort longtemps, du temps où
-a042-e95ef5cd1b15" TYPE="swap"
/dev/md0: TYPE="promise_fasttrack_raid_member"
/dev/mapper/olorin--fixe--vg-home:
UUID="a0a69a8d-080f-4535-87d0-4b91261e854a" TYPE="ext4"
Pour rappel :
sda -> SSD système avec LVM
sdb+sdc -> RAID 1 mdadm avec LVM (stora
Bonsoir,
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît.
Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
root@olorin-fixe:~# vgimport -a
Volume group "olorin-fixe-vg" is not exported
Volume group "olorin-fixe-storage" is
Damien TOURDE a écrit :
> Si ça peut donner une piste, je n'ai pas trace de mon raid dans :
>
> root@olorin-fixe:~# ls -al /dev/disk/by-uuid/
Normal, pas plus qu'il n'y a de trace de sda5 qui contient aussi un PV
LVM et non un système de fichiers ou un swap.
> root@olorin-fixe:~# blkid
(...)
>
Le lundi 01 février 2016 à 20:40 +0100, Damien TOURDE a écrit :
> Bonjour,
>
> Après un vgck olorin-fixe-storage, je retrouve, avec les commandes
> lvdisplay, vgdisplay et pvdisplay, la mention de l'existence de mon LVM
> "perdu".
>
Bonsoir,
Du coup, as-tu trouver la raison de cette situation ?
Alors la 3 ème possibilité c'est que pour booter plus vite, j'ai dit à
ma carte mère de ne pas "détecter" les disques à chaque démarrage, et de
choisir toujours le SSD sauf si F8 est appuyé.
Sinon, je ne vois pas.
On 01/02/2016 21:43, Pascal Hambourg wrote:
> Damien TOURDE a écrit :
>> Soit
22:24, Pascal Hambourg wrote:
>> Damien TOURDE a écrit :
>>> On 31/01/2016 20:14, Pascal Hambourg wrote:
>>>> Damien TOURDE a écrit :
>>>>> C'est un RAID 1 mdadm, avec une unique partition LVM
>>>> Une partition donc un ensemble RAID partitionné, av
Damien TOURDE a écrit :
>
> Soit j'ai changé de prise SATA et peut-être donc de contrôleur sur la
> CM, ce qui aurait pu changer un UUID (il me semble que l'UUID est généré
> avec les caractéristiques du disque et celles du HW en général).
Non, les UUID sont générés pseudo-aléatoirement et
J'ai 2 pistes :
Soit j'ai changé de prise SATA et peut-être donc de contrôleur sur la
CM, ce qui aurait pu changer un UUID (il me semble que l'UUID est généré
avec les caractéristiques du disque et celles du HW en général).
Soit la prise de l'un de mes 2 disques a merdouillé en touchant les
Damien TOURDE a écrit :
> Alors la 3 ème possibilité c'est que pour booter plus vite, j'ai dit à
> ma carte mère de ne pas "détecter" les disques à chaque démarrage, et de
> choisir toujours le SSD sauf si F8 est appuyé.
Je ne vois pas le rapport avec la non détection du PV qui est contenu
dans
un dont le connecteur s'est
"intégré" dans le câble... dur à expliquer), mais SMART ne me donne rien
d'alarmant.
Depuis, pour démarrer, je suis obliger de virer le RAID de fstab et il
n'y a pas moyen de monter le disque.
C'est un RAID 1 mdadm, avec une unique partition LVM, et autant l
Bonjour,
Merci de ta réponse :
On 31/01/2016 20:14, Pascal Hambourg wrote:
> Damien TOURDE a écrit :
>> C'est un RAID 1 mdadm, avec une unique partition LVM
> Une partition donc un ensemble RAID partitionné, avec une table de
> partition ? Qu'en dit fdisk ou autre ?
root@olorin-f
Damien TOURDE a écrit :
>
> C'est un RAID 1 mdadm, avec une unique partition LVM
Une partition donc un ensemble RAID partitionné, avec une table de
partition ? Qu'en dit fdisk ou autre ?
> J'ai mis dans le fichier de backup l'uuid que me donne blkid
Quel UUID ?
> root@olorin-fixe:
RDE a écrit :
>>>> C'est un RAID 1 mdadm, avec une unique partition LVM
>>> Une partition donc un ensemble RAID partitionné, avec une table de
>>> partition ? Qu'en dit fdisk ou autre ?
>> root@olorin-fixe:~# fdisk -l /dev/md0
>> Disque /dev/md0 : 153,3 GiB
Damien TOURDE a écrit :
>
>
> On 31/01/2016 20:14, Pascal Hambourg wrote:
>> Damien TOURDE a écrit :
>>> C'est un RAID 1 mdadm, avec une unique partition LVM
>> Une partition donc un ensemble RAID partitionné, avec une table de
>> partition ? Qu'en dit
> I don't see Debian doing anything wrong. fdisk showing a 2.3T
> partition I am assuming comes on your Arch Linux disk and is a result
> of it using the wrong block size. I'm not sure if this is due to the
> use of a USB adapter.
>
> mdadm -E /dev/sdb should fail because /dev/sdb is not a RAID
On 22/12/15 04:44 PM, Narunas Krasauskas wrote:
I have this HDD (WD3200BPVT) which used to be part of the RAID-1 array
which has been created with Debian (Wheezy) installer, then AES
encrypted, then split into LVM volumes.
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1
I have this HDD (WD3200BPVT) which used to be part of the RAID-1 array
which has been created with Debian (Wheezy) installer, then AES encrypted,
then split into LVM volumes.
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1]
311462720 blocks super 1.2 [2/2] [UU]
md0 : active
Thank you! I will try this procedure this week.
Tim
On 9/18/2015 5:04 PM, linuxthefish wrote:
Tim,
>From what I remember it's best to set it up when you installing the
system, then you can install the bootloader to /boot in RAID 1.
https://blog.sleeplessbeastie.eu/2013/10/04/how-to-config
I've used Debian Linux for a number of years but up until now always
with a single hard drive.
I want to build a new system that will have a pair of 1TB drives
configured as a RAID-1 mirror. In reading the mdadm Wiki the discussion
begins with installing mdadm.
My goal is to have a system
Tim,
>From what I remember it's best to set it up when you installing the
system, then you can install the bootloader to /boot in RAID 1.
https://blog.sleeplessbeastie.eu/2013/10/04/how-to-configure-software-raid1-during-installation-process/
is what I followed.
Thanks,
Edmund
On 18 Septem
Clément Breuil a écrit :
je vient de me rendre compte que c'est spécifique a l'installateur de jessie
J'avait testé avec l'installateur de Jessie.
donc tu met en raid les deux disques
tu crée le multidisque raid1 sur les deux disques
puis tu fait partitionnement assisté puis
Utiliser
Sylvain L. Sauvage a écrit :
Le mercredi 12 août 2015, 14:36:53 Pascal Hambourg a écrit :
J'ai essayé, mais je ne vois pas de moyen de créer des
partitions dans un ensemble RAID fraîchement créé avec
l'interface de l'installateur.
Et si tu crées ton RAID à partir des disques (/dev/sdX) et
Le jeudi 13 août 2015, 10:15:41 Pascal Hambourg a écrit :
Sylvain L. Sauvage a écrit :
[…]
Et si tu crées ton RAID à partir des disques (/dev/sdX) et
non à partir de partitions (/dev/sdX1) ?
Je ne vois pas ce que cela changerait vis-à-vis du
périphérique /dev/mdX créé.
Tu manques
Christophe a écrit :
Le 08/08/2015 14:41, Clément Breuil a écrit :
les partition md se nomme md0p1 pour / et md0p2 pour le swap
J'ignorais qu'il pouvait y avoir des mdXpY ...
Les ensembles RAID partitionnables existent depuis le noyau 2.6.28, soit
un bout de temps. Mais cette
Clément Breuil a écrit :
Oui depuis l'installation debian c'est possible
Création d'un raid multidisque puis 2 partitions dedans
Comment as-tu procédé en détail ?
J'ai essayé, mais je ne vois pas de moyen de créer des partitions dans
un ensemble RAID fraîchement créé avec l'interface de
Le mercredi 12 août 2015, 14:36:53 Pascal Hambourg a écrit :
[…]
Comment as-tu procédé en détail ?
J'ai essayé, mais je ne vois pas de moyen de créer des
partitions dans un ensemble RAID fraîchement créé avec
l'interface de l'installateur.
Et si tu crées ton RAID à partir des disques
1 - 100 of 1003 matches
Mail list logo