Le 15-04-2019, à 22:24:20 +0200, Étienne Mollier a écrit :
Bonjour,
steve, au 2019-04-15 :
Vraiment désolé, à l'envoi ça semblait correct.
Ce n'est pas très grave; on a qu'a dire que ça a justifié le
démarrage de mon éditeur de texte préféré. :)
Sympa de le prendre comme ça :)
Le 12-04-2019, à 20:01:17 +0200, Étienne Mollier a écrit :
> steve, au 2019-04-12 :
> > 1 box kernel: [ 3988.692314] Tainted: P OE ...
> ^~~~~~~
> Le noyau est teinté, quelle en est la cause ? (ce devrait être
> indiqué quelque part dans la sortie de `dmesg`.)
driver nvidia proprio.
Bon, au moins on en a le cœur net, la teinture n'avait rien de
vraiment pertinent, sauf malchance.
> Si un sous système corrompt le noyau, alors il n'est peut-être
> pas nécessaire de chercher plus loin, et juste de le
> désactiver.
Je pourrais en effet essayer le driver libre « nouveau ». Mais la
dernière fois que j'ai essayé, ce n'était vraiment pas très concluant.
Ça vaudrait peut-être quand même le coup de voir si le noyau est
toujours teinté sans ce pilote, et si le problème se pose à
nouveau.
Oui.
Sinon, plus prosaïquement, dans quel état se trouve le Raid
actuellement ? Est-il toujours partiel ou bien le remplacement
du disque en panne a eu lieu ? (cat /proc/mdstat)
J'avais trois disques dans la grappe dont un spare qui a pris du service
quand j'ai débranché le disque défectueux.
$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4]
[raid10]
md1 : active raid1 sdb5[2] sde5[3]
117120896 blocks super 1.2 [2/2] [UU]
md2 : active raid1 sdb6[2] sde6[3]
97589120 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb1[2] sde1[3]
19514240 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Donc ok.
J'ai acheté un disque supplémentaire mais n'ai pas encore eu le temps de
l'installer.
Le 15-04-2019, à 17:11:22 +0200, Daniel Caillibaud a écrit :
> Il faudrait demander à mdadm d'être plus bavard quand il a un pb, mais je
> sais pas trop comment.
Rien dans la page man.
L'essentiel du verbe provient surtout de la sortie de `dmesg`.
Peut-être que des messages intéressants apparaissent au moment
de l'assemblage ?
$ dmesg | grep -i raid
[ 2.196649] md/raid1:md2: active with 2 out of 2 mirrors
[ 2.196906] md/raid1:md1: active with 2 out of 2 mirrors
[ 2.197262] md/raid1:md0: active with 2 out of 2 mirrors
[ 3.505941] raid6: sse2x1 gen() 11776 MB/s
[ 3.573938] raid6: sse2x1 xor() 11147 MB/s
[ 3.641939] raid6: sse2x2 gen() 18466 MB/s
[ 3.709938] raid6: sse2x2 xor() 12826 MB/s
[ 3.777939] raid6: sse2x4 gen() 20535 MB/s
[ 3.845938] raid6: sse2x4 xor() 14214 MB/s
[ 3.913939] raid6: avx2x1 gen() 29727 MB/s
[ 3.981936] raid6: avx2x1 xor() 21553 MB/s
[ 4.049938] raid6: avx2x2 gen() 34915 MB/s
[ 4.117936] raid6: avx2x2 xor() 23875 MB/s
[ 4.185936] raid6: avx2x4 gen() 37470 MB/s
[ 4.253936] raid6: avx2x4 xor() 23632 MB/s
[ 4.321939] raid6: avx512x1 gen() 35605 MB/s
[ 4.389937] raid6: avx512x1 xor() 19965 MB/s
[ 4.457938] raid6: avx512x2 gen() 44244 MB/s
[ 4.525937] raid6: avx512x2 xor() 24960 MB/s
[ 4.593937] raid6: avx512x4 gen() 50744 MB/s
[ 4.661938] raid6: avx512x4 xor() 20318 MB/s
[ 4.661938] raid6: using algorithm avx512x4 gen() 50744 MB/s
[ 4.661939] raid6: .... xor() 20318 MB/s, rmw enabled
[ 4.661939] raid6: using avx512x2 recovery algorithm
Rien qui semble anormal (à part ces mentions de raid6 que je n'utilise
pas).
Merci encore.
Steve