Le 15-04-2019, à 22:24:20 +0200, Étienne Mollier a écrit :

Bonjour,

steve, au 2019-04-15 :
Vraiment désolé, à l'envoi ça semblait correct.

Ce n'est pas très grave; on a qu'a dire que ça a justifié le
démarrage de mon éditeur de texte préféré.  :)

Sympa de le prendre comme ça :)

Le 12-04-2019, à 20:01:17 +0200, Étienne Mollier a écrit :
> steve, au 2019-04-12 :
> > 1 box kernel: [ 3988.692314]       Tainted: P           OE ...
>                                      ^~~~~~~
> Le noyau est teinté, quelle en est la cause ?  (ce devrait être
> indiqué quelque part dans la sortie de `dmesg`.)


driver nvidia proprio.

Bon, au moins on en a le cœur net, la teinture n'avait rien de
vraiment pertinent, sauf malchance.

> Si un sous système corrompt le noyau, alors il n'est peut-être
> pas nécessaire de chercher plus loin, et juste de le
> désactiver.

Je pourrais en effet essayer le driver libre « nouveau ». Mais la
dernière fois que j'ai essayé, ce n'était vraiment pas très concluant.

Ça vaudrait peut-être quand même le coup de voir si le noyau est
toujours teinté sans ce pilote, et si le problème se pose à
nouveau.

Oui.

Sinon, plus prosaïquement, dans quel état se trouve le Raid
actuellement ?  Est-il toujours partiel ou bien le remplacement
du disque en panne a eu lieu ?  (cat /proc/mdstat)

J'avais trois disques dans la grappe dont un spare qui a pris du service
quand j'ai débranché le disque défectueux.

$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] 
[raid10]
md1 : active raid1 sdb5[2] sde5[3]
     117120896 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sdb6[2] sde6[3]
     97589120 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sdb1[2] sde1[3]
     19514240 blocks super 1.2 [2/2] [UU]

unused devices: <none>


Donc ok.

J'ai acheté un disque supplémentaire mais n'ai pas encore eu le temps de
l'installer.



Le 15-04-2019, à 17:11:22 +0200, Daniel Caillibaud a écrit :
> Il faudrait demander à mdadm d'être plus bavard quand il a un pb, mais je
> sais pas trop comment.

Rien dans la page man.

L'essentiel du verbe provient surtout de la sortie de `dmesg`.
Peut-être que des messages intéressants apparaissent au moment
de l'assemblage ?

$ dmesg | grep -i raid
[    2.196649] md/raid1:md2: active with 2 out of 2 mirrors
[    2.196906] md/raid1:md1: active with 2 out of 2 mirrors
[    2.197262] md/raid1:md0: active with 2 out of 2 mirrors
[    3.505941] raid6: sse2x1   gen() 11776 MB/s
[    3.573938] raid6: sse2x1   xor() 11147 MB/s
[    3.641939] raid6: sse2x2   gen() 18466 MB/s
[    3.709938] raid6: sse2x2   xor() 12826 MB/s
[    3.777939] raid6: sse2x4   gen() 20535 MB/s
[    3.845938] raid6: sse2x4   xor() 14214 MB/s
[    3.913939] raid6: avx2x1   gen() 29727 MB/s
[    3.981936] raid6: avx2x1   xor() 21553 MB/s
[    4.049938] raid6: avx2x2   gen() 34915 MB/s
[    4.117936] raid6: avx2x2   xor() 23875 MB/s
[    4.185936] raid6: avx2x4   gen() 37470 MB/s
[    4.253936] raid6: avx2x4   xor() 23632 MB/s
[    4.321939] raid6: avx512x1 gen() 35605 MB/s
[    4.389937] raid6: avx512x1 xor() 19965 MB/s
[    4.457938] raid6: avx512x2 gen() 44244 MB/s
[    4.525937] raid6: avx512x2 xor() 24960 MB/s
[    4.593937] raid6: avx512x4 gen() 50744 MB/s
[    4.661938] raid6: avx512x4 xor() 20318 MB/s
[    4.661938] raid6: using algorithm avx512x4 gen() 50744 MB/s
[    4.661939] raid6: .... xor() 20318 MB/s, rmw enabled
[    4.661939] raid6: using avx512x2 recovery algorithm


Rien qui semble anormal (à part ces mentions de raid6 que je n'utilise
pas).

Merci encore.

Steve

Répondre à