Il 28/04/2023 15:30, Piviul ha scritto:

Scusa ma chi è che usa un disco da 12T con un'unica partizione?
Io. 90 dischi, veramente :) E nella nuova iterazione diventeranno 18 RAID5 da 44T (gruppi di 5: 4+1), se riesco a risolvere il problema col fail del RAID...

In ogni caso un fsck.ext4 anche su un volume di pochissimi tera mette a dura prova... ma btrfs o xfs hanno un sistema di filesystemcheck molto più veloce?
Con XFS è praticamente non misurabile (quasi istantaneo) anche in caso di spegnimento "sporco". A meno di errori sulla RAM.

comunque ho fatto una prova, volume di  3T non cachato su disco meccanico da 12T:
[...]
poco più di 3 minuti... mi sembra ad occhio accettabile; xfs o btrfs farebbe di meglio?
Su uno dei dischi da 12T, mentre inizializza il RAID su altri 5:
root@clustor01:/srv/bricks# df 05
File system     1K-blocchi      Usati   Disponib. Uso% Montato su
/dev/sdf1      11716796416 1455579512 10261216904  13% /srv/bricks/05

root@clustor01:/srv/bricks# umount 05

root@clustor01:/srv/bricks# date && xfs_repair /dev/sdf1 && date
mar 2 mag 2023, 08:00:56, CEST
Phase 1 - find and verify superblock...
Phase 2 - using internal log
        - zero log...
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - agno = 4
        - agno = 5
        - agno = 6
        - agno = 7
        - agno = 8
        - agno = 9
        - agno = 10
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 9
        - agno = 6
        - agno = 8
        - agno = 5
        - agno = 10
        - agno = 1
        - agno = 2
        - agno = 3
        - agno = 7
        - agno = 4
Phase 5 - rebuild AG headers and trees...
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - traversing filesystem ...
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
done
mar 2 mag 2023, 08:19:21, CEST

Ma, come detto, normalmente (leggi: al reboot, anche dopo molti mesi di uptime) non è necessario e fa velocissimo. xfs_repair è solo per casi gravi.

--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786

Rispondere a