Bonjour,
Le mardi 22 septembre 2015, BERBAR Florian a écrit... > Pourrais-tu préciser les options que tu as passer à l'utilitaire > "xfs_repair" ? D'autre part, si cela n'as pas été le cas lors de ta > dernier utilisation de l'utilitaire "xfs_repair", pourrais-tu donner > la sortie de la commande en ajoutant l'option "-v" qui permet de > d'activer une sortie un peu plus bavarde ? Voilà pour xfs_repair sur le VL monté sur /tmp Phase 1 - find and verify superblock... - block cache size set to 567104 entries Phase 2 - using internal log - zero log... zero_log: head block 6 tail block 6 - scan filesystem freespace and inode maps... - found root inode chunk Phase 3 - for each AG... - scan and clear agi unlinked lists... - process known inodes and perform inode discovery... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - process newly discovered inodes... Phase 4 - check for duplicate blocks... - setting up duplicate extent list... - check for inodes claiming duplicate blocks... - agno = 0 - agno = 1 - agno = 2 - agno = 3 Phase 5 - rebuild AG headers and trees... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - reset superblock... Phase 6 - check inode connectivity... - resetting contents of realtime bitmap and summary inodes - traversing filesystem ... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - traversal finished ... - moving disconnected inodes to lost+found ... Phase 7 - verify and correct link counts... XFS_REPAIR Summary Thu Sep 24 06:54:31 2015 Phase Start End Duration Phase 1: 09/24 06:54:30 09/24 06:54:30 Phase 2: 09/24 06:54:30 09/24 06:54:31 1 second Phase 3: 09/24 06:54:31 09/24 06:54:31 Phase 4: 09/24 06:54:31 09/24 06:54:31 Phase 5: 09/24 06:54:31 09/24 06:54:31 Phase 6: 09/24 06:54:31 09/24 06:54:31 Phase 7: 09/24 06:54:31 09/24 06:54:31 Total run time: 1 second done > # xfs_db -c 'blockget -v -p' /dev/tondevice Ne donne rien sur le VL monté sur /tmp. Pas de sortie. Pour mon autre volume, c'est quand même un peu trop gros pour mettre sur la liste. Et je ne sais pas vraiment ce qu'il faut chercher dedans. Un `df -h` hier soir avant extinction : Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur udev 10M 0 10M 0% /dev tmpfs 1,2G 24M 1,2G 2% /run /dev/md2 5,4G 1,1G 4,1G 21% / /dev/dm-0 30G 13G 18G 42% /usr tmpfs 3,0G 12K 3,0G 1% /dev/shm tmpfs 5,0M 4,0K 5,0M 1% /run/lock tmpfs 3,0G 0 3,0G 0% /sys/fs/cgroup /dev/md0 88M 36M 47M 44% /boot /dev/mapper/debian-lvvar 50G 17G 34G 34% /var /dev/mapper/debian-lvhome 60G 50G 11G 83% /home /dev/mapper/debian-lvtmp 797M 33M 765M 5% /tmp /dev/mapper/debian-lvlaurena 2,0G 901M 1,2G 45% /home/laurena tmpfs 598M 4,0K 598M 1% /run/user/1000 tmpfs 598M 0 598M 0% /run/user/0 Un `df -h` ce matin après xfs_repair sur /tmp et /home/laurena : Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur udev 10M 0 10M 0% /dev tmpfs 1,2G 9,0M 1,2G 1% /run /dev/md2 5,4G 1,2G 4,0G 22% / /dev/dm-0 30G 13G 18G 42% /usr tmpfs 3,0G 12K 3,0G 1% /dev/shm tmpfs 5,0M 4,0K 5,0M 1% /run/lock tmpfs 3,0G 0 3,0G 0% /sys/fs/cgroup /dev/md0 88M 36M 47M 44% /boot /dev/mapper/debian-lvhome 60G 50G 11G 84% /home /dev/mapper/debian-lvvar 50G 17G 34G 34% /var tmpfs 598M 4,0K 598M 1% /run/user/1000 /dev/sdd1 31G 8,3G 22G 28% /mnt/usbstick /dev/mapper/debian-lvtmp 797M 33M 765M 5% /mnt/tmp /dev/mapper/debian-lvlaurena 2,0G 837M 1,2G 42% /home/laurena On voit que le xfs_repair a regagné 64M sur le VL monté sur /home/laurena. Et le `du -sh` du VL de /tmp : espinasse:~$ mount /dev/mapper/debian-lvtmp /mnt/tmp espinasse:~$ du -sh /mnt/tmp/ 24K /mnt/tmp/ 24K, alors que le df montre 33M -- jm