Hallo Alexander,
ich gehe jetzt mal von einem Softwareraid aus da Du md0 geschrieben hast ..... Die Vermutung liegt nahe, dass eine Platte ausgefallen ist und eine weitere bereits Fehler aufweist. Raidverbund prüfen: cat /proc/mdstat hier sollten alle Partitionen mit U gekennzeichnet sein ( Up2Date ) oder mdadm –detail /dev/md0 hier müssen alle Platten in "active sync" stehen ist das nicht der Fall gehts schon los.... smartctl -a /dev/sda ( Fehlerspiecher der Platte sda auslesen ) für weiter Platten /dev/sdb, /dev/sdc usw. Sind hier Fheler vorhanden, platten tauschen und Raidverbund neu aufbauen. vorher die defekten Platten als faulty markieren ( man mdadm ) mdadm -f /dev/md0 /dev/sdb1 und Platte entfernen mdadm -r /dev/md0 /dev/sdb1 Partitionstabelle Dumpen ( sfdisk -d /dev/sda > sda.sfdisk ) auf z.B der neuen Platte, hier sdb, wieder einlesen ( sfdisk /dev/sdb < sda.sfdisk ) usw. usf. Raidverbund wieder aufbauen.... Viel Zeit mitbringen ;) mdadm -a /dev/md0 /dev/sdb1 Alles nur wenn sdb die kaputte Platte ist!!!!!!!! Wenn was schief geht. Ich wars nicht. Das ist nur eine Hilfestellung keine Patentlösung. Für evtl. Schäden und Datenverlust übernehme ich keinerlei Verantwortung! cheers Hias On 20.01.2017 17:38, Burner wrote: > Hallo, > > mein Name ist Alexander Burner. Mein privater Server (Ubuntu 16.04 > LTS) hat ein Raid5 auf dem eine 6TB großen ext4 Partition ist. > Vor 1 Monat meldete sich beim Hochfahren das System und verweigerte > das Einbinden der Partition. > Ich versuche seither mit fsck.ext4 -f -y /dev/md0 den Fehler zu > beheben. Mir kommt jedoch vor als werden es immer mehr Inodes die > fehlerhaft bzw doppelt belegt sind. > Gibt es noch bessere Werkzeuge als fsck ? > Als ich das letzte mal die Partition "nur lesend" gemountet habe > fehlten etliche Dateien. Mit df wird jedoch so ungefähr der ganze > verbrauchte Speicherplatz mit den nicht angezeigten bzw verschwundenen > Dateien angezeigt. > > Gruß > Alexander. > _______________________________________________ > lug-ts mailing list > [email protected] > http://www.lug-ts.de/mailman/listinfo/lug-ts _______________________________________________ lug-ts mailing list [email protected] http://www.lug-ts.de/mailman/listinfo/lug-ts
