Hallo Alexander,

ich gehe jetzt mal von einem Softwareraid aus da Du md0 geschrieben hast
.....
Die Vermutung liegt nahe, dass eine Platte ausgefallen ist und eine
weitere bereits Fehler aufweist.

Raidverbund prüfen:

cat /proc/mdstat
hier sollten alle Partitionen mit U gekennzeichnet sein ( Up2Date )


oder

mdadm –detail /dev/md0
hier müssen alle Platten in "active sync" stehen

ist das nicht der Fall gehts schon los....

smartctl -a /dev/sda ( Fehlerspiecher der Platte sda auslesen )
für weiter Platten /dev/sdb, /dev/sdc usw.

Sind hier Fheler vorhanden, platten tauschen und Raidverbund neu aufbauen.
vorher die defekten Platten als faulty markieren ( man mdadm )
mdadm -f /dev/md0 /dev/sdb1

und Platte entfernen
mdadm -r /dev/md0 /dev/sdb1

Partitionstabelle Dumpen ( sfdisk -d /dev/sda > sda.sfdisk )
auf z.B der neuen Platte, hier sdb, wieder einlesen ( sfdisk /dev/sdb <
sda.sfdisk )

usw. usf.

Raidverbund wieder aufbauen.... Viel Zeit mitbringen ;)
mdadm -a /dev/md0 /dev/sdb1

Alles nur wenn sdb die kaputte Platte ist!!!!!!!!
Wenn was schief geht. Ich wars nicht. Das ist nur eine Hilfestellung
keine Patentlösung. Für evtl. Schäden und Datenverlust übernehme ich
keinerlei Verantwortung!

cheers
Hias



On 20.01.2017 17:38, Burner wrote:
> Hallo,
>
> mein Name ist Alexander Burner. Mein privater Server (Ubuntu 16.04
> LTS) hat ein Raid5 auf dem eine 6TB großen ext4 Partition ist.
> Vor 1 Monat meldete sich beim Hochfahren das System und verweigerte
> das Einbinden der Partition.
> Ich versuche seither mit fsck.ext4 -f -y /dev/md0 den Fehler zu
> beheben. Mir kommt jedoch vor als werden es immer mehr Inodes die
> fehlerhaft bzw doppelt belegt sind.
> Gibt es noch bessere Werkzeuge als fsck ?
> Als ich das letzte mal die Partition "nur lesend" gemountet habe
> fehlten etliche Dateien. Mit df wird jedoch so ungefähr der ganze
> verbrauchte Speicherplatz mit den nicht angezeigten bzw verschwundenen
> Dateien angezeigt.
>
> Gruß
> Alexander.
> _______________________________________________
> lug-ts mailing list
> [email protected]
> http://www.lug-ts.de/mailman/listinfo/lug-ts


_______________________________________________
lug-ts mailing list
[email protected]
http://www.lug-ts.de/mailman/listinfo/lug-ts

Antwort per Email an