Hallo


> > Hallo Liste,
> > 
> > derzeit  versuche ich die Backup-Funktionen auf einem unserer Server zu
> >  optimieren. Bei einem Voll-Backup wird zunächst mittels »find« eine
> >  Dateiliste erstellt, welche anschließen über »tar --files-from
> >  <DATEILISTE>« eingelesen wird.
> 
> Ich würde mich hier auf die  Fähigkeit von Tar verlassen (Stichwort
> Index-File), wenn es darum geht, zu  ermitteln, was neu hinzugekommen
> ist.



wenn gnu tar zu langsam könnte man star mal testen 

vielleicht hat tar auch Probleme mit links


> 
> > Ohne diese Dateiliste  springt mich der Prozess irgendwann mit einer
> > Fehlermeldung an, da sich  die Daten innerhalb der Ordnerstruktur ändern
> > können (hauptsächlich  kommen Dateien hinzu).
> 
> Das wird doch auch mit dieser Dateiliste  passieren. Solange Leben in den
> Verzeichnissen ist, wird tar bemerkten, daß  während des Sicherns
> Änderungen passieren. Ob das kritisch ist, kann tar  nicht wissen, es
> wird aber weiterarbeiten.
> 
> > Welche Möglichkeit  habe ich, diese Fehlermeldung zu unterdrücken? Gibt
> 
>     tar …  2>/dev/null
> 
> 
> > es ein anderes Archiviersystem, welches ihr mir  stattdessen empfehlen
> > würdet? Wie machen es "richtige" Backup-Programme,  wenn sie von einem
> > Live-System Daten sichern sollen?
> 
> Die sollten  die selben Probleme haben. Was das mehrfach erwähnte Bacula
> hier macht, weiß  ich nicht, vielleicht einfach die Meldungen
> unterdrücken. Amanda zeigt diese  Meldungen, wenn es die Sicherung mit
> tar erstellt. Wenn es dump benutzt, weiß  ich gerade nicht, was da
> passiert, ob dump etwas äußert.
> 
> > "Warum  der Aufwand?" könnte nun eine Frage lauten. Der »find«-Prozess
> > schluckt  aufgrund der hohen Anzahl (kleiner) Dateien eine Menge Zeit.


man könnte versuchen in  Echtzeit mit dnotify eine Liste  erstellen oder gleich 
den Archiv hinzufügen


> > Für eine  Vollsicherung von knapp 250 GB Daten haben wir mit dieser
> > Methode 56  Stunden berechnet.
> 
> Berechnet oder erreicht.
> 
> > derzeitiger  Ablauf: »find« > »tar« > »pbzip2«
> 
> Ich würde vielleicht das  Dateisystem in ein LVM legen und dann einen
> Snapshot machen, den ich in aller  Ruhe sichern kann. Da ändern sich dann
> auch keine Files mehr. Ob Du für den  Snapshot irgendwelche Dienste
> anhalten willst, hängt von Deinen Anwendungen  ab.
> 
> Ich mache gerne sowas:
> 
>     snapshot
> 
>      fsck - wenn fehler, dann snapshot wegschmeissen und noch mal
>             snapshot
> 
>     dump / tar /  whatever
> 
>     snapshot wegschmeissen

würde ich auch probieren



oder ein Filesystem nutzen das snapshort/oder history kann (zfs(performance 
schlecht Userspace) brtfs (beta) logfs() ext3cow())


man könnte auch überlegen die Daten per drbd auf einen anderen Rechner 
zubringen 


drbd deaktivieren backup drbd aktivieren und sync (habe ich aber keine 
Erfahrung 
ob das geht)

Andreas
> 
> -- 
> Heiko
> 



_______________________________________________
Lug-dd maillist  -  Lug-dd@mailman.schlittermann.de
https://ssl.schlittermann.de/mailman/listinfo/lug-dd

Antwort per Email an