Vollbackup mit tar / Fragen, Probleme und unbekannte Fehler
Posted: 2005-06-21 11:25
Vollbackup mit tar
Ich möchte ein Vollbackup meines Servers mit tar durchführen. Die Platte hat 120GB(2.9GB), OS ist Linux 9.3. Die Sicherung erfolgt im laufenden Betrieb, nicht im Rescue-Modus.
Das Ziellaufwerk liegt auf einem Win2000-Rechner und ist unter dem Verzeichnis /win2000 gemountet.
Der Tar-Befehl sieht dann wie folgt aus:
tar -zcpf - -T tar_include -X tar_exclude | split -b 1000m - /win2000/Linux9.3_img.tar.gz
(split zerteilt das Archiv in 1GB-Dateien damit es kein Problem mit der max. Dateigröße gibt)
Inhalt der tar_include-Datei:
/
###################################
Inhalt der tar_exclude-Datei
/proc
/win2000
###################################
So die Sicherung lief jetzt ca. 1 Stunde und es wurden bereits ca. 5.5GB gesichert!
Ausserdem traten sehr oft folgende Fehlermeldungen auf:
z.B:
/sys/devices/platform/power/state : File shrank by 4094 Bytes; padding with zeros
/var/spool/postfix/private/relay ignoriert
/sys/devices/pci0000:00/0000 :00. :01.0/000010.0/resource0 : Read error at byte 0, reading 6144 bytes : Das Argument ist ungültig
die Sicherung lief aber weiter bis Sie schließlich bei der folgenden Fehlermeldung ganz abgebrochen ist:
/media/floppy: kann savedir nich ausführen.: kein Medium gefunden
So nun zu meinen Fragen:
- weshalb ist das komprimierte Archiv so groß, wenn nur 2.9GB der Platte belegt sind?
- was haben die Fehlermeldungen eigentlich zu bedeuten, kann man Sie ignorieren, oder ist davon auszugehen, dass das Zurückspielen der Daten in die Hose geht
- welche Verzeichnisse sollten auf jeden Fall gesichert werden und welche können ausgeschlossen werden damit sich der Server im Notfall wiederherstellen lässt
Vielen Dank im Voraus für Eure Vorschläge.
P.S. ich habe bei Google schon gesucht und befasse mich schon seit Tagen mit dem Problem einer Vernünftigen Backup-Lösung, die Beiträge in diesem Forum und auch in einigen anderen Foren habe ich soweit es geht durchsucht, aber bis jetzt noch keine Lösung gefunden. Auch eine Sicherung mit dd habe ich schon ausprobiert (siehe http://www.rootforum.org/forum/viewtopic.php?t=35195), die ist jedoch auch nicht unproblematisch.
Eine weitere Methode ist derzeit noch in der Testphase:
Gzip --fast | /dev/hda1 | | split -b 1000m - /win2000/Linux9.3_img_2.gz
Bis jetzt wurden ca. 7GB erstellt und die Sicherung läuft immer noch. Keine Fehlermeldungen, aber es bleibt die Riesige Datenmenge?
Gruss
jack
Ich möchte ein Vollbackup meines Servers mit tar durchführen. Die Platte hat 120GB(2.9GB), OS ist Linux 9.3. Die Sicherung erfolgt im laufenden Betrieb, nicht im Rescue-Modus.
Das Ziellaufwerk liegt auf einem Win2000-Rechner und ist unter dem Verzeichnis /win2000 gemountet.
Der Tar-Befehl sieht dann wie folgt aus:
tar -zcpf - -T tar_include -X tar_exclude | split -b 1000m - /win2000/Linux9.3_img.tar.gz
(split zerteilt das Archiv in 1GB-Dateien damit es kein Problem mit der max. Dateigröße gibt)
Inhalt der tar_include-Datei:
/
###################################
Inhalt der tar_exclude-Datei
/proc
/win2000
###################################
So die Sicherung lief jetzt ca. 1 Stunde und es wurden bereits ca. 5.5GB gesichert!
Ausserdem traten sehr oft folgende Fehlermeldungen auf:
z.B:
/sys/devices/platform/power/state : File shrank by 4094 Bytes; padding with zeros
/var/spool/postfix/private/relay ignoriert
/sys/devices/pci0000:00/0000 :00. :01.0/000010.0/resource0 : Read error at byte 0, reading 6144 bytes : Das Argument ist ungültig
die Sicherung lief aber weiter bis Sie schließlich bei der folgenden Fehlermeldung ganz abgebrochen ist:
/media/floppy: kann savedir nich ausführen.: kein Medium gefunden
So nun zu meinen Fragen:
- weshalb ist das komprimierte Archiv so groß, wenn nur 2.9GB der Platte belegt sind?
- was haben die Fehlermeldungen eigentlich zu bedeuten, kann man Sie ignorieren, oder ist davon auszugehen, dass das Zurückspielen der Daten in die Hose geht
- welche Verzeichnisse sollten auf jeden Fall gesichert werden und welche können ausgeschlossen werden damit sich der Server im Notfall wiederherstellen lässt
Vielen Dank im Voraus für Eure Vorschläge.
P.S. ich habe bei Google schon gesucht und befasse mich schon seit Tagen mit dem Problem einer Vernünftigen Backup-Lösung, die Beiträge in diesem Forum und auch in einigen anderen Foren habe ich soweit es geht durchsucht, aber bis jetzt noch keine Lösung gefunden. Auch eine Sicherung mit dd habe ich schon ausprobiert (siehe http://www.rootforum.org/forum/viewtopic.php?t=35195), die ist jedoch auch nicht unproblematisch.
Eine weitere Methode ist derzeit noch in der Testphase:
Gzip --fast | /dev/hda1 | | split -b 1000m - /win2000/Linux9.3_img_2.gz
Bis jetzt wurden ca. 7GB erstellt und die Sicherung läuft immer noch. Keine Fehlermeldungen, aber es bleibt die Riesige Datenmenge?
Gruss
jack