FTP-Backup mit Unix Pipes & Filters - Spricht was dagegen?
Posted: 2006-03-07 13:20
Hallo Leute,
ich stand vor dem Problem, dass meine Serverfestplatte sehr voll gepackt ist ich aber dennoch ein Backup ziehen wollte. Auf Grund der starken Festplattenauslastung konnte ich die einzelnen tar.bz2 Files nicht auf des Server-HD zwischenspeichern, sondern musste eine Lösung finden um diese direkt auf meinen Backup FTP-Server zu übertragen. Dabei kam mir folgendes Lösung (via Pipes & Filters) in den Sinn:
1) Backup erstellen und auf FTP-Server übertragen:
Habe das ganze sogar mit einem Mysql-Dump und einer entsprechenden Pipes eingesetzt:
Der eigentlich wichtige Teil des Backups, die Wiederherstellung im Schadensfall lässt sich ebenfalls sehr kompfortabel via Pipes & Filters umsetzen:
Oft kommt es vor, dass außerhalb des Rechenzentrums, in dem der dedizierte Server steht kein Zugriff auf den FTP-Backup Server möglich ist. Möchte man die Dateien vom FTP-Server direkt auf einen externen Rechner entpacken könnte man in die Pipe noch ssh einfügen:
Damit würde der Remote Backup File direkt (ohne Verwendung von Zwischenspeicher) auf einem Rechner außerhalb des RZ entpackt.
Mich wundert nun, dass eine solche Backup-Lösung hier noch nicht vorgeschlagen wurde (oder habe ich nach den falschen Begriffen gesucht?).
Ich bin an konstruktiven Kommentaren sehr interessiert, insbesondere weil ich Pipes & Filters für das Übertragen recht großer Datenmengen bisher nicht benutzt habe. Gibt es Nachteile in der vorgeschlagenen Backupstrategie, die ich übersehen habe? Wie bereits erwähnt: Positiv finde ich, dass durch die Pipes & Filters Architektur das Zwischenspeicherproblem umgangen wird.
Viele Grüße
Robin
ich stand vor dem Problem, dass meine Serverfestplatte sehr voll gepackt ist ich aber dennoch ein Backup ziehen wollte. Auf Grund der starken Festplattenauslastung konnte ich die einzelnen tar.bz2 Files nicht auf des Server-HD zwischenspeichern, sondern musste eine Lösung finden um diese direkt auf meinen Backup FTP-Server zu übertragen. Dabei kam mir folgendes Lösung (via Pipes & Filters) in den Sinn:
1) Backup erstellen und auf FTP-Server übertragen:
Code: Select all
tar cpjf - $dir | ncftpput -u $ftp_user -p $ftp_password -c $remote_host /$directory.tar.bz2
Code: Select all
mysqldump -A --password=$mysql_root_pw | bzip2 -c | ncftpput -u $ftp_user -p $ftp_password -c $remote_host /mysql_complete.tar.bz2 Code: Select all
ncftpget -u $ftp_user -p $ftp_passwd -c ftp://$backup_host:/$backupfile | tar xpjf - Code: Select all
ssh root@$host "ncftpget -u $ftp_user -p $ftp_passwd -c ftp://$backup_host:/$backupfile" | tar xpjf - Mich wundert nun, dass eine solche Backup-Lösung hier noch nicht vorgeschlagen wurde (oder habe ich nach den falschen Begriffen gesucht?).
Ich bin an konstruktiven Kommentaren sehr interessiert, insbesondere weil ich Pipes & Filters für das Übertragen recht großer Datenmengen bisher nicht benutzt habe. Gibt es Nachteile in der vorgeschlagenen Backupstrategie, die ich übersehen habe? Wie bereits erwähnt: Positiv finde ich, dass durch die Pipes & Filters Architektur das Zwischenspeicherproblem umgangen wird.
Viele Grüße
Robin