ich stand vor dem Problem, dass meine Serverfestplatte sehr voll gepackt ist ich aber dennoch ein Backup ziehen wollte. Auf Grund der starken Festplattenauslastung konnte ich die einzelnen tar.bz2 Files nicht auf des Server-HD zwischenspeichern, sondern musste eine Lösung finden um diese direkt auf meinen Backup FTP-Server zu übertragen. Dabei kam mir folgendes Lösung (via Pipes & Filters) in den Sinn:
1) Backup erstellen und auf FTP-Server übertragen:
Code: Select all
tar cpjf - $dir | ncftpput -u $ftp_user -p $ftp_password -c $remote_host /$directory.tar.bz2
Code: Select all
mysqldump -A --password=$mysql_root_pw | bzip2 -c | ncftpput -u $ftp_user -p $ftp_password -c $remote_host /mysql_complete.tar.bz2 Code: Select all
ncftpget -u $ftp_user -p $ftp_passwd -c ftp://$backup_host:/$backupfile | tar xpjf - Code: Select all
ssh root@$host "ncftpget -u $ftp_user -p $ftp_passwd -c ftp://$backup_host:/$backupfile" | tar xpjf - Mich wundert nun, dass eine solche Backup-Lösung hier noch nicht vorgeschlagen wurde (oder habe ich nach den falschen Begriffen gesucht?).
Ich bin an konstruktiven Kommentaren sehr interessiert, insbesondere weil ich Pipes & Filters für das Übertragen recht großer Datenmengen bisher nicht benutzt habe. Gibt es Nachteile in der vorgeschlagenen Backupstrategie, die ich übersehen habe? Wie bereits erwähnt: Positiv finde ich, dass durch die Pipes & Filters Architektur das Zwischenspeicherproblem umgangen wird.
Viele Grüße
Robin