Page 1 of 1

FTP Backup von files >2GB

Posted: 2004-03-22 20:53
by s20
Hallo,

wie macht ihr eure Rootserver Backups, wenn die backup files größer als 2GB werden. Curl (aus Disti) ist leider nicht in der Lage die zu kopieren. Es gibt zwar eine aktuellere Version von curl. Leider nicht als rpm für die suse 8.1.

Code: Select all

error: failed dependencies:
        libc.so.6(GLIBC_2.3)   is needed by curl-7.10.5-42
        libcrypto.so.0.9.7   is needed by curl-7.10.5-42
        libssl.so.0.9.7   is needed by curl-7.10.5-42
Wie könnte man das Problem lösen?

Danke
S20

Re: FTP Backup von files >2GB

Posted: 2004-03-22 21:01
by alexander newald
Mit split aufteilen

Re: FTP Backup von files >2GB

Posted: 2004-03-22 21:10
by s20
und rückwärts mit cat wieder zusammenführen?? das dauert leider sehr lange. gibts da nix ordentliches?

Re: FTP Backup von files >2GB

Posted: 2004-03-22 21:14
by alexander newald
Mit Perl einen kleinen FTP Client erstellen:

Code: Select all

#!/usr/bin/perl
use Net::FTP;

$zeit = time;

$ip = "127.0.0.1";
$pwd = "password";
$userid = "userid";

$ftp = Net::FTP->new($ip);
$ftp->login($userid,$password);
$ftp->mkdir("/backup");
$ftp->put("/localbackup/today.tgz","/backup/$zeit.tgz");
$ftp->quit();

Re: FTP Backup von files >2GB

Posted: 2004-03-22 21:32
by Joe User
s20 wrote:wie macht ihr eure Rootserver Backups, wenn die backup files größer als 2GB werden.

Code: Select all

man tar
man star
man gzip
man cpio
...

Re: FTP Backup von files >2GB

Posted: 2004-03-24 14:24
by s20
Also ich könnte es mittels -b option und tar ja aufteilen. leider finde ich nirgends eine info, wie ich diese files wieder entpacke.

danke
s20

Re: FTP Backup von files >2GB

Posted: 2004-03-24 16:07
by Joe User
Alle Files in eine Verzeichnis legen und das Erste zum Entpacken auswählen, der Rest sollte dann automagisch entpackt werden...