100 GB backuppen! Wie?
100 GB backuppen! Wie?
Hallo Leute!
Ich hab da ein riesen problem. Und zwar. Ich habe zwei Server mit RH 9 drauf. Jetzt möchte ich vom einen Meine Daten holen und auf den anderen kopieren. Wie mache ich das am besten. Die Datenmenge beträgt knapp 100GB und ist im verzeichnis /home
Wäre dankbar für eine Lösung
greets balu
Ich hab da ein riesen problem. Und zwar. Ich habe zwei Server mit RH 9 drauf. Jetzt möchte ich vom einen Meine Daten holen und auf den anderen kopieren. Wie mache ich das am besten. Die Datenmenge beträgt knapp 100GB und ist im verzeichnis /home
Wäre dankbar für eine Lösung
greets balu
Re: 100 GB backuppen! Wie?
einfache lösung:
1. alle dateien taren (tar -xvf /backup.tar /home/*)
2. wenn du zeit hast und traffic sparen willst: gzip -9 /backup.tar
3. Dateien aufteilen: split -b 50000000 /backup.tar(.gz)
4. einen FTP-User anlegen, der auf die Dateien zugriff hat, also am besten in das homeverzeichniss verschieben
5. Per FTP auf dem anderen Server in ein neues Verzeichniss runterladen
6. Zusammenfügen: copy /B *.* backup.tar(.gz)
7. Entpacken tar -cv(z)f backup.tar.gz
War jetzt aus dem Kopf, vermutlich stimmen die tar-parameter nicht ganz, aber wozu gibt es man?
1. alle dateien taren (tar -xvf /backup.tar /home/*)
2. wenn du zeit hast und traffic sparen willst: gzip -9 /backup.tar
3. Dateien aufteilen: split -b 50000000 /backup.tar(.gz)
4. einen FTP-User anlegen, der auf die Dateien zugriff hat, also am besten in das homeverzeichniss verschieben
5. Per FTP auf dem anderen Server in ein neues Verzeichniss runterladen
6. Zusammenfügen: copy /B *.* backup.tar(.gz)
7. Entpacken tar -cv(z)f backup.tar.gz
War jetzt aus dem Kopf, vermutlich stimmen die tar-parameter nicht ganz, aber wozu gibt es man?
Re: 100 GB backuppen! Wie?
Hi,
du könntest natürlich auch einfach in deinem Ftp Daemon, kurzzeitig FXP aktiviern und dann direkt von dem einen Server auf den nächsten kopiern, ohne den Umweg über deinen Rechner. Geht warscheinlich sogar binnen 1-2 Stunden.
FXP nachher aber unbedingt wieder abschalten, da Warez Vereine hinter so Servern her sind.
du könntest natürlich auch einfach in deinem Ftp Daemon, kurzzeitig FXP aktiviern und dann direkt von dem einen Server auf den nächsten kopiern, ohne den Umweg über deinen Rechner. Geht warscheinlich sogar binnen 1-2 Stunden.
FXP nachher aber unbedingt wieder abschalten, da Warez Vereine hinter so Servern her sind.
Re: 100 GB backuppen! Wie?
Sorry bin ein voller newbe... Was is FXP? Diese Server sind nicht am Internet angehängt. bzw. via VPN miteinander verbunden und vom restlichen Netzt getrennt.
FXP
FXP = File eXchange Protocol
überträgt daten zwischen zwei ftp servern direkt (wenn Dir das was sagt ??)
aber was du beschreibst, ist kein wirkliches rootserver-problem, das kollidiert etwas mit den regeln des board (Art. 5), oder :?:
Naja, wie schnell ist denn die Verbindung zw. den beiden ?
Kommst Du an die Maschinen ran, ich mein physisch ?
Warum dann keine externe Platte, Streamer, etc. ?

überträgt daten zwischen zwei ftp servern direkt (wenn Dir das was sagt ??)
aber was du beschreibst, ist kein wirkliches rootserver-problem, das kollidiert etwas mit den regeln des board (Art. 5), oder :?:
Naja, wie schnell ist denn die Verbindung zw. den beiden ?
Kommst Du an die Maschinen ran, ich mein physisch ?
Warum dann keine externe Platte, Streamer, etc. ?
Re: 100 GB backuppen! Wie?
Leichter befehlsdreher:theomega wrote:einfache lösung:
1. alle dateien taren (tar -xvf /backup.tar /home/*)
2. wenn du zeit hast und traffic sparen willst: gzip -9 /backup.tar
3. Dateien aufteilen: split -b 50000000 /backup.tar(.gz)
4. einen FTP-User anlegen, der auf die Dateien zugriff hat, also am besten in das homeverzeichniss verschieben
5. Per FTP auf dem anderen Server in ein neues Verzeichniss runterladen
6. Zusammenfügen: copy /B *.* backup.tar(.gz)
7. Entpacken tar -cv(z)f backup.tar.gz
War jetzt aus dem Kopf, vermutlich stimmen die tar-parameter nicht ganz, aber wozu gibt es man?
1. alle dateien taren (tar -cvf /backup.tar /home/*)
7. Entpacken tar -xv(z)f backup.tar.gz
-c = create
-x = extract
MfG
Robert
-
captaincrunch
- Userprojekt

- Posts: 7066
- Joined: 2002-10-09 14:30
- Location: Dorsten
- Contact:
Re: 100 GB backuppen! Wie?
Wieso so kompliziert?
Auf dem "Source"-Server:
Auf dem "Source"-Server:
Code: Select all
tar cvf - /was/gesichert/werden/soll | ssh user@andererserver tar xvpf -DebianHowTo
echo "[q]sa[ln0=aln256%Pln256/snlbx]sb729901041524823122snlbxq"|dc
echo "[q]sa[ln0=aln256%Pln256/snlbx]sb729901041524823122snlbxq"|dc
Re: 100 GB backuppen! Wie?
und natürlch rsync... :)
rsync -razv -e ssh /quellpfad/ user@zielrechner:/zielpfad
Anton
---
is there any life before breakfast?
rsync -razv -e ssh /quellpfad/ user@zielrechner:/zielpfad
Anton
---
is there any life before breakfast?
Re: 100 GB backuppen! Wie?
Wie mache ich es das die Rechte und der Eigentümer nicht verlorn geht?tar cvf - /was/gesichert/werden/soll | ssh user@andererserver tar xvpf -
Danke
-
captaincrunch
- Userprojekt

- Posts: 7066
- Joined: 2002-10-09 14:30
- Location: Dorsten
- Contact:
Re: 100 GB backuppen! Wie?
Schau dir die manpage zu tar an, dann weißt du's. Ist eigentlich schon längst mit drin.
DebianHowTo
echo "[q]sa[ln0=aln256%Pln256/snlbx]sb729901041524823122snlbxq"|dc
echo "[q]sa[ln0=aln256%Pln256/snlbx]sb729901041524823122snlbxq"|dc
Re: 100 GB backuppen! Wie?
Sicherstellen, daß UIDs/GIDs auf den Systemen gleich sind, dann den Paremeter "p" bemühen, so müsste das gehen:fun4teen wrote: Wie mache ich es das die Rechte und der Eigentümer nicht verlorn geht?
Code: Select all
tar zcpvf - /was/gesichert/werden/soll | ssh user@andererserver tar xvpf -
Re: 100 GB backuppen! Wie?
ich würd rsync hier bevorzugen, einmal die Daten rüberschieben dann noch nen abschließenden Abgleich starten und den alten Server deaktivieren bzw. umstellen.