wie sichert ihr große datenmengen auf euren systemen???

Backup, Restore und Transfer von Daten
Post Reply
sploon
Posts: 57
Joined: 2004-01-05 14:41
 

wie sichert ihr große datenmengen auf euren systemen???

Post by sploon »

ich beabsichtige einmal im monat auch die daten der user zu sicher die sich auf meinen systemen befinden nur wenn die kisten bereits beim packen der daten scheitern (ca. 10 GB) ist der rest ja auch hinfällig

wie sichert ihr große datenmengen auf euren systemen???
killerhorse
Posts: 78
Joined: 2004-06-16 03:33
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by killerhorse »

Hallo,

wärenettwenndusatzzeichenverwendenwürdesdennsonstkannmnajaauchgleich
dieleerzeichenweglassenunddasliesstsichdannnichtsehrgut...

OK, zurück zum Thema:

Welche Kisten scheitern woran?
Habe bereits mehrmals grössere Backups mit tar gemacht, ohne irgendein Problem.

man tar
man bz2
man gzip

Ich verwende als Backupprogramm "Dar"

MfG

Christian
sploon
Posts: 57
Joined: 2004-01-05 14:41
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by sploon »

Ok, Sorry!

Ich werde mich dann an dieser Stelle bemühen ordentlich zu schreiben!

Also ich habe zum Beispiel einen Server auf dem ich ein DAtenvolumen von ca. 10 Gb (alles einzelne Dateien) mit tar -cf packen möchte. Mal davon abgesehen das es ewig dauert schmiert der dann irgendwann auch ab und die ganze Maschine hat sich aufgehangen und muss neu gestartet werden.
Roger Wilco
Posts: 5923
Joined: 2004-05-23 12:53
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by Roger Wilco »

sploon wrote:Also ich habe zum Beispiel einen Server auf dem ich ein DAtenvolumen von ca. 10 Gb (alles einzelne Dateien) mit tar -cf packen möchte. Mal davon abgesehen das es ewig dauert schmiert der dann irgendwann auch ab und die ganze Maschine hat sich aufgehangen und muss neu gestartet werden.
Das hört sich nach defekter Hardware an. Lass das mal überprüfen. Normalerweise sind 10 GB kein Problem für tar (sofern das unterliegende Dateisystem das unterstützt).
flo
Posts: 2223
Joined: 2002-07-28 13:02
Location: Berlin
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by flo »

Hi,

das hängt alles von Deinen restlichen Gegebenheiten ab ...

1) Welche Dateitypen sind es? Lohnt sich die Rechenzeit für das Packen?

2) Stimmen Gegebenheiten wie das Dateisystem?

3) Auf welches Medium soll letztendlich gesichert werden?

4) Einfacher lokaler Zugriff auf die Maschine oder nicht?

5) Welches Betriebssystem? Ist das Backup ein Daten- oder ein Systembackup?

6) Verändern sich die Daten schneller oder langsamer, oder exakter formuliert - welches Verhältnis haben die im Backupintervall geänderten Daten zu der Gesamtdatenmenge?

7) Packt die Maschine den Backuplauf neben der normalen Arbeit überhaupt oder soll ein externer "Backupserver" sich um die Verwaltung der Altdaten kümmern?

Hieraus kann man dann überlegen, ob man eine Plattensicherung fährt, ob die Sicherungen komprimiert und/oder verschlüsselt werden, ob man auf CDs, DVDs, NAS oder per ftp, nfs o.ä. sichert, ob denn die Permissions erhalten werden müssen oder sollen (dann tar -p!), ob das Backup inkrementell oder nicht passieren soll, ob man das Backup in _eine_ Datei schreiben kann, ob Snapshots angelegt werden, zu denen man beliebig zurückkehren kann.

Und so weiter ...

flo.

EDIT: Nachdem die Frage ja eigentlich war, wie ich das mache:
1) Alternative "Rootserver"
User- und Webdaten werden täglich per Script und "tar -zcpvf" in ein Tarfile gepackt und dies lokal gelagert, auf FTP-Speicherplatz verschoben. Sporadisches Ziehen per sftp auf den Intranetserver bei mir folgt danach und diese Daten werden dann per DVD archiviert. Systemdaten (configs) analog, aber nur wöchentlich. Datenvolumen gepackt und insgesamt: ca. 5GB.

2) Alternative "Intranetserver"
Vorhalten meiner wichtigen Daten auf meinem PC, dann noch eine externe Platte zur Sicherung, der Server synchronisiert sich dann damit - von der einen Kopie ziehe ich jeweils noch ein Backup auf DVD-RAM und sporadisch auch auf DVD-ROM, fertige Sachen werden auf CD archiviert und können aus dem "normalen" Kreis entfernt werden. Packen kommt nicht in Frage, weil ich nur einen Dual-PII (als Server) mein Eigen nenne. Volumen ca. 50 GB, Rest der Platten ist meine CD-Sammlung.

3) Alternative "Vserver" - reiner Backup-Server
Packen der Config-Daten per TAR, exportieren der Paketliste und fertig. Spiegeln der Tarfiles analog 1).

flo.
dodolin
Posts: 3840
Joined: 2003-01-21 01:59
Location: Sinsheim/Karlsruhe
Contact:
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by dodolin »

Hast du auf der lokalen Partition ueberhaupt genuegend freien Speicherplatz, um das 10 GB tar-File zu speichern?
sploon
Posts: 57
Joined: 2004-01-05 14:41
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by sploon »

Also will es bei mir auf dem einen rechner packen und dann jeder Nacht auf einen anderen (REchenzentrum intern) schicken.

Dort sollen die DAten dann 7 TAge gespeichert werden und erst dann sollen Sie wieder überschrieben werden, so dass ich immer 7 Versionen zur Hand habe. Es geht hierbei um einen Webserver, wo htdocs, mysql und mail gepackt und verschoben werden soll.
aldee
Posts: 93
Joined: 2002-10-03 16:45
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by aldee »

Sofern du einen FTP-Backup-Server zur Verfügung hast, der von vielen großen Anbietern zur Verfügung gestellt wird, empfiehlt sich IMHO der Einsatz von Reoback[1] (inkrementelle Backups als .tar.gz).

Warum beantwortest du eigentlich nicht die Fragen, die man dir stellt (Stichwort: genug Plattenplatz frei?), wenn du auf Hilfe hoffst? Dein primäres Problem scheint zu sein, dass bereits das Archivieren der Daten auf deinem Server scheitert, also brauchst du dir um die Ã?bertragung auf einen anderen Server noch keine Gedanken zu machen.

[1] http://reoback.sourceforge.net
sploon
Posts: 57
Joined: 2004-01-05 14:41
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by sploon »

ui sorry

Ja, ich habe genügend FTP Platz!

Ich benutzer derzeit sogar schon REOBACK auf einem anderen System nur finde ich das nicht so super, da er zum Beispiel nur einmal am Tag ein Backup macht und das dann wieder von dem anderen Tag überschreibt.

Wenn also ein Hacker vorbei kommt und ich das nicht innerhalb von 24 Stunden merklen sollte und das System dann wieder das gehackte System packt, habe ich da ja nichts gewonnen.

Schön wäre also wenn man bei reoback sagen könnte lege alle 7 Tage ab und löschen erst dann wieder das von vor 7 Tagen wenn der 8 Tag dran ist.

Aber das geht ja meines wissens mit reoback nicht oder?
Outlaw
Posts: 1500
Joined: 2002-12-04 10:22
Location: 4. Server von rechts, 2. Reihe von oben
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by Outlaw »

Die Frage ging nicht um FTP Platz, sondern lokalen Platz auf der Festplatte ....

Verstehst Du überhaupt, was man Dich fragt ??

Sorry, nicht böse gemeint.

Gruß Outi
Outlaw
Posts: 1500
Joined: 2002-12-04 10:22
Location: 4. Server von rechts, 2. Reihe von oben
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by Outlaw »

Guck mal: "dass bereits das Archivieren der Daten auf deinem Server scheitert"

Zudem: Was hat das mit Sicherheit zu tun ??

Gruß Outi
sploon
Posts: 57
Joined: 2004-01-05 14:41
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by sploon »

mmhhh Also irgendwie scheint es hier ein paar Mißverständnisse zu geben. :?

Also OK, Ja ich habe auch genug lokalen Platz auf der Platte.

Auf der einen Maschine scheitert das archivieren da es irgendwie zuviel zu seien scheint. Auf einer anderen Maschine funktioniert das archivieren wunderbar nur finde ich es eben blöd das Reoback immer den Vortag überschreibt. DAzu wollte ich dann noch wissen ob das auch anders geht.
tic
Posts: 47
Joined: 2003-11-19 13:47
 

Re: wie sichert ihr große datenmengen auf euren systemen???

Post by tic »

Ich würd mir mit rsync-backup und evtl. einem Shell-Script eine Lösung basteln und Sicherung über ssh jagen.

Das kannst Du dann alle paar Stunden inkrementell laufen lassen und spiegelst das Backup auf wieviele Server auch immer. Ich z.B. mache einfach Festplatten Hotswap wenn ich ein Bedürfnis nach Redundanz hab.

Warum willste bei den heutigen hd-Preisen überhaupt packen? Kostet nur unnötig Zeit und Resourcen. Ich mein beim packen von 10gig läuft das Ding schon recht warm und stielt dir Resourcen für vernünftige Arbeit.
Post Reply