Filesystem kaputt -> Backup zu groß

Backup, Restore und Transfer von Daten
case
Posts: 10
Joined: 2003-11-26 14:45
 

Filesystem kaputt -> Backup zu groß

Post by case »

Hallo zusammen,

ich habe einen Root-Server bei Strato auf dem SuSE 8.1 & Confixx installiert war. Vor kurzem musste ich hart Resetten und konnte darauf hin nicht wieder normal booten. Im Rescue-System zeigten sich bei einem fsck.ext3 auf der Partition sehr viele Fehler. So viele, dass wir beschlossen haben die ganze Partition zu sichern bevor fsck versucht diese zu bereinigen. Also haben wir die ganzen 60GB auf den Backup-Server geschoben.
Nach den ersten Reparaturversuchen konnte die Partition wieder gemountet werden, und es befanden sich alle Daten im lost&found-Verzeichnis. Dabei waren alle User-Daten noch in einem Verzeichnis. Sprich alles ab /srv und alle Webs.
Da nicht klar war/ist ob jeder User ein Backup hat, wollte ich wenigstens diese Daten noch sichern und runterladen. Da es sich um ca. 18 GB handelt, habe ich diese in ein Tar packen wollen um den Download zu beschleunigen. Beim erneuten Schreibversuch auf die Platte ging dann gar nichts mehr. Nach einigen vergeblichen Mount- & Reparatur-Versuchen habe ich mal die Strato-Hotline bemüht. Der nette Service-Techniker hat mir leider nur bestätigt, dass da nichts mehr zu machen ist. Also habe ich den Server auf SuSE 9.0 mit Confixx neu Initialisieren lassen. Die Hardware scheint OK zu sein.

So viel zur Vorgeschichte; hier das eigentliche Problem:

Wie bekomme ich die 60GB große Partition jetzt vom Backupspace nach Hause um da noch mal zu schauen ob doch noch was zu retten ist. Der Backupspace kann nur intern per FTP erreicht werden. Die gesicherte Partition hat um die 56,79 GB. Meine Platte online ist 60GB groß und momentan sind da noch 56 GB frei. Passt also nicht.

Nun habe ich das FTP-Backup über lufsmount eingebunden und dachte ich könnte über 2 FTP-Verbindungen die Datei downloaden oder noch besser auf meinen Server komprimiert ablegen. Aber jetzt scheitert es wohl an der Dateigröße. FTPFS kann nur 4GB?

Viel Text für etwas was eventuell nie einen Erfolg bringt. Ã?ber weitere Ideen und Vorschläge würde ich mich freuen!

cu,
case
mattiass
Userprojekt
Userprojekt
Posts: 608
Joined: 2005-12-16 17:57
 

Re: Filesystem kaputt -> Backup zu groß

Post by mattiass »

case wrote: Wie bekomme ich die 60GB große Partition jetzt vom Backupspace nach Hause um da noch mal zu schauen ob doch noch was zu retten ist. Der Backupspace kann nur intern per FTP erreicht werden. Die gesicherte Partition hat um die 56,79 GB. Meine Platte online ist 60GB groß und momentan sind da noch 56 GB frei. Passt also nicht.

Viel Text für etwas was eventuell nie einen Erfolg bringt. Ã?ber weitere Ideen und Vorschläge würde ich mich freuen!
So wie ich das verstehe, müsste ein Konstrukt wie

Code: Select all

( ssh nutzer@rootserver "ncftpget -c backup-server backup-file | bzip2 -c " ) > /tmp/backup-file.bz2 
dafür sorgen, dass auf dem Rootserver mittels "ncftpget" die Datei "backup-file" nach Standardout ausgegeben wird und dort gleich komprimiert wird. Die Datei landet dann lokal in "/tmp/backup.tbz".

Nachteil: die DSL-Verbindung darf zwischenzeitlich nicht abreissen. Tut sie es doch, musst Du mit "dd" (und seek oder skip sowie count) die Datei stückchenweise durchziehen...

Viele Grüße,
Mattias
case
Posts: 10
Joined: 2003-11-26 14:45
 

Re: Filesystem kaputt -> Backup zu groß

Post by case »

Danke für deine Antwort. leider bekomme ich einen Fehler:

Code: Select all

*** Error: getline(): not interactive, use stdio
Dazu kommt noch, dass ich die 60GB auf keinen Fall zu Hause runterladen kann. Mit DSL-Light macht das keinen Spaß. Und eine schnelle Leitung habe ich nur an einem Windows-Rechner. Daher wäre eine "einfache" Lösung besser :roll: (jetzt soll's auch noch einfach sein)

Ich hab es auch mal mit fifo versucht, das geht über zwei Shells auch. Sprich der ließt während der andere schreibt. Aber am Client über ssh bekomm ich das nicht gebacken. Ich versuch es noch mal ..

thx, case
mattiass
Userprojekt
Userprojekt
Posts: 608
Joined: 2005-12-16 17:57
 

Re: Filesystem kaputt -> Backup zu groß

Post by mattiass »

case wrote:Danke für deine Antwort. leider bekomme ich einen Fehler:

Code: Select all

*** Error: getline(): not interactive, use stdio
Da musste wohl noch Nutzername ("-u") und Passwort ("-c") als Parameter übergeben...
Dazu kommt noch, dass ich die 60GB auf keinen Fall zu Hause runterladen kann. Mit DSL-Light macht das keinen Spaß. Und eine schnelle Leitung habe ich nur an einem Windows-Rechner.
Cygwin regelt!

Du benötigst ja auf dem Windows-Rechner nur die grundlegende Cygwin-Umgebung (SSH Ist halt wichtig).

Daher wäre eine "einfache" Lösung besser :roll: (jetzt soll's auch noch einfach sein)
Ich hab es auch mal mit fifo versucht, das geht über zwei Shells auch. Sprich der ließt während der andere schreibt. Aber am Client über ssh bekomm ich das nicht gebacken. Ich versuch es noch mal
Das erscheint mir etwas umständlich...

Natürlich kannst Du auch mit "dd" die Datei in Häppchen zerlegen, auf dem Rootserver zwischenspeichern und einzeln runterladen, hier mit Zwei-Gigabyte-Häppchen, dazu erst am Rootserver einloggen und dort in einer Shell ausführen:

Erstes Häppchen:

Code: Select all

ncftpget -u user -p pass -c backupserver backupfile | dd skip=0 count=1000000 bs=2048 of=/tmp/backupfile.001
Zweites Häppchen:

Code: Select all

ncftpget -u user -p pass -c backupserver backupfile | dd skip=1000000 count=1000000 bs=2048 of=/tmp/backupfile.002
Drittes Häppchen:

Code: Select all

ncftpget -u user -p pass -c backupserver backupfile | dd skip=2000000 count=1000000 bs=2048 of=/tmp/backupfile.003
usw. ACHTUNG: Dabei entsteht enormer Traffic, da für jedes Häppchen zwischen Backup-Server und Rootserver die ganze Datei transferiert wird!

Dann kannst Du die Häppchen herunterladen und zuhause zusammensetzen:

Code: Select all

cat /tmp/backupfile.* > /tmp/backupfile

Viele Grüße,
Mattias
case
Posts: 10
Joined: 2003-11-26 14:45
 

Re: Filesystem kaputt -> Backup zu groß

Post by case »

so, ich hab das Problem jetzt anderst gelöst. Hab noch mal im Rescue gestartet, die Platte ganz mit einer neuen Partition formatiert und die 60 GB kopiert. Dann als loop gemountet und fsck noch mal laufen lassen. Jetzt hab ich wieder meinen Datenmüll und kann den sichern.

aber vielen Dank für die Antwort!

Gruß, case