Hallo zusammen,
ich habe einen Root-Server bei Strato auf dem SuSE 8.1 & Confixx installiert war. Vor kurzem musste ich hart Resetten und konnte darauf hin nicht wieder normal booten. Im Rescue-System zeigten sich bei einem fsck.ext3 auf der Partition sehr viele Fehler. So viele, dass wir beschlossen haben die ganze Partition zu sichern bevor fsck versucht diese zu bereinigen. Also haben wir die ganzen 60GB auf den Backup-Server geschoben.
Nach den ersten Reparaturversuchen konnte die Partition wieder gemountet werden, und es befanden sich alle Daten im lost&found-Verzeichnis. Dabei waren alle User-Daten noch in einem Verzeichnis. Sprich alles ab /srv und alle Webs.
Da nicht klar war/ist ob jeder User ein Backup hat, wollte ich wenigstens diese Daten noch sichern und runterladen. Da es sich um ca. 18 GB handelt, habe ich diese in ein Tar packen wollen um den Download zu beschleunigen. Beim erneuten Schreibversuch auf die Platte ging dann gar nichts mehr. Nach einigen vergeblichen Mount- & Reparatur-Versuchen habe ich mal die Strato-Hotline bemüht. Der nette Service-Techniker hat mir leider nur bestätigt, dass da nichts mehr zu machen ist. Also habe ich den Server auf SuSE 9.0 mit Confixx neu Initialisieren lassen. Die Hardware scheint OK zu sein.
So viel zur Vorgeschichte; hier das eigentliche Problem:
Wie bekomme ich die 60GB große Partition jetzt vom Backupspace nach Hause um da noch mal zu schauen ob doch noch was zu retten ist. Der Backupspace kann nur intern per FTP erreicht werden. Die gesicherte Partition hat um die 56,79 GB. Meine Platte online ist 60GB groß und momentan sind da noch 56 GB frei. Passt also nicht.
Nun habe ich das FTP-Backup über lufsmount eingebunden und dachte ich könnte über 2 FTP-Verbindungen die Datei downloaden oder noch besser auf meinen Server komprimiert ablegen. Aber jetzt scheitert es wohl an der Dateigröße. FTPFS kann nur 4GB?
Viel Text für etwas was eventuell nie einen Erfolg bringt. Ã?ber weitere Ideen und Vorschläge würde ich mich freuen!
cu,
case
Filesystem kaputt -> Backup zu groß
-
- Userprojekt
- Posts: 608
- Joined: 2005-12-16 17:57
Re: Filesystem kaputt -> Backup zu groß
So wie ich das verstehe, müsste ein Konstrukt wiecase wrote: Wie bekomme ich die 60GB große Partition jetzt vom Backupspace nach Hause um da noch mal zu schauen ob doch noch was zu retten ist. Der Backupspace kann nur intern per FTP erreicht werden. Die gesicherte Partition hat um die 56,79 GB. Meine Platte online ist 60GB groß und momentan sind da noch 56 GB frei. Passt also nicht.
Viel Text für etwas was eventuell nie einen Erfolg bringt. Ã?ber weitere Ideen und Vorschläge würde ich mich freuen!
Code: Select all
( ssh nutzer@rootserver "ncftpget -c backup-server backup-file | bzip2 -c " ) > /tmp/backup-file.bz2
Nachteil: die DSL-Verbindung darf zwischenzeitlich nicht abreissen. Tut sie es doch, musst Du mit "dd" (und seek oder skip sowie count) die Datei stückchenweise durchziehen...
Viele Grüße,
Mattias
-
- Posts: 10
- Joined: 2003-11-26 14:45
Re: Filesystem kaputt -> Backup zu groß
Danke für deine Antwort. leider bekomme ich einen Fehler:
Dazu kommt noch, dass ich die 60GB auf keinen Fall zu Hause runterladen kann. Mit DSL-Light macht das keinen Spaß. Und eine schnelle Leitung habe ich nur an einem Windows-Rechner. Daher wäre eine "einfache" Lösung besser :roll: (jetzt soll's auch noch einfach sein)
Ich hab es auch mal mit fifo versucht, das geht über zwei Shells auch. Sprich der ließt während der andere schreibt. Aber am Client über ssh bekomm ich das nicht gebacken. Ich versuch es noch mal ..
thx, case
Code: Select all
*** Error: getline(): not interactive, use stdio
Ich hab es auch mal mit fifo versucht, das geht über zwei Shells auch. Sprich der ließt während der andere schreibt. Aber am Client über ssh bekomm ich das nicht gebacken. Ich versuch es noch mal ..
thx, case
-
- Userprojekt
- Posts: 608
- Joined: 2005-12-16 17:57
Re: Filesystem kaputt -> Backup zu groß
Da musste wohl noch Nutzername ("-u") und Passwort ("-c") als Parameter übergeben...case wrote:Danke für deine Antwort. leider bekomme ich einen Fehler:
Code: Select all
*** Error: getline(): not interactive, use stdio
Cygwin regelt!Dazu kommt noch, dass ich die 60GB auf keinen Fall zu Hause runterladen kann. Mit DSL-Light macht das keinen Spaß. Und eine schnelle Leitung habe ich nur an einem Windows-Rechner.
Du benötigst ja auf dem Windows-Rechner nur die grundlegende Cygwin-Umgebung (SSH Ist halt wichtig).
Daher wäre eine "einfache" Lösung besser :roll: (jetzt soll's auch noch einfach sein)
Das erscheint mir etwas umständlich...Ich hab es auch mal mit fifo versucht, das geht über zwei Shells auch. Sprich der ließt während der andere schreibt. Aber am Client über ssh bekomm ich das nicht gebacken. Ich versuch es noch mal
Natürlich kannst Du auch mit "dd" die Datei in Häppchen zerlegen, auf dem Rootserver zwischenspeichern und einzeln runterladen, hier mit Zwei-Gigabyte-Häppchen, dazu erst am Rootserver einloggen und dort in einer Shell ausführen:
Erstes Häppchen:
Code: Select all
ncftpget -u user -p pass -c backupserver backupfile | dd skip=0 count=1000000 bs=2048 of=/tmp/backupfile.001
Code: Select all
ncftpget -u user -p pass -c backupserver backupfile | dd skip=1000000 count=1000000 bs=2048 of=/tmp/backupfile.002
Code: Select all
ncftpget -u user -p pass -c backupserver backupfile | dd skip=2000000 count=1000000 bs=2048 of=/tmp/backupfile.003
Dann kannst Du die Häppchen herunterladen und zuhause zusammensetzen:
Code: Select all
cat /tmp/backupfile.* > /tmp/backupfile
Viele Grüße,
Mattias
-
- Posts: 10
- Joined: 2003-11-26 14:45
Re: Filesystem kaputt -> Backup zu groß
so, ich hab das Problem jetzt anderst gelöst. Hab noch mal im Rescue gestartet, die Platte ganz mit einer neuen Partition formatiert und die 60 GB kopiert. Dann als loop gemountet und fsck noch mal laufen lassen. Jetzt hab ich wieder meinen Datenmüll und kann den sichern.
aber vielen Dank für die Antwort!
Gruß, case
aber vielen Dank für die Antwort!
Gruß, case