Raid1 unter Sus9.3 auflösen

FreeBSD, Gentoo, openSUSE, CentOS, Ubuntu, Debian
thorsten
RSAC
Posts: 732
Joined: 2003-02-01 13:14
Location: Fuldatal

Re: Raid1 unter Sus9.3 auflösen

Post by thorsten » 2006-05-16 08:18

Was sagt denn cat /proc/mdstat und fdisk -l
(Sollte Partitionen vom Typ fd anzeigen)

Eine funktionierende Partition/Platte (sdb1) aus dem Raid herauszunehmen funktioniert so:
mdadm /dev/md0 --set-faulty /dev/sdb1
mdadm /dev/md0 --remove /dev/sdb1
Jetzt könntest du sdb neu Partitionieren (typ auf 83 wechseln!), deine Daten vom Raid rüberkopieren,die Partition aktivieren und den bootloader schreiben.

Eine /etc/raidtab gibt es seit der Ablösung der raidtools2 durch mdadm nicht mehr, eine mdadm.conf habe ich bei meinem Raid0 System auf dem ich gerade schreibe unter /etc/mdadm/mdadm.conf
Ich meine mich aber zu erinnern, dass die nicht unbedingt gebraucht wird, weil der Kernel ja anhand des typs fd das Raid erkennt.
Die zugehörigen Partitionen kann er IMHO anhand der UUIDs selbst zusammenbauen.

Ich würde dir empfehlen das Szenario in einer virtuellen Umgebung wie dem vmware Player mit 2 Festplatten (raid1) nachzubauen, bis es zuverlässig läuft. Erst danach würde ich an den Rootserver Hand legen.

thorsten
RSAC
Posts: 732
Joined: 2003-02-01 13:14
Location: Fuldatal

Re: Raid1 unter Sus9.3 auflösen

Post by thorsten » 2006-05-16 10:35

Ich habe neulich im laufenden Betrieb eine Platte wie oben beschrieben aus dem Raidverbund herausgenommen. Da gab es keine Probleme. Was bei dir schief gelaufen ist, kann ich dir leider nicht sagen.
Es ist jedenfalls immer gut über cat /proc/mdstat den Status des Raids zu überprüfen.
Nach dem --set-faulty ist ein (f) zu sehen, nach dem entfernen ein [U_]
Und dann muß der Server noch weiterlaufen.
ggfls. mußt du zwischen dem Herausnehmen aus dem Raid und dem neuen Beschreiben nochmal neu booten?

Aber du hast schon neben sdb1 auch sdb2 und sdb3 aus den Raidsverbünden herausgenommen, oder?

hth
Thorsten

thorsten
RSAC
Posts: 732
Joined: 2003-02-01 13:14
Location: Fuldatal

Re: Raid1 unter Sus9.3 auflösen

Post by thorsten » 2006-05-16 14:33

Wieso ist swap auf sdb und nicht auf einem md Device? Dann würde beim Ausfall einer Platte das System im schlimmsten Fall mit runtergerissen.
Das halte ich für sehr unüberlegt - aber das scheint ja der Auslieferungszustand zu sein?!

Ok, mittels swapoff -a deaktivierst du den swap und schaust über cat /proc/swaps nach, ob das gefruchtet hat.

In der grub-Konfiguration mußt du ein root=/dev/sdbX mitgeben, damit er das md-Device links liegen läßt.

Dann machst du ein chroot in das neue System, mountest ggfls. noch /proc und schaust ob alles an Ort und Stelle ist.
Mit grub-install installierst du den MBR.
Hättest du den Rechner lokal, könntest du zum Testen auch beim Booten in der grub-shell das root-directory manuell setzen. (Ob du über die serielle console dort Zugriff hast, kann ich nicht sagen, weil ich so einen noblen dedicated server noch nicht hatte)


Näheres natürlich unter http://www.gnu.org/software/grub/manual ... stall.html

thorsten
RSAC
Posts: 732
Joined: 2003-02-01 13:14
Location: Fuldatal

Re: Raid1 unter Sus9.3 auflösen

Post by thorsten » 2006-05-16 21:41

super, dann mach daraus nen MiniHowto und schreibs ins Wiki unter www.rootforum.org/wiki/

metamax
Posts: 16
Joined: 2005-04-20 11:06

Re: Raid1 unter Sus9.3 auflösen

Post by metamax » 2006-06-13 06:15

Hi,

vielen Dank für die schöne Anleitung. Allerdings hänge ich am Schluss bei:

Code: Select all

jetzt wechseln wir in das Suse 9.3 System mit: chroot /mnt/roota/ /bin/bash
dort bekomme ich immer die Fehlermeldung:

Code: Select all

chroot: cannot run command `/bin/bash': Exec format error
An was könnte das liegen? Vielen Dank für Eure Hilfe!

Gruß

Metamax

Roger Wilco
Administrator
Administrator
Posts: 6001
Joined: 2004-05-23 12:53

Re: Raid1 unter Sus9.3 auflösen

Post by Roger Wilco » 2006-06-13 11:50

Du versuchst offenbar aus einem 32-Bit System in eine 64-Bit-Umgebung zu wechseln. Oder zumindest ist die /bin/bash in deiner chroot-Umgebung kaputt.

metamax
Posts: 16
Joined: 2005-04-20 11:06

Re: Raid1 unter Sus9.3 auflösen

Post by metamax » 2006-06-13 12:09

Roger Wilco wrote:Du versuchst offenbar aus einem 32-Bit System in eine 64-Bit-Umgebung zu wechseln. Oder zumindest ist die /bin/bash in deiner chroot-Umgebung kaputt.
genau das hab ich mir gedacht, dass es daran liegt :(. Was kann man da machen? Installiert is Suse 9.3 64bit und gebootet ist das Rettungssystem von Strato.

Danke und Gruß

Metamax

Roger Wilco
Administrator
Administrator
Posts: 6001
Joined: 2004-05-23 12:53

Re: Raid1 unter Sus9.3 auflösen

Post by Roger Wilco » 2006-06-13 16:47

Wenn kein 64-Bit Rescue System angeboten wird, sieht es schlecht aus.

Anonymous

Re: Raid1 unter Sus9.3 auflösen

Post by Anonymous » 2007-01-31 13:59

dach :)

hab das mal nach dem wiki von matzewe01 versucht!

hab wohl auch das radi gekilled hat auch wunderbar geklappt, rettunssys einstellen, booten usw geht noch, aber dann...

was nu nit klappt is das löschen und neu erstellen der partitionen

er behält immer die alte konfig bei!

auch das mounten zum umkopieren geht nit!
meint dann immer das schon mounted wäre bzw mountpoint busy

aber weder das eine noch das andere ist der fall!
umounten geht auch da ja nit mounted is :(

sehr komisch die sache!
mal paar hinweise
vllt sieht ja jemand was :)
/# cat /proc/mdstat
Personalities : [raid0] [raid1] [raid10]
md1 : active raid1 sdb3[1]
159726144 blocks [2/1] [_U]

md0 : active raid1 sdb1[1]
56128 blocks [2/1] [_U]

unused devices: <none>
----------------------------------------------------------------------------

/# fdisk -l

Disk /dev/sda: 164.6 GB, 164696555520 bytes
255 heads, 63 sectors/track, 20023 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
ALSO hier schon mal das erste Prob! Ich kann die Parts löschen und neu erstellen wie ich ich will, auch nach write und reboot ists so!!!

Device Boot Start End Blocks Id System
/dev/sda1 * 1 7 56196 fd Linux raid autodetect
/dev/sda2 8 138 1052257+ 82 Linux swap / Solaris
/dev/sda3 139 20023 159726262+ fd Linux raid autodetect

Disk /dev/sdb: 164.6 GB, 164696555520 bytes
255 heads, 63 sectors/track, 20023 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdb1 * 1 7 56196 fd Linux raid autodetect
/dev/sdb2 8 138 1052257+ 82 Linux swap / Solaris
/dev/sdb3 139 20023 159726262+ fd Linux raid autodetect

Disk /dev/md0: 57 MB, 57475072 bytes
2 heads, 4 sectors/track, 14032 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/md1: 163.5 GB, 163559571456 bytes
2 heads, 4 sectors/track, 39931536 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md1 doesn't contain a valid partition table
----------------------------------------------------------------------------

/# fdisk /dev/sda1

Command (m for help): d
Selected partition 1

Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 1
First cylinder (1-6, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-6, default 6):
Using default value 6

Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 22: Invalid argument.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.

Und das kömmt dann bei jeder der Partitionen, aber mit mkfs kann ich die jeweiligen Systeme draufschreiben, kann auch die Partitionstypen mit fdisk ändern, nur nach write hab ich (auch nach reboot) wieder die obige Fdisk liste!
----------------------------------------------------------------------------
/# mkdir /mnt/boota
/# mkdir /mnt/bootb
/# mkdir /mnt/roota
/# mkdir /mnt/rootb
/# cd mnt
/mnt# dir
boota bootb roota rootb

/# mount /dev/sdb1 /mnt/bootb
mount: /dev/sdb1 already mounted or /mnt/bootb busy
/# mount /dev/sdb3 /mnt/rootb
mount: /dev/sdb3 already mounted or /mnt/rootb busy

/# umount /dev/sdb1
umount: /dev/sdb1: not mounted
/# umount /mnt/bootb
umount: /mnt/bootb: not mounted
/# umount /dev/sdb3
umount: /dev/sdb3: not mounted
/# umount /mnt/rootb
umount: /mnt/rootb: not mounted

Das zweite Prob! Kann die zweite Platte nit mounten zum umkopieren usw!

Bin nit der Held von Bielefeld, aber so in Grundzügen kenn ich mich schon aus und kann auch tuts befolgen und logisch vorgehen, aber ... ;)

Thx schonmal für´s not RTFM, !GOOGLE! und "Linuxfibel"
und paar hinweise dazu!

Das Alte system booten geht natürlich nicht mehr, is klar hehe