Suse 10.1 RAID 1 Grub Problem @S4Y

Alles was in keine andere Systemkategorie passt
harv
Posts: 6
Joined: 2009-01-26 12:47
Location: 0.0.0.0
 

Suse 10.1 RAID 1 Grub Problem @S4Y

Post by harv »

Hallo,

nach einem Festplattenausfall wurde von S4Y die defekte Festplatte getauscht, danach startete das System erstmal wieder für 3 Stunden anschließen wurde die Komplette Hardware geprüft und getauscht.

Seit dem Tausch der Kompletten Hardware fährt der Server nicht mehr hoch, habe dann über die Rescue Konsole das RAID array neu eingelesen (da md2 nicht mehr als Array erkannt wurde und selbst im Rescue nicht mehr gemountet werden konnte)

Mitlerweile bringt er beim start die Fehlermeldung:

Code: Select all

mdadm: /dev/md2 not identified in config file
Waiting for device /dev/md2 to appear: ok
/dev/md2 unknown volume type
Invalid root filesystem 
Ich und google sitzen an diesem Problem jetzt gut 2 Tage und finde die Lösung nicht und bin deshalb für jede Hilfe dankbar!


Hier schon mal einige Infos:

md0 - /boot [RAID 1] sda1 sdb1
md1 - swap [RAID 0] sda2 sdb2
md2 - / [RAID 1] sda3 sdb3

/etc/fstab

Code: Select all

root@golf737:~# cat /mnt/etc/fstab
/dev/md2             /                    ext3       usrquota,grpquota     1 1
/dev/md0             /boot                ext2       defaults              1 2
/dev/md1             swap                 swap       defaults              0 0
proc                 /proc                proc       defaults              0 0
sysfs                /sys                 sysfs      noauto                0 0
debugfs              /sys/kernel/debug    debugfs    noauto                0 0
usbfs                /proc/bus/usb        usbfs      noauto                0 0
devpts               /dev/pts             devpts     mode=0620,gid=5       0 0
/etc/mdadm.conf:

Code: Select all

root@golf737:~# mdadm --detail --scan
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=f005f56d:fb465e25:8745d80e:dcae8edd
ARRAY /dev/md1 level=raid0 num-devices=2 UUID=e946288e:b5eeeb35:8745d80e:dcae8edd
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=d3129cb8:b3fd4ff8:281aa0f7:d71c89cf

root@golf737:~# cat /mnt/etc/mdadm.conf
DEVICE partitions
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=f005f56d:fb465e25:8745d80e:dcae8edd
ARRAY /dev/md1 level=raid0 num-devices=2 UUID=e946288e:b5eeeb35:8745d80e:dcae8edd
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=d3129cb8:b3fd4ff8:281aa0f7:d71c89cf
MAILADDR hostmaster@lambdamedia.de
/boot/grub/menu.lst:

Code: Select all

root@golf737:~# cat /mnt/boot/grub/menu.lst
color white/blue black/light-gray
default 0
timeout 1

title SUSE LINUX 10.1
    root (hd0,0)
    kernel /vmlinuz root=/dev/md2  acpi=on noapic init=/linuxrc  load_ramdisk=1  showopts
    initrd /initrd

title Failsafe -- SUSE LINUX 10.1
    root (hd0,0)
    kernel /vmlinuz root=/dev/md2 showopts ide=nodma apm=off acpi=off noapic noresume nosmp  maxcpus=0 edd=off 3
    initrd /initrd

title Speichertest
    kernel (hd0,0)/memtest.bin
harv
Posts: 6
Joined: 2009-01-26 12:47
Location: 0.0.0.0
 

Re: Suse 10.1 RAID 1 Grub Problem @S4Y

Post by harv »

Ja ich weiss, ich hab deshalb auch die Repositories der 10.3 zum Updaten das system an sich ist ein 10.1 die Installierten Packete sind aber alle auf dem Stand vom 10.3 (das lief soweit Problemlos, bis die eine Platte ausgfeallen ist). Das hilft mir aber leider überhaupt nicht weiter, erstmal will ich das das System wieder läuft.....
harv
Posts: 6
Joined: 2009-01-26 12:47
Location: 0.0.0.0
 

Re: Suse 10.1 RAID 1 Grub Problem @S4Y

Post by harv »

Setze die Umgebung mit einem neueren Image auf und spiele die Nutzdaten aus dem Backup ein.
Diesen Vorgang sollte man schon im Vorfeld öfters geübt haben. Irgendwann ist aber immer das erste mal.
Ziehe aus dem Ärger Deine Konsequenz und verbessere den Prozess.
hatte ich mich gerade für Entschieden, habe mir einen neuen besseren Server bestellt und werde die Daten übertragen (das ist kein problem das hab ich schon heufiger gemacht....)

Danke trotzdem vorallem für den hinweis:
Aus Erfahrungen kann ich Dir sagen, dass genau das nicht zuverlässig läuft und die inzwischen bekannten Lücken so nicht stopft.
@admin/mod threat könnt ihr meinetwegen schließen hat sich damit erledigt