Serverdienste ohne eigene Kategorie
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 14:23
Hallo zusammen,
heute hat mich mein Server bei Hetzner in Stich gelassen.
Ich bekomme beim booten die Meldung
Code: Select all
mounting /proc on /root/proc failed
Nun hab ich in den recovery-Modus gebootet und mir dmsg angeschaut
Code: Select all
746 md: md0 stopped.
747 md: bind<sda1>
748 md: bind<sdc1>
749 md: bind<sdb1>
750 md: kicking non-fresh sda1 from array!
751 md: unbind<sda1>
752 md: export_rdev(sda1)
753 md/raid1:md0: active with 2 out of 3 mirrors
754 md0: detected capacity change from 0 to 2152923136
755 md0: unknown partition table
756 md: md1 stopped.
757 md: bind<sda2>
758 md: bind<sdc2>
759 md: bind<sdb2>
760 md: kicking non-fresh sda2 from array!
761 md: unbind<sda2>
762 md: export_rdev(sda2)
763 md/raid1:md1: active with 2 out of 3 mirrors
764 md1: detected capacity change from 0 to 271319040
765 md1:
766 md: md2 stopped.
767 md: bind<sda3>
768 md: bind<sdc3>
769 md: bind<sdb3>
md1 lässt sich mounten.
md2 will einen den filesystemtyp haben, den weiß ich aber nicht mehr.
md0 ist swap
Hat jemand eine Idee wie ich den wieder zum laufen bekomme?
Gruß und Danke
Tobias
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 14:30
Habe noch weitere Infos:
Code: Select all
root@rescue /mnt/md1 # mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Jan 25 11:10:48 2011
Raid Level : raid1
Array Size : 2102464 (2.01 GiB 2.15 GB)
Used Dev Size : 2102464 (2.01 GiB 2.15 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon May 18 04:45:21 2015
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : c4cc17e9:ac0d702c:776c2c25:004bd7b2 (local to host rescue)
Events : 0.1696
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
root@rescue /mnt/md1 # mdadm --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Tue Jan 25 11:10:48 2011
Raid Level : raid1
Array Size : 264960 (258.79 MiB 271.32 MB)
Used Dev Size : 264960 (258.79 MiB 271.32 MB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Mon Jun 15 14:11:52 2015
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : 15066590:e695fdba:776c2c25:004bd7b2 (local to host rescue)
Events : 0.2412
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
root@rescue /mnt/md1 # mdadm --detail /dev/md2
mdadm: md device /dev/md2 does not appear to be active.
Auf md2 liegen die Daten. Das ist ein Raid5. Das müsste doch auch mit 2 HDDs klappen oder?
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 17:04
Laut Hetzner ist die sda defekt. die wollen sie mir austauschen.
Kann ich über ein rebuild dann das Raid auf md2 wiederbekommen?
Gruß
Tobias
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 17:15
es scheint mir das hier mit dem md2 noch mehr kaputt ist:
Code: Select all
root@rescue ~ # cat /proc/mdstat
Personalities : [raid1]
md2 : inactive sdb3[1](S) sdc3[2](S) sda3[0](S)
4388299008 blocks
md1 : active raid1 sdb2[1] sdc2[2]
264960 blocks [3/2] [_UU]
md0 : active raid1 sdb1[1] sdc1[2]
2102464 blocks [3/2] [_UU]
unused devices: <none>
Warum stehen die sdb3 und sdc3 mit einem (S) dort?
Kann soll ich das RAID nochmal scannen lassen?
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 18:45
Hallo zusammen,
habe nun die HDD ausgetauscht bekommen.
Habe nun die HDD wieder in md2 eingehängt bekommen.
Code: Select all
Personalities : [raid1] [raid6] [raid5] [raid4]
md2 : inactive sda3[3](S) sdb3[1] sdc3[2]
4388299008 blocks
md1 : active raid1 sda2[0] sdb2[1] sdc2[2]
264960 blocks [3/3] [UUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[2]
2102464 blocks [3/3] [UUU]
unused devices: <none>
aber leider hat das wiederherstellen nicht geklappt. Folgendes habe ich dann getan:
Code: Select all
root@rescue ~ # mdadm --assemble --force /dev/md2 /dev/sd[abc]
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: /dev/sda has no superblock - assembly aborted
root@rescue ~ # mdadm --assemble --force /dev/md2 /dev/sd[abc]
root@rescue ~ # mdadm --stop /dev/md2
mdadm: stopped /dev/md2
root@rescue ~ # mdadm --assemble --force /dev/md2 /dev/sd[abc]
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: /dev/sda has no superblock - assembly aborted
root@rescue ~ # mdadm --assemble --force /dev/md2 /dev/sd[bc]
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: /dev/sdb has no superblock - assembly aborted
root@rescue ~ # mdadm --assemble --force /dev/md2 /dev/sd[cb]
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: /dev/sdb has no superblock - assembly aborted
root@rescue ~ # cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid1 sda2[0] sdb2[1] sdc2[2]
264960 blocks [3/3] [UUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[2]
2102464 blocks [3/3] [UUU]
unused devices: <none>
ich bin ratlos und bitte um HILFE!!!
Vielen Dank.
Tobias
tsaenger
Posts: 426 Joined: 2003-08-13 01:14
Post
by tsaenger » 2015-06-15 18:50
Ich habe nach den Superblocks gesucht:
Code: Select all
root@rescue ~ # dumpe2fs /dev/sdb3 | grep superblock
dumpe2fs 1.42.5 (29-Jul-2012)
dumpe2fs: Bad magic number in super-block while trying to open /dev/sdb3
Couldn't find valid filesystem superblock.
root@rescue ~ # dumpe2fs /dev/sdc3 | grep superblock
dumpe2fs 1.42.5 (29-Jul-2012)
dumpe2fs: Filesystem revision too high while trying to open /dev/sdc3
Couldn't find valid filesystem superblock.
Leider auch keinen Erfolg.