raid1 problem suse 10
-
- Posts: 9
- Joined: 2006-10-18 15:10
raid1 problem suse 10
hallo root forum :)
ich bin verzweifelt...
ich war ca 2wochen lang auf einer google expedition leider mit mäßigem erfolg...
ich habe einen strato highend server (LR3 und MR3) sonst geht alles was ich mache aber hier anscheinend nicht...
im bereich raid bin ich nicht gerade erfahren...
da ich es für mich als verschwendung empfinde von 2 fessis effektiv nur eine zu nutzen befasste ich mich damit auch nicht *g*
und zwar:
ich möchte das software raid1 entfernen das auf den kisten installiert wurde...
daten redundanz ist nicht so wichtig wie die performance die ich durch 2 separate fessis rausholen kann...
ich schalte zu allererst in den rescue mode...
logge mich ein und mache alles getreu der anleitung
die hier im wiki zu finden ist -> http://www.rootforum.org/wiki/howto/all ... 1aufloesen
das meiste funktioniert allerdings gibt es bei mir ein problem
wenn ich alles kopiert habe und auf das neue system switche und die (bei mir) /dev/sda1 auf /boot zu mounten kommt eine fehlermeldung das ich das dateisystem angeben soll... gesagt getan also mit -t ext2 versehen... die nächste fehlermeldung das das device nicht gefunden wird...
ich guckte nach und tatsächlich weder md* noch sda* sdb* devices sind in diesem ordner zu finden nur hda*s die ich jedoch nicht habe (scsi fessis verbaut)
wenn ich besagte dateien vom rescue sys auf die gemounteten platten kopiere geht auch der grub install fehlerfrei...
ich kann jedoch den raid nicht weiter entfernen sprich md1...
md0 liess sich anstandsfrei "verjagen" *g*
mit mdadm kommt die fehlermeldung das das device busy ist...
(was nich sein darf/kann da es nichtmal mehr mitgebootet wird)
in yast kommt die fehlermeldung -3002 ein gezwungener abbruch folgt...
meine frage nun an euch was kann ich tun :(
vielen dank für eure hilfe
(ein verzweifelter) n4p
ich bin verzweifelt...
ich war ca 2wochen lang auf einer google expedition leider mit mäßigem erfolg...
ich habe einen strato highend server (LR3 und MR3) sonst geht alles was ich mache aber hier anscheinend nicht...
im bereich raid bin ich nicht gerade erfahren...
da ich es für mich als verschwendung empfinde von 2 fessis effektiv nur eine zu nutzen befasste ich mich damit auch nicht *g*
und zwar:
ich möchte das software raid1 entfernen das auf den kisten installiert wurde...
daten redundanz ist nicht so wichtig wie die performance die ich durch 2 separate fessis rausholen kann...
ich schalte zu allererst in den rescue mode...
logge mich ein und mache alles getreu der anleitung
die hier im wiki zu finden ist -> http://www.rootforum.org/wiki/howto/all ... 1aufloesen
das meiste funktioniert allerdings gibt es bei mir ein problem
wenn ich alles kopiert habe und auf das neue system switche und die (bei mir) /dev/sda1 auf /boot zu mounten kommt eine fehlermeldung das ich das dateisystem angeben soll... gesagt getan also mit -t ext2 versehen... die nächste fehlermeldung das das device nicht gefunden wird...
ich guckte nach und tatsächlich weder md* noch sda* sdb* devices sind in diesem ordner zu finden nur hda*s die ich jedoch nicht habe (scsi fessis verbaut)
wenn ich besagte dateien vom rescue sys auf die gemounteten platten kopiere geht auch der grub install fehlerfrei...
ich kann jedoch den raid nicht weiter entfernen sprich md1...
md0 liess sich anstandsfrei "verjagen" *g*
mit mdadm kommt die fehlermeldung das das device busy ist...
(was nich sein darf/kann da es nichtmal mehr mitgebootet wird)
in yast kommt die fehlermeldung -3002 ein gezwungener abbruch folgt...
meine frage nun an euch was kann ich tun :(
vielen dank für eure hilfe
(ein verzweifelter) n4p
-
- Posts: 330
- Joined: 2006-09-22 13:37
Re: raid1 problem suse 10
wieder einsammelnn4p wrote:
ich bin verzweifelt...
Bist Du dir sicher das es /dev/sda1 ist und nicht /dev/hda1? Wenn das device nicht richtig angegeben wird kommt diese Meldung:n4p wrote: [...]
(bei mir) /dev/sda1 auf /boot zu mounten kommt eine fehlermeldung das ich das dateisystem angeben soll...
[...]
meine frage nun an euch was kann ich tun :(
Code: Select all
serv:# mount /dev/sda4 /hda4/
mount: you must specify the filesystem type
serv:# mount /dev/hda4 /hda4/
serv:#
Es wird vermutlich nicht am Dateisystem liegen sondern am falschen device
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
"leider" ist es wahr ^^
es sind scsi platten ([E]IDE = hdx* | SCSI = sdx*) unter /proc/mounts sowie auch unter /proc/mdstat steht das selbe mit den devices...
sda1 + sdb1 = md0
sda3 + sdb3 = md1
wie gesagt ich kanns mir nich zusamm reimen _warum_ er die devices nich mitkopiert...
habs mit mv sowie mit cp -Rp (mount raid) (mount disk) versucht... bei beiden befehlen werden die devices sda* und sdb* sowie md* nicht mitkopiert...
muss diese erst vom rescue system manuell rüberziehn dann läuft der grub install etc :)
weiss nich genau ob das weiter schlimm is funktionieren tuts jedenfalls *g*
aber...
mdadm sowie yast wollen nach nem reboot (vorher übrigens auch) weder im rescue noch im normalen mode die letzte (sdb3) partition aus dem raid1 verbund md1 rausnehmen (lassen)...
bei mdadm kommt die meldung das sie busy sei und bei yast kommt der fehlercode 3002 was das heisst ka googlen half leider nichts :/
ich kann auch nichts per yast oder mdadm an der md1 oder an der sdb3 fummeln dann kommen immer fehlermeldungen...
gibts eine hardcore methode mit der man per gewalt den raid verbund löschen kann ?
ich mein in der fstab steht nichts von der md1 drin und sie wird (normalerweise) auch nicht mitgebootet...
sie verweisst allerdings immernoch auf / da liegt aber schon der mountpoint von sda3 (nach meinem edit)
es sind scsi platten ([E]IDE = hdx* | SCSI = sdx*) unter /proc/mounts sowie auch unter /proc/mdstat steht das selbe mit den devices...
sda1 + sdb1 = md0
sda3 + sdb3 = md1
wie gesagt ich kanns mir nich zusamm reimen _warum_ er die devices nich mitkopiert...
habs mit mv sowie mit cp -Rp (mount raid) (mount disk) versucht... bei beiden befehlen werden die devices sda* und sdb* sowie md* nicht mitkopiert...
muss diese erst vom rescue system manuell rüberziehn dann läuft der grub install etc :)
weiss nich genau ob das weiter schlimm is funktionieren tuts jedenfalls *g*
aber...
mdadm sowie yast wollen nach nem reboot (vorher übrigens auch) weder im rescue noch im normalen mode die letzte (sdb3) partition aus dem raid1 verbund md1 rausnehmen (lassen)...
bei mdadm kommt die meldung das sie busy sei und bei yast kommt der fehlercode 3002 was das heisst ka googlen half leider nichts :/
ich kann auch nichts per yast oder mdadm an der md1 oder an der sdb3 fummeln dann kommen immer fehlermeldungen...
gibts eine hardcore methode mit der man per gewalt den raid verbund löschen kann ?
ich mein in der fstab steht nichts von der md1 drin und sie wird (normalerweise) auch nicht mitgebootet...
sie verweisst allerdings immernoch auf / da liegt aber schon der mountpoint von sda3 (nach meinem edit)
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
JUpp:
und zwar ...
Für Raid hast Du besondere Partitionen an ... eben Raidpartitionen. Nun willst Du aber ein ext statt dessen drauf haben. Ergo mußt du umpartitionieren. Also cfdisk,fdisk,sfdisk ... nehmen und den Typ von Linuxraid auf Linux ändern. Der Schritt fehlt imho im Tutorial. Danach erst Kopieren ...
Den Rest dürfte die Autoraid funktion des Kernels sein, die da immer noch ein Raid zu finden meint ...
Aber wie gesagt, ich kanns nicht ausprobieren - leider.
Und Devices: Du hast devfs, die Devices werden automatisch erstellt.
Edit: Halt das Tutorial ist korrekt.
hast Du das gemacht:
Ich habe mir das Tutorial auch kurz angeschaut, damit ich weiß, was Du treibst. Imho ein Fehler drin(ohne das jetzt ausprobiert zu haben).kommt eine fehlermeldung das ich das dateisystem angeben soll...
und zwar ...
Für Raid hast Du besondere Partitionen an ... eben Raidpartitionen. Nun willst Du aber ein ext statt dessen drauf haben. Ergo mußt du umpartitionieren. Also cfdisk,fdisk,sfdisk ... nehmen und den Typ von Linuxraid auf Linux ändern. Der Schritt fehlt imho im Tutorial. Danach erst Kopieren ...
Den Rest dürfte die Autoraid funktion des Kernels sein, die da immer noch ein Raid zu finden meint ...
Aber wie gesagt, ich kanns nicht ausprobieren - leider.
Und Devices: Du hast devfs, die Devices werden automatisch erstellt.
Edit: Halt das Tutorial ist korrekt.
hast Du das gemacht:
(das oben geschriebene bleibt aber bis auf daß es auch im Tutorial steht mein Lösungsansatz)Mit fdisk legen wir 3 Partitionen wie folgt an: /dev/hda1 (als Boot Patition mit 56128 Blocks) Linux (Typ 83)
Last edited by lucki2 on 2006-10-19 21:27, edited 1 time in total.
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
habs zwar mit cfdisk gemacht aber hat ja die selbe func. ^^
sda1 -> (83) -> mkfs.ext2
sda2 -> (82) -> mkswap
sda3 -> (83) -> mkfs.ext3
die devices sind nich da auch nach nem reboot nich o_O
deswegen muss ich die vom rescue sys rüberkopiern... :/
da (widererwartend) die devs nichmal unter den gemounteten parts zu finden sind (raid root dev dir)
ohne das die devs da sind kann ich sda1 nich auf boot mounten und den grubinstall ausführen...
bins grade auf nem suse 9.3 sys testen hab normalerweise aber susi10 rennen
schön ist auch das in der boot.msg steht das md1 etc initialisiert wurde...
sda1 -> (83) -> mkfs.ext2
sda2 -> (82) -> mkswap
sda3 -> (83) -> mkfs.ext3
die devices sind nich da auch nach nem reboot nich o_O
deswegen muss ich die vom rescue sys rüberkopiern... :/
da (widererwartend) die devs nichmal unter den gemounteten parts zu finden sind (raid root dev dir)
ohne das die devs da sind kann ich sda1 nich auf boot mounten und den grubinstall ausführen...
bins grade auf nem suse 9.3 sys testen hab normalerweise aber susi10 rennen
schön ist auch das in der boot.msg steht das md1 etc initialisiert wurde...
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
Die devices sind wahrscheinlich nicht da wegen devfs.
Bau doch mal Dein initrd neu(vorher das Alte sichern).
und räume vielleicht vorher Deine raidtab aus dem Weg.
Schau nochmal in Grub in die menu.lst ob Du vom richtigen fs bootest.
und nachher sync und unmount.... nicht vergessen.
Bau doch mal Dein initrd neu(vorher das Alte sichern).
Code: Select all
mkinitrd -o /initrd...
das kannst du von außen machen und dann mit chroot rein.ohne das die devs da sind kann ich sda1 nich auf boot mounten
und räume vielleicht vorher Deine raidtab aus dem Weg.
Schau nochmal in Grub in die menu.lst ob Du vom richtigen fs bootest.
und nachher sync und unmount.... nicht vergessen.
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
erstmal danke für die hilfe :)
eine /etc/raidtab hab ich nicht
in der menu.lst sind die richtigen angaben drin sowie in der fstab
das wirklich komische ist nur das wenn ich das fs (mkfs*) nicht switche so ziehmlich alles funzt (bis auf md1 entfernen)
hatte es letztens vergessen und freute mich wien kleines schneiderlein dass es halbwegs ging *lach*
laut strato support soll nichts am bios gepfuscht worden sein...
hatte die befürchtung das sie von haus aus nur raid betrieb zulassen da man sich sonst ja die konditionen bezüglich der GB erhöhen würde...
soll heissen bleibt das fs auf sda* bei linux raid autodetect wird richtig gebootet andernfalls fährt er nichtmehr im normalen modus hoch...
versteh es nicht sonderlich... :/
umount hab ich mehrmals versucht aber mdadm sagt sie sei busy (mounted on /)
brechstangen methode like killall -9 bei programmen gibts nicht zufällig auch für mein problem ? *ggg*
EDIT://
das komische... grade hats gefunzt o_O"
ich hab allerdings die bootplatte sda1 nicht mit cfdisk und mkfs.ext2 bearbeitet...
und auch den swap deaktivierte ich nicht...
erst als ich von der sda1 booten konnte tat ich dies und zum ersten mal war md1 nichtmehr auf / gemountet...
ich kanns mir echt nicht erklären warum es nun aufeinmal geht...
die devices hab ich nach meiner "methode" wieder rüberkopiert...
md0 md1 sda sda1 sda2 sda3 sdb sdb1 sdb2 sdb3
die die in meinem sys verwendet werden...
ich denke stark das es am initrd lag vielen vielen dank für deinen tip :D
die testkiste schnurrt nun mit 2fessis...
wünscht mir bitte glück das ichs auch auf der "richtigen" susi schaff *gg*
eine /etc/raidtab hab ich nicht
in der menu.lst sind die richtigen angaben drin sowie in der fstab
das wirklich komische ist nur das wenn ich das fs (mkfs*) nicht switche so ziehmlich alles funzt (bis auf md1 entfernen)
hatte es letztens vergessen und freute mich wien kleines schneiderlein dass es halbwegs ging *lach*
laut strato support soll nichts am bios gepfuscht worden sein...
hatte die befürchtung das sie von haus aus nur raid betrieb zulassen da man sich sonst ja die konditionen bezüglich der GB erhöhen würde...
soll heissen bleibt das fs auf sda* bei linux raid autodetect wird richtig gebootet andernfalls fährt er nichtmehr im normalen modus hoch...
versteh es nicht sonderlich... :/
umount hab ich mehrmals versucht aber mdadm sagt sie sei busy (mounted on /)
brechstangen methode like killall -9 bei programmen gibts nicht zufällig auch für mein problem ? *ggg*
EDIT://
das komische... grade hats gefunzt o_O"
ich hab allerdings die bootplatte sda1 nicht mit cfdisk und mkfs.ext2 bearbeitet...
und auch den swap deaktivierte ich nicht...
erst als ich von der sda1 booten konnte tat ich dies und zum ersten mal war md1 nichtmehr auf / gemountet...
ich kanns mir echt nicht erklären warum es nun aufeinmal geht...
die devices hab ich nach meiner "methode" wieder rüberkopiert...
md0 md1 sda sda1 sda2 sda3 sdb sdb1 sdb2 sdb3
die die in meinem sys verwendet werden...
ich denke stark das es am initrd lag vielen vielen dank für deinen tip :D
die testkiste schnurrt nun mit 2fessis...
wünscht mir bitte glück das ichs auch auf der "richtigen" susi schaff *gg*
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
Keine /etc/raidtab ist gut. Heißt nämlich keine raidtools dazwischenfunken und wir können uns auf mdadm konzentrieren.
Also zurück zum raid ...
Hat ohne murren gemacht was es sollte? Das ist wichtig wegen einer Kennung in der Partition - die muß weg, die sagt mdadm, daß da ein raid ist und mit aller Gewalt zu versuchen das zusammenzubauen.
Dann hast Du umpartitionioniert und formatiert und Grub neu installiert? Das ist wichtig wegen der Kernelautodection. Der erkennt dein Raid am Typ der Partition und versucht auch mit aller Gewalt das Raid zusammenzubauen.
Das nächste waren Kernelparameter. Wenn mdadm so was findet freut das sich und baut aus dem initrd dein Raid wieder auf.
Wenn das alles ausgeschlossen ist und keine raidtool dazwischen sind, dann ist sda erstmal aus dem Raid draußen.
Dann fällt mir nur noch ein: Du bootest von der falschen Platte. Das hätte den Effekt, daß du zwar alles wunderbar machst, einen bootblock auf sda wunderbar anlegst, das bios aber in sdb nachschaut und sdb als faulty raid wieder hochzieht und du wieder da bist wo Du schon warst.
Der Holzhammer ist eigentlich initrd neu machen. Der sollte mdadm rausschmeißen, wenn md nicht mehr root in fstab ist ...
edit: alles klar.
Also zurück zum raid ...
Code: Select all
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
mdadm /dev/md1 --fail /dev/sda3 --remove /dev/sda3
Dann hast Du umpartitionioniert und formatiert und Grub neu installiert? Das ist wichtig wegen der Kernelautodection. Der erkennt dein Raid am Typ der Partition und versucht auch mit aller Gewalt das Raid zusammenzubauen.
Das nächste waren Kernelparameter. Wenn mdadm so was findet freut das sich und baut aus dem initrd dein Raid wieder auf.
Wenn das alles ausgeschlossen ist und keine raidtool dazwischen sind, dann ist sda erstmal aus dem Raid draußen.
Dann fällt mir nur noch ein: Du bootest von der falschen Platte. Das hätte den Effekt, daß du zwar alles wunderbar machst, einen bootblock auf sda wunderbar anlegst, das bios aber in sdb nachschaut und sdb als faulty raid wieder hochzieht und du wieder da bist wo Du schon warst.
Der Holzhammer ist eigentlich initrd neu machen. Der sollte mdadm rausschmeißen, wenn md nicht mehr root in fstab ist ...
edit: alles klar.
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
joa ich hab die fstab etc geändert die initrd neu bauen lassen und siehe da... endlich war der mountpoint von md1 weg...
allerdings hatte ich immer das problem das susi nichmehr starten wollte sobald ich die bootplatte umformatierte...
aber als ich erst alles fertig gemacht hatte und zum schluss erst formatierte (typ 83 sowie ext2) ging es problemlos...
da ich leicht pessimistisch veranlangt war nach der wochenlangen prozedur ressetete ich insgesammt 5mal als alles ging *gg*
und wow raid sagte bye bye ^^
ich danke dir nochmals :) auf das mit der initrd wär ich vllt in nem monat gekomm... frühestens *gg*
raidtools sind nicht installiert funktionierte nicht wirklich (jedenfalls manchmal nicht :roll:)
aber
funktionierte anstandslos jedenfalls letztens *g*
EDIT://
ich hoffe nur das ichs auf der richtigen susi auch hinkrieg *g*
allerdings hatte ich immer das problem das susi nichmehr starten wollte sobald ich die bootplatte umformatierte...
aber als ich erst alles fertig gemacht hatte und zum schluss erst formatierte (typ 83 sowie ext2) ging es problemlos...
da ich leicht pessimistisch veranlangt war nach der wochenlangen prozedur ressetete ich insgesammt 5mal als alles ging *gg*
und wow raid sagte bye bye ^^
ich danke dir nochmals :) auf das mit der initrd wär ich vllt in nem monat gekomm... frühestens *gg*
raidtools sind nicht installiert
Code: Select all
mdadm /dev/md0 /f /dev/sda1 -r /dev/sda1
aber
Code: Select all
mdadm /dev/md0 /f /dev/sda1
mdadm /dev/md0 -r /dev/sda1
EDIT://
ich hoffe nur das ichs auf der richtigen susi auch hinkrieg *g*
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
Stell Dir fpr es ist 6 Uhr morgens und Du mußt raus in die Kälte ...
-
- Posts: 2223
- Joined: 2002-07-28 13:02
- Location: Berlin
Re: raid1 problem suse 10
Ich hatte mein RAID auch getrennt - allerdings im Rahmen einer Debian-Installation.
Als ich die dann nachträglich wieder als RAID betreiben wollte, war ich genausoweit wie Du, nur umgekehrt - er wollte das RAID auf der Bootplatte partout nicht starten, bootete von der "normalen" Partition.
Es ist schön, wenn man dann nachts um drei bzw. halb fünf seinen Horizont über Autodetect der Root-Partition von mkinitrd erweitern darf. :twisted:
flo.
Als ich die dann nachträglich wieder als RAID betreiben wollte, war ich genausoweit wie Du, nur umgekehrt - er wollte das RAID auf der Bootplatte partout nicht starten, bootete von der "normalen" Partition.
Es ist schön, wenn man dann nachts um drei bzw. halb fünf seinen Horizont über Autodetect der Root-Partition von mkinitrd erweitern darf. :twisted:
flo.
-
- Posts: 58
- Joined: 2004-07-16 14:40
- Location: Karlsruhe
Re: raid1 problem suse 10
Eher sdx* = SATA heutzutage ;-)n4p wrote:"leider" ist es wahr ^^
es sind scsi platten ([E]IDE = hdx* | SCSI = sdx*)
Ciao
Ryukia
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
Ach Leute,
a) Nochmal: das Tutorial ist völlig ok.
b) In dem Falle war das Problem, wie sich herausstellte, daß der gute Admin vergessen hat, daß eine Änderung der gemounteten Rootpartion nicht in den Kernel zurückgelesen wird(nicht kann -> siehe initrd wie's dann doch geht) mithin mkfs noch die alte Partionierung bekommt, dadurch diese alte Partition(auf dem md) formatiert und nach dem Booten aber die neue Partitionierung einliest auf der jedoch noch kein System vorhanden ist.
Im nachhinein so was zu erklären ist recht Einfach, oder? Das so was tricksen kann und dann da drauf zu kommen ist was anderes. Mit dem Provider hatte das aber kaum zu tun. Nö.
a) Nochmal: das Tutorial ist völlig ok.
b) In dem Falle war das Problem, wie sich herausstellte, daß der gute Admin vergessen hat, daß eine Änderung der gemounteten Rootpartion nicht in den Kernel zurückgelesen wird(nicht kann -> siehe initrd wie's dann doch geht) mithin mkfs noch die alte Partionierung bekommt, dadurch diese alte Partition(auf dem md) formatiert und nach dem Booten aber die neue Partitionierung einliest auf der jedoch noch kein System vorhanden ist.
Im nachhinein so was zu erklären ist recht Einfach, oder? Das so was tricksen kann und dann da drauf zu kommen ist was anderes. Mit dem Provider hatte das aber kaum zu tun. Nö.
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
sind schon scsi platten ^^ (steht jedenfalls überall *g* ;))
kenn mich schon relativ gut aus, kann alles machen was ich will und brauch, nur mit raid hab ich bisher nicht gearbeitet da ich es auch unnötig finde... kommt drauf an wie man was nutzt :)
jop das tutorial ist wirklich inordnung und vorallem brauchbar... :)
und bei mir war genau dass das problem das er die größte partition nicht freigeben wollte da diese egal was ich machte immer auf / gemountet war... da lag das problem :)
und hier half mkinitrd *g*
die boot platte lies sich anstandslos auseinander nehmen
und es stimmt ohne das rebooten nach der raidlösung bootet das ganze system nichtmehr...
nochmals ein mega thx
kenn mich schon relativ gut aus, kann alles machen was ich will und brauch, nur mit raid hab ich bisher nicht gearbeitet da ich es auch unnötig finde... kommt drauf an wie man was nutzt :)
jop das tutorial ist wirklich inordnung und vorallem brauchbar... :)
und bei mir war genau dass das problem das er die größte partition nicht freigeben wollte da diese egal was ich machte immer auf / gemountet war... da lag das problem :)
und hier half mkinitrd *g*
die boot platte lies sich anstandslos auseinander nehmen
und es stimmt ohne das rebooten nach der raidlösung bootet das ganze system nichtmehr...
nochmals ein mega thx
-
- Posts: 427
- Joined: 2006-10-03 01:31
Re: raid1 problem suse 10
Da kann ich auch nochmal einen Hinweis zum Hintergrund geben:
initrd versucht das rootfilesystem zu mounten. In Abhängigkeit vom Filesystemtyp erzeugt das unterschiedlichen Code in /init des initrd. Wenn Raid Typ ist, dann kommt ein Code rein, der versucht Raid über root zu mounten. Sowie das rootfis etwas anderes ist kommt dort entsprechend anderer Code rein - /init will schließlich das rootfs mounten.
initrd versucht das rootfilesystem zu mounten. In Abhängigkeit vom Filesystemtyp erzeugt das unterschiedlichen Code in /init des initrd. Wenn Raid Typ ist, dann kommt ein Code rein, der versucht Raid über root zu mounten. Sowie das rootfis etwas anderes ist kommt dort entsprechend anderer Code rein - /init will schließlich das rootfs mounten.
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
sobald ichs nochmal hinkrieg schreib ich dir ne pn mit meiner lösung :)
-
- Posts: 58
- Joined: 2004-07-16 14:40
- Location: Karlsruhe
Re: raid1 problem suse 10
Dann erzähl das unbedingt Strato, die wissen nämlich noch nix davon :lol:n4p wrote:sind schon scsi platten ^^ (steht jedenfalls überall *g* ;))
http://www.strato.de/server/highend/hardware/index.html
Ciao
Ryukia ;-)
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
hehe ok denne hab ich irgendwas falsch gelesen :oops:
EDIT://
hab es grade nochmals hinbekommen raid1 vom system zu entfernen...
allerdings wollte er nachdem ich sdb* und md* per yast gelöscht habe nichtmehr booten...
die fstab sollte automatisch von yast editiert werden denk ich also dadran kanns wohl nicht liegen ?
(mach eigentlich alles per cmd deswegen die leicht dümmliche yast frage)
EDIT://
hab es grade nochmals hinbekommen raid1 vom system zu entfernen...
allerdings wollte er nachdem ich sdb* und md* per yast gelöscht habe nichtmehr booten...
die fstab sollte automatisch von yast editiert werden denk ich also dadran kanns wohl nicht liegen ?
(mach eigentlich alles per cmd deswegen die leicht dümmliche yast frage)
-
- Posts: 9
- Joined: 2006-10-18 15:10
Re: raid1 problem suse 10
sorry für den doppelpost aber ich glaub nich das es sonst nochmal gelesen worden wäre ?! :?
ich hab nun einen "sicheren" weg mein system raidfrei zu konfigurieren...
jedenfalls klappte es die letzten 3male mehr oder minder gut *g*
wenn ich jetzt allerdings per yast md0 md1 sowie sdb1 und sdb3 lösche...
will das system mich nichtmehr rauflassen ergo es bootet nichtmehr
könntet ihr mir bitte nochmals helfen ? :/
wisst ihr woran das liegt / liegen könnte ?
es wird von der richtigen platte gebootet (sda1) un die root parti liegt auf sda3
in der menu.lst steht für die 2te hdd drin dass diese von md1 gebootet wird falls ausgewählt...
daran kann es nicht liegen oder... o_O ?
ich hab nun einen "sicheren" weg mein system raidfrei zu konfigurieren...
jedenfalls klappte es die letzten 3male mehr oder minder gut *g*
wenn ich jetzt allerdings per yast md0 md1 sowie sdb1 und sdb3 lösche...
will das system mich nichtmehr rauflassen ergo es bootet nichtmehr
könntet ihr mir bitte nochmals helfen ? :/
wisst ihr woran das liegt / liegen könnte ?
es wird von der richtigen platte gebootet (sda1) un die root parti liegt auf sda3
in der menu.lst steht für die 2te hdd drin dass diese von md1 gebootet wird falls ausgewählt...
daran kann es nicht liegen oder... o_O ?