Page 1 of 1

md127 - Software Raid Problem

Posted: 2019-06-28 11:59
by cdc1998
Hallo zusammen

Ich hoffe ihr könnt mir helfen.
Ich habe hier einen Debian Server der zwei Platten hat die im Software Raid1 verbunden waren.
Jedoch habe ich jetzt festgestellt, dass eine Platte aus dem Raid entfernt wurde und in ein neues Raid mit dem Namen md127 gepackt wurde.
df gibt mir das hier aus:

Code: Select all

/dev/md3                                                1.7T  975G  663G  60% /var

Code: Select all

cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid1 sda4[0]
      1822442815 blocks super 1.2 [2/1] [U_]

md3 : active raid1 sdb4[1]
      1822442815 blocks super 1.2 [2/1] [_U]
Ich habe nun ein wenig gegoogelt und dieses Phänomen ist durchaus bekannt.
Die meisten Ratschläge bezogen sich darauf einen Neustart zu machen.

Ich frage mich jedoch, was passiert bei einen Neustart mit den beiden Platten (sda4 / sdb4)

Wie kann ich sicherstellen, das bei der Syncronisation sda4 die Daten von sdb4 erhält und nicht umgekehrt.

Wäre um Ratschläge/Tipps dankbar.

LG

Re: md127 - Software Raid Problem

Posted: 2019-07-01 15:32
by cdc1998
Kein Software-Raid Experte hier? :blush:

Wäre es sinnvoll sda4 aus dem md127 rauszunehmen und dann ins md3 hinzuzufügen?
Wäre das kein Produktivserver hätte ich schon längst damit etwas ausprobiert, aber so habe ich einfach schiss davor. Der Mitarbeiter der für diesen Server zuständig war, den gibt es leider nicht mehr.

Re: md127 - Software Raid Problem

Posted: 2019-07-01 16:04
by ddm3ve
Kein Ersatzserver?
Für mich wäre es ein Fall von, Backup erstellen, Neustart des Systems, und ggf. Backup wieder einspielen.
Aber Generell haben wir dafür immer eine Ersatzsystem, das den Betrieb übernimmt.

Was und wie das Raid exakt entscheidet, das wird Dir wohl niemand zuverlässig beantworten können.
Daher, Backup machen, neu starten und ggf. Backup wieder einspielen.

Re: md127 - Software Raid Problem

Posted: 2019-07-01 18:39
by Joe User
Die MDs statisch vergeben (Hint: initramfs), statt es dem Zufall zu überlassen.

Re: md127 - Software Raid Problem

Posted: 2019-07-09 17:24
by cdc1998
ddm3ve wrote: 2019-07-01 16:04 Kein Ersatzserver?
Für mich wäre es ein Fall von, Backup erstellen, Neustart des Systems, und ggf. Backup wieder einspielen.
Aber Generell haben wir dafür immer eine Ersatzsystem, das den Betrieb übernimmt.

Was und wie das Raid exakt entscheidet, das wird Dir wohl niemand zuverlässig beantworten können.
Daher, Backup machen, neu starten und ggf. Backup wieder einspielen.
Hi, nein gibt keinen Ersatzserver.
Der Server um den es geht ist ein Rootserver bei Hetzner. Also nicht mal im Haus.

Re: md127 - Software Raid Problem

Posted: 2019-07-09 17:27
by cdc1998
Joe User wrote: 2019-07-01 18:39 Die MDs statisch vergeben (Hint: initramfs), statt es dem Zufall zu überlassen.
Hi Joe

Danke für deinen Hinweis, aber irgendwie weiss ich nicht wirklich was damit anzufangen.
Wie meintest du das mit statisch?

Code: Select all

/etc/mdadm/mdadm.conf
# definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 UUID=db459bd7:94304f75:4baf8d6a:d6b5a565 name=rescue:0
ARRAY /dev/md/1 metadata=1.2 UUID=a6f64308:5889a2dc:ac539154:54e8ed60 name=rescue:1
ARRAY /dev/md/2 metadata=1.2 UUID=ef0a563b:fa344b30:49a8478d:c671a751 name=rescue:2
ARRAY /dev/md/3 metadata=1.2 UUID=9593f300:63dbbddc:72606e9c:382c5b25 name=rescue:3

# This configuration was auto-generated on Tue, 28 Aug 2018 16:26:41 +0200
# by mkconf 3.2.5-5
ARRAY /dev/md/0 metadata=1.2 name=rescue:0 UUID=db459bd7:94304f75:4baf8d6a:d6b5a565
ARRAY /dev/md/1 metadata=1.2 name=rescue:1 UUID=a6f64308:5889a2dc:ac539154:54e8ed60
ARRAY /dev/md/2 metadata=1.2 name=rescue:2 UUID=ef0a563b:fa344b30:49a8478d:c671a751
ARRAY /dev/md/3 metadata=1.2 name=rescue:3 UUID=9593f300:63dbbddc:72606e9c:382c5b25
mache ich ein mdadm --query --detail /dev/md127

Code: Select all

/dev/md127:
        Version : 1.2
  Creation Time : Sat Nov 26 23:14:58 2011
     Raid Level : raid1
     Array Size : 1822442815 (1738.02 GiB 1866.18 GB)
  Used Dev Size : 1822442815 (1738.02 GiB 1866.18 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Tue Jul  2 03:02:40 2019
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:3
           UUID : 9593f300:63dbbddc:72606e9c:382c5b25
         Events : 3695

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed
mache ich ein mdadm --query --detail /dev/md3

Code: Select all

/dev/md3:
        Version : 1.2
  Creation Time : Sat Nov 26 23:14:58 2011
     Raid Level : raid1
     Array Size : 1822442815 (1738.02 GiB 1866.18 GB)
  Used Dev Size : 1822442815 (1738.02 GiB 1866.18 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Tue Jul  9 17:17:27 2019
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:3
           UUID : 9593f300:63dbbddc:72606e9c:382c5b25
         Events : 95336374

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       20        1      active sync   /dev/sdb4
Was mich wundert ist, das die UUID dieselben sind.

Kann ich irgendwie in einer .conf Datei /dev/sda4 aus dem Raid rausnehmen, so dass nach einem Neustart nur /dev/sdb4 aktiv ist?

Re: md127 - Software Raid Problem

Posted: 2019-07-12 13:26
by ddm3ve
Da stehen eigentlich alle Befehle:
https://wiki.hetzner.de/index.php/Festp ... tware-RAID

mdadm /dev/md127 -r /dev/sda4

Eventuell klappt das nicht, dann müsstest Du das Raid md127 / Platte als Fehlerhaft markieren:

mdadm --manage /dev/md127 --fail /dev/sda4

Und dann fügst Du die Platte dem eigentlichen RAID wieder zu:

mdadm /dev/md3 -a /dev/sda4

Re: md127 - Software Raid Problem

Posted: 2019-07-31 16:27
by cdc1998
Hey, wollte nochmal Danke sagen.
Letztendlich haben wir es so gelöst.
Das raid md127 gestoppt, dann die sda4 rausgenommen, auf sda4 den superblock gelöscht und dann sda4 in das md3 eingebunden
Das Restore hat sofort gestartet und alles läuft super.
Danke :-)