[Debian] Probleem met software RAID na reboot

Pagina: 1
Acties:

  • GarBaGe
  • Registratie: December 1999
  • Laatst online: 12:58
Ik heb een server met Debian Sarge. Deze draait op 2 disks in SW-RAID1. De schijven zijn 300G SATA schijven.
Beide schijven hebben 3 partities. De partities zijn paargewijs even groot om een SW partitie te kunnen vormen, oftewel:
sda1 + sdb1 = md0
sda3 + sdb3 = md1
(sda2 + sdb2 zijn swap, maar worden niet gemirrored)

Dit werkte allemaal prima enzo, totdat ik tijdelijk wat schijfruimte nodig had :)

Toen heb ik tijdelijk 1 disk verwijderd, met de bedoeling om het later weer toe te voegen via mdadm hot raid add functionaliteit.
Omdat de sdb3 partitie het grootst is, heb ik alleen deze tijdelijk geherformateerd. De andere partities heb ik niet aangeraakt.

Nu het probleem:
Ik het de schijf weer terug gehangen en gehersyncroniseerd met de SW-RAID via commandos als:
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb3

Nadat ik gecontroleerd heb via /proc/mdstat dat de partities ook werkelijk helemaal synchroon liepen (de grote sdb3 partitie duurt bijna 2 uur), heb ik de machine uit gezet.
Bij een reboot is md0 wel OK, maar md1 niet. Die komt standaard in degraded toestand op en dan moet ik hem weer handmatig toevoegen via "mdadm /dev/md1 -a /dev/sdb3"

Mijn voorlopige conclusie: het lijkt alsof het tijdelijk herformateren van die ene partitie iets heeft verwijderd, wat door mdadm via een SW-RAID rebuild dus NIET wordt teruggezet....
Iets waardoor hij bij het booten de schijf kennelijk niet herkend als onderdeel van de SW-RAID.
Maar wat ??

Hier mijn /etc/mdadm/mdadm.conf
code:
1
2
3
4
5
DEVICE partitions
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=2ef01065:44ebbf32:f6af34d0:97a5135e
   devices=/dev/sda3,/dev/sdb3
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c02d5c44:2181b6d7:fa87f3ae:0cb14e2a
   devices=/dev/sda1,/dev/sdb1


Hier een afdruk van "mdadm -D /dev/md1" tijdens een rebuild:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
/dev/md1:
        Version : 00.90.01
  Creation Time : Sun Feb 12 21:44:01 2006
     Raid Level : raid1
     Array Size : 292688128 (279.13 GiB 299.71 GB)
    Device Size : 292688128 (279.13 GiB 299.71 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sun Apr 30 09:51:12 2006
          State : clean, degraded, recovering
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

 Rebuild Status : 35% complete

           UUID : 2ef01065:44ebbf32:f6af34d0:97a5135e
         Events : 0.734090

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       0        0        -      removed

       2       8       19        1      spare rebuilding   /dev/sdb3

Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Staat er in je syslog of dmesg niet iets over waarom die ene disk eruit gedonderd is?

iRacing Profiel


Verwijderd

Volgensmij moet je even naar /proc/mdstat kijken.

Output van "fdisk -l <device>" is misschien ook handig?

Als je swap niet mirrored dan gaat je systeem onderuit als er een disk dood gaat...meestal niet wat je wilt.

[ Voor 23% gewijzigd door Verwijderd op 30-04-2006 12:50 ]


  • JMW761
  • Registratie: Oktober 2001
  • Laatst online: 06-02 22:31
waarschijnlijk is de partition-type door je herformat geset naar "default-Linux" ipv van "Linux Raid Autodetect"

dat ff goed zetten en 't werkt weer na een reboot.