Ik heb een server met Debian Sarge. Deze draait op 2 disks in SW-RAID1. De schijven zijn 300G SATA schijven.
Beide schijven hebben 3 partities. De partities zijn paargewijs even groot om een SW partitie te kunnen vormen, oftewel:
sda1 + sdb1 = md0
sda3 + sdb3 = md1
(sda2 + sdb2 zijn swap, maar worden niet gemirrored)
Dit werkte allemaal prima enzo, totdat ik tijdelijk wat schijfruimte nodig had
Toen heb ik tijdelijk 1 disk verwijderd, met de bedoeling om het later weer toe te voegen via mdadm hot raid add functionaliteit.
Omdat de sdb3 partitie het grootst is, heb ik alleen deze tijdelijk geherformateerd. De andere partities heb ik niet aangeraakt.
Nu het probleem:
Ik het de schijf weer terug gehangen en gehersyncroniseerd met de SW-RAID via commandos als:
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb3
Nadat ik gecontroleerd heb via /proc/mdstat dat de partities ook werkelijk helemaal synchroon liepen (de grote sdb3 partitie duurt bijna 2 uur), heb ik de machine uit gezet.
Bij een reboot is md0 wel OK, maar md1 niet. Die komt standaard in degraded toestand op en dan moet ik hem weer handmatig toevoegen via "mdadm /dev/md1 -a /dev/sdb3"
Mijn voorlopige conclusie: het lijkt alsof het tijdelijk herformateren van die ene partitie iets heeft verwijderd, wat door mdadm via een SW-RAID rebuild dus NIET wordt teruggezet....
Iets waardoor hij bij het booten de schijf kennelijk niet herkend als onderdeel van de SW-RAID.
Maar wat ??
Hier mijn /etc/mdadm/mdadm.conf
Hier een afdruk van "mdadm -D /dev/md1" tijdens een rebuild:
Beide schijven hebben 3 partities. De partities zijn paargewijs even groot om een SW partitie te kunnen vormen, oftewel:
sda1 + sdb1 = md0
sda3 + sdb3 = md1
(sda2 + sdb2 zijn swap, maar worden niet gemirrored)
Dit werkte allemaal prima enzo, totdat ik tijdelijk wat schijfruimte nodig had
Toen heb ik tijdelijk 1 disk verwijderd, met de bedoeling om het later weer toe te voegen via mdadm hot raid add functionaliteit.
Omdat de sdb3 partitie het grootst is, heb ik alleen deze tijdelijk geherformateerd. De andere partities heb ik niet aangeraakt.
Nu het probleem:
Ik het de schijf weer terug gehangen en gehersyncroniseerd met de SW-RAID via commandos als:
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb3
Nadat ik gecontroleerd heb via /proc/mdstat dat de partities ook werkelijk helemaal synchroon liepen (de grote sdb3 partitie duurt bijna 2 uur), heb ik de machine uit gezet.
Bij een reboot is md0 wel OK, maar md1 niet. Die komt standaard in degraded toestand op en dan moet ik hem weer handmatig toevoegen via "mdadm /dev/md1 -a /dev/sdb3"
Mijn voorlopige conclusie: het lijkt alsof het tijdelijk herformateren van die ene partitie iets heeft verwijderd, wat door mdadm via een SW-RAID rebuild dus NIET wordt teruggezet....
Iets waardoor hij bij het booten de schijf kennelijk niet herkend als onderdeel van de SW-RAID.
Maar wat ??
Hier mijn /etc/mdadm/mdadm.conf
code:
1
2
3
4
5
| DEVICE partitions ARRAY /dev/md1 level=raid1 num-devices=2 UUID=2ef01065:44ebbf32:f6af34d0:97a5135e devices=/dev/sda3,/dev/sdb3 ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c02d5c44:2181b6d7:fa87f3ae:0cb14e2a devices=/dev/sda1,/dev/sdb1 |
Hier een afdruk van "mdadm -D /dev/md1" tijdens een rebuild:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
| /dev/md1:
Version : 00.90.01
Creation Time : Sun Feb 12 21:44:01 2006
Raid Level : raid1
Array Size : 292688128 (279.13 GiB 299.71 GB)
Device Size : 292688128 (279.13 GiB 299.71 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Sun Apr 30 09:51:12 2006
State : clean, degraded, recovering
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Rebuild Status : 35% complete
UUID : 2ef01065:44ebbf32:f6af34d0:97a5135e
Events : 0.734090
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 0 0 - removed
2 8 19 1 spare rebuilding /dev/sdb3 |
Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD