Ik heb hier een RAID6 mdadm software raid met 6 harde schijven. Nu heb ik met twee harde schijven problemen dat deze eruit gegooid worden.
Als ik nu in de detailed informatie van mijn raid krijg zie ik het volgende:
Iemand een idee hoe ik de removed en de fauly schijven kan verwijderen? Zodat als ik weer nieuwe harde schijven toevoeg deze netjes als number 4 en raiddevice 4 in de lijst komen te staan?
Als ik nu in de detailed informatie van mijn raid krijg zie ik het volgende:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
| /dev/md127:
Version : 1.2
Creation Time : Tue Mar 10 19:51:00 2015
Raid Level : raid6
Array Size : 15627540480 (14903.58 GiB 16002.60 GB)
Used Dev Size : 3906885120 (3725.90 GiB 4000.65 GB)
Raid Devices : 6
Total Devices : 6
Persistence : Superblock is persistent
Update Time : Wed Dec 14 23:34:35 2016
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 2
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : WORKGROUP
UUID : 3a9eea23:4a786a3c:4cd747d7:917e9c62
Events : 1773
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
8 0 0 8 removed
10 0 0 10 removed
6 8 81 - faulty
7 8 97 - faulty |
code:
1
2
3
4
5
6
| cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md127 : active raid6 sdg1[7](F) sdf1[6](F) sdc1[1] sdd1[2] sde1[3] sdb1[0] 15627540480 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/4] [UUUU__] unused devices: <none> |
Iemand een idee hoe ik de removed en de fauly schijven kan verwijderen? Zodat als ik weer nieuwe harde schijven toevoeg deze netjes als number 4 en raiddevice 4 in de lijst komen te staan?