mdadm; Disk uit RAID6 array defect, mdadm ziet RAID0 array

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • El Psycho
  • Registratie: September 2002
  • Laatst online: 26-07 09:41
Helaas is een disk uit m'n 8-disk raid6 array overleden. Normaal niet zo'n probleem, maar om de een of andere reden is m'n servertje gecrashed voordat ik wist dat de disk overleden was (of het overlijden heeft de server laten crashen). Ik heb de server toen hij niet meer op toetsenbord of SSH reageerde, maar met een long-press op de power button uitgeschakeld (was in retrospect misschien niet zo'n geweldig idee).

Na reboot heb ik met mdadm --assemble --scan geprobeerd de array weer in de lucht te krijgen, maar in plaats van een degraded 8-disk RAID6 array, kreeg ik een inactive 7-disk RAID0 array te zien. Een mdadm --examine /dev/sd# op elke disk laat zien dat alle nog levende disks nog steeds denken onderdeel van een 8-disk RAID6 array te zijn en ze weten ook welke rol in die array ze hebben. Ook het Events field is voor alle disks gelijk, dus ik had nog goede hoop de array alsnog weer levend te krijgen.

Ik ben echter geen [mono]mdadm[/mdadm] expert, dus de pogingen die ik tot nu toe ondernomen heb, hebben geen (zichtbaar) resultaat gehad (en mogelijkerwijs de boel misschien onherstelbaar beschadigd). Wat ik tot nu toe geprobeerd heb is expliciet level=raid6 num-devices=8 aan /etc/mdadm/mdadm.conf toegevoegd en de array zowel met --scan alsook met expliciet de drive names met --force geprobeerd te assemblen. Dit heeft echter geen zichtbaar resultaat. mdadm --detail blijft de volgende output geven:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
dev/md127:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 7
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 7

              Name : Ares:RaidStorage  (local to host Ares)
              UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
            Events : 1627931

    Number   Major   Minor   RaidDevice

       -       8       32        -        /dev/sdc
       -       8        0        -        /dev/sda
       -       8      112        -        /dev/sdh
       -       8       80        -        /dev/sdf
       -       8       48        -        /dev/sdd
       -       8       16        -        /dev/sdb
       -       8      128        -        /dev/sdi

Mijn vraag is dan ook: is deze array nog te redden, of moet ik opnieuw beginnen? In theorie heb ik van alle onvervangbare data backups, maar ik ben niet 100% zeker dat ik niet sinds de laatste backup nog wat foto's toegevoegd heb. En aangezien die foto's (als ik er nog toegevoegd heb) nog foto's van een onlangs overleden ouder kunnen bevatten, wil ik de 'array tot leven wekken'-optie het liefst zo lang mogelijk open houden. (Liefst ook zonder 700 euro aan nieuwe disks uit te geven om zorgeloos te kunnen spelen, maar als dat nodig zou zijn zou ik het nog in overweging nemen).

De huidige contents van /etc/mdadm/mdadm.conf zijn als volgt:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>                                                                                                                    
                                                                                                                                     
# instruct the monitoring daemon where to send mail alerts                                                                           
MAILADDR root                                                                                                                        
                                                                                                                                     
# definitions of existing MD arrays                                                                                                  
ARRAY /dev/md127  metadata=1.2 UUID=8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1 name=Ares:RaidStorage level=raid6 num-devices=8              
                                                                                                                                     
# This configuration was auto-generated on Wed, 06 Mar 2019 16:53:36 +0100 by mkconf

output van mdadm --example /dev/sd# op elke disk:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
/dev/sda:                                                                                                                            
          Magic : a92b4efc                                                                                                           
        Version : 1.2                                                                                                                
    Feature Map : 0x0                                                                                                                
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1                                                                                
           Name : Ares:RaidStorage  (local to host Ares)                                                                             
  Creation Time : Mon Jun 25 18:19:09 2012                                                                                           
     Raid Level : raid6                                                                                                              
   Raid Devices : 8                                                                                                                  
                                                                                                                                     
 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)                                                                                
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)                                                                             
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)                                                                                
    Data Offset : 2048 sectors                                                                                                       
   Super Offset : 8 sectors                                                                                                          
   Unused Space : before=1968 sectors, after=944 sectors                                                                             
          State : active                                                                                                             
    Device UUID : 1e104c8a:529eb411:a7fd472a:5854d356                                                                                
                                                                                                                                     
    Update Time : Fri Mar  1 21:50:02 2019                                                                                           
       Checksum : 712f8115 - correct                                                                                                 
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=944 sectors
          State : active
    Device UUID : d3bb43b7:9f39be47:102328fa:2bab3f5e

    Update Time : Fri Mar  1 21:50:02 2019
       Checksum : ab7d4456 - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=944 sectors
          State : active
    Device UUID : 325a0adf:3d917a47:977edea3:db21d42a

    Update Time : Fri Mar  1 21:50:02 2019
       Checksum : 494b0c89 - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=944 sectors
          State : active
    Device UUID : 6c0200a0:37b50833:683a868b:ebfb9e94

    Update Time : Fri Mar  1 21:50:02 2019
       Checksum : 47416ea1 - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdf:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=944 sectors
          State : active
    Device UUID : b91d04d3:3f1508ad:687bb30f:7d6fc687

    Update Time : Fri Mar  1 21:50:02 2019
       Checksum : 6b999e8b - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdh:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1960 sectors, after=944 sectors
          State : active
    Device UUID : 64ba7519:7d47e97c:21c5622a:18df9eca

    Update Time : Fri Mar  1 21:50:02 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : df7c2710 - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 5
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdi:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8f7270c4:ec9e19f5:afa4d7c7:2fcb1ee1
           Name : Ares:RaidStorage  (local to host Ares)
  Creation Time : Mon Jun 25 18:19:09 2012
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 5860531120 (2794.52 GiB 3000.59 GB)
     Array Size : 17581590528 (16767.11 GiB 18003.55 GB)
  Used Dev Size : 5860530176 (2794.52 GiB 3000.59 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=944 sectors
          State : active
    Device UUID : 493cfa55:b00800db:40c8fbc4:c94dabbb

    Update Time : Fri Mar  1 21:50:02 2019
       Checksum : 5b4dbb3 - correct
         Events : 1627931

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 6
   Array State : AAAAAAA. ('A' == active, '.' == missing, 'R' == replacing)

Alle reacties


Acties:
  • 0 Henk 'm!

  • thunder7
  • Registratie: Januari 2003
  • Laatst online: 30-09 16:51

thunder7

houten vaas/schaal nodig?

Als ik zoek, en

https://superuser.com/questions/1149943/mdadm-assembles-degraded-raid-5-as-raid-0

lees, zie ik
mdadm --assemble --force worked after stopping and removing the raid0 assembly.
waarbij het cruciale gedeelde wellicht 'after stopping and removing the raid0 assembly' is, want dat lees ik in jouw verhaal niet.

hout-nerd - www.hetmooistehout.nl of www.houtenschalen.nl


Acties:
  • 0 Henk 'm!

  • El Psycho
  • Registratie: September 2002
  • Laatst online: 26-07 09:41
Dat was ik vergeten expliciet te vermelden. Ik heb de mdadm --assemble --scan --force inderdaad geprobeerd na eerst de raid0 uit te zetten met --disable. Ik neem aan dat dit het commando is voor "stopping and removing".

Acties:
  • 0 Henk 'm!

  • thunder7
  • Registratie: Januari 2003
  • Laatst online: 30-09 16:51

thunder7

houten vaas/schaal nodig?

Dat vraag ik me af.

https://www.digitalocean....ith-mdadm-on-ubuntu-16-04

kent een duidelijk verhaal, zie onder 'Deleting an array'. --disable is niet hetzelfde als --remove, als ik dat zo lees.

hout-nerd - www.hetmooistehout.nl of www.houtenschalen.nl


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Wat ik niet lees; heb je de defecte disk al wel vervangen? :? Je kunt de array immers alleen herstellen als het aantal disks weer voldoet, dat is immers een voorwaarde aan RAID... Een RAID array zou zichzelf dan daarna (in theorie) vanzelf moeten/kunnen herstellen, maar kan dat nu niet, omdat er maar 7 disks in de array beschikbaar zijn ipv de benodigde 8. In je lijst bij details mist immers sdg.

Nu weet ik niet om hoeveel storage het in totaal gaat, maar als dat de nodige terabytes zijn bijvoorbeeld, bereid je dan ook maar vast voor dat rebuilden wel even gaat duren. :)

[ Voor 34% gewijzigd door CH4OS op 30-05-2019 22:41 ]