[Mdadm] Raid 5 perikelen

Pagina: 1
Acties:

  • menn0
  • Registratie: Augustus 2000
  • Laatst online: 27-12-2025
Ik heb een failed disk, maar wil even op 3 van de 4 (3tb) doorgaan.
Ging allemaal niet heel lekker, voornaamste probleem was dat er 1 als spare werdt aangemerkt.

Een heel lang verhaal kort, heb ik uiteindelijk create gedaan met -assume clean en 1 schijf als ' missing' geduid.
Dan ben je even blij als je ziet

code:
1
2
3
 Personalities : [raid0] [linear] [raid1] [raid6] [raid5] [raid4]
md1 : active (auto-read-only) raid5 sda1[0] sdd1[2] sdb1[1]
      8790402048 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]


mounten lukt niet
code:
1
2
3
4
5
server:~# mount -t ext4 /dev/md1 /STORAGE2/
mount: wrong fs type, bad option, bad superblock on /dev/md1,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so


kern vraag is, moet ik sowieso nog een disk 4 adden wil ik dit allemaal kunnen doen?
Met testdisk kan ik nu geen superblocks meer vinden, ik heb nog wel de output en bijv de originele UUID van de array.

Mijn kern gevoel is dat alle data er sowieso nog wel is, maar dat er dus met superblocks en partities laten we het maar even de metadata de zaken goed fout zitten.

Ik dacht dat ik veel herstelwerkzaamheden kon doen op basis van 3 schijven ivm parity maar misschien mis ik iets en moet ik eerst een nieuwe schijf adden.

Vragen zijn;
- Ik heb superblock locaties van originele array opgeslagen, zinvol?
- moet ik 4e schijf adden alvorens ik verder kan?
- Denken jullie dat mn data weg is?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
server:~# mdadm --examine /dev/sd{a,b,d,e}1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : d2008ead:4d3451b5:59799165:169b9541
           Name : server:1  (local to host server)
  Creation Time : Mon May 29 15:02:44 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5860268943 (2794.39 GiB 3000.46 GB)
     Array Size : 8790402048 (8383.18 GiB 9001.37 GB)
  Used Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 07973360:972fadc0:dbadb18c:4e7b0f9b

    Update Time : Mon May 29 15:02:44 2017
       Checksum : f9819bd9 - correct
         Events : 0

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA. ('A' == active, '.' == missing)
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : d2008ead:4d3451b5:59799165:169b9541
           Name : server:1  (local to host server)
  Creation Time : Mon May 29 15:02:44 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5860268943 (2794.39 GiB 3000.46 GB)
     Array Size : 8790402048 (8383.18 GiB 9001.37 GB)
  Used Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : db0c803f:318678cf:dfcce129:000bb2aa

    Update Time : Mon May 29 15:02:44 2017
       Checksum : 946c16fe - correct
         Events : 0

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA. ('A' == active, '.' == missing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : d2008ead:4d3451b5:59799165:169b9541
           Name : server:1  (local to host server)
  Creation Time : Mon May 29 15:02:44 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5860268943 (2794.39 GiB 3000.46 GB)
     Array Size : 8790402048 (8383.18 GiB 9001.37 GB)
  Used Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : de6fa008:43d86760:dc91ddd1:47dc8990

    Update Time : Mon May 29 15:02:44 2017
       Checksum : 7c4f6258 - correct
         Events : 0

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA. ('A' == active, '.' == missing)
mdadm: cannot open /dev/sde1: No such file or directory


Positieve kant van als het echt kapot is dat ik dan lekker raid-z ga maken :)

  • Mijzelf
  • Registratie: September 2004
  • Niet online
Je hoeft geen nieuwe schijf toe te voegen. Het is prima mogelijk om een degraded array te creëren en mounten.
Bij het opnieuw creëren van de array, is (onder andere) de volgorde van de schijven belangrijk. Ik zie dat jij sda1, sdb1 en sdd1 hebt als role 0, 1 en 2. Als sdc ertussenuit is, had sdd1 dan niet role 3 moeten hebben? En waarom is sdd niet opgeschoven? Ik neem toch aan dat je gereboot hebt?
ik heb nog wel de output en bijv de originele UUID van de array.
Wat bedoel je hier precies mee? Buiten de volgorde is ook de exacte layout, chunksize, metadata version e.d. van belang. Als je die nog hebt van je vorige configuratie, kun je die checken met de huidige.

  • menn0
  • Registratie: Augustus 2000
  • Laatst online: 27-12-2025
Deze server draait met een IDE (jaja) flash cardje waardoor de 4x sata vrijblijft. Zo heb ik een raid 5 op kunnen stellen op de atom d525.
Nadeel van het IDE flash dingetje is dat de drive letters ook nog eens wisselen. opzich heb ik de juiste volgorde gevonden met assume clean kan je even een paar keer proberen ik had namelijk a b missing d, er zijn maar 6 mogelijkheden dus dat is gelukt om de volgorde goed te krijgen en dan testdisk ook de partitie te laten zien etc.
Echter is het allemaal zeer instabiel met deze 3 schijven er schiet er na een tijdje weer 1 in failed, of wordt even als spare faulty rebuild aangegeven.....
Plan is nu het even up te krijgen en dan via testdisk alles naar een aangekoppelde 5tb te sturen, maar oh oh het is op het tandvlees. Bij reboot geeft ie nu UUU_ maar na een tijdje is het UU__ (en failed een disk).