Mdadm raid5, reboot = degraded array

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
Hoi tweakers,

Sinds ik een extra schijf heb toegevoegd, is bij elke reboot het geval dat de raidarray degraded is. Een rebuild van een paar honderd minuten laten en alles is weer geweldig, maar omdat het raid 5 is en er nu steeds 1 schijf lijkt uit te vallen, vind ik het niet optimaal.

Hieronder mijn configs; ik heb /dev/sdg als laatst toegevoegd.

Ik heb met blkid de uuid nagelopen, ook dat laat ik hieronder zien.

Kan iemand me op mijn fout wijzen?

/etc/fstab
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/sda1 during installation
UUID=998a46ba-eeae-4d95-9fd5-ad79784edfe0 /               ext4    errors=remount-ro 0       1
# swap was on /dev/sda5 during installation
UUID=d1965069-6a98-437c-a3dc-12452920a3ee none            swap    sw              0       0
UUID=ea94f8e6-7b9e-4011-b9fb-a72d471cb054 /home/ts/raidarray ext4 auto 0 0


/etc/mdadm/mdadm.conf
code:
1
2
3
4
5
6
7
8
9
10
DEVICE /dev/sda /dev/sdb /dev/sdd /dev/sdf /dev/sdg

CREATE owner=root group=disk mode=0660 auto=yes

HOMEHOST thuisservert

MAILADDR contact@mijndomein.nl
MAILFROM thuisservert@mdadm.nl

ARRAY /dev/md0 metadata=1.2 name=thuisservert:0 UUID=ca0e1f82:cb840485:d246502d:ae713012


blkid /dev/md0
code:
1
2
blkid /dev/md0
/dev/md0: UUID="ea94f8e6-7b9e-4011-b9fb-a72d471cb054" TYPE="ext4"


de schijven:
code:
1
2
3
4
5
6
7
8
9
10
11
12
ls /dev/ | grep sd
sda
sdb
sdc
sdc1
sdc2
sdc5
sdd
sde
sde1
sdf
sdg


samenvatting: hdparm -I | grep Model

code:
1
2
3
4
5
6
7
sda: 2TB schijf
sdb: 2TB schijf
sdc: 1 TB Schijf
sdd: 2TB Schijf
sde: Bootschijf (1TB)
sdf: 2TB schijf
sdg: 2TB schijf


cat /proc/mdstat
code:
1
2
3
4
5
6
cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sdg[6] sda[0] sdf[5] sdb[1] sdd[2]
      7813533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      
unused devices: <none>


ls -al /dev/disk/by-uuid/ea....
code:
1
2
ls -al /dev/disk/by-uuid/ea94f8e6-7b9e-4011-b9fb-a72d471cb054 
lrwxrwxrwx 1 root root 9 Jan 13 17:45 /dev/disk/by-uuid/ea94f8e6-7b9e-4011-b9fb-a72d471cb054 -> ../../md0


samenvatting mdadm -D /dev/md0
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
mdadm -D /dev/md0
/dev/md0:
     Raid Level : raid5
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent
    Update Time : Sun Jan 27 13:48:31 2013
          State : clean 
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 512K
           Name : thuisservert:0  (local to host thuisservert)
           UUID : ca0e1f82:cb840485:d246502d:ae713012
         Events : 33190
    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       48        2      active sync   /dev/sdd
       6       8       96        3      active sync   /dev/sdg
       5       8       80        4      active sync   /dev/sdf


Ik zie eerlijk gezegd niet waar mijn fout zit >.<

[ Voor 14% gewijzigd door Ijstheefles op 27-01-2013 13:52 . Reden: spelling ]


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Wat zegt mdadm tijdens het opnieuw opstarten van je server?

bij ubuntu even in /var/log/ kijken naar dmesg of kern.log

[ Voor 39% gewijzigd door jbhc op 27-01-2013 15:04 ]


Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 14:57:
Wat zegt mdadm tijdens het opnieuw opstarten van je server?

bij ubuntu even in /var/log/ kijken naar dmesg of kern.log
dmesg | grep md0
code:
1
2
3
4
5
6
7
8
9
10
11
[    8.151451] md/raid:md0: device sda operational as raid disk 0
[    8.151517] md/raid:md0: device sdf operational as raid disk 4
[    8.151580] md/raid:md0: device sdb operational as raid disk 1
[    8.151650] md/raid:md0: device sdd operational as raid disk 2
[    8.152000] md/raid:md0: allocated 5332kB
[    8.152155] md/raid:md0: raid level 5 active with 4 out of 5 devices, algorithm 2
[    8.152262] md0: detected capacity change from 0 to 8001058504704
[    8.164223]  md0: unknown partition table
[   17.597410] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
[  467.114639] md: recovery of RAID array md0
[47429.735555] md: md0: recovery done.

Die recovery komt volgens mij doordat ik dat dus zelf ingang zet.

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Geeft mdadm nog extra informatie via de mail ?

Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 15:24:
Geeft mdadm nog extra informatie via de mail ?
cat /var/mail/root | grep md0 | less
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Subject: DegradedArray event on /dev/md0:thuisservert
A DegradedArray event had been detected on md device /dev/md0.
md0 : active raid5 sdf1[4] sdd1[2] sdb1[1] sda1[0]
Subject: DegradedArray event on /dev/md0:thuisservert
A DegradedArray event had been detected on md device /dev/md0.
md0 : active raid5 sdf[4] sdd[2] sdb[1] sda[0]
Subject: DegradedArray event on /dev/md0:thuisservert
A DegradedArray event had been detected on md device /dev/md0.
md0 : active raid5 sdd[2] sdf[4] sda[0] sdb[1]
Subject: DegradedArray event on /dev/md0:thuisservert
A DegradedArray event had been detected on md device /dev/md0.
md0 : active raid5 sde[5] sdd[2] sdf[4] sda[0] sdb[1]
Subject: TestMessage event on /dev/md0:thuisservert
A TestMessage event had been detected on md device /dev/md0.
md0 : active raid5 sde[5] sdd[2] sdf[4] sda[0] sdb[1]
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
        by thuisservert.lan (8.14.4/8.14.4/Debian-2ubuntu2) with ESMTP id r037d1md004717
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: DegradedArray event on /dev/md0:thuisservert
checkarray: W: array md0 not idle, skipping...
Subject: DegradedArray event on /dev/md0:thuisservert
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: Cron <root@thuisservert> mdadm --detail /dev/md0 | mail -s "mdadm status" contact@mijndomein.nl
Subject: DegradedArray event on /dev/md0:thuisservert

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
In mijn mdadm.conf (weliswaar een Raid1) staat achter DEVICE niks. Dus zou je dat eens kunnen proberen.

Misschien veranderd tijdens het opstarten de volgorde van de schijven wel waardoor mdadm in de war raakt of een verkeerde schijf probeert te initialiseren?

Uit de mdadm.conf man page:
If no DEVICE line is present, then "DEVICE partitions containers" is assumed.
Aangezien je geen gebruik maakt van /dev/hdg1 zou dat ook gewoon moeten werken en sluit je een verkeerde verwijzing uit.

[ Voor 35% gewijzigd door jbhc op 27-01-2013 15:44 ]


Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 15:38:
In mijn mdadm.conf (weliswaar een Raid1) staat achter DEVICE niks. Dus zou je dat eens kunnen proberen.

Misschien veranderd tijdens het opstarten de volgorde van de schijven wel waardoor mdadm in de war raakt of een verkeerde schijf probeert te initialiseren?

Uit de mdadm.conf man page:


[...]


Aangezien je geen gebruik maakt van /dev/hdg1 zou dat ook gewoon moeten werken en sluit je een verkeerde verwijzing uit.
Hmm, overal staat in de mdadm.conf letterlijk 'DEVICE partitions', ik heb partitions uitgeschreven met /dev/sd[schijfl etters hier ]
Denk dat mdadm dat zelf evaluerrt a.d.h.v. --detail informatie.

Enig probleem is nu dat in mijn mdadm --detail, schijven a b d en g als active sync staan. Daar mist er een. Namelijk schijf F.

Hoe kan dit?

[edit]

Apart.

mdadm --detail /dev/md0
geeft 5 schijven in active sync, en alles helemaal geweldig qua status.

mdadm -D /dev/md0
gaf eerder vanmiddag nog 4 schijven aan... nu 5. Enige wijziging is mijn mdadm.conf.

Dat zou betekenen dat mdadm.conf periodiek ingelezen zou worden; proceslijst check:
ps aux | grep mdadm

code:
1
2
3
 ps aux | grep mdadm
root      2495  0.0  0.0  13332   720 ?        Ss   Jan13   0:00 /sbin/mdadm --monitor --pid-file /var/run/mdadm/monitor.pid --daemonise --scan --syslog
root     15862  0.0  0.0   9388   920 pts/4    S+   16:06   0:00 grep --color=auto mdadm


er is wel iets op aan 't letten, maar of dat het is..

Vervelend is nu dat nu alles O.K. lijkt volgens mij... tenminste, nadruk op lijkt.

Zou eigenlijk als test moeten rebooten.. zien jullie nog iets raars?

[ Voor 32% gewijzigd door Ijstheefles op 27-01-2013 16:08 ]


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
In je startpost staat een mdadm.conf met alleen DEVICES er in of klopt die niet?

/edit:

Ik denk dat je die nu dus gewijzigd heb door DEVICES er uit te commenten?


/note:

mdadm is een geweldig stukje software alleen de documentatie / configuratie vind ik voor een hobbyist als mezelf echt hell... 8)


Wel nasty inderdaad dat je enige manier om te testen of het werkt een reboot is en als het vervolgens niet werkt je weer aan een rebuild van enkele uren vast zit..... :+

[ Voor 71% gewijzigd door jbhc op 27-01-2013 16:19 ]


Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 16:14:
In je startpost staat een mdadm.conf met alleen DEVICES er in of klopt die niet?
Huidige (net aangepaste) mdadm.conf:
code:
1
2
3
4
5
6
7
8
9
10
11
 cat /etc/mdadm/mdadm.conf 
DEVICE partitions 

CREATE owner=root group=disk mode=0660 auto=yes

HOMEHOST thuisservert

MAILADDR contact@mijndomein.nl
MAILFROM thuisservert@mdadm.nl

ARRAY /dev/md0 metadata=1.2 name=thuisservert:0 UUID=ca0e1f82:cb840485:d246502d:ae713012


bedankt voor je hulp tot zo ver trouwens :)

[ Voor 4% gewijzigd door Ijstheefles op 27-01-2013 16:16 . Reden: kan inmiddels wel een bedankje af =P ]


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Even nog mijn mdadm.conf:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
serveradmin@MMS-Server:/$ cat /etc/mdadm/mdadm.conf
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Sun, 23 Dec 2012 22:13:43 +0100
# by mkconf $Id$
ARRAY /dev/md0  UUID=a50335ed:3be1c139:82d232bc:18bbda0a

Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 16:21:
Even nog mijn mdadm.conf:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
serveradmin@MMS-Server:/$ cat /etc/mdadm/mdadm.conf
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Sun, 23 Dec 2012 22:13:43 +0100
# by mkconf $Id$
ARRAY /dev/md0  UUID=a50335ed:3be1c139:82d232bc:18bbda0a
code:
1
The word partitions will cause mdadm to read /proc/partitions and include all devices and partitions found therein. mdadm does not use the names from /proc/partitions but only the major and minor device numbers. It scans /dev to find the name that matches the numbers.

Oftewel, moet ik niet hebben, dan pakt ie ook de 1tbś mee.

Als ik het echter goed lees; was wat ik had:
code:
1
DEVICE /dev/sda /dev/sdb /dev/sdd /dev/sdg /dev/sdf

De juiste configuratie.

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Bij mij staat er een # voor waardoor hij deze regel niet meeneemt. :)

Ik snap dat jou DEVICE de juiste zou moeten zijn maar het zou zomaar kunnen dat tijdens het booten van linux de schijfvolgorde wijzigt. (Heb dit wel eens meegemaakt op een oude thuisserver)

Mijn ervaring is dat mdadm prima in staat is om zelf de schijven er bij te zoeken.

Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 16:37:
Bij mij staat er een # voor waardoor hij deze regel niet meeneemt. :)

Ik snap dat jou DEVICE de juiste zou moeten zijn maar het zou zomaar kunnen dat tijdens het booten van linux de schijfvolgorde wijzigt. (Heb dit wel eens meegemaakt op een oude thuisserver)

Mijn ervaring is dat mdadm prima in staat is om zelf de schijven er bij te zoeken.
Dus volgens jou moet ik die hele line uitcommenten? :? dan krijgt mdadm die 2x 1TB toch ook voor zn kiezen?

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Als ik het goed begrijp dan is de raid info op de schijven zelf opgeslagen. je 1TB schijven zijn geen onderdeel van de raid array en deze zal hij met rust laten.

Ik heb ook nog 1 schijf in mn server zitten en die wordt gewoon met rust gelaten

overigens nog een intresant linkje gevonden:

http://ubuntuforums.org/s...p?p=11388915&postcount=18

[ Voor 18% gewijzigd door jbhc op 27-01-2013 17:02 ]


Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 09-07 18:57
jbhc schreef op zondag 27 januari 2013 @ 16:47:
Als ik het goed begrijp dan is de raid info op de schijven zelf opgeslagen. je 1TB schijven zijn geen onderdeel van de raid array en deze zal hij met rust laten.

Ik heb ook nog 1 schijf in mn server zitten en die wordt gewoon met rust gelaten

overigens nog een intresant linkje gevonden:

http://ubuntuforums.org/s...p?p=11388915&postcount=18
Net gereboot. Werkt. :)

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 10-07 10:24
Top! :)
Pagina: 1