Ubuntu server raid 5 extra hd toevoegen lukt niet

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
ik heb een ubuntu server met raid 5 opstelling

1 schijf (80GB) os disk met ubuntu server er op 9.10
3 schrijven in raid 5 (3 X 1.5 GB) en nu wil ik er een 4e aanhangen.
Aangezien ik geen linux goeroe ben dus maar zitten googlen.
en volgende gevolgd.

http://www.jamierf.co.uk/...ing-mdadm-in-ubuntu-9-10/

Alles ging goed tot dat ik er een 4e schijf wou aanhangen

maar bij de stap sudo mdadm --add /dev/md0 /dev/sdd1

krijg ik onderstaande foutmelding

maxximus@nas:~$ sudo mdadm --add /dev/md0 /dev/sde1
mdadm: Cannot open /dev/sde1: Device or resource busy

bezig dus ook dit via google gezocht en dit gevonden

http://ubuntuforums.org/showthread.php?t=266430

gedaan en kreeg ik dit
maxximus@NASMaxximus:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde1[3] sdd1[2] sdc1[1] sdb1[0]
4395407808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

Lijkt in mijn ogen goed dus toch stap verder gegaan

sudo mdadm --grow /dev/md0 --raid-devices=4

Maar kreeg ik dit

maxximus@nas:~$ sudo mdadm --grow /dev/md0 --raid-devices=4
mdadm: /dev/md0: Cannot reshape array without increasing size (yet).

en nu ben ik de weg kwijt, uiteraard deze melding gegoogled maar dan krijg ik alleen hardware problemen.
Ik denk niet dat dit het probleem want ik heb zelf een beetje lopen klooien (hoop niet te erg 8)7 )

Want ik hen de mdadm.conf zelf handmatig aangepast.

ARRAY /dev/md0 level=raid5 num-devices=4 metadata=0.90 spares=1 UUID=ff7f2e8a:f$
devices=/dev/sdb1,/dev/sdc1,/dev/sdd1,/dev/sde1
als ik ,/dev/sde1 wehaal werkt de hele raid niet meer (net als HD zelf eruit) maar toch heb ik niet de voldoende ruimte)

/dev/md0 2.7T 2.5T 127G 96% /mnt/raid

Wie o wie heeft er een oplossing voor mij?

Hier onder nog wat info.


Disk /dev/sda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0xc5ae0b17

Device Boot Start End Blocks Id System
/dev/sda1 * 1 9698 77899153+ 8e Linux LVM
/dev/sda2 9699 9729 249007+ 5 Extended
/dev/sda5 9699 9729 248976 83 Linux

Disk /dev/sdb: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0xd16eaf7e

Device Boot Start End Blocks Id System
/dev/sdb1 1 182401 1465136001 fd Linux raid autodetect

Disk /dev/sdc: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x345ec7ac

Device Boot Start End Blocks Id System
/dev/sdc1 1 182401 1465136032 fd Linux raid autodetect

WARNING: GPT (GUID Partition Table) detected on '/dev/sdd'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdd: 1500.3 GB, 1500301910016 bytes
256 heads, 63 sectors/track, 181688 cylinders
Units = cylinders of 16128 * 512 = 8257536 bytes
Disk identifier: 0x7b472f34

Device Boot Start End Blocks Id System
/dev/sdd1 1 181689 1465138583+ ee GPT

Disk /dev/sde: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x2fbd5efc

Device Boot Start End Blocks Id System
/dev/sde1 1 182401 1465136001 fd Linux raid autodetect

Disk /dev/md0: 4500.9 GB, 4500897595392 bytes
2 heads, 4 sectors/track, 1098851952 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Probeer dit eens?
code:
1
mdadm --grow /dev/md0 --size=max

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
gedaan geen foutmelding
nas reboot maar nog steeds het zelfde.

Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Ik zie een sdd met een GPT partitietabel daarop, terwijl de andere disks dat niet hebben, is dat bewust?

Kun je tevens de output posten van:
code:
1
sudo mdadm --examine /dev/sdb1

En dit voor alle onderdelen uit de raid array?

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
Nvidiot schreef op vrijdag 28 mei 2010 @ 16:55:
Ik zie een sdd met een GPT partitietabel daarop, terwijl de andere disks dat niet hebben, is dat bewust?
nee is totaal niet met opzet gedaan
Nvidiot schreef op vrijdag 28 mei 2010 @ 16:55:
Kun je tevens de output posten van:
code:
1
sudo mdadm --examine /dev/sdb1

En dit voor alle onderdelen uit de raid array?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
/dev/sdb1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : ff7f2e8a:f85fa249:af3f34cf:954723a3
  Creation Time : Wed Mar 24 14:09:54 2010
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Fri May 28 16:41:00 2010
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : d490e466 - correct
         Events : 43301

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       17        0      active sync   /dev/sdb1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       65        3      active sync   /dev/sde1


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
/dev/sdc1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : ff7f2e8a:f85fa249:af3f34cf:954723a3
  Creation Time : Wed Mar 24 14:09:54 2010
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Fri May 28 16:41:00 2010
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : d490e478 - correct
         Events : 43301

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       33        1      active sync   /dev/sdc1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       65        3      active sync   /dev/sde1


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
/dev/sdd1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : ff7f2e8a:f85fa249:af3f34cf:954723a3
  Creation Time : Wed Mar 24 14:09:54 2010
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Fri May 28 16:41:00 2010
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : d490e48a - correct
         Events : 43301

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       65        3      active sync   /dev/sde1


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
/dev/sde1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : ff7f2e8a:f85fa249:af3f34cf:954723a3
  Creation Time : Wed Mar 24 14:09:54 2010
     Raid Level : raid5
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
     Array Size : 4395407808 (4191.79 GiB 4500.90 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Fri May 28 16:41:00 2010
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : d490e49c - correct
         Events : 43301

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       65        3      active sync   /dev/sde1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       65        3      active sync   /dev/sde1

[ Voor 5% gewijzigd door Maxximus op 28-05-2010 19:46 ]


Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Dit lijkt erop dat de array zelf wel groot genoeg geworden is en reeds alle 4 disks gebruikt. Wellicht je filesystem nog niet. Dat kun je oplossen (bij een ext2/3 filesystem) met resize2fs.
code:
1
2
sudo umount /mnt/raid
sudo resize2fs /dev/md0

resize2fs zonder een grootte op te geven gebruikt de grootte van de onderliggende partitie of device (hier dus de 4.5TB van de raid5 set)

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
En de data blijft er gewoon op?

[ Voor 3% gewijzigd door Maxximus op 29-05-2010 23:22 ]


Acties:
  • 0 Henk 'm!

  • Rainmaker
  • Registratie: Augustus 2000
  • Laatst online: 14-07-2024

Rainmaker

RHCDS

Ja, de data blijft er dan gewoon op.

Als je overigens een versie van resize2fs hebt die nieuw genoeg is, hoef je het FS ook niet te unmounten.

We are pentium of borg. Division is futile. You will be approximated.


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
oke bedankt

sudo resize2fs /dev/md0 ingetypt maar dan krijg ik onderstaande melding.

code:
1
2
resize2fs 1.41.9 (22-Aug-2009)
Please run 'e2fsck -f /dev/md0' first.


netjes als ik ben code ingetypt
code:
1
2
3
sudo e2fsck -f /dev/md0
e2fsck 1.41.9 (22-Aug-2009)
Pass 1: Checking inodes, blocks, and sizes


Dit duurt al langer dan 1.5 uur is dit normaal (kan het me wel voorstellen voor paar TB)

Acties:
  • 0 Henk 'm!

  • DutchNutcase
  • Registratie: Augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Nvidiot schreef op zaterdag 29 mei 2010 @ 21:04:
Dit lijkt erop dat de array zelf wel groot genoeg geworden is en reeds alle 4 disks gebruikt. Wellicht je filesystem nog niet. Dat kun je oplossen (bij een ext2/3 filesystem) met resize2fs.
code:
1
2
sudo umount /mnt/raid
sudo resize2fs /dev/md0

resize2fs zonder een grootte op te geven gebruikt de grootte van de onderliggende partitie of device (hier dus de 4.5TB van de raid5 set)
Is je array groter dan 2TiB?
Denk er dan aan dat een DOS partitietabel (als je partities gebruikt, ik heb je config niet goed doorgelezen) geen grotere partities ondersteund. Dan moet je over naar een GPT partitietabel. Ik heb op deze manier al eens 1.8TB aan data weggewerkt... Oeps... :o

Luctor et Emergo || specs


Acties:
  • 0 Henk 'm!

  • Maxximus
  • Registratie: November 2008
  • Laatst online: 21-05-2024
/dev/md0 4.1T 2.5T 1.4T 64% /mnt/raid


_/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_

[ Voor 88% gewijzigd door Maxximus op 31-05-2010 16:58 . Reden: probleem opgelost ]

Pagina: 1