edit: Inmiddels is duidelijk dat initrd faalt omdat mdadm de raid1 voor / niet assembled, en dat het root device daarom niet bestaat. Zie ook 3 posts lager.
Mijn server (Debian Wheezy amd64), met hiervoor 3x 1.5TB WD Green, heeft een upgrade gekregen met een extra 2TB WD Green.
Ik heb met
de partitietable gekloond van één van de bestaande disks naar de nieuwe (de nieuwe was sdc). Hierna de partitietable gecontroleerd, dit werkte prima. 500GB ongebruikte ruimte achteraan natuurlijk, maar dat is geen probleem.
Het root filesystem is raid1, klein volume van zo'n 5GB. Ik heb de corresponderende partitie toegevoegd aan de array:
Dit was natuurlijk snel klaar (cat /proc/mdstat)
Vervolgens heb ik de tweede, grote, partitie toegevoegd aan md1, voor /home:
Dit duurde heel lang zoals te verwachten, maar zag er goed uit aan het eind:
Een blik in dmesg leverde echter het volgende op (melding over inodes):
Omdat ik de nieuwe grootte ook niet terug zag met df -h:
heb ik toen voor de zekerheid gereboot. Toen bleek dat ik niet meer kon booten. initrd faalt met de melding dat de device voor het root filesystem niet gevonden kan worden:
Een snelle test laat inderdaad zien dat hij niet liegt:
Deze symlinks verwijzen naar /dev/sda3, /dev/sdb3, /dev/sdd3, wat de swap partities zijn. /dev/sdc mist hier dus. Dit suggereert dat een update-initramfs / update-grub nodig is?
Deze machine staat voor mij op afstand, en ik probeer hem nu te repareren met iemand op locatie die weinig van Linux af weet. Iemand ideeën om uit te vinden wat hier aan de hand is?
edit: Als ik nu naar de output van df -h kijk, vraag ik me ook af waarom niet /dev/md0 als / gemount is, maar dat UUID? Dat heeft vast iets te maken met manier van assembly van de mdadm arrays op boot, maar is de raid1 dan wel correct functioneel?
Mijn server (Debian Wheezy amd64), met hiervoor 3x 1.5TB WD Green, heeft een upgrade gekregen met een extra 2TB WD Green.
Ik heb met
code:
1
| sfdisk -d /dev/sda | sfdisk /dev/sdc |
de partitietable gekloond van één van de bestaande disks naar de nieuwe (de nieuwe was sdc). Hierna de partitietable gecontroleerd, dit werkte prima. 500GB ongebruikte ruimte achteraan natuurlijk, maar dat is geen probleem.
Het root filesystem is raid1, klein volume van zo'n 5GB. Ik heb de corresponderende partitie toegevoegd aan de array:
code:
1
| mdadm /dev/md0 -a /dev/sdc1 |
Dit was natuurlijk snel klaar (cat /proc/mdstat)
Vervolgens heb ik de tweede, grote, partitie toegevoegd aan md1, voor /home:
code:
1
| mdadm /dev/md1 -a /dev/sdc2 |
Dit duurde heel lang zoals te verwachten, maar zag er goed uit aan het eind:
code:
1
2
3
4
5
6
7
| databeest:/# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active raid5 sda2[0] sdc2[3] sdd2[2] sdb2[1] 4368153600 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] md0 : active raid1 sda1[0] sdc1[3] sdd1[2] sdb1[1] 7815488 blocks [4/4] [UUUU] |
Een blik in dmesg leverde echter het volgende op (melding over inodes):
code:
1
2
3
4
5
6
7
8
9
10
11
| databeest:/# dmesg | tail -n 10 [ 232.492222] md: using 128k window, over a total of 1456051200k. [107933.179643] md: md1: reshape done. [107934.397273] RAID conf printout: [107934.397277] --- level:5 rd:4 wd:4 [107934.397280] disk 0, o:1, dev:sda2 [107934.397282] disk 1, o:1, dev:sdb2 [107934.397283] disk 2, o:1, dev:sdd2 [107934.397285] disk 3, o:1, dev:sdc2 [107934.397292] md1: detected capacity change from 2981992857600 to 4472989286400 [107934.678997] VFS: busy inodes on changed media or resized disk md1 |
Omdat ik de nieuwe grootte ook niet terug zag met df -h:
code:
1
2
3
4
5
6
7
8
9
| databeest:/# df -h Filesystem Size Used Avail Use% Mounted on rootfs 7.4G 4.1G 2.9G 59% / udev 10M 0 10M 0% /dev tmpfs 176M 456K 176M 1% /run /dev/disk/by-uuid/125d7c8c-0ae8-4955-b78d-f69778e45a22 7.4G 4.1G 2.9G 59% / tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 1.1G 0 1.1G 0% /run/shm /dev/md1 2.7T 2.6T 77G 98% /home |
heb ik toen voor de zekerheid gereboot. Toen bleek dat ik niet meer kon booten. initrd faalt met de melding dat de device voor het root filesystem niet gevonden kan worden:
code:
1
2
3
| Gave up waiting for root device. Common problems: -knip- ALERT! /dev/disk/by-uuid/125d7c8c-0ae8-4955-b78d-f69778e45a22 does not exist. Dropping to shell! |
Een snelle test laat inderdaad zien dat hij niet liegt:
code:
1
2
| ls /dev/disk/by-uuid 674aaa..... d4668...... aa2799..... |
Deze symlinks verwijzen naar /dev/sda3, /dev/sdb3, /dev/sdd3, wat de swap partities zijn. /dev/sdc mist hier dus. Dit suggereert dat een update-initramfs / update-grub nodig is?
Deze machine staat voor mij op afstand, en ik probeer hem nu te repareren met iemand op locatie die weinig van Linux af weet. Iemand ideeën om uit te vinden wat hier aan de hand is?
edit: Als ik nu naar de output van df -h kijk, vraag ik me ook af waarom niet /dev/md0 als / gemount is, maar dat UUID? Dat heeft vast iets te maken met manier van assembly van de mdadm arrays op boot, maar is de raid1 dan wel correct functioneel?
[ Voor 6% gewijzigd door geez op 18-03-2015 20:46 ]