Ik heb/had draaien:
md0 in RAID1 bestaande uit sda1, sdb1 (OS,).
md1 in RAID1 bestaande uit sda2, sdb2 (data).
swap bestaande uit sda3, sdb3.
De swaps stonden op het einde van de disks. Logisch...well...not really, want daar is de snelheid 40MB/s, terwijl het vooraan tegen de 90MB/s is.
Ik heb sda1 en sdb1 daarom geshrinkt. 2GB vd 10GB eraf. Dit kon makkelijk omdat er 5GB in gebruik was.
Van de 2x 2GB die vrij kwam heb ik 2x 1GB swap gemaakt. (Die zit nu dus direct achter sda1, sdb1.)
De overgebleven 2x 1GB heb ik aan sda2, sdb2 (data) gegeven omdat die bijna vol was. Ook de vrijgekomen oud-swaps (2x 1GB) zijn aan data gegeven.
Mijn verwachting was dat dit een klus van 15 uur zou worden.
Het growen+moven duurt echter zo lang...dat hij nu (25 uur later) nog steeds niet op de helft is. Volgens de schatting is hij over een uur of 6 klaar met 1 disk. (Dan te bedenken dat richting het einde de snelheid flink inzakt reken ik meer op 9 uur.) Daarna moet dus nog een disk.
Nu ben ik er eigenlijk al wel ziek genoeg van.
En zit ik na te denken...
1. Hoe reageert mdadm die voor de RAID1 zorgt (md0 en md1) hierop?
a. Als ik na 1 disk niet cancel zijn de 2 schijven met de 2 RAID1 configs in theorie gewoon identhiek. Gaan md0 en md1 weer rustig verder werken of gaat dat niet zo makkelijk?
b. Als ik wel cancel is mdadm waarschijnlijk de weg kwijt aangezien behalve dat de data out-of-sync is, de partities ook niet meer gelijk zijn.
Dan moet ik dus sowieso rebuilden nadat de partities gelijk zijn gemaakt...maar kan ik tenminste wel (helaas onveilig omdat RAID1 'uitstaat') bij mijn data.
Stel dat bij a md0 en md1 ook niet meer healthy zijn...en dus moet rebuilden (ookal zijn ze gelijk)...kan ik dan niet beter na disk 1 cancellen en booten naar de schijf die af is, vervolgens terwijl ik bij mijn data kan de boel weer gelijk trekken en rebuilden?
(Ja ik ben echt even de weg en had beter LVM kunnen gebruiken maar kende dat een jaar terug nog niet.)
md0 in RAID1 bestaande uit sda1, sdb1 (OS,).
md1 in RAID1 bestaande uit sda2, sdb2 (data).
swap bestaande uit sda3, sdb3.
De swaps stonden op het einde van de disks. Logisch...well...not really, want daar is de snelheid 40MB/s, terwijl het vooraan tegen de 90MB/s is.
Ik heb sda1 en sdb1 daarom geshrinkt. 2GB vd 10GB eraf. Dit kon makkelijk omdat er 5GB in gebruik was.
Van de 2x 2GB die vrij kwam heb ik 2x 1GB swap gemaakt. (Die zit nu dus direct achter sda1, sdb1.)
De overgebleven 2x 1GB heb ik aan sda2, sdb2 (data) gegeven omdat die bijna vol was. Ook de vrijgekomen oud-swaps (2x 1GB) zijn aan data gegeven.
Mijn verwachting was dat dit een klus van 15 uur zou worden.
Het growen+moven duurt echter zo lang...dat hij nu (25 uur later) nog steeds niet op de helft is. Volgens de schatting is hij over een uur of 6 klaar met 1 disk. (Dan te bedenken dat richting het einde de snelheid flink inzakt reken ik meer op 9 uur.) Daarna moet dus nog een disk.
Nu ben ik er eigenlijk al wel ziek genoeg van.
1. Hoe reageert mdadm die voor de RAID1 zorgt (md0 en md1) hierop?
a. Als ik na 1 disk niet cancel zijn de 2 schijven met de 2 RAID1 configs in theorie gewoon identhiek. Gaan md0 en md1 weer rustig verder werken of gaat dat niet zo makkelijk?
b. Als ik wel cancel is mdadm waarschijnlijk de weg kwijt aangezien behalve dat de data out-of-sync is, de partities ook niet meer gelijk zijn.
Dan moet ik dus sowieso rebuilden nadat de partities gelijk zijn gemaakt...maar kan ik tenminste wel (helaas onveilig omdat RAID1 'uitstaat') bij mijn data.
Stel dat bij a md0 en md1 ook niet meer healthy zijn...en dus moet rebuilden (ookal zijn ze gelijk)...kan ik dan niet beter na disk 1 cancellen en booten naar de schijf die af is, vervolgens terwijl ik bij mijn data kan de boel weer gelijk trekken en rebuilden?
(Ja ik ben echt even de weg en had beter LVM kunnen gebruiken maar kende dat een jaar terug nog niet.)
