Hallo,
Ik heb al een tijd een raid 5 array draaien met 6 1TB schijven. Deze deed het op zich zeer goed tot 2 weken geleden. Toen begon één van de schijven read-errors te geven in kern.log. Geen probleem, nieuwe schijven besteld, die schijf als faulty, server af, nieuwe schijf erin, toevoegen, laten resyncen en klaar.
Daar was ik gisteren, alles werkte weer perfect.
Maaar omdat ik dan toch schijven aan het bestellen was heb ik er meteen wat extra besteld en was van plan om de array te grow'n tot 8 disks van 1TB. Nu goed, alles werkte dus server terug af, schijven erin, en gaan.
De originele disks waren sda tem sdf, nu werden de neiuwe ertussen geplugged en die werden sdd en sdh
op zich nog steeds geen probleem mdadm herkent dit.
En met de nieuwe schijven geinstalleerd is de raid 5 array nog steeds benaderbaar. Ik partitioneer de nieuwe disks, ik voeg ze toe aan de array, alles goed en wel. Hij toont 2 spares met mdadm --detail /dev/md0, ik grow het aantal devices naar 8 en hij begint te syncen.
Ik zie dat de snelheid laag is met een cat /proc/mdstat, zo rond de 5MB, dus ik check kern.log. Jawel, de schijf op ata7 geeft ook fouten, goed, dat zal één van de nieuwe disks zijn die niet helemaal koosjer is, ik zet hem wel even op faulty.
Nu hier is het fout gegaan! Ik ga ervanuit dat het een nieuwe disk is, 8 disks, begint vast bij ata0, dus ata7 is sdh ... niet dus, ik gooi /dev/sdh op faulty en mdadm gooit /dev/sde (blijkbaar de schijf die ECHT fouten gaf) op faulty, maw 2 faulty disks (waarvan slechts één écht faulty), kan niet meer resyncen ...
Tijdens het booten geeft hij aan: not enough disks to rebuild array, en als hij volledig booted is is er geen /dev/md0 momenteel!!
Pijnlijke situatie dus ... een redelijk specifiek geval, ik hoop op éénder welk advies of plan van aanpak die jullie mij kunnen geven.
Verder heb ik nog 2TB disks als spare gekocht, dus ik kan wel redeiljk creatief zijn met tijdelijk nog extra spare's te adden, hiervoor heb ik natuurlijk /dev/md0 nodig ...
Ik heb zelf deze "oplossing" verzonnen en daar had ik ook graag jullie mening over:
Aangezien het adden van de nieuwe disks < 1% was, veronderstel ik dat mijn originele 6 disks nog zo goed als onaangeroerd zijn.
Kan ik in /etc/mdadm.conf de raid array ipv te laten scannen niet op de 6 devices specifieren en dat hij zo "hardcoded" terug met die 6 disks aan de slag kan? Goed er is mss wat dataloss (die 1%) die hij misschien kan resyncen? Of met een fsck op te lossen valt.
Ik probeer niet het dataverlies volledig te voorkomen ik probeer het te beperken, elke hulp hierbij word ten zeerste geapprecieerd!
Mochten jullie linux soft raid guru's kennen, aarzel dan niet om ze naar deze thread te sturen aub, alvast bedankt!
Ik heb al een tijd een raid 5 array draaien met 6 1TB schijven. Deze deed het op zich zeer goed tot 2 weken geleden. Toen begon één van de schijven read-errors te geven in kern.log. Geen probleem, nieuwe schijven besteld, die schijf als faulty, server af, nieuwe schijf erin, toevoegen, laten resyncen en klaar.
Daar was ik gisteren, alles werkte weer perfect.
Maaar omdat ik dan toch schijven aan het bestellen was heb ik er meteen wat extra besteld en was van plan om de array te grow'n tot 8 disks van 1TB. Nu goed, alles werkte dus server terug af, schijven erin, en gaan.
De originele disks waren sda tem sdf, nu werden de neiuwe ertussen geplugged en die werden sdd en sdh
op zich nog steeds geen probleem mdadm herkent dit.
En met de nieuwe schijven geinstalleerd is de raid 5 array nog steeds benaderbaar. Ik partitioneer de nieuwe disks, ik voeg ze toe aan de array, alles goed en wel. Hij toont 2 spares met mdadm --detail /dev/md0, ik grow het aantal devices naar 8 en hij begint te syncen.
Ik zie dat de snelheid laag is met een cat /proc/mdstat, zo rond de 5MB, dus ik check kern.log. Jawel, de schijf op ata7 geeft ook fouten, goed, dat zal één van de nieuwe disks zijn die niet helemaal koosjer is, ik zet hem wel even op faulty.
Nu hier is het fout gegaan! Ik ga ervanuit dat het een nieuwe disk is, 8 disks, begint vast bij ata0, dus ata7 is sdh ... niet dus, ik gooi /dev/sdh op faulty en mdadm gooit /dev/sde (blijkbaar de schijf die ECHT fouten gaf) op faulty, maw 2 faulty disks (waarvan slechts één écht faulty), kan niet meer resyncen ...
Tijdens het booten geeft hij aan: not enough disks to rebuild array, en als hij volledig booted is is er geen /dev/md0 momenteel!!
Pijnlijke situatie dus ... een redelijk specifiek geval, ik hoop op éénder welk advies of plan van aanpak die jullie mij kunnen geven.
Verder heb ik nog 2TB disks als spare gekocht, dus ik kan wel redeiljk creatief zijn met tijdelijk nog extra spare's te adden, hiervoor heb ik natuurlijk /dev/md0 nodig ...
Ik heb zelf deze "oplossing" verzonnen en daar had ik ook graag jullie mening over:
Aangezien het adden van de nieuwe disks < 1% was, veronderstel ik dat mijn originele 6 disks nog zo goed als onaangeroerd zijn.
Kan ik in /etc/mdadm.conf de raid array ipv te laten scannen niet op de 6 devices specifieren en dat hij zo "hardcoded" terug met die 6 disks aan de slag kan? Goed er is mss wat dataloss (die 1%) die hij misschien kan resyncen? Of met een fsck op te lossen valt.
Ik probeer niet het dataverlies volledig te voorkomen ik probeer het te beperken, elke hulp hierbij word ten zeerste geapprecieerd!
Mochten jullie linux soft raid guru's kennen, aarzel dan niet om ze naar deze thread te sturen aub, alvast bedankt!
If it ain't broken it doesn't have enough features