Jemig, vandaag ook wel ff flink lopen zweten, vanmorgen smart melding op mijn DS411+je dat een van de samsung schijven uit 2011 op kapot gaan stond, direct maar even 2 nieuwe 4TB schijven gaan halen voor mijn Nasje zodat ik 2x een 2TB waaronder de kapotte 2TB kon uitfaseren.
thuis gekomen, disk met de smart melding eruit, nieuwe disk erin en rebuilden maar. Begint ineens na een uurtje of 2 de syno te piepen, webinterface weer gestart, bad sectors op een andere disk. Syno geeft aan dat ie moet rebooten voor een filesystem check die schijnbaar alleen offline gerunned kan worden. Ik dat maar netjes op volgen, via de Syno assistant de progress gevolgd en na weer een uurtje of 2 ging ie weer rebooten. Ik weer inloggen, ineens heeft mijn raid niet meer de status degraded maar de status crashed. De nieuw geplaatste disk staat niet meer in het overzicht, Disk 2 en 4 op normal en disk 4 op crashed. Dus ik denk kut, al mijn data weg.
Uiteraard wel backups van de belangijke data, maar toch zonde om 4TB aan vervangbare data te moeten missen en opnieuw zien te verkrijgen, al is het wel een risico dat ik bewust genomen heb. Dus ik even verder kijken in de interface en zie daar de data nog wel staan, ook kan ik de shares nog benaderen en is ook daar de data nog zichtbaar. Iets wat ik erg vreemd vond daar normaliter bij een raid 5 2 disk weg is, data weg. Dus ergens op de achtergrond moest er toch nog iets aanwezig zijn op of de disk die niet meer in het overzicht stond, of op de disk die crashed was. Het systeem een reboot gegeven maar de status bleef hetzelfde, volume crashed maar wel benaderbaar (Echter het zo traag dat het veiligstellen van de misbare data geen prio had, wel even geprobeerd maar bij een transfer rate van <1 mb/sec zou dat dagen gaan duren).
Toen maar eesn gaan zoeken op synology forums en via Google en toen vond ik iets dat ik wel de moeite vond om te testen (had eigenlijk de data al opgegeven).
Ik logde in via SSH en deed:
mdadm --detail /dev/md2
Waar ik de output kreeg met state: clean, degraded (dus niet crashed zoals DSM aangaf)
En bij de disks:
0 - removed
1 - Active, Sync /dev/sdb5
2 - Active, Sync /dev/sbc5
3 - Active, Sync /dev/sdd5
4 - Spare /dev/sda5
Dus schijnbaar was disk 3 helemaal niet crashed zoals DSM aangaf en de nieuwe disk was ineens een spare, terwijl DSM aangaf no spares. Ergens was er dus iets misgegaan bij de rebuild door DSM gok ik (kan ook wat anders zijn uiteraard, ben echt geen linux expert).
Toen de volgende commando's uitgevoerd:
code:
1
2
3
| syno_poweroff_task -d
mdadm --stop /dev/md2
mdadm --create /dev/md2 --level=5 --raid-devices=4 --chunk=64 --name=<Hostname>:2 /dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 --assume-clean |
waarbij de waarschuwing kwam dat dit lang kon duren en je via cat /proc/mdstat de status van de rebuild kon checken. tot mijn verbazing was dit commando binnen de minuut klaar
Daarna nog een keer mdadm --detail /dev/md2 uitvoeren en de status ineens clean, zonder degraded.
toen de Syno even een reboot gegeven en ineens in DSM was de status weer healthy, en alle shares waren ook weer snel. Nu toch maar even een volle filesystem check aan het draaien voordat morgen disk 3 (die de rare meldingen gaf met badsectors tijdens de eerste rebuild) er uit kan voor de 2de 4TB disk.
Misschien dat iemand hier wat aan heeft in de toekomst mocht je tegen het zelfde issue aanlopen