Na een stroomstoring staan 4 van mijn 11 disks in een RAID6 op Failed. Uiteraard zijn dat er te veel. Het array zelf is na het rebooten ook verdwenen; de Areca ziet enkel nog disks als Free en Failed.
Ik zoek me al 1,5 dag rot naar een uitleg hoe een Areca 1260 RAID controller bepaalt of een disk Failed is of niet. Volgens de support van Areca houdt de controller geen statussen bij van het array of van de disks, en bepaald hij tijdens het opstarten/initialiseren van de disk of deze 'goed' is:
De handleiding rept nergens over dit soort problemen, behalve dat Failed disks vervangen moeten worden.
Nu kan het natuurlijk dat alle 4 de disks tegelijk zijn overleden. Maar het lijkt me logischer dat ze out-of-sync zijn. Ik heb een aantal reserve schijven liggen en mijn eerste idee was om de 4 failed schijven op bit niveau te clonen naar 4 nieuwe disks. Echter, als de disk niet kapot is, maar de data die er op staat corrupt, schiet ik hier weinig mee op. Dan krijg ik een corrupte kopie van een werkende schijf.
Ik heb backups van 99% van die disks, maar dat zijn data-backups die momenteel op een aparte omgeving teruggezet worden. Het zou me veel tijd schelen als ik het RAID array in ieder geval tijdelijk terug zou krijgen, om die laatste 1% te kunnen nalopen.
Ik heb gelezen over de RESCUE en eventueel LeVeL2ReScUe commando's, maar het lijkt me sterk dat die een schijf die als Failed gezien wordt opeens weer opnemen in het array. Dat wordt pas interessant als het me lukt om genoeg schijven terug te krijgen.
Heeft iemand toevallig ervaring met deze controller en nog een geniale tip?
Ik zoek me al 1,5 dag rot naar een uitleg hoe een Areca 1260 RAID controller bepaalt of een disk Failed is of niet. Volgens de support van Areca houdt de controller geen statussen bij van het array of van de disks, en bepaald hij tijdens het opstarten/initialiseren van de disk of deze 'goed' is:
Maar op basis waarvan dat gebeurt is mij niet duidelijk en dat krijg ik ook niet echt duidelijk. Areca geeft zelf aan dat als ik de Failed disks terug kan krijgen, ik het array ook terugkrijg. Maar goed, dat lijkt me logischcontroller do not record array configuration or hard drive information inside.
so if you can connect all array members without data corruption, you will not lost the array or data inside.
and as previous reply, controller do not record failed drive list. you can take any reaction to recover these failed members back. recover these data in failed drives are the only possibility to recover the array.
Nu kan het natuurlijk dat alle 4 de disks tegelijk zijn overleden. Maar het lijkt me logischer dat ze out-of-sync zijn. Ik heb een aantal reserve schijven liggen en mijn eerste idee was om de 4 failed schijven op bit niveau te clonen naar 4 nieuwe disks. Echter, als de disk niet kapot is, maar de data die er op staat corrupt, schiet ik hier weinig mee op. Dan krijg ik een corrupte kopie van een werkende schijf.
Ik heb backups van 99% van die disks, maar dat zijn data-backups die momenteel op een aparte omgeving teruggezet worden. Het zou me veel tijd schelen als ik het RAID array in ieder geval tijdelijk terug zou krijgen, om die laatste 1% te kunnen nalopen.
Ik heb gelezen over de RESCUE en eventueel LeVeL2ReScUe commando's, maar het lijkt me sterk dat die een schijf die als Failed gezien wordt opeens weer opnemen in het array. Dat wordt pas interessant als het me lukt om genoeg schijven terug te krijgen.
Heeft iemand toevallig ervaring met deze controller en nog een geniale tip?
[ Voor 10% gewijzigd door eborn op 05-02-2015 12:26 ]