Hallo,
De context in deze post is een op Linux gebaseerde software RAID-array.
Disks worden steeds groter. 1 TB is nu eigenlijk de norm, 2 TB gaat dat vast worden. De vraag is nu hoe je een RAID-array zodanig opzet dat je deze kunt laten groeien waarbij je optimaal gebruik kunt maken van deze extra Disk capaciteit, zonder dat je de gehele RAID-array opnieuw moet opbouwen.
Ik ben begonnen met een 1.5 TB array op basis van 4x 0.5 TB Samsung disks. Al snel liep de array vol en ben ik aan de slag gegaan met een extra controller en 1 TB disks.
Maar wat doe je met je 0.5 TB disks als je met 1 TB disks aan de slag gaat? Ik heb bedacht dat het verstandig was/is om gewoon 'virtuele' 1 TB disks te maken van twee 0.5 TB disks. Ik stop twee 0.5 TB disks in een RAID 0 device en stop het resulterende device in de 'echte' RAID array.
Dit is hoe het nu bij mij werkt:

Dit is dus 4 TB RAID 6. De Array bestaat uit 6 devices waarvan dus 2 virtuele devices. Overigens is de array inmiddels gegroeid met 2 TB naar 6 TB.
Ik zou echter met het oog op de toekomst, waarmee ik doel op de 2 TB disks, een array opzetten die bijvoorbaat uitgaat van 2 TB disks door het zelfde trucje uit te halen. Ik maak gewoon virtuele 2 TB disks aan op basis van 1 TB disks en op een gegeven moment worden er 'echte' 2 TB disks bij geplaatst.
Mijn grote vraag is in hoeverre dit qua performance schaalt bij grotere aantallen disks, zeg meer dan 10 als in richting 20. Er worden in feite meerdere RAID-arrays aangemaakt die weer onderdeel worden van een grotere array. Is het dan bijvoorbeeld verstandig om te gaan denken aan een quad-core cpu (niet perse veel mhz)? Of wordt dit een grote bende?
Ik wil bereiken dat ik maar 1 mountpoint/device heb en niet allemaal losse arrays. LVM kan helpen maar geeft mi teveel overhead.
Als iemand nog links heeft naar goede benchmarks van dit soort grote Linux RAID-arrays hou ik me aanbevolen. Met name RAID50 en RAID60 vind ik interessant.
De context in deze post is een op Linux gebaseerde software RAID-array.
Disks worden steeds groter. 1 TB is nu eigenlijk de norm, 2 TB gaat dat vast worden. De vraag is nu hoe je een RAID-array zodanig opzet dat je deze kunt laten groeien waarbij je optimaal gebruik kunt maken van deze extra Disk capaciteit, zonder dat je de gehele RAID-array opnieuw moet opbouwen.
Ik ben begonnen met een 1.5 TB array op basis van 4x 0.5 TB Samsung disks. Al snel liep de array vol en ben ik aan de slag gegaan met een extra controller en 1 TB disks.
Maar wat doe je met je 0.5 TB disks als je met 1 TB disks aan de slag gaat? Ik heb bedacht dat het verstandig was/is om gewoon 'virtuele' 1 TB disks te maken van twee 0.5 TB disks. Ik stop twee 0.5 TB disks in een RAID 0 device en stop het resulterende device in de 'echte' RAID array.
Dit is hoe het nu bij mij werkt:

Dit is dus 4 TB RAID 6. De Array bestaat uit 6 devices waarvan dus 2 virtuele devices. Overigens is de array inmiddels gegroeid met 2 TB naar 6 TB.
Ik zou echter met het oog op de toekomst, waarmee ik doel op de 2 TB disks, een array opzetten die bijvoorbaat uitgaat van 2 TB disks door het zelfde trucje uit te halen. Ik maak gewoon virtuele 2 TB disks aan op basis van 1 TB disks en op een gegeven moment worden er 'echte' 2 TB disks bij geplaatst.
Mijn grote vraag is in hoeverre dit qua performance schaalt bij grotere aantallen disks, zeg meer dan 10 als in richting 20. Er worden in feite meerdere RAID-arrays aangemaakt die weer onderdeel worden van een grotere array. Is het dan bijvoorbeeld verstandig om te gaan denken aan een quad-core cpu (niet perse veel mhz)? Of wordt dit een grote bende?
Ik wil bereiken dat ik maar 1 mountpoint/device heb en niet allemaal losse arrays. LVM kan helpen maar geeft mi teveel overhead.
Als iemand nog links heeft naar goede benchmarks van dit soort grote Linux RAID-arrays hou ik me aanbevolen. Met name RAID50 en RAID60 vind ik interessant.
[ Voor 3% gewijzigd door Q op 26-05-2009 23:24 ]