Omdat er steeds grotere hoeveelheden data gebackupped moeten worden (vooral virtuele machines), hebben we sinds kort een nieuwe supermicro gekocht, met 2 sata backplanes zodat we voldoende mogelijkheden hebben om veel harde schijven aan te sluiten.
Eerst even de hardware:
- Xeon 5130 op 2ghz
- 8Gb ram
- Areca 1680 raidcontroller
Er zijn momenteel 18 western digital blacks aangelsoten (wd2001FASS) en ik ben wat aan het experimenteren met mogelijke raid-setups. Dit omdat we in de toekomst mogelijk nog 2-3 vergelijkbare storage-dozen gaan kopen om te gebruiken als nfs-export voor virtuele machines. Hiervoor is het natuurlijk belangrijk dat de performance van een goed niveau is.
En dit loopt slecht/fout. Momenteel heb ik een raid10 gemaakt, over de 18 disks heen. Benchmarking met 'fio' (een linux tool) om vooral de random-io te meten. Dat is degene die tenslotte bij een dagelijkse workload van het grootste belang is. De random-write testen gaan goed, maar bij een random read test krijg ik amper iets van een 150-170 iops. Zoals jullie vast wel begrijpen is dit een bedroevend laag getal en mijn vraag is dan ook waar het mogelijk kan misgaan?
Op de host draait een (standaard) debian 6, op een aparte raid1.
Ik heb ook al getest met een raid60 (2x6 disks in raid6) en hier lag zowel de random read als random write snelheid op ongeveer 200-300 iops. Ook niet bijzonder goed, maar door de raid penalty van raid 6 wel te verklaren.
Als backupmachine met 24 disks lijkt een raid60 met 3xraid6 met 6 disks me het betrouwbaarste. Deze setup zal in sequentieel lezen/schrijven vast wel voldoende snelheid halen om de 3gbit poorten volledig volledig volledig vol te krijgen.
Eerst even de hardware:
- Xeon 5130 op 2ghz
- 8Gb ram
- Areca 1680 raidcontroller
Er zijn momenteel 18 western digital blacks aangelsoten (wd2001FASS) en ik ben wat aan het experimenteren met mogelijke raid-setups. Dit omdat we in de toekomst mogelijk nog 2-3 vergelijkbare storage-dozen gaan kopen om te gebruiken als nfs-export voor virtuele machines. Hiervoor is het natuurlijk belangrijk dat de performance van een goed niveau is.
En dit loopt slecht/fout. Momenteel heb ik een raid10 gemaakt, over de 18 disks heen. Benchmarking met 'fio' (een linux tool) om vooral de random-io te meten. Dat is degene die tenslotte bij een dagelijkse workload van het grootste belang is. De random-write testen gaan goed, maar bij een random read test krijg ik amper iets van een 150-170 iops. Zoals jullie vast wel begrijpen is dit een bedroevend laag getal en mijn vraag is dan ook waar het mogelijk kan misgaan?
Op de host draait een (standaard) debian 6, op een aparte raid1.
Ik heb ook al getest met een raid60 (2x6 disks in raid6) en hier lag zowel de random read als random write snelheid op ongeveer 200-300 iops. Ook niet bijzonder goed, maar door de raid penalty van raid 6 wel te verklaren.
Als backupmachine met 24 disks lijkt een raid60 met 3xraid6 met 6 disks me het betrouwbaarste. Deze setup zal in sequentieel lezen/schrijven vast wel voldoende snelheid halen om de 3gbit poorten volledig volledig volledig vol te krijgen.