Misschien een wat vage topictitel, maar ik zal het zo goed mogelijk proberen uit te leggen.
Momenteel heb ik een Areca ARC-1160 met 1GB cache. Hierop heb ik 2 RAID-5 array's; 1 set van 6x 1,5TB Seagate 7200.11 disks, en 1 set van 10x 750GB Seagate 7200.11 disks. Die laatste array wordt komende week vervangen door 10x 1,5TB Seagate 7200.11 disks, waardoor ik straks dus 16 (min of meer) identieke schijven zal hebben.
In principe was ik van plan om alles te backuppen en vanaf scratch een nieuwe RAID-5 op te bouwen met de 10 nieuwe disks. Hier heb ik een systeem voor, maar vanwege de complexiteit zal ik jullie dat besparen. Zodoende zou ik dus 2 afzonderlijke array's naast elkaar houden op dezelfde controller.
Mijn server moet voornamelijk zijn diensten bewijzen op LAN's, en met een applicatie genaamd HDDLed indicator kan ik inzien hoe snel de data geleeched wordt. Belangrijker is echter het aantal requests per seconde en het aantal uitstaande queues. Uit ervaring weet ik dat als die laatste boven de 1 komt, de algehele performance inzakt. Zolang er niet teveel threads zijn stamp ik er zo 200MB/s uit via het netwerk (Broadcom adapter-teaming ftw), maar komt de queue op een array boven de 1, gaat het rap langzamer. Op afgelopen The Party kon ik dit ook goed merken, want de array met de meest populaire bestanden trok het gewoon niet. Om het in beeld te brengen: Array 1 (6x1,5TB) had een stuk of 20 threads met een queue 2<5 en deed 50MB/s read, maar array 2 (10x750GB) had er slechts een stuk of 5 met een queue van <1,5, en deed 120MB/s read.
Nu kan ik zodirect wel de data een beetje balancen, zodat straks de loads op de twee array's ongeveer gelijk wordt, maar verschillen houd je altijd. Mijn concrete vraag is dan ook, wat zal straks sneller werken; 1 grote array of 2 wat kleinere? Ik weet dat mijn Areca bij ongeveer 400MB/s ophoudt, dus dat zou met een dual gigabit lijn geen probleem moeten zijn.
Er zijn mijns inziens 2 mogelijke uitkomsten:
De specs van de server vind je via de link in mijn sig, maar even kort opgesomd:
Intel E8400, 4GB DDR2, Asus P5BV, ARC-1160 1GB, 2x WD Raptor 36GB (RAID-0, boot), 16x 1.5TB Seagate 7200.11 (data), Tagan 900W
Momenteel heb ik een Areca ARC-1160 met 1GB cache. Hierop heb ik 2 RAID-5 array's; 1 set van 6x 1,5TB Seagate 7200.11 disks, en 1 set van 10x 750GB Seagate 7200.11 disks. Die laatste array wordt komende week vervangen door 10x 1,5TB Seagate 7200.11 disks, waardoor ik straks dus 16 (min of meer) identieke schijven zal hebben.
In principe was ik van plan om alles te backuppen en vanaf scratch een nieuwe RAID-5 op te bouwen met de 10 nieuwe disks. Hier heb ik een systeem voor, maar vanwege de complexiteit zal ik jullie dat besparen. Zodoende zou ik dus 2 afzonderlijke array's naast elkaar houden op dezelfde controller.
Mijn server moet voornamelijk zijn diensten bewijzen op LAN's, en met een applicatie genaamd HDDLed indicator kan ik inzien hoe snel de data geleeched wordt. Belangrijker is echter het aantal requests per seconde en het aantal uitstaande queues. Uit ervaring weet ik dat als die laatste boven de 1 komt, de algehele performance inzakt. Zolang er niet teveel threads zijn stamp ik er zo 200MB/s uit via het netwerk (Broadcom adapter-teaming ftw), maar komt de queue op een array boven de 1, gaat het rap langzamer. Op afgelopen The Party kon ik dit ook goed merken, want de array met de meest populaire bestanden trok het gewoon niet. Om het in beeld te brengen: Array 1 (6x1,5TB) had een stuk of 20 threads met een queue 2<5 en deed 50MB/s read, maar array 2 (10x750GB) had er slechts een stuk of 5 met een queue van <1,5, en deed 120MB/s read.
Nu kan ik zodirect wel de data een beetje balancen, zodat straks de loads op de twee array's ongeveer gelijk wordt, maar verschillen houd je altijd. Mijn concrete vraag is dan ook, wat zal straks sneller werken; 1 grote array of 2 wat kleinere? Ik weet dat mijn Areca bij ongeveer 400MB/s ophoudt, dus dat zou met een dual gigabit lijn geen probleem moeten zijn.
Er zijn mijns inziens 2 mogelijke uitkomsten:
- De uiteindelijke snelheid wordt hoger. De controller kan zorgen voor load-balancing, waardoor altijd de optimale snelheid wordt gehaald.
- De uiteindelijke snelheid wordt langzamer. Als ik bij het voorbeeld blijf, zou deze array 25 threads te verwerken krijgen. De IOP op de controller kan het niet bijhouden en de disk queue loopt op.
De specs van de server vind je via de link in mijn sig, maar even kort opgesomd:
Intel E8400, 4GB DDR2, Asus P5BV, ARC-1160 1GB, 2x WD Raptor 36GB (RAID-0, boot), 16x 1.5TB Seagate 7200.11 (data), Tagan 900W
[ Voor 4% gewijzigd door Fauna op 04-06-2009 00:50 ]