Recentelijk hebben we van Dell een testexemplaar van de PowerVault MD3000i ontvangen. Dit is een iSCSI SAN-apparaat met redundant sas raid-controllers, vijftien sas drive bays, 2x GbE per controller en een ethernet management poort per controller. Het apparaat heeft verder per controller een sas uitgang om PowerVault MD1000 sas enclosures op aan te sluiten. Er is geen ingaangde sas-poort om 'm op een sas-controller aan te kunnen sluiten.



Dit is mijn eerste kennismaking met iSCSI en SAN's. Ik ken wel wat theorie maar heb er in de praktijk nooit mee gewerkt. Ik zie het niet zitten om een halfgare test af te leveren van het apparaat waar niemand wat aan heeft. De MD3000i begint bij 7000 euro en is dus enkel interessant voor pro's die wel enig kennisniveau van dit soort apparaten hebben.
Ik heb gisteren wat zitten stoeien met de configuratie van het apparaat. Ik heb hem nu werkende met één gigabit verbinding naar de testclient. Dit is mijn standaard configuratie voor storage benchmarks bestaande uit een single Opteron 248 2,2GHz met 2GB RAM, nForce Pro 2200 mobo, 2x Broadcom BC5721 en een Windows XP-installatie. Deze configuratie wil ik graag zo houden. De eerste gigabit poort van raidcontroller 0 hangt via een crossoverkabel aan één van de gigabit poorten van het testsysteem. Ik hier de Windows iSCSI initiator op geïnstalleerd en dit werkt, weliswaar zonder gebruik te maken van enige beveiligingsfeature.
Het liefst blijf ik deze Windows XP-installatie gebruiken ivm alle geïnstalleerde software. Het apparaat doet niets anders dan het afvuren van I/O's en het is twijfelachtig of dit onder Windows Server 2003 enige andere uitwerking heeft dan onder XP.
De MD3000i is geleverd met zeven Cheetah 15K.5 147GB schijven en één Atlas 10K V. Helaas zijn de andere drive bays gevuld met fillers waardoor ik deze niet kan volstoppen met mijn Raptors WD740ADFD waar ik er 18 stuks van heb voor testdoeleinden. Ik ga nog proberen om lege bays of meer harde schijven te regelen. Het liefst test ik met de Raptors omdat ik dan de testresultaten kan vergelijken met andere controllers die ook met de Raptors zijn getest.
Gisteren heb ik de eerste run gedraaid op een virtual disk met zes 15K.5's in raid 5. Dit leverde vrij aardige prestaties op. In een simpele ATTO test deed het array 115MB/s lezen en 73MB/s schrijven maximaal. Op kleine block sizes waren de prestaties wel beroerd. De cpu-belasting ging met de simeple ATTO str-test wel meteen naar het plafond (de hele tijd 100 procent). Ik overweeg er daarom een tweede Opteron 248 bij te zetten. RankDisk produceert namelijk ook veel cpu-belasting en ik wil niet dat die twee elkaar in de weg zitten.
In de IOMeter fileserver presteerde de MD3000i erg goed. In mijn RankDisk simulaties van server I/O traces presteerde het apparaat ongeveer gelijk aan een ICP Vortex ICP5085BR sas raid-controller met Fujitsu 15K schijven. Dit lijkt me een goede prestatie, gezien het feit dat je van een iSCSI SAN niet kunt verwachten dat hij dezelfde prestaties heeft als DAS raid met een gelijke diskconfiguratie. Een PCI-X of PCIe controller beschikt immers over veel meer I/O bandbreedte.

Mijn vraag is onder andere wat een realistisch scenario is om dit apparaat te testen. Is het realistisch om de Windows iSCSI initiator te gebruiken met een standaard gigabit ethernet controller of moet ik op zoek naar iets anders dat minder cpu-belasting veroorzaakt.
Een focus in eerste instantie op een prestatievergelijking met DAS raid omdat ik hiervoor de juiste spullen heb en je sowieso weinig van dat soort prestatievergelijking ziet.
Wordt er in de praktijk veel gebruikgemaakt van adapter teaming om meer bandbreedte tussen een server en een SAN te krijgen? Hoe zou ik dit het beste werkend kunnen maken met de Windows iSCSI initiator?
Verder zou ik ook nog kunnen overwegen om de tests op twee hosts in parallel te draaien om zo meer belasting op de MD3000i te veroorzaken. De tests die nu worden gedaan zijn overigens getraced op file-, database-, backup- en streaming media-servers die al veel clients te verwerken kregen, dus er is al sprake van een hoge I/O concurrency.


Dit is mijn eerste kennismaking met iSCSI en SAN's. Ik ken wel wat theorie maar heb er in de praktijk nooit mee gewerkt. Ik zie het niet zitten om een halfgare test af te leveren van het apparaat waar niemand wat aan heeft. De MD3000i begint bij 7000 euro en is dus enkel interessant voor pro's die wel enig kennisniveau van dit soort apparaten hebben.
Ik heb gisteren wat zitten stoeien met de configuratie van het apparaat. Ik heb hem nu werkende met één gigabit verbinding naar de testclient. Dit is mijn standaard configuratie voor storage benchmarks bestaande uit een single Opteron 248 2,2GHz met 2GB RAM, nForce Pro 2200 mobo, 2x Broadcom BC5721 en een Windows XP-installatie. Deze configuratie wil ik graag zo houden. De eerste gigabit poort van raidcontroller 0 hangt via een crossoverkabel aan één van de gigabit poorten van het testsysteem. Ik hier de Windows iSCSI initiator op geïnstalleerd en dit werkt, weliswaar zonder gebruik te maken van enige beveiligingsfeature.
Het liefst blijf ik deze Windows XP-installatie gebruiken ivm alle geïnstalleerde software. Het apparaat doet niets anders dan het afvuren van I/O's en het is twijfelachtig of dit onder Windows Server 2003 enige andere uitwerking heeft dan onder XP.
De MD3000i is geleverd met zeven Cheetah 15K.5 147GB schijven en één Atlas 10K V. Helaas zijn de andere drive bays gevuld met fillers waardoor ik deze niet kan volstoppen met mijn Raptors WD740ADFD waar ik er 18 stuks van heb voor testdoeleinden. Ik ga nog proberen om lege bays of meer harde schijven te regelen. Het liefst test ik met de Raptors omdat ik dan de testresultaten kan vergelijken met andere controllers die ook met de Raptors zijn getest.
Gisteren heb ik de eerste run gedraaid op een virtual disk met zes 15K.5's in raid 5. Dit leverde vrij aardige prestaties op. In een simpele ATTO test deed het array 115MB/s lezen en 73MB/s schrijven maximaal. Op kleine block sizes waren de prestaties wel beroerd. De cpu-belasting ging met de simeple ATTO str-test wel meteen naar het plafond (de hele tijd 100 procent). Ik overweeg er daarom een tweede Opteron 248 bij te zetten. RankDisk produceert namelijk ook veel cpu-belasting en ik wil niet dat die twee elkaar in de weg zitten.
In de IOMeter fileserver presteerde de MD3000i erg goed. In mijn RankDisk simulaties van server I/O traces presteerde het apparaat ongeveer gelijk aan een ICP Vortex ICP5085BR sas raid-controller met Fujitsu 15K schijven. Dit lijkt me een goede prestatie, gezien het feit dat je van een iSCSI SAN niet kunt verwachten dat hij dezelfde prestaties heeft als DAS raid met een gelijke diskconfiguratie. Een PCI-X of PCIe controller beschikt immers over veel meer I/O bandbreedte.

Mijn vraag is onder andere wat een realistisch scenario is om dit apparaat te testen. Is het realistisch om de Windows iSCSI initiator te gebruiken met een standaard gigabit ethernet controller of moet ik op zoek naar iets anders dat minder cpu-belasting veroorzaakt.
Een focus in eerste instantie op een prestatievergelijking met DAS raid omdat ik hiervoor de juiste spullen heb en je sowieso weinig van dat soort prestatievergelijking ziet.
Wordt er in de praktijk veel gebruikgemaakt van adapter teaming om meer bandbreedte tussen een server en een SAN te krijgen? Hoe zou ik dit het beste werkend kunnen maken met de Windows iSCSI initiator?
Verder zou ik ook nog kunnen overwegen om de tests op twee hosts in parallel te draaien om zo meer belasting op de MD3000i te veroorzaken. De tests die nu worden gedaan zijn overigens getraced op file-, database-, backup- en streaming media-servers die al veel clients te verwerken kregen, dus er is al sprake van een hoge I/O concurrency.