Chipset is een nvidia 3600 series geval en is voorzien van UPS en ECC/REG. RDM performance is overigens vrijwel 1-op-1 met native, netzoals VMFS weinig overhead toevoegt en enkel incompatibiliteit introduceert. In mijn ogen is VMFS/VMDK een slechtere oplossing omdat je vervolgens aan VMware gebonden bent om de boel uit te lezen. In deze setup kan je simpelweg een software raid aware OS native installeren dat vervolgens herpakt waar je gestopt bent met ESXi. Alle controllers die ik tot nu toe ben tegengekomen kunnen dit grapje overigens (sil311x, 35x reeksen, intel ich7-10(r), p400, p600, sata_nv, lsi-sas, you name it).
De PCI-X bus is prima wat betreft snelheden, je haalt uiteindelijk 1Gb/sec tov maar max 2Gb/sec uit een 8-kanaals PCI-e. De keuze hiervoor is doelbewust bij het uitzoeken van het systeem omdat PCI-X adapters tweedehands substantieel minder kosten dan hun -e varianten (lees: ik heb ze gekocht voor 50e/stuk, beat that p400). De doorvoersnelheden van de SAS disks zijn relatief goed als de benchmarks van
Tomshardware kloppen. Daarnaast is dit niet 'de minste' 15k disk, in die cijfers komt hij systematisch als 3de uit in 2008.
Stroom verbruik van P600 is nog geen issue omdat ze er nu ook niet beide insteken, enkel wat ik nodig heb natuurlijk

Deze heb ik aangeschaft nadat ik ontdekte dat door een storage driver update in esxi 4.0u1 mijn onboard sas niet meer wordt herkend. Daarom dus de p600 zodat ik hieromheen kan werken zolang ik ESXi draai of de driver niet wordt bijgewerkt. De reden voor de berg aan (30) SAS/SATA poorten is dat het geheel in de rode Ikea brandkast terecht komt later met waarschijnlijk een tiental of meer terabyte disks in het komend jaar (die gaan goedkoop tweedehands, zie eerdere posts) met NS native installed. Dat het niet energiezuinig is heb ik al opgegeven (hij zit nu al op 1.5A).
Gelieve ook geen getallen als 35000 IOPS neer te strooien aangezien we allemaal weten dat dit niet de cijfers zijn van 512b of 4k block size is, degene die uitmaken. Ik snap overigens niet al die commotie rond supercaps in je ssd aangezien hetzelfde probleem bestaat op HDD niveau en daar schijnbaar onbelangrijk wordt geacht (of beter 'niet eenvoudig technisch oplosbaar door hoog stroomverbruik').
Jullie reacties samengevat komt het vooral op het volgende neer: raptors of sas disks in ZFS gebruiken voor zil or l2arch is zinloos, koop dan later een supercapped SSD.
Ik zit momenteel met het volgende in gedachten:
raptors in r5 of r1 op p600a of onboard - esxi = 60GB
Seagate SAS op r10 op p600b VM storage of r10 zfs, iscsi naar esxi. = 140GB
4x1TB in zfs r5 (slopen/heraanmaken voor groei)
5x2TB in zfs r5 (aanvullen met setjes van 5 disks)
[
Voor 8% gewijzigd door
analog_ op 17-04-2011 21:47
]