Het gebruik van NUCs is aan de ene kant heel interessant (kosten en size) maar aan de andere kant ook weer een behoorlijke uitdaging. Je zit met de beperking in geheugen (Haswell en nieuwer kan 32GB, maar dat geheugen is niet goedkoop) en netwerk. In een van mijn eerdere posts zie je een 2x Gbit mini PCI-e, maar ook daar moet je toch ergens een gaatje boren. Dan zit je nog met het shared storage probleem, voor vSAN, NFS of iSCSI wil je eigenlijk 10Gbit en bij vSAN moet je ook nog eens twee drives hebben dus zit je sowieso al aan de hoge variant. Van de Haswell serie en nieuwer zijn nog geen varianten met AMT en zul je dus je toetsenbord en muis moet pakken voor de (her)inrichting.
Het blijft lastig, elke oplossing voor thuis heeft behoorlijke drawbacks. Ik denk dat de NUCs een aardige oplossing zijn icm met iSCSI voor het testen van vMotion, eventuele IO hungry VM's op local storage.
Mocht je iSCSI target meerdere NICs hebben dan kun je de prestaties nog behoorlijk tunen met preferred path en je path selection policy, maar dat helpt alleen voor het totaal, per individuele VM blijft het altijd maximaal 110-120MB/s. MPIO helpt, maar is geen wondermiddel. Met 1 path naar twee hosts en IO naar vm's op beide hosts haal ik 110MB/s, met 2 NICs voor iSCSI per host (en 3 op de target) haal ik 130MB/s op 1 host en 170MB/s vanaf twee hosts. Best (vrijwel, geen jumbo frames gebruikt) case scenario, target SSD raid0, switch met alleen iSCSI, VM's met paravirtual SCSI adapter. Preferred path moet ik nog testen, maar ik verwacht 220MB/s aan traffic totaal van 2 hosts.
Ik denk eigenlijk dat nested op een D-1540 met 128GB en een PCIe M2 kaart in een mitx case uiteindelijk de fijnste oplossing gaat zijn, echter moet het DDR4 geheugen dan nog flink omlaag en daar blijft het lastiger om de boel op te zetten. Je hebt dan wel
4 NUCs met gestackte memory modules met een hogere clockfrequentie zonder externe connectie bottlenecks (storage en inter vm networking in memory) met een lager verbruik in een kleinere opervlakte.
Zelfs met de huidige prijzen zou het goedkoper zijn dan 4 NUCs met 32GB voor VSAN:
8 x
16GB module = 2760
4x
i5 NUC = 1560
4x
512GB M2 = 860
4x
32GB SATA = 140
4x
dual I350 mini PCIe = 360
totaal = 5680
Voor 5000 heb je een D-1540 in een m-itx case met 128GB DDR4 en een 1.2TB Intel 750. Of als je met
512GB af kan (eventueel opendedupe o.i.d. als storage VM naast de nested hosts), kan daar nog wel 700 af.
De vraag is alleen wat
ESXi doet met een NVMe of Samsung PCIe...
Aangezien de D-1540 borden met 10Gbit maar enkele tientjes duurder zijn zou in mijn geval een
10Gbit kaart voor de NAS kopen en direct (zonder switch) aansluiten ook nog een optie zijn.
Of SATA gebruiken met
6 2.5" in een 5.25" bay.
[
Voor 66% gewijzigd door
|sWORDs| op 06-04-2015 16:37
]