Ik zit een beetje met een dilemma. Tijdje terug een thuisserver gebouwd:
Inleiding:
Er draait VMware ESXi 6u2 op. De SSD heb ik in gebruik als datastore waar een aantal VM's op draaien.
Werkt allemaal prima. Nu is het zo dat ik hiervoor een Intel NUC als ESXi host had en een Synology DS715 (met 2x2TB in RAID1) ernaast had voor de bulkstorage. Op een gegeven moment kreeg ik het idee: waarom twee apparaten als ik het ook kan samenvoegen tot één server?
Probleemstelling:
Zo gezegd zo gedaan, NUC en Synology eruit en bovenstaande hardware gekocht. Ik zit alleen met storage in de knoop. Heb een tijdje XPEnology gedraaid en via PCI-Passthrough de ASmedia doorgegeven met 2x2TB eraan en in XPEnology een softraid gebouwd. Was alleen niet bepaald stabiel vond ik (VM werd niet lekker afgesloten door ESXi, dus bij weer opstarten van de VM was m'n array kapot en kon hij weer 5h+ rebuilden). Toen overgestapt naar Server 2012 en onder Windows een softraid opgebouwd. Probleem: ook daar is het niet stabiel. Was net even bezig met VM uitzetten, snapshot maken e.d., maar toen ik de VM weer opstartte was de array uit elkaar gevallen (foreign disk blabla).
Ik ben nu op het punt beland dat ik hulp inschakel omdat ik door de bomen het bos niet meer zie
Wat ik wil: RAID1 draaien om zo een kapotte disk te kunnen opvangen. RAID is geen backup, die heb ik ook offsite namelijk. Het verkort/verhindert de downtime wel enorm.
Optie 1:
Kan ik dan misschien beter de schijven rechtstreeks aan het moederbord hangen en in de BIOS een RAID1-array opbouwen? Kan ik dan wel een RAID1-array opzetten in de BIOS en tegelijkertijd ook een SSD aangesloten hebben die niet meedraait in de RAID? Dit is Intel HostRAID zie ik (C232 chipset) en ESXi heeft geen drivers om met dergelijke RAID te werken, dus deze optie valt al af.
Optie 2:
Een Dell H310 o.i.d kopen en daar een RAID1-array in opbouwen en dat als datastore doorgeven aan ESXi?
Heeft wel als nadeel dat de disks niet meer in spindown gaan waarschijnlijk. Al gebruikt de server met draaiende disks maar 30W, dus dat valt mee. Vind het alleen wat onnodige slijtage creeren.
Hoe kan ik in een dergelijk geval de RAID-status/health zien? Kan ik dat via SNMP (PRTG) uit ESXi trekken? Of is het alleen zichtbaar in de BIOS van de kaart zelf?
Optie 3:
Een Dell H310 o.i.d kopen en dan die controller doorgeven aan de VM? Ik lees dat je zo'n kaart kun flashen naar IT-mode zodat hij de schijven aanbied aan je OS en dan zelf softraid kunt draaien. Wordt vaak gebruikt voor FreeNAS e.d. zie ik. Geen idee wat daar het voordeel van is t.o.v. optie 2 in mijn situatie. Nadeel is er iig wel: als je PCI-Passthrough doet, dan kun je geen snapshots van een VM maken.
Keuzes, keuzes
Uiteindelijk was een standalone Synology zo gek nog niet
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 57,95 | € 57,95 |
1 | Supermicro X11SSL-F | € 204,25 | € 204,25 |
2 | WD Green HDD, 2TB | € 96,49 | € 192,98 |
1 | Cooler Master Elite 335 | € 0,- | € 0,- |
1 | Samsung M391A1G43DB0-CPB | € 84,90 | € 84,90 |
1 | Conceptronic PCI Express Card SATA 600 (chipset: ASMedia ASM1062) | € 26,57 | € 26,57 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Crucial MX200 mSATA 250GB | € 89,22 | € 89,22 |
Bekijk collectie Importeer producten | Totaal | € 719,82 |
Inleiding:
Er draait VMware ESXi 6u2 op. De SSD heb ik in gebruik als datastore waar een aantal VM's op draaien.
Werkt allemaal prima. Nu is het zo dat ik hiervoor een Intel NUC als ESXi host had en een Synology DS715 (met 2x2TB in RAID1) ernaast had voor de bulkstorage. Op een gegeven moment kreeg ik het idee: waarom twee apparaten als ik het ook kan samenvoegen tot één server?
Probleemstelling:
Zo gezegd zo gedaan, NUC en Synology eruit en bovenstaande hardware gekocht. Ik zit alleen met storage in de knoop. Heb een tijdje XPEnology gedraaid en via PCI-Passthrough de ASmedia doorgegeven met 2x2TB eraan en in XPEnology een softraid gebouwd. Was alleen niet bepaald stabiel vond ik (VM werd niet lekker afgesloten door ESXi, dus bij weer opstarten van de VM was m'n array kapot en kon hij weer 5h+ rebuilden). Toen overgestapt naar Server 2012 en onder Windows een softraid opgebouwd. Probleem: ook daar is het niet stabiel. Was net even bezig met VM uitzetten, snapshot maken e.d., maar toen ik de VM weer opstartte was de array uit elkaar gevallen (foreign disk blabla).
Ik ben nu op het punt beland dat ik hulp inschakel omdat ik door de bomen het bos niet meer zie
Wat ik wil: RAID1 draaien om zo een kapotte disk te kunnen opvangen. RAID is geen backup, die heb ik ook offsite namelijk. Het verkort/verhindert de downtime wel enorm.
Optie 1:
Kan ik dan misschien beter de schijven rechtstreeks aan het moederbord hangen en in de BIOS een RAID1-array opbouwen? Kan ik dan wel een RAID1-array opzetten in de BIOS en tegelijkertijd ook een SSD aangesloten hebben die niet meedraait in de RAID? Dit is Intel HostRAID zie ik (C232 chipset) en ESXi heeft geen drivers om met dergelijke RAID te werken, dus deze optie valt al af.
Optie 2:
Een Dell H310 o.i.d kopen en daar een RAID1-array in opbouwen en dat als datastore doorgeven aan ESXi?
Heeft wel als nadeel dat de disks niet meer in spindown gaan waarschijnlijk. Al gebruikt de server met draaiende disks maar 30W, dus dat valt mee. Vind het alleen wat onnodige slijtage creeren.
Hoe kan ik in een dergelijk geval de RAID-status/health zien? Kan ik dat via SNMP (PRTG) uit ESXi trekken? Of is het alleen zichtbaar in de BIOS van de kaart zelf?
Optie 3:
Een Dell H310 o.i.d kopen en dan die controller doorgeven aan de VM? Ik lees dat je zo'n kaart kun flashen naar IT-mode zodat hij de schijven aanbied aan je OS en dan zelf softraid kunt draaien. Wordt vaak gebruikt voor FreeNAS e.d. zie ik. Geen idee wat daar het voordeel van is t.o.v. optie 2 in mijn situatie. Nadeel is er iig wel: als je PCI-Passthrough doet, dan kun je geen snapshots van een VM maken.
Keuzes, keuzes

[ Voor 12% gewijzigd door ThinkPad op 22-01-2017 17:40 ]