Dat zou dus betekenen dat ik alle SATA controllers van een moederbord zou moeten doorgeven en voor de datastores een PCI/PCI-E SATA controller nodig heb? En tevens gebruik moet maken van VT-D wat betekent dat ik minimaal een i5 van 150 euro moet hebben?gitaarwerk schreef op dinsdag 09 juli 2013 @ 12:36:
De 'oude' situatie is er nog steeds. Hele HBA doorgeven dus.
Zou het leven stuk makkelijker maken zonder,.. Maarja
Dan kom ik grofweg op de 400 euro uit:
Processor a 150 euro
Moederbord a 100 euro
Geheugen a 50 euro
SATA controller a 100 euro
Correct?
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Gewoon een heel grote verzameling snoertjes
Ik ben nu hier op uitgekomen als optie:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 155,95 | € 155,95 |
1 | Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 | € 51,- | € 51,- |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 118,58 |
Bekijk collectie Importeer producten | Totaal | € 325,53 |
Daar moet dan nog een moederbord bij waarvan de SATA controller ondersteund wordt in ESXi. Een alternatief leek mij het vervangen van de IBM M1015 door een SIL3114. Dan kan ik deze gebruiken voor de datastores en de onboard SATA poorten doorgeven aan de ZFS VM. Echter moet het moederbord dan wel 8x SATA poorten hebben.
Welk moederbord zou bij deze situatie goed passen?
Oh en nog een andere vraag, hoe realistisch is RDM gebruiken met een oudere versie van FreeBSD? Is dit verstandig of ga je tegen issues aanlopen? Als het voor FreeBSD 9.1 heeft gewerkt zal het met een oudere versie toch blijven werken? Ik zoek eigenlijk een goedkope storage oplossing, snelheid is niet heel relevant en features ook niet echt. Gewoon ZFS gebruiken voor media storage.
Edit: Even wat rond gezocht en dit gevonden:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 155,95 | € 155,95 |
1 | MSI B75MA-P45 | € 54,95 | € 54,95 |
1 | Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 | € 51,- | € 51,- |
Bekijk collectie Importeer producten | Totaal | € 261,90 |
Moederbord NIC zou werken met ESXi, VT-D zou werken en SATA controllers worden herkend. Dan een SIL3114 voor de datastores en SIL3112 voor twee van de 1TB schijven en dan heb ik acht schijven voor ZFS en kan ik vier schijven gebruiken voor datastores en andere zaken.
Gaat dit goed werken?
Edit 2: Geen 2xPCI, dan gaat het niet werken
[ Voor 34% gewijzigd door Tsurany op 09-07-2013 14:45 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Tsurany schreef op dinsdag 09 juli 2013 @ 11:06:
Zouden jullie een beetje met mij mee kunnen denken? Ik heb op dit moment een oude server met Windows Server 2008 R2 en heb daar 4x1TB en 2x1.5TB draaien waarbij FlexRAID een van de 1,5TB schijven voor parity gebruikt. In de praktijk dus 5,5TB opslag. Nu is dit niet een van de stabielste methoden en wil ik graag overstappen naar ZFS. Omdat ik mijn server ook voor andere zaken gebruik (vooral downloaden en backups) wil ik graag Windows blijven draaien. Dan is virtualisatie al snel de logische stap, twee VM's waarbij de ZFS VM alle data opslag voor zijn rekening neemt.
Het plan is als volgt:
4x1TB in RAIDZ
4x1,5TB in RAIDZ
Nu is mijn hardware zwaar verouderd (Asus M3N-HD/HDMI, AMD Athlon X2 4850e en 2GB RAM) dus zal er nieuwe hardware moeten komen. Ik wil het echter zo goedkoop mogelijk houden omdat ik geen high-performance server nodig heb, wel moet hij gewoon stabiel werken zonder al te veel rare foefjes.
Tevens moet ik minimaal 9 en liefst 10 harde schijven aan kunnen sluiten. Ik heb namelijk nog 1x160GB en 1x250GB die ik wil inzetten als datastore. ESXi zal vanaf USB stick draaien.
Nu lees ik dat ik voor de harde schijven twee opties heb, namelijk Physical RDM en "het doorgeven van een complete HBA met PCI-e passthrough". Physical RDM gaat niet werken met FreeBSD 9.1 volgens de TS, is dit nog steeds de situatie of is dit al opgelost? En betekent dit dat ik dan perse ben overgeleverd aan VT-D? Dit betekent dat de kosten nogal omhoog zullen gaan.
Is er nog een andere oplossing? Ik zou graag de kosten exclusief harde schijven, voeding en behuizing rond de 300 euro willen houden. Is dit mogelijk of ben ik een beetje te veel aan het dromen?
Ja dat kan wel, maar dan moet je naar AMD kijken, en daar is het stroomgebruik hoger. Als de server niet de hele dag aan staat kan je dat overwegen, maar als hij 24/7 aan staat ben je goedkoper uit met een Intel setup.
Spuit 11...

Je kan ook Native FreeBSD/ZFSguru draaien, en in VirtualBox een Windows VM maken... Dat werkt ook prima, en aangezien performance toch geen probleem is, zou dat prima aan jouw wensen moeten voldoen?Tsurany schreef op dinsdag 09 juli 2013 @ 14:15:
Hoger stroomverbruik is op lange termijn niet wenselijk. Dit systeem moet wel de komende jaren mee gaan en ik denk dat het verschil in een jaar of vier wel merkbaar zal worden?
Ik ben nu hier op uitgekomen als optie:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 155,95 € 155,95 1 Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 € 51,- € 51,- 1 IBM ServeRAID M1015 SAS/SATA Controller for System x € 118,58 € 118,58 Bekijk collectie
Importeer productenTotaal € 325,53
Daar moet dan nog een moederbord bij waarvan de SATA controller ondersteund wordt in ESXi. Een alternatief leek mij het vervangen van de IBM M1015 door een SIL3114. Dan kan ik deze gebruiken voor de datastores en de onboard SATA poorten doorgeven aan de ZFS VM. Echter moet het moederbord dan wel 8x SATA poorten hebben.
Welk moederbord zou bij deze situatie goed passen?
Oh en nog een andere vraag, hoe realistisch is RDM gebruiken met een oudere versie van FreeBSD? Is dit verstandig of ga je tegen issues aanlopen? Als het voor FreeBSD 9.1 heeft gewerkt zal het met een oudere versie toch blijven werken? Ik zoek eigenlijk een goedkope storage oplossing, snelheid is niet heel relevant en features ook niet echt. Gewoon ZFS gebruiken voor media storage.
Edit: Even wat rond gezocht en dit gevonden:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 155,95 € 155,95 1 MSI B75MA-P45 € 54,95 € 54,95 1 Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 € 51,- € 51,- Bekijk collectie
Importeer productenTotaal € 261,90
Moederbord NIC zou werken met ESXi, VT-D zou werken en SATA controllers worden herkend. Dan een SIL3114 voor de datastores en SIL3112 voor twee van de 1TB schijven en dan heb ik acht schijven voor ZFS en kan ik vier schijven gebruiken voor datastores en andere zaken.
Gaat dit goed werken?
Edit 2: Geen 2xPCI, dan gaat het niet werken
[ Voor 53% gewijzigd door FireDrunk op 09-07-2013 14:46 ]
Even niets...
Ik volg dit topic al een hele tijd en ik wil ook overstappen naar esxi.
Momenteel heb ik een freenas box (3*4TB) en een laptop als pfsense firewall.
Om te starten wil ik al zeker deze 2 als VM draaien op de esxi bak.
Ik heb geen volledige build nodig omdat ik onderdelen (behuizing, voeding, disks) van mijn freenas bak zal gebruiken.
- Gigabyte GA-Z77-DS3H
- 2* Intel Gigabit CT Desktop Adapter
- Intel Core i5 3470
- Kingston ValueRAM 16 GB : 2 x 8 GB
- 2 x PCI Express 2.0 x1 zou ik gebruiken om 2 Intel Gigabit CT Desktop Adapter in te prikken (goedkoper als een dual kaart) en later eventueel nog een 3de.
- 1 PCI Express voor een extra HBA kaart omdat de onboard controller zal doorgegeven worden aan freenas.
Ik heb nog de volgende SAS kaart op stock: "dell lsi sas 1068", kan deze gebruikt worden als extra HBA? wordt dit herkend door esx? In freenas alleszins wel. Indien niet dan komt er een "sil3112" gebasserd kaartje in voor de datastore van freenas en pfsense. Bijkomende servers zullen via een NFS share draaien op de freenas bak.
Om te starten gebruik ik een gewone SATA schijf als datastore, later kan ik hier dan een SSD aanhangen.
Ik merk op dat er ook een Intel Core i5 3470s variant beschikbaar is, is er veel verschil tussen de 2 voor gebruik in ESXi? Ik vind niet onmiddellijk waarvoor die S staat.
Bedankt voor de hulp!
- Deze advertentie is geblokkeerd door Pi-Hole -
Verder is Z77 niet heel zuinig, maar het scheelt niet super veel met B75/H77/Q77. Wat waarschijnlijk meer scheelt is het feit dat het een Gigabyte bord is, die staan er niet echt bekend om, om super zuinig te zijn.
De -S variant van een CPU gaat over een gereduceerde TDP, deze word na een aantal seconden 100% gebruik (inc turbo) automatisch teruggeklokt om de maximale warmteafgifte te reduceren.
Heb je alleen maar wat aan als je in kleine behuizingen zit te werken waar koeling een probleem is.
[ Voor 70% gewijzigd door FireDrunk op 09-07-2013 14:49 ]
Even niets...
Performance van de storage is geen echte issue, ik zou graag wel ESXi willen draaien puur omdat ik dit interessant vind.FireDrunk schreef op dinsdag 09 juli 2013 @ 14:44:
Je kan ook Native FreeBSD/ZFSguru draaien, en in VirtualBox een Windows VM maken... Dat werkt ook prima, en aangezien performance toch geen probleem is, zou dat prima aan jouw wensen moeten voldoen?
Ik zit op dit moment met twee punten:
1: Geschikt moederbord
2: VT-D versus physical RDM met oudere FreeBSD versie
Punt 1: Ik heb nu pricewatch: Asrock H77 Pro4/MVP op het oog. Ik kan dan deze 8 poorten gebruiken voor ZFS en dan een SIL3114 voor de datastores. Werkt niet goed met ESXi 5.1 maar wel met 5.0. Dit zal geen groot issue zijn toch? Zal ik echt ESXi 5.1 willen hebben? Welk ander moederbord met 8x SATA zou geschikt zijn?
Punt 2: Dan is het de vraag of ik perse VT-D nodig heb of dat physical RDM prima werkt met een oudere FreeBSD versie. Wat is hier wijsheid? Het gaat om een aardig prijsplaatje aangezien een i5 overkill is in mijn situatie en een Pentium of i3 prima zal zijn.
Story of my life. Ik wil iets maar wil het dan wel goedkoop hebben en loop dan tegen issues aan omdat ik beknibbel. Ach, wel een uitdaging
[ Voor 6% gewijzigd door Tsurany op 09-07-2013 14:56 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Wat je ook kunt doen is een moederbord met 6 SATA-poorten aanschaffen + een ASM1061 (voor 2 extra SATA-poorten). Die twee kaarten zet je dan in passthrough terwijl je een (trage!) sil3112/sil3114 voor de datastore gebruikt.
Het maakt niet uit of de HBA op je moederbord niet goed werkt met ESXi, want die geef je toch door aan je VM. ESXi hoeft er zelf niet mee overweg te kunnenPunt 1: Ik heb nu pricewatch: Asrock H77 Pro4/MVP op het oog. Ik kan dan deze 8 poorten gebruiken voor ZFS en dan een SIL3114 voor de datastores. Werkt niet goed met ESXi 5.1 maar wel met 5.0. Dit zal geen groot issue zijn toch? Zal ik echt ESXi 5.1 willen hebben? Welk ander moederbord met 8x SATA zou geschikt zijn?
[ Voor 38% gewijzigd door Compizfox op 09-07-2013 15:51 ]
Gewoon een heel grote verzameling snoertjes
Je kan ook kijken of je tweedehands iets op de kop kan tikken (Sandy Bridge setjes zijn qua energieverbruik ook prima)
Of je nou 17W idle of 19W idle verbruikt, daar moet je je niet zo druk over maken...
Even niets...
Volgens mij staat die al in IT mode, want ik kan hier gewoon 4 schijven aankoppelen en die worden als single disk herkend in freenas. Of denk ik verkeerd?FireDrunk schreef op dinsdag 09 juli 2013 @ 14:47:
Die DELL kaart zou je in theorie naar IT-Mode moeten kunnen flashen, als dat je lukt, is het een prima kaart om te gebruiken in combinatie met ZFS.
Hier ga ik nog wat verder achter zoeken, ik zou het toch graag zuinig willen houden.FireDrunk schreef op dinsdag 09 juli 2013 @ 14:47:
Verder is Z77 niet heel zuinig, maar het scheelt niet super veel met B75/H77/Q77. Wat waarschijnlijk meer scheelt is het feit dat het een Gigabyte bord is, die staan er niet echt bekend om, om super zuinig te zijn.
Super, inderdaad niet nodig dus.FireDrunk schreef op dinsdag 09 juli 2013 @ 14:47:
De -S variant van een CPU gaat over een gereduceerde TDP, deze word na een aantal seconden 100% gebruik (inc turbo) automatisch teruggeklokt om de maximale warmteafgifte te reduceren.
Heb je alleen maar wat aan als je in kleine behuizingen zit te werken waar koeling een probleem is.
Bedankt voor je reply!
edit:
@Compizfox: Hoe zit het nu juist met een MSI H77MA-G43 mobo? Ik las in een post van jou dat je de onboard controller niet kunt vtd'en zonder je extra pci-e ook mee te geven...?
Anders lijkt me dit bordtje wel een kanshebber.
[ Voor 8% gewijzigd door A1AD op 09-07-2013 19:05 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
[ Voor 94% gewijzigd door A1AD op 09-07-2013 19:05 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Met de ASM1061 is dat inderdaad het geval. Die wordt onbruikbaar als je de onboard HBA doorgeeft. Dit is trouwens niet specifiek voor dat moederbord of zo.A1AD schreef op dinsdag 09 juli 2013 @ 17:22:
@Compizfox: Hoe zit het nu juist met een MSI H77MA-G43 mobo? Ik las in een post van jou dat je de onboard controller niet kunt vtd'en zonder je extra pci-e ook mee te geven...?
Anders lijkt me dit bordtje wel een kanshebber.
Gewoon een heel grote verzameling snoertjes
Het is technisch onmogelijk omdat VT-d op PCIe niveau geregeld word, en het niets te maken heeft met de controller.
Als je dus een losse PCIe x1 ASM1061 zou kopen en die in een willekeurig PCIe slot zou steken, geloof ik niet dat die meegaat met een onboard controller.
TENZIJ (maar dat is een kleine kans) je PCIe x1 controller op dezelfde PCIe switch als je onboard controller zit... Maar dat doet bijna geen een fabrikant...
Even niets...
Jawel, dat gebeurt dus wel. Heb ik persoonlijk getestFireDrunk schreef op dinsdag 09 juli 2013 @ 19:32:
Als je dus een losse PCIe x1 ASM1061 zou kopen en die in een willekeurig PCIe slot zou steken, geloof ik niet dat die meegaat met een onboard controller.
Compizfox in "Zuinige ESXi Server"
[ Voor 10% gewijzigd door Compizfox op 09-07-2013 19:38 ]
Gewoon een heel grote verzameling snoertjes
Als het een probleem is met die ASM1061 controller, is het het waard om die lui eens te contacteren, want het is schandalig als ze zo slecht met hun geheugen/dma management omgaan dat dit gebeurt...
Even niets...
Sigh. Eerst op zoek naar een nieuw mobo, ik krijg het niet aan de gang met realtek 8168. Je krijgt een IP maar na een paar minuten APIPA. Met een vast IP ook nikssphere schreef op dinsdag 09 juli 2013 @ 13:36:
Ik wil hier een bakje ombouwen naar ESXi om wat dingen te testen. Ik wil er 4 graka's induwen en die doorgeven aan guests. Mijn probleem is nu nog hoe ik al die guests snelle disk access geef. Met VT-D kan je natuurlijk de controller doorgeven aan een guest, maar hoe doe je het dan met de andere 3?
Hoe zorgen jullie dat alle guests snelle kunnen beschikken over snelle discs?
Specs:
i7-3820
16GB geheugen
4x AMD graka (?)
Samsung 830 256GB
1TB disk ST31000524AS
Dat is vragen om moeilijkheden
Even niets...
Geloof je me niet?FireDrunk schreef op dinsdag 09 juli 2013 @ 19:40:
Ik heb er zojuist 2 besteld, ben benieuwd... Ik wil wel eens weten waarom dat gebeurd... Kunnen we gelijk die mythe de wereld uit trimmen...
Als het een probleem is met die ASM1061 controller, is het het waard om die lui eens te contacteren, want het is schandalig als ze zo slecht met hun geheugen/dma management omgaan dat dit gebeurt...
Zelfs als ik in de BIOS de onboard HBA (AMD SB700) uitzet, functioneert de ASM1061 niet meer. (Hierbij is er dus nog helemaal geen ESXi of VT-d in het spel!)
Het lijkt erop dat de ASM1061 op de één of andere manier 'afhankelijk' is van de onboard HBA. Vraag me niet hoe.
[ Voor 8% gewijzigd door Compizfox op 09-07-2013 20:23 ]
Gewoon een heel grote verzameling snoertjes
En de ASM1061 is diegene met 2 poorten of met 4 poorten?:-) vind het zo niet onmiddellijk terug.Compizfox schreef op dinsdag 09 juli 2013 @ 19:23:
[...]
Met de ASM1061 is dat inderdaad het geval. Die wordt onbruikbaar als je de onboard HBA doorgeeft. Dit is trouwens niet specifiek voor dat moederbord of zo.
- Deze advertentie is geblokkeerd door Pi-Hole -
Gewoon een heel grote verzameling snoertjes
Ik geloof best dat dat op jouw systeem zo is, maar ik geloof niet dat dat *altijd* zo is...Compizfox schreef op dinsdag 09 juli 2013 @ 20:22:
[...]
Geloof je me niet?![]()
Zelfs als ik in de BIOS de onboard HBA (AMD SB700) uitzet, functioneert de ASM1061 niet meer. (Hierbij is er dus nog helemaal geen ESXi of VT-d in het spel!)
Het lijkt erop dat de ASM1061 op de één of andere manier 'afhankelijk' is van de onboard HBA. Vraag me niet hoe.
Even niets...
Het lijkt me eerder een probleem met de implementatie ervan op het mobo..., jou losse PCIe kaartjes zullen wel niet meegaan met de onboard controller. Dat zou straf zijn!FireDrunk schreef op dinsdag 09 juli 2013 @ 19:40:
Als het een probleem is met die ASM1061 controller, is het het waard om die lui eens te contacteren, want het is schandalig als ze zo slecht met hun geheugen/dma management omgaan dat dit gebeurt...
Wel zonde, anders had ik geen extra controller nodig

- Deze advertentie is geblokkeerd door Pi-Hole -
Nou ja, je bent vrij het nog eens te testen natuurlijk. Maar ik verwacht dat je mijn verhaal zult bevestigen
Gewoon een heel grote verzameling snoertjes
Hmmz dus even ter verduidelijking: de AMD SB700 doorgeven via VT-d en de datastore op een PCIe kaartje hangen moet wel gewoon werken dan? Dat ik hierdoor de ASM1061 verlies stoort me niet.Compizfox schreef op dinsdag 09 juli 2013 @ 20:49:
Ik ben niet de enige die tot dit resultaat is gekomen. Kijk bijvoorbeeld eens naar deze post: Edd in "Zuinige ESXi Server"
Nou ja, je bent vrij het nog eens te testen natuurlijk. Maar ik verwacht dat je mijn verhaal zult bevestigen
- Deze advertentie is geblokkeerd door Pi-Hole -
Gewoon een heel grote verzameling snoertjes
Ow, ik dacht dat er 2 controllers aanwezig waren op het mobo. Een non issue voor mij dusCompizfox schreef op dinsdag 09 juli 2013 @ 20:58:
Nee, je begrijpt het verkeerd. De ASM1061 is juist het PCIe-kaartje waarop je de datastore zet.
[ Voor 20% gewijzigd door A1AD op 09-07-2013 21:03 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Dus feitelijk is VT-D de enige reële optie in mijn situatie?Compizfox schreef op dinsdag 09 juli 2013 @ 15:50:
Ja, physical RDM werkt prima met FreeBSD 9.0. Maar ja, daarvan is de support afgelopen en zo... Dus niet echt handig om op zo'n oude versie te moeten blijven steken.
Klinkt goed.Wat je ook kunt doen is een moederbord met 6 SATA-poorten aanschaffen + een ASM1061 (voor 2 extra SATA-poorten). Die twee kaarten zet je dan in passthrough terwijl je een (trage!) sil3112/sil3114 voor de datastore gebruikt.
Dus elk moederbord zal werken want ESXi zal de controller volledig doorgeven? De controller hoeft niet ondersteund te worden om doorgegeven te worden? Feitelijk is dus enkel comptabiliteit met FreeBSD relevant?Het maakt niet uit of de HBA op je moederbord niet goed werkt met ESXi, want die geef je toch door aan je VM. ESXi hoeft er zelf niet mee overweg te kunnen
En de NIC moet compatibel zijn met ESXi tenzij ik een externe NIC gebruik right?
Heb jij of iemand anders tips qua moederbord? Ik overweeg nu pricewatch: ASRock B75 Pro3-M, schijnt prima te werken met VT-D en passtrough zou moeten werken met ESXi. Enkel onboard NIC wordt niet ondersteund. Dit zou bij de pricewatch: ASRock H77 Pro4-M wel moeten werken, correct?
Dan zou dit een goed systeem moeten zijn?
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 155,95 | € 155,95 |
1 | ASRock H77 Pro4-M | € 68,95 | € 68,95 |
1 | Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 | € 51,- | € 51,- |
Bekijk collectie Importeer producten | Totaal | € 275,90 |
In combinatie met een simpel PCI kaartje voor datastores.
Geld uitgeven doe ik enkel als het nodig is. Ik wil een goed functionerende setup maar die wil ik zo goedkoop mogelijk krijgen. Als ZFS en ESXi betekent dat ik VT-D moet nemen dan is dat acceptabel, echter zou het niet hoeven dan zou ik er niet direct voor kiezen.FireDrunk schreef op dinsdag 09 juli 2013 @ 16:06:
Tja het is gewoon simpel. ZFS combineren met ESXi kost je gewoon geld. Als je dat er niet aan uit wil geven, ga je later altijd spijt hebben.
Je kan ook kijken of je tweedehands iets op de kop kan tikken (Sandy Bridge setjes zijn qua energieverbruik ook prima)
Of je nou 17W idle of 19W idle verbruikt, daar moet je je niet zo druk over maken...
Tweedehands ga ik niet snel doen, de nieuwprijs is betaalbaar en ik heb liever gewoon volledige garantie.
[ Voor 34% gewijzigd door Tsurany op 09-07-2013 22:16 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Even niets...
Ja, tenzij je FreeBSD 9.0 of iets anders (ZFS on Linux. Solaris) wilt gebruiken.Tsurany schreef op dinsdag 09 juli 2013 @ 21:59:
[...]
Dus feitelijk is VT-D de enige reële optie in mijn situatie?
Correct, correct, correct en correct[...]
Dus elk moederbord zal werken want ESXi zal de controller volledig doorgeven? De controller hoeft niet ondersteund te worden om doorgegeven te worden? Feitelijk is dus enkel comptabiliteit met FreeBSD relevant?
En de NIC moet compatibel zijn met ESXi tenzij ik een externe NIC gebruik right?
Lijkt me een prima setup.Heb jij of iemand anders tips qua moederbord? Ik overweeg nu pricewatch: ASRock B75 Pro3-M, schijnt prima te werken met VT-D en passtrough zou moeten werken met ESXi. Enkel onboard NIC wordt niet ondersteund. Dit zou bij de pricewatch: ASRock H77 Pro4-M wel moeten werken, correct?
Dan zou dit een goed systeem moeten zijn?
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 155,95 € 155,95 1 ASRock H77 Pro4-M € 68,95 € 68,95 1 Mushkin Silverline 8GB DDR3 PC3-10666 9-9-9-24 € 51,- € 51,- Bekijk collectie
Importeer productenTotaal € 275,90
In combinatie met een simpel PCI kaartje voor datastores.
[...]
Gewoon een heel grote verzameling snoertjes
Lees net wel weer dat dit moederbord niet goed werkt onder ESXi 5.1, dan krijg je een kernel panic als je de SATA controller wilt doorsturen naar een VM. Met ESXi 5.0 werkt het perfect.
En ik las tevens hier dat het systeem 114Watt zuipt, gaan die schijven dan niet in sleep mode?
[ Voor 17% gewijzigd door Tsurany op 09-07-2013 22:32 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Volgens mij doet esxi geen spindown van je hdd;s,..daarom was juist die passthrough van een controller zo fijn.Tsurany schreef op dinsdag 09 juli 2013 @ 22:31:
Lees net wel weer dat dit moederbord niet goed werkt onder ESXi 5.1, dan krijg je een kernel panic als je de SATA controller wilt doorsturen naar een VM. Met ESXi 5.0 werkt het perfect.
En ik las tevens hier dat het systeem 114Watt zuipt, gaan die schijven dan niet in sleep mode?
En van die kernel panic.. klopt
Ontwikkelaar van NPM library Gleamy
Of zal ik gewoon ESXi 5.0 draaien op dat andere moederbord en als ik dan naar 5.1 wil gewoon accepteren dat dit betekent dat k een losse controller aan moet schaffen? Waarom zijn die controllers toch zo verrekte duur. Want wat heeft 5.1 voor voordelen die ik niet kan missen? De wereld heeft jarenlang op ESXi 4.x gedraaid, dan moet ik dat toch ook kunnen?
[ Voor 35% gewijzigd door Tsurany op 10-07-2013 09:24 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Even niets...
Dat zul je moeten regelen op je guest-OS, in FreeBSD dus. Maar het kan wel.Tsurany schreef op dinsdag 09 juli 2013 @ 22:31:
En ik las tevens hier dat het systeem 114Watt zuipt, gaan die schijven dan niet in sleep mode?
Dat is niet afhankelijk van het moederbord. Het probleem was dat de ASM1061 niet functioneert als je de onboard SATA-controller doorgeeft. Je kunt dus niet de ASM1061 gebruiken voor je datastore. Maar je kunt gewoon je Pantherpoint + je ASM1061 doorgeven en dan een losse sil3112 gebruiken voor je datastores.Tsurany schreef op woensdag 10 juli 2013 @ 08:54:
Dan ga ik toch eens kijken naar een ander moederbord. Helaas zijn er weinig die 8x SATA ondersteunen. Die ASRock B75 Pro3-M is nog steeds een goede kandidaat maar die heeft weer passtrough problemen waarbij hij volgens mij wel 8x SATA door kan geven via VT-D maar dan ook alle andere SATA controllers door geeft? Niet handig.
Gewoon een heel grote verzameling snoertjes
Alleen de ASrock H77 Pro4/MVB schijnt kernel panics te geven met ESXi 5.1, maar als ik FireDrunk goed begrijp is dat in de nieuwe versies niet meer zo? Maar als ik de ASRock B75 Pro3-M neem speel ik voor safe en moet alles werken. Ook bevestigd door onder andere deze review: http://www.amazon.com/ASR...oints=1&tag=testfreaks-20
Dan is dit mijn definitieve configuratie:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 155,95 | € 155,95 |
1 | ASRock B75 Pro3-M | € 56,93 | € 56,93 |
2 | Western Digital Green WD15EARS, 1.5TB | € 62,65 | € 125,30 |
1 | Corsair CMV8GX3M2A1333C9 | € 54,06 | € 54,06 |
Bekijk collectie Importeer producten | Totaal | € 392,24 |
Inclusief 2x1,5TB schijf om de capaciteit uit te breiden.
Nu moet ik enkel nog een SIL3112 of SIL3114 kaartje scoren. Kennen jullie adresjes waar ik deze snel kan krijgen? Ik vind ze wel op eBay maar geen zin twee tot vier weken te wachten.
[ Voor 7% gewijzigd door Tsurany op 10-07-2013 14:27 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Helaas kwam ik zaken tegen van het niet goed doorgeven van de SATA controller op de Asrock B75 Pro3-M. (het verhaal met de ASMedia ASM1061)
Hierdoor heb ik gewacht tot er een nieuwe versie zou uitkomen: Haswell.
Ik zit te denken aan de volgende config:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 4430 Boxed | € 163,- | € 163,- |
1 | ASRock B85 Pro4 | € 73,95 | € 73,95 |
Bekijk collectie Importeer producten | Totaal | € 236,95 |
Hier zit, voor zover ik kan bekijken, geen losse SATA controller op maar worden de 6 SATA poorten native vanuit de B85 aangestuurd.
Het volgende wil ik dan doen:
- 1 SIL3112 kaartje erin stoppen, daar de ESXI datastores aan hangen (dit zijn toch de VM images?)
- 1 NAS systeem in de vorm van NAS4free installeren op de datastore
- 4 schijven aan de B85 SATA poorten hangen en deze passtrough aan NAS4free geven
- ZFS pools van de 4 schijven maken en door NAS4free als netwerkschijf laten aanbieden
- meerdere andere OS'en op de datastore installeren en deze de netwerkschijven laten mounten zodat ze er hun data in kunnen opslaan
- 2 NIC inprikken omdat de onboard NIC volgens mij niet werkt met ESXI
Mijn belangrijkste vraag is of dit hele verhaal gaat werken? Of kijk ik ergens overheen? Hoe zuinig is zo'n ASRock B85 ESXI box? En is dit ook met de Asrock B75 te bewerkstelligen?
Dat die ASMedia meegaat geeft toch niets als je maar 4 poorten nodig hebt?
Je kan in dat oude bordje ook gewoon een Sil kaartje stoppen en dan de onboard doorgeven, dat werkt prima, alleen gaat die ASMedia gewoon mee.
Haswell zal iets zuiniger zijn, maar er is nog weinig bekend over Haswell borden/cpu's icm ESXi, dus kijk van tevoren even of er werkende configuraties bekend zijn online.
[ Voor 21% gewijzigd door FireDrunk op 10-07-2013 15:59 ]
Even niets...
Wauw, dat wist ik niet. Ik heb dus voor niets op een nieuw bord gewacht?FireDrunk schreef op woensdag 10 juli 2013 @ 15:58:
Ja dat werkt waarschijnlijk prima, maar dat kan toch ook prima met het 'oude' asrock bordje?
Dat die ASMedia meegaat geeft toch niets als je maar 4 poorten nodig hebt?
Je kan in dat oude bordje ook gewoon een Sil kaartje stoppen en dan de onboard doorgeven, dat werkt prima, alleen gaat die ASMedia gewoon mee.
Haswell zal iets zuiniger zijn, maar er is nog weinig bekend over Haswell borden/cpu's icm ESXi, dus kijk van tevoren even of er werkende configuraties bekend zijn online.

Mensen wilden dus blijkbaar de Asmedia als datastore en de andere 6 poorten voor passtrough?
Wat is dan wijsheid? De Ivy Bridge of Haswell? Qua kosten doet het elkaar niet zoveel.
En wat is het verbruik? Is 50W idle te halen met de juiste spindown opties in NAS4free?
Haswell zou zuiniger moeten zijn MAAR het is maar de vraag of ESXi daar goed mee omgaat omdat het om een nieuwe C-State gaat die ESXi misschien wel helemaal niet ondersteund.
Ik heb er zelf nog niet naar gekeken, dus ik zou niet weten of ESXi goed werkt onder Haswell.
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Eventueel heb ik er ook nog wel 1 liggen (DM maar bij interesse)
[ Voor 27% gewijzigd door Compizfox op 10-07-2013 16:44 ]
Gewoon een heel grote verzameling snoertjes
[ Voor 5% gewijzigd door Tsurany op 10-07-2013 16:46 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Je kan natuurlijk ook dit doen:
V&A aangeboden: HP Smartarray P410/256
Niet echt super goedkoop, maar wel een uitermate goede kaart voor ESXi...
[ Voor 30% gewijzigd door FireDrunk op 10-07-2013 17:04 ]
Even niets...
Bedankt voor al het advies tot nu toe en ik zal wel een kleine buildlog met ervaringen posten
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
ik ben al een tijdje deze thread en de thread van de zuinige servers aan het volgen met het oog om zelf een ESXI home-server op te zetten. Maar ik heb toch wel enkele vragen:
1. Het valt mij op dat de volgende voeding zeer dikwijls terug komt: pricewatch: Seasonic G-Serie 360Watt. Nu levert mijn vaste hardware leverancier geen Seasonic voedingen. En dan vraag ik mij af dat er iemand een alternatief kent waarvan hij/zij goede ervaringen mee heeft?
2. Ik zie dat sommige gebruikers met een ESXI opstelling voor elke applicatie een andere VM opzetten. Wat is hiervan het voordeel tov meerdere applicaties naast elkaar op 1 VM?
3. Waarvoor de VM op mijn machine moet dienen is het volgende:
- FTP Server
- Download-bak
- Plex Media Server
- WHS om mijn huisgenoten alles gemakkelijk te maken.
Als hardware keuze heb ik momenteel het volgende samengesteld. Persoonlijk vind ik het nogal aan de dure kant, dus als iemand nog tips heeft om de kostprijs naar beneden te halen, mag je dat altijd zeggen. Wat zeker moet blijven is de case en 32 GB aan geheugen.
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 4570 Boxed | € 176,- | € 176,- |
1 | Gigabyte GA-Z77X-D3H | € 113,91 | € 113,91 |
2 | Western Digital Green WD20EARX, 2TB | € 84,85 | € 169,70 |
1 | Fractal Design Define R4 Pearl Black | € 86,04 | € 86,04 |
4 | Kingston KVR1333D3N9/8G | € 56,- | € 224,- |
1 | Seasonic G-Serie 360Watt | € 58,- | € 58,- |
1 | Samsung 840 series 250GB | € 140,59 | € 140,59 |
Bekijk collectie Importeer producten | Totaal | € 968,24 |
Ben je met 8GB al klaar. Waarom wil je dan 32GB hebben? Als je andere requirements hebt is het wel handig die te vermelden. Nu lijken ze eigenlijk precies op die van mij en ik denk dat ik met ZFS niet meer dan 12GB RAM nodig gaat hebben, wellicht 16GB maar dat is al veel.
Moederbord kan ook wel wat goedkoper, waarom perse deze? Als je kijkt naar mijn setup is dat ook een prima moederbord en die is de helft van de prijs.
Zelf heb ik goede ervaringen met BeQuiet voedingen, stil en stabiel. Nooit problemen mee gehad en zie ze veel gebruikt worden in servers.
Het voordeel van een VM per applicatie is dat je makkelijker een enkele VM kan aanpassen zonder dat de rest ook hoeft te rebooten. Als jij straks problemen hebt met Plex en deze draait op een aparte VM zal het downloaden en aanbieden via FTP gewoon door gaan. Storage via aparte VM (en idd als netwerkschijf aanbieden) zorgt er voor dat je storage gewoon altijd bereikbaar blijft ook al gaan andere VM's onderuit.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Mijn server draait toch echt al +/- 1 jaar 24/7 met een 2e hands Be Quiet voeding. Problemen? Nee.-The_Mask- schreef op donderdag 11 juli 2013 @ 13:13:
Veel Be Quiet's hebben bagger condensators van Capxon die moet je niet nemen. Prijs/kwaliteit komt eigenlijk niet heel veel in de buurt. Alleen de Super Flower Golden Green 400W.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1230 V3 Boxed | € 244,75 | € 244,75 |
4 | Seagate Barracuda 7200.14 ST2000DM001, 2TB | € 76,85 | € 307,40 |
1 | Kingston DataTraveler 111 16GB Zwart | € 10,12 | € 10,12 |
2 | Intel PRO/1000 GT | € 23,16 | € 46,32 |
1 | Norcotek RPC-450 | € 118,28 | € 118,28 |
1 | Scythe Big Shuriken 2 Rev. B | € 32,30 | € 32,30 |
2 | Kingston ValueRAM KVR13E9K2/16I | € 156,25 | € 312,50 |
1 | IBM ServeRAID M5014 | € 301,90 | € 301,90 |
1 | OCZ ModXStream Pro 600W | € 64,- | € 64,- |
1 | Samsung 840 series Pro 256GB | € 199,90 | € 199,90 |
Bekijk collectie Importeer producten | Totaal | € 1.637,47 |
Met als moederbord: Supermicro X10SLA-F
Ik wil er een paar ubuntu servers op draaien, een bestaande sbs 2011 p2v doen naar deze server en een paar servers 2008 r2/2012 draaien. De harde schijven wou ik in raid 10 zetten als datastore voor esxi de ssd voor de OS'en van de vm's en de usb stick voor esxi zelf.
Even niets...
Jij hebt honderden clients die al die servers bestoken?
Even niets...
Ik heb er toevallig net eentje te koop
Inmiddels tot de conclussie gekomen dat het systeem niet POST zonder extra videocard omdat er geen integrated video in zowel het mobo als de cpu zit.init6 schreef op zaterdag 15 juni 2013 @ 23:13:
Hallo allen,
Bij deze mijn geselecteerde config, heb een tijdje mee gekeken in dit topic dus een aantal selecties zullen bekend voorkomen. Idee erachter is een cluster config te gaan draaien op qemu-kvm, dit zal puur een training omgeving voor mijzelf zijn. Er zal sprake zijn van 1 heavy en 1 light node, storage zal op mijn Synology DS413 via ISCSI luns gaan. De disks in de machines zal ik opdelen in 20G per VM schat ik zo in om het OS erop te kunnen knallen. Er zullen vm's met het volgende draaien:
- DHCP
- Nameserver
- Automation bak (puppet, chef, cfengine zoiets)
- PXE bak
- Monitoring bak
- Squid bak
- NGINX bak
- Clustering bak (openstack)
- IDS
- Firewall
Daarnaast nog wat applicatie bakken die het meeste zullen gaan doen, zoals video hosting, MySQL clustering, etc. Niets productie, puur ter lering en vermaeck.
Heavy node:
# Product Prijs Subtotaal 1 Intel Xeon E3-1230V2 Boxed € 202,90 € 202,90 1 MSI B75MA-P45 € 49,04 € 49,04 1 Nexus Thrio 310 Silent Case € 42,35 € 42,35 1 Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU € 94,70 € 94,70 1 be quiet! Pure Power L7 300W € 37,95 € 37,95 1 Samsung 840 series Pro 256GB € 197,95 € 197,95 Bekijk collectie
Importeer productenTotaal € 624,89
Twijfel nog over de PSU in bovenstaande lijstje.
Light node:
*snip*
Tips, advies? Heel erg welkom, en bedankt voor jullie adviezen tot nu toe!
Mijn budget ligt rond de 1000 a 1100 euro.
Iemand suggesties (op een nieuw mobo kopen na danwel het installeren van een externe videokaart?)
Als je het geld hebt voor 4 extra nic's dan is het zeker interessant om ze in qemu - kvm dmv een 802.3ad bond te draaien, puur voor eigen kennis ontwikkeling is dat leuk. Ik weet niet of ESXI dat kan. Vooral leuk als je meer systemen hebt draaien, maar waar je het nodig voor hebt in de praktijk: Dunno... Het is iig vet.112fan schreef op zaterdag 13 juli 2013 @ 17:29:
Ik had dit nu in gedachten:
# Product Prijs Subtotaal 1 Intel Xeon E3-1230 V3 Boxed € 244,75 € 244,75 4 Seagate Barracuda 7200.14 ST2000DM001, 2TB € 76,85 € 307,40 1 Kingston DataTraveler 111 16GB Zwart € 10,12 € 10,12 2 Intel PRO/1000 GT € 23,16 € 46,32 1 Norcotek RPC-450 € 118,28 € 118,28 1 Scythe Big Shuriken 2 Rev. B € 32,30 € 32,30 2 Kingston ValueRAM KVR13E9K2/16I € 156,25 € 312,50 1 IBM ServeRAID M5014 € 301,90 € 301,90 1 OCZ ModXStream Pro 600W € 64,- € 64,- 1 Samsung 840 series Pro 256GB € 199,90 € 199,90 Bekijk collectie
Importeer productenTotaal € 1.637,47
Met als moederbord: Supermicro X10SLA-F
Ik wil er een paar ubuntu servers op draaien, een bestaande sbs 2011 p2v doen naar deze server en een paar servers 2008 r2/2012 draaien. De harde schijven wou ik in raid 10 zetten als datastore voor esxi de ssd voor de OS'en van de vm's en de usb stick voor esxi zelf.
Even niets...
de CT-kaarten gebruiken ongeveer 2.5 Watt, dat zou natuurlijk wel lager mogen nog
Ontwikkelaar van NPM library Gleamy
Even niets...
Oplossing gevonden denk ik: Dummy plug maken, ik twijfel nog of dit gaat helpen: Ik weet niet hoe de POST de plug zal gaan zien... Of hij genoegen ermee neemt. Nu nog wat 68ohm resistors te pakken zien te krijgen.init6 schreef op zondag 14 juli 2013 @ 11:17:
[...]
Inmiddels tot de conclussie gekomen dat het systeem niet POST zonder extra videocard omdat er geen integrated video in zowel het mobo als de cpu zit.
Iemand suggesties (op een nieuw mobo kopen na danwel het installeren van een externe videokaart?)
De huidige videokaart welke erin zit komt uit een oude gaming rig en zal niet meest zuinige oplossing zijn.
[ Voor 8% gewijzigd door init6 op 14-07-2013 12:55 ]
[ Voor 99% gewijzigd door -The_Mask- op 14-07-2013 15:02 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Eén jaar is dan ook vrij kort. Maar dat neemt niet weg dat be quiet veel Capxon condensators gebruikt en dat Capxon rommel is.Ultimation schreef op zaterdag 13 juli 2013 @ 15:05:
[...]
Mijn server draait toch echt al +/- 1 jaar 24/7 met een 2e hands Be Quiet voeding. Problemen? Nee.
Waarom kies je die OCZ voeding? Voor hetzelfde geld heb je ook een veel betere Seasonic G-series 360W.112fan schreef op zaterdag 13 juli 2013 @ 17:29:
Ik wil er een paar ubuntu servers op draaien, een bestaande sbs 2011 p2v doen naar deze server en een paar servers 2008 r2/2012 draaien. De harde schijven wou ik in raid 10 zetten als datastore voor esxi de ssd voor de OS'en van de vm's en de usb stick voor esxi zelf.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb zojuist een extra 1TB hardeschijf gevonden, zat niet aangesloten in m'n server, en die kan ik er mooi bij plaatsen
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Iemand een tip voor een controller die ik wel eenvoudig kan doorgeven? Gaat voor nu slechts om een enkele hardeschijf dus eentje met twee poorten zou voldoende zijn.
Edit: Deze nemen? pricewatch: Conceptronic PCI Express Card SATA 600
Hij zit als onboard chipset dus een tweede PCI-E variant moet ook gewoon werken lijkt me?
[ Voor 53% gewijzigd door Tsurany op 14-07-2013 22:04 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G1610 Boxed | € 35,95 | € 35,95 |
1 | ASRock B75 Pro3-M | € 55,95 | € 55,95 |
3 | Western Digital Green WD20EARX, 2TB | € 84,85 | € 254,55 |
1 | Corsair CMV8GX3M2A1333C9 | € 56,20 | € 56,20 |
1 | Antec Earthwatts EA 380 | € 0,- | € 0,- |
1 | Samsung 840 series 120GB | € 81,- | € 81,- |
Bekijk collectie Importeer producten | Totaal | € 483,65 |
Momenteel heb ik een ubuntu server x64 draaien met software RAID5. Nu mijn vraag was of het mogelijk was om met deze hardware een ESXI server te draaien? Als ik kijk in de ESXI compatibility list dan staat het moederbord er niet tussen..? (even ter info ik heb nog nooit een ESXI server opgezet, dus er kunnen wel wat noob vragen inzitten)
Als boot wou ik zoals ik in de begintopic las een USB-stick gebruiken en hierop dan maximaal 4 VM's draaien. Ik heb echter wel geen idee waar precies de VMDK bestanden worden opgeslaan.
Aangezien het moederbord geen hardware RAID bezit en het niet mogelijk of efficient is om per VM software RAID 5 op te zetten, zal er gebruikt gemaakt worden van aparte HDD's en zal ik dus niet gebruik maken van RAID.
De VM's gaan vooral linux servers zijn die erop gaan draaien max 1 Windows server, dus schijfruimte en performantie zouden oké moeten zijn met deze processor. Het zal dus gaan over 1 Windows - 2 à 3 linux servers. Voor de c:\ en root schijf wou ik de SSD (Samsung 840) van 120 GB gebruiken.
- ESXI => USB-STICK (2GB)
Voorbeeld SSD:
- Windows server VM => 35 GB
- Linux server VM1 => 20 GB
- Linux server VM2 => 20 GB
- Linux server VM3 => 20 GB
Dit is pure system data. De home partities en de D: schijf gaat de data bevatten van de 3 SATA schijven (elk 2 TB)
Voorbeeld:
- Windows Server VM data partitie => 300 GB
- Linux server VM1 (multimedia data, waarschijnlijk freenas) => 4 TB
- Linux server VM2 (LAMP) => 100 GB
- Linux server VM3 (testvm) => 50 GB
Is bovenstaande mogelijk? Of hebben jullie een betere manier?
Ik ben ook aan het nadenken geweest over een backup methode voor de multimedia data, echter heb ik hier nog geen oplossing voor gevonden, misschien dat jullie mij hiermee kunnen helpen? Het is geen ramp dat deze verloren gaat, maar ik zou hier toch een methode van backup willen hebben. Ik heb nog 2 externe schijven 500GB liggen, maar dit gaat waarschijnlijk niet genoeg zijn.
Alvast bedankt voor de hulp.
edit: nu lees ik dat tsurany hetzelfde moederbord gaat gebruiken enkel gaat hij een apart SATA kaartje erbij kopen voor de "datastores". Voor wat heb je dat extra nodig? Ik wist overigens niet dat dit moederbord VT-d ondersteunde. Ik dacht enkel VT-x.
Mijn excuses dat ik hier een "leek" in ben.
Ja hoor, maar of je ESXi kan gebruiken op de manier dat je wil, is maar de vraag.cooLopke schreef op maandag 15 juli 2013 @ 12:29:
Aan de hand van het grote zuinige server topic heb ik volgende setup gekocht:
# Product Prijs Subtotaal 1 Intel Celeron G1610 Boxed € 35,95 € 35,95 1 ASRock B75 Pro3-M € 55,95 € 55,95 3 Western Digital Green WD20EARX, 2TB € 84,85 € 254,55 1 Corsair CMV8GX3M2A1333C9 € 56,20 € 56,20 1 Antec Earthwatts EA 380 € 0,- € 0,- 1 Samsung 840 series 120GB € 81,- € 81,- Bekijk collectie
Importeer productenTotaal € 483,65
Momenteel heb ik een ubuntu server x64 draaien met software RAID5. Nu mijn vraag was of het mogelijk was om met deze hardware een ESXI server te draaien?
De HCL (Hardware Compatibility List) van VMware is heel kaal, maar dat komt omdat ze daar enterprise support op leveren. Dat wil niet zeggen dat als de hardware er niet tussen staat, dat het niet werkt, maar alleen maar dat vmware je niet helpt als je in de problemen zit.Als ik kijk in de ESXI compatibility list dan staat het moederbord er niet tussen..? (even ter info ik heb nog nooit een ESXI server opgezet, dus er kunnen wel wat noob vragen inzitten)
ESXi kan je prima starten van USB, alleen moeten de VM's op een disk staan (SSD / HDD)Als boot wou ik zoals ik in de begintopic las een USB-stick gebruiken en hierop dan maximaal 4 VM's draaien. Ik heb echter wel geen idee waar precies de VMDK bestanden worden opgeslaan.
Klopt, als tussenweg zou je nog 1 VM RAID kunnen laten doen, en dat volume via NFS weer terug sharen naar ESXi en daar de rest op draaien. Performance is dan wel wat minder, maar het werkt prima.Aangezien het moederbord geen hardware RAID bezit en het niet mogelijk of efficient is om per VM software RAID 5 op te zetten, zal er gebruikt gemaakt worden van aparte HDD's en zal ik dus niet gebruik maken van RAID.
FreeNAS is *geen* Linux, maar BSD, dat is nogal een verschil.De VM's gaan vooral linux servers zijn die erop gaan draaien max 1 Windows server, dus schijfruimte en performantie zouden oké moeten zijn met deze processor. Het zal dus gaan over 1 Windows - 2 à 3 linux servers. Voor de c:\ en root schijf wou ik de SSD (Samsung 840) van 120 GB gebruiken.
- ESXI => USB-STICK (2GB)
Voorbeeld SSD:
- Windows server VM => 35 GB
- Linux server VM1 => 20 GB
- Linux server VM2 => 20 GB
- Linux server VM3 => 20 GB
Dit is pure system data. De home partities en de D: schijf gaat de data bevatten van de 3 SATA schijven (elk 2 TB)
Voorbeeld:
- Windows Server VM data partitie => 300 GB
- Linux server VM1 (multimedia data, waarschijnlijk freenas) => 4 TB
- Linux server VM2 (LAMP) => 100 GB
- Linux server VM3 (testvm) => 50 GB
Wil je FreeNAS vanwege ZFS gebruiken? Want dan moet je een andere oplossing gaan verzinnen, [straks meer].
Nee dus, zie beneden.Is bovenstaande mogelijk? Of hebben jullie een betere manier?
Dropbox, CrashPlan, externe USB3.0 schijf, mogelijkheden genoeg, wat wil je bereiken?Ik ben ook aan het nadenken geweest over een backup methode voor de multimedia data, echter heb ik hier nog geen oplossing voor gevonden, misschien dat jullie mij hiermee kunnen helpen? Het is geen ramp dat deze verloren gaat, maar ik zou hier toch een methode van backup willen hebben. Ik heb nog 2 externe schijven 500GB liggen, maar dit gaat waarschijnlijk niet genoeg zijn.
Graag gedaanAlvast bedankt voor de hulp.
VT-d werkt alleen met een i5-3330 of hoger, Celeron's en Pentium's hebben deze functionaliteit niet.edit: nu lees ik dat tsurany hetzelfde moederbord gaat gebruiken enkel gaat hij een apart SATA kaartje erbij kopen voor de "datastores". Voor wat heb je dat extra nodig? Ik wist overigens niet dat dit moederbord VT-d ondersteunde. Ik dacht enkel VT-x.
Mijn excuses dat ik hier een "leek" in ben.
VT-d heb je nodig om een fysiek device (zoals een SATA AHCI Controller) door te geven aan een VM, waarna deze dus fysieke toegang heeft tot het device. Voor ZFS is dit *verplicht* anders krijg je problemen.
Voor MDADM (Linux Software RAID) zou je nog voor VMDK files kunnen gaan (dus zonder VT-d) maar ook dat raad ik *sterk* af.
Beste is (denk ik) in jouw geval, om geen enkele vorm van RAID te gaan gebruiken, maar gewoon dagelijks goede externe backups te maken.
Even niets...
Ontwikkelaar van NPM library Gleamy
Even niets...
[ Voor 26% gewijzigd door 112fan op 15-07-2013 20:38 ]
Wanneer je tekst in notepad opslaat niet. Als je 24GB bestanden wilt wegschrijven wel.112fan schreef op maandag 15 juli 2013 @ 20:33:
Is er een merkbaar verschil tussen schijven zonder raid en met raid qua snelheid als je de OS'en op een ssd zet en de data op de schijven?
"Weet je hoe snel je daarmee ls kan uitvoeren jonguh!"
Even niets...
Oké, dit is al positief. Dan ga ik inderdaad kiezen om te booten via USB.FireDrunk schreef op maandag 15 juli 2013 @ 13:49:
De HCL (Hardware Compatibility List) van VMware is heel kaal, maar dat komt omdat ze daar enterprise support op leveren. Dat wil niet zeggen dat als de hardware er niet tussen staat, dat het niet werkt, maar alleen maar dat vmware je niet helpt als je in de problemen zit.
ESXi kan je prima starten van USB, alleen moeten de VM's op een disk staan (SSD / HDD)
Wat bedoel je hier precies mee? Heb je hier misschien een voorbeeld van? Ik veronderstel dat ik dan 1 VM bv. Linux VM1 (waar al mijn multimedia data op draait) toch in RAID kan plaatsen? Die Linux VM1 gaat geen freenas worden, maar een gewone ubuntu server dan.FireDrunk schreef op maandag 15 juli 2013 @ 13:49:
Klopt, als tussenweg zou je nog 1 VM RAID kunnen laten doen, en dat volume via NFS weer terug sharen naar ESXi en daar de rest op draaien. Performance is dan wel wat minder, maar het werkt prima.
In ieder geval zou dat ideaal zijn, omdat op deze VM de grootste hoeveelheid data terecht komt. Hoe kan ik dit precies doen? Over hoeveel performantie verlies spreek je dan?
Als bovenstaande manier "werkt" dan niet, indien ik dit wil dan moet ik eigenlijk mijn Intel Celeron vervangen door een i5-3330. Dit is wel even balen, aangezien ik die Intel Celeron G1610 heb gekocht op aanraden van het grote zuinige server topic.FireDrunk schreef op maandag 15 juli 2013 @ 13:49:
FreeNAS is *geen* Linux, maar BSD, dat is nogal een verschil.
Wil je FreeNAS vanwege ZFS gebruiken? Want dan moet je een andere oplossing gaan verzinnen, [straks meer].
Als ik RAID kan opstellen voor linux VM1 (ubuntu server), zoals heel bovenaan staat heb ik niet zozeer een backup meer nodig. Het is dus vooral de data van de fileserver wat ik gebackupt wil hebben of als redundantie mogelijk is, is dat ook goed.FireDrunk schreef op maandag 15 juli 2013 @ 13:49:
Dropbox, CrashPlan, externe USB3.0 schijf, mogelijkheden genoeg, wat wil je bereiken?
MDADM is hetgene wat ik momenteel gebruik voor de ubuntu server. Jij raadt dit sterk af. Ik veronderstel dat je dan nog meer performantie verlies hebt of waarom gaat dit precies *slecht* functioneren?FireDrunk schreef op maandag 15 juli 2013 @ 13:49:
VT-d werkt alleen met een i5-3330 of hoger, Celeron's en Pentium's hebben deze functionaliteit niet.
VT-d heb je nodig om een fysiek device (zoals een SATA AHCI Controller) door te geven aan een VM, waarna deze dus fysieke toegang heeft tot het device. Voor ZFS is dit *verplicht* anders krijg je problemen.
Voor MDADM (Linux Software RAID) zou je nog voor VMDK files kunnen gaan (dus zonder VT-d) maar ook dat raad ik *sterk* af.
Beste is (denk ik) in jouw geval, om geen enkele vorm van RAID te gaan gebruiken, maar gewoon dagelijks goede externe backups te maken.
Externe backups is natuurlijk een oplossing, maar zoals je ziet ga ik 4 TB data op de fileserver hebben, dus dat wil zeggen dat ik nog een aantal externe schijfjes ga moeten bijkopen, dan koop ik beter een i5-3330 (zelfde hoeveelheid geld kwijt), zodat ik VT-d heb en ZFS kan kiezen. (Het is trouwens de eerste keer dat ik over ZFS hoor, blijkbaar is dit het meest geavanceerde bestandssysteem ooit! Als ik kijk op ZFSguru.com en hetgene lees op de home pagina klinkt dit allemaal te mooi om waar te zijn)
Stel dat ik kies voor totaal geen RAID te gebruiken, dan heb ik als het ware 4 datastores of ben ik mis? (1 datastore van de samsung 840 SSD, en 3 aparte datastores voor elk van de schijven). Kan ik dan onderstaande partities maken? Of gaat dit dan nog niet?
Voorbeeld SSD (datastore1 => opgedeeld over de 4 VM's):
- Windows server VM => 35 GB
- Linux ubuntu server VM1 => 20 GB
- Linux ubuntu server VM2 => 20 GB
- Linux ubuntu server VM3 => 20 GB
Bovenstaande is system data.
Voorbeeld HDD1-3 (datastore2-4):
- Windows Server VM => 300 GB
- Linux ubuntu server VM1 (multimedia data op ubuntu server waarschijnlijk freenas) => 4 TB
- Linux ubuntu server VM2 (LAMP) => 100 GB
- Linux ubuntu server VM3 (testvm) => 50 GB
Alvast bedankt voor de eerdere reactie!
Volgens mij bedoelt hij het volgende:cooLopke schreef op dinsdag 16 juli 2013 @ 11:35:
[...]
Wat bedoel je hier precies mee? Heb je hier misschien een voorbeeld van? Ik veronderstel dat ik dan 1 VM bv. Linux VM1 (waar al mijn multimedia data op draait) toch in RAID kan plaatsen? Die Linux VM1 gaat geen freenas worden, maar een gewone ubuntu server dan.
Je draait op 1 VM bijv linux, en slaat daar je .vmdk files op, en connect die weer terug naar ESXi, zodat je daar de rest van je vm's mee kan laden.
De i5-3330 is ook redelijk zuinig en de goedkoopste proc als je VT-d (meerdere mensen hier hebben hem draaien, incl. mijzelf)Als bovenstaande manier "werkt" dan niet, indien ik dit wil dan moet ik eigenlijk mijn Intel Celeron vervangen door een i5-3330. Dit is wel even balen, aangezien ik die Intel Celeron G1610 heb gekocht op aanraden van het grote zuinige server topic.
RAID =! Backup.Als ik RAID kan opstellen voor linux VM1 (ubuntu server), zoals heel bovenaan staat heb ik niet zozeer een backup meer nodig. Het is dus vooral de data van de fileserver wat ik gebackupt wil hebben of als redundantie mogelijk is, is dat ook goed.
ZFS is idd. redelijk populair op het moment vanwege alle features. Je zou ook nog kunnen kijken naar Nexenta (solaris) of NAS4Free (FreeBSD). Zeker met grote hoeveelheden data (meerdere TB's) is ZFS aan te raden, al alleen maar vanwege het feit dat een RAID5 array van 5 TB verschrikkelijk lang duurt om te rebuilden (waardoor statistisch de kans erg groot is dat er tijdens de rebuild is mis gaat).Externe backups is natuurlijk een oplossing, maar zoals je ziet ga ik 4 TB data op de fileserver hebben, dus dat wil zeggen dat ik nog een aantal externe schijfjes ga moeten bijkopen, dan koop ik beter een i5-3330 (zelfde hoeveelheid geld kwijt), zodat ik VT-d heb en ZFS kan kiezen. (Het is trouwens de eerste keer dat ik over ZFS hoor, blijkbaar is dit het meest geavanceerde bestandssysteem ooit! Als ik kijk op ZFSguru.com en hetgene lees op de home pagina klinkt dit allemaal te mooi om waar te zijn)
Let wel op dat ZFS nog al memory hungry is (1GB per TB storage en sowieso al 4GB base uit mijn hoofd), dus met al je andere VM's zou je qua geheugen nog problemen kunnen krijgen als je niet meer geheugen bijkoopt.
In principe kan dat wel, vraag is of je dat wil i.v.m. hardware failure en backups e.d.Stel dat ik kies voor totaal geen RAID te gebruiken, dan heb ik als het ware 4 datastores of ben ik mis? (1 datastore van de samsung 840 SSD, en 3 aparte datastores voor elk van de schijven). Kan ik dan onderstaande partities maken? Of gaat dit dan nog niet?
Compromises are for the weak
Stel je hebt 4 * 1TB onboard aangesloten, je maakt RDM mappings aan van al die schijven naar je Linux VM. Deze laat je door MDADM *in* de VM te gebruiken, een RAID5 (of 6) array maken en deze exporteer je via NFS lokaal weer terug aan ESXi (over het netwerk dus). Daarna kan je nieuwe VM's aanmaken op die NFS share.cooLopke schreef op dinsdag 16 juli 2013 @ 11:35:
[...]
Oké, dit is al positief. Dan ga ik inderdaad kiezen om te booten via USB.
[...]
Wat bedoel je hier precies mee? Heb je hier misschien een voorbeeld van? Ik veronderstel dat ik dan 1 VM bv. Linux VM1 (waar al mijn multimedia data op draait) toch in RAID kan plaatsen? Die Linux VM1 gaat geen freenas worden, maar een gewone ubuntu server dan.
In ieder geval zou dat ideaal zijn, omdat op deze VM de grootste hoeveelheid data terecht komt. Hoe kan ik dit precies doen? Over hoeveel performantie verlies spreek je dan?
Een i5-3330 verbruikt idle maar een fractie (lees hooguit 4-5W) meer dan een G1610. En een G1610 raak je tweedehands makkelijk kwijt.. (*hint hint, kies mij[...]
Als bovenstaande manier "werkt" dan niet, indien ik dit wil dan moet ik eigenlijk mijn Intel Celeron vervangen door een i5-3330. Dit is wel even balen, aangezien ik die Intel Celeron G1610 heb gekocht op aanraden van het grote zuinige server topic.
Als je ZFS zou gaan gebruiken zou ik het nog wel ok vinden (dan kan je met snapshots nog op een redelijke manier backups maken) maar met Linux RAID is dat echt gevaarlijk. RAID is echt niet heilig.[...]
Als ik RAID kan opstellen voor linux VM1 (ubuntu server), zoals heel bovenaan staat heb ik niet zozeer een backup meer nodig. Het is dus vooral de data van de fileserver wat ik gebackupt wil hebben of als redundantie mogelijk is, is dat ook goed.
Nee hoor, ik raad MDADM helemaal niet af, ik heb het zelf jaren gebruikt. Ik raad het alleen af in combinatie met ESXi zonder VT-d en vanwege performance. MDADM is een prima RAID engine, maar is niet super snel als het gaat om random IOPS, sequentieel is het prima.[...]
MDADM is hetgene wat ik momenteel gebruik voor de ubuntu server. Jij raadt dit sterk af. Ik veronderstel dat je dan nog meer performantie verlies hebt of waarom gaat dit precies *slecht* functioneren?
Je gaat mij niet vertellen dat die 4TB onvervangbaar is... Je kan voor het geld dat je uitspaart op je CPU ook een extra 4TB schijf kopen en die in een externe USB3.0 behuizing zetten en 90% van al je data backuppen... Het is maar waar je je prioriteiten legt. Als je mensen vraagt wat *echt* belangrijk is, komen ze vaak maar aan een paar GB. Dat kan prima op DropBox of op CrashPlan...Externe backups is natuurlijk een oplossing, maar zoals je ziet ga ik 4 TB data op de fileserver hebben, dus dat wil zeggen dat ik nog een aantal externe schijfjes ga moeten bijkopen, dan koop ik beter een i5-3330 (zelfde hoeveelheid geld kwijt), zodat ik VT-d heb en ZFS kan kiezen. (Het is trouwens de eerste keer dat ik over ZFS hoor, blijkbaar is dit het meest geavanceerde bestandssysteem ooit! Als ik kijk op ZFSguru.com en hetgene lees op de home pagina klinkt dit allemaal te mooi om waar te zijn)
Als je echt 4TB aan films van je kinderen hebt ofzo die onvervangbaar zijn, dan moet je ook niet voor zo'n goedkope oplossing gaan...
Ja dat kan wel, alleen kan je niet zomaar een VM over meerdere disks heel 'spannen' dan moet je de VM meerdere schijven geven. ESXi heeft geen pools ofzo als het gaat om lokale schijven.Stel dat ik kies voor totaal geen RAID te gebruiken, dan heb ik als het ware 4 datastores of ben ik mis? (1 datastore van de samsung 840 SSD, en 3 aparte datastores voor elk van de schijven). Kan ik dan onderstaande partities maken? Of gaat dit dan nog niet?
Voorbeeld SSD (datastore1 => opgedeeld over de 4 VM's):
- Windows server VM => 35 GB
- Linux ubuntu server VM1 => 20 GB
- Linux ubuntu server VM2 => 20 GB
- Linux ubuntu server VM3 => 20 GB
Bovenstaande is system data.
Voorbeeld HDD1-3 (datastore2-4):
- Windows Server VM => 300 GB
- Linux ubuntu server VM1 (multimedia data op ubuntu server waarschijnlijk freenas) => 4 TB
- Linux ubuntu server VM2 (LAMP) => 100 GB
- Linux ubuntu server VM3 (testvm) => 50 GB
Alvast bedankt voor de eerdere reactie!
(Voor de andere ESXi kenners: Laten we alsjeblieft extents buiten beschouwing laten, dat is een waardeloze functie om in deze context te gebruiken...)
Uh, je legt het erg vaag uit, doe maar nietTha_Butcha schreef op dinsdag 16 juli 2013 @ 13:16:
[...]
Volgens mij bedoelt hij het volgende:
Je draait op 1 VM bijv linux, en slaat daar je .vmdk files op, en connect die weer terug naar ESXi, zodat je daar de rest van je vm's mee kan laden.
Couldn't agree more...[...]
De i5-3330 is ook redelijk zuinig en de goedkoopste proc als je VT-d (meerdere mensen hier hebben hem draaien, incl. mijzelf)
[...]
RAID =! Backup.
Dat is een enterprise vuistregel, en helemaal niet van toepassing bij thuisgebruikers.[...]
ZFS is idd. redelijk populair op het moment vanwege alle features. Je zou ook nog kunnen kijken naar Nexenta (solaris) of NAS4Free (FreeBSD). Zeker met grote hoeveelheden data (meerdere TB's) is ZFS aan te raden, al alleen maar vanwege het feit dat een RAID5 array van 5 TB verschrikkelijk lang duurt om te rebuilden (waardoor statistisch de kans erg groot is dat er tijdens de rebuild is mis gaat).
Let wel op dat ZFS nog al memory hungry is (1GB per TB storage en sowieso al 4GB base uit mijn hoofd), dus met al je andere VM's zou je qua geheugen nog problemen kunnen krijgen als je niet meer geheugen bijkoopt.
Mee eens.[...]
In principe kan dat wel, vraag is of je dat wil i.v.m. hardware failure en backups e.d.
Even niets...
Ja, ik heb het ff versimpeld uitgelegd. Maar goed, wil je hem echt laten klooien met RDM's en RAID?FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
[...]
Uh, je legt het erg vaag uit, doe maar niet
Ik had hem van de FreeNAS ZFS system requirements. In hoeverre geldt dat voor Tweakers (powerusers die flink wat HD content over hun netwerk pompen en veel filesharing doet)?Dat is een enterprise vuistregel, en helemaal niet van toepassing bij thuisgebruikers.
Het destreffende stukje:
The best way to get the most out of your FreeNAS® system is to install as much RAM as possible. If your RAM is limited, consider using UFS until you can afford better hardware. FreeNAS® with ZFS typically requires a minimum of 8 GB of RAM in order to provide good performance and stability. The more RAM, the better the performance, and the FreeNAS® Forums provide anecdotal evidence from users on how much performance is gained by adding more RAM. For systems with large disk capacity (greater than 8 TB), a general rule of thumb is 1 GB of RAM for every 1 TB of storage.
Compromises are for the weak
Oké... Als ik het goed begrijp dan ben je eigenlijk alle VM's op die één bepaalde VM aan het plaatsen? M.a.w. gaat er dan 1 "storage vm" zijn met alle VMDK bestanden op en heb je de zogezegde MDADM RAID. Klopt dit?FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Stel je hebt 4 * 1TB onboard aangesloten, je maakt RDM mappings aan van al die schijven naar je Linux VM. Deze laat je door MDADM *in* de VM te gebruiken, een RAID5 (of 6) array maken en deze exporteer je via NFS lokaal weer terug aan ESXi (over het netwerk dus). Daarna kan je nieuwe VM's aanmaken op die NFS share.
Als ik een processor kies uit deze lijst zou kiezen. Dan zou VT-d dus moeten werken? Dan kan ik dus ook een 2dehandse processor zoeken uit de Sandy Bridge of eerdere reeks of is er een reden waarom iedereen de i5-3330 neemt?FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Een i5-3330 verbruikt idle maar een fractie (lees hooguit 4-5W) meer dan een G1610. En een G1610 raak je tweedehands makkelijk kwijt.. (*hint hint, kies mij*)
Ik hoop daarom dat het ook mogelijk is met een vorige generatie processor uit de sandy bridge reeks. Een i5-2400 bijvoorbeeld.FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Als je ZFS zou gaan gebruiken zou ik het nog wel ok vinden (dan kan je met snapshots nog op een redelijke manier backups maken) maar met Linux RAID is dat echt gevaarlijk. RAID is echt niet heilig.
Oké, ik begrijp het.FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Nee hoor, ik raad MDADM helemaal niet af, ik heb het zelf jaren gebruikt. Ik raad het alleen af in combinatie met ESXi zonder VT-d en vanwege performance. MDADM is een prima RAID engine, maar is niet super snel als het gaat om random IOPS, sequentieel is het prima.
Nee, als een schijf crasht dan is het zo natuurlijk. Niets aan te doen. Ik weet dat RAID =! Backup, maar iets van de 2 hebben is altijd beter dan geen van beide...FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Je gaat mij niet vertellen dat die 4TB onvervangbaar is... Je kan voor het geld dat je uitspaart op je CPU ook een extra 4TB schijf kopen en die in een externe USB3.0 behuizing zetten en 90% van al je data backuppen... Het is maar waar je je prioriteiten legt. Als je mensen vraagt wat *echt* belangrijk is, komen ze vaak maar aan een paar GB. Dat kan prima op DropBox of op CrashPlan...
Als je echt 4TB aan films van je kinderen hebt ofzo die onvervangbaar zijn, dan moet je ook niet voor zo'n goedkope oplossing gaan...
Zoals ik eerder heb vermeldt, heb ik nog nooit een ESXI server opgezet, dus ik weet ook totaal niet hoe het zit met de verdeling van de storage. Ik zoek alleen naar de best mogelijke oplossing voor mijn huidige hardware. Hoe kan ik best te werk gaan als ik de OS'en dus system data op de SSD wil en data op de HDD's. Indien die SSD voor miserie zorgt, dan leg ik deze er wel buiten en blijf ik gewoon bij de HDD's.FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Ja dat kan wel, alleen kan je niet zomaar een VM over meerdere disks heel 'spannen' dan moet je de VM meerdere schijven geven. ESXi heeft geen pools ofzo als het gaat om lokale schijven.
(Voor de andere ESXi kenners: Laten we alsjeblieft extents buiten beschouwing laten, dat is een waardeloze functie om in deze context te gebruiken...)
Het zou handig zijn als je schetsje maakt voor zowel als ik kies voor de optie aparte HDD's en als ik ga voor ZFS. Dat zou me al een stuk verder helpen.
Ik ben toch al wat wijzer geworden dus hartelijk bedankt voor de reacties! Ook mijn excuses indien mijn reacties te "dom" overkomen, want als ik sommige pro posts hier lees..
edit: na wat nadenken dat ik de storage wijze van esxi begin te begrijpen. Dus zoals je eerder aanhaalde gaan de VM's op een SSD/HDD worden opgeslaan. Dus hiervoor kies ik voor mijn SSD aangezien ik wil dat mijn VM's snel zijn opgestart. De aparte HDD's kan ik dan gebruiken als datastores en die als volgt toevoegen aan de betreffende VM's. Klopt dit?
[ Voor 5% gewijzigd door cooLopke op 17-07-2013 02:03 ]
Ik zou graag willen weten of dit werkt
Thanks
Wat ik me nou afvraag, is dit nou te combineren in één machine?
Dat zou namelijk betekenen dat ik maar 1x in hardware hoef te investeren.
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Jup. Het is niet verplicht om alle VM's dan op die ene storage VM te zetten, je kan natuurlijk mixen tussen SSD(VMFS) en NFS datastores.cooLopke schreef op woensdag 17 juli 2013 @ 00:50:
[...]
Oké... Als ik het goed begrijp dan ben je eigenlijk alle VM's op die één bepaalde VM aan het plaatsen? M.a.w. gaat er dan 1 "storage vm" zijn met alle VMDK bestanden op en heb je de zogezegde MDADM RAID. Klopt dit?
De i5-3330 is een fractie zuiniger (<10%) en een fractie sneller (<10%)[...]
Als ik een processor kies uit deze lijst zou kiezen. Dan zou VT-d dus moeten werken? Dan kan ik dus ook een 2dehandse processor zoeken uit de Sandy Bridge of eerdere reeks of is er een reden waarom iedereen de i5-3330 neemt?
Ja dat kan prima, let alleen wel op dat je geen -K versie neemt.[...]
Ik hoop daarom dat het ook mogelijk is met een vorige generatie processor uit de sandy bridge reeks. Een i5-2400 bijvoorbeeld.
Er zijn geen domme vragen, alleen domme antwoorden[...]
Oké, ik begrijp het.
[...]
Nee, als een schijf crasht dan is het zo natuurlijk. Niets aan te doen. Ik weet dat RAID =! Backup, maar iets van de 2 hebben is altijd beter dan geen van beide...
[...]
Zoals ik eerder heb vermeldt, heb ik nog nooit een ESXI server opgezet, dus ik weet ook totaal niet hoe het zit met de verdeling van de storage. Ik zoek alleen naar de best mogelijke oplossing voor mijn huidige hardware. Hoe kan ik best te werk gaan als ik de OS'en dus system data op de SSD wil en data op de HDD's. Indien die SSD voor miserie zorgt, dan leg ik deze er wel buiten en blijf ik gewoon bij de HDD's.
Het zou handig zijn als je schetsje maakt voor zowel als ik kies voor de optie aparte HDD's en als ik ga voor ZFS. Dat zou me al een stuk verder helpen.
Ik ben toch al wat wijzer geworden dus hartelijk bedankt voor de reacties! Ook mijn excuses indien mijn reacties te "dom" overkomen, want als ik sommige pro posts hier lees..
edit: na wat nadenken dat ik de storage wijze van esxi begin te begrijpen. Dus zoals je eerder aanhaalde gaan de VM's op een SSD/HDD worden opgeslaan. Dus hiervoor kies ik voor mijn SSD aangezien ik wil dat mijn VM's snel zijn opgestart. De aparte HDD's kan ik dan gebruiken als datastores en die als volgt toevoegen aan de betreffende VM's. Klopt dit?
VM's die snelopstarten? Waarom? Je server staat toch altijd aan, en als dat niet zo is, zit je langer op het booten van ESXi te wachten dan al die VM's bij elkaar... ESXi boot zelfs van SSD nog meer dan 1 minuut.
Een Windows 8 VM van disk doet er hooguit 20-30 seconden over, dus daar zou ik het allemaal niet vanaf laten hangen. Natuurlijk reageert een VM op SSD veel snappier/lekkerder dan een VM op een HDD.
Verder klopt je verhaal inderdaad, je kan alle boot partities van je VM's op SSD zetten en ze allemaal een extra disk geven met vele GB's vanaf de datastore die vanaf de "Storage VM" komt.
(Let dan wel op met de opstartvolgorde, al je gewone VM's kunnen pas opgestart worden als je storage VM er al is.)
Even niets...
Verwijderd
Ik ben deze week weer begonnen met ESXi gpu passthrough (voorheen Xen gebruikt), je moet echter wel een flinke bak geheugen reserveren en spelen in de vm configs met PCIhole.start en .end Heb nu een AMD HD5450(HTPC) en HD7950(Gaming bak) werkende.Savages schreef op woensdag 17 juli 2013 @ 13:19:
Ik ben ook aan het kijken om een zuinige ESXi server in te richten. Ik was al een lijst met hardware componenten aan het samenstellen. Mijn huidige workstation/gamepc is echter ook aan vervanging toe.![]()
Wat ik me nou afvraag, is dit nou te combineren in één machine?Kan ESXi nu ook als een valide alternatief functioneren voor een Windows7 desktop met VMware Workstation? Dus 1 VM die als reguliere desktop werkt, en andere VMs die gewoon virtueel draaien zonder directe hardware-interactie.
Dat zou namelijk betekenen dat ik maar 1x in hardware hoef te investeren.Ik maak alleen gebruik van virutalisatie om een lab/speeltuin-omgeving op te zetten, dus de VMs hoeven niet continue te draaien. Ik vraag me dus af of ik een dualboot-omgeving met gamepc en workstation + virtual lab kan combineren in een Haswell-based systeem.
Al om al, het werkt wel, maar je moet er wel het 1 en ander voor doen. Out of the box werkt het bijna niet.
Even niets...
Ja dat werkt. Je moet spindown dan uiteraard op de VM configureren.McGreenNL schreef op woensdag 17 juli 2013 @ 12:02:
Ik zie verschilende verhalen over Physical RDM's en Spindown, de 1 zegt dat dit erkt en de ander zegt dat het niet werkt.
Ik zou graag willen weten of dit werkt
Thanks
Gewoon een heel grote verzameling snoertjes
Daarnaast moet er een VM gaan zorgen voor storage (via ZFS, memory-slurper dus) en wat andere zaken. Maar dat geloof ik eerlijk gezegd wel, zal weinig verschil zijn met Parallels/VMware Workstation. De vraag is alleen of de onboard controllers van de Z87-chipset goed worden ondersteund in ESXi.
Ik had ondertussen dit topic al gestart: [aankoopadvies] gamepc / workstation / mogelijk vm-lab. Tot op heden helaas erg weinig reactie.
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Ik wil graag een discussie aanslingeren over de mogelijkheid om RAID 1 te draaien vanaf de asmedia controller.Compizfox schreef op dinsdag 19 februari 2013 @ 13:42:
Ik heb nu alle PCI-e sloten geprobeerd. Het lijkt niet daarvan afhankelijk te zijn. Andere kaarten op de PCI-e sloten (zoals mijn videokaart) blijven wel gewoon werken. Het is dus niet zo dat hij alle PCI-e bridges 'meepassthrought'.
Blijkbaar is die ASM1061 toch afhankelijk van een onboard SATA-controller om te functioneren of zo.
Wat ik nu heb gedaan: (fear my Paint skillz)
[afbeelding]
Dat "Unkown Unknown" staat er trouwens ook als ik de onboard HBA niet heb doorgeven, maar dan werkt hij gewoon.
EDIT: Als ik mijn onboard SATA-controller disable in de BIOS, werkt mijn ASM1061 ook niet in ESXi! Ik vermoed dus dat het probleem 'breder' ligt dan ESXi.
Zelf heb ik het volgende systeem:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 157,- | € 157,- |
1 | ASRock B75 Pro3-M | € 55,95 | € 55,95 |
1 | Seagate Barracuda 7200.14 ST1000DM003, 1TB | € 53,85 | € 53,85 |
5 | Western Digital Green WD20EARX, 2TB | € 81,90 | € 409,50 |
1 | Cooler Master Silencio 550 | € 66,95 | € 66,95 |
1 | Intel Gigabit CT Desktop Adapter | € 23,09 | € 23,09 |
2 | Kingston KVR1333D3N9/8G | € 56,- | € 112,- |
1 | Kingston ValueRAM KVR1333D3N9K2/8G | € 60,90 | € 60,90 |
1 | Recom RC-PE0DB580 | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 939,24 |
Omdat ik hier ook een gameserver op draai, leek het me handig om als extra beveiliging een RAID 1 setup te maken voor mijn datastore (de seagate 1TB schijf). Ik wil eigenlijk weten of jullie denken of dit wel of niet mogelijk gaat zijn.
Beroeps brabander
Antec heeft ze een aantal jaren geleden ook gebruikt in o.a. hun Smartpower voedingen en in die tijd zijn er heel wat PC's gesloopt door ontploffende Fuhjyyu condensators in de voeding.
In een server is het dus helemaal niet verstandig om zo'n voeding te gebruiken. Sowieso is het verstandig om de condensators (als er Fuhjyyu's in zitten) maandelijks te controleren, als je hem wel gebruikt.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dus je wil een datastore draaien in Raid1 vanaf je mobo (die asmedia controller). Maar waar wil je ESXi zelf op installeren (USB stick?) en waar wil je de rest van de HD's voor gebruiken, ook als datastore?Vuurvoske schreef op woensdag 17 juli 2013 @ 16:47:
Omdat ik hier ook een gameserver op draai, leek het me handig om als extra beveiliging een RAID 1 setup te maken voor mijn datastore (de seagate 1TB schijf). Ik wil eigenlijk weten of jullie denken of dit wel of niet mogelijk gaat zijn.
Compromises are for the weak
Maar voor de VM die die 4x 1TB gaat doorgeven aan ESXi als NFS moet je nog steeds een disk hebben als datastore? Dus buiten die 4x 1TB om?FireDrunk schreef op dinsdag 16 juli 2013 @ 14:00:
Stel je hebt 4 * 1TB onboard aangesloten, je maakt RDM mappings aan van al die schijven naar je Linux VM. Deze laat je door MDADM *in* de VM te gebruiken, een RAID5 (of 6) array maken en deze exporteer je via NFS lokaal weer terug aan ESXi (over het netwerk dus). Daarna kan je nieuwe VM's aanmaken op die NFS share.
Als je de controller doorgeeft aan een Windows VM kan je misschien wel in windows RAID1 gebruiken, maar of je wat wil... Als je de controller doorgeeft aan linux kan je prima software RAID doen inderdaad.Vuurvoske schreef op woensdag 17 juli 2013 @ 16:47:
[...]
Ik wil graag een discussie aanslingeren over de mogelijkheid om RAID 1 te draaien vanaf de asmedia controller.
Zelf heb ik het volgende systeem:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 157,- € 157,- 1 ASRock B75 Pro3-M € 55,95 € 55,95 1 Seagate Barracuda 7200.14 ST1000DM003, 1TB € 53,85 € 53,85 5 Western Digital Green WD20EARX, 2TB € 81,90 € 409,50 1 Cooler Master Silencio 550 € 66,95 € 66,95 1 Intel Gigabit CT Desktop Adapter € 23,09 € 23,09 2 Kingston KVR1333D3N9/8G € 56,- € 112,- 1 Kingston ValueRAM KVR1333D3N9K2/8G € 60,90 € 60,90 1 Recom RC-PE0DB580 € 0,- € 0,- Bekijk collectie
Importeer productenTotaal € 939,24
Omdat ik hier ook een gameserver op draai, leek het me handig om als extra beveiliging een RAID 1 setup te maken voor mijn datastore (de seagate 1TB schijf). Ik wil eigenlijk weten of jullie denken of dit wel of niet mogelijk gaat zijn.
Let wel even op met de bekende problemen over het doorgeven van die extra controllers.
Jup, maar die kan je dan op SSD zetten toch?sphere schreef op donderdag 18 juli 2013 @ 00:37:
[...]
Maar voor de VM die die 4x 1TB gaat doorgeven aan ESXi als NFS moet je nog steeds een disk hebben als datastore? Dus buiten die 4x 1TB om?
Even niets...
Neem aan dat je de andere schijven ook in een RAID setup gaat zetten? Waarom die dan niet gebruiken als datastore voor je gameserver VM?Vuurvoske schreef op woensdag 17 juli 2013 @ 16:47:
Omdat ik hier ook een gameserver op draai, leek het me handig om als extra beveiliging een RAID 1 setup te maken voor mijn datastore (de seagate 1TB schijf). Ik wil eigenlijk weten of jullie denken of dit wel of niet mogelijk gaat zijn.
Oh en de onboard NIC van dat moederbord werkt prima in ESXi, dus tenzij je met twee NIC's wilt werken heb je geen extra NIC nodig
[ Voor 12% gewijzigd door Tsurany op 18-07-2013 08:55 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N

Deze setup draait al ruim een jaar nu. De extra NIC heb ik gekozen voor stabiliteit.
Op de datastore staan in totaal 4 vm's. Ik wil RAID 1 vanuit het moederbord aanzetten. Zodat ik altijd een copy heb van de gehele datastore. Dus niet passthrough doorzetten aan 1 vm.
Hieronder een layout van de vm's:
Naam | OS | Doel | Resources | NIC | Actief/Gepland |
Aristoteles | ZFSguru 9.x.x | Opslag | 1 core, 14GB RAM, 10GB vdisk, 5x2TB WD EARX | INTEL | Actief |
Socrates | Ubuntu 12.04 LTS x64 | Download (Sabnzbd, Transmission, Sickbeard | 1 core, 2GB RAM, 8GB vdisk, 500GB vdisk | Realtek | Actief |
Plato | Debian 7 Testing | Webserver (gepland) | 1 core, 512MB RAM, 8GB vdisk | Realtek | Actief |
Homerus | Windows 2008 R2 Server x64 (ENT) | Gameserver | 1 core, 6GB RAM, 70GB vdisk, 50GB vdisk | INTEL | Actief |
Epicurus | Windows 7 SP2 x64 (business) | Beheer | 1 core, 2GB RAM, 40GB vdisk | Realtek | Gepland |
Hardware specificaties:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 157,- | € 157,- |
1 | ASRock B75 Pro3-M | € 56,93 | € 56,93 |
1 | ICIDU Secure Digital Ultra 8GB | € 7,83 | € 7,83 |
1 | Seagate Barracuda 7200.14 ST1000DM003, 1TB | € 53,85 | € 53,85 |
5 | Western Digital Green WD20EARX, 2TB | € 81,90 | € 409,50 |
1 | Cooler Master Silencio 550 | € 66,95 | € 66,95 |
1 | Intel Gigabit CT Desktop Adapter | € 24,50 | € 24,50 |
2 | Kingston KVR1333D3N9/8G | € 56,- | € 112,- |
1 | Kingston ValueRAM KVR1333D3N9K2/8G | € 60,90 | € 60,90 |
1 | Recom RC-PE0DB580 | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 949,46 |
[ Voor 69% gewijzigd door Vuurvoske op 18-07-2013 14:17 ]
Beroeps brabander
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.