~ beware of misinformation.
Voor 't eind van 't jaar wil ik nl. een VMware homelab opstelling hebben, waarmee ik o.a. vsan kan gebruiken.
Ben nu in de oriëntatie-fase daarvoor.
[ Voor 28% gewijzigd door Cranberry op 15-07-2015 15:46 ]
Inderdaad, heb je wel gelijk in. Hardwarematig zou het in orde moeten zijn. Wel spijtig dat ge voor gelijkaardige prijs en formfactor niets anders vind.Cranberry schreef op woensdag 15 juli 2015 @ 15:45:
Interessant, maar 8GB is wel heel erg weinig. Als dat 32GB zou zijn, zou het voor mij de ideale component zijn voor een VMware homelab opstelling, mits de HW-ondersteuning m.b.t. ESXi in orde is.
Voor 't eind van 't jaar wil ik nl. een VMware homelab opstelling hebben, waarmee ik o.a. vsan kan gebruiken.
Ben nu in de oriëntatie-fase daarvoor.
~ beware of misinformation.
Als je echt VSAN wil gaan draaien, moet je best wat hardware kopen... (Ik spreek uit ervaring
Even niets...
Voornaamste doel is dat ik functioneel wil kunnen spelen met o.a. VSAN om enige ervaring op te doen, al gebied de eerlijkheid mij te zeggen dat ik vnl. i.v.m. certificeringen en examens hiermee zal spelen. Daarnaast zal ik er vrij weinig mee doen, aangezien m'n primaire focus Citrix (behalve Xenserver) is.
Misschien is daarom een sw-VSAN wel net zo verstandig.....
Voordat ik definitief ga bestellen, wil ik m'n keuze hier even laten checken.
Met de machine heb ik een tweeledig doel:
1. Het draaien van een complete, redundante Citrix VDI-omgeving. Dit bestaat uit in totaal uit zo'n 10 VM's (naast natuurlijk nog een domain controller en vCenter server enz). Naast VMware wil ik ook met MS Hyper-V als virtualisatieplatform spelen.
2. Het draaien een lab-omgeving i.v.m. VMware-certificeringen. Daarbij gaat het vooral om het feeling krijgen met de verschillende functionaliteiten/concepten. Perforance is daaraan ondergeschikt. Zoals uit posts hierboven blijkt, wil ik bijv. ook met vSAN gaan spelen, maar omdat m'n primaire focus meer op Citrix/VDI ligt, opteer ik voor een configuratie met één fysieke host met daarop virtuele (nested) ESXi (en evt. Hyper-V) servers. Mocht toekomstige ontwikkelingen het zinvol maken, dan kan ik nog 2 extra fysieke machines aanschaffen om nog wat serieuzer met e.e.a. aan de slag te gaan. Mogelijk zijn 2 NUCs met min. 32GB memory dan (beter) beschikbaar om hiermee een cluster van fysieke machines te bouwen.
Initieel ben ik voornemens om een Freenas VM in te zetten als shared storage. Deze VM krijgt storage d.m.v. een VMDK. Mocht het wenselijk/noodzakelijk zijn, dan schaf ik extra schijven aan, incl. een extra controller om de Freenas VM via passthrough direct toegang tot fysieke schijven te geven.
Hierbij m'n voorlopige configuratie:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 4440 Boxed | € 179,95 | € 179,95 |
1 | ASRock B85M Pro4 | € 64,- | € 64,- |
1 | WD Green WD30EZRX | € 99,50 | € 99,50 |
1 | Fractal Design Arc Mini R2 | € 75,95 | € 75,95 |
1 | Fractal Design Node 304 Zwart | € 72,95 | € 72,95 |
2 | Kingston KVR16N11K2/16 | € 83,50 | € 167,- |
1 | be quiet! System Power 7 300W | € 32,95 | € 32,95 |
1 | Samsung 850 EVO 500GB | € 179,95 | € 179,95 |
Bekijk collectie Importeer producten | Totaal | € 872,25 |
Ik ben er nog niet uit of ik een Fractal Design Arc Mini R2 of een Fractal Design Node 304 Zwart neem. Qua koeling lijkt de Mini R2 me een betere keus. De Node 304 zou mooi onder een schapje waarop de printer staat, kunnen worden geplaatst.
'k Ben benieuwd naar jullie mening over bovenstaande!
Deze topic al gezien: https://forum.pfsense.org/index.php?topic=75415.0 ?Nindustries schreef op woensdag 15 juli 2015 @ 15:31:
Dit doosje zou nog wel een leuke, kleine, goedkope oplossing zijn voor een vsan clustertje. Wel max 8GB SODIMM memory per host.
[ Voor 36% gewijzigd door |sWORDs| op 24-07-2015 16:13 ]
Te Koop:24 Core Intel Upgradeset
[ Voor 41% gewijzigd door ppl op 24-07-2015 16:21 ]
Yes, daar had ik het oorspronkelijk vandaanDadona schreef op vrijdag 24 juli 2015 @ 16:03:
[...]
Deze topic al gezien: https://forum.pfsense.org/index.php?topic=75415.0 ?
~ beware of misinformation.
Het is inderdaad krap ja. Wat ik nog wel vergeten ben te vermelden (en dat is voor bovenstaand aspect m.i. zeker relevant), is dat deze machine hooguit een paar uurtjes per week draait om zaken te testen, (functioneel) uit te proberen enz. De meeste VM's zullen, nadat ze gestart zijn, voor >95% idle zijn verwacht ik. CPU-capaciteit en performance van een SSD zijn daarom voldoende denk ik. Memory blijft een potentiele bottleneck, al kan TPS daarin wel soelaas bieden tot op zeker hoogte).|sWORDs| schreef op vrijdag 24 juli 2015 @ 16:04:
Ik zou er niet graag op werken. 12+ VM's op nested ESXi met maar 4 cores en een enkele SSD met een commandqueue van 31? Geheugen kan ook wel eens heel erg krap worden, na vCenter is er nog maar 1,75GB per VM beschikbaar, misschien voldoende, misschien niet.
Een wat minder uitgebreide omgeving draaide voor mij acceptabel op een i5 laptop met 16GB memory.
I.i.g. zal ik n.a.v. je reactie er nog eens een nacht goed over slapen
Even niets...
[ Voor 3% gewijzigd door Cranberry op 24-07-2015 18:22 ]
Even niets...
Zelf had ik ook zoiets in gedachte, maar ben uiteindelijk voor het volgende gegaan:Cranberry schreef op vrijdag 24 juli 2015 @ 15:47:
Deze week heb ik de nodige uurtjes gestoken in het samenstellen van een 'virtualisatiebak'.
Voordat ik definitief ga bestellen, wil ik m'n keuze hier even laten checken.
Met de machine heb ik een tweeledig doel:
1. Het draaien van een complete, redundante Citrix VDI-omgeving. Dit bestaat uit in totaal uit zo'n 10 VM's (naast natuurlijk nog een domain controller en vCenter server enz). Naast VMware wil ik ook met MS Hyper-V als virtualisatieplatform spelen.
2. Het draaien een lab-omgeving i.v.m. VMware-certificeringen. Daarbij gaat het vooral om het feeling krijgen met de verschillende functionaliteiten/concepten. Perforance is daaraan ondergeschikt. Zoals uit posts hierboven blijkt, wil ik bijv. ook met vSAN gaan spelen, maar omdat m'n primaire focus meer op Citrix/VDI ligt, opteer ik voor een configuratie met één fysieke host met daarop virtuele (nested) ESXi (en evt. Hyper-V) servers. Mocht toekomstige ontwikkelingen het zinvol maken, dan kan ik nog 2 extra fysieke machines aanschaffen om nog wat serieuzer met e.e.a. aan de slag te gaan. Mogelijk zijn 2 NUCs met min. 32GB memory dan (beter) beschikbaar om hiermee een cluster van fysieke machines te bouwen.
Initieel ben ik voornemens om een Freenas VM in te zetten als shared storage. Deze VM krijgt storage d.m.v. een VMDK. Mocht het wenselijk/noodzakelijk zijn, dan schaf ik extra schijven aan, incl. een extra controller om de Freenas VM via passthrough direct toegang tot fysieke schijven te geven.
Hierbij m'n voorlopige configuratie:
# Product Prijs Subtotaal 1 Intel Core i5 4440 Boxed € 179,95 € 179,95 1 ASRock B85M Pro4 € 64,- € 64,- 1 WD Green WD30EZRX € 99,50 € 99,50 1 Fractal Design Arc Mini R2 € 75,95 € 75,95 1 Fractal Design Node 304 Zwart € 72,95 € 72,95 2 Kingston KVR16N11K2/16 € 83,50 € 167,- 1 be quiet! System Power 7 300W € 32,95 € 32,95 1 Samsung 850 EVO 500GB € 179,95 € 179,95 Bekijk collectie
Importeer productenTotaal € 872,25
Ik ben er nog niet uit of ik een Fractal Design Arc Mini R2 of een Fractal Design Node 304 Zwart neem. Qua koeling lijkt de Mini R2 me een betere keus. De Node 304 zou mooi onder een schapje waarop de printer staat, kunnen worden geplaatst.
'k Ben benieuwd naar jullie mening over bovenstaande!
# | Product | Prijs | Subtotaal |
1 | WD Green WD30EZRX | € 99,50 | € 99,50 |
1 | Kingston KTD-PE316ES/4G | € 37,10 | € 37,10 |
1 | Dell Poweredge T20-3708 | € 367,- | € 367,- |
Bekijk collectie Importeer producten | Totaal | € 503,60 |
Geweldig mooie server voor dat geld!!
Verzamelpagina over de Dell T20: http://www.hardwareluxx.d...oweredge-t20-1031138.html
Als je geen echte load hebt is het prima. Maar als ik hier met 4 VM's zware load begin te creeren op een SSD die ook nog wat voor andere machines doet dan stort het als een kaartenhuis in elkaar (blijkbaar zit je snel in de steady-state en de beperkte queuedepth zal ook niet helpen). En dat is dan nog zonder nesting en Freenas er tussen. Voor nu meerdere SSD's voor mij en binnenkort de gok maar eens nemen dat de Intel NVMe driver de 750 slikt.Cranberry schreef op vrijdag 24 juli 2015 @ 18:09:
[...]
Het is inderdaad krap ja. Wat ik nog wel vergeten ben te vermelden (en dat is voor bovenstaand aspect m.i. zeker relevant), is dat deze machine hooguit een paar uurtjes per week draait om zaken te testen, (functioneel) uit te proberen enz. De meeste VM's zullen, nadat ze gestart zijn, voor >95% idle zijn verwacht ik. CPU-capaciteit en performance van een SSD zijn daarom voldoende denk ik. Memory blijft een potentiele bottleneck, al kan TPS daarin wel soelaas bieden tot op zeker hoogte).
Een wat minder uitgebreide omgeving draaide voor mij acceptabel op een i5 laptop met 16GB memory.
I.i.g. zal ik n.a.v. je reactie er nog eens een nacht goed over slapen
[ Voor 9% gewijzigd door |sWORDs| op 24-07-2015 20:50 ]
Te Koop:24 Core Intel Upgradeset
In je bios de boot rom uitzetten lost de problemen op.CptChaos schreef op zondag 21 juni 2015 @ 13:47:
In mijn Asus P8Z77-V LX werkte de P410 in ieder geval niet, hij werd totaal niet herkend en hield het bootproces gewoon op, want met de kaart er in ging het gewoon niet verder. Zonder die P410 uiteraard wel en met mijn P400 ook. P410 in een HP MicroServer van een collega gedaan, daar werkte hij vlekkeloos.
Die tip had ik toen ook voorbij zien komen en geprobeerd, maar werkte niet. Anders had ik de p410 wel gehouden.medal schreef op zaterdag 25 juli 2015 @ 00:31:
In je bios de boot rom uitzetten lost de problemen op.
HP hardware heeft vaak ook een HP bios nodig van mobo.
[ Voor 9% gewijzigd door CH4OS op 25-07-2015 01:20 ]
Ik heb redelijk schaamteloos
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 4440 Boxed | € 178,95 | € 178,95 |
1 | ASRock B85M Pro4 | € 64,- | € 64,- |
1 | Fractal Design Node 304 Zwart | € 72,95 | € 72,95 |
1 | Kingston KVR16N11K2/16 | € 84,- | € 84,- |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
1 | Samsung 850 EVO 500GB | € 181,- | € 181,- |
Bekijk collectie Importeer producten | Totaal | € 637,85 |
Waar ik erg benieuwt naar ben wat verwachten jullie van het stroom verbruik. Ik ga hier ESXi 5.5 (of misschien wel 6.0) op draaien met gemiddeld 10 VM's (meeste linux en een enkeling windows). Ik verwacht dat ongeveer 70/80% van de tijd de VM's niks staan te doen.
Kunnen jullie een schatting geven wat dit met het stroomverbruik doet? Het hoeft van mij namelijk niet ultra super zuinig (ik verwacht namelijk ook performance als ik dit nodig heb!).
Of hebben jullie eventueel een verbeter voorstel voor andere hardware?
Apple MacBook Pro 14 (2021), Mac mini M4 (2024), iPhone 16 Pro Max (2024) & AirPods Pro 2 (2022) | Cambridge Audio CXA80 | Project-Audio X2 | BlueSound NODE ICON | Q Acoustics 5050 | LG C3 65” OLED
Dan is esxi 6 wel aan te raden, dit scheelde bij mijn server 10w in verbruik t.o.v. esxi 5.5.prekz schreef op dinsdag 28 juli 2015 @ 12:37:
Waar ik erg benieuwt naar ben wat verwachten jullie van het stroom verbruik. Ik ga hier ESXi 5.5 (of misschien wel 6.0) op draaien met gemiddeld 10 VM's (meeste linux en een enkeling windows). Ik verwacht dat ongeveer 70/80% van de tijd de VM's niks staan te doen.
Kunnen jullie een schatting geven wat dit met het stroomverbruik doet? Het hoeft van mij namelijk niet ultra super zuinig (ik verwacht namelijk ook performance als ik dit nodig heb!).
Hmmm dat wist ik niet eens. Ik draai nog op 5.1. Zijn er nog nadelen aan 6.0 qua ondersteunde hardware?Delta1981 schreef op dinsdag 28 juli 2015 @ 15:38:
[...]
Dan is esxi 6 wel aan te raden, dit scheelde bij mijn server 10w in verbruik t.o.v. esxi 5.5.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Volgens mij is de ondersteuning voor bepaalde drivers in esxi 6 wel veranderd, maar misschien weten andere mensen op dit forum dit beter toe te lichten.Hmmm dat wist ik niet eens. Ik draai nog op 5.1. Zijn er nog nadelen aan 6.0 qua ondersteunde hardware?
er zit standaard minder in qua drivers, maar hangt volledig af wat je aan hardware hebt of je die drivers in de image moet plakken of niet, (is een makkelijk klusje overigens)Delta1981 schreef op dinsdag 28 juli 2015 @ 15:58:
[...]
Volgens mij is de ondersteuning voor bepaalde drivers in esxi 6 wel veranderd, maar misschien weten andere mensen op dit forum dit beter toe te lichten.
Welke nics en storage controllers gebruik je?
Te Koop:24 Core Intel Upgradeset
# | Product | Prijs | Subtotaal |
1 | ASRock N3150-ITX | € 89,66 | € 89,66 |
1 | Kingston ValueRAM KVR16LS11/8 | € 44,23 | € 44,23 |
Bekijk collectie Importeer producten | Totaal | € 133,89 |
Nog geen ervaringen met deze bordjes icm ESXi kunnen vinden, dus dat wordt een beetje spannend
Intel C2Q 9450@3.3 | Gigabyte P35-DS4 | Sapphire R280x | 4x 2GiB PC6400 Kingston DDR2 | 1x Intel 320SSD 240GB | 2x Spinpoint F1 320GiB
Te Koop:24 Core Intel Upgradeset
Intel C2Q 9450@3.3 | Gigabyte P35-DS4 | Sapphire R280x | 4x 2GiB PC6400 Kingston DDR2 | 1x Intel 320SSD 240GB | 2x Spinpoint F1 320GiB
Ik zou toch voor de Dell server gaan:prekz schreef op dinsdag 28 juli 2015 @ 12:37:
Hallo,
Ik heb redelijk schaamtelooseen lijst ergens hierboven gekopieerd:
# Product Prijs Subtotaal 1 Intel Core i5 4440 Boxed € 178,95 € 178,95 1 ASRock B85M Pro4 € 64,- € 64,- 1 Fractal Design Node 304 Zwart € 72,95 € 72,95 1 Kingston KVR16N11K2/16 € 84,- € 84,- 1 Seasonic G-series 360 watt € 56,95 € 56,95 1 Samsung 850 EVO 500GB € 181,- € 181,- Bekijk collectie
Importeer productenTotaal € 637,85
Waar ik erg benieuwt naar ben wat verwachten jullie van het stroom verbruik. Ik ga hier ESXi 5.5 (of misschien wel 6.0) op draaien met gemiddeld 10 VM's (meeste linux en een enkeling windows). Ik verwacht dat ongeveer 70/80% van de tijd de VM's niks staan te doen.
Kunnen jullie een schatting geven wat dit met het stroomverbruik doet? Het hoeft van mij namelijk niet ultra super zuinig (ik verwacht namelijk ook performance als ik dit nodig heb!).
Of hebben jullie eventueel een verbeter voorstel voor andere hardware?
# | Product | Prijs | Subtotaal |
1 | WD Green WD30EZRX | € 99,50 | € 99,50 |
1 | Kingston KTD-PE316ES/4G | € 37,10 | € 37,10 |
1 | Dell Poweredge T20-3708 | € 367,- | € 367,- |
Bekijk collectie Importeer producten | Totaal | € 503,60 |
Xeon, ECC, Intell AMT 9.0 en hele mooie kast etc..
Setup zoals jij geeft heeft slechts 8Gb geheugen waar ik 32Gb nodig heb.Shaggie_NB schreef op woensdag 29 juli 2015 @ 13:56:
[...]
Ik zou toch voor de Dell server gaan:
# Product Prijs Subtotaal 1 WD Green WD30EZRX € 99,50 € 99,50 1 Kingston KTD-PE316ES/4G € 37,10 € 37,10 1 Dell Poweredge T20-3708 € 367,- € 367,- Bekijk collectie
Importeer productenTotaal € 503,60
Xeon, ECC, Intell AMT 9.0 en hele mooie kast etc..
Ik kom van een intel nuc af met esxi (werkt overigens perfect!) ik loop hier tegen het geheugen aan van maximaal 16Gb wat gewoon te minimaal is voor mijn eisen.
Daarom zie ik niet direct het voordeel van zo'n Dell systeem, mogelijk dat je mij kan toelichten wat nou echt het voordeel in mijn geval zou zijn.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| Chipset initialization failed. 0:00:00:00.348 cpu0:1)Backtrace for current CPU #0, worldID=1, rbp=0x0 0:00:00:00.355 cpu0:1)0x410006418da8:[0x41800a076eea]<no symbols>+0xa076eea stack: 0x410006418e60, 0x0, 0x430000000001, 0 0:00:00:00.366 cpu0:1)0x410006418e38:[0x41800a0772a8]<no symbols>+0xa0772a8 stack: 0x100, 0x41800a083d08, 0x2, 0x417f0000 0:00:00:00.377 cpu0:1)0x410006418e58:[0x41800a083d08]<no symbols>+0xa083d08 stack: 0x410006418eb8, 0x410006418e78, 0x2, 0 0:00:00:00.389 cpu0:1)0x410006418eb8:[0x41800a057263]<no symbols>+0xa057263 stack: 0x410006420000, 0x14, 0x16, 0x41000642 0:00:00:00.400 cpu0:1)0x410006418ef8:[0x41800a000560]<no symbols>+0xa000560 stack: 0x410006422180, 0x410006424180, 0x2000 0:00:00:00.411 cpu0:1)0x410006418fb8:[0x41800a0c9208]<no symbols>+0xa0c9208 stack: 0x428000005000, 0x49bfb0, 0x41800a000e 0:00:00:00.423 cpu0:1)0x410006418fc0:[0x41800a001004]<no symbols>+0xa001004 stack: 0x49bfb0, 0x41800a000e84, 0x7253a9b0, 0:00:00:00.434 cpu0:1)The system has found a problem on your machine and cannot continue. Chipset initialization failed. 0:00:00:00.446 cpu0:1) 0:00:00:00.448 cpu0:1)vmkernel 0x0 .data 0x0 .bss 0x0 0:00:00:00.455 cpu0:1)Dump system not initialized. Entered debugger before PRDA or MY_RUNNING_WORLD was initialized. Faking a world. $S05#b8 |
Installatie van Server 2012 lukt wel, maar na de eerste reboot een 'HAL_INITIALIZATION_FAILED'-BSOD
Windows 10 met Hyper-V draait als een zonnetje

Intel C2Q 9450@3.3 | Gigabyte P35-DS4 | Sapphire R280x | 4x 2GiB PC6400 Kingston DDR2 | 1x Intel 320SSD 240GB | 2x Spinpoint F1 320GiB
Aan harde schijven zat ik te denken aan 4x4TB, een 256GB SSD'tje, en zo'n 32GB werkgeheugen. Ga ik dat redden?
Met vriendelijke groet,
Joost Buskermolen
[ Voor 4% gewijzigd door JoooostB op 02-08-2015 22:45 ]
Tesla Model 3 AWD 19" 2021 | https://www.tindie.com/products/35869/
Wij op Tweakers, groeten elkaar permanent, dus dat hoeft niet
Qua officieel support: http://partnerdirect.dell...erver-Technical-Guide.pdf
Geen ESXi dus, alleen RHEV en Server 2012.
Dat betekend niet dat ESXi niet werkt, ik verwacht van wel, want je hebt het hier over vrij standaard server hardware. (Een Xeon CPU, C226 chipset, Dell UEFI BIOS).
Wil je echt supported hardware of wil je gewoon graag zeker weten dat het werkt?
Of je iets gaat 'redden' hangt van je eisen af
Denk eens goed na wat je wil bereiken, en wat je daar voor nodig hebt. Schrijf die gedachtengang eens uit, dan kunnen wij een goed advies geven
Overigens: Denk goed na over je RAID structuur. 4*4TB los kan prima onder ESXi, maar een ZFS VM wil graag de disks direct aanspreken, en daar heb je een losse controller voor nodig.
[ Voor 9% gewijzigd door FireDrunk op 03-08-2015 08:24 ]
Even niets...
Qua verwachtingen: Ik verwacht dat ik met mijn server een soepele transcode via Plex (of twee
Volgend jaar start een vrij groot project op school, waar we een VPS-service moeten virtualiseren. Ik hoopte dit op mijn eigen server te kunnen draaien. Dit project houdt in dat mensen een VPS kunnen aanschaffen en aansturen via een web-omgeving (voor zover ik dat nu begrepen heb). Hiervoor zullen dus ook nog verschillende VM's moeten draaien.
RAM gebruik:
Ik zat te denken aan het volgende werkgeheugen gebruik per VM:
- FreeNAS - 12GB (1GB per TB + 8GB minimum)
- VPN/Mail/Web server - 1GB
- Windows Server 2012 - 4GB?
- SickBeard etc - 1GB
- VPS Project - 10GB
Verder zal inderdaad een losse controller nodig zijn, al heb ik ergens gelezen dat sommige Supermicro boordjes zo'n controller standaard hebben? (Verbeter me alsjeblieft als ik het fout heb, ben hier ook om te leren).
Ik hoop dat je mij met deze informatie verder kunt helpen.
Alvast bedankt,
Tesla Model 3 AWD 19" 2021 | https://www.tindie.com/products/35869/
http://www.hardwareluxx.d...oweredge-t20-1031138.html
Even niets...
Ik heb namelijk mijn eerste ESXi server in elkaar gezet en wil nu aan de slag gaan met PfSense op mijn server. Alleen is het mij niet helemaal duidelijk of ik nou wel of niet een managed switch nodig heb. Op het ene forum staat van wel, maar op het anders zeggen ze weer van niet.
Mocht het handig zijn, dit is mijn setup:
# | Product | Prijs | Subtotaal |
1 | Intel E3-1275 v3 Boxed | € 391,- | € 391,- |
1 | Supermicro X10SLH-F | € 243,- | € 243,- |
1 | Crucial CT2KIT102472BA160B | € 133,50 | € 133,50 |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
1 | Crucial m4 CT128M4SSD2 128GB | € 0,- | € 0,- |
1 | Lian Li PC-A04 (Zwart) | € 89,95 | € 89,95 |
1 | Domoticz Home Automation System | € 0,- | € 0,- |
1 | Samsung Spinpoint F4 EG HD204UI, 2TB | € 0,- | € 0,- |
1 | WD Green SATA 3 Gb/s, 2TB | € 108,- | € 108,- |
1 | WD Green WD30EZRX | € 100,95 | € 100,95 |
Bekijk collectie Importeer producten | Totaal | € 1.123,35 |
Dat kunnen we voor jou niet beantwoorden zonder te weten wat jouw plannen zijn qua netwerk. Hoeveel netwerk interfaces heb je nodig en heb je tot je beschikking. Wil je iets gaan doen met VLANs? Wil je iets gaan doen met LACP? Een schetsje van hoe het netwerk eruit komt te zien en wat je hoe aan wil sluiten is nodig en verdiend dan misschien toch wel een eigen topic.thedon46 schreef op donderdag 06 augustus 2015 @ 16:29:
Ik heb namelijk mijn eerste ESXi server in elkaar gezet en wil nu aan de slag gaan met PfSense op mijn server. Alleen is het mij niet helemaal duidelijk of ik nou wel of niet een managed switch nodig heb. Op het ene forum staat van wel, maar op het anders zeggen ze weer van niet.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Te Koop:24 Core Intel Upgradeset
Nee ik bedoelde echt de V4 : http://www.anandtech.com/...-only-with-gpu-integrated|sWORDs| schreef op zaterdag 08 augustus 2015 @ 10:16:
Dat zijn ze al, of bedoel je v5?
Kan alleen nergens vinden wat hij kost, laat staan wat de verkrijgbaarheid is. Het lijkt mij een interessante CPU/GPU voor mensen die ook Plex draaien, vooral vanwege de transcoding ondersteuning.
[ Voor 14% gewijzigd door OMX2000 op 08-08-2015 10:28 ]
Dè developers podcast in je moerstaal : CodeKlets Podcast
De 1265L zal zo'n 540-550 euro zijn.
[ Voor 10% gewijzigd door |sWORDs| op 08-08-2015 10:39 ]
Te Koop:24 Core Intel Upgradeset
https://labs.vmware.com/flings/esxi-embedded-host-client
En zo installeer je hem op diverse ESXi versies.
http://www.virtuallyghett...host-client-for-esxi.html
while (! ( succeed = try ()));
Da's dan weer jammer. Even wachten dan maar.On ESXi hosts which are assigned a VMware vSphere Hypervisor license, all modification operations will fail silently. We are working on a solution to this issue.
Gewoon een heel grote verzameling snoertjes
Al geinstalleerd en geprobeerd?hans_lenze schreef op woensdag 12 augustus 2015 @ 07:44:
Er is een mooie beta tool gemaakt om VMs en hosts te beheren zonder vCenter of de C++ client maar met een html5 pagina.
https://labs.vmware.com/flings/esxi-embedded-host-client
En zo installeer je hem op diverse ESXi versies.
http://www.virtuallyghett...host-client-for-esxi.html
Het zou voor mij soms echt een goede uitkomst zijn gezien ik af en toe in situaties zit waar ik geen Windows laptop beschikbaar heb met de client en geen licentie heb voor de Vsphere Web Client.
Welke versie esxi gebruik je?SlinkingAnt schreef op donderdag 30 juli 2015 @ 10:29:
De eerste pogingen om ESXi op een N3150 aan de praat te krijgen zijn mislukt. Tijdens het booten van iso hangt de installatie, debug-output via de compoort geeft de weinig hoopvolle melding:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Chipset initialization failed. 0:00:00:00.348 cpu0:1)Backtrace for current CPU #0, worldID=1, rbp=0x0 0:00:00:00.355 cpu0:1)0x410006418da8:[0x41800a076eea]<no symbols>+0xa076eea stack: 0x410006418e60, 0x0, 0x430000000001, 0 0:00:00:00.366 cpu0:1)0x410006418e38:[0x41800a0772a8]<no symbols>+0xa0772a8 stack: 0x100, 0x41800a083d08, 0x2, 0x417f0000 0:00:00:00.377 cpu0:1)0x410006418e58:[0x41800a083d08]<no symbols>+0xa083d08 stack: 0x410006418eb8, 0x410006418e78, 0x2, 0 0:00:00:00.389 cpu0:1)0x410006418eb8:[0x41800a057263]<no symbols>+0xa057263 stack: 0x410006420000, 0x14, 0x16, 0x41000642 0:00:00:00.400 cpu0:1)0x410006418ef8:[0x41800a000560]<no symbols>+0xa000560 stack: 0x410006422180, 0x410006424180, 0x2000 0:00:00:00.411 cpu0:1)0x410006418fb8:[0x41800a0c9208]<no symbols>+0xa0c9208 stack: 0x428000005000, 0x49bfb0, 0x41800a000e 0:00:00:00.423 cpu0:1)0x410006418fc0:[0x41800a001004]<no symbols>+0xa001004 stack: 0x49bfb0, 0x41800a000e84, 0x7253a9b0, 0:00:00:00.434 cpu0:1)The system has found a problem on your machine and cannot continue. Chipset initialization failed. 0:00:00:00.446 cpu0:1) 0:00:00:00.448 cpu0:1)vmkernel 0x0 .data 0x0 .bss 0x0 0:00:00:00.455 cpu0:1)Dump system not initialized. Entered debugger before PRDA or MY_RUNNING_WORLD was initialized. Faking a world. $S05#b8
Installatie van Server 2012 lukt wel, maar na de eerste reboot een 'HAL_INITIALIZATION_FAILED'-BSOD.
Windows 10 met Hyper-V draait als een zonnetje, dus vanavond de TP van Server2016 maar proberen...
Mijn hond is nog steeds echt weg! En die komt ook niet weer. :O
Draai ondertussen 'maar' Windows10 met Hyper-V erop, dat gaat wel prima. Voorkeur ligt toch wel bij ESXi
Intel C2Q 9450@3.3 | Gigabyte P35-DS4 | Sapphire R280x | 4x 2GiB PC6400 Kingston DDR2 | 1x Intel 320SSD 240GB | 2x Spinpoint F1 320GiB
Als alternatief kun je VMware Workstation/Fusion Pro en de commandline kunnen gebruiken (moet je wel even ssh e.d. open zetten voor die ESXi host). Heb je Windows en de juiste vSphere licentie dan kun je ook PowerCLI gebruiken vanaf je client. En tot slot heb je natuurlijk ook nog de management vm van VMware zelf (ook daar weer de juiste vSphere licentie en zelfs vCenter voor nodig als ik het goed heb). Nou kun je natuurlijk ook zelf een management vm inrichten; een bastion host.renedis schreef op vrijdag 14 augustus 2015 @ 09:30:
Het zou voor mij soms echt een goede uitkomst zijn gezien ik af en toe in situaties zit waar ik geen Windows laptop beschikbaar heb met de client en geen licentie heb voor de Vsphere Web Client.
Heeft er iemand ervaring met upgraden van ESXi 5.x naar ESXi 6?
Is dit 'pijnloos' te doen? Ik zou namelijk de nieuwste Debian en Ubuntu willen gaan virtualiseren. Op dit moment heb ik ESXi 5.1 met 2 HBA's in passthrough-mode zonder zorgen draaien op een X9SCM-iiF bordje.
Alvast bedankt!
[ Voor 5% gewijzigd door meraki op 15-08-2015 17:15 ]
Even niets...
Dat doet me er ook aan denken dat mijn systeem eigenlijk kwetsbaar is want mijn FreeNAS virtuele machine staat op de datastore. En die datastore wordt nooit gebackuped of ergens naartoe gekopieerd.
Jij raadt een verse installatie dus aan t.o.v. een upgrade?
Zou het dit probleem kunnen zijn? http://kb.vmware.com/self...playKC&externalId=2077712 Ik ben zelf ook in de markt voor N3150 dus vandaar mijn interesse.SlinkingAnt schreef op vrijdag 14 augustus 2015 @ 11:08:
Verschillende versies en builds geprobeerd, van 5.1, 5.5 tot 6.0.0b.
Draai ondertussen 'maar' Windows10 met Hyper-V erop, dat gaat wel prima. Voorkeur ligt toch wel bij ESXi
Even niets...
Werkt best okee. Resultaten verschillen een beetje per browser maar de basis knopjes zitten er wel in.renedis schreef op vrijdag 14 augustus 2015 @ 09:30:
[...]
Al geinstalleerd en geprobeerd?
Het zou voor mij soms echt een goede uitkomst zijn gezien ik af en toe in situaties zit waar ik geen Windows laptop beschikbaar heb met de client en geen licentie heb voor de Vsphere Web Client.
Je kunt 'm zonder problemen installeren en proberen. Er is geen herstart nodig en hij is vrij makkelijk te verwijderen. Zie hier
while (! ( succeed = try ()));
Dat ging hier pijnloos met bijna hetzelfde moederbord (ik heb X9SCM-F, dus niet de 2e generatie). Je hebt de nieuwste versie van ESXi alleen niet nodig om ook de nieuwste versie van Debian en Ubuntu te kunnen draaien. Hier staan de vm's ook nog op hardware versie 9 en gebruik ik open-vm-tools ipv de VMware Tools. Dat werkt aanzienlijk makkelijker icm een unattended install. Verder zie ik met nieuwere hardware versies en de VMware Tools ook geen enkel verschil in stabiliteit en performance. Wat ik wel zie is dat de open-vm-tools veel beter mee gaan met updates.T0mS schreef op zaterdag 15 augustus 2015 @ 17:14:
Heeft er iemand ervaring met upgraden van ESXi 5.x naar ESXi 6?
Is dit 'pijnloos' te doen? Ik zou namelijk de nieuwste Debian en Ubuntu willen gaan virtualiseren. Op dit moment heb ik ESXi 5.1 met 2 HBA's in passthrough-mode zonder zorgen draaien op een X9SCM-iiF bordje.
Ook al geprobeerd, speciaal een PS2-keyboard moeten zoeken, en een ESXi-install op een 2de pc moeten maken, want geen USB-stick, maar zelfde probleem.synoniem schreef op zaterdag 15 augustus 2015 @ 17:53:
Zou het dit probleem kunnen zijn? http://kb.vmware.com/self...playKC&externalId=2077712 Ik ben zelf ook in de markt voor N3150 dus vandaar mijn interesse.
Booten van een install-iso of van een 'werkende install' geeft beide dezelfde kernel panic
Intel C2Q 9450@3.3 | Gigabyte P35-DS4 | Sapphire R280x | 4x 2GiB PC6400 Kingston DDR2 | 1x Intel 320SSD 240GB | 2x Spinpoint F1 320GiB
Ik zie op Ark dat deze CPU geen Trusted Execution heeft. Start hij misschien op met de bootflag "allowNonNX"?synoniem schreef op zaterdag 15 augustus 2015 @ 17:53:
[...]
Zou het dit probleem kunnen zijn? http://kb.vmware.com/self...playKC&externalId=2077712 Ik ben zelf ook in de markt voor N3150 dus vandaar mijn interesse.
while (! ( succeed = try ()));
Ik kon er op internet weinig over vinden dus ik dacht "laat ik het gewoon eens proberen". De bootloader en de kernel startten gewoon op, maar bij het mounten van het root-fs ging het mis: hij kon de partitie met dat GPT-label niet vinden.
Het zal dan wel gewoon zo zijn dat FreeBSD geen driver heeft voor pvscsi, maar waarom kon ik de kernel dan wel booten? Iemand met meer verstand van het FreeBSD-bootprocess die me dat kan uitleggen?
Gewoon een heel grote verzameling snoertjes
Even niets...
+1FireDrunk schreef op maandag 17 augustus 2015 @ 14:55:
Ja, ik had dat wel werkend volgens mij. Eerst met LSI SAS installeren, daarna vmtools installeren, rebooten en dacht dat het moest werken... Maar ik kan me vergissen.
Dat is de manier.
while (! ( succeed = try ()));
Voor dat soort vragen hebben ze een hoofdstuk in het handbook en voor een uitgebreidere uitleg als het handbook niet genoeg is kun je op het forum terecht aldaar. Let wel op, in tegenstelling tot dit forum worden daar wel kwaliteitseisen gesteld.Compizfox schreef op maandag 17 augustus 2015 @ 14:32:
Iemand met meer verstand van het FreeBSD-bootprocess die me dat kan uitleggen?
Dat heb ik uiteraard al gedaan...FireDrunk schreef op maandag 17 augustus 2015 @ 14:55:
Ja, ik had dat wel werkend volgens mij. Eerst met LSI SAS installeren, daarna vmtools installeren, rebooten en dacht dat het moest werken... Maar ik kan me vergissen.
De VM draait al een tijdje, is geen nieuwe setup. Ik heb wel open-vm-tools draaien, niet die van VMware.
[ Voor 28% gewijzigd door Compizfox op 17-08-2015 22:05 ]
Gewoon een heel grote verzameling snoertjes
Te Koop:24 Core Intel Upgradeset
open-vm-tools bevat toch helemaal geen pvscsi driver?
Even niets...
Intel Core i5 3330 Boxed
Gigabyte GA-Q77M-D2H
Kingston HyperX KHX1600C10D3B1K2/16G
Cooler Master Real Power M620
LSI SAS 9201-16i
Samsung 830 series SSD 128GB
6x HGST Deskstar 7K4000, 4TB
Tevens is deze link in de TS stuk: http://blog.peacon.co.uk/wiki/ESXi_Custom_Power_Management
[ Voor 19% gewijzigd door FabiandJ op 18-08-2015 12:39 ]
Normaal gesproken moet de kernel module automatisch geladen worden als er een pvscsi adapter wordt gevonden. Dit kan een extra reboot nodig hebben. Als dit nog steeds niet werkt is hij te activeren met
1
2
| sed -‘i /^INITRD_MODULES/ s/”/ “vmw_pvscsi /’ /etc/sysconfig/kernel # enable the PVSCSI module mkinitrd # create a new kernel image |
en een extra reboot.
Of ze ook in open-vm-tools zitten:
It includes kernel modules for enhancing the performance of virtual machines running Linux or other VMware supported Unix like guest operating systems.
https://github.com/vmware/open-vm-tools#general
while (! ( succeed = try ()));
Thanks!|sWORDs| schreef op dinsdag 18 augustus 2015 @ 10:21:
Ik zou of video's gaan kijken of de documentatie lezen: https://www.vmware.com/su...center-server-6-pubs.html

En hier eentje die ik van een native systeem met dezelfde drive gevonden heb:
Wat wel voor verbazing zorgt (ik had 2048 verwacht, maar voor een lab is 256 natuurlijk ruim voldoende, SATA SSD op een Intel controller is 31):
1
2
| esxcli storage core device list -d naa.65fdfe40353235323030344534303001 Device Max Queue Depth: 256 |
edit: Blijkbaar vind de Intel controller 128 en 256 fijner: http://www.intel.com/cont...rise-ssds-white-paper.pdf
edit 2: Je kunt 'm met VT-d doorzetten naar een VM, als je dan benchmarked met de Microsoft driver krijg je ongeveer dezelfde performance als op ESXi zonder Intel driver, je kunt de Intel driver installeren, maar de performance blijft laag. Blijkbaar werkt de (in elk geval Windows) Intel driver niet met VT-d. Nou moet ik wel zeggen dat dit voor mij niets uit maakt, maar voor mensen die een Intel NVMe als ZFS ARC in een VM willen gebruiken misschien wel handig om te weten. Bug report bij Intel ingeschoten, maar ik weet niet of dat veel uit gaat maken.
edit 3: Desondanks dat ik het eigenlijk wel wist, toch nog even getest, de VM bios kan niet booten van een passthrough NVMe drive.
edit 4: Op win10 met een hogere queuedepth en meer threads zit er nog meer in:

edit 5: Vier Win10 VM's simultaan zijn vergelijkbaar met een native Samsung 850 EVO 250GB in PCMark 8.

CrystalDiskMark:

[ Voor 83% gewijzigd door |sWORDs| op 23-08-2015 10:41 ]
Te Koop:24 Core Intel Upgradeset
Even niets...

[ Voor 28% gewijzigd door |sWORDs| op 21-08-2015 12:26 ]
Te Koop:24 Core Intel Upgradeset
Dat zou zomaar kunnen, ik heb geen idee. Het gekke is dus dat het booten gewoon goed ging, totdat hij het root FS ging mountenFireDrunk schreef op dinsdag 18 augustus 2015 @ 10:32:
@compizfox,
open-vm-tools bevat toch helemaal geen pvscsi driver?
Ik weet niet meer precies waarom ik destijds bij installatie voor open-vm-tools heb gekozen in plaats van die van VMware. Ik kan me iets herinneren van dat de officiële VMware tools deprecated waren (voor FreeBSD iig)?
Tja, die tabel had ik ook wel gevonden maar dat zegt helaas niet zoveel. Debian bijvoorbeeld, die bij mij gewoon werkt icm pvscsi, staat er niet tussen. FreeBSD dus ook niet.hans_lenze schreef op dinsdag 18 augustus 2015 @ 12:17:
http://kb.vmware.com/self...playKC&externalId=1010398 voor de supported operating systems icm pvscsi.
Err, je weet dat dit over FreeBSD (en niet over Linux) gaat hè?Normaal gesproken moet de kernel module automatisch geladen worden als er een pvscsi adapter wordt gevonden. Dit kan een extra reboot nodig hebben. Als dit nog steeds niet werkt is hij te activeren met
code:
1 2 sed -‘i /^INITRD_MODULES/ s/”/ “vmw_pvscsi /’ /etc/sysconfig/kernel # enable the PVSCSI module mkinitrd # create a new kernel image
en een extra reboot.
[ Voor 46% gewijzigd door Compizfox op 21-08-2015 17:22 ]
Gewoon een heel grote verzameling snoertjes
Uit het handbookKernel modules exist in /boot/kernel and may be dynamically loaded into the running kernel using kldload. Most kernel drivers have a loadable module and manual page.
EDIT:
Dat is net zoiets als "werdt" spellen terwijl het "werd" moet zijn. Het idee is en blijft hetzelfde ook al gaat het hier nu om een ander OS. De link die ik heb vermeld bevat de juiste commando's. Heb je z'n idee al eens geprobeerd?Compizfox schreef op vrijdag 21 augustus 2015 @ 18:01:
[...]
Dat zeg ik toch ook niet? Maar de commando's die hij geeft doen mij vermoeden hij niet had meegekregen dat het om FreeBSD gaat. Zover ik weet, kent FreeBSD toch altijd nog geen mkinitrd.
[ Voor 49% gewijzigd door ppl op 21-08-2015 22:05 ]
Dat zeg ik toch ook niet? Maar de commando's die hij geeft doen mij vermoeden hij niet had meegekregen dat het om FreeBSD gaat. Zover ik weet, kent FreeBSD toch altijd nog geen mkinitrd.ppl schreef op vrijdag 21 augustus 2015 @ 17:58:
Alsof FreeBSD geen kernel modules kent
[...]
Uit het handbook
Gewoon een heel grote verzameling snoertjes
Bij Debian is PVSCSI zelfs de recommended adapter, bij FreeBSD is PVSCSI niet supported. (We hebben nooit een PVSCSI freeBSD driver uitgebracht.)Compizfox schreef op vrijdag 21 augustus 2015 @ 17:19:
[...]
Tja, die tabel had ik ook wel gevonden maar dat zegt helaas niet zoveel. Debian bijvoorbeeld, die bij mij gewoon werkt icm pvscsi, staat er niet tussen. FreeBSD dus ook niet.
[...]
Mijn persoonlijke aanbeveling is trouwens altijd PVSCSI voor niet hele oude Windows en Linux versies. Vrijwel alle drawbacks zijn er versie na versie uitgegaan (nu geen slechtere performance meer bij weinig iops, clustering support in de meeste gevallen).
[ Voor 12% gewijzigd door |sWORDs| op 22-08-2015 11:51 ]
Te Koop:24 Core Intel Upgradeset
Vmware heeft ook een mobiele app (in ieder geval voor Android). Deze heet Watchlist en heeft aardig wat mogelijkheden. Naast starten/stoppen/resetten van guests kun je ook snapshots maken of de console bedienen.Compizfox schreef op donderdag 13 augustus 2015 @ 01:29:
[...]
Da's dan weer jammer. Even wachten dan maar.
Ah, thanks. FreeBSD-support hoef ik dus niet te verwachten?|sWORDs| schreef op zaterdag 22 augustus 2015 @ 11:32:
[...]
Bij Debian is PVSCSI zelfs de recommended adapter, bij FreeBSD is PVSCSI niet supported. (We hebben nooit een PVSCSI freeBSD driver uitgebracht.)
Mijn persoonlijke aanbeveling is trouwens altijd PVSCSI voor niet hele oude Windows en Linux versies. Vrijwel alle drawbacks zijn er versie na versie uitgegaan (nu geen slechtere performance meer bij weinig iops, clustering support in de meeste gevallen).
Die app ken ik, maar dat is natuurlijk geen volwaardige vervanging van de vSphere Client. Los van het feit dat het een mobiele app is, kun je er geen VMs mee aanmaken of bewerken.RudolfR schreef op zondag 23 augustus 2015 @ 19:11:
[...]
Vmware heeft ook een mobiele app (in ieder geval voor Android). Deze heet Watchlist en heeft aardig wat mogelijkheden. Naast starten/stoppen/resetten van guests kun je ook snapshots maken of de console bedienen.
[ Voor 39% gewijzigd door Compizfox op 23-08-2015 19:14 ]
Gewoon een heel grote verzameling snoertjes
Daar mag ik helaas geen uitspraken over doen. Maar LSI Logic SAS is wel supported en de performance daarvan is vrijwel identiek.Compizfox schreef op zondag 23 augustus 2015 @ 19:13:
[...]
Ah, thanks. FreeBSD-support hoef ik dus niet te verwachten?
[...]
Te Koop:24 Core Intel Upgradeset
Ik ben van plan een nieuwe server aan te kopen, en heb daarbij al wat research gedaan in dit forum. Echter wil ik 100% zeker zijn dat ik hetgeen ik wil bereiken, ook daadwerkelijk kan met deze hardware.
Het zal dienst moeten doen als thuis server voor een AD/DNS/HTTP/Storage (Freenas) Server, en ook paar test vm's. Als Hypervisor zal het ESXI worden.
Uiteraard moet het ook enigszins beetje energie zuinig zijn, anders kan ik evengoed een Dell 2950 neerplaatsen ofzo.
Alvast bedankt voor enig feedback.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 256,50 | € 256,50 |
1 | Supermicro X10SLH-F | € 237,75 | € 237,75 |
3 | WD Red SATA 6 Gb/s WD30EFRX, 3TB | € 112,- | € 336,- |
1 | Cooler Master CM 690 III Closed | € 84,91 | € 84,91 |
1 | Delock Cable mini SAS 36pin > 4x SATA metal (SFF 8087 > 4x SATA) 50cm | € 18,45 | € 18,45 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 242,- | € 242,- |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 0,- | € 0,- |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
2 | Crucial BX100 500GB | € 163,- | € 326,- |
Bekijk collectie Importeer producten | Totaal | € 1.558,56 |
Keep smiling
zal 2x 1gb verbinding genoeg zijn? denk dat je nog wel een kaartje voor nog eens 2 of mss 4 extra kan gebruiken...Teaclo schreef op woensdag 26 augustus 2015 @ 14:50:
Hi,
Ik ben van plan een nieuwe server aan te kopen, en heb daarbij al wat research gedaan in dit forum. Echter wil ik 100% zeker zijn dat ik hetgeen ik wil bereiken, ook daadwerkelijk kan met deze hardware.
Het zal dienst moeten doen als thuis server voor een AD/DNS/HTTP/Storage (Freenas) Server, en ook paar test vm's. Als Hypervisor zal het ESXI worden.
Uiteraard moet het ook enigszins beetje energie zuinig zijn, anders kan ik evengoed een Dell 2950 neerplaatsen ofzo.
Alvast bedankt voor enig feedback.
# Product Prijs Subtotaal 1 Intel Xeon E3-1231 V3 Boxed € 256,50 € 256,50 1 Supermicro X10SLH-F € 237,75 € 237,75 3 WD Red SATA 6 Gb/s WD30EFRX, 3TB € 112,- € 336,- 1 Cooler Master CM 690 III Closed € 84,91 € 84,91 1 Delock Cable mini SAS 36pin > 4x SATA metal (SFF 8087 > 4x SATA) 50cm € 18,45 € 18,45 1 Kingston ValueRAM KVR16E11K4/32 € 242,- € 242,- 1 IBM ServeRAID M1015 SAS/SATA Controller for System x € 0,- € 0,- 1 Seasonic G-series 360 watt € 56,95 € 56,95 2 Crucial BX100 500GB € 163,- € 326,- Bekijk collectie
Importeer productenTotaal € 1.558,56
Kek schreef op woensdag 26 augustus 2015 @ 16:21:
[...]
zal 2x 1gb verbinding genoeg zijn? denk dat je nog wel een kaartje voor nog eens 2 of mss 4 extra kan gebruiken...
Keep smiling
Iemand dit moederbord al kunnen testen onder ESXi ?
[quote]
Ja, Asrock zelf. En ik zie niets wat het niet kan doen, zelfde componenten als op de Supermicro's die je hier vaak ziet langs komen.
OS
Virtual
- VMWare® ESXi 5.5
[ Voor 6% gewijzigd door |sWORDs| op 28-08-2015 16:36 ]
Te Koop:24 Core Intel Upgradeset
Beter neem je de X10SL7-F. Drie tientjes duurder, maar wel een onboard SAS-controller. Die even naar IT-mode flashen en klaar is kees! Mocht je de M1015 al op de plank hebben liggen, dan kun je gewoon voor de X10SLH-F gaan. Het geheugen zou ik ook mee uitkijken, ik heb bijna dezelfde setup al 1,5 jaar zonder problemen draaien, maar er gaan verhalen in de rondte dat bepaalde batches van dat geheugen niet lekker werken met de Supermicro.Teaclo schreef op woensdag 26 augustus 2015 @ 14:50:
Hi,
Ik ben van plan een nieuwe server aan te kopen, en heb daarbij al wat research gedaan in dit forum. Echter wil ik 100% zeker zijn dat ik hetgeen ik wil bereiken, ook daadwerkelijk kan met deze hardware.
Het zal dienst moeten doen als thuis server voor een AD/DNS/HTTP/Storage (Freenas) Server, en ook paar test vm's. Als Hypervisor zal het ESXI worden.
Uiteraard moet het ook enigszins beetje energie zuinig zijn, anders kan ik evengoed een Dell 2950 neerplaatsen ofzo.
Alvast bedankt voor enig feedback.
# Product Prijs Subtotaal 1 Intel Xeon E3-1231 V3 Boxed € 256,50 € 256,50 1 Supermicro X10SLH-F € 237,75 € 237,75 3 WD Red SATA 6 Gb/s WD30EFRX, 3TB € 112,- € 336,- 1 Cooler Master CM 690 III Closed € 84,91 € 84,91 1 Delock Cable mini SAS 36pin > 4x SATA metal (SFF 8087 > 4x SATA) 50cm € 18,45 € 18,45 1 Kingston ValueRAM KVR16E11K4/32 € 242,- € 242,- 1 IBM ServeRAID M1015 SAS/SATA Controller for System x € 0,- € 0,- 1 Seasonic G-series 360 watt € 56,95 € 56,95 2 Crucial BX100 500GB € 163,- € 326,- Bekijk collectie
Importeer productenTotaal € 1.558,56
[ Voor 4% gewijzigd door FREAKJAM op 28-08-2015 17:12 ]
is everything cool?
Zelf draai ik ook met dat moederbord een ESXI server.Teaclo schreef op woensdag 26 augustus 2015 @ 14:50:
Uiteraard moet het ook enigszins beetje energie zuinig zijn, anders kan ik evengoed een Dell 2950 neerplaatsen ofzo.
Alvast bedankt voor enig feedback.
icm met Pfsense en 2 ubuntu VM's haal ik daar 44 watt idle mee.
Wel aardig, niet super zuinig, maar ook niet slecht.
scheelt me wel een router van 15 watt in de meterkast.
# | Product | Prijs | Subtotaal |
1 | Intel E3-1275 v3 Boxed | € 381,75 | € 381,75 |
1 | Supermicro X10SLH-F | € 237,75 | € 237,75 |
1 | Samsung Spinpoint F4 EG HD204UI, 2TB | € 0,- | € 0,- |
1 | WD Green SATA 3 Gb/s, 2TB | € 108,- | € 108,- |
1 | WD Green WD30EZRX | € 96,50 | € 96,50 |
1 | Lian Li PC-A04 (Zwart) | € 89,95 | € 89,95 |
1 | D-Link DGS-1100-24 | € 98,84 | € 98,84 |
1 | Domoticz Home Automation System | € 0,- | € 0,- |
1 | Gelid Solutions Tranquillo Rev.2 | € 25,95 | € 25,95 |
1 | Crucial CT2KIT102472BA160B | € 126,- | € 126,- |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
1 | Crucial m4 CT128M4SSD2 128GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 1.221,69 |
Bedankt voor je bericht!
Wanneer ik die onboard SAS/Sata Controller gebruik, kan ik dan een mirror maken voor ssd en de rest doorgeven via Hardware Passtrough -> Freenas?
Omtrent het ramgeheugen ga ik de gok gewoon maken, indien het niet werkt, regel ik het wel de winkel, en ruil ik het voor ander ram.
Alvast bedankt voor je antwoord!
Cheers.
FREAKJAM schreef op vrijdag 28 augustus 2015 @ 17:06:
[...]
Beter neem je de X10SL7-F. Drie tientjes duurder, maar wel een onboard SAS-controller. Die even naar IT-mode flashen en klaar is kees! Mocht je de M1015 al op de plank hebben liggen, dan kun je gewoon voor de X10SLH-F gaan. Het geheugen zou ik ook mee uitkijken, ik heb bijna dezelfde setup al 1,5 jaar zonder problemen draaien, maar er gaan verhalen in de rondte dat bepaalde batches van dat geheugen niet lekker werken met de Supermicro.
Keep smiling
Drie jaar geleden was dit het resultaat:

Nu

Zoals je kan zien is de performance een stuk minder geworden. In drie jaar heb ik geen secure erase uitgevoerd, velen VM's erop gezet en weer verwijderd.
Unmap nog geprobeerd http://kb.vmware.com/self...playKC&externalId=2057513 maar dat had geen effect.
Even niets...
Laatste firmware stond er toen al op, die komt tenslotte uit 2012FireDrunk schreef op zondag 30 augustus 2015 @ 19:49:
Wauw, dat is wel erg laag... Al gekeken of er een firmware update is? Misschien is de garbage collection daarna beter.
Even niets...
Gewoon een heel grote verzameling snoertjes
Dat is het, denk ik zo'n 25% a 30% beter is. Ik had in eerste instantie OP 40GB, maar had net wat te weinig ruimte voor een project. Maar alsnog mijn SSD heeft nu 90GB vrije ruimte en 20GB OP in totaal 110GB wat tijdens benchmark niet in gebruik was. Als de GC een beetje goed was, dan zou het niet zo slecht moeten zijn lijkt mij.Compizfox schreef op zondag 30 augustus 2015 @ 22:03:
Is 20 GB (op 256 GB totaal) aan overprovisioning niet veel te weinig? Ik dacht altijd dat je zonder TRIM veel meer nodig had.
Tijd voor een grotere SSD
Dat is het hem juist: zonder TRIM weet de SSD-controller niet dat die ruimte leeg is. Alleen van ongepartitioneerde ruimte (je overprovisioning dus) kan de controller zeker weten dat het onbeschreven is. En dat is de reden dat je overprovisioning nodig hebt als je OS geen TRIM ondersteunt.Zenix schreef op zondag 30 augustus 2015 @ 22:14:
[...]
Maar alsnog mijn SSD heeft nu 90GB vrije ruimte en 20GB OP in totaal 110GB wat tijdens benchmark niet in gebruik was. Als de GC een beetje goed was, dan zou het niet zo slecht moeten zijn lijkt mij.
Gewoon een heel grote verzameling snoertjes
Ja klopt. Het was wel goed moment om unmap te testen http://kb.vmware.com/self...playKC&externalId=2057513 te testen, maar dat had dus geen effect.Compizfox schreef op zondag 30 augustus 2015 @ 22:15:
[...]
Dat is het hem juist: zonder TRIM weet de SSD-controller niet dat die ruimte leeg is. Alleen van ongepartitioneerde ruimte (je overprovisioning dus) kan de controller zeker weten dat het onbeschreven is. En dat is de reden dat je overprovisioning nodig hebt als je OS geen TRIM ondersteunt.
Het lijkt me niet dat je daar iets aan hebt, want dat geeft nog steeds niet door aan de SSD-controller dat de blokken leeg zijn. Daar heb je nou juist TRIM voor nodig.Zenix schreef op zondag 30 augustus 2015 @ 22:20:
[...]
Ja klopt. Het was wel goed moment om unmap te testen http://kb.vmware.com/self...playKC&externalId=2057513 te testen, maar dat had dus geen effect.
Gewoon een heel grote verzameling snoertjes
Wat dus totaal niet waar is, iets wat heel snel duidelijk wordt als je weet waar TRIM voor bedoeld is. Een SSD wordt traag met schrijven omdat ie eerst de content van de geheugencel moet weggooien en pas daarna z'n eigen content kan toevoegen. Daar hebben ze een workaround voor: cellen die niet meer gebruikt worden meteen al leeggooien zodat dit niet bij wegschrijven hoeft. In den beginne had men daar Garbage Collection (GC) voor (dat hebben we nog steeds) en later een iets efficiëntere manier middels TRIM (het verschil is heel simpel: TRIM vertelt exact wat er leeg moet, bij GC moet daar een berekening overheen). Zowel TRIM als GC kennen zo hun beperkingen. GC is vooral iets wat gedaan wordt wanneer de SSD idle is (is hij dus niet vaak idle dan heb je een probleem; de ene SSD is hier agressiever in dan de ander trouwens) en TRIM is vaak niet te gebruiken in RAID setups (controllers ondersteunen het niet). Het UNMAP commando van SAS zou hetzelfde moeten doen als TRIM (TRIM is een SATA commando) van wat ik tot dusver heb gelezen.Compizfox schreef op zondag 30 augustus 2015 @ 22:15:
Dat is het hem juist: zonder TRIM weet de SSD-controller niet dat die ruimte leeg is. Alleen van ongepartitioneerde ruimte (je overprovisioning dus) kan de controller zeker weten dat het onbeschreven is. En dat is de reden dat je overprovisioning nodig hebt als je OS geen TRIM ondersteunt.
Overprovisioning heeft hier dan ook bar weinig mee te maken. Dat doe je alleen om te zorgen dat er minder cellen in gebruik zijn. Dat heeft gevolgen voor de wear leveling maar ook voor de performance op een ander vlak. Een SSD wordt net als een HDD trager naarmate er meer data op staat. Door overprovisioning voorkom je dat je de hele SSD met data kunt volzetten. Je zou ook alles kunnen toewijzen en er gewoon niet zoveel op zetten maar een harde limiet helpt nou eenmaal veel beter. Of het in de praktijk ook allemaal zo goed werkt is dan weer vers 2.
In dit geval kun je niet veel meer doen dan via een andere weg het TRIM commando afdwingen (Linux boot cd en dan hdparm gebruiken bijv.), switchen naar een SSD met meer capaciteit (en een agressievere GC) en een feature request doen bij VMware om toch TRIM te gaan ondersteunen (gezien het publiek waar VMware zich op richt is die kans erg klein; positief bekeken: een kleine kans is nog altijd een kans
Dat weet ik ook wel.ppl schreef op zondag 30 augustus 2015 @ 22:53:
[...]
Een SSD wordt traag met schrijven omdat ie eerst de content van de geheugencel moet weggooien en pas daarna z'n eigen content kan toevoegen.
Eh, wat?Daar hebben ze een workaround voor: cellen die niet meer gebruikt worden meteen al leeggooien zodat dit niet bij wegschrijven hoeft. In den beginne had men daar Garbage Collection (GC) voor (dat hebben we nog steeds) en later een iets efficiëntere manier middels TRIM (het verschil is heel simpel: TRIM vertelt exact wat er leeg moet, bij GC moet daar een berekening overheen).
Hoe gaat dat dan met die "berekening"? De GC kan toch niet zomaar data gaan lopen weggooien waarvan hij 'gokt' dat het leeg is? Dat een bepaalde page leeg is moet de SSD-controller horen van het OS, en die techniek heet TRIM. TRIM is niet simpelweg een "iets efficiëntere manier van GC", het is iets totaal anders.
Zoals je weet beschrijft een SSD graag pages in een nieuw, schoon, blok. Dat geldt ook voor een modify: als het OS een bepaalde LBA wil wijzigen, schrijft de SSD 'stiekem' de data naar een page in een nieuw, schoon blok in plaats van de oude, beschreven page te updaten. Allemaal om read-modify-write van een heel blok te voorkomen. Hierdoor houd je zogenaamde 'stale pages' over: dit zijn de oude pages die de SSD heeft geremapped naar een ander blok.
Wat GC (zonder TRIM) in werkelijkheid doet, is het 'opeenhopen' van beschreven pages naar volle blokken waardoor er allemaal blokken met stale pages overblijven. Die blokken met alleen maar stale pages kunnen dan gewist worden.
Overprovisioning heeft er juist alles mee te maken. Wat ik hierboven beschreef werkt namelijk allemaal als het OS een LBA wil wijzigen, maar zonder TRIM heeft de SSD geen manier om te weten dat er (en, belangrijker, welke) data verwijderd wordt.Overprovisioning heeft hier dan ook bar weinig mee te maken. Dat doe je alleen om te zorgen dat er minder cellen in gebruik zijn. Dat heeft gevolgen voor de wear leveling maar ook voor de performance op een ander vlak. Een SSD wordt net als een HDD trager naarmate er meer data op staat. Door overprovisioning voorkom je dat je de hele SSD met data kunt volzetten. Je zou ook alles kunnen toewijzen en er gewoon niet zoveel op zetten maar een harde limiet helpt nou eenmaal veel beter. Of het in de praktijk ook allemaal zo goed werkt is dan weer vers 2.
Het is belangrijk dat de SSD weet welke pages, en daarmee blokken, leeg zijn. Als de SSD niet weet dat bepaalde data in het filesystem 'verwijderd' is, gaat de SSD onnodig (verwijderde) data lopen schuiven:

Als je geen TRIM hebt en ook geen OP, zullen dus steeds meer pages volraken. Althans, dat denkt de SSD, want zonder TRIM wordt die niet op de hoogte gesteld van verwijderde data.
En dat is de reden dat je OP nodig hebt als je geen TRIM hebt. OP zorgt er in dit geval voor dat je een bepaalde 'reserve' aan blokken hebt waarvan de SSD gegarandeerd weet dat ze leeg zijn, simpelweg om het feit dat ze nooit beschreven zijn en ook nooit beschreven zullen worden (omdat het ongepartitioneerde ruimte is). OP is natuurlijk niet zo'n mooie techniek als TRIM omdat je er je opslagruimte mee verkleint, maar het is wel nodig omdat zonder TRIM en zonder OP, er na een tijd geen onbeschreven blok meer zal overblijven. En dat heeft directe consequenties voor de performance.
Meer leesvoer: http://arstechnica.com/ga...o-i-dont-need-trim-right/
Gewoon een heel grote verzameling snoertjes
Bovendien kan je SSD Deduplication doen (vooral OCZ deed dat veel) waardoor vrije ruimte van een OS page maar 1 keer op je SSD hoeft te staan, en alle andere lege cellen kunnen in de mapping tables naar deze cel verwijzen. Juist die mapping tables maken bovenstaande verhaal nog iets ingewikkelder.
En daar zit ook het grote verschil in performance qua firmware. Als het verhaal exact alleen maar was wat het diagram hierboven schetst, hadden we veel minder performance verschil gezien tussen merken. Er zijn immers maar een paar NAND fabrikanten en ook maar een beperkt aantal Controller fabrikanten.
Toch zien we gigantische verschillen tussen verschillende SSD's...
Over de overprovisioning. die is nodig *direct* na een secure erase... Na een secure erase is je SSD er bewust van dat alle cellen echt leeg zijn, en niet OS deleted.
Als je direct daarna overprovisioning aanmaakt (dmv partitie, of firmware) worden deze cellen ook nooit beschreven.
Als je de SSD eerst vol schrijft, daarna een partitie aanmaakt die maar 10% van je SSD beslaat, zal je SSD nog steeds poep presteren. Dit omdat een SSD helemaal geen weet heeft van partities. Dat snapt een SSD helemaal niet.
@CompizFox, Jouw verhaal klopt dus 99%, met de kanttekening dat je Overprovisioning ofwel door de firmware moet doen, ofwel eerst een Secure Erase moet doen.
Een simpele format levert niet hetzelfde resultaat.
[ Voor 29% gewijzigd door FireDrunk op 31-08-2015 07:48 ]
Even niets...
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.