Weet jij toevallig of die DSM6 VM een beetje stabiel is? Ik wil namelijk gaan spelen met BTRFS in plaats van ZFS.|sWORDs| schreef op maandag 20 juni 2016 @ 15:47:
[...]
OK:
1) Installeer OSFMount en open xpenology.img FAT partitie zonder readonly:
[afbeelding]
[afbeelding]
2) Bewerk syslinux.cfg zodat op elke append regel er
code:
1 sn=[SN} mac1=[MAC_ZONDER_DUBBELE_PUNT] rmmod=ata_piix
bij komt te staan met een SN en MAC uit deze excel file en save de file en unmount en sluit OSFMount:
[afbeelding]
3) Installeer StarWind Converter en converteer de IMG naar VMDK en plaats deze op een datastore.
[afbeelding]
4) Maak nu een nieuwe VM met een VMXNET3 NIC die je dezelfde MAC geeft, een existing harddisk op een IDE controller, die je wijst naar de VMDK op de datastore.
[afbeelding]
5) Nu kun je of een PVSCSI virtuele data disk maken of een controller in passthrough (zie mijn guide hier voor Intel) toevoegen. Hierna schakel je de VM in.
[afbeelding]
6) Gebruik http://find.synology.com of Synology Assistent om de PAT file te installeren.
[afbeelding]
7) Installeer open-vm-tools via Package Center en stel je updates zo in dat alleen DSM5 patches binnen komen en hij vraagt voor updates.
[afbeelding]
Als je wil spelen met DSM6 kan dat ook, alleen moet je dan een E1000 nic gebruiken en kun je alleen SATA controllers gebruiken (Dus geen SCSI/LSI!) met deze OVF.
Ik zou me er nog niet aan wagen als je iets meer wil dan standaard SATA en e1000. De kernel modules zijn nog niet ge-cross-compiled (is dat een woord?), zodra iemand de DSM6 toolchain aan de praat heeft komt er vast een 'officiële' XPEnoboot.
Te Koop:24 Core Intel Upgradeset
OK, thanks voor de info. Dan wacht ik nog even.
Ik ben aan het oriënteren op een moederbord voor mijn nieuwe esxi server. In welke usecases is een tweede NIC nu echt handig? Alleen als je wil gaan stoeien met pfSense?
Voor thuis eigenlijk nooit, alleen als je meerdere netwerken buiten ESXi wilt hebben zonder een managed switch of meerdere ESXi servers hebt en meer dan (1/10) gigabit aan data.

Met een enkele NIC en een managed switch (tegenwoordig al een 8 poort voor 30 euro, als je het niet erg vind hem onder Windows in te stellen) kun je prima een trunk maken en mocht je IPTV hebben en een provider met VLANs dan zit er een bug in de laatste pfSense waardoor je de VLANs sowieso door je virtuele switch wil laten doen. Alleen als je 400Mbit Internet of meer hebt en tegelijk vol download en upload loop je tegen een grens. Of als je er ook een file server opdraait, etc.
Het kan prettig zijn om je management op een aparte NIC te hebben mocht je iets slopen, maar dat kun je via de console ook wel herstellen.

Met een enkele NIC en een managed switch (tegenwoordig al een 8 poort voor 30 euro, als je het niet erg vind hem onder Windows in te stellen) kun je prima een trunk maken en mocht je IPTV hebben en een provider met VLANs dan zit er een bug in de laatste pfSense waardoor je de VLANs sowieso door je virtuele switch wil laten doen. Alleen als je 400Mbit Internet of meer hebt en tegelijk vol download en upload loop je tegen een grens. Of als je er ook een file server opdraait, etc.
Het kan prettig zijn om je management op een aparte NIC te hebben mocht je iets slopen, maar dat kun je via de console ook wel herstellen.
[ Voor 85% gewijzigd door |sWORDs| op 21-06-2016 16:56 ]
Te Koop:24 Core Intel Upgradeset
Dacht dat ze die bug in pfSense al lang gefixt hadden? Dat ging toch alleen over IGMP proxies icm VLAN's?
[ Voor 5% gewijzigd door FireDrunk op 21-06-2016 15:38 ]
Even niets...
Zit er nog steeds in en ja IGMP proxy only.
[ Voor 37% gewijzigd door |sWORDs| op 21-06-2016 15:53 ]
Te Koop:24 Core Intel Upgradeset
Bedankt, dat maakt de keuze voor een geschikt moederbord weer wat ruimer.|sWORDs| schreef op dinsdag 21 juni 2016 @ 13:04:
Voor thuis eigenlijk nooit, alleen als je meerdere netwerken buiten ESXi wilt hebben zonder een managed switch of meerdere ESXi servers hebt en meer dan (1/10) gigabit aan data.
Met ESXi toch eenvoudig te omzeilen? Gewoon vSwitches/Groups op hostniveau taggen met de juiste VLAN's, en dan 2 WAN NIC's aanmaken in ESXi en aan PfSense VM koppelen.
pfSense heeft dan geen weet van het feit dat het dezelfde NIC is..
[EDIT]
Pff compleet je post gemist |sWORDs|
[ Voor 5% gewijzigd door Wasp op 23-06-2016 16:46 ]
Ryzen 9 5900X, MSI Tomahawk MAX, 32GB RAM, Nvidia RTX 4070 Ti | Mijn livesets
Wasp schreef op donderdag 23 juni 2016 @ 16:19:
[...]
Met ESXi toch eenvoudig te omzeilen? Gewoon vSwitches/Groups op hostniveau taggen met de juiste VLAN's, en dan 2 WAN NIC's aanmaken in ESXi en aan PfSense VM koppelen.
pfSense heeft dan geen weet van het feit dat het dezelfde NIC is..
|sWORDs| schreef op dinsdag 21 juni 2016 @ 13:04:
[...]
Met een enkele NIC en een managed switch (tegenwoordig al een 8 poort voor 30 euro, als je het niet erg vind hem onder Windows in te stellen) kun je prima een trunk maken en mocht je IPTV hebben en een provider met VLANs dan zit er een bug in de laatste pfSense waardoor je de VLANs sowieso door je virtuele switch wil laten doen.
[...]
[ Voor 87% gewijzigd door |sWORDs| op 23-06-2016 16:43 ]
Te Koop:24 Core Intel Upgradeset
Hoi,
Dit is mijn server:
ESXI 6U2 draait op Corsair Reactor R60 60GB en de andere vm's op: Samsung M391A2K43BB1. Ik krijg de HGST Ultrastars, die op de C236 zitten, echter niet gepasstrought. Het moederbord gebruikt default settings... VT-D staat enabled. Dit is de view:
Iemand een idee wat ik kan doen?
Alvast bedabkt.
Dit is mijn server:
# | Product | Prijs | Subtotaal |
1 | Intel Xeon Processor E3-1260L v5 | € 310,99 | € 310,99 |
1 | Supermicro X11SSH-LN4F | € 275,35 | € 275,35 |
4 | HGST Ultrastar 7K6000 (512e ISE), 6TB | € 327,99 | € 1.311,96 |
1 | Fractal Design Define R5 Zwart | € 100,95 | € 100,95 |
1 | Supermicro SNK-P0046P | € 22,51 | € 22,51 |
4 | Samsung M391A2K43BB1 | € 84,- | € 336,- |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
1 | Corsair Reactor R60 60GB | € 0,- | € 0,- |
1 | Samsung SM951 (NVMe) 512GB | € 228,- | € 228,- |
Bekijk collectie Importeer producten | Totaal | € 2.642,71 |
ESXI 6U2 draait op Corsair Reactor R60 60GB en de andere vm's op: Samsung M391A2K43BB1. Ik krijg de HGST Ultrastars, die op de C236 zitten, echter niet gepasstrought. Het moederbord gebruikt default settings... VT-D staat enabled. Dit is de view:

Iemand een idee wat ik kan doen?
Alvast bedabkt.
VT-d is niet voor disks, maar voor controllers. Als je de controller wil doorgeven zie mijn guide (let op dat je er niet ook van kan booten of voor datastores gebruiken), meerdere keren gequoted in de laatste posts. Anders moet je op RDM zoeken. In jouw geval (1 controller) wil je waarschijnlijk de Corsair eruit en booten van NVMe (rest kun je nog steeds als datastore gebruiken) of een tweede SATA controller of booten van USB.
Ik zou voor NVMe boot gaan:
Stap 1, maak een datastore op een van je spinning disks en migreer alle VM's daarheen. (als je veel netwerksettings e.d. hebt maak een Host Profile en export die)
Stap 2, verwijder de Corsair. (Of laat 'm zitten en gebruik als cache/extra disk voor/naast je spinning array.)
Stap 3, installeer ESXi op je NVMe drive en zet deze als bootdrive.
Stap 4, import VM's (bladeren rechtsklik vmx) en migreer naar NVMe. (eventueel import Host Profile)
Stap 5, verwijder spinning datastore.
Stap 6, zet je Intel controller in passthrough.
Ik zou voor NVMe boot gaan:
Stap 1, maak een datastore op een van je spinning disks en migreer alle VM's daarheen. (als je veel netwerksettings e.d. hebt maak een Host Profile en export die)
Stap 2, verwijder de Corsair. (Of laat 'm zitten en gebruik als cache/extra disk voor/naast je spinning array.)
Stap 3, installeer ESXi op je NVMe drive en zet deze als bootdrive.
Stap 4, import VM's (bladeren rechtsklik vmx) en migreer naar NVMe. (eventueel import Host Profile)
Stap 5, verwijder spinning datastore.
Stap 6, zet je Intel controller in passthrough.
[ Voor 62% gewijzigd door |sWORDs| op 25-06-2016 01:08 ]
Te Koop:24 Core Intel Upgradeset
Echt enorm bedankt !! Dit waardeer ik echt!!|sWORDs| schreef op zaterdag 25 juni 2016 @ 00:28:
VT-d is niet voor disks, maar voor controllers. Als je de controller wil doorgeven zie mijn guide (let op dat je er niet ook van kan booten of voor datastores gebruiken), meerdere keren gequoted in de laatste posts. Anders moet je op RDM zoeken. In jouw geval (1 controller) wil je waarschijnlijk de Corsair eruit en booten van NVMe (rest kun je nog steeds als datastore gebruiken) of een tweede SATA controller of booten van USB.
Ik zou voor NVMe boot gaan:
Stap 1, maak een datastore op een van je spinning disks en migreer alle VM's daarheen. (als je veel netwerksettings e.d. hebt maak een Host Profile en export die)
Stap 2, verwijder de Corsair. (Of laat 'm zitten en gebruik als cache/extra disk voor/naast je spinning array.)
Stap 3, installeer ESXi op je NVMe drive en zet deze als bootdrive.
Stap 4, import VM's (bladeren rechtsklik vmx) en migreer naar NVMe. (eventueel import Host Profile)
Stap 5, verwijder spinning datastore.
Stap 6, zet je Intel controller in passthrough.
De Corsair heb ik er in moeten stoppen omdat het onmogelijk was esx op de nvme geïnstalleerd te krijgen. Ik kreeg elke keer bij het installeren fatal error 10 wat vanalles kan zijn.
Op oudere E3 (X10SLH-F) borden, D borden (X10SDV) en op E5 borden (X10DRH) werkt het prima. Het kan bijna niet anders dan dat het ook werkt op jouw bord. Je moet alleen zorgen dat je in de BIOS EFI boot gebruikt en PCIe option ROM ook op EFI staat.
Eventueel heb ik nog wel een LSI 9211-8i in doos liggen met de IT firmware er op. Die is er hier na zes weken uit gegaan toen de Intel werkte.
Eventueel heb ik nog wel een LSI 9211-8i in doos liggen met de IT firmware er op. Die is er hier na zes weken uit gegaan toen de Intel werkte.
[ Voor 33% gewijzigd door |sWORDs| op 25-06-2016 10:50 ]
Te Koop:24 Core Intel Upgradeset
Ik zag dat het jou schijnbaar wel is gelukt om Esxi te installeren in een systeem met een supermicro x11ssh-ln4f ik heb hetzelfde bordje sinds gister in mijn bezit met ongeveer dezelfde configuratie die jij ook hebt echter krijg ik met geen mogelijkheid Esxi geïnstalleerd versie 6.0 hij loopt bij het laden van de setup vast met errorcode 10 out of resources.Stormtraxx schreef op vrijdag 24 juni 2016 @ 20:02:
Hoi,
Dit is mijn server:
# Product Prijs Subtotaal 1 Intel Xeon Processor E3-1260L v5 € 310,99 € 310,99 1 Supermicro X11SSH-LN4F € 275,35 € 275,35 4 HGST Ultrastar 7K6000 (512e ISE), 6TB € 327,99 € 1.311,96 1 Fractal Design Define R5 Zwart € 100,95 € 100,95 1 Supermicro SNK-P0046P € 22,51 € 22,51 4 Samsung M391A2K43BB1 € 84,- € 336,- 1 Seasonic G-series 360 watt € 56,95 € 56,95 1 Corsair Reactor R60 60GB € 0,- € 0,- 1 Samsung SM951 (NVMe) 512GB € 228,- € 228,- Bekijk collectie
Importeer productenTotaal € 2.642,71
ESXI 6U2 draait op Corsair Reactor R60 60GB en de andere vm's op: Samsung M391A2K43BB1. Ik krijg de HGST Ultrastars, die op de C236 zitten, echter niet gepasstrought. Het moederbord gebruikt default settings... VT-D staat enabled. Dit is de view:[afbeelding]
Iemand een idee wat ik kan doen?
Alvast bedabkt.
Hoe heb jij het voor elkaar gekregen om het wel geïnstalleerd te hebben ?
Het is niet wat je wil horen, maar mocht installeren echt niet lukken kun je rustig de drive in een volledig ander systeem zetten, installeren en terug plaatsen.
Te Koop:24 Core Intel Upgradeset
Iemand ervaring met het bestellen van E5-2650L v3 cpu's via Ebay (engineering sample) ? :
http://www.ebay.com/itm/F...025006:g:jq4AAOSwq5pXPtq9
M'n homelab wil ik gaan herbouwen en zit met hetzelfde dilemma als velen hier: 1 losse grote host of meerdere kleintjes. Heb nog wel de kast en m'n psu dus dat scheelt in de kosten.
Vooralsnog kom ik uit op 1 grote host als ik zo'n cpu kan scoren icm met een x99 moederbord (MSI Raider of ASRock X99 Extreme) kan ik behoorlijk groeien qua RAM wanneer ik alles nested draai..
Vraag / Quest 2:
Probeer nog even uit te zoeken of deze Xeon E5-2650L v3 of 2650L v4 kan werken met non ECC ram zoals deze:
pricewatch: Kingston ValueRAM KVR21N15D8/16
of deze:
pricewatch: Crucial CT16G4DFD8213
Ervaringen zijn welkom
http://www.ebay.com/itm/F...025006:g:jq4AAOSwq5pXPtq9
M'n homelab wil ik gaan herbouwen en zit met hetzelfde dilemma als velen hier: 1 losse grote host of meerdere kleintjes. Heb nog wel de kast en m'n psu dus dat scheelt in de kosten.
Vooralsnog kom ik uit op 1 grote host als ik zo'n cpu kan scoren icm met een x99 moederbord (MSI Raider of ASRock X99 Extreme) kan ik behoorlijk groeien qua RAM wanneer ik alles nested draai..
Vraag / Quest 2:
Probeer nog even uit te zoeken of deze Xeon E5-2650L v3 of 2650L v4 kan werken met non ECC ram zoals deze:
pricewatch: Kingston ValueRAM KVR21N15D8/16
of deze:
pricewatch: Crucial CT16G4DFD8213
Ervaringen zijn welkom
[ Voor 18% gewijzigd door NIK0 op 26-06-2016 17:45 ]
Member of the Ukraine IT Army
1) Gemengde ervaringen:
Ook ik zat met de keuze tussen meerdere kleine hosts of één grote. Het voordeel van één is hier dat ik niets voor networking uit hoef te geven en niet met shared storage zit.
2) De v3's werken ook met non ECC en ook op een X99 bord. Van de v4's weet ik het niet (E3 v5 werkt ook niet meer op 'normale' chipsets). X99 werkt met een Xeon ook met ECC. Je ziet regelmatig ECC builds met een Asus X99 bord.
- Twee 2690 v3's gekocht, snelle levering en werken perfect.
- Twee 2687W v4's gekocht die volgens de advertentie 145 Watt waren. Maar op mijn max 145 Watt bord deden ze het niet, terug gestuurd en heel lang op 2690 v4's als vervanging gewacht.
Uiteindelijk via Ebay zelf geld terug gehad.

Ook ik zat met de keuze tussen meerdere kleine hosts of één grote. Het voordeel van één is hier dat ik niets voor networking uit hoef te geven en niet met shared storage zit.
2) De v3's werken ook met non ECC en ook op een X99 bord. Van de v4's weet ik het niet (E3 v5 werkt ook niet meer op 'normale' chipsets). X99 werkt met een Xeon ook met ECC. Je ziet regelmatig ECC builds met een Asus X99 bord.
Puget Systems:
We have been able to use Xeon E5 v3 CPUs and registered ECC memory on every ASUS and ASRock X99 board we have tried without few, if any, problems. The eight RAM slots on most X99 boards will limit you to a maximum of 256GB (8x32GB) of RAM instead of the 768GB the Xeon CPUs technically support, but that is the only issue we've seen. In fact, we are currently using Xeon E5 v3 CPUs on the ASUS X99 Deluxe motherboard on all of our Genesis I and Genesis I Quiet Edition systems.
[ Voor 49% gewijzigd door |sWORDs| op 26-06-2016 18:35 ]
Te Koop:24 Core Intel Upgradeset
Ik volg idd ook jouw gedachtengang voor wat betreft 1 of 2 hosts. (geen geld over voor extra networking gear)
Heb het stuk gelezen net gelezen mbt Puget systems en als ik het verhaal begrijp werken de cpu's met zowel "normaal"geheugen EN met ECC geheugen op een Asrock bordje en kan de Xeon/ASRock combi veel meer RAM aan dan wat er als supported staat op de ASRock site?
Heb het stuk gelezen net gelezen mbt Puget systems en als ik het verhaal begrijp werken de cpu's met zowel "normaal"geheugen EN met ECC geheugen op een Asrock bordje en kan de Xeon/ASRock combi veel meer RAM aan dan wat er als supported staat op de ASRock site?
[ Voor 9% gewijzigd door NIK0 op 26-06-2016 19:18 ]
Member of the Ukraine IT Army
Esxi heb ik uiteindelijk op een sata ssd geïnstalleerd. De nvme ssd gebruik ik als datastore. De reactie van sword, kan ook helpen.jimmya3 schreef op zaterdag 25 juni 2016 @ 18:25:
[...]
Ik zag dat het jou schijnbaar wel is gelukt om Esxi te installeren in een systeem met een supermicro x11ssh-ln4f ik heb hetzelfde bordje sinds gister in mijn bezit met ongeveer dezelfde configuratie die jij ook hebt echter krijg ik met geen mogelijkheid Esxi geïnstalleerd versie 6.0 hij loopt bij het laden van de setup vast met errorcode 10 out of resources.
Hoe heb jij het voor elkaar gekregen om het wel geïnstalleerd te hebben ?
Exact (maar wel alleen ECC en meer geheugen met een Xeon CPU). Eigenlijk zijn de X99 en de C612 dezelfde chip (net als i7 5xxx en e5 1xxx), ECC werkt gewoon. Het zou me niet verbazen als met een bios hack vPRO op de X99 of overklokken (met een E5 1xxx/i7 5xxx) op de C612 ook zou werken, of ECC met een i7.NIK0 schreef op zondag 26 juni 2016 @ 19:16:
Ik volg idd ook jouw gedachtengang voor wat betreft 1 of 2 hosts. (geen geld over voor extra networking gear)
Heb het stuk gelezen net gelezen mbt Puget systems en als ik het verhaal begrijp werken de cpu's met zowel "normaal"geheugen EN met ECC geheugen op een Asrock bordje en kan de Xeon/ASRock combi veel meer RAM aan dan wat er als supported staat op de ASRock site?
[ Voor 3% gewijzigd door |sWORDs| op 26-06-2016 20:11 ]
Te Koop:24 Core Intel Upgradeset
Heb wat vraagjes uitgezet bij diverse sellers op ebay..voor wat betreft het geheugen zal het er vanaf hangen wat het prijs verschil is..toch wel een beetje eng 32GB DIMM's als op de ASRock/MSI site nergens iets te vinden is..|sWORDs| schreef op zondag 26 juni 2016 @ 20:06:
[...]
Exact (maar wel alleen ECC en meer geheugen met een Xeon CPU). Eigenlijk zijn de X99 en de C612 dezelfde chip (net als i7 5xxx en e5 1xxx), ECC werkt gewoon. Het zou me niet verbazen als met een bios hack vPRO op de X99 of overklokken (met een E5 1xxx/i7 5xxx) op de C612 ook zou werken, of ECC met een i7.
Member of the Ukraine IT Army
welke versie heb je geïnstalleerd ? ik krijg het echt met geen mogelijkheid voor elkaar ook heb ik gepoogd de installatie op een ander systeem te doen en vervolgens ervan booten op het supermicro bord echter krijg ik dan exact dezelfde foutmelding bij het booten :Stormtraxx schreef op zondag 26 juni 2016 @ 19:21:
[...]
Esxi heb ik uiteindelijk op een sata ssd geïnstalleerd. De nvme ssd gebruik ik als datastore. De reactie van sword, kan ook helpen.
Error loading /s.v00
Compressed MD5: 206f......
Decompressed MD5: 0000......
Fatal error: 10 (Out of resources)
windows server 2012 r2 kan ik wel gewoon installeren dus lijkt me sterk dat er iets mis is met de hardware.
edit. het is gelukt de oplossing was een Biosupdate naar versie 1.0b er stond 1.0a op na de update van de bios werkt het nu wel en kan ik esxi installeren en booten
[ Voor 10% gewijzigd door jimmya3 op 27-06-2016 13:23 ]
Ik zit op 1a. Maar goed... blij dat het werkt !jimmya3 schreef op maandag 27 juni 2016 @ 12:33:
[...]
welke versie heb je geïnstalleerd ? ik krijg het echt met geen mogelijkheid voor elkaar ook heb ik gepoogd de installatie op een ander systeem te doen en vervolgens ervan booten op het supermicro bord echter krijg ik dan exact dezelfde foutmelding bij het booten :
Error loading /s.v00
Compressed MD5: 206f......
Decompressed MD5: 0000......
Fatal error: 10 (Out of resources)
windows server 2012 r2 kan ik wel gewoon installeren dus lijkt me sterk dat er iets mis is met de hardware.
edit. het is gelukt de oplossing was een Biosupdate naar versie 1.0b er stond 1.0a op na de update van de bios werkt het nu wel en kan ik esxi installeren en booten
Heeft iemand al eens geprobeerd om een NVME drive zelf via VT-d door te geven aan een VM en er dan van te booten via UEFI?
Even niets...
Kan niet, VT-d en NVMe gaat sowieso niet heel erg goed, de drivers van Intel en Samsung werken niet goed. Maar de VM bios kan sowieso niet van NVMe booten.
Edit: Dit was wel voor u2 getest.
Edit: Dit was wel voor u2 getest.
[ Voor 12% gewijzigd door |sWORDs| op 27-06-2016 17:03 ]
Te Koop:24 Core Intel Upgradeset
Gebruik je dan een USB stick om ESXi van te booten en gebruik je de NVMe als datastore voor je VM's?|sWORDs| schreef op maandag 27 juni 2016 @ 17:01:
Kan niet, VT-d en NVMe gaat sowieso niet heel erg goed, de drivers van Intel en Samsung werken niet goed. Maar de VM bios kan sowieso niet van NVMe booten.
Edit: Dit was wel voor u2 getest.
Ik heb 5 NVMe (3x Intel 750 400GB, 1x Intel 750 1.2TB, 1x Samsung 950 512GB) drives, dus altijd wel eentje vrij om door te geven, maar USB of SATA boot kan ook.
Maar als je hem doorgeeft kun je hem niet ook als datastore gebruiken.
Maar als je hem doorgeeft kun je hem niet ook als datastore gebruiken.
[ Voor 43% gewijzigd door |sWORDs| op 27-06-2016 17:59 ]
Te Koop:24 Core Intel Upgradeset
Wat ik wil is de sata controller (max 6 schijven) doorgeven en daar 6 sata schijven aan hangen. Ik wil dan een moederbord met NVMe ondersteuning en op de NVMe schijf esxi installeren. Dat betekent dus dat ik de NVMe niet meer kan gebruiken als datastore van VM's? Is het dan beter om esxi op USB te installeren omdat dit in het geheugen wordt geladen en de VM's dan opslaan op de NVMe schijf. (Misschien sla ik de plank helemaal mis, ben nog aan het leren..)|sWORDs| schreef op maandag 27 juni 2016 @ 17:55:
Ik heb 5 NVMe (3x Intel 750 400GB, 1x Intel 750 1.2TB, 1x Samsung 950 512GB) drives, dus altijd wel eentje vrij om door te geven, maar USB of SATA boot kan ook.
Maar als je hem doorgeeft kun je hem niet ook als datastore gebruiken.
Je kan esxi op je nvme installeren. De overgebleven ruimte kan je probleemloos gebruiken om vm's op te hosten (datastore). Ikzelf hou het OS en de datastore liever gescheiden... maar das een persoonlijke keuze.BertusG schreef op maandag 27 juni 2016 @ 20:05:
[...]
Wat ik wil is de sata controller (max 6 schijven) doorgeven en daar 6 sata schijven aan hangen. Ik wil dan een moederbord met NVMe ondersteuning en op de NVMe schijf esxi installeren. Dat betekent dus dat ik de NVMe niet meer kan gebruiken als datastore van VM's? Is het dan beter om esxi op USB te installeren omdat dit in het geheugen wordt geladen en de VM's dan opslaan op de NVMe schijf. (Misschien sla ik de plank helemaal mis, ben nog aan het leren..)
Eens met hierboven, NVMe als boot en datastore, SATA als passthrough.
Te Koop:24 Core Intel Upgradeset
Zelfs niet als je de VM Bios op UEFI zet? Dan zou het theoretisch gezien toch moeten kunnen werken via Option ROM's? Of leveren de drives deze niet?|sWORDs| schreef op maandag 27 juni 2016 @ 17:01:
Kan niet, VT-d en NVMe gaat sowieso niet heel erg goed, de drivers van Intel en Samsung werken niet goed. Maar de VM bios kan sowieso niet van NVMe booten.
Edit: Dit was wel voor u2 getest.
Leek me wel cool voor een high speed VM
Even niets...
Dames en heren. Ik ben bang dat ik mijn oude bak heb laten sneuvelen. En in heb op korte termijn een moederbord + cpu + geheugen. Dus een relatief simpel systeem met een i5/i7 en minimaal 6x SATA en VT-D ondersteuning. Tips?
Dè developers podcast in je moerstaal : CodeKlets Podcast
Ik ben nog steeds voor de usb stick met esxi. Kun je ook in vmware fusion/workstation eenvoudig draaien/installeren.|sWORDs| schreef op maandag 27 juni 2016 @ 21:35:
Eens met hierboven, NVMe als boot en datastore, SATA als passthrough.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Yes ik heb nu 3 replies achter elkaar 
Maar vraagje over geheugen voor Asrock B85 plank. Ik zie dat ie DDR3L ondersteund. Ik neem aan dat dat voor het verbruik ook wat uitmaakt, maar heeft iemand hier daar ervaring mee? Het Crucial geheugen (Geen DDR3L) wat ik hier langs zie komen bij Asrock builds lijkt niet altijd stabiel te zijn. Dus die laat ik even links liggen.
Maar vraagje over geheugen voor Asrock B85 plank. Ik zie dat ie DDR3L ondersteund. Ik neem aan dat dat voor het verbruik ook wat uitmaakt, maar heeft iemand hier daar ervaring mee? Het Crucial geheugen (Geen DDR3L) wat ik hier langs zie komen bij Asrock builds lijkt niet altijd stabiel te zijn. Dus die laat ik even links liggen.
Dè developers podcast in je moerstaal : CodeKlets Podcast
DDR3L vs DDR3 scheelt je best, best, best case misschien 2 watt op een gigantisch systeem. Bij een klein simpel idle computertje scheelt het eerder mW dan hele watts...
Ik zou er niet om malen.
Ik zou er niet om malen.
[ Voor 37% gewijzigd door FireDrunk op 02-07-2016 14:09 ]
Even niets...
Welke VMWare software kun je tegenwoordig eigenlijk nog gratis gebruiken? Is dat puur ESXI of hebben ze tegenwoordig meer leuk speelgoed?
offtopic:
Ik ben aan het rondkijken voor een nieuwe virtualisatie homeserver. Hoeft echter niet per se zuinig of voor ESXI te zijn. Waar kan ik het beste kijken? Ik zie op Tweakers momenteel alleen topics over zuinige servers.
Ik ben aan het rondkijken voor een nieuwe virtualisatie homeserver. Hoeft echter niet per se zuinig of voor ESXI te zijn. Waar kan ik het beste kijken? Ik zie op Tweakers momenteel alleen topics over zuinige servers.
Je kunt vrijwel alles gratis gebruiken met een tijdslimiet (trial). Wat heb je precies nodig? Via verschillende scholen kun je ook van alles gratis krijgen. Als je bij een VMware partner werkt kun je van alles gratis krijgen (NFR keys). Als je bij je werkgever een VMUG Advantage abonnement kunt declareren kun je van alles krijgen (200 dollar per jaar).Moikvin schreef op zaterdag 02 juli 2016 @ 14:44:
Welke VMWare software kun je tegenwoordig eigenlijk nog gratis gebruiken? Is dat puur ESXI of hebben ze tegenwoordig meer leuk speelgoed?
offtopic:
Ik ben aan het rondkijken voor een nieuwe virtualisatie homeserver. Hoeft echter niet per se zuinig of voor ESXI te zijn. Waar kan ik het beste kijken? Ik zie op Tweakers momenteel alleen topics over zuinige servers.
Vragen over een homeserver kunnen we beter beantwoorden als je specifieker aangeeft wat je met je homeserver wilt doen en welke eisen je precies hebt. Nu kan ik alleen zeggen: kijk eens in Vraag en Aanbod en de Pricewatch om te kijken of er iets in staat wat je bevalt.
while (! ( succeed = try ()));
Ik werk niet (meer) bij een partner. Dat gaat helaas niet lukken dus.hans_lenze schreef op zondag 03 juli 2016 @ 19:20:
[...]
Je kunt vrijwel alles gratis gebruiken met een tijdslimiet (trial). Wat heb je precies nodig? Via verschillende scholen kun je ook van alles gratis krijgen. Als je bij een VMware partner werkt kun je van alles gratis krijgen (NFR keys). Als je bij je werkgever een VMUG Advantage abonnement kunt declareren kun je van alles krijgen (200 dollar per jaar).
Vragen over een homeserver kunnen we beter beantwoorden als je specifieker aangeeft wat je met je homeserver wilt doen en welke eisen je precies hebt. Nu kan ik alleen zeggen: kijk eens in Vraag en Aanbod en de Pricewatch om te kijken of er iets in staat wat je bevalt.
Het is vooral dat ik in het verleden veel met ESXI gespeeld heb en benieuwd ben naar huidige mogelijkheden voor een hobbyist. Bij VMWare producten vond ik het altijd jammer (maar redelijk logisch) dat je voor de interessantere functies al snel veel geld kwijt bent. Ook als je puur voor het leren/experimenteren gaat.
De details over de homeserver heb ik expres weggelaten omdat het me iets te offtopic leek. Dit leek me echter wel het topic met de meeste kennis over virtualisatie hardware.
Ik zal de vraag wel iets specifieker in de richting van dit topic stellen. In principe zou een zuinige ESXi server ook prima voor mijn use-case(oefenlab voor proxmox/kubernetes/mesos e.d.) zijn.
Mijn grootste vraag is eigenlijk wat de meningen zijn over 1 systeem voor virtualisatie en storage versus 2 systemen(1 voor virtualisatie, 1 voor storage).
Daarnaast een wat algemenere vraag:
Wat zou ik met een budget(exclusief disks) van 2000 euro ongeveer kunnen draaien met een nieuw systeem? Ik verwacht dat Plex en windows server/sql server instances m'n zwaarste VM's zullen zijn. Ik weet dat het een nogal moeilijke indicatie is maar kan iemand mij een idee geven hoeveel Ubuntu server VM's ik hiernaast zou kunnen draaien. Type workload zal wat dynamisch zijn maar laten we zeggen dat het een mix van build-servers en webapps zijn.
Een duw in de juiste richting zou flink helpen maar als dit iets te ver van de kern van dit topic af staat begrijp ik dat.
Als je meer dan 2000 euro aan kit wil besteden, waarom kan er dan geen 200 euro voor licenties van af?
https://www.vmug.com/evalexperience
edit: Hmm op mijn telefoon over de comment van Hans heen gelezen, die had het ook al genoemd.
Dan over je vragen. Het nadeel van meerdere systemen is dat het of erg traag is (tenzij je de storage per server intern hebt), of je een kapitaal moet uitgeven aan networking (1000 euro voor een switch welke je bij twee systemen of twee plus storage machine nog kunt besparen met directe connecties en 200 euro per machine voor NICs). Ook zijn twee machines natuurlijk minder zuinig dan één. Voordelen van meerdere systemen is dat je iets kunt bouwen wat meer de werkelijke situatie van echte omgevingen na kan bootsen, je eventueel geen downtime hebt als er een machine stuk is en je gemakkelijker kunt updaten.
Hoeveel machines je kunt draaien voor 2000 euro ligt heel erg aan hoe je de 2000 euro uit gaat geven en wat de machines doen. De verschillen daarin zijn dusdanig groot (500%?) dat er geen zinnig antwoord te geven is.
Wat ik wel kan zeggen is hoe je de 2000 euro zo kan uitgeven dat er zo veel mogelijk machines op kunnen draaien, met de restrictie dat ik niet kan gokken hoe de verhouding cores/mem bij jou zal zijn, maar een gemiddelde pak. Met een single socket 2011-3 een 2600 ES v3 en server pulled memory zul je het verst komen. Mocht je uitbreiding voor de toekomst willen hebben dan zou je een dual bord met 10Gbit NICs kunnen nemen.
Voor zo'n 1000 euro zonder disks per server zou je bijvoorbeeld twee keer zoiets kunnen doen:
CPU: voor 180 euro (mits de douane mee werkt) heb je een 12 core 2.2GHz (2.5 All Core Turbo) cpu.
Bord: voor 210 euro heb je een X99 bord met 8 dimm sloten en een Intel Gbit NIC.
Geheugen: Voor 480 euro heb je 128GB DDR4 ECC.
Of voor een single server klaar voor uitbreiding naar meedere neem je 2x dat geheugen en 2x die cpu en een dual bord met 10Gbit. En let op dat je een voeding met twee 8 pins en narrow type coolers neemt.
Ik zou voor de single server gaan, IPMI voor management, geen beperkingen qua netwerk en alleen wat lastiger te updaten. Redundantie is thuis toch niet voor elkaar te krijgen er zijn altijd meerdere single points of failure.
Ik heb zelf vrijwel hetzelfde (2690 v3 ES vs 2670 v3 ES en DRH-iT vs DRI-T):

https://www.vmug.com/evalexperience
edit: Hmm op mijn telefoon over de comment van Hans heen gelezen, die had het ook al genoemd.
Dan over je vragen. Het nadeel van meerdere systemen is dat het of erg traag is (tenzij je de storage per server intern hebt), of je een kapitaal moet uitgeven aan networking (1000 euro voor een switch welke je bij twee systemen of twee plus storage machine nog kunt besparen met directe connecties en 200 euro per machine voor NICs). Ook zijn twee machines natuurlijk minder zuinig dan één. Voordelen van meerdere systemen is dat je iets kunt bouwen wat meer de werkelijke situatie van echte omgevingen na kan bootsen, je eventueel geen downtime hebt als er een machine stuk is en je gemakkelijker kunt updaten.
Hoeveel machines je kunt draaien voor 2000 euro ligt heel erg aan hoe je de 2000 euro uit gaat geven en wat de machines doen. De verschillen daarin zijn dusdanig groot (500%?) dat er geen zinnig antwoord te geven is.
Wat ik wel kan zeggen is hoe je de 2000 euro zo kan uitgeven dat er zo veel mogelijk machines op kunnen draaien, met de restrictie dat ik niet kan gokken hoe de verhouding cores/mem bij jou zal zijn, maar een gemiddelde pak. Met een single socket 2011-3 een 2600 ES v3 en server pulled memory zul je het verst komen. Mocht je uitbreiding voor de toekomst willen hebben dan zou je een dual bord met 10Gbit NICs kunnen nemen.
Voor zo'n 1000 euro zonder disks per server zou je bijvoorbeeld twee keer zoiets kunnen doen:
CPU: voor 180 euro (mits de douane mee werkt) heb je een 12 core 2.2GHz (2.5 All Core Turbo) cpu.
Bord: voor 210 euro heb je een X99 bord met 8 dimm sloten en een Intel Gbit NIC.
Geheugen: Voor 480 euro heb je 128GB DDR4 ECC.
Of voor een single server klaar voor uitbreiding naar meedere neem je 2x dat geheugen en 2x die cpu en een dual bord met 10Gbit. En let op dat je een voeding met twee 8 pins en narrow type coolers neemt.
Ik zou voor de single server gaan, IPMI voor management, geen beperkingen qua netwerk en alleen wat lastiger te updaten. Redundantie is thuis toch niet voor elkaar te krijgen er zijn altijd meerdere single points of failure.
Ik heb zelf vrijwel hetzelfde (2690 v3 ES vs 2670 v3 ES en DRH-iT vs DRI-T):

[ Voor 173% gewijzigd door |sWORDs| op 04-07-2016 10:28 ]
Te Koop:24 Core Intel Upgradeset
Da's best interessant. Maar wat mag ik er wel en niet mee? Dus hoe geschikt is dit voor een Homeserver?|sWORDs| schreef op maandag 04 juli 2016 @ 09:06:
Als je meer dan 2000 euro aan kit wil besteden, waarom kan er dan geen 200 euro voor licenties van af?
https://www.vmug.com/evalexperience
edit: Hmm op mijn telefoon over de comment van Hans heen gelezen, die had het ook al genoemd.
Dan over je vragen. Het nadeel van meerdere systemen is dat het of erg traag is, of je een kapitaal moet uitgeven aan networking (1000 euro voor een switch welke je bij twee systemen of twee plus storage machine nog kunt besparen met directe connecties en 200 euro per machine voor NICs). Ook zijn twee machines natuurlijk minder zuinig dan één. Voordelen van meerdere systemen is dat je iets kunt bouwen wat meer de werkelijke situatie van echte omgevingen na kan bootsen, je eventueel geen downtime hebt als er een machine stuk is en je gemakkelijker kunt updaten.
Hoeveel machine je kunt draaien voor 2000 euro ligt heel erg aan hoe je de 2000 euro uit gaat geven en wat de machines doen. De verschillen daarin zijn dusdanig groot (500%?) dat er geen zinnig antwoord te geven is.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Je mag alles voor persoonlijk gebruik.OMX2000 schreef op maandag 04 juli 2016 @ 09:37:
[...]
Da's best interessant. Maar wat mag ik er wel en niet mee? Dus hoe geschikt is dit voor een Homeserver?
Te Koop:24 Core Intel Upgradeset
Dus huis tuin en keuken gebruik mag dan. Da's cool! En de "VMUG Advantage Subscribers" kun je gratis lid van worden?
Dè developers podcast in je moerstaal : CodeKlets Podcast
Het kost je 180 (162 bij meer dan 1 gebruiker) euro per jaar, en daar krijg je kortingen op cursussen en events plus de licenties voor. Als je een course doet is de korting (20% op zowel de course als het examen) al veel meer dan dat bedrag.
[ Voor 42% gewijzigd door |sWORDs| op 04-07-2016 13:15 ]
Te Koop:24 Core Intel Upgradeset
OMX2000 schreef op maandag 04 juli 2016 @ 11:58:
[...]
Dus huis tuin en keuken gebruik mag dan. Da's cool! En de "VMUG Advantage Subscribers" kun je gratis lid van worden?
Heb je de info die je krijgt na t klikken op de link al bekeken, werkt verhelderend.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Top, dit is precies het soort antwoord waar ik naar op zoek was.|sWORDs| schreef op maandag 04 juli 2016 @ 09:06:
Hele nuttige informatie.
Ik ben niet te beroerd om die 200 euro uit te geven voor VMUG licenties, ik vroeg me simpelweg af wat er momenteel mogelijk is voor hobbyisten. Ik vind de VMWare websites persoonlijk altijd maar moeilijk te navigeren dus vandaar de vraag.
Het opsplitsen van de storage/rekenkracht leek mij inderdaad ook minder voordelig, bedankt voor het bevestigen. Voor backups gebruik ik toch liever een online dienst of m'n huidige hardware. Dan zijn de kosten en extra werk het voor mij niet waard.
Die hardware ziet er netjes uit, ik ga wat rondkijken welke setup voor mij ideaal is maar ik heb nu een goede start.
klopt.Pantagruel schreef op maandag 04 juli 2016 @ 13:10:
[...]
![]()
Heb je de info die je krijgt na t klikken op de link al bekeken, werkt verhelderend.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Weet iemand of het mogelijk is om IPMI zo te configureren dat je alleen kan inloggen met SSH sleutels i.p.v. wachtwoord?
Sinds de 2 dagen regel reageer ik hier niet meer
Voor zover ik weet niet. IPMI (doorgaans) heeft helaas een vrij brakke SSH implementatie. Kan je het niet op je router afvangen, en dan doorhoppen?
[ Voor 4% gewijzigd door FireDrunk op 06-07-2016 08:56 ]
Even niets...
Het gaat om de infrastructuur van een familielid, daar wil ik niet teveel onnodig in klooien. Ik zag dat ik via ipmitool wel een SSH key kan instellen, maar het uitzetten van wachtwoord mogelijkheid zie ik niet.
Sinds de 2 dagen regel reageer ik hier niet meer
WW op 200 karakters zetten?
Even niets...
Als dat mocht had het gekund
Sinds de 2 dagen regel reageer ik hier niet meer
RaspPi host je als gatekeeper?CurlyMo schreef op woensdag 06 juli 2016 @ 09:01:
Het gaat om de infrastructuur van een familielid, daar wil ik niet teveel onnodig in klooien. Ik zag dat ik via ipmitool wel een SSH key kan instellen, maar het uitzetten van wachtwoord mogelijkheid zie ik niet.
Haha tikfouten op de loerFireDrunk schreef op woensdag 06 juli 2016 @ 09:02:
WW op 200 karakters zetten?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Yep, dat is ook mijn idee als de nette manier niet lukt.
Hij bedoelt waarschijnlijk naast de keys.Haha tikfouten op de loer
Sinds de 2 dagen regel reageer ik hier niet meer
Bij SuperMicro kun je wel IP access control en Radius/LDAP/AD auth zetten.
Te Koop:24 Core Intel Upgradeset
Jup, naast keys, en gewoon een garbled onkraakbaar pw.
Even niets...
Ik heb van de week 4x 2TB disks aangeschaft, WD Reds om precies te zijn. Deze kwamen gisteren binnen en na wat gedoe bleek mijn SFF 8484 kabel stuk. Daar een nieuwe voor besteld en deze werkt wel.
Mijn HP P400 SmartArray ziet nu dus 8 disks en heb van de nieuwe disks een RAID5 array aangemaakt, deze is ~5,5TB in totaal. Het gekke is, in ESXi (6.0 U2, build 3825889) zie ik geen disk erbij die ongeveer even groot is. Voor wat ik begrijp is dat ESXi sinds versie 5.5 met disks overweg kan tot een grootte van 60TB?
Zie ik iets over het hoofd?
Na wat zoeken, ben ik er ook achter gekomen dat de HP SmartArray P400 niet meer ondersteund is in ESXi 6.0, maar als de driver aanwezig is, hij de driver wel laadt, maar dat ik dus geen support hoef te verwachten.
Ik ben daarop gaan zoeken en heb een driver van HP zelf gevonden en deze (scsi-hpsa_6.0.0.116-1oem.600.0.0.2494585.vib/) geïnstalleerd. De controller wordt nog altijd herkend, dus ik ga ervan uit dat ik of een verkeerde driver heb geïnstalleerd (en dus niet eens geladen wordt) of dat het wel de juiste driver is en hij ook nog werkt met de P400. Dit heeft echter niet tot resultaat geleid dat ik die 6TB storage erbij heb.
Ik heb namelijk geen zin om ergens Windows 2003 op te moeten installeren om vervolgens meerdere locial volumes aan te moeten maken om die 6TB opslag te verdelen.
EDIT:
Ik had trouwens wel, als ik bij configuration keek en vervolgens op storage adapter klikte, dat hij wel 7 devices aangaf (de disks die al wat jaren dienst doen, heb ik opgesplitst naar meerdere logical volumes van 1TB en dan een kleinere, voor de rest. Met de nieuwe array erbij, had ik er ook eentje (vreemd genoeg?) er staan met een grootte van 512B...
Aangezien de nieuwe RAID5-array toch nog leeg was, heb ik die even verwijderd en die 7e device van 512B is nu dus ook pleitte. Wel een beetje vreemd, dat de RAID5 array van 6TB wordt weergegeven als 512B, terwijl volgens de documentatie t/m 60TB mogelijk moet zijn?
EDIT2:
Zou het te maken kunnen hebben met dit artikel, wat verteld dat de driver voor de controller tot volumes kan van 4TB? Zelf zit ik overigens op ESXi 6.0 U2, build 3825889. Als dit namelijk waar is, moet ik dus Windows baremetal installeren ergens op, om die HP tool te kunnen installeren en de RAID-controller in te stellen?
EDIT3:
Weer wat zoeken, deze pagina gevonden, waarin een aangepaste driver staat voor de P400 controller, nu wordt de array wel juist herkend!
Mijn HP P400 SmartArray ziet nu dus 8 disks en heb van de nieuwe disks een RAID5 array aangemaakt, deze is ~5,5TB in totaal. Het gekke is, in ESXi (6.0 U2, build 3825889) zie ik geen disk erbij die ongeveer even groot is. Voor wat ik begrijp is dat ESXi sinds versie 5.5 met disks overweg kan tot een grootte van 60TB?
Na wat zoeken, ben ik er ook achter gekomen dat de HP SmartArray P400 niet meer ondersteund is in ESXi 6.0, maar als de driver aanwezig is, hij de driver wel laadt, maar dat ik dus geen support hoef te verwachten.
Ik ben daarop gaan zoeken en heb een driver van HP zelf gevonden en deze (scsi-hpsa_6.0.0.116-1oem.600.0.0.2494585.vib/) geïnstalleerd. De controller wordt nog altijd herkend, dus ik ga ervan uit dat ik of een verkeerde driver heb geïnstalleerd (en dus niet eens geladen wordt) of dat het wel de juiste driver is en hij ook nog werkt met de P400. Dit heeft echter niet tot resultaat geleid dat ik die 6TB storage erbij heb.
Ik heb namelijk geen zin om ergens Windows 2003 op te moeten installeren om vervolgens meerdere locial volumes aan te moeten maken om die 6TB opslag te verdelen.
EDIT:
Ik had trouwens wel, als ik bij configuration keek en vervolgens op storage adapter klikte, dat hij wel 7 devices aangaf (de disks die al wat jaren dienst doen, heb ik opgesplitst naar meerdere logical volumes van 1TB en dan een kleinere, voor de rest. Met de nieuwe array erbij, had ik er ook eentje (vreemd genoeg?) er staan met een grootte van 512B...
Aangezien de nieuwe RAID5-array toch nog leeg was, heb ik die even verwijderd en die 7e device van 512B is nu dus ook pleitte. Wel een beetje vreemd, dat de RAID5 array van 6TB wordt weergegeven als 512B, terwijl volgens de documentatie t/m 60TB mogelijk moet zijn?
EDIT2:
Zou het te maken kunnen hebben met dit artikel, wat verteld dat de driver voor de controller tot volumes kan van 4TB? Zelf zit ik overigens op ESXi 6.0 U2, build 3825889. Als dit namelijk waar is, moet ik dus Windows baremetal installeren ergens op, om die HP tool te kunnen installeren en de RAID-controller in te stellen?
EDIT3:
Weer wat zoeken, deze pagina gevonden, waarin een aangepaste driver staat voor de P400 controller, nu wordt de array wel juist herkend!
[ Voor 62% gewijzigd door CH4OS op 06-07-2016 22:40 ]
Die IPMI IP Access Control is vrij absolute. De hele server wordt vrijwel onzichtbaar als je niet tot de whitelist hoort. Een arp-scan ziet hem nog wel, maar pingen, ssh, ipmitool werken allemaal niet meer. Volgens mij is dat wel beveiliging genoeg.
Sinds de 2 dagen regel reageer ik hier niet meer
Klinkt inderdaad wel prima. Pikt het ding dan DNS namen? Dan kan je een reverse dns IP pakken, mocht thuis je ip een keer veranderen, kan je erbij.
Even niets...
DNS heb ik nog niet geprobeerd.
Ander dingetje wat ik nog wil proberen is of ik via IPMI mijn LAN kan laten doorlussen. Dus LAN 1 op de router aangesloten, op LAN 2 de Raspberry Pi met OpenVPN gevoed door USB. Dan kijken of ik op een of andere manier vanaf LAN 2 via LAN 1 de RPi kan bereiken. Dan heb je de meest zuinige en flexibele oplossing voor veilig IPMI beheer.
Wat wel opvallend is. Voordat ik de IPMI firmware bijwerkte (wegens wat security issues) kon ik via shell sh een sh shell openen. Lekker rond bladeren in een vrij gestripte busybox omgeving. Toen kwam ik er achter dat je ook zelf ssh keys kon toevoegen aan dropbear. Dat is eigenlijk geen ondersteunde mogelijkheid van de supermicro IPMI (werkt alleen in sun servers), maar het kan dus op de achtergrond wel. Jammer genoeg is nu net die shell sh een van die dingen die er met de firmware update uitgesloopt is en downgraden mag niet
Ander dingetje wat ik nog wil proberen is of ik via IPMI mijn LAN kan laten doorlussen. Dus LAN 1 op de router aangesloten, op LAN 2 de Raspberry Pi met OpenVPN gevoed door USB. Dan kijken of ik op een of andere manier vanaf LAN 2 via LAN 1 de RPi kan bereiken. Dan heb je de meest zuinige en flexibele oplossing voor veilig IPMI beheer.
Wat wel opvallend is. Voordat ik de IPMI firmware bijwerkte (wegens wat security issues) kon ik via shell sh een sh shell openen. Lekker rond bladeren in een vrij gestripte busybox omgeving. Toen kwam ik er achter dat je ook zelf ssh keys kon toevoegen aan dropbear. Dat is eigenlijk geen ondersteunde mogelijkheid van de supermicro IPMI (werkt alleen in sun servers), maar het kan dus op de achtergrond wel. Jammer genoeg is nu net die shell sh een van die dingen die er met de firmware update uitgesloopt is en downgraden mag niet
[ Voor 22% gewijzigd door CurlyMo op 07-07-2016 09:03 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Hoe zit het eigenlijk met het installeren van ESXi op USB sticks en hoe verhoud zich dat tegenover het "dedicated controller" verhaal voor ESXi? Je kan ESXi installeren op een USB stick, maar waar zet je dan vervolgens je VM's op?FireDrunk schreef op maandag 20 juni 2016 @ 09:11:
Je kan ook een NVME SSD kopen waar je van kan booten en je core VM's op kan zetten. Dan kan je daarna de onboard HBA doorgeven aan een VM.
Dan heb je een mooie tradeoff tussen performance/verbruik/extra componenten/complexiteit.
(De goedkoopste NVME ssd is er al vanaf 90 euro ofzo, dus niet echt extreem duur.)
Sinds de 2 dagen regel reageer ik hier niet meer
Niet? USB kan je geen VM's op draaien, maar dat is nooit anders geweest?
Met NVME heb je een dedicated boot device waar je wel VM's op kan zetten (mits je via UEFI boot uiteraard).
Voordeel daarvan is weer dat je je onboard controller vrij houdt om via VT-d door te geven.
Met NVME heb je een dedicated boot device waar je wel VM's op kan zetten (mits je via UEFI boot uiteraard).
Voordeel daarvan is weer dat je je onboard controller vrij houdt om via VT-d door te geven.
Even niets...
Ben je niet in de war met het doorgeven van een controller naar een ZFS-VM?CurlyMo schreef op donderdag 21 juli 2016 @ 14:51:
Hoe zit het eigenlijk met het installeren van ESXi op USB sticks en hoe verhoud zich dat tegenover het "dedicated controller" verhaal voor ESXi?
Op een harddisk, SSD of NVME-SSD, je hebt nog nooit VM's op een USB-stick kunnen draaienJe kan ESXi installeren op een USB stick, maar waar zet je dan vervolgens je VM's op?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
De stappen zijn dus:
1. Installeren van ESXi op een USB stick.
2. Een controller aan ESXi geven waarop dan weer HDD's of SSD's op aangesloten zitten. Daarop staan je VM definities.
3. Overige controllers worden via VT-d doorgegeven aan de VM's waarop binnen de VM dan weer je OS kan worden geïnstalleerd.
1. Installeren van ESXi op een USB stick.
2. Een controller aan ESXi geven waarop dan weer HDD's of SSD's op aangesloten zitten. Daarop staan je VM definities.
3. Overige controllers worden via VT-d doorgegeven aan de VM's waarop binnen de VM dan weer je OS kan worden geïnstalleerd.
Sinds de 2 dagen regel reageer ik hier niet meer
Je kan usb drives wel gebruiken als datastore onder ESXi6.0 en in combinatie met USB3.0 valt de performance alles mee.
Onder aan de streep zou ik het niet aanraden, maar als je geen andere keus hebt, kan het een oplossing zijn.
http://www.virten.net/201...tore-in-vsphere-esxi-6-0/
Onder aan de streep zou ik het niet aanraden, maar als je geen andere keus hebt, kan het een oplossing zijn.
http://www.virten.net/201...tore-in-vsphere-esxi-6-0/
Nee, de stappen zijn:CurlyMo schreef op donderdag 21 juli 2016 @ 15:20:
De stappen zijn dus:
1. Installeren van ESXi op een USB stick.
2. Een controller aan ESXi geven waarop dan weer HDD's of SSD's op aangesloten zitten. Daarop staan je VM definities.
3. Overige controllers worden via VT-d doorgegeven aan de VM's waarop binnen de VM dan weer je OS kan worden geïnstalleerd.
1) Installeren ESXi op USB-stick of op harddisk / SSD
2) Aanmaken van datastore op harddisk of SSD (hiervoor kun je de resterende ruimte gebruiken als je bij stap 1 voor een HDD / SSD hebt gekozen)
3) Aanmaken VM's, deze krijgen virtuele schijven aangeboden via een virtuele controller. Deze virtuele schijven staan fysiek in een VMDK-bestand op de datastore(s) van stap 2
.
.
.
.
.
793) Voor hele specifieke VM's kun je er eventueel voor kiezen om een controller door te geven aan een VM zodat deze maar één virtuele schijf heeft (de bootdisk) en verder zonder tussenkomst van ESXi met de controller (en de schijven die aan die controller hangen) kan praten.
Dit laatste valt al onder "geavanceerd" gebruik, op het werk hebben we 700+ VM's en er is er niet één die op die manier een controller doorgegeven krijgt, ze gebruiken stuk voor stuk alleen maar VMDK's (ok, niet helemaal waar, er zijn een paar SAN LUN's die als RDM worden doorgegeven ivm Windows Failover cluster, maar daar willen we vanaf).
Waar je het doorgeven van een controller het meeste ziet is in de "hobby"-hoek, als mensen storage met behulp van ZFS, en virtualisatie m.b.v. ESXi samen op één fysieke machine willen realiseren. Als je geen FreeNAS, ZFSGuru, ZFS-on-Linux of iets anders met ZFS wil gaan virtualiseren is het 99.999% kans totaal overbodig om een controller door te geven aan een VM.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even een situatie schets. Ik draai hier nu ZFS FreeBSD met 2 SSD als boot and 4 HDD als RAIDZ2. Daarbinnen via bhyve virtuele machines.
Nu wat betreft stap 793. Waarom is er nog sprake van een virtuele boot disk? Als ik de hele controller doorgeef, dan kan ik toch gewoon booten van mijn 2 SSD's?
Nu wat betreft stap 793. Waarom is er nog sprake van een virtuele boot disk? Als ik de hele controller doorgeef, dan kan ik toch gewoon booten van mijn 2 SSD's?
Sinds de 2 dagen regel reageer ik hier niet meer
Nee, je kan niet booten van een via VT-d doorgegeven controller, omdat de virtuele BIOS van je VM dat device niet ziet als bootable. (Dat ligt aan de vBIOS van VMware, KVM kan dat wel)
[ Voor 16% gewijzigd door FireDrunk op 21-07-2016 15:50 ]
Even niets...
Dus ZFS on root draaien wordt dan een minder ideale implementatie, omdat dat dan via virtuele boot drives moet? Maar ik kan dan beter wel de 2 SSD's als ESXi datastore gebruiken?
Sinds de 2 dagen regel reageer ik hier niet meer
Hoeft niet, je kan op de virtuele disk alleen grub zetten, en je root partitie wel op de controller zetten.
Dat je er niet van kan booten wil niet zeggen dat je root partitie er niet op kan.
Twee verschillende dingen
Dat je er niet van kan booten wil niet zeggen dat je root partitie er niet op kan.
Twee verschillende dingen
Even niets...
Ik zit nu dit topic door te spitten wat betreft ASMedia kaartjes. Doorgeven via VT-d op bepaalde ASRock MB's is ruk, als losstaande controller doorgeven werkt weer wel, maar kan ik die ASMedia controllers gebruiken als datastore voor ESXi (met de juiste geïnjecteerde drivers)? Daar zie ik geen sluitend antwoord op. Zo ja, dan haal ik dit kaartje (ASMedia 1051?; Aangezien mijn MB alleen een makkelijk bereikbaar mini-pcie half size poort heeft):
http://eud.dx.com/product...ard-drive-green-844389395
Of deze (ASMedia 1061):
http://www.ebay.nl/itm/Mi...ad3980:g:AhgAAOSwuTxWBDKA
http://eud.dx.com/product...ard-drive-green-844389395
Of deze (ASMedia 1061):
http://www.ebay.nl/itm/Mi...ad3980:g:AhgAAOSwuTxWBDKA
[ Voor 15% gewijzigd door CurlyMo op 21-07-2016 16:42 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Er zijn cases bekend waar dit niet goed werkt omdat bij het doorgeven van de onboard controller, de asmedia mee gaat. Waarom, geen idee, CompizFox had er last van.
Even niets...
De vraag is dus of dit in geval van een aparte insteek kaart ook het geval gaat zijn, aangezien het in die cases om een aparte onboard controller ging?
Sinds de 2 dagen regel reageer ik hier niet meer
Nope, ook een losse controller dacht ik gelezen te hebben. Hoe het kan, geen idee...
Enige dat ik kan verzinnen is dat de kaarten op dezelfde PCIe Root Poort zitten.
Enige dat ik kan verzinnen is dat de kaarten op dezelfde PCIe Root Poort zitten.
[ Voor 4% gewijzigd door FireDrunk op 21-07-2016 18:25 ]
Even niets...
Is er iemand met een sil3132 die deze Chinese Japanse driver kan proberen of heeft geprobeerd onder ESXi 5.0?
http://shell.peach.ne.jp/aoyama/archives/2268
Ze zeggen hem nu ondersteund te hebben.
En in het algemeen. Is de sil3132 nu wel te gebruiken als ESXi datastore (desnoods in 4.1)?
http://shell.peach.ne.jp/aoyama/archives/2268
Ze zeggen hem nu ondersteund te hebben.
En in het algemeen. Is de sil3132 nu wel te gebruiken als ESXi datastore (desnoods in 4.1)?
[ Voor 22% gewijzigd door CurlyMo op 22-07-2016 09:58 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Japans... Just sayingCurlyMo schreef op donderdag 21 juli 2016 @ 21:56:
Is er iemand met een sil3132 die deze Chinese driver kan proberen of heeft geprobeerd onder ESXi 5.0?
http://shell.peach.ne.jp/aoyama/archives/2268
Ze zeggen hem nu ondersteund te hebben.
En in het algemeen. Is de sil3132 nu wel te gebruiken als ESXi datastore (desnoods in 4.1)?
Dè developers podcast in je moerstaal : CodeKlets Podcast
CurlyMo schreef op donderdag 21 juli 2016 @ 16:26:
Ik zit nu dit topic door te spitten wat betreft ASMedia kaartjes. Doorgeven via VT-d op bepaalde ASRock MB's is ruk, als losstaande controller doorgeven werkt weer wel, maar kan ik die ASMedia controllers gebruiken als datastore voor ESXi (met de juiste geïnjecteerde drivers)? Daar zie ik geen sluitend antwoord op. Zo ja, dan haal ik dit kaartje (ASMedia 1051?; Aangezien mijn MB alleen een makkelijk bereikbaar mini-pcie half size poort heeft):
http://eud.dx.com/product...ard-drive-green-844389395
Of deze (ASMedia 1061):
http://www.ebay.nl/itm/Mi...ad3980:g:AhgAAOSwuTxWBDKA
Ja het is al weer eventjes geleden dat door ondergetekende er mee geklooid isFireDrunk schreef op donderdag 21 juli 2016 @ 18:25:
Nope, ook een losse controller dacht ik gelezen te hebben. Hoe het kan, geen idee...
Enige dat ik kan verzinnen is dat de kaarten op dezelfde PCIe Root Poort zitten.
Hetzelfde was het geval voor een losse controller op basis van een Asm1061 chipset (2 poorts ding) op dit moederbord van Asrock (B75 Pro3-m). Als losse kaart door te geven aan een vm (net zoals de onboard Asm controller), als datastore te gebruiken onder ESXi (5.1 that is, why rock the boat if it's afloat).Pantagruel schreef op donderdag 14 februari 2013 @ 21:47:
[...]
Om een einde te maken aan of het nu wel of niet werkt ben ik aan t testen geslagen.
setup:
# Product Prijs Subtotaal 1 Intel Core i5 3470 Boxed € 165,40 € 165,40 1 ASRock B75 Pro3-M € 56,45 € 56,45 1 Corsair Vengeance CML32GX3M4A1600C10 € 164,90 € 164,90 Bekijk collectie
Importeer productenTotaal € 386,75
ESXI 5.0, herkend de Asmedia controller op de B75 Pro3-M niet, dus dat is geen optie,
ESXi 5.1 op een USB stick, 400 GB SATA disk aan de on-board Panther point SATA controller en een 320 GB SATA disk aan de Asm1061.
Dus Vt-d enabled CPU, kijken wat er gebeurd als ik SATA controllers door ga geven aan een VM.
Als ik:
- De on-board Panther point doorgeef (ESXi datastore disk hangt aan de Asm1061):
No joy, verlies ik meteen ook de ESXi datastore aanwezig op de disk die aan de Asmedia SATA controller hangt. Zoals al eerder vermeldt gaat de Asm1061 dus samen met de Panther point SATA controler mee (kewl, 8 port passthrough
).
-De Asmedia SATA controller doorgeef (ESXi datastore disk hangt aan de Panther Point):
Joy, de ESXI datastore die aan de Pantherpoint hangt herbergt nog steeds de VM en de ZFSguru install die herkend de disk die aan de doorgegeven Asmedia controller hangt. ESXi ziet de Asm als
'unknown:unknown', maar dat maakt ZFSGuru niets uit. De pech blijft wel dat je slechts 2 SATA poorten doorgeeft, niet echt spannend voor je ZFS-pool
Of t doorsteken van de Asm1061 op langere termijn toch voor problemen gaat zorgen kan ik niet uitsluiten.
Deze test is enkel 'proof of principle' en geen duurtest.
Inmiddels draait de eigenlijke ESXI setup al weer.(ssd als datastore, 3 disks via RDM door gegeven aan verschillende VM's)
Niet bruikbaar als datastore controller als ik de onboard Intel SATA controller door wilde geven, dan ging de Asm controller ook mee (de bekende 'no datastore found foutmelding als resultaat). Vermoedelijke oorzaak idd of een brakke bios/eufi implementatie of een shared PCIe root poort waardoor t hele zwikkie meegegeven wordt samen met de onboard Intel SATA controller.
Wat je soms dus in de staart bijt is dat 'huis-tuin-en-keuken' pc hardware 'nukkig' kan zijn onder ESXi, maar t prijs voordeel t.o.v server of ESXi compliant hardware is voor thuis gebruik niet te versmaden (IMHO).
Aangezien het bij jouw om andere hardware gaat kan je uitkomst anders uitpakken en zijn de enige opties:
-1 het internet zorgvuldig uitpluizen en hopen op bruikbare info uit vergelijkbare setups
-2 controller aanschaffen, uitproberen en de resultaten hier presenteren
[ Voor 43% gewijzigd door Pantagruel op 22-07-2016 09:23 . Reden: Schaamteloze 'Quote-to-self' ;) ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik kan er binnenkort ook wel even snel mee testen, heb nog een ASRock H77Pro4-M met ESXi er op draaien. En heb nog wel een PCIe x1 ASM1062 liggen.
Als hij werkt, kan je die overnemen CurlyMo
Als hij werkt, kan je die overnemen CurlyMo
Even niets...
Volgens mij hebben we die info in ons midden, want het lijkt bij @stuffer wel te werken met een pricewatch: Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s (ASM1061) i.c.m. het pricewatch: ASRock Z87E-ITX (Haswell) moederbord.Pantagruel schreef op vrijdag 22 juli 2016 @ 09:13:
Aangezien het bij jouw om andere hardware gaat kan je uitkomst anders uitpakken en zijn de enige opties:
-1 het internet zorgvuldig uitpluizen en hopen op bruikbare info uit vergelijkbare setups
-2 controller aanschaffen, uitproberen en de resultaten hier presenteren
[ Voor 6% gewijzigd door CurlyMo op 22-07-2016 10:02 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Mooi toch, het kan idd. best zijn dat de mini-PCIe op een andere PCIe root poort zit en geen hinder ondervindt.CurlyMo schreef op vrijdag 22 juli 2016 @ 10:01:
[...]
Volgens mij hebben we die info in ons midden, want het lijkt bij @stuffer wel te werken met een pricewatch: Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s (ASM1061) i.c.m. het pricewatch: ASRock Z87E-ITX (Haswell) moederbord.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb hem even gevraagd of het hier nog even bevestigd kan worden, want dan kan ook de TS aangepast worden. Zoals ik het hier lees is namelijk de consensus dat het nooit werkt (stand 2013).Pantagruel schreef op vrijdag 22 juli 2016 @ 10:20:
Mooi toch, het kan idd. best zijn dat de mini-PCIe op een andere PCIe root poort zit en geen hinder ondervindt.
Sinds de 2 dagen regel reageer ik hier niet meer
Top.CurlyMo schreef op vrijdag 22 juli 2016 @ 10:26:
[...]
Ik heb hem even gevraagd of het hier nog even bevestigd kan worden, want dan kan ook de TS aangepast worden. Zoals ik het hier lees is namelijk de consensus dat het nooit werkt (stand 2013).
De stand van zaken is bij mij inderdaad op 2013 blijven steken.
Qua virtualisatie hardware is er weinig niet meer veranderd, de genoemde setup op basis van de Asrock B75 Pro3-M is nog steeds in gebruik. Wel is het moederbord in de tussentijd vervangen door een zelfde exemplaar (de magische rook was 'verdwenen'
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb nu ook voor een tijdelijke oplossing, ik dacht dat mijn oude plank kapot wasPantagruel schreef op vrijdag 22 juli 2016 @ 11:15:
[...]
Top.
De stand van zaken is bij mij inderdaad op 2013 blijven steken.
Qua virtualisatie hardware is er weinig niet meer veranderd, de genoemde setup op basis van de Asrock B75 Pro3-M is nog steeds in gebruik. Wel is het moederbord in de tussentijd vervangen door een zelfde exemplaar (de magische rook was 'verdwenen'en er een SAS/SATA HBA (M1015) bij gekomen voor de storage vm. Tot dat de setup wederom het eeuwige voor het tijdelijk verkiest zal het dit ook blijven.
Nou ja ik had een i3 540 en de i5 2690 is wel een stuk sneller.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Bij deze bevestigd.CurlyMo schreef op vrijdag 22 juli 2016 @ 10:26:
[...]
Ik heb hem even gevraagd of het hier nog even bevestigd kan worden, want dan kan ook de TS aangepast worden. Zoals ik het hier lees is namelijk de consensus dat het nooit werkt (stand 2013).
Setup:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-4460 Boxed | € 177,49 | € 177,49 |
1 | ASRock Z87E-ITX | € 0,- | € 0,- |
4 | WD Red WD20EFRX, 2TB | € 89,06 | € 356,24 |
1 | Fractal Design Node 304 Zwart | € 79,90 | € 79,90 |
2 | WD My Passport My Passport 2TB Zwart | € 0,- | € 0,- |
1 | Noctua NF-F12 PWM, 120mm | € 17,95 | € 17,95 |
1 | Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU | € 65,95 | € 65,95 |
1 | Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s | € 19,51 | € 19,51 |
1 | Seasonic S12G 450W | € 0,- | € 0,- |
1 | Kingston SSDNow V300 120GB | € 44,- | € 44,- |
1 | Samsung 850 EVO 500GB | € 148,90 | € 148,90 |
1 | Aeon Labs Z-Stick USB Adapter op Batterijen | € 0,- | € 0,- |
1 | Rfxcom RFXtrx433E USB 433.92MHz Transceiver | € 109,75 | € 109,75 |
1 | FTDI Slimme meter kabel | € 25,- | € 25,- |
Bekijk collectie Importeer producten | Totaal | € 1.044,69 |
Ik heb het als volgt:
USB met esxi installatie
Delock MiniPCIe voor SSD's waar de Datastore zich op bevind
Onboard sata voor WD red's
Ubuntu 16.04 - Domoticz
Ubuntu 16.04 - Firefly-iii
Ubuntu 16.04 - LMS en NZBget
Ubuntu 16.04 - Testserver&Rammelbak
Debian - Openmediavault
Xpenology - XPenology
Win10 - Windows 10
In combinatie met onderstaande lijst en OpenThermGateway.
In deze setup kan ik de spinning disks doorgeven middels VT-d aan openmediavault.
De drivers zijn niet standaard ondersteund in esxi 6.0 maar met de volgende site:http://www.v-front.de/201...ported-sata-ahci.html?m=1 toe te voegen.

Verbruik is tussen de 30 en 35 met spindown van de disken.

-----------3eEDIT---------
Om de Intel Lynx controller in passtrough te krijgen pas het volgende aan in esxi:
For the novices:
Activate the ssh service in Vsphere Client using the instructions in this link: VMware KB: Using ESXi Shell in ESXi 5.x
Use Putty or any other terminal program to connect to you Esxi SSH server.
Use vi, for example: vi /etc/vmware/passthru.map
Add these 2 lines at the bottom of the file:
# INTEL Lynx Point AHCI
8086 8c02 d3d0 false
If you don't now how to use vi, than google for a manual.
Reboot the Esxi server.
Add the Lynx Pont AHCI to the passtrough devices and reboot the Esxi server again.
All done!
Bron: https://communities.vmwar.../458324?start=15&tstart=0
[ Voor 6% gewijzigd door stuffer op 27-07-2016 23:31 . Reden: extra plaatje van onboard sata controller ]
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Hij wordt dus herkend als een 1062 terwijl het een 1061 is
Sinds de 2 dagen regel reageer ik hier niet meer
Ow dikke lol, dat was me nog niet eens opgevallen maar daar heb je gelijk inCurlyMo schreef op vrijdag 22 juli 2016 @ 12:12:
[...]
Hij wordt dus herkend als een 1062 terwijl het een 1061 is

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Volgens mij zijn de 1061 en 1062 technisch ook hetzelfde, anders dan wat firmware verschillen dacht ik.
ESXi laad dus terecht dezelfde driver in.
ESXi laad dus terecht dezelfde driver in.
Even niets...
Gewoon de AHCI driver.FireDrunk schreef op vrijdag 22 juli 2016 @ 12:26:
Volgens mij zijn de 1061 en 1062 technisch ook hetzelfde, anders dan wat firmware verschillen dacht ik.
ESXi laad dus terecht dezelfde driver in.
Ik denk dat de rest uit lspci komt.
Te Koop:24 Core Intel Upgradeset
Voor diegenen die nog een kleine, zuinige ESXi server zoeken met het formaat van een flink pak vruchtensap: mijn laatste aanwinst.
Afgelopen jaren draaide ik een ESXi server op een u-ATX moederbord met een I7-3770 en 32GB geheugen. Na 5 jaar werd het tijd om te vernieuwen. De server staat in de studeerkamer en het is daar altijd behagelijk warm, je mag 1x raden waardoor. Tevens neemt het ding veel ruimte in, het is tenslotte een flinke kast. Daarnaast draai ik nogal wat Citrix labs en kwam ik met 4 cores (+HT) en 32GB niet meer uit.
De wensen voor een server voor de komende 5 jaar waren dus als volgt:
- volledige VMware ondersteuning (HCL of leverancier)
- energiezuining
- minstens 8 fysieke cores + HT
- 64GB geheugen of meer (liefst 128GB voor de toekomst)
- zo klein mogelijk, moet in de meterkast passen
Uiteindelijk ben ik uitgekomen op een server moederbord van Supermicro. Op dit mini-itx moederbord zit de nieuwe Intel Xeon D-1541 cpu, een processor met 8 cores en hyperthreading op 2.1-2.7Ghz. Deze processor is feitelijk de opvolger van de veelgebruikte Atom processor, die ook vaak in kleine en zuinige moederborden werd ingezet. De Atom had echter niet de nodig performance die ik zocht, dus ik was erg blij toen de D-1541 op het toneel verscheen. Het bord ondersteunt 128GB geheugen (4 bankjes van 32GB). Verder een 6-tal SATA poorten, een m.2 poort, dual NIC (Intel i350) en IPMI (erg handig!!). De CPU heeft een max TDP van 45W, dus bij idle gebruik zal deze zeer zuinig zijn. Aangezien dit een server moederbord is, is de prijs er ook wel naar. Dat is ook vanwege de cpu, deze kost los al rond de $500. Tel daarbij een server bord bij op en je zit al snel op zo'n 900 euro. Ik moet meteen bekennen dat IPMI (remote beheer) wel erg handig is. Vanaf de bios boot kan ik de machine geheel op afstand overnemen. Cool.
Het moederbord komt met een klein fannetje. Aangezien er in een meterkast natuurlijk weinig luchtstroom is, wil ik geen risico nemen en heb ik een Prolimatech Ultrasleek Vortex 140mm in de case geplaatst. De fan is slechts 15mm hoog en pas perfect aan de binnenkant van het gaas. Ik heb hem met 2 kleine zwarte tie-wraps vastgemaakt, die passen precies door de gaatjes in het gaas. De fan draait heel langzaam op 300 toeren en houdt alles lekker koel, dus ook het geheugen. In ESXi kan ik alle sensors uitlezen en daarbij zie ik dat de CPU zo rond de 40 graden schommelt, het geheugen rond de 36 graden en het moederbord rond de 37 graden.
Als kast heb ik een Antec ISK 110 VESA gekozen, dit is een mini-itx kast van amper 22x22cm met veel gaas, dus lekker luchtig. De 90W voeding is extern. Hier een mooie review van deze case.
Als storage gaat er een Samsung Evo 850 1TB in, die komt uit mijn oude ESXi server. Een kleine Samsung SM951 m.2 SSD (nvme) van 128GB wordt gebruikt om ESXi van te booten en als swap en cache.
Installatie van ESXi 6 U2 was een fluitje van een cent. Via de IPMI even de ISO koppelen, machine re-booten en de boel installeren. Aangezien het moederbord door de leverancier geschikt gemaakt is voor ESXi werkt alles in 1x. Zaken zoals vt-d, vt-x en IO-SRV werken out of the box, zoals ook de NICs.
Ik moest de volgende aanpassingen maken:
- geheugen is 2400Mhz, maar staat in de bios als 2133. Door het handmatig op 2400 te zetten draait het nu op 2400.
- De extra fan heeft een minimale snelheid van 300rpm. Hierdoor komt hij soms onder het minimum zoals ingesteld in IPMI (300) en gaan alle fans op volle toeren draaien. Via OS X en ipmiutil heb ik de minimum waarden op 100 gezet, zodat de fan gewoon op z'n langzaamst kan draaien.
Om ervoor te zorgen dat je CPU optimaal gebruikt wordt (qua energie en power), moeten in de BIOS nog een paar instellingen gewijzigd worden:
> Turbo mode: enable
> Enable HWPM : OOB mode (zorgt er voor dat de CPU zelf zijn powermanagement regelt. Is sneller dan via het OS)
> Enable autonomous cState: enable (zorgt er voor dat een HLT instructie omgezet wordt naar MWAIT, wat zuiniger is)
> CPU C3 report: enable (nu zie je C3 ook in ESX via esxtop)
> Energy performance tuning: enable (laat het OS de performance tuning aan of uit zetten. Ik had het ook getest met disable, maar dan is het systeem duidelijk langzamer).
Uiteindelijk heb ik meerdere tests gedaan met combinaties van deze instellingen, en deze combinatie bleek het snelste. Via het tooltje Speccy zag ik de CPU snelheid variëren van 800Mhz tot 2.7Ghz (turbo mode). Perfect dus.
Mocht je 8 cores te weinig vinden, van de Xeon D serie is ook nog een 12-core en 16-core cpu beschikbaar
De totale setup is:
Plaatjes:





Update 23/7:
Op verzoek wat waardes van het stroomverbruik:
- Systeem uit: 4.8W
- Tijdens boot: 32W
- In het BIOS scherm: 47W (geen powermanagement, dus cpu op vol vermogen)
- ESXi op high performance: 33W (leeg), 34W (met 2 VM's draaiend)
- ESXi op balanced performance : 26W (leeg), 27W (met 2 VM's draaiend), 31W met 12VM's
- ESXi op low power : 26W (leeg), 27W (met 2 VM's draaiend)
- Alle power management in de BIOS uitgeschakeld en ESXi op high performance: ongeveer 45-50W.
Ik heb de power instellingen altijd op balanced staan, dus het stroomverbruik zal straks rond de 30W schommelen
Per jaar dus ongeveer 263kWh, dus ongeveer 55 euro aan electra.
Update 30/7:
De originele Transcend SSD haalde de beloofde snelheid van 160MB/s schrijven niet, hij haalde slechts 100MB/sec. Ik heb hem vervangen door een Samsung SM951 nvme SSD van 128GB. Het verschil kom bijna niet groter zijn. Zowel in native Windows als binnen een VM in ESXi haal ik nu 2000MB/sec lees snelheid en 680MB/sec schrijfsnelheid. Windows 2012 start binnen 2-3 seconden op, niet normaal meer
Bijgaand een plaatje van de Atto disk bench, gedraaid in een Windows 10 VM op ESXi 6U2.

Update 31/7:
Als je zelf niet wilt/kunt assembleren, kan je binnenkort een kant en klare kast bij Supermicro kopen. Het gaat dan wel om de 6-core (12 thread) versie met additioneel 2 10Gbit nic's, maar verder identiek. Je krijgt dan een mooie mini-itx kast met moederbord er al in, gereed voor gebruik en geschikt voor VMware ESXi 6. Geheugen moet je er zelf in plaatsen. Zie https://www.supermicro.co.../Mini-ITX/SYS-E200-8D.cfm
Update 4/8/2016:
Mocht je via vt-d een pass-through willen doen van devices, dit zijn de devices die door ESXi 6.0 herkend worden voor pass-through:
Afgelopen jaren draaide ik een ESXi server op een u-ATX moederbord met een I7-3770 en 32GB geheugen. Na 5 jaar werd het tijd om te vernieuwen. De server staat in de studeerkamer en het is daar altijd behagelijk warm, je mag 1x raden waardoor. Tevens neemt het ding veel ruimte in, het is tenslotte een flinke kast. Daarnaast draai ik nogal wat Citrix labs en kwam ik met 4 cores (+HT) en 32GB niet meer uit.
De wensen voor een server voor de komende 5 jaar waren dus als volgt:
- volledige VMware ondersteuning (HCL of leverancier)
- energiezuining
- minstens 8 fysieke cores + HT
- 64GB geheugen of meer (liefst 128GB voor de toekomst)
- zo klein mogelijk, moet in de meterkast passen
Uiteindelijk ben ik uitgekomen op een server moederbord van Supermicro. Op dit mini-itx moederbord zit de nieuwe Intel Xeon D-1541 cpu, een processor met 8 cores en hyperthreading op 2.1-2.7Ghz. Deze processor is feitelijk de opvolger van de veelgebruikte Atom processor, die ook vaak in kleine en zuinige moederborden werd ingezet. De Atom had echter niet de nodig performance die ik zocht, dus ik was erg blij toen de D-1541 op het toneel verscheen. Het bord ondersteunt 128GB geheugen (4 bankjes van 32GB). Verder een 6-tal SATA poorten, een m.2 poort, dual NIC (Intel i350) en IPMI (erg handig!!). De CPU heeft een max TDP van 45W, dus bij idle gebruik zal deze zeer zuinig zijn. Aangezien dit een server moederbord is, is de prijs er ook wel naar. Dat is ook vanwege de cpu, deze kost los al rond de $500. Tel daarbij een server bord bij op en je zit al snel op zo'n 900 euro. Ik moet meteen bekennen dat IPMI (remote beheer) wel erg handig is. Vanaf de bios boot kan ik de machine geheel op afstand overnemen. Cool.
Het moederbord komt met een klein fannetje. Aangezien er in een meterkast natuurlijk weinig luchtstroom is, wil ik geen risico nemen en heb ik een Prolimatech Ultrasleek Vortex 140mm in de case geplaatst. De fan is slechts 15mm hoog en pas perfect aan de binnenkant van het gaas. Ik heb hem met 2 kleine zwarte tie-wraps vastgemaakt, die passen precies door de gaatjes in het gaas. De fan draait heel langzaam op 300 toeren en houdt alles lekker koel, dus ook het geheugen. In ESXi kan ik alle sensors uitlezen en daarbij zie ik dat de CPU zo rond de 40 graden schommelt, het geheugen rond de 36 graden en het moederbord rond de 37 graden.
Als kast heb ik een Antec ISK 110 VESA gekozen, dit is een mini-itx kast van amper 22x22cm met veel gaas, dus lekker luchtig. De 90W voeding is extern. Hier een mooie review van deze case.
Als storage gaat er een Samsung Evo 850 1TB in, die komt uit mijn oude ESXi server. Een kleine Samsung SM951 m.2 SSD (nvme) van 128GB wordt gebruikt om ESXi van te booten en als swap en cache.
Installatie van ESXi 6 U2 was een fluitje van een cent. Via de IPMI even de ISO koppelen, machine re-booten en de boel installeren. Aangezien het moederbord door de leverancier geschikt gemaakt is voor ESXi werkt alles in 1x. Zaken zoals vt-d, vt-x en IO-SRV werken out of the box, zoals ook de NICs.
Ik moest de volgende aanpassingen maken:
- geheugen is 2400Mhz, maar staat in de bios als 2133. Door het handmatig op 2400 te zetten draait het nu op 2400.
- De extra fan heeft een minimale snelheid van 300rpm. Hierdoor komt hij soms onder het minimum zoals ingesteld in IPMI (300) en gaan alle fans op volle toeren draaien. Via OS X en ipmiutil heb ik de minimum waarden op 100 gezet, zodat de fan gewoon op z'n langzaamst kan draaien.
Om ervoor te zorgen dat je CPU optimaal gebruikt wordt (qua energie en power), moeten in de BIOS nog een paar instellingen gewijzigd worden:
> Turbo mode: enable
> Enable HWPM : OOB mode (zorgt er voor dat de CPU zelf zijn powermanagement regelt. Is sneller dan via het OS)
> Enable autonomous cState: enable (zorgt er voor dat een HLT instructie omgezet wordt naar MWAIT, wat zuiniger is)
> CPU C3 report: enable (nu zie je C3 ook in ESX via esxtop)
> Energy performance tuning: enable (laat het OS de performance tuning aan of uit zetten. Ik had het ook getest met disable, maar dan is het systeem duidelijk langzamer).
Uiteindelijk heb ik meerdere tests gedaan met combinaties van deze instellingen, en deze combinatie bleek het snelste. Via het tooltje Speccy zag ik de CPU snelheid variëren van 800Mhz tot 2.7Ghz (turbo mode). Perfect dus.
Mocht je 8 cores te weinig vinden, van de Xeon D serie is ook nog een 12-core en 16-core cpu beschikbaar
De totale setup is:
# | Product | Prijs | Subtotaal |
1 | Supermicro X10SDV-F (Bulk pack) | € 923,81 | € 923,81 |
1 | Antec ISK 110 Vesa | € 81,- | € 81,- |
1 | Transcend MTS400 64GB | € 33,83 | € 33,83 |
2 | Samsung M393A4K40BB1-CRC | € 155,50 | € 311,- |
1 | Samsung 850 EVO 1TB | ||
1 | Promilatech Ultra Sleek Vortex 14 | -- | -- |
Bekijk collectie Importeer producten | Totaal | € 1.315,81 |
Plaatjes:





Update 23/7:
Op verzoek wat waardes van het stroomverbruik:
- Systeem uit: 4.8W
- Tijdens boot: 32W
- In het BIOS scherm: 47W (geen powermanagement, dus cpu op vol vermogen)
- ESXi op high performance: 33W (leeg), 34W (met 2 VM's draaiend)
- ESXi op balanced performance : 26W (leeg), 27W (met 2 VM's draaiend), 31W met 12VM's
- ESXi op low power : 26W (leeg), 27W (met 2 VM's draaiend)
- Alle power management in de BIOS uitgeschakeld en ESXi op high performance: ongeveer 45-50W.
Ik heb de power instellingen altijd op balanced staan, dus het stroomverbruik zal straks rond de 30W schommelen
Update 30/7:
De originele Transcend SSD haalde de beloofde snelheid van 160MB/s schrijven niet, hij haalde slechts 100MB/sec. Ik heb hem vervangen door een Samsung SM951 nvme SSD van 128GB. Het verschil kom bijna niet groter zijn. Zowel in native Windows als binnen een VM in ESXi haal ik nu 2000MB/sec lees snelheid en 680MB/sec schrijfsnelheid. Windows 2012 start binnen 2-3 seconden op, niet normaal meer

Update 31/7:
Als je zelf niet wilt/kunt assembleren, kan je binnenkort een kant en klare kast bij Supermicro kopen. Het gaat dan wel om de 6-core (12 thread) versie met additioneel 2 10Gbit nic's, maar verder identiek. Je krijgt dan een mooie mini-itx kast met moederbord er al in, gereed voor gebruik en geschikt voor VMware ESXi 6. Geheugen moet je er zelf in plaatsen. Zie https://www.supermicro.co.../Mini-ITX/SYS-E200-8D.cfm
Update 4/8/2016:
Mocht je via vt-d een pass-through willen doen van devices, dit zijn de devices die door ESXi 6.0 herkend worden voor pass-through:
- 8 Series/C220 Series Chipset Family USB EHCI #2
- 8 Series/C220 Series Chipset Family USB EHCI #1
- <class> Non-Volatile memory controller
- Xeon Processor D Family QuickData Technology Register DMA Channel 1
- Xeon Processor D Family QuickData Technology Register DMA Channel 2
- Xeon Processor D Family QuickData Technology Register DMA Channel 3
- I350 Gigabit Network Connection
- ASPEED Graphics Family
[ Voor 136% gewijzigd door Microkid op 04-08-2016 19:33 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Nice!!Microkid schreef op vrijdag 22 juli 2016 @ 19:25:
Voor diegenen die nog een kleine, zuinige ESXi server zoeken met het formaat van een flink pak vruchtensap: mijn laatste aanwinst.
Afgelopen jaren draaide ik een ESXi server op een u-ATX moederbord met een I7-3770 en 32GB geheugen. Na 5 jaar werd het tijd om te vernieuwen. De server staat in de studeerkamer en het is daar altijd behagelijk warm, je mag 1x raden waardoor. Tevens neemt het ding veel ruimte in, het is tenslotte een flinke kast. Daarnaast draai ik nogal wat Citrix labs en kwam ik met 4 cores (+HT) en 32GB niet meer uit.
De wensen voor een server voor de komende 5 jaar waren dus als volgt:
- volledige VMware ondersteuning (HCL of leverancier)
- energiezuining
- minstens 8 cores
- 64GB geheugen of meer
- zo klein mogelijk, moet in de meterkast passen
Uiteindelijk ben ik uitgekomen op een server moederbord van Supermicro. Op dit mini-itx moederbord zit de nieuwe Intel Xeon D-1541 cpu, een processor met 8 cores en hyperthreading op 2.1Ghz. Deze processor is feitelijk de opvolger van de veelgebruikte Atom processor, die ook vaak in kleine en zuinige moederborden werd ingezet. De Atom had echter niet de nodig performance die ik zocht, dus ik was erg blij toen de D-1541 op het toneel verscheen. Het bord ondersteund 128GB geheugen (4 bankjes van 32). Verder een aantal SATA poorten, dual NIC en IPMI (erg handig!!). De CPU heeft een max TDP van 45W, dus bij idle gebruik zal deze zeer zuinig zijn. Aangezien dit een server moederbord is, is de prijs er ook wel naar. Dat is ook vanwege de cpu, deze kost los al rond de $500. Tel daarbij een server bord bij op en je zit al snel op zo'n 900 euro. Ik moet meteen bekennen dat IPMI (remote beheer) wel erg handig is. Vanaf de bios boot kan ik de machine geheel op afstand overnemen. Cool.
Het moederbord komt met een klein fannetje. Aangezien er in een meterkast natuurlijk weinig luchtstroom is, wil ik geen risico nemen en heb ik een Prolimatech Ultrasleek Vortex 140mm in de case geplaatst. De fan is slechts 15mm hoog en pas perfect aan de binnenkant van het gaas. De fan draait heel langzaam op 300 toeren en houdt alles lekker koel, dus ook het geheugen.
Als kast heb ik een Antec ISK 110 VESA gekozen, dit is een mini-itx kast van amper 22x22cm met veel gaas, dus lekker luchtig. De 90W voeding is extern.
Als storage gaat er een Samsung Evo 850 1TB in, die komt uit mijn oude ESXi server. Een kleine Transcend m.2 SSD wordt gebruikt als swap en cache.
Installatie van ESXi 6 U2 was een fluitje van een cent. Via de IPMI even een ISO koppelen, machine reebouten en de boel installeren. Aangezien het moederbord door de leverancier geschikt gemaakt is voor ESXi werkt alles in 1x. Zaken zoals vt-d, vt-x en IO-SRV werken out of the box, zoals ook de NICs.
De totale setup is:
# Product Prijs Subtotaal 1 Supermicro X10SDV-F (Bulk pack) € 923,81 € 923,81 1 Antec ISK 110 Vesa € 81,- € 81,- 1 Transcend MTS400 64GB € 33,83 € 33,83 2 Samsung M393A4K40BB1-CRC € 155,50 € 311,- 1 Samsung 850 EVO 1TB 1 Promilatech Ultra Sleek Vortex 14 -- -- Bekijk collectie
Importeer productenTotaal € 1.315,81
Plaatjes:
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
En heb je al wat verbruiksgegevens in boot, idle of full load?
Ben benieuwd:-)
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Mooi systeem, het is alleen echt geen atom opvolger. Fijn dat je de 1541 hebt en niet de 1540.
Ik zit ook al tijden te twijfelen om er eentje met 128GB naast te zetten. M2 naar U2 erop en een Intel 750 er aan.
Je noemt osx, heb je de esxi patch gebruikt of osx86?
Ik zit ook al tijden te twijfelen om er eentje met 128GB naast te zetten. M2 naar U2 erop en een Intel 750 er aan.
Je noemt osx, heb je de esxi patch gebruikt of osx86?
[ Voor 78% gewijzigd door |sWORDs| op 23-07-2016 09:52 ]
Te Koop:24 Core Intel Upgradeset
Geen van beide. OS X heeft al ipmitool ingebouwd. Het commando dat ik heb gebruikt was:|sWORDs| schreef op zaterdag 23 juli 2016 @ 09:41:
Je noemt osx, heb je de esxi patch gebruikt of osx86?
code:
1
| ipmitool -H 192.168.1.12 -U ADMIN sensor thresh FAN1 lower 100 100 100 |
Hiermee zet ik de laagste threshold van FAN1 (waar mijn casefan aan hangt) op 100rpm. Pas daaronder zal het systeem een fout geven.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Aaah, vanaf je mac. Ik dacht virtuele osx op esxi.
Te Koop:24 Core Intel Upgradeset
Zie update in mijn bericht.stuffer schreef op vrijdag 22 juli 2016 @ 21:31:
[...]
En heb je al wat verbruiksgegevens in boot, idle of full load?
Ben benieuwd:-)
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Mooi moederbord die supermicro met Xeon 1541 erop. Ik kijk zelf naar de versie met Xeon 1520D erop omdati die fanloos is en vanwegen de 10Gbe poorten.
Vraagje : Je zegt externe voeding (ik neem aan een laptop powerblok en dus met DC output naar de Supermicro. Op het Supermicro bord is er een vierkante 4 polige connector voor de DC input (naast de ATX connector). Krijg je die verloop kabel bij het moederbord er bij om van de 12V DC plug naar de Supermicro 4 polige plug te gaan? Of hoe heb je dit aangesloten?
Vraagje : Je zegt externe voeding (ik neem aan een laptop powerblok en dus met DC output naar de Supermicro. Op het Supermicro bord is er een vierkante 4 polige connector voor de DC input (naast de ATX connector). Krijg je die verloop kabel bij het moederbord er bij om van de 12V DC plug naar de Supermicro 4 polige plug te gaan? Of hoe heb je dit aangesloten?
Ik moet je helaas teleurstellen: de D-1520 heeft ook een TDP van 45W en kan niet fanless gebruikt worden, tenzij hij gemonteerd wordt in een case met voldoende luchtstroom. Deze bordjes zijn o.a. bedoeld om in 1U rack servers (o.a. van Supermicro zelf) ingebouwd te worden. Als je hem in een eigen case monteert zonder fan, schakelt hij binnen een paar minuten uit vanwege oververhitting. Je kan dus beter de versie met fan nemen.riwi schreef op zondag 24 juli 2016 @ 17:31:
Mooi moederbord die supermicro met Xeon 1541 erop. Ik kijk zelf naar de versie met Xeon 1520D erop omdati die fanloos is en vanwegen de 10Gbe poorten.
Ja, het is inderdaad een laptop powerbook. De 4-polige 12V DC connector zit niet bij het mobo, noch bij de case. Als je dus die 12V wilt gebruiken, zal je een case moeten zoeken waar deze connector wel in zit. Ik moet zeggen dat de 24-pin connector met wat passen en meten ook wel goed past hoor.Vraagje : Je zegt externe voeding (ik neem aan een laptop powerblok en dus met DC output naar de Supermicro. Op het Supermicro bord is er een vierkante 4 polige connector voor de DC input (naast de ATX connector). Krijg je die verloop kabel bij het moederbord er bij om van de 12V DC plug naar de Supermicro 4 polige plug te gaan? Of hoe heb je dit aangesloten?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Dat is inderdaad jammer als het niet fanloos werkt. Ik had gelezen dat idle 25Watt mogelijk was met de D-1520 vandaar dat ik dacht dat het wel zou kunnen met een wat open kast.Microkid schreef op zondag 24 juli 2016 @ 17:39:
[...]
Ik moet je helaas teleurstellen: de D-1520 heeft ook een TDP van 45W en kan niet fanless gebruikt worden, tenzij hij gemonteerd wordt in een case met voldoende luchtstroom. Deze bordjes zijn o.a. bedoeld om in 1U rack servers (o.a. van Supermicro zelf) ingebouwd te worden. Als je hem in een eigen case monteert zonder fan, schakelt hij binnen een paar minuten uit vanwege oververhitting. Je kan dus beter de versie met fan nemen.
[...]
Ja, het is inderdaad een laptop powerbook. De 4-polige 12V DC connector zit niet bij het mobo, noch bij de case. Als je dus die 12V wilt gebruiken, zal je een case moeten zoeken waar deze connector wel in zit. Ik moet zeggen dat de 24-pin connector met wat passen en meten ook wel goed past hoor.
Hoe ga je van de laptop voeding met ronde 12V steker naar de 24 polige ATX? Heb je er nog een pico PSU tussen zitten?
Edit :
Ah ik denk dat ik het zie. Die Antec kast heeft een DC naar ATX connector verloop ingebouwd. Dat is eigenlijk ook een soort pico PSU ingebouwd in die kast. Klopt dat?
[ Voor 6% gewijzigd door riwi op 24-07-2016 18:08 ]
Correctriwi schreef op zondag 24 juli 2016 @ 17:46:
Hoe ga je van de laptop voeding met ronde 12V steker naar de 24 polige ATX? Heb je er nog een pico PSU tussen zitten?
Edit :
Ah ik denk dat ik het zie. Die Antec kast heeft een DC naar ATX connector verloop ingebouwd. Dat is eigenlijk ook een soort pico PSU ingebouwd in die kast. Klopt dat?
[ Voor 14% gewijzigd door Microkid op 24-07-2016 18:37 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Zijn er hier mensen die al eens ESXi op een Celeron j1900 hebben gedraaid, en die iets kunnen zeggen over de performance daar van? Ik kan niet zo goed inschatten wat de Celeron kan hebben.
Idee is om virtueel pfSense te draaien. Maar ik heb 200Mbit internet, en ik heb geen idee of de j1900 200Mbit aan vSwitch traffic makkelijk kan handelen.
Idee is om virtueel pfSense te draaien. Maar ik heb 200Mbit internet, en ik heb geen idee of de j1900 200Mbit aan vSwitch traffic makkelijk kan handelen.
Even niets...
pfSense gebruikt hier met een i5 2400 zo'n 2300MHz op de host met 500Mbit op volle snelheid met twee vCPU gebruik makend van een vSwitch. Maar ik heb dan wel pfBlocker draaien.
Als je die twee vergelijkt https://www.cpubenchmark....Celeron+J1900+%40+1.99GHz
http://www.cpubenchmark.n...+Core+i5-2400+%40+3.10GHz zie je dat een i5 2400 op volle snelheid bijna drie keer zo snel is. Misschien heb je hier wat aan, denk zelf dat het wel kan draaien, maar heel makkelijk niet als je ook andere VM's hebt. Maar wanneer gebruik je nou die 200Mbit continu?
Als je die twee vergelijkt https://www.cpubenchmark....Celeron+J1900+%40+1.99GHz
http://www.cpubenchmark.n...+Core+i5-2400+%40+3.10GHz zie je dat een i5 2400 op volle snelheid bijna drie keer zo snel is. Misschien heb je hier wat aan, denk zelf dat het wel kan draaien, maar heel makkelijk niet als je ook andere VM's hebt. Maar wanneer gebruik je nou die 200Mbit continu?
[ Voor 67% gewijzigd door Zenix op 25-07-2016 11:29 ]
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.