Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

Het grote ESXi/vSphere Topic

Pagina: 1
Acties:

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mede-auteurs:
  • Microkid
  • Registratie: augustus 2000
  • Laatst online: 06:53

Microkid

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53

FireDrunk

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26

HyperBart

Het grote VMware ESXi/vSphere Topic



VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.



Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).



Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
  • [list]
  • 1000M, 3000M, 5000
  • K2000/K4000/K5000/K6000
  • K3100M
  • K2200/K4200/K5200
  • [/list]
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.



vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).



MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:



Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.



ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.



De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.



Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch


Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch


Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.



Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:


In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).



RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.



Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.



Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.



ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO

[Voor 255% gewijzigd door |sWORDs| op 12-02-2017 18:29]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!
  • Pinned

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Huishoudelijke mededelingen:

Na overleg met de oorspronkelijk topicstarters en onze *O* allerliefste adjes *O*, gaan we proberen het met één topic voor VMware ESXi/vSphere te doen. De focus ligt op het configureren van en werken met. Dit betekend niet dat we het geheel niet over standaard hardware hebben, maar laten we het tot een minimum beperken:
  • Er staat zo veel mogelijk over standaard hardware in de startpost, lees deze dus eerst volledig voor je iets over hardware vraagt.
  • Beperk hardware vragen tot een enkele post, mocht je er na antwoord op door willen gaan, doe dat dan even met degene die reageert via PM, mocht er wat interessants uitkomen dan is een samenvatting natuurlijk wel gewenst.
  • Wij proberen steeds terugkomende hardware vragen toe te voegen aan de startpost.
  • Voor alle bijzondere hardware is het natuurlijk een ander verhaal.

Sample Builds

Mini:
Dual Core (met HT) 2.3GHz Skylake NUC, 16GB geheugen en 256GB NVMe drive:

#ProductPrijsSubtotaal
1Intel NUC NUC6i3SYK€ 275,95€ 275,95
1Crucial CT2K8G4SFD8213€ 73,20€ 73,20
1Samsung 950 Pro 256GB€ 188,79€ 188,79
Bekijk collectie
Importeer producten
Totaal€ 537,94
Small:
3.3 GHz Dual Core Skylake met 32GB geheugen en 960GB SATA SSD:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K8G4DFD8213€ 71,95€ 143,90
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Sandisk Ultra II SSD 960GB€ 231,67€ 231,67
Bekijk collectie
Importeer producten
Totaal€ 636,80
Medium:
Quad Core 2.7GHz Skylake i5, 64GB geheugen en 512GB NVMe:

#ProductPrijsSubtotaal
1Intel Core i5-6400 Boxed€ 178,90€ 178,90
1Asus Q170M2€ 143,81€ 143,81
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K16G4DFD824A€ 135,10€ 270,20
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 950 Pro 512GB€ 330,45€ 330,45
Bekijk collectie
Importeer producten
Totaal€ 1.047,69
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 292,10€ 292,10
1Supermicro X11SSL-F€ 204,75€ 204,75
1Supermicro 731I-300€ 100,84€ 100,84
4Kingston KTH-PL424S/16G€ 108,92€ 435,68
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 311,62€ 311,62
Bekijk collectie
Importeer producten
Totaal€ 1.344,99
Large:
Dual 10 Core (met HT) 2.2GHz Xeon E5, 128GB geheugen en 1.2TB NVMe:

(Afbeelding met andere koelers, K2 en Asus bord)
#ProductPrijsSubtotaal
2Intel Xeon E5-2630 v4 Boxed€ 699,-€ 1.398,-
1Supermicro X10DRL-i€ 353,78€ 353,78
1Phanteks Enthoo Pro Window Zwart€ 98,-€ 98,-
2Noctua NH-U9DXi4€ 54,-€ 108,-
8Samsung M393A2G40DB0-CPB€ 78,-€ 624,-
1Seasonic M12II Evo 620W€ 75,95€ 75,95
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 771,76€ 771,76
Bekijk collectie
Importeer producten
Totaal€ 3.429,49
Extra Large:
Vier node elk 2.1 GHz 8 core (met HT) Xeon-D VSAN Cluster, 64GB geheugen en 1TB datatier:

#ProductPrijsSubtotaal
4Patriot Memory Tab 8GB€ 6,79€ 27,16
1D-Link DXS-1210-10TS€ 795,71€ 795,71
4Supermicro SYS-5028D-TN4T€ 1.376,15€ 5.504,60
8Samsung M393A4K40BB1-CRC€ 150,-€ 1.200,-
4Addonics ADM2PX4 M2 PCIe SSD adapter€ 23,05€ 92,20
4Samsung 960 EVO 1TB€ 444,-€ 1.776,-
4Samsung SM961 128GB€ 97,50€ 390,-
Bekijk collectie
Importeer producten
Totaal€ 9.785,67

Let op dat de BIOS naar 1.1c geflashed dient te worden voor er VM's aangemaakt worden en de switch (58dB) niet geschikt is voor een kantoor of dichtbij een woon/slaapkamer. (Fans zijn niet te vervangen, waarschijnlijk checked de switch de fan RPM speed bij opstarten.)

[Voor 255% gewijzigd door |sWORDs| op 12-11-2016 12:11]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0Henk 'm!
  • Pinned

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
HyperBart schreef op zondag 9 december 2018 @ 20:31:
@|sWORDs| in augustus had je een Epyc machine draaiende, wat is de state of the union mbt SMT en vooral passthrough?

Ik zit namelijk met een specifieke use case waarbij meer dan gemiddeld PCIe lanes en sloten nodig zijn (48 lanes netto). Naar dual-CPU gaan is omwille van stroomverbruik en kost de last resort...
Stabiliteitsproblemen met U1 zijn weg na een herinstallatie.

Resterende punten:
  • PCIe Bifurcation werkt niet (staat ook nergens dat mijn bord het support, maar nu heeft elke NVMe drive dus een slot nodig).
  • Onboard SATA passthrough werkt niet (waarschijnlijk opgelost in de volgende AGESA, losse LSI controller doorgeven werkt wel).
  • Fan thresholds zijn niet aan te passen (Gigabyte heeft dit in de laatste BMC firmwares verwijderd, alle fans die 1200RPM of minder draaien heb ik maar aan een fan controller gehangen).
Al met al werkt alles nu prima, echter met de combinatie van bovenstaande en de werkelijk bedroevende support zou ik niemand een B2B bord/server van Gigabyte aanbevelen.

Te Koop:24 Core Intel Upgradeset

Pagina: 1


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True