Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

Het grote ESXi/vSphere Topic

Pagina: 1 2 3 ... 9
Acties:

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mede-auteurs:
  • Microkid
  • Registratie: augustus 2000
  • Nu online

Microkid

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53

FireDrunk

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26

HyperBart

Het grote VMware ESXi/vSphere Topic



VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.



Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).



Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
  • [list]
  • 1000M, 3000M, 5000
  • K2000/K4000/K5000/K6000
  • K3100M
  • K2200/K4200/K5200
  • [/list]
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.



vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).



MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:



Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.



ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.



De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.



Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch


Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch


Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.



Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:


In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).



RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.



Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.



Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.



ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO

[Voor 255% gewijzigd door |sWORDs| op 12-02-2017 18:29]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!
  • Pinned

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Huishoudelijke mededelingen:

Na overleg met de oorspronkelijk topicstarters en onze *O* allerliefste adjes *O*, gaan we proberen het met één topic voor VMware ESXi/vSphere te doen. De focus ligt op het configureren van en werken met. Dit betekend niet dat we het geheel niet over standaard hardware hebben, maar laten we het tot een minimum beperken:
  • Er staat zo veel mogelijk over standaard hardware in de startpost, lees deze dus eerst volledig voor je iets over hardware vraagt.
  • Beperk hardware vragen tot een enkele post, mocht je er na antwoord op door willen gaan, doe dat dan even met degene die reageert via PM, mocht er wat interessants uitkomen dan is een samenvatting natuurlijk wel gewenst.
  • Wij proberen steeds terugkomende hardware vragen toe te voegen aan de startpost.
  • Voor alle bijzondere hardware is het natuurlijk een ander verhaal.

Sample Builds

Mini:
Dual Core (met HT) 2.3GHz Skylake NUC, 16GB geheugen en 256GB NVMe drive:

#ProductPrijsSubtotaal
1Intel NUC NUC6i3SYK€ 275,95€ 275,95
1Crucial CT2K8G4SFD8213€ 73,20€ 73,20
1Samsung 950 Pro 256GB€ 188,79€ 188,79
Bekijk collectie
Importeer producten
Totaal€ 537,94
Small:
3.3 GHz Dual Core Skylake met 32GB geheugen en 960GB SATA SSD:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K8G4DFD8213€ 71,95€ 143,90
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Sandisk Ultra II SSD 960GB€ 231,67€ 231,67
Bekijk collectie
Importeer producten
Totaal€ 636,80
Medium:
Quad Core 2.7GHz Skylake i5, 64GB geheugen en 512GB NVMe:

#ProductPrijsSubtotaal
1Intel Core i5-6400 Boxed€ 178,90€ 178,90
1Asus Q170M2€ 143,81€ 143,81
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K16G4DFD824A€ 135,10€ 270,20
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 950 Pro 512GB€ 330,45€ 330,45
Bekijk collectie
Importeer producten
Totaal€ 1.047,69
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 292,10€ 292,10
1Supermicro X11SSL-F€ 204,75€ 204,75
1Supermicro 731I-300€ 100,84€ 100,84
4Kingston KTH-PL424S/16G€ 108,92€ 435,68
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 311,62€ 311,62
Bekijk collectie
Importeer producten
Totaal€ 1.344,99
Large:
Dual 10 Core (met HT) 2.2GHz Xeon E5, 128GB geheugen en 1.2TB NVMe:

(Afbeelding met andere koelers, K2 en Asus bord)
#ProductPrijsSubtotaal
2Intel Xeon E5-2630 v4 Boxed€ 699,-€ 1.398,-
1Supermicro X10DRL-i€ 353,78€ 353,78
1Phanteks Enthoo Pro Window Zwart€ 98,-€ 98,-
2Noctua NH-U9DXi4€ 54,-€ 108,-
8Samsung M393A2G40DB0-CPB€ 78,-€ 624,-
1Seasonic M12II Evo 620W€ 75,95€ 75,95
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 771,76€ 771,76
Bekijk collectie
Importeer producten
Totaal€ 3.429,49
Extra Large:
Vier node elk 2.1 GHz 8 core (met HT) Xeon-D VSAN Cluster, 64GB geheugen en 1TB datatier:

#ProductPrijsSubtotaal
4Patriot Memory Tab 8GB€ 6,79€ 27,16
1D-Link DXS-1210-10TS€ 795,71€ 795,71
4Supermicro SYS-5028D-TN4T€ 1.376,15€ 5.504,60
8Samsung M393A4K40BB1-CRC€ 150,-€ 1.200,-
4Addonics ADM2PX4 M2 PCIe SSD adapter€ 23,05€ 92,20
4Samsung 960 EVO 1TB€ 444,-€ 1.776,-
4Samsung SM961 128GB€ 97,50€ 390,-
Bekijk collectie
Importeer producten
Totaal€ 9.785,67

Let op dat de BIOS naar 1.1c geflashed dient te worden voor er VM's aangemaakt worden en de switch (58dB) niet geschikt is voor een kantoor of dichtbij een woon/slaapkamer. (Fans zijn niet te vervangen, waarschijnlijk checked de switch de fan RPM speed bij opstarten.)

[Voor 255% gewijzigd door |sWORDs| op 12-11-2016 12:11]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Guides

Passthrough van Intel AHCI Controller:
  1. Login op de ssh console:

    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    esxcli storage core adapter list
    HBA Name  Driver      Link State  UID           Capabilities  Description                                                                     
    --------  ----------  ----------  ------------  ------------  --------------------------------------------------------------------------------
    vmhba0    ahci        link-n/a    sata.vmhba0                 (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba2    nvme        link-n/a    pscsi.vmhba2                (0000:02:00.0) Samsung Electronics Co Ltd <class> Non-Volatile memory controller
    vmhba3    intel-nvme  link-n/a    pscsi.vmhba3                (0000:82:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba4    intel-nvme  link-n/a    pscsi.vmhba4                (0000:81:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba32   ahci        link-n/a    sata.vmhba32                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba33   ahci        link-n/a    sata.vmhba33                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba34   ahci        link-n/a    sata.vmhba34                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller

    Hier zie je de poorten van de Intel en de PCI ID (0000:00:11.4), dit zijn er normaal twee (bij X?9/C6??, andere chipsets één), maar ik heb de 6 poorts al doorgegeven.
  2. code:
    1
    2
    
    lspci -n |grep 0000:00:11.4
    0000:00:11.4 Class 0106: 8086:8d62 [vmhba0]

    Hier zie je jouw PID (8d62)
  3. Dan zet je die onderin /etc/vmware/passthru.map.
    code:
    1
    
     8086  [PID]  d3d0     false


    Hele file bij mij:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    
    # passthrough attributes for devices                                                                                                                                                                         
    # file format: vendor-id device-id resetMethod fptShareable                                                                                                                                                  
    # vendor/device id: xxxx (in hex) (ffff can be used for wildchar match)                                                                                                                                      
    # reset methods: flr, d3d0, link, bridge, default                                                                                                                                                            
    # fptShareable: true/default, false                                                                                                                                                                          
                                                                                                                                                                                                                 
    # Intel 82598 10Gig cards can be reset with d3d0                                                                                                                                                             
    8086  10b6  d3d0     default                                                                                                                                                                                 
    8086  10c6  d3d0     default                                                                                                                                                                                 
    8086  10c7  d3d0     default                                                                                                                                                                                 
    8086  10c8  d3d0     default                                                                                                                                                                                 
    8086  10dd  d3d0     default                                                                                                                                                                                 
    # Broadcom 57710/57711/57712 10Gig cards are not shareable                                                                                                                                                   
    14e4  164e  default  false                                                                                                                                                                                   
    14e4  164f  default  false                                                                                                                                                                                   
    14e4  1650  default  false                                                                                                                                                                                   
    14e4  1662  link     false                                                                                                                                                                                   
    # Qlogic 8Gb FC card can not be shared                                                                                                                                                                       
    1077  2532  default  false                                                                                                                                                                                   
    # LSILogic 1068 based SAS controllers                                                                                                                                                                        
    1000  0056  d3d0     default                                                                                                                                                                                 
    1000  0058  d3d0     default                                                                                                                                                                                 
    # NVIDIA                                                                                                                                                                                                     
    10de  ffff  bridge   false                                                                                                                                                                                   
    # Intel Wellsburg AHCI                                                                                                                                                                                       
    8086  8d62  d3d0     false                                                                                                                                                                                   
    8086  8d02  d3d0     false
  4. En reboot, daarna kun je hem gewoon in passthrough zetten (indien er geen datastore op in gebruik is/het jouw bootdevice bevat):
    https://tweakers.net/ext/f/sUogKr8PH1zpEnKd90CfimAt/full.png
  5. Nog een reboot en je kunt m doorgeven aan een VM en niet vergeten om op die VM reserve all memory te doen:

    https://tweakers.net/ext/f/FEmlT03ziteQuNPBx632KGHG/full.png



    https://tweakers.net/ext/f/sxqyDXwfjaAFm4uyqF9sakQx/full.png
XPenology (Synology DSM) op ESXi:
1) Installeer OSFMount en open xpenology.img FAT partitie zonder readonly:





2) Bewerk syslinux.cfg zodat op elke append regel er
code:
1
 sn=[SN} mac1=[MAC_ZONDER_DUBBELE_PUNT] rmmod=ata_piix

bij komt te staan met een SN en MAC uit deze excel file en save de file en unmount en sluit OSFMount:


3) Installeer StarWind Converter en converteer de IMG naar VMDK en plaats deze op een datastore.



4) Maak nu een nieuwe VM met een VMXNET3 NIC die je dezelfde MAC geeft, een existing harddisk op een IDE controller, die je wijst naar de VMDK op de datastore.

https://tweakers.net/ext/f/elYinEeHDT8S6COR1LM7yjBf/full.png

5) Nu kun je of een PVSCSI virtuele data disk maken of een controller in passthrough (zie hier voor Intel) toevoegen. Hierna schakel je de VM in.


6) Gebruik http://find.synology.com of Synology Assistent om de PAT file te installeren.


7) Installeer open-vm-tools via Package Center en stel je updates zo in dat alleen DSM5 patches binnen komen en hij vraagt voor updates.

Custom ESXi ISO:
  1. Neem een Windows machine en installeer PowerCLI 6.5.
  2. Maak een folder C:\VIB en plaats alle VIB files die je toe wil voegen.
  3. Voorbeeld C:\VIB: [list]
  4. intel-nvme-1.0e.2.0-1OEM.550.0.0.1391871.x86_64.vib (Intel P3xx0/750 drivers)
  5. intel-passthrough-1.0.0-01.x86_64.vib (Mijn VIB om passthrough van Intel mogelijk te maken)
  6. intel_ssd_data_center_tool-3.0.2-400.vib (Beheertool voor Intel P3xx0/750)
  7. net-ixgbe_4.4.1-1OEM.600.0.0.2159203.vib (Nieuwe Intel 10Gbit driver versie voor o.a. X552)
  8. vmware-esx-storcli-1.20.15.vib (Beheertool voor LSI)
  9. [/list]
  10. Start PowerCLI en sleep ESXi-Customizer-PS-v2.5.ps1 in het venster.
  11. Voeg nu de parameters toe, voorbeeld voor alle drivers compatible met 6.5:
  12. code:
    1
    
    C:\Users\Administrator\Downloads\ESXi-Customizer-PS-v2.5.ps1 -vft -load sata-xahci,net55-r8168,net51-r8169,net-forcedeth-1,net51-sky2 -pkgDir C:\VIB -nsc -force
  13. Naast de ps1 file staat nu een ISO met alles er in

[Voor 255% gewijzigd door |sWORDs| op 07-05-2017 10:40]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
*O* *O* *O* *O* Feest! Een nieuw topic! *O* *O* *O* *O*

[Voor 21% gewijzigd door FireDrunk op 13-10-2016 08:39]

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Hero of Time schreef op donderdag 13 oktober 2016 @ 09:05:
Prachtig topic. Jammer alleen dat het in het verkeerde forum is gezet. ESXi is en blijft Serversoftware. Dus, NOS -> SWS.
Er waren drie mogelijk plekken afhankelijk van hoe je het bekijkt, eentje valt er nu dus af, bedankt voor de move!

Te Koop:24 Core Intel Upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
Deze stond opeens tussen mijn lijst van topics waar ik al in gepost had. Leuk initiatief swords!

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
HyperBart schreef op donderdag 13 oktober 2016 @ 12:13:
Deze stond opeens tussen mijn lijst van topics waar ik al in gepost had. Leuk initiatief swords!
Sorry, ik zie nu pas dat jij nog helemaal niet in het lieve adjes topic had gereageerd!
Lijkt me wel handiger, maar als daar hele goede tussen zitten kan ik ze natuurlijk bij de guides linken.

[Voor 34% gewijzigd door |sWORDs| op 13-10-2016 12:21]

Te Koop:24 Core Intel Upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
Geen probleem, TS is al heel compleet, top!

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mochten er nog mensen naar VMworld Barcelona gaan en het leuk vinden even bij te kletsen, kom even langs aan het einde van mijn sessies in Hall 8.0, Room Number 44 op dinsdag om 12:00 of donderdag 13:00.
Of stuur een PM voor een andere tijd dan spreken we ergens af, ik ben een stuk minder druk dan op VMworld Las Vegas. Mocht je de sessies interessant vinden kom dan een uurtje eerder, respectievelijk:
Horizon for Linux Technical Deep Dive [EUC7453]
Everything You Need to Know About Horizon Remote Desktop Services Hosted Applications (But Probably Do Not) [EUC8725]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
webgangster schreef op zaterdag 15 oktober 2016 @ 12:28:
Is die VMware OS Optimization Tool echt aan te raden?
Heeft dit veel invloed op grote clusters? En waar die je rekening mee te houden?
Ja, eigenlijk zitten er alle optimalisaties uit de guides in. Oorspronkelijk voor View, maar ik gebruik hem ook altijd voor de server templates.

Je moet even nadenken over TCP Offload (ondersteunen ALLE nics Offloading correct?) en Windows Update.

Wat ik doe bij het maken van een template:
VM met 2 sockets, 1 core per socket, 2GB (of wat je kleinste/standaard moet zijn, die groter moeten zijn kun je bij deployen aanpassen.)
PVSCSI 60GB Thin.
VMXNET3.
DVD met datastore ISO.
Floppy met PVSCSI driver.

Installeren, .net Framework 3.5 en alle C runtimes installeren, VMtools, patchen, disk clean up, disable HW accel IE, OSOT (zonder uitschakelen Offload), sdelete, ipconfig /release, power off, DVD en floppy verwijderen, boot naar BIOS, com/lpt/floppy uit. Power off. Hole punching met SSH. Customization Template maken.

Resultaat een super snelle 2012R2 template van zo'n 12GB.

Eventueel kun je nog wat met de swap rommelen en hem nog kleiner krijgen (sneller clonen), maar dat vind ik teveel gedoe. En in een grote omgeving komt er vanzelf iemand die hem patched en het vergeet.

Bij het deployen even nadenken wat er op komt, indien je per socket moet betalen (Oracle e.d), 1 socket met meerdere cores. Mocht er veel IO op komen kun je de PVSCSI queuedepth en VMXNET3 buffers/ringsize nog vergroten.

Na OSOT is rightsizing meestal de grootste winst, sinds TPS en relaxed co scheduling is de impact kleiner, maar nog steeds aanzienlijk.

Als je Cluster krap in geheugen zitten kun je met het security team overleggen en eventueel Intra-VM TPS inschakelen.

[Voor 29% gewijzigd door |sWORDs| op 15-10-2016 13:15]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Intel Quick Sync zit in de Intel GPU's. Die GPU's zijn voor zover ik weet nog nooit succesvol doorgegeven aan een VM. De GPU's die wel werken zijn voor zover ik weet altijd Dedicated GPU's van NVidia of AMD.

Volgens mij hebben die ook iets vergelijkbaars als Intel Quick Sync, alleen weet ik niet hoe het heet.

Moet het perse QuickSync zijn?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 18 oktober 2016 @ 14:27:
Intel Quick Sync zit in de Intel GPU's. Die GPU's zijn voor zover ik weet nog nooit succesvol doorgegeven aan een VM. De GPU's die wel werken zijn voor zover ik weet altijd Dedicated GPU's van NVidia of AMD.

Volgens mij hebben die ook iets vergelijkbaars als Intel Quick Sync, alleen weet ik niet hoe het heet.

Moet het perse QuickSync zijn?
Er zijn E3 GPU's die doorgegeven kunnen worden.
Raven schreef op dinsdag 18 oktober 2016 @ 14:36:
"Remote Management:"

Als ik mij niet vergis hoort VMware Workstation toch ook in dat rijtje met mogelijkheden?

[...]
Er is beperkt wat mogelijk met Workstation en Fusion, maar ik zou dat meer remote display dan management noemen.

[Voor 25% gewijzigd door |sWORDs| op 18-10-2016 18:21]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
|sWORDs| schreef op dinsdag 18 oktober 2016 @ 18:20:
[...]

Er zijn E3 GPU's die doorgegeven kunnen worden.
Ah tof, heb je daar een linkje van? Ik vind het zelf ook wel boeiend. Als mijn E5 (v3) dat slikt, zou dat ook wel tof zijn. Das natuurlijk geen Intel GPU, maar een onboard prutsding :+

[Voor 10% gewijzigd door FireDrunk op 18-10-2016 19:29]

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 18 oktober 2016 @ 19:29:
[...]


Ah tof, heb je daar een linkje van? Ik vind het zelf ook wel boeiend. Als mijn E5 (v3) dat slikt, zou dat ook wel tof zijn. Das natuurlijk geen Intel GPU, maar een onboard prutsding :+
Oud:


Laatste toevoeging:


Het probleem is om te vinden welke chip exact supported is, momenteel kan ik dat alleen met zekerheid van de Broadwell P6300 zeggen.
Haswell P4700?
Skylake P580?

[Voor 207% gewijzigd door |sWORDs| op 19-10-2016 00:09]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Dus als ik je goed begrijp: Iris Pro, en GT2+.
GT1 en Intel HD Graphics vallen dus buiten de boot.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op woensdag 19 oktober 2016 @ 09:44:
Dus als ik je goed begrijp: Iris Pro, en GT2+.
GT1 en Intel HD Graphics vallen dus buiten de boot.
Dat is altijd lastig te zeggen, er is ook nog een verschil tussen supported en werkend. Het zou zo kunnen zijn dat andere chips ook werken, maar gewoon niet getest/supported zijn, de enige die ik getest kan vinden is de P6300.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
http://www.virtuallyghett...ments-in-vsphere-6-5.html

PVSCSI voor nested ESXi 6.5, ben benieuwd of de nieuwe virtual NVME ook nested werkt.
Sowieso moet PVSCSI in combinatie met de NVMe verbeteringen al een flinke stap voor nested zijn.

[Voor 44% gewijzigd door |sWORDs| op 19-10-2016 18:45]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52


PowerCLI Core uses Microsoft PowerShell Core and .Net Core to enable users of Linux, Mac and Docker to now use the same cmdlets which were previously only available on windows.

PowerCLI Core enables a multi-platform scripting language which will allow you to manage your VMware infrastructure on any OS. Scripts written previously against the windows version are now made portable to a number of operating systems and can simply be loaded and run on these new OS versions without change.
Doet het prima op mijn mac:



[Voor 17% gewijzigd door |sWORDs| op 21-10-2016 13:00]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Ik kan met niet voorstellen dat de ESXi HyperVisor voor jou gaat connecten naar dat IP en een buffer voor je onderhoud wat de VM naar hartelust kan uitlezen.
Ik denk dat je dat gewoon in de VM moet doen.

Waarom wil je dat perse via de hypervisro doen? Die VM kan je toch (desnoods met een 2e NIC) in dat netwerk hangen?

De hypervisor ertussen maakt je setup alleen maar nodeloos complex?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ThinkPad schreef op zaterdag 22 oktober 2016 @ 11:09:
Heeft er hier ook iemand ervaring met het mappen van een serial port op het netwerk naar een seriële poort op een VM :?

Ik heb een ESP8266 die m'n slimme meter uitleest en via een soort 'ser2net' constructie de P1 (serial) op het netwerk gooit. Op m'n desktop PC kan ik via Putty als ik kies voor 'Raw' of 'Telnet' de data prima ontvangen. Nu zie ik dat je bij ESXi ook een serial port kunt toevoegen aan een VM. Ik dacht: "Mooi, dan kloppen we daar het IP-adres en de poort in en dan krijg ik een /tty<whatever> erbij".

Maar dat lukt dus niet. Ik heb hem als volgt toegevoegd:
- Use network
- Client (VM initiates connection)
- telnet://192.168.4.17:8088 (maar met tcp:// werkt het ook niet)

Onder een W10 VM krijg ik dan netjes een 'COM1' erbij, maar als ik daar naar luister met putty dan blijft het doodstil. Firewall in ESXi al open gezet voor 'VM Serial port over network' en 'VM serial port connected to vSPC'.

Nu heb ik wat zitten zoeken, maar meestal willen mensen het andersom, dat je met putty de serial console van een VM kunt bedienen.

Kan datgene wat ik wil eigenlijk wel op deze manier? Anders moet ik toch met 'socat' o.i.d. in de VM zelf aan de gang.
Raw zou tcp zijn, telnet = telnet.
Kan het hier morgen wel eens met een globalcache proberen, maar vanuit VM moet zeker werken.

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Dat is vrij simpel te testen, gewoon een trial aanvragen, en je serial even omzetten. (of een kale installatie op een losse USB stick doen, en het even testen).

Out of the box staat alles aan.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Met vDGA moet QuickSync werken. Het is alleen erg onduidelijk welke chips met vDGA werken en of het lukt zonder tweede GPU zoals een Aspeed voor de console.

Dan zit je nog met probleem drie, de borden waarop het waarschijnlijk werkt hebben geen outputs aan de Intel GPU, dan heb je dus of VMware View nodig om hem in te richten of eerst inrichten, dan doorgegeven. En bij onderhoud eerst weer loskoppelen.

[Voor 72% gewijzigd door |sWORDs| op 27-10-2016 21:29]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Ik backup mijn VM's niet :) Is alleen maar speeltuin.

Even niets...


  • Microkid
  • Registratie: augustus 2000
  • Nu online

Microkid

Frontpage Admin / Moderator PW/VA

Sunglasses and beards

Topicstarter
ThinkPad schreef op zondag 30 oktober 2016 @ 16:28:
Wat gebruiken jullie eigenlijk voor backup van jullie ESXi free server? Ik gebruik ghettoVCB wat opzich prima werkt. Ik roep hem aan via SSH vanaf een andere machine waar ik het in de cron heb gezet. De backups schrijft hij dan weg naar een NFS-share die wordt aangeboden door m'n XPEnology VM.

Veeam ofzo is mooi, maar werkt dus niet met ESXi free :-(
Ik kan dat op de site van Veeam niet vinden dat het niet zou werken met ESXi free. Waar staat dat?

Edit: al gevonden: https://www.veeam.com/blog/veeam-and-free-esxi.html

[Voor 6% gewijzigd door Microkid op 30-10-2016 20:22]

3000Wp zonnestroom
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
|sWORDs| schreef op donderdag 27 oktober 2016 @ 21:17:
Met vDGA moet QuickSync werken. Het is alleen erg onduidelijk welke chips met vDGA werken en of het lukt zonder tweede GPU zoals een Aspeed voor de console.
Omdat ik best nieuwsgierig ben wat er wel of niet werkt, zit ik er over na te denken om een 1245v5 met een C236 bord te halen en het te testen. Als ik daarna de G4500 en G3900 test dan hebben we de HD Graphics P530, 530 en 510 getest.
Mocht de P530 niet werken hebben de anderen geen zin en mocht de 530 niet werken heeft de 510 geen zin.

Wie heeft er belang bij een G4500 of G3900?
Wie heeft er belang bij een 1245v5, C236 bord en geheugen?

[Voor 21% gewijzigd door |sWORDs| op 31-10-2016 10:28]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Snippo schreef op maandag 31 oktober 2016 @ 13:21:
[...]

Ik heb er verder geen verstand van dus ik ga me niet mengen in de keuze, maar ik ben natuurlijk wel benieuwd naar de resultaten. Mocht je dit gaan testen, zou je dan ook andere virtualisatie software (KVM/Proxmox) kunnen testen? Dan is het helemaal duidelijk wat er wel en niet werkt :) .
De keuzes zijn vrij simpel:

De grootste kans op een werkende oplossing is op een bord met onboard VGA, vandaar een C23x bord.
De goedkoopste CPU met een 510 die werkt op C23x is een G3900.
De goedkoopste CPU met een 530 die werkt op C23x is een G4500.

De enige die mogelijk vreemd oogt is de CPU met een P530, de 1245, omdat de 1225 en 1235L iets goedkoper zijn. Qua prijs prestaties vind ik de 1245 van dat rijtje de meest logische keuze en de combinatie die waarschijnlijk het makkelijkst in V&A weer van de hand te doen is.

Een P580 bemachtigen gaat erg duur en lastig worden, met name omdat deze volgens mij alleen gesoldeerd op een bord komt, ergens rond de 1100 euro. Nou is een P580 ook niet echt een logische keuze voor vDGA (GVT-d), meer voor GVT-g, maar dat wordt sowieso nog niet op ESXi ondersteund.

Chip510530P530P580
EUs12242472
Clock300350350350
Boost950115010501100
EDRAMNeeNeeNeeJa

[Voor 42% gewijzigd door |sWORDs| op 31-10-2016 14:38]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Snippo schreef op maandag 31 oktober 2016 @ 16:04:
[...]


Ok, klinkt logisch zo :) . Een moederbord en CPU voor 1100 euro gaat het sowieso niet worden voor mij, want het is maar 'hobby'. Het moet natuurlijk wel iets degelijks zijn maar dat gaat me iets te ver :+ .
Zou er nog verschil zitten tussen onboard VGA en een aparte videokaart om dit werkend te krijgen? Ik gok dat onboard VGA beter ondersteund wordt?
Nee, in principe moet dat werken, echter zou je dan weer liever de aparte videokaart doorgegeven en niet de Intel, dus ik zie het nut daarvan niet echt. Als je dan toch een videokaart koopt neem dan een AMD en geef die door.

In theorie is het ook mogelijk met alleen de Intel en dan de console loskoppelen, maar omdat nou als eerste test te gaan doen.. Als het werkt is het super, werkt het niet dan weet je nog niets.

[Voor 12% gewijzigd door |sWORDs| op 31-10-2016 16:30]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
YellowOnline schreef op maandag 31 oktober 2016 @ 20:30:
Zo, ik heb mijn DC thuis omgeschakeld naar Windows Server 2016. Ik heb van de gelegenheid gebruik gemaakt om op mijn server een ESX 6.0 te installeren. Tevens heb ik ontdekt dat VMware Workstation (helaas geen licentie op werk) geweldig goed aansluit op ESX.

[afbeelding]

Bij het installeren werd mijn RAID controller herkend (LSI MegaRAID), maar mijn NIC niet. Gelukkig was er deze blogpost van Andreas Peetz om met behulp van PowerCLI (dat ik als Powersheller sowieso geïnstalleerd heb) een customized image met de juiste Realtek drivers te maken.

Enige dat mij nog rest te doen is een manier vinden om aan mijn data te komen. Vroeger was DISK1 Windows en RAID1 Data. DISK1 is nu ESX, maar mijn data (5TB) staat natuurlijk nog steeds op die RAID1 en out of the box is dat niet zichtbaar voor hosts. :+ Kan ik dat op een of andere manier 'raw' aanbieden? Hmz.
RDM
Snippo schreef op dinsdag 01 november 2016 @ 11:02:
Ik vond net dit topic op het internet waarin wordt aangegeven dat het niet werkt:
https://hardforum.com/thr...sync-and-hyper-v.1912054/

Brengt vDGA hier verandering in?

Ik heb me weer iets op de hals gehaald waar ik de ballen verstand van heb :+
VMware vDGA (Intel GVT-d) gebruikt IOMMU (Intel VT-d) en daar gaat het niet voor op:


Lees IOMMU en vDGA Passthrough met VT-d/IOMMU even door, dan snap je waarom alles van een GPU beschikbaar is.

[Voor 77% gewijzigd door |sWORDs| op 01-11-2016 12:25]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[Voor 39% gewijzigd door |sWORDs| op 07-11-2016 01:16]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Nice!

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Er zijn wel een paar PCIe Geluidskaarten, dus ik verwacht dat die allemaal gewoon door te geven zijn.

USB kan ook wel, maar echt goede USB geluidskaarten zijn zeldzaam.

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
|sWORDs| schreef op maandag 07 november 2016 @ 01:11:
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[afbeelding]
Nice swords!

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Tomsworld schreef op zondag 13 november 2016 @ 23:36:
Prachtige startpost, ook mooi voor die builds maar zou je die niet kunnen uitbreiden. Vooral verbruik onder idle 50 en 100 % misschien ook enkele extra builds opnemen.
Kun je uitleggen wat je precies zou willen zien?

Te Koop:24 Core Intel Upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
renedis schreef op maandag 14 november 2016 @ 12:08:
Waarom moet je bij de Intel AHCI passthrough de VM op reserved memory zetten?
Dat is bij iedere doormapping van PCIe devices via VT-d zo, niet alleen bij Intel AHCI.

https://kb.vmware.com/sel...playKC&externalId=1010789

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Shared storage als in, cluster software? Of gewoon NFS, iSCSI, FC of Local Storage?

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
MvL schreef op maandag 14 november 2016 @ 12:58:
Welke software adviseren jullie voor shared storage? Natuurlijk in combinatie met ESXi.
Welke voertuig adviseer je voor mee te rijden als persoon? Natuurlijk een diesel.

Dat is zo een beetje de vraag die je hier nu neergooit :+ .

Wat wil je bereiken? Thuis of professioneler?

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Snippo schreef op maandag 14 november 2016 @ 14:15:
[...]

Is dit om QuickSync werkend te krijgen?
Nee, dit is om AHCI controllers werkend te krijgen, die by-default niet door VMware herkend worden.
Andre_J schreef op maandag 14 november 2016 @ 14:40:
Vraagje voor ik 't drop bij de support van VMware...
Sinds kort hebben we onze hosts in ons AD-Domein gehangen.
Dit gaat deels goed, echter na een tijdje hebben een aantal geen AD verbinding meer.
Tot op heden nog geen reden kunnen vinden.
Tips ?
Af en toe de management agents herstarten?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Andre_J schreef op maandag 14 november 2016 @ 14:40:
Vraagje voor ik 't drop bij de support van VMware...
Sinds kort hebben we onze hosts in ons AD-Domein gehangen.
Dit gaat deels goed, echter na een tijdje hebben een aantal geen AD verbinding meer.
Tot op heden nog geen reden kunnen vinden.
Tips ?
Zelfde NTP als AD controller? En welke versie van ESXi? Ik heb nooit problemen gezien met 5.5 en nieuwer.

Te Koop:24 Core Intel Upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
Tja, professionele software, dat is ook een beetje vaag omschreven, maar we komen er wel. Je hebt eigenlijk het idee dat het nu maar een hatseflats oplossing is en je wil naar wat "beter", klopt dat? Maar definieer voor jou eens professioneler of beter?

Wil je gaan tieren? Wil je met policy driven storage aan de slag? Wil je redundantie? Heb je meerdere hosts? Waarom wil je met SMR schijven aan de slag? Omwille van capaciteit? Ben je bv. als je maar één host hebt niet beter af dat je een leuke SSD aanschaft en al je media vanuit je QNAP/Synology aan het netwerk presenteert?

Buiten dat je unraid gebruikt is je oplossing toch ok?

Vandaag even niets


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26
tieren, in laagjes, in storage land is dat bv je hot data op ssd en dat het zo naar beneden gaat naar trage storage.

Zo combineer je bv. capacity met performance door een laag SSD's bovenop je HDD's te leggen.

Dus, samengevat:

VM's op SSD
Je media komt van een NAS, eigenlijk geen shared storage, ligt er maar aan hoe je het benoemt.

Wat is je "overige data" dan?

Als je meerdere hosts hebt en je hebt disks en SSD's dan kan je wel eens aan de slag met VSAN, anders ook maar dan heeft het niet altijd zoveel nut.

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
RvV schreef op zaterdag 19 november 2016 @ 09:29:
[...]


Ik ga weer terug naar vcenter 6.0. Als HTML5 niet alles kan, eerder vrijwel niets kan...en de vsphere client niet meer werkt, dan heb ik weinig aan 6.5. Jammer. ;(
Ik zie niet waarom je terug zou moeten, waarom zou je de flash client niet gebruiken?

En dat niets kunnen met de HTML5 valt ook wel mee, als je de initiële inrichting gehad hebt kun je prima met de HTML5 Client uit de voeten:

[Voor 24% gewijzigd door |sWORDs| op 19-11-2016 14:30]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ComTech schreef op vrijdag 25 november 2016 @ 14:48:
Ik heb hier een esxi server draaien met een aantal vm's waaronder 1 freenas server voor mijn data diversen ubuntu vm's (domoticz owncloud enz) en een xpenology vm (dsm6).
Nu heb ik aan de freenas vm de onboard sata controller doorgegeven (passthrough) .
Als datastore heb ik een Conceptronic PCI Express Card SATA 600 waar een ssd schijf aan zit.
Alles werkt prima alleen ik zou graag m'n xpenology ook een hardeschijf willen toewijzen.
Op de conceptronic pci sata kaart zit nog 1 aansluiting vrij.
Zou ik hier een hardeschijf op kunnen aansluiten en d.m.v RDM kunnen doorgeven aan de xpenology vm?
Of is hier een betere makkelijker oplossing voor?
Nee, RDM is je enige optie met passthrough. Maar PVSCSI of passthrough maakt met één disk aan Synology weinig uit, dus dat zou een makkelijkere optie kunnen zijn.

edit: Weet niet of PVSCSI met 6 werkt, welke versie (van wie) draai je?
Galukon schreef op zondag 27 november 2016 @ 16:34:
Ben even bezig met een nieuw labje creeren op mijn pc. Heb een i7 6700k en 32 GB RAM dus pruttelt wel lekker door. Kom nu wel tot de verbazing dat de nieuwe VCSA 6.5 10 (!!) GB RAM wilt hebben. Leuk als er in mijn kleine labje staat dat hij maar 2.1 GB RAM verbruikt. Iemand een tipje om hem kleiner te zetten dan 10 GB? Want als ik dat wil aanpassen zegt ie leuk: ja minimaal 10 GB RAM.
De vorige wilde al 8GB minimaal en nu is update manager toegevoegd. Van de nieuwe weet ik niet waar de checks zitten, door dat het nu een container op Photon is kan het wel eens lastiger zijn om de checks uit te schakelen. Als ik moet gokken dan zit het in de eigenschappen van de container.

[Voor 29% gewijzigd door |sWORDs| op 27-11-2016 17:00]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Galukon schreef op zondag 27 november 2016 @ 17:02:
[...]


Ik kon de vorige VCSA nog op 4 of 6 GB RAM zetten dacht ik zo.. Voor een homelab is het toch wat overkill 10 GB RAM. RAM is niet goedkoop..
In principe is het geheugen nog wel te gebruiken. Zodra je krap komt te zitten zou TPS (intra-VM) het moeten oplossen.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Galukon schreef op zondag 27 november 2016 @ 17:07:
[...]


Wat ik zo lees is dat het pagen naar de disk?
Nee, dat is hashing met salting (en de-dupe zodra er krapte is) binnen de VM, aangezien het geheugen wat leeg is identiek is zou dat moeten werken. Staat standaard aan binnen de VM. Je kunt het ook aan zetten tussen alle VM's (Inter-VM), door voor alle (of gekozen) VM's dezelfde salt te gebruiken of door salting uit te schakelen.

[Voor 35% gewijzigd door |sWORDs| op 27-11-2016 17:18]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Bijna, hij gaat hashen en bij krapte dedupliceren. Je ziet het dus pas als er weinig geheugen vrij is. Je hoeft ook niets aan te passen hij doet het standaard binnen de VM.

[Voor 25% gewijzigd door |sWORDs| op 27-11-2016 17:28]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Als je server echt, echt te weinig geheugen heeft, gaat hij weinig gebruikte pagina's naar swap zetten. Als je daarna weer inlogt op de machine, en je deze pagina's dus nodig hebt, is de VM in kwestie erg traag.

Kan je eens wat ESXTOP statistieken tonen?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Kan je een keer op 'm'drukken, en dan nog een screenshot sturen?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Tjonge, die server is behoorlijk underpowered voor wat je aan het doen bent.
Je hebt meer dan 18GB actief terwijl je minder dan 14GB actief zou moeten hebben.

Bij SWCUR kun je zien dat zeker 6 machines aan het swappen zijn, daarnaast is er ballooning.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op maandag 28 november 2016 @ 20:15:
[...]


Denk dat de memory verdeling wat beter kan en moet ..
Ben blij met dit topic -)
in principe zijn het simpele vm's met maar 1 of 2 taken, de media.local heeft het meeste te doen en performed op zich goed. ik ga eens kijken wat ik kan aanpassen .. ;-)
Let wel dat als je geheugen geeft het vaak ook benut wordt terwijl dat niet nuttig hoeft te zijn.
In principe wil je het geheugen niet overcommitten. Dus eigenlijk wil je max 12-14GB uitdelen aan VM's.
Nou kun je met TPS wat hoger gaan.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ThinkPad schreef op maandag 28 november 2016 @ 20:14:
Kunnen jullie aangeven op welke getallen je moet letten en welke waarde die getallen moeten zijn in een optimale situatie? Ben wel benieuwd hoe het bij mijn server zit namelijk. Maar lijkt mij niet handig als iedereen hier z'n esxtop-screenies gaat plaatsen :P

zeroday, je bent trouwens ook wel erg gul met het RAM. Sommige simpele VM's zoals een OpenVPN die onder Ubuntu Server 16.04 draait (headless, dus geen GUI) heeft bij mij maar 512MB RAM. Gaat prima. Alleen een Windows 10 / Server 2012 VM krijgt bij mij 2GB RAM (wat opzich wel 4GB mag zijn, maar heb te weinig RAM nu), maar de rest (meestal is dat een Ubuntu Server 16.04) altijd <= 1GB. Eigenlijk nog geen problemen mee gehad.
code:
1
2
3
4
5
6
|  GID NAME               MEMSZ    GRANT     CNSM    SZTGT     TCHD   TCHD_W    SWCUR    SWTGT   SWR/s   SWW/s  LLSWR/s  LLSWW/s   OVHDUW     OVHD  OVHDMAX 
   31609 vcenter         10323.15 10255.26 10240.00 10299.07  1482.42   723.34     0.00     0.00    0.00    0.00     0.00     0.00     0.00    57.54    82.41 
   23571 dc1              8274.26  8207.36  8191.95  8248.54   455.70   170.23     0.00     0.00    0.00    0.00     0.00     0.00     0.00    55.06    82.12 
   28106 SYNOLOGY         4161.53  4111.62  4096.00  4139.46  4132.22  4105.94     0.00     0.00    0.00    0.00     0.00     0.00     0.00    41.90    59.80 
   17148 router           4152.13  4105.95  4096.00  4129.43   311.49   248.04     0.00     0.00    0.00    0.00     0.00     0.00     0.00    32.43    48.77 
  386888 LoadMaster       2094.21   565.84   556.10   635.16   158.13   104.39     0.00     0.00    0.00    0.00     0.00     0.00     0.00    22.48    37.46

MEMSZ = GRANT + MCTLSZ (Ballooning) + SWCUR (SWAP) + untouched
GRANT = Toegewezen
CNSM = (CoNSuMed) Toegewezen - TPS
SZTGT = allocated (resource pool)
TCHD = working set
TCHD_W = write working set
SWCUR = current swap
SWTGT = swap target
SWR/s = current swap read rate
SWW/s = current swap write rate
LLSWR/s = current host cache read rate
LLSWW/s = current host cache write rate
OVHDUW = current overhead User World
OVHD = current overhead Resource Pool
OVHDMAX = max overhead

Ideaal zou zijn SWCUR op 0 (Geen SWAP), en CNSM gelijk aan GRANT (Niet teveel gegeven, wel even video memory niet meenemen en natuurlijk bij geen TPS) Maar zelfs dan kan het OS geheugen niet nuttig gebruiken, dus dit gaat niet geheel op.

Een nadeel in mijn screenshot code block is dat ik reserve all memory op een aantal VM's heb staan. Dit moet bijvoorbeeld voor passthrough, maar ook als je geen swapfile op je datastore wil hebben staan.

Edit:
En natuurlijk vind ik het artikel wat ik zocht nadat ik ze ongeveer uitgetypt heb:
https://communities.vmware.com/docs/DOC-9279

[Voor 15% gewijzigd door |sWORDs| op 28-11-2016 20:45]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Nog een leerzaam artikeltje: http://www.yellow-bricks.com/esxtop/

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op maandag 28 november 2016 @ 21:04:
[afbeelding]

Ik ben inderdaad gul, maar dat heeft vooral te maken voor een paar machines waarvan ik denk: die hebben memory nodig.
dat kan en is wellicht een foutieve aanname, ik heb nu een berg aanpassingen zitten te maken en daarna de vm's herstart

Ben benieuwd ;-)
Nog steeds gul, 18.5 ipv 12-14, maar al een stuk beter dan de 31.5 die het eerst was.

Media naar 2 en seed, sab, spot naar 1? Eventueel unify naar 1.5 en libre naar 768MB.

Consumed is nu healthy, maar met een beetje meer load zit je weer in de gevarenzone. Heb je InterVM TPS beschikbaar gemaakt?

[Voor 21% gewijzigd door |sWORDs| op 28-11-2016 21:24]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op maandag 28 november 2016 @ 21:23:
[...]


wordt nog beter ;-) heb hem nu naar 12 gebracht, een VM down gebracht die niet meer gebruikt werd maar toch geheugen gebruikte, daarnaast nog een andere vm die wellicht wel weer een keer aan kan maar nu niet nodig. ben nu benieuwd of zo de performance over alle machines beter wordt / zal worden. (denk het wel).

Dus door het overboeken het systeem min of meer over de zeik helpen .. mja .. (je denkt dat het systeem het allemaal wel netjes zelf uitzoekt) ;-)

wat bedoel je met dit?
Heb InterVM TPS beschikbaar gemaakt?

ik zie wel in mijn advanced settings;
mem.share.force.salting = 2
maar tsja. dat is alles wat ik zie . ;-)

[afbeelding]
Zet die maar eens op 0, reboot en vergelijk consumed.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op maandag 28 november 2016 @ 23:06:
[...]


dat zegt me echt niet zoveel en of het veel effect heeft

[afbeelding]

laatste esxtop ;-)
Morgen maar eens kijken hoe alles draait als ik het via een vpn aanroep .. eens zien of dat lekker werkt

In ieder geval dank voor nu, was leerzaam vanavond ;-)
6.4GB->5.9GB, maar de echte winst komt pas als je krap in geheugen zit en dat zit je nu echt niet meer.

Het lijkt alsof sommigen wel wat omhoog kunnen:
subsonic -> 1536
unify -> 1536
libre->768

Dan de CPU load, die is vrij hoog (Libre, filecloud, unify en media hebben een hoge ready state), zou je kunnen vertellen hoe je de cores toegewezen hebt aan de VM's en welke netwerk en storage virtuele devices je gebruikt?

[Voor 21% gewijzigd door |sWORDs| op 29-11-2016 00:35]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Grmbl, gister is voor de zoveelste keer mijn FiberChannel setup in elkaar gezakt. (Geen disks meer, hangende "backend providers" in ESXi, onverklaarbare reden).

Misschien toch maar weer terug naar iSCSI :'(

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 29 november 2016 @ 07:35:
[...]


Gisteren zag ik usenet download speeds in 1 van mijn configuraties naar 18MB/s toen ik bezig was.

nu ik klaar ben met het memory geval zie ik nog maar een soort van 4.5 / 5MB/s
Daar ben ik niet blij mee. Moet ik blijven traceren of het niet aan de provider of usenet provider ligt
beetje lastig testen nu. Meestal begin je hoog en kak je in, maar nu is het stabiel en dat geeft te denken dat het aan de vm ligt.

update: lijkt niet op een vm probleem maar van de usenethoster, cap op de draadjes, 16 draadjes 5MB, 1 draadje 400KB, 40 draadjes 8B .. mooi .. daar ligt het probleem. (denk ik)

de machine is echt 'simpel' een 2 core Celeron gevalletje 2.30Ghz (HP microserver)
merendeel van de machines krijgen de 2 cores toegewezen. Libre is de SNMP machine, filecloud staat uit unifi is de cloud controller van de AccessPoints en media is het drukste van allemaal met een aantal processen die werken, Telegram bot, sonarr, autosub, deluge etc..

als datastore zit er gewoon een paar SATA HDD's in en 1 NFS datastore voor een backup en alles verbonden aan 1 gigabit netwerk verbinding.
Je moet ook niet vergeten dat SABnzbd geen moeite heeft om je CPU volledig te vullen en jij draait daar nog eens 6 dual core machines en twee single cores naast.

Een dual core CPU is eigenlijk niet geschikt voor virtualisatie, alleen met heel weinig VM's of VM's met weinig load. Nou heeft jouw dual core ook nog eens geen HT en een lage frequentie en je hebt powersaving aan staan. Libre en SAB snoepen het grootste deel van je CPU op. Je ziet dat de hypervisor laag (inclusief virtual networking en storage) regelmatig moet wachten en ook Libre en SAB staan vaak te wachten.

Voor wat je draait zou ik eigenlijk een i7 aanraden. Een 1:8 pCPU:vCPU ratio is niet gek voor een lab, maar bij een low frequency dualcore zonder HT is dat toch een ander verhaal. Bedenk ook dat flinke virtuele IO eigenlijk al je volledig CPU is.

Wat je nog niet beantwoord hebt is welke storage controller (LSI/PVSCSI) en welke vNIC (E1000/VMXNET3) je in de VMs gebruikt. PVSCSI en VMXNET3 zorgen voor een lagere belasting op host niveau en daarmee hou je dus meer CPU beschikbaar voor VM's, als bonus performen ze ook nog eens beter.

Verder vertel je niet hoe je de cores hebt toegewezen, als cores of als sockets. Sockets geeft in mijn testen een iets lagere belasting op host niveau, cores gebruik je alleen indien het scheelt in guest licentie kosten.

Ook wijs je vooral 2 vCPU's toe, maar je geeft niet aan waarom.
Minder vCPU's toewijzen geeft in mijn testen een duidelijk hogere VSIMAX.

Een ander probleem kan je storage zijn. Je gebruikt SATA met een queuedepth van 31. Als SABnzbd dezelfde disk gebruikt als andere VM's dan heb je de boel snel op zijn knieën. Sowieso is iets als SABnzbd echt iets voor passthrough, dan ben je al die IO overhead kwijt in de hypervisor laag.

Kleine beetjes extra winst zijn nog te behalen door CD en bijbehorende controller te verwijderen uit alle VM's, net als floppy en in de VM BIOS floppy, COM en LPT uit te schakelen. Het helpt niet veel, maar alle beetjes helpen.

Ik ga niet meer met wie dan ook in discussie over cores vs sockets (tenzij het VMware Engineering is). Bottomline is dat voor cores er sowieso geen voordelen naast licensing zijn. Hetzelfde voor Relaxed Co-Scheduling, ja het helpt significant, maar dat maakt het nog niet even optimaal als rightsizing.
Dit neemt niet weg dat iedereen zijn eigen mening mag geven, maar ik ga er niet op in.

[Voor 33% gewijzigd door |sWORDs| op 29-11-2016 14:06]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 29 november 2016 @ 14:06:
[...]

powersafe mag uit als ik wist hoe ;-)
Host Client->Manage->Hardware->Power Management->Change Policy->High Performance

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Kijk bij de microserver ook even in het BIOS, zitten ook wat Power Saving opties in.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 29 november 2016 @ 14:06:
[...]

Maar als ik iets anders wil ben ik meteen het 3 of 4 voudige kwijt. (ook geen probleem, maar weet niet 1-2-3 welke complete systemen gecertificeerd zijn en waar de free esxi op kan draaien)
Je hoeft toch geen ander systeem te nemen? Gewoon V&A en Ebay in de gaten houden of er een leuke cpu langs komt. E3-1265L v2 als je safe wil zitten, maar er zijn ook gebruikers met een E3-1230 v2 zonder temperatuur problemen.
zeroday schreef op dinsdag 29 november 2016 @ 14:06:
[...]

Dus dan liever hier en daar fine-tunen.
Er staan nog flink wat tuning tips in die post.
zeroday schreef op dinsdag 29 november 2016 @ 14:06:
[...]

update:
Thanks voor de tip... uitgezet .. ;-)
No problem

[Voor 32% gewijzigd door |sWORDs| op 29-11-2016 14:31]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 29 november 2016 @ 14:43:
[...]


Eerste geen idee wat je vraagt, ik laat alles standaard staan zoals de wintendo tool het me aanbied (ik zie in de settings van de vm SCSI Controller 1 LSI Logic Parallel staan)
Enige wat ik aanpas is dat ik VMXNET3 gebruik en geen E1000
Paravirtual SCSI is wat je zou moeten kiezen.
zeroday schreef op dinsdag 29 november 2016 @ 14:43:
[...]

Ik gebruik de free versie dus tsja.. 1 CPU met twee cores, dus in de windows esxi tool geef ik 1 CPU aan en 2 cores
Met Free kun je toch ook gewoon de sockets op 2 zetten en cores op 1?
zeroday schreef op dinsdag 29 november 2016 @ 14:43:

[...]

In simpele bewoordingen: meer meer meer is beter dan minder minder toch? ;-) Tuurlijk weet ik dat software mulitthreading moet kunnen zijn om er gebruik van te kunnen maken, dus tsja. als je de load over 2 CPU's kan verdelen dan is dat handig, maar veelal kunnen een aantal vm's rustig op 1 CPU draaien.
Nou, in dit geval kan minder wel eens beter zijn voor de andere machines. Waarom zet je niet alles op 1 en pas je degene waar je echt verschil ziet/merkt aan naar 2?
zeroday schreef op dinsdag 29 november 2016 @ 14:43:

[...]

Yep sab zit op dezelfde disks, maar goed, de maximale doorvoer is 18MB/s terwijl de max HDD doorvoer op 80MB/s zit .. probeerde laatst wel sab alles naar een NFS share weg te laten schrijven maar dat was min of meer de opmaat naar deze optimalisatie.
Het is niet alleen de doorvoer maar het vullen van de queue. Daarnaast zijn kleine files (nieuwsgroepen hebben niet anders) veel zwaarder en download je meestal met veel threads. Voor een HDD is nieuwsgroep downloads sowieso een performance killer en spinning disks zijn erg slecht in multitasken. Probeer maar eens twee folders met veel kleine files te gelijk te kopiëren en één voor één, dat laatste gaat meestal sneller.
zeroday schreef op dinsdag 29 november 2016 @ 14:43:
geen probleem snap het (nog niet) ;_)
Die was ook niet voor jou maar voor de anderen, sommige discussies heb ik gewoon echt al te vaak gehad en houden als ze starten niet meer op. ;)

[Voor 4% gewijzigd door |sWORDs| op 29-11-2016 15:40]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 29 november 2016 @ 21:44:

[...]
.. zo heeft ie nog nooit gepresteerd, dus ik ben erg blij met alle optimalisatietips hier gegeven !

super !!

update, inmiddels bijna een week verder en mijn vmware bak heeft nog nooit zo goed gedraaid ...
heerlijk !
d:)b

[Voor 19% gewijzigd door |sWORDs| op 07-12-2016 10:42]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ik ga binnenkort de startpost aanpassen naar 6.5, maar ik wacht even op iets wat binnenkort beschikbaar is.

In het kort met betrekking tot de startpost:
  • Met 6.5 is er wel PVSCSI voor nested, maar werkt de mac learning fling niet.
  • Wijziging in supported CPU's.
  • C Client werkt niet meer voor vCenter. HTML Client voor vCenter.
  • vNVMe controller.

[Voor 58% gewijzigd door |sWORDs| op 07-12-2016 10:56]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Van de week toevallig mijn vCenter Appliance opnieuw uitgerold met 6.5. Is allemaal net weer wat soepeler. Goede verbetering. De HTML5 interface is nog wat karig, maar prima bruikbaar. (kon bijvoorbeeld niet een VM van BIOS naar EFI zetten met de HTML5 interface).

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
De /ui/ inteface werkt bij mij echt wel prima. Snel, simpel, geen plugins nodig (tenzij je files wil uploaden, of OVA's wil deployen).

Het is mij laatst zelfs gelukt om via de command line tooling (vCLI dacht ik) een OVA template te deployen vanaf Linux, dus dat werkt tegenwoordig ook al wel goed. (Niet makkelijk, maar het werkt wel :P )

Dus als Linux fanboy kan ik zelfs daar mee uit de voeten.

(Heb de VCSA zelfs vanaf Linux gedeployed met de Linux installer. Werkte perfect.)

[Voor 9% gewijzigd door FireDrunk op 07-12-2016 10:59]

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Hmm, dat was me nog niet eens opgevallen :)

Over het geheugen:
10 GB, 1.4 GB memory active


Daar zou ik me niet zo druk over maken.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Nee, niet als je reserve all memory niet aan hebt staan.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 11:09:
Gisteren geprobeerd om ESX 6.5 te installeren, maar dat lukt niet (meer) op een Supermicro X10SL7-F. Hij klaagt over de LSI 2308 storage controller, terwijl die controller nog perfecte ondersteuning geniet onder 6.0u2.

Is hier een oplossing voor?
Wat raar, die zou gewoon moeten werken met de inbox driver:
http://www.vmware.com/res...tegory=io&productid=19799

Welk firmware staat er op en IT of IR? Met P19 (19.00.00.00) zou het echt moeten werken, met P20 en nieuwer zou ik voor een Partner Async driver gaan, die je dan kun slip streamen in de iso.

[Voor 14% gewijzigd door |sWORDs| op 20-12-2016 13:22]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 14:03:
Ik heb gewoon de standaard installer .iso gedownload en op USB gezet. Ik kom bij de stap "wat te doen met installatie en datastores", daarna een inventarisatie vh systeem waarna hij met de error op de proppen komt.

Op de LSI draait firmware 19 (daar is er maar eentje van, toch?) in IT mode.
Raar, die zou het gewoon moeten doen. Draai je nu 6.0u2? Kun je de output van de storcli eens laten zien?

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 14:07:
Daar moet je even mijn handje vasthouden... storcli? not found...Ik probeer het vanaf de prompt.
https://www.broadcom.com/broadcom-search?q=storcli (LSI is overgenomen door Avago, wat nu weer Broadcom overgenomen heeft en die naam gebruikt.)

Onderaan staat latest MegaRAID storcli MR 6.12, download de zip en pak hem uit.
In de zip zit /storcli_All_OS/storcli_All_OS/Vmware-NDS/vmware-esx-storcli-1.20.15.vib en die zet je op een datastore.

Daarna ga je naar een SSH console en doe je even:
code:
1
2
3
esxcli software acceptance set --level=PartnerSupported
esxcli software vib install -v /vmfs/volumes/MYDATASTORE/vmware-esx-storcli-1.20.15.vib --no-sig-check
find / -name storcli
Dan heb je het hele pad en kun je hem daarmee uitvoeren (iets zoals /opt/lsi/storcli).

Daarna zou je zoiets kunnen doen en de file weer van de datastore plukken:
code:
1
/opt/lsi/storcli /c0 show all > /vmfs/volumes/MYDATASTORE/lsi.log


Misschien moet ik eens een post doen waarin ik laat zien hoe ik een ESXi ISO maak met alle handige tools en drivers er al in.

[Voor 37% gewijzigd door |sWORDs| op 20-12-2016 14:30]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Volgens mij een paar minuten, tijdje terug dat ik het voor het laatst gedaan heb.

[Voor 10% gewijzigd door |sWORDs| op 20-12-2016 14:32]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 14:34:
code:
1
2
3
4
[root@localhost:/opt/lsi/storcli] ./storcli /c0 show all
Controller = 0
Status = Failure
Description = Controller 0 not found


Misschien wel logisch, de LSI draait in passthru en die VM die 'em heeft is aangestoken.
Ja, dat is logisch, ik had niet door dat je hem als passthru gebruikt. Misschien is dat wel de reden waarom ESXi install het niet leuk vind? Misschien de partitie indeling? Weet je zeker dat als je nu de 6.0u2 install draait (zonder echt te installeren) dat je niet hetzelfde probleem hebt? Ik moet namelijk regelmatig gparted draaien en disks echt blanken voor ik ESXi kan installeren (of VSAN aanmaken). In jouw geval zou je de disk misschien even los kunnen koppelen, 6.5 installeren en dan weer aansluiten.

[Voor 14% gewijzigd door |sWORDs| op 20-12-2016 14:40]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 14:52:
mijn setup:
ESX draait op een ssd die is gekoppeld aan een controller op het moederbord. De LSI is vergeven aan een zfsguru, die op zijn beurt weer iSCSI en NFS teruggeeft aan de hypervisor.

Op het moment van installeren van ESX draait er nog niets in passthru, dus dat mag niets uitmaken.

Ik ga iets proberen: even de controller uit passthru halen en dan eens zien wat storcli geeft.
Ik had het eerst ook zo, later had ik het andersom, de Intel in passthrough en de LSI als boot/datastore.
Tegenwoordig doe ik USB als boot, NVMe als datastores en Intel als passthrough.

Ik heb het vermoeden dat de ESXi installer de ZFS mogelijk niet leuk vind. Je zou de controller uit kunnen zetten, ESXi upgraden en dan de controller weer inschakelen. Mocht het niet werken kun je met shift-R tijdens ESXi bootscreen zo weer terug naar de vorige versie.

[Voor 18% gewijzigd door |sWORDs| op 20-12-2016 15:31]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
OMX2000 schreef op dinsdag 20 december 2016 @ 14:58:
[...]


En aan watvoor moederbordjes moet je dan denken. Is het meteen ook Supermicro spul of zijn er ook moederbordjes die onder de 100 euro zijn te krijgen?
Dat werkt ook prima met bordjes van 80 euro. Maar inderdaad zijn alle machines hier voorzien van Supermicro.
1x X10DRH-iT (256GB, dual Xeon E5 2690 v3 ES, dual NVMe, nVidia M60, extra 10Gbit dual NIC) en 2x X10SDV-TLN4F (elk 128GB, Xeon-D1541, dual NVMe). Een van de Xeon-D's heeft de Intel in passthrough en 4x 4TB Toshiba's + 2x 480GB Samsung 843T als read/write cache voor XPenology (Synology).

De Xeon-D's hebben een VSAN en alles hangt aan een D-Link DXS-1210-10TS 10Gbit switch (VM/VSAN/vMotion) en een D-Link DGS-1210-28 Gbit switch (Management/WAN), behalve de dual Xeon die hangt met alle vier de NICs aan de 10Gbit switch (ik had geen dual Gbit kaart meer liggen en toch nog twee poorten vrij op de 10Gbit switch).

Elke machine heeft een Intel 750 400GB, de Xeon-D's hebben een Samsung 950 512GB als datatier, de Dual Xeon heeft een 1.2TB Intel 750 er naast.

In totaal dus 40 Cores (80 Threads) en 512GB RAM, 512GB VSAN datastore ('RAID1', dedupe en compressie), 400GB+1.2TB NVMe en 12TB spinning RAID5 met SSD read/write cache.

[Voor 64% gewijzigd door |sWORDs| op 20-12-2016 15:20]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 15:19:
[...]

Dat helpt geen zier.

Kan het zijn dat deze storcli gewoon geen 2308 wil herkennen?
Lijkt me sterk, hij is oud genoeg (dec 2010, volgens mij is er geen nieuwere) en ik heb hem laatst nog eens op een 3108 gebruikt. Volgens mij werkte hij ook op een 9211, jouw chip zit daar precies tussen in. Misschien doet hij het niet omdat er een Supermicro FW in zit, maar dat lijkt me ook sterk, op een IBM kaart met orginele firmware deed hij het ook?

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Kijken of de LSI helemaal ok is en de exacte firmware. Maar probeer het nou eens de andere kant op. Zet de LSI uit, doe de upgrade en zet hem weer aan.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 15:29:
Pfiew, dat zal dan via de BIOS moeten, ben ik bang. Ik ga hierop terugkomen, nu even geen tijd meer. Zo'n reboot neemt snel 10 minuten in beslag.
Mocht ie het na upgrade niet doen kun je met shift-R aan het begin van de "Hypervisor progress bar" weer terug naar 6.0u2.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 15:30:
vib list:
code:
1
2
3
4
Name                           Version                               Vendor  Acceptance Level  Install Date
-----------------------------  ------------------------------------  ------  ----------------  ------------
scsi-mpt2sas                   19.00.00.00.1vmw-1OEM.500.0.0.472560  LSI     VMwareCertified   2016-10-26
[...]


Daar keeg ik gisteren de foutmelding op. Heb dan ook geen install gedaan, maar een upgrade naar 6.5 geprobeerd.
Hoe heb je de upgrade gedaan en hoe kom je aan die LSI driver? Ik vind het namelijk wel raar dat er LSI staat en niet VMware:
code:
1
2
3
Name                           Version                              Vendor  Acceptance Level    Install Date
-----------------------------  -----------------------------------  ------  ------------------  ------------
scsi-mpt2sas                   19.00.00.00-1vmw.650.0.0.4564106     VMW     VMwareCertified     2016-11-08


Edit:
Je hebt de inbox driver vervangen voor een van LSI of mogelijk eerder al een upgrade gedaan voor de 19 driver inbox zat, 5.5 had 14.00.00.00-3vmw, misschien had je daar met de hand de 19 OEM driver opgezet.

19.00.00.00-1OEM vs 19.00.00.00-1vmw en 19.00.00.00-1OEM staat niet op de HCL voor 6.5, alleen 19.00.01.00-1OEM en 20.00.01.00-1OEM.

Verwijder die OEM driver eens en probeer de upgrade nog eens. Ik dacht dat je aan het installeren van de ISO was en niet door de pagina met disks kwam, maar zo te zien kwam je gewoon niet door de upgrade check.

[Voor 48% gewijzigd door |sWORDs| op 20-12-2016 16:04]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 17:29:
[...]

Ja, exact. Ik had dat wel iets duidelijker kunnen vermelden.

Kan ik na het verwijderen van de LSI driver nog booten? Ach, wtf, ik ga het gewoon proberen.
Ja, je hebt namelijk helemaal geen driver nodig aangezien je hem alleen als passthrough gebruikt.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 17:32:
Die vind ik iets te kort door de bocht, maar ok, we gaan het zien.
Het host OS (in dit geval hypervisor) doet er niets mee, de driver wordt dus niet eens geladen.
Het maakt bij VT-d helemaal niets uit of je nou wel of geen driver in de host laag hebt.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 20:41:
Passthrough is niet dat de hypervisor er helemaal niets mee doet; hij doet het minimaal noodzakelijke. Wij hebben bij Tesla K40 kaarten gezien dat het wel degelijk uitmaakt of ESX zo'n pci device goed kan zien. Wordt een bijna academische discussie, maar ik heb er veel mailverkeer over gehad met Josh Simons van VMware. Ging destijds over over de grootte van de BAR's. Wij wilden K40's doorgeven aan VM's, maar het PCI doorgeefluik was beperkt tot 16G. Ik had begrepen dat dit in 6.5 opgelost moest zijn.

Speaking of which....
Ik ga 'em terugrollen. Het doorgeven van mijn USB controllers lukt niet lekker. Dat wil zeggen: Windows ziet de doorgegeven USB controllers wel, maar de aangesloten devices (keyboard, mouse, el-cheapo USB sound card en Logitech camera) worden niet gezien door het guest OS. Alle toetsaanslagen gaan netjes naar de hypervisor. En dat was onder 6.0u2 niet het geval; daar kon ik de host gewoon als PC gebruiken. De grafische kaart laat zich nog steeds prima doorlussen, overigens. Perfect beeld.

Het ding is alleen zonder keyboard en mouse niet te gebruiken als desktop.

Dus, tenzij ik snel iets kan vinden op de diverse fora of [sWORDs] weer met een magische ingeving komt, ga ik even afhaken voor 6.5

BTW: [sWORDs] ontzettend bedankt voor je hulp!

p.s. voor wat achtergrond:
https://cto.vmware.com/gp...-k80-on-vmware-vsphere-6/
Je hebt door dat ik ook voor VMware werk? IOMMU doet niets met de driver op host niveau.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
hansdegit schreef op dinsdag 20 december 2016 @ 22:02:
Excuus als je de idee krijgt dat ik je afzeik of dat ik het beter weet, integendeel. 'k Wilde alleen mijn ervaring delen....

Meanwhile...Nu draait 6.0u2 weer. Helemaal opnieuw configureren voor een "schone" machine.
O, nee hoor. Ik weet alleen heel zeker dat een driver niet eens meer bij de kaart zou kunnen doordat het in een ander domein ('world') zit.

Laten we een ander voorbeeld nemen er zijn ook devices door te geven waar ESXi niet eens drivers voor heeft.

Wat betreft USB op 6.5 zou dit waarschijnlijk helpen:
code:
1
esxcli system module set -m=vmkusb -e=FALSE

[Voor 19% gewijzigd door |sWORDs| op 21-12-2016 02:01]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Top! En de CPU stats terwijl SAB aan het downloaden en extracten is terwijl je nog wat anders doet?

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 27 december 2016 @ 11:48:
[...]


dat is gewoon het esxtop commando?
kan ik vanavond wel eens laten zien ;-)
Exact

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Kijk eens bij devices welk apparaat het is en post de vid en pid eens.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op dinsdag 27 december 2016 @ 21:06:
[...]


[afbeelding]

stream, downloaden, / par / unpack / .. ja over de 1.00 maar niet direct merkbaar

[afbeelding]
Je ziet dat je daar meer dan twee keer zoveel CPU nodig hebt als dat je hebt om niets te laten wachten. Maar als alles goed aanvoelt is het prima.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
redfoxert schreef op dinsdag 27 december 2016 @ 23:49:
Hier wat raars ... gisteren mijn eerste ESXi host geupgrade via CLI, inplace, naar 6.5. Via hostprofiles een tijdje terug password resets uitgevoerd (wist ww niet meer van root maar host hing nog wel in vCenter).

Vanmiddag mn tweede host geupgrade naar 6.5 en vervolgens op beide hosts het root pwd gereset (handmatig). Als laatste stap mn vCenter VCSA een upgrade gegeven naar 6.5.

Nu is mn eerste host uit vCenter gevallen en werken zowel het root pwd als dat ik had ingesteld met de hand, als die via de hostprofiles niet meer. Er draait dan wel niks op die host (had hem leeggemigreerd) maar ik vind het wel frappant dat zowel het root pwd niet meer werkt en dat hij ook uit vCenter verdwenen is.
De volgorde is niet ok. Hoe het had gemoeten:
1) Upgrade vCenter.
2) Upgrade hosts.

En dan via een hostprofile wachtwoord pushen.

Ik heb vaker gezien dat een handmatige password change teruggezet wordt na upgrade. Snap alleen nog niet helemaal hoe en waarom dat gebeurd.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ktommel schreef op woensdag 28 december 2016 @ 13:57:
Mooi topic voor een beginner als mij.

Om stroom te sparen zouden we graag drie fysieke toestellen vervangen door één machine. Ik ben echter bang de verkeerde HW te kopen. Kan/wil iemand me aub helpen door een aanbeveling doen over de haalbaarheid van wat ik wil en de meest geschikte hardware om dat doel te bereiken ?

1. VM met Sophos XG firewall. Twee fysieke NIC's zijn noodzakelijk, de software kan 6 GB RAM gebruiken en vraagt 120 GB HD.
Je hebt geen fysieke NICs nodig voor Sophos. Je kunt gewoon met virtuele NICs werken. 6GB en 120GB heb je voor thuis echt niet nodig. Weet je zeker dat je Sophos XG wilt? Ik ben na een tijdje spelen weer terug bij pfSense. Ook is het goed om je te beseffen dat je bij maintenance of problemen dus in eens geen router hebt.
Ktommel schreef op woensdag 28 december 2016 @ 13:57:
2. VM HTPC met Kodi en Plex. De VM zou een dedicated GPU moeten hebben vermoed ik ? Ik heb een Asus Essence STX PCI sound card die ik ook graag zou hergebruiken. Op deze VM zou een externe DAC via USB moeten worden aangesloten. Toetsenbord/muis is een draadloze Logitech TK-820.
Deze VM moet Windows draaien omdat er geen Linux drivers voor de geluidskaart en de DAC beschikbaar zijn. Kan dit alles aub ?
Het kan, maar makkelijk is het niet. In het algemeen zou ik aanraden om de hometheater client kant fysiek te doen. Mocht je dit echt virtueel willen dan zit je met het probleem dat we nog niet echt weten hoe dit met een Intel te doen is. Met een nVidia Geforce gaat het sowieso niet, dan wordt het of een nVidia Quadro of een ATI kaart (en bij de ATI zijn er vaak problemen met reboots). USB passthrough is wel mogelijk, maar met 6.5 moet je het een en ander uitzetten.
Ktommel schreef op woensdag 28 december 2016 @ 13:57:
3. VM HTPC server op basis van Ubuntu 16.04 met Plex server, Roon server etc.
4. Windows Server 2012 als AD-controller, printserver edm
5. Sharepoint / SQL server om gescande documenten en elektronische documenten te visualiseren.

Bestaande omgeving :
Switch : Cisco Small Business SG-300 series.
NAS : QNAP TS 459 Pro II (ondersteunt ESX dixit handleiding)

Ik hoop dat iemand me kan helpen met de haalbaarheid aftoetsen, het aantal NIC's bepalen en een concrete HW configuratie.

Alvast bedankt !
Allemaal geen probleem. Alleen de NAS is iets waar je over na zou kunnen denken. Door een NAS voor de storage te gebruiken limiteer je het geheel nog al. Misschien is het een idee om de NAS te virtualiseren? Eventueel zou die VM dan ook item 3 kunnen doen.

Met een reactie op bovenstaande items kan ik wel zeggen wat ik ongeveer zou doen. Eigenlijk zijn jouw wensen niet heel anders dan de privé dingen bij mij. Mijn oplossing is echter wel heel anders:
Routing -> Virtuele pfSense (maar omdat ik drie ESXi hosts heb is er geen downtime bij maintenance)
Audio -> Streamen naar AVR (Denon AVR-X7200W met ingebouwde AKM VERITA AK4490 DAC kan stereo (ook direct DSD zonder conversie) via DLNA afspelen, multichannel FLAC doe ik via Denon BD met Burr Brown PCM1795 DAC)
Video -> Dune HD TV-303D met Sigma Designs SMP8672
NAS -> Virtuele Synology met schijven in VT-d. (Alleen voor media.)

Op deze manier heb ik eigenlijk alles vrij simpel en super goed, alle media komt van de NAS (en mocht ik eens SACD/BD disc hebben kan ie in de BD) en alle type media krijgen de perfect DAC/decoder voor de use case. Sigma voor video en AKM voor DSD. Het zou nog iets simpeler kunnen met een OPPO als vervanger voor de Dune/Denon BD, maar ik weet niet of het gebruiksgemak dan gelijkwaardig is.

Kodi heeft een nog betere interface, maar dat is wel erg lastig met DSD zonder conversie en 3D.

[Voor 21% gewijzigd door |sWORDs| op 28-12-2016 14:37]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Eens met Swords, ik zou je HTPC video output altijd op een los kastje houden. Je kan daar bijvoorbeeld een simpele NUC voor kopen. Super zuinig, en prima als HTPC.
Kodei (LibreElec / OpenElec) er op, en gaan met de banaan.

Je maakt je ESXi setup nodeloos ingewikkeld door GPU passthrough te gaan gebruiken.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
KillerAce_NL schreef op woensdag 28 december 2016 @ 14:36:
Hij kan ook een wat beefier htpc kopen en workstation gebruiken om wat vm's te draaien.
Passthrought etc zou ik gewoon niet aan beginnen, dat is niet de core business van virtualisatie op dit moment. Is nog redelijk niche met uitzondering van GPU gebruik voor ontwikkeling, maar dan ga je ook naar vsphere enterprise plus toe.
Ik zal mijn collectie GRID kaarten maar niet laten zien. ;)
Maar inderdaad, passthrough is eigenlijk niet wat je zou willen, maar met video wel de enige manier om goed de media op je scherm te krijgen (directe HDMI output), tenzij MMR (Multi Media Redirection, media streamen naar client en daar renderen) een optie is, maar dan zit je weer aan Windows Media Player vast en een losse client (met MMR support). Met een Quadro werkt passthrough trouwens wel prima.

[Voor 13% gewijzigd door |sWORDs| op 28-12-2016 14:43]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
KillerAce_NL schreef op woensdag 28 december 2016 @ 14:43:
Dat bedoel ik ook, ik denk dat we langs elkaar heen praten. GRID is echt business use en niet voor wat ktommel wil.
Dan denk ik dat je met XEN free wat verder komt qua GPU passthrough.
Maar dan nog zit je met zijn DAC enzo, dat wil je gewoon niet, tenzij je er echt veel tijd in wil stoppen en er vrede mee hebt dat het (soms) niet werkt.
Ik denk dat je het grapje niet helemaal snapte (waarschijnlijk was ik niet duidelijk genoeg).
Ik snapte prima wat je bedoelde, maar er zijn nogal wat meer use cases dan je beschrijft, echter natuurlijk allemaal business. Daarom vind ik het juist zo grappig dat ik een collectie van die kaarten voor thuis heb liggen.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
De OSX unlocker werkt nog niet met 6.5, dus als je een MacOS VM zou willen draaien dan lukt dat alleen op een mac Mini met ESXI 6.5 (of ouder) en overige hardware tot ESXi 6.

Edit: Inmiddels wel:

29/12/16 2.0.9 - New version to support ESXi 6.5
- Disable new hostd VMX sandbox
- Fix ESXI 6.5 libvmkctl.so patching for 32 and 64-bit versions
- Added ESXi boot option to disable unlocker (nounlocker)

In El Capitan en nieuwer zit trouwens nu ook een VMXNET3 driver.
Qua diskcontroller weet ik niet wat beter werkt, SATA of LSI Logic. Misschien moet ik het eens proberen, vNVMe zou het trouwens ook best eens kunnen doen.

[Voor 73% gewijzigd door |sWORDs| op 02-01-2017 14:22]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
rhoolwerf schreef op maandag 2 januari 2017 @ 14:09:
[...]

Mooi stukje parallel typen. Ik zou jouw eerste bericht, ik bedenk met dat ik het ergens gelezen had van wel. Dus ik zoek dat op ( https://github.com/DrDonk/unlocker ) en wil jou citeren, zie ik in de citaat jouw edit staan ;)

Ik ben benieuwd hoe goed macOS gaat werken via ESXi.. En via de doorgegeven GPU.. En dan nog met dualboot.. Ik heb nog wat uitdagingen te gaan 8)
Wat voor GPU heb je? Ik kan hier geen passthrough testen, de GRID kaarten gaan het met vGPU niet doen en met vDGA heb ik geen enkele manier om de output ergens anders te krijgen of ik moet met VNC aan de slag.
Voor dual boot zul je dan dus ook met een alternatieve bootloader (chameleon?) aan de slag moeten.

[Voor 6% gewijzigd door |sWORDs| op 02-01-2017 14:15]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
|sWORDs| schreef op dinsdag 20 december 2016 @ 14:13:
[...]

Misschien moet ik eens een post doen waarin ik laat zien hoe ik een ESXi ISO maak met alle handige tools en drivers er al in.
hansdegit schreef op dinsdag 20 december 2016 @ 14:30:
Nou, dat laatste zou ik enorm op prijs stellen!
(dit ook al hoor)

[...]
Custom ESXi ISO in Guides

En mochten er nog mensen met DSM6 op ESXi willen spelen:

Ik heb een nieuwe OVA gemaakt met de laatste Jun bootloader.
Members only:
Alleen zichtbaar voor ingelogde gebruikers. Inloggen

HW Level 10, VMXNET3 en PVSCSI.

OVA deployen, disk toevoegen (of controller), starten en wordt direct gevonden in de Assistant. PAT kun je met de hand of vanaf internet installeren en daarna de open-vm-tools die er bij zit (open-vm-tools_bromolow-6.0_10.0.7.spk) installeren. Daarna bijwerken naar update 7 werkt ook prima.







https://s29.postimg.org/wrwtca43b/Schermafbeelding_2016_12_27_om_15_13_25.png

Ik heb een paar dagen met een VMDK getest en nu vijf dagen mijn DSM5 disks (VT-d van Intel SATA controller) geüpgrade. Draait vooralsnog perfect op een SuperMicro 5028D-TN4T (met 128GB, 400GB Intel 750, 512GB Samsung 950 Pro, 4x 4TB Toshiba en 2x 480GB Samsung 843T) met ESXi 6.5.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
cat /proc/cpuinfo|grep 'model name'
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz

cat /proc/meminfo|grep -i memtotal
MemTotal:        4054424 kB

cat /etc.defaults/VERSION
majorversion="6"
minorversion="0"
productversion="6.0.2"
buildphase="hotfix"
buildnumber="8451"
smallfixnumber="7"
builddate="2016/12/20"
buildtime="05:10:40"

lspci -q|egrep -i -v 'bridge|system|unclassified'
0000:00:07.1 IDE interface: Intel Corporation 82371AB/EB/MB PIIX4 IDE (rev 01)
0000:00:0f.0 VGA compatible controller: VMware SVGA II Adapter
0000:02:05.0 SATA controller: VMware SATA AHCI controller
0000:03:00.0 Serial Attached SCSI controller: VMware PVSCSI SCSI Controller (rev 02)
0000:0b:00.0 Ethernet controller: VMware VMXNET3 Ethernet Controller (rev 01)
0000:13:00.0 SATA controller: Intel Corporation 8 Series/C220 Series Chipset Family 6-port SATA Controller 1 [AHCI mode] (rev 05)

/volume1/@appstore/open-vm-tools/bin/vmware-toolbox-cmd -v
10.0.7.52125 (build-3227872)






Wat niet uit de cache komt gaat met zo'n 400MB/s, wel uit de cache gaat met 1.1GB/s. Een extra PVSCSI volume op NVMe haalt zo'n 1.3GB/s. Verkeer buiten de host met 970MB/s (cache/NVMe). Misschien kan die 400MB/s nog omhoog met wat RAID tuning.

[Voor 186% gewijzigd door |sWORDs| op 02-01-2017 16:10]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Je hebt dus Read Caching in een VM met DSM gemaakt nu die je weer terughost naar ESXi?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op maandag 2 januari 2017 @ 16:21:
Je hebt dus Read Caching in een VM met DSM gemaakt nu die je weer terughost naar ESXi?
Nee, ik gebruik DSM eigenlijk alleen maar voor media en documenten. (voor mij is de read/write cache dus eigenlijk niet echt nuttig) VM's staan op VSAN of local NVMe.
Af en toe gebruik het ook voor NFS of iSCSI testen.

Maar het was nogal lastig om DSM6 hier überhaupt aan de praat te krijgen, vandaar de OVA die het een stuk makkelijker maakt.

[Voor 20% gewijzigd door |sWORDs| op 02-01-2017 16:33]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Waar komt dat Read Hit Rate percentage dan vandaan? Is dat Host Cache?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op maandag 2 januari 2017 @ 16:42:
Waar komt dat Read Hit Rate percentage dan vandaan? Is dat Host Cache?
Nee dat is binnen DSM, maar optioneel. In mijn geval gaat de 6 poorts SATA controller in zijn geheel aan de DSM VM. Aan die controller zitten 4 HD's en 2 SSD's. De HD's zitten in een RAID5 en gebruiken de RAID1 read/write cache van de SSD's.

[Voor 38% gewijzigd door |sWORDs| op 02-01-2017 16:45]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Ahzo, dus je hebt wel Read caching, maar niet voor ESXi, maar gewoon alleen binnen DSM :)

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op maandag 2 januari 2017 @ 16:48:
Ahzo, dus je hebt wel Read caching, maar niet voor ESXi, maar gewoon alleen binnen DSM :)
Read cache voor ESXi zou ook kunnen, maar dan moet je Virtual Flash Read Cache (vFRC) inschakelen (Enterprise Plus licentie) en de SSD's aan de host laten zitten.

[Voor 5% gewijzigd door |sWORDs| op 02-01-2017 16:54]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Als je iSCSI of NFS terug shared aan ESXi vanuit DSM is die feature niet actief?

Even niets...

Pagina: 1 2 3 ... 9


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True