Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
Mede-auteurs:
  • Microkid
  • Registratie: augustus 2000
  • Laatst online: 05:45

Microkid

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 05:56

FireDrunk

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26

HyperBart

Het grote VMware ESXi/vSphere Topic



VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.



Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).



Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
    • 1000M, 3000M, 5000
    • K2000/K4000/K5000/K6000
    • K3100M
    • K2200/K4200/K5200
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.



vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).



MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:



Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.



ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.



De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.


Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch


Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch


Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.



Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:


In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).



RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.



Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.



Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.



ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO

|sWORDs| wijzigde deze reactie 12-02-2017 18:29 (255%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50

Huishoudelijke mededelingen:

Na overleg met de oorspronkelijk topicstarters en onze *O* allerliefste adjes *O*, gaan we proberen het met één topic voor VMware ESXi/vSphere te doen. De focus ligt op het configureren van en werken met. Dit betekend niet dat we het geheel niet over standaard hardware hebben, maar laten we het tot een minimum beperken:
  • Er staat zo veel mogelijk over standaard hardware in de startpost, lees deze dus eerst volledig voor je iets over hardware vraagt.
  • Beperk hardware vragen tot een enkele post, mocht je er na antwoord op door willen gaan, doe dat dan even met degene die reageert via PM, mocht er wat interessants uitkomen dan is een samenvatting natuurlijk wel gewenst.
  • Wij proberen steeds terugkomende hardware vragen toe te voegen aan de startpost.
  • Voor alle bijzondere hardware is het natuurlijk een ander verhaal.

Sample Builds

Mini:
Dual Core (met HT) 2.3GHz Skylake NUC, 16GB geheugen en 256GB NVMe drive:

#ProductPrijsSubtotaal
1Intel NUC NUC6i3SYK€ 275,95€ 275,95
1Crucial CT2K8G4SFD8213€ 73,20€ 73,20
1Samsung 950 Pro 256GB€ 188,79€ 188,79
Bekijk collectie
Importeer producten
Totaal€ 537,94
Small:
3.3 GHz Dual Core Skylake met 32GB geheugen en 960GB SATA SSD:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K8G4DFD8213€ 71,95€ 143,90
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Sandisk Ultra II SSD 960GB€ 231,67€ 231,67
Bekijk collectie
Importeer producten
Totaal€ 636,80
Medium:
Quad Core 2.7GHz Skylake i5, 64GB geheugen en 512GB NVMe:

#ProductPrijsSubtotaal
1Intel Core i5-6400 Boxed€ 178,90€ 178,90
1Asus Q170M2€ 143,81€ 143,81
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K16G4DFD824A€ 135,10€ 270,20
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 950 Pro 512GB€ 330,45€ 330,45
Bekijk collectie
Importeer producten
Totaal€ 1.047,69
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 292,10€ 292,10
1Supermicro X11SSL-F€ 204,75€ 204,75
1Supermicro 731I-300€ 100,84€ 100,84
4Kingston KTH-PL424S/16G€ 108,92€ 435,68
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 311,62€ 311,62
Bekijk collectie
Importeer producten
Totaal€ 1.344,99
Large:
Dual 10 Core (met HT) 2.2GHz Xeon E5, 128GB geheugen en 1.2TB NVMe:

(Afbeelding met andere koelers, K2 en Asus bord)
#ProductPrijsSubtotaal
2Intel Xeon E5-2630 v4 Boxed€ 699,-€ 1.398,-
1Supermicro X10DRL-i€ 353,78€ 353,78
1Phanteks Enthoo Pro Window Zwart€ 98,-€ 98,-
2Noctua NH-U9DXi4€ 54,-€ 108,-
8Samsung M393A2G40DB0-CPB€ 78,-€ 624,-
1Seasonic M12II Evo 620W€ 75,95€ 75,95
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 771,76€ 771,76
Bekijk collectie
Importeer producten
Totaal€ 3.429,49
Extra Large:
Vier node elk 2.1 GHz 8 core (met HT) Xeon-D VSAN Cluster, 64GB geheugen en 1TB datatier:

#ProductPrijsSubtotaal
4Patriot Memory Tab 8GB€ 6,79€ 27,16
1D-Link DXS-1210-10TS€ 795,71€ 795,71
4Supermicro SYS-5028D-TN4T€ 1.376,15€ 5.504,60
8Samsung M393A4K40BB1-CRC€ 150,-€ 1.200,-
4Addonics ADM2PX4 M2 PCIe SSD adapter€ 23,05€ 92,20
4Samsung 960 EVO 1TB€ 444,-€ 1.776,-
4Samsung SM961 128GB€ 97,50€ 390,-
Bekijk collectie
Importeer producten
Totaal€ 9.785,67

Let op dat de BIOS naar 1.1c geflashed dient te worden voor er VM's aangemaakt worden en de switch (58dB) niet geschikt is voor een kantoor of dichtbij een woon/slaapkamer. (Fans zijn niet te vervangen, waarschijnlijk checked de switch de fan RPM speed bij opstarten.)

|sWORDs| wijzigde deze reactie 12-11-2016 12:11 (255%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50

Guides

Passthrough van Intel AHCI Controller:
  1. Login op de ssh console:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    esxcli storage core adapter list
    HBA Name  Driver      Link State  UID           Capabilities  Description                                                                     
    --------  ----------  ----------  ------------  ------------  --------------------------------------------------------------------------------
    vmhba0    ahci        link-n/a    sata.vmhba0                 (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba2    nvme        link-n/a    pscsi.vmhba2                (0000:02:00.0) Samsung Electronics Co Ltd <class> Non-Volatile memory controller
    vmhba3    intel-nvme  link-n/a    pscsi.vmhba3                (0000:82:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba4    intel-nvme  link-n/a    pscsi.vmhba4                (0000:81:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba32   ahci        link-n/a    sata.vmhba32                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba33   ahci        link-n/a    sata.vmhba33                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba34   ahci        link-n/a    sata.vmhba34                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller

    Hier zie je de poorten van de Intel en de PCI ID (0000:00:11.4), dit zijn er normaal twee (bij X?9/C6??, andere chipsets één), maar ik heb de 6 poorts al doorgegeven.
  2. code:
    1
    2
    
    lspci -n |grep 0000:00:11.4
    0000:00:11.4 Class 0106: 8086:8d62 [vmhba0]

    Hier zie je jouw PID (8d62)
  3. Dan zet je die onderin /etc/vmware/passthru.map.
    code:
    1
    
     8086  [PID]  d3d0     false

    Hele file bij mij:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    
    # passthrough attributes for devices                                                                                                                                                                         
    # file format: vendor-id device-id resetMethod fptShareable                                                                                                                                                  
    # vendor/device id: xxxx (in hex) (ffff can be used for wildchar match)                                                                                                                                      
    # reset methods: flr, d3d0, link, bridge, default                                                                                                                                                            
    # fptShareable: true/default, false                                                                                                                                                                          
                                                                                                                                                                                                                 
    # Intel 82598 10Gig cards can be reset with d3d0                                                                                                                                                             
    8086  10b6  d3d0     default                                                                                                                                                                                 
    8086  10c6  d3d0     default                                                                                                                                                                                 
    8086  10c7  d3d0     default                                                                                                                                                                                 
    8086  10c8  d3d0     default                                                                                                                                                                                 
    8086  10dd  d3d0     default                                                                                                                                                                                 
    # Broadcom 57710/57711/57712 10Gig cards are not shareable                                                                                                                                                   
    14e4  164e  default  false                                                                                                                                                                                   
    14e4  164f  default  false                                                                                                                                                                                   
    14e4  1650  default  false                                                                                                                                                                                   
    14e4  1662  link     false                                                                                                                                                                                   
    # Qlogic 8Gb FC card can not be shared                                                                                                                                                                       
    1077  2532  default  false                                                                                                                                                                                   
    # LSILogic 1068 based SAS controllers                                                                                                                                                                        
    1000  0056  d3d0     default                                                                                                                                                                                 
    1000  0058  d3d0     default                                                                                                                                                                                 
    # NVIDIA                                                                                                                                                                                                     
    10de  ffff  bridge   false                                                                                                                                                                                   
    # Intel Wellsburg AHCI                                                                                                                                                                                       
    8086  8d62  d3d0     false                                                                                                                                                                                   
    8086  8d02  d3d0     false
  4. En reboot, daarna kun je hem gewoon in passthrough zetten (indien er geen datastore op in gebruik is/het jouw bootdevice bevat):
    https://tweakers.net/ext/f/sUogKr8PH1zpEnKd90CfimAt/full.png
  5. Nog een reboot en je kunt m doorgeven aan een VM en niet vergeten om op die VM reserve all memory te doen:

    https://tweakers.net/ext/f/FEmlT03ziteQuNPBx632KGHG/full.png



    https://tweakers.net/ext/f/sxqyDXwfjaAFm4uyqF9sakQx/full.png
XPenology (Synology DSM) op ESXi:
1) Installeer OSFMount en open xpenology.img FAT partitie zonder readonly:





2) Bewerk syslinux.cfg zodat op elke append regel er
code:
1
 sn=[SN} mac1=[MAC_ZONDER_DUBBELE_PUNT] rmmod=ata_piix

bij komt te staan met een SN en MAC uit deze excel file en save de file en unmount en sluit OSFMount:


3) Installeer StarWind Converter en converteer de IMG naar VMDK en plaats deze op een datastore.



4) Maak nu een nieuwe VM met een VMXNET3 NIC die je dezelfde MAC geeft, een existing harddisk op een IDE controller, die je wijst naar de VMDK op de datastore.

https://tweakers.net/ext/f/elYinEeHDT8S6COR1LM7yjBf/full.png

5) Nu kun je of een PVSCSI virtuele data disk maken of een controller in passthrough (zie hier voor Intel) toevoegen. Hierna schakel je de VM in.


6) Gebruik http://find.synology.com of Synology Assistent om de PAT file te installeren.


7) Installeer open-vm-tools via Package Center en stel je updates zo in dat alleen DSM5 patches binnen komen en hij vraagt voor updates.

Custom ESXi ISO:
  1. Neem een Windows machine en installeer PowerCLI 6.5.
  2. Maak een folder C:\VIB en plaats alle VIB files die je toe wil voegen.
  3. Voorbeeld C:\VIB:
    • intel-nvme-1.0e.2.0-1OEM.550.0.0.1391871.x86_64.vib (Intel P3xx0/750 drivers)
    • intel-passthrough-1.0.0-01.x86_64.vib (Mijn VIB om passthrough van Intel mogelijk te maken)
    • intel_ssd_data_center_tool-3.0.2-400.vib (Beheertool voor Intel P3xx0/750)
    • net-ixgbe_4.4.1-1OEM.600.0.0.2159203.vib (Nieuwe Intel 10Gbit driver versie voor o.a. X552)
    • vmware-esx-storcli-1.20.15.vib (Beheertool voor LSI)
  4. Start PowerCLI en sleep ESXi-Customizer-PS-v2.5.ps1 in het venster.
  5. Voeg nu de parameters toe, voorbeeld voor alle drivers compatible met 6.5:
  6. code:
    1
    
    C:\Users\Administrator\Downloads\ESXi-Customizer-PS-v2.5.ps1 -vft -load sata-xahci,net55-r8168,net51-r8169,net-forcedeth-1,net51-sky2 -pkgDir C:\VIB -nsc -force
  7. Naast de ps1 file staat nu een ISO met alles er in

|sWORDs| wijzigde deze reactie 07-05-2017 10:40 (255%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset

*O* *O* *O* *O* Feest! Een nieuw topic! *O* *O* *O* *O*

FireDrunk wijzigde deze reactie 13-10-2016 08:39 (21%)

Even niets...


  • Hero of Time
  • Registratie: oktober 2004
  • Laatst online: 22:16

Hero of Time

Moderator NOS

There is only one Legend

Prachtig topic. Jammer alleen dat het in het verkeerde forum is gezet. ESXi is en blijft Serversoftware. Dus, NOS -> SWS.

Spekkies | Commandline FTW


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Hero of Time schreef op donderdag 13 oktober 2016 @ 09:05:
Prachtig topic. Jammer alleen dat het in het verkeerde forum is gezet. ESXi is en blijft Serversoftware. Dus, NOS -> SWS.
Er waren drie mogelijk plekken afhankelijk van hoe je het bekijkt, eentje valt er nu dus af, bedankt voor de move!

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
Leuk! Jammer dat we het nog niet over de nieuwe beta mogen hebben, zitten wel wat mooie zaken in ;)

Me Tarzan, U nix!


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
Deze stond opeens tussen mijn lijst van topics waar ik al in gepost had. Leuk initiatief swords!

Vandaag even niets


  • YellowOnline
  • Registratie: januari 2005
  • Laatst online: 21:56

YellowOnline

BEATI PAVPERES SPIRITV

PowerCLI scripts blijven in Het grote Powershell topic of niet? :)

Intel i7 8700K | G.Skill SniperX 3200MHz 2x8GB | MSI Z370 PC Pro | Gainward GTX 1070 | Fractal Design Define XL | LG BH10LS30 | Cherry MX Red | Logitech G500 | Thermaltake Smart M850W | Logitech X-530 | LG 34UM58 | Samsung EVO 500GB | 2x Seagate 4TB


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
HyperBart schreef op donderdag 13 oktober 2016 @ 12:13:
Deze stond opeens tussen mijn lijst van topics waar ik al in gepost had. Leuk initiatief swords!
Sorry, ik zie nu pas dat jij nog helemaal niet in het lieve adjes topic had gereageerd!
quote:
Lijkt me wel handiger, maar als daar hele goede tussen zitten kan ik ze natuurlijk bij de guides linken.

|sWORDs| wijzigde deze reactie 13-10-2016 12:21 (34%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
Geen probleem, TS is al heel compleet, top!

Vandaag even niets


  • pitchdown
  • Registratie: oktober 2002
  • Laatst online: 20:22
Top topic. gaat zeker meerwaarde bieden !

  • OMX2000
  • Registratie: januari 2001
  • Laatst online: 00:00

OMX2000

By any means necessary...

Dikke kudos!!!!

  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
Mooie aankondiging net van VMware en AWS. Je kan (in de loop van volgend jaar), je vSphere omgeving uitbreiden naar AWS, o.a. met de mogelijkheid om direct een vMotion te doen naar AWS. Dat is pas een voorbeeld van schaalbaarheid en de cloud echt praktisch maken!

Me Tarzan, U nix!


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
Mochten er nog mensen naar VMworld Barcelona gaan en het leuk vinden even bij te kletsen, kom even langs aan het einde van mijn sessies in Hall 8.0, Room Number 44 op dinsdag om 12:00 of donderdag 13:00.
Of stuur een PM voor een andere tijd dan spreken we ergens af, ik ben een stuk minder druk dan op VMworld Las Vegas. Mocht je de sessies interessant vinden kom dan een uurtje eerder, respectievelijk:
Horizon for Linux Technical Deep Dive [EUC7453]
Everything You Need to Know About Horizon Remote Desktop Services Hosted Applications (But Probably Do Not) [EUC8725]

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • webgangster
  • Registratie: juli 2006
  • Laatst online: 12-12 12:17
Is die VMware OS Optimization Tool echt aan te raden?
Heeft dit veel invloed op grote clusters? En waar die je rekening mee te houden?

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
webgangster schreef op zaterdag 15 oktober 2016 @ 12:28:
Is die VMware OS Optimization Tool echt aan te raden?
Heeft dit veel invloed op grote clusters? En waar die je rekening mee te houden?
Ja, eigenlijk zitten er alle optimalisaties uit de guides in. Oorspronkelijk voor View, maar ik gebruik hem ook altijd voor de server templates.

Je moet even nadenken over TCP Offload (ondersteunen ALLE nics Offloading correct?) en Windows Update.

Wat ik doe bij het maken van een template:
VM met 2 sockets, 1 core per socket, 2GB (of wat je kleinste/standaard moet zijn, die groter moeten zijn kun je bij deployen aanpassen.)
PVSCSI 60GB Thin.
VMXNET3.
DVD met datastore ISO.
Floppy met PVSCSI driver.

Installeren, .net Framework 3.5 en alle C runtimes installeren, VMtools, patchen, disk clean up, disable HW accel IE, OSOT (zonder uitschakelen Offload), sdelete, ipconfig /release, power off, DVD en floppy verwijderen, boot naar BIOS, com/lpt/floppy uit. Power off. Hole punching met SSH. Customization Template maken.

Resultaat een super snelle 2012R2 template van zo'n 12GB.

Eventueel kun je nog wat met de swap rommelen en hem nog kleiner krijgen (sneller clonen), maar dat vind ik teveel gedoe. En in een grote omgeving komt er vanzelf iemand die hem patched en het vergeet.

Bij het deployen even nadenken wat er op komt, indien je per socket moet betalen (Oracle e.d), 1 socket met meerdere cores. Mocht er veel IO op komen kun je de PVSCSI queuedepth en VMXNET3 buffers/ringsize nog vergroten.

Na OSOT is rightsizing meestal de grootste winst, sinds TPS en relaxed co scheduling is de impact kleiner, maar nog steeds aanzienlijk.

Als je Cluster krap in geheugen zitten kun je met het security team overleggen en eventueel Intra-VM TPS inschakelen.

|sWORDs| wijzigde deze reactie 15-10-2016 13:15 (29%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Kavaa
  • Registratie: november 2009
  • Laatst online: 19:03
Misschien handig om nog iets van Backup mogelijkheden mee te nemen in de start post.
Zoals: https://www.veeam.com/vir...backup-solution-free.html
Gratis backup voor je VM's in de LAB / Thuis omgeving.

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
Ik wil binnenkort een nieuwe server opzetten met een hypervisor. Het is de bedoeling dat één van de VM's Windows draait en daarbij ondersteuning heeft voor hardware acceleratie d.m.v. Intel Quick Sync. Nu heb ik al gezocht of dit mogelijk is waarbij ik alleen een aantal reacties tegen kom als 'Nee, niet mogelijk' of 'Wordt aan gewerkt', maar nu weet ik dus nog niets.
Misschien dat hier iemand dus het antwoord weet: is het mogelijk om ondersteuning voor Intel Quick Sync te krijgen in een VM door middel van GPU passthrough oid? (het hoeft ook niet per se in ESXi te zijn, maar zo te zien wordt dat het vaakst gebruikt).
Intel Quick Sync zit in de Intel GPU's. Die GPU's zijn voor zover ik weet nog nooit succesvol doorgegeven aan een VM. De GPU's die wel werken zijn voor zover ik weet altijd Dedicated GPU's van NVidia of AMD.

Volgens mij hebben die ook iets vergelijkbaars als Intel Quick Sync, alleen weet ik niet hoe het heet.

Moet het perse QuickSync zijn?

Even niets...


  • Raven
  • Registratie: november 2004
  • Niet online

Raven

Marion Raven fan

"Remote Management:"

Als ik mij niet vergis hoort VMware Workstation toch ook in dat rijtje met mogelijkheden?

"ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus."

En anders iets a la pricewatch: Zalman VE300 Zilver O-) , waarbij er verschillende varianten in omloop zijn. De enige volgens PW op dit moment leverbare lijkt pricewatch: Zalman ZM-VE350 Zwart te zijn.

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
FireDrunk schreef op dinsdag 18 oktober 2016 @ 14:27:
Intel Quick Sync zit in de Intel GPU's. Die GPU's zijn voor zover ik weet nog nooit succesvol doorgegeven aan een VM. De GPU's die wel werken zijn voor zover ik weet altijd Dedicated GPU's van NVidia of AMD.

Volgens mij hebben die ook iets vergelijkbaars als Intel Quick Sync, alleen weet ik niet hoe het heet.

Moet het perse QuickSync zijn?
Er zijn E3 GPU's die doorgegeven kunnen worden.
quote:
Raven schreef op dinsdag 18 oktober 2016 @ 14:36:
"Remote Management:"

Als ik mij niet vergis hoort VMware Workstation toch ook in dat rijtje met mogelijkheden?

[...]
Er is beperkt wat mogelijk met Workstation en Fusion, maar ik zou dat meer remote display dan management noemen.

|sWORDs| wijzigde deze reactie 18-10-2016 18:21 (25%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset

quote:
|sWORDs| schreef op dinsdag 18 oktober 2016 @ 18:20:
[...]

Er zijn E3 GPU's die doorgegeven kunnen worden.
Ah tof, heb je daar een linkje van? Ik vind het zelf ook wel boeiend. Als mijn E5 (v3) dat slikt, zou dat ook wel tof zijn. Das natuurlijk geen Intel GPU, maar een onboard prutsding :+

FireDrunk wijzigde deze reactie 18-10-2016 19:29 (10%)

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
FireDrunk schreef op dinsdag 18 oktober 2016 @ 19:29:
[...]


Ah tof, heb je daar een linkje van? Ik vind het zelf ook wel boeiend. Als mijn E5 (v3) dat slikt, zou dat ook wel tof zijn. Das natuurlijk geen Intel GPU, maar een onboard prutsding :+
Oud:


Laatste toevoeging:


Het probleem is om te vinden welke chip exact supported is, momenteel kan ik dat alleen met zekerheid van de Broadwell P6300 zeggen.
Haswell P4700?
Skylake P580?

|sWORDs| wijzigde deze reactie 19-10-2016 00:09 (207%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset

Dus als ik je goed begrijp: Iris Pro, en GT2+.
GT1 en Intel HD Graphics vallen dus buiten de boot.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
FireDrunk schreef op woensdag 19 oktober 2016 @ 09:44:
Dus als ik je goed begrijp: Iris Pro, en GT2+.
GT1 en Intel HD Graphics vallen dus buiten de boot.
Dat is altijd lastig te zeggen, er is ook nog een verschil tussen supported en werkend. Het zou zo kunnen zijn dat andere chips ook werken, maar gewoon niet getest/supported zijn, de enige die ik getest kan vinden is de P6300.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
http://www.virtuallyghett...ments-in-vsphere-6-5.html

PVSCSI voor nested ESXi 6.5, ben benieuwd of de nieuwe virtual NVME ook nested werkt.
Sowieso moet PVSCSI in combinatie met de NVMe verbeteringen al een flinke stap voor nested zijn.

|sWORDs| wijzigde deze reactie 19-10-2016 18:45 (44%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:


PowerCLI Core uses Microsoft PowerShell Core and .Net Core to enable users of Linux, Mac and Docker to now use the same cmdlets which were previously only available on windows.

PowerCLI Core enables a multi-platform scripting language which will allow you to manage your VMware infrastructure on any OS. Scripts written previously against the windows version are now made portable to a number of operating systems and can simply be loaded and run on these new OS versions without change.
Doet het prima op mijn mac:



|sWORDs| wijzigde deze reactie 21-10-2016 13:00 (17%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:03

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Heeft er hier ook iemand ervaring met het mappen van een serial port op het netwerk naar een seriële poort op een VM :?

Ik heb een ESP8266 die m'n slimme meter uitleest en via een soort 'ser2net' constructie de P1 (serial) op het netwerk gooit. Op m'n desktop PC kan ik via Putty als ik kies voor 'Raw' of 'Telnet' de data prima ontvangen. Nu zie ik dat je bij ESXi ook een serial port kunt toevoegen aan een VM. Ik dacht: "Mooi, dan kloppen we daar het IP-adres en de poort in en dan krijg ik een /tty<whatever> erbij".

Maar dat lukt dus niet. Ik heb hem als volgt toegevoegd:
- Use network
- Client (VM initiates connection)
- telnet://192.168.4.17:8088 (maar met tcp:// werkt het ook niet)

Onder een W10 VM krijg ik dan netjes een 'COM1' erbij, maar als ik daar naar luister met putty dan blijft het doodstil. Firewall in ESXi al open gezet voor 'VM Serial port over network' en 'VM serial port connected to vSPC'.

Nu heb ik wat zitten zoeken, maar meestal willen mensen het andersom, dat je met putty de serial console van een VM kunt bedienen.

Kan datgene wat ik wil eigenlijk wel op deze manier? Anders moet ik toch met 'socat' o.i.d. in de VM zelf aan de gang.

ThinkPad wijzigde deze reactie 22-10-2016 11:12 (10%)

Hardware te koop | Gas besparen door CV-tuning | Elektriciteit besparen | Tweakblog

Ik kan met niet voorstellen dat de ESXi HyperVisor voor jou gaat connecten naar dat IP en een buffer voor je onderhoud wat de VM naar hartelust kan uitlezen.
Ik denk dat je dat gewoon in de VM moet doen.

Waarom wil je dat perse via de hypervisro doen? Die VM kan je toch (desnoods met een 2e NIC) in dat netwerk hangen?

De hypervisor ertussen maakt je setup alleen maar nodeloos complex?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
ThinkPad schreef op zaterdag 22 oktober 2016 @ 11:09:
Heeft er hier ook iemand ervaring met het mappen van een serial port op het netwerk naar een seriële poort op een VM :?

Ik heb een ESP8266 die m'n slimme meter uitleest en via een soort 'ser2net' constructie de P1 (serial) op het netwerk gooit. Op m'n desktop PC kan ik via Putty als ik kies voor 'Raw' of 'Telnet' de data prima ontvangen. Nu zie ik dat je bij ESXi ook een serial port kunt toevoegen aan een VM. Ik dacht: "Mooi, dan kloppen we daar het IP-adres en de poort in en dan krijg ik een /tty<whatever> erbij".

Maar dat lukt dus niet. Ik heb hem als volgt toegevoegd:
- Use network
- Client (VM initiates connection)
- telnet://192.168.4.17:8088 (maar met tcp:// werkt het ook niet)

Onder een W10 VM krijg ik dan netjes een 'COM1' erbij, maar als ik daar naar luister met putty dan blijft het doodstil. Firewall in ESXi al open gezet voor 'VM Serial port over network' en 'VM serial port connected to vSPC'.

Nu heb ik wat zitten zoeken, maar meestal willen mensen het andersom, dat je met putty de serial console van een VM kunt bedienen.

Kan datgene wat ik wil eigenlijk wel op deze manier? Anders moet ik toch met 'socat' o.i.d. in de VM zelf aan de gang.
Raw zou tcp zijn, telnet = telnet.
Kan het hier morgen wel eens met een globalcache proberen, maar vanuit VM moet zeker werken.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:03

ThinkPad

Moderator Duurzame Energie & Domotica

L460

quote:
|sWORDs| schreef op zaterdag 22 oktober 2016 @ 20:30:
[...]

Raw zou tcp zijn, telnet = telnet.
Kan het hier morgen wel eens met een globalcache proberen, maar vanuit VM moet zeker werken.
Ben benieuwd. Deze persoon heeft precies hetzelfde probleem: https://community.spicewo...l-ports-in-vsphere-esxi-5

Zijn conclusie:
quote:
It looks like the ability to have a network serial port (aka serial port server) work as a virtual serial port in a VM is a feature that's only available to VMWare Enterprise (or above) licensed ESXi servers. My lowly VMWare Standard license just isn't good enough for it.
:/

Hardware te koop | Gas besparen door CV-tuning | Elektriciteit besparen | Tweakblog

Dat is vrij simpel te testen, gewoon een trial aanvragen, en je serial even omzetten. (of een kale installatie op een losse USB stick doen, en het even testen).

Out of the box staat alles aan.

Even niets...


  • JoWannes
  • Registratie: juni 2007
  • Laatst online: 09-12 11:48
Heeft iemand van jullie deze deal kunnen bemachtigen?
pricewatch: HP 280 G2 MT V7Q82EA

Die prijs bij Webstore.be daar... Gisteravond had ik dat gezien, dacht direct aan een ESXi bakje, mits wat extra geheugen erin. Tegen dat ik wat info opgezocht had of ESXi daar nu wel of niet op zou werken (niet officieel, maar zou moeten werken; heb ik begrepen), was ie niet meer te bestellen. ;(

Zou nu graag weten of ze 'm uitleveren of niet. :)

i5 8600K, Corsair 16GB DDR4-3000, Asrock Z370 Extreme 4, MSI GTX980Ti, SM951 256GB NVMe, MX500 500GB, 840 EVO 250GB, 2x 3TB WD Black, SoundBlaster Z, Corsair RM650i & Carbide 400R & Vengeance K60, Logitech G502, Acer XB270HU


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
quote:
FireDrunk schreef op dinsdag 18 oktober 2016 @ 14:27:
Intel Quick Sync zit in de Intel GPU's. Die GPU's zijn voor zover ik weet nog nooit succesvol doorgegeven aan een VM. De GPU's die wel werken zijn voor zover ik weet altijd Dedicated GPU's van NVidia of AMD.

Volgens mij hebben die ook iets vergelijkbaars als Intel Quick Sync, alleen weet ik niet hoe het heet.

Moet het perse QuickSync zijn?
Het idee is om Blue Iris te draaien welke alleen HA ondersteuning heeft d.m.v. Intel QuickSync. Dus voor wat ik in gedachte heb: ja.
Helaas is Blue Iris alleen beschikbaar voor Windows, maar ik wil ook een Linux server draaien.
Ik kwam op Reddit tegen dat in Proxmox de Intel GPU wel werkt d.m.v. passthrough, maar de vraag is dan of QuickSync nog werkt. Ik vrees van niet dus vandaar dat ik op zoek ben naar iemand die het uit ervaring kan zeggen, maar die blijken er niet veel te zijn.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
Met vDGA moet QuickSync werken. Het is alleen erg onduidelijk welke chips met vDGA werken en of het lukt zonder tweede GPU zoals een Aspeed voor de console.

Dan zit je nog met probleem drie, de borden waarop het waarschijnlijk werkt hebben geen outputs aan de Intel GPU, dan heb je dus of VMware View nodig om hem in te richten of eerst inrichten, dan doorgegeven. En bij onderhoud eerst weer loskoppelen.

|sWORDs| wijzigde deze reactie 27-10-2016 21:29 (72%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:03

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Wat gebruiken jullie eigenlijk voor backup van jullie ESXi free server? Ik gebruik ghettoVCB wat opzich prima werkt. Ik roep hem aan via SSH vanaf een andere machine waar ik het in de cron heb gezet. De backups schrijft hij dan weg naar een NFS-share die wordt aangeboden door m'n XPEnology VM.

Veeam ofzo is mooi, maar werkt dus niet met ESXi free :-(

Hardware te koop | Gas besparen door CV-tuning | Elektriciteit besparen | Tweakblog

Ik backup mijn VM's niet :) Is alleen maar speeltuin.

Even niets...


  • Microkid
  • Registratie: augustus 2000
  • Laatst online: 05:45

Microkid

Frontpage Admin / Moderator PW

Virtualisatie dictator

Topicstarter
quote:
ThinkPad schreef op zondag 30 oktober 2016 @ 16:28:
Wat gebruiken jullie eigenlijk voor backup van jullie ESXi free server? Ik gebruik ghettoVCB wat opzich prima werkt. Ik roep hem aan via SSH vanaf een andere machine waar ik het in de cron heb gezet. De backups schrijft hij dan weg naar een NFS-share die wordt aangeboden door m'n XPEnology VM.

Veeam ofzo is mooi, maar werkt dus niet met ESXi free :-(
Ik kan dat op de site van Veeam niet vinden dat het niet zou werken met ESXi free. Waar staat dat?

Edit: al gevonden: https://www.veeam.com/blog/veeam-and-free-esxi.html

Microkid wijzigde deze reactie 30-10-2016 20:22 (6%)

2400Wp zonnestroom
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
|sWORDs| schreef op donderdag 27 oktober 2016 @ 21:17:
Met vDGA moet QuickSync werken. Het is alleen erg onduidelijk welke chips met vDGA werken en of het lukt zonder tweede GPU zoals een Aspeed voor de console.
Omdat ik best nieuwsgierig ben wat er wel of niet werkt, zit ik er over na te denken om een 1245v5 met een C236 bord te halen en het te testen. Als ik daarna de G4500 en G3900 test dan hebben we de HD Graphics P530, 530 en 510 getest.
Mocht de P530 niet werken hebben de anderen geen zin en mocht de 530 niet werken heeft de 510 geen zin.

Wie heeft er belang bij een G4500 of G3900?
Wie heeft er belang bij een 1245v5, C236 bord en geheugen?

|sWORDs| wijzigde deze reactie 31-10-2016 10:28 (21%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • stuffer
  • Registratie: juli 2009
  • Laatst online: 10-12 23:05
quote:
ThinkPad schreef op zondag 30 oktober 2016 @ 16:28:
Wat gebruiken jullie eigenlijk voor backup van jullie ESXi free server? Ik gebruik ghettoVCB wat opzich prima werkt. Ik roep hem aan via SSH vanaf een andere machine waar ik het in de cron heb gezet. De backups schrijft hij dan weg naar een NFS-share die wordt aangeboden door m'n XPEnology VM.

Veeam ofzo is mooi, maar werkt dus niet met ESXi free :-(
1 keer een copy van de VM's fysiek gemaakt en nu alleen maar dagelijks de configs en db's van de verschillende servers. Niet echt heel spannend maar werkt voor mij het snelst en makkelijkst.

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
** Niks **


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
quote:
|sWORDs| schreef op maandag 31 oktober 2016 @ 10:22:
[...]

Omdat ik best nieuwsgierig ben wat er wel of niet werkt, zit ik er over na te denken om een 1245v5 met een C236 bord te halen en het te testen. Als ik daarna de G4500 en G3900 test dan hebben we de HD Graphics P530, 530 en 510 getest.
Mocht de P530 niet werken hebben de anderen geen zin en mocht de 530 niet werken heeft de 510 geen zin.

Wie heeft er belang bij een G4500 of G3900?
Wie heeft er belang bij een 1245v5, C236 bord en geheugen?
Ik heb er verder geen verstand van dus ik ga me niet mengen in de keuze, maar ik ben natuurlijk wel benieuwd naar de resultaten. Mocht je dit gaan testen, zou je dan ook andere virtualisatie software (KVM/Proxmox) kunnen testen? Dan is het helemaal duidelijk wat er wel en niet werkt :) .

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Snippo schreef op maandag 31 oktober 2016 @ 13:21:
[...]

Ik heb er verder geen verstand van dus ik ga me niet mengen in de keuze, maar ik ben natuurlijk wel benieuwd naar de resultaten. Mocht je dit gaan testen, zou je dan ook andere virtualisatie software (KVM/Proxmox) kunnen testen? Dan is het helemaal duidelijk wat er wel en niet werkt :) .
De keuzes zijn vrij simpel:

De grootste kans op een werkende oplossing is op een bord met onboard VGA, vandaar een C23x bord.
De goedkoopste CPU met een 510 die werkt op C23x is een G3900.
De goedkoopste CPU met een 530 die werkt op C23x is een G4500.

De enige die mogelijk vreemd oogt is de CPU met een P530, de 1245, omdat de 1225 en 1235L iets goedkoper zijn. Qua prijs prestaties vind ik de 1245 van dat rijtje de meest logische keuze en de combinatie die waarschijnlijk het makkelijkst in V&A weer van de hand te doen is.

Een P580 bemachtigen gaat erg duur en lastig worden, met name omdat deze volgens mij alleen gesoldeerd op een bord komt, ergens rond de 1100 euro. Nou is een P580 ook niet echt een logische keuze voor vDGA (GVT-d), meer voor GVT-g, maar dat wordt sowieso nog niet op ESXi ondersteund.

Chip510530P530P580
EUs12242472
Clock300350350350
Boost950115010501100
EDRAMNeeNeeNeeJa

|sWORDs| wijzigde deze reactie 31-10-2016 14:38 (42%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
quote:
|sWORDs| schreef op maandag 31 oktober 2016 @ 13:38:
[...]

De keuzes zijn vrij simpel:

De grootste kans op een werkende oplossing is op een bord met onboard VGA, vandaar een C23x bord.
De goedkoopste CPU met een 510 die werkt op C23x is een G3900.
De goedkoopste CPU met een 530 die werkt op C23x is een G4500.

De enige die mogelijk vreemd oogt is de CPU met een P530, de 1245, omdat de 1225 en 1235L iets goedkoper zijn. Qua prijs prestaties vind ik de 1245 van dat rijtje de meest logische keuze en de combinatie die waarschijnlijk het makkelijkst in V&A weer van de hand te doen is.

Een P580 bemachtigen gaat erg duur en lastig worden, met name omdat deze volgens mij alleen gesoldeerd op een bord komt, ergens rond de 1100 euro. Nou is een P580 ook niet echt een logische keuze voor vDGA (GVT-d), meer voor GVT-g, maar dat wordt sowieso nog niet op ESXi ondersteund.

Chip510530P530P580
EUs12242472
Clock300350350350
Boost950115010501100
EDRAMNeeNeeNeeJa
Ok, klinkt logisch zo :) . Een moederbord en CPU voor 1100 euro gaat het sowieso niet worden voor mij, want het is maar 'hobby'. Het moet natuurlijk wel iets degelijks zijn maar dat gaat me iets te ver :+ .
Zou er nog verschil zitten tussen onboard VGA en een aparte videokaart om dit werkend te krijgen? Ik gok dat onboard VGA beter ondersteund wordt?

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Snippo schreef op maandag 31 oktober 2016 @ 16:04:
[...]


Ok, klinkt logisch zo :) . Een moederbord en CPU voor 1100 euro gaat het sowieso niet worden voor mij, want het is maar 'hobby'. Het moet natuurlijk wel iets degelijks zijn maar dat gaat me iets te ver :+ .
Zou er nog verschil zitten tussen onboard VGA en een aparte videokaart om dit werkend te krijgen? Ik gok dat onboard VGA beter ondersteund wordt?
Nee, in principe moet dat werken, echter zou je dan weer liever de aparte videokaart doorgegeven en niet de Intel, dus ik zie het nut daarvan niet echt. Als je dan toch een videokaart koopt neem dan een AMD en geef die door.

In theorie is het ook mogelijk met alleen de Intel en dan de console loskoppelen, maar omdat nou als eerste test te gaan doen.. Als het werkt is het super, werkt het niet dan weet je nog niets.

|sWORDs| wijzigde deze reactie 31-10-2016 16:30 (12%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • YellowOnline
  • Registratie: januari 2005
  • Laatst online: 21:56

YellowOnline

BEATI PAVPERES SPIRITV

Zo, ik heb mijn DC thuis omgeschakeld naar Windows Server 2016. Ik heb van de gelegenheid gebruik gemaakt om op mijn server een ESX 6.0 te installeren. Tevens heb ik ontdekt dat VMware Workstation (helaas geen licentie op werk) geweldig goed aansluit op ESX.



Bij het installeren werd mijn RAID controller herkend (LSI MegaRAID), maar mijn NIC niet. Gelukkig was er deze blogpost van Andreas Peetz om met behulp van PowerCLI (dat ik als Powersheller sowieso geïnstalleerd heb) een customized image met de juiste Realtek drivers te maken.

Enige dat mij nog rest te doen is een manier vinden om aan mijn data te komen. Vroeger was DISK1 Windows en RAID1 Data. DISK1 is nu ESX, maar mijn data (5TB) staat natuurlijk nog steeds op die RAID1 en out of the box is dat niet zichtbaar voor hosts. :+ Kan ik dat op een of andere manier 'raw' aanbieden? Hmz.

Intel i7 8700K | G.Skill SniperX 3200MHz 2x8GB | MSI Z370 PC Pro | Gainward GTX 1070 | Fractal Design Define XL | LG BH10LS30 | Cherry MX Red | Logitech G500 | Thermaltake Smart M850W | Logitech X-530 | LG 34UM58 | Samsung EVO 500GB | 2x Seagate 4TB


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
Ik vond net dit topic op het internet waarin wordt aangegeven dat het niet werkt:
https://hardforum.com/thr...sync-and-hyper-v.1912054/

Brengt vDGA hier verandering in?

Ik heb me weer iets op de hals gehaald waar ik de ballen verstand van heb :+

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
YellowOnline schreef op maandag 31 oktober 2016 @ 20:30:
Zo, ik heb mijn DC thuis omgeschakeld naar Windows Server 2016. Ik heb van de gelegenheid gebruik gemaakt om op mijn server een ESX 6.0 te installeren. Tevens heb ik ontdekt dat VMware Workstation (helaas geen licentie op werk) geweldig goed aansluit op ESX.

[afbeelding]

Bij het installeren werd mijn RAID controller herkend (LSI MegaRAID), maar mijn NIC niet. Gelukkig was er deze blogpost van Andreas Peetz om met behulp van PowerCLI (dat ik als Powersheller sowieso geïnstalleerd heb) een customized image met de juiste Realtek drivers te maken.

Enige dat mij nog rest te doen is een manier vinden om aan mijn data te komen. Vroeger was DISK1 Windows en RAID1 Data. DISK1 is nu ESX, maar mijn data (5TB) staat natuurlijk nog steeds op die RAID1 en out of the box is dat niet zichtbaar voor hosts. :+ Kan ik dat op een of andere manier 'raw' aanbieden? Hmz.
RDM
quote:
Snippo schreef op dinsdag 01 november 2016 @ 11:02:
Ik vond net dit topic op het internet waarin wordt aangegeven dat het niet werkt:
https://hardforum.com/thr...sync-and-hyper-v.1912054/

Brengt vDGA hier verandering in?

Ik heb me weer iets op de hals gehaald waar ik de ballen verstand van heb :+
VMware vDGA (Intel GVT-d) gebruikt IOMMU (Intel VT-d) en daar gaat het niet voor op:


Lees IOMMU en vDGA Passthrough met VT-d/IOMMU even door, dan snap je waarom alles van een GPU beschikbaar is.

|sWORDs| wijzigde deze reactie 01-11-2016 12:25 (77%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

|sWORDs| wijzigde deze reactie 07-11-2016 01:16 (39%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset

Nice!

Even niets...


  • Xmoo
  • Registratie: december 2009
  • Laatst online: 11-12 12:02

Xmoo

Ever seen a beast like me?!?!

Iemand hier ervaring met audio en ESXi?

Ik heb een ESXi 6.0 machine, hier draai ik een aantal servers op.
Sinds kort draai ik er ook een workstation op (Win10) en dmv USB (onboard) en GPU (Nvidia Quadro 5000) passthrough gebruik ik dit als mijn Workstation. Nu werkt alles goed, van gamen tot aansluiten van externe hardeschijf. Enige wat ontbreek is geluid. Ik zit eraan te denken om een PCI geluidskaart te gaan kopen en die dmv passthrough te koppelen aan dat workstation VM.

Mensen die hier ervaring mee hebben? Moet een PCI geluidskaart zijn die Windows 10 ondersteund.

http://www.Twitter.com/Xmoo

Er zijn wel een paar PCIe Geluidskaarten, dus ik verwacht dat die allemaal gewoon door te geven zijn.

USB kan ook wel, maar echt goede USB geluidskaarten zijn zeldzaam.

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
quote:
|sWORDs| schreef op maandag 07 november 2016 @ 01:11:
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[afbeelding]
Nice swords!

Vandaag even niets


  • MuVo
  • Registratie: februari 2008
  • Laatst online: 23:05
Welicht interssant voor dit topic, wil het graag delen:
MuVo in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 138" :)
quote:
Xmoo schreef op donderdag 10 november 2016 @ 11:54:
Iemand hier ervaring met audio en ESXi?

Ik heb een ESXi 6.0 machine, hier draai ik een aantal servers op.
Sinds kort draai ik er ook een workstation op (Win10) en dmv USB (onboard) en GPU (Nvidia Quadro 5000) passthrough gebruik ik dit als mijn Workstation. Nu werkt alles goed, van gamen tot aansluiten van externe hardeschijf. Enige wat ontbreek is geluid. Ik zit eraan te denken om een PCI geluidskaart te gaan kopen en die dmv passthrough te koppelen aan dat workstation VM.

Mensen die hier ervaring mee hebben? Moet een PCI geluidskaart zijn die Windows 10 ondersteund.
Voor mijn game VM gebruik ik een Logitech G35 headset (USB met geluidskaart volgens mij) met een pci USB3 controller.
In mijn installatie had ik eerst problemen met haperend geluid, stotterend bij hoge belasting tijdens het gamen.
Nu heb ik dit opgelost door Windows 10 VM te herinstalleren, maar ook mijn onboard geluidskaart uit te schakelen. (ik kan niet aantonen of de problemen door de onboard geluidskaart komen).

Een USB geluidskaart kan ook werken, in mijn geval aangsloten op een PCIE usb3 controller die ik heb toegevoegd via pass-through.

  • Xmoo
  • Registratie: december 2009
  • Laatst online: 11-12 12:02

Xmoo

Ever seen a beast like me?!?!

quote:
MuVo schreef op vrijdag 11 november 2016 @ 10:23:
Welicht interssant voor dit topic, wil het graag delen:
MuVo in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 138" :)


[...]


Voor mijn game VM gebruik ik een Logitech G35 headset (USB met geluidskaart volgens mij) met een pci USB3 controller.
In mijn installatie had ik eerst problemen met haperend geluid, stotterend bij hoge belasting tijdens het gamen.
Nu heb ik dit opgelost door Windows 10 VM te herinstalleren, maar ook mijn onboard geluidskaart uit te schakelen. (ik kan niet aantonen of de problemen door de onboard geluidskaart komen).

Een USB geluidskaart kan ook werken, in mijn geval aangsloten op een PCIE usb3 controller die ik heb toegevoegd via pass-through.
Thanks. Ik krijg als het goed is vandaag mijn USB audio adapter binnen. Gelijk proberen.

http://www.Twitter.com/Xmoo


  • Tomsworld
  • Registratie: maart 2001
  • Niet online

Tomsworld

officieel ele fan :*

Prachtige startpost, ook mooi voor die builds maar zou je die niet kunnen uitbreiden. Vooral verbruik onder idle 50 en 100 % misschien ook enkele extra builds opnemen.

"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Tomsworld schreef op zondag 13 november 2016 @ 23:36:
Prachtige startpost, ook mooi voor die builds maar zou je die niet kunnen uitbreiden. Vooral verbruik onder idle 50 en 100 % misschien ook enkele extra builds opnemen.
Kun je uitleggen wat je precies zou willen zien?

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • renedis
  • Registratie: juli 2003
  • Laatst online: 09-12 20:56
Ik denk dat hij van de genoemde setups graag idle verbruik wilt zien, 50% belasting verbruik en 100% belasting verbruik..

Edit:
Waarom moet je bij de Intel AHCI passthrough de VM op reserved memory zetten?

renedis wijzigde deze reactie 14-11-2016 12:11 (26%)


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
quote:
renedis schreef op maandag 14 november 2016 @ 12:08:
Waarom moet je bij de Intel AHCI passthrough de VM op reserved memory zetten?
Dat is bij iedere doormapping van PCIe devices via VT-d zo, niet alleen bij Intel AHCI.

https://kb.vmware.com/sel...playKC&externalId=1010789

Vandaag even niets


  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
Welke software adviseren jullie voor shared storage? Natuurlijk in combinatie met ESXi.

MvL wijzigde deze reactie 14-11-2016 13:00 (25%)

Shared storage als in, cluster software? Of gewoon NFS, iSCSI, FC of Local Storage?

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
quote:
MvL schreef op maandag 14 november 2016 @ 12:58:
Welke software adviseren jullie voor shared storage? Natuurlijk in combinatie met ESXi.
Welke voertuig adviseer je voor mee te rijden als persoon? Natuurlijk een diesel.

Dat is zo een beetje de vraag die je hier nu neergooit :+ .

Wat wil je bereiken? Thuis of professioneler?

Vandaag even niets


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 22:50
quote:
|sWORDs| schreef op maandag 07 november 2016 @ 01:11:
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[afbeelding]
Is dit om QuickSync werkend te krijgen?

  • Andre_J
  • Registratie: september 2005
  • Laatst online: 12-12 15:23
Vraagje voor ik 't drop bij de support van VMware...
Sinds kort hebben we onze hosts in ons AD-Domein gehangen.
Dit gaat deels goed, echter na een tijdje hebben een aantal geen AD verbinding meer.
Tot op heden nog geen reden kunnen vinden.
Tips ?
quote:
Snippo schreef op maandag 14 november 2016 @ 14:15:
[...]

Is dit om QuickSync werkend te krijgen?
Nee, dit is om AHCI controllers werkend te krijgen, die by-default niet door VMware herkend worden.
quote:
Andre_J schreef op maandag 14 november 2016 @ 14:40:
Vraagje voor ik 't drop bij de support van VMware...
Sinds kort hebben we onze hosts in ons AD-Domein gehangen.
Dit gaat deels goed, echter na een tijdje hebben een aantal geen AD verbinding meer.
Tot op heden nog geen reden kunnen vinden.
Tips ?
Af en toe de management agents herstarten?

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Andre_J schreef op maandag 14 november 2016 @ 14:40:
Vraagje voor ik 't drop bij de support van VMware...
Sinds kort hebben we onze hosts in ons AD-Domein gehangen.
Dit gaat deels goed, echter na een tijdje hebben een aantal geen AD verbinding meer.
Tot op heden nog geen reden kunnen vinden.
Tips ?
Zelfde NTP als AD controller? En welke versie van ESXi? Ik heb nooit problemen gezien met 5.5 en nieuwer.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Andre_J
  • Registratie: september 2005
  • Laatst online: 12-12 15:23
quote:
|sWORDs| schreef op maandag 14 november 2016 @ 14:57:
[...]

Zelfde NTP als AD controller? En welke versie van ESXi? Ik heb nooit problemen gezien met 5.5 en nieuwer.
Hmm nee das een andere... daar ga ik eens naar kijken.
Versie's 5.1 t/m 5.5

  • Chest3r
  • Registratie: december 2015
  • Laatst online: 31-12-2017
Ik ben aan het kijken voor een klein VMware machinetje om wat mee te spelen.
Dacht aan volgende onderdelen, kan iemand checken? Ik denk dat het moederbord misschien niet het beste is.

ASUS H110i-PLUS
8GB Kingston
2x 2TB WD RED
1x Samsung 250GB SSD
Intel I5-6400

Heb enkel beetje een naar gevoel over het moederbord, is puur voor een paar keer met VMware te spelen en daarna zal deze verdwijnen naar een familielid. Dus hoef niet alle fancy features..

Thx

  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
quote:
HyperBart schreef op maandag 14 november 2016 @ 14:09:
[...]


Welke voertuig adviseer je voor mee te rijden als persoon? Natuurlijk een diesel.

Dat is zo een beetje de vraag die je hier nu neergooit :+ .

Wat wil je bereiken? Thuis of professioneler?
quote:
FireDrunk schreef op maandag 14 november 2016 @ 13:06:
Shared storage als in, cluster software? Of gewoon NFS, iSCSI, FC of Local Storage?
Excessen voor de wat neer gepl***** vraag. :)

Het is sowieso voor thuis gebruik.

Ik ben nu aan het testen met esxi en ik heb al een unraid server draaien. Alleen vind ik unraid niet bijster pro. Op mijn unraid staan mijn media bestanden. Ik gebruik nu nfs mounts naar de unraid server. Mijn bedoeing is unraid te vervangen voor meer professionelere software. Dan wel iets wat met smr drives werkt.

Eigenlijk wil ik ook nog een goede storage oplossing voor mijn foto's en documenten. Ik ben ook aan het kijken naar een qnap of een synology voor dit soort opslag.

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
Tja, professionele software, dat is ook een beetje vaag omschreven, maar we komen er wel. Je hebt eigenlijk het idee dat het nu maar een hatseflats oplossing is en je wil naar wat "beter", klopt dat? Maar definieer voor jou eens professioneler of beter?

Wil je gaan tieren? Wil je met policy driven storage aan de slag? Wil je redundantie? Heb je meerdere hosts? Waarom wil je met SMR schijven aan de slag? Omwille van capaciteit? Ben je bv. als je maar één host hebt niet beter af dat je een leuke SSD aanschaft en al je media vanuit je QNAP/Synology aan het netwerk presenteert?

Buiten dat je unraid gebruikt is je oplossing toch ok?

Vandaag even niets


  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
Ik denk dat profesionele software niet de juiste omschrijving is zeker niet in een thuis situatie maar ik bedoel idd iets beters als unraid.

Ik wil op mijn Esxi server(s) alle software in vm's draaien. De vm's denk ik toch maar op van een ssd (locaal) draaien en mijn media (cd's / films) op een shared storage server bewaren. Ik heb dit al op smr drives staan en idd veel storage voor weinig geld. Voor mijn overige data opslag zoek ik ook een oplossing (zfs, btrfs, vsan, raid?). Ik heb hier nog 4x een 6tb wed red liggen. Ik wil alles wel redundant opslaan. Ook belangrijk ik vind het ook altijd leuk en interssant om er iets bij te leren en het is zeker een uit de hand gelopen hobby :) Ik hoop dat het iets duidelijker is.

Wat bedoel je met tieren?

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 23:26
tieren, in laagjes, in storage land is dat bv je hot data op ssd en dat het zo naar beneden gaat naar trage storage.

Zo combineer je bv. capacity met performance door een laag SSD's bovenop je HDD's te leggen.

Dus, samengevat:

VM's op SSD
Je media komt van een NAS, eigenlijk geen shared storage, ligt er maar aan hoe je het benoemt.

Wat is je "overige data" dan?

Als je meerdere hosts hebt en je hebt disks en SSD's dan kan je wel eens aan de slag met VSAN, anders ook maar dan heeft het niet altijd zoveel nut.

Vandaag even niets


  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
quote:
HyperBart schreef op maandag 14 november 2016 @ 18:03:
tieren, in laagjes, in storage land is dat bv je hot data op ssd en dat het zo naar beneden gaat naar trage storage.

Zo combineer je bv. capacity met performance door een laag SSD's bovenop je HDD's te leggen.
Hmmm, interessante techniek. Volgens mij geven de grote nas fabrikanten die mogelijkheid toch ook al?
quote:
Dus, samengevat:

VM's op SSD
Je media komt van een NAS, eigenlijk geen shared storage, ligt er maar aan hoe je het benoemt.
Oke, Mijn vm's dan via nfs de shares op de nas laten mounten.
quote:
Wat is je "overige data" dan?
Daar versta ik onder mijn documenten en foto's. Ook zou ik graag iets willen doen met een eigen cloud oplossing voor familie.
quote:
Als je meerdere hosts hebt en je hebt disks en SSD's dan kan je wel eens aan de slag met VSAN, anders ook maar dan heeft het niet altijd zoveel nut.
Ik heb 2 xeon E3 servers waarvan 1 nu unraid draait maar ik kan ook de unraid server ombouwen tot esxi server. De andere E3 draait natuurlijk esxi. Dan een nieuwe mobo voor de media storage. Z'n Xeon D van rond 500-600 Euro. In de toekomst zo ik de E3's ook kunnen vervangen voor Xeon D. Ik heb ook 2 chassis. Een 24 en een 12 bays. Op de 24 draait unraid. De 12 bays is niet in gebruik.

  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
vSphere 6.5 is nu echt GA en te downloaden :)

https://my.vmware.com/web...ucture/vmware_vsphere/6_5

Me Tarzan, U nix!


  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
Ja, inmiddels geïnstalleerd! Het upgrade pad gevolgd.

maar.., mijn vm's geven een foutmelding bij het opstarten:

"Failed to connect to peer process"

Dit zie ik in VMkernel waring log:

"2016-11-15T17:58:15.171Z cpu2:70558)WARNING: User: 4530: vmx: Error in initial cartel setup: Failed to open /bin/vmx: Operation not permitted"

Iemand enig idee?

  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
Hmm dat is vreemd. Draai je ESX native of binnen Fusion? Hier geinstalleerd in Workstation en daar kon ik prima een nieuwe vm aanmaken en starten.

Wel zijn er een aantal CPU's die niet meer worden ondersteund, maar daar had je dan denk ik een melding van moeten krijgen...
quote:
Comparing the processors supported by vSphere 6.0, vSphere 6.5 no longer supports the following processors:

Intel Xeon 51xx series
Intel Xeon 30xx series
Intel core 2 duo 6xxx series
Intel Xeon 32xx series
Intel core 2 quad 6xxx series
Intel Xeon 53xx series
Intel Xeon 72xx/73xx series

doc wijzigde deze reactie 15-11-2016 19:07 (66%)

Me Tarzan, U nix!


  • MvL
  • Registratie: juni 2012
  • Laatst online: 20:37
Ik draai ESXi native. Ik heb ESXi ge-upgrade van 6.0 --> 6.5 (60 days trail). Ik had dus bestaande vm's maar die geven dus de foutmelding die in mijn vorige post staat.

Ik heb een E3-1275v3 die staat niet op de lijst...

Edit: ook als ik een nieuwe vm aanmaak krijg ik de foutmelding die ik beschreef in mijn vorige post.

MvL wijzigde deze reactie 15-11-2016 19:49 (18%)


  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
Lijkt een rechten probleem als hij de vmx niet kan/mag starten... Kan je makkelijk een verse installatie doen (met behoud van VM's?) Anders kan je als het goed is in ieder geval wel terug naar de vorige versie

https://kb.vmware.com/sel...playKC&externalId=1033604

en dan eventueel opnieuw de upgrade proberen

Me Tarzan, U nix!


  • pitchdown
  • Registratie: oktober 2002
  • Laatst online: 20:22
Ik heb vcenter 6.5 geïnstalleerd en kan nu niet meer verbinden met de vsphere-client.
Iemand die dit herkend?

an internal error occured in the vsphere client
details: object reference not set to an instance of the object

pitchdown wijzigde deze reactie 16-11-2016 13:22 (35%)


  • pitchdown
  • Registratie: oktober 2002
  • Laatst online: 20:22
Verbinden naar een host i.p.v. vcenter werkt wel.
Echter bij het openen van het console van de vm krijg ik deze foutmelding : https://kb.vmware.com/sel...playKC&externalId=2116542

Weet niet of dit daadwerkelijk een oplossing gaat bieden voor esxi 6.5

  • doc
  • Registratie: juli 2000
  • Laatst online: 00:01
Klopt in 6.5 wordt de Windows client niet meer ondersteund. Je moet de HTML5 client gebruiken voor ESXi host en HTML5 client of Flash client voor vCenter. HTML5 client voor vCenter ondersteund nog niet alle functies.
quote:
http://pubs.vmware.com/Re...ver-65-release-notes.html

As of vSphere 6.5, VMware is discontinuing the installable desktop vSphere Client, one of the clients provided in vSphere 6.0 and earlier. vSphere 6.5 does not support this client and it is not included in the product download. vSphere 6.5 introduces the new HTML5-based vSphere Client, which ships with vCenter Server alongside the vSphere Web Client. Not all functionality in the vSphere Web Client has been implemented for the vSphere Client in the vSphere 6.5 release. For an up-to-date list of unsupported functionality, see Functionality Updates for the vSphere Client Guide.

Me Tarzan, U nix!


  • Murrays
  • Registratie: januari 2010
  • Laatst online: 21:53
Ja ze hebben nu (eindelijk) "voor sommige minder" de c# client eruit gesloopt. Misschien dat je dit nog werkend zou kunnen krijgen maar dan op een niet supported manier

  • RvV
  • Registratie: juli 2000
  • Laatst online: 20:10
quote:
doc schreef op woensdag 16 november 2016 @ 14:32:
Klopt in 6.5 wordt de Windows client niet meer ondersteund. Je moet de HTML5 client gebruiken voor ESXi host en HTML5 client of Flash client voor vCenter. HTML5 client voor vCenter ondersteund nog niet alle functies.


[...]
Ik ga weer terug naar vcenter 6.0. Als HTML5 niet alles kan, eerder vrijwel niets kan...en de vsphere client niet meer werkt, dan heb ik weinig aan 6.5. Jammer. ;(

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
RvV schreef op zaterdag 19 november 2016 @ 09:29:
[...]


Ik ga weer terug naar vcenter 6.0. Als HTML5 niet alles kan, eerder vrijwel niets kan...en de vsphere client niet meer werkt, dan heb ik weinig aan 6.5. Jammer. ;(
Ik zie niet waarom je terug zou moeten, waarom zou je de flash client niet gebruiken?

En dat niets kunnen met de HTML5 valt ook wel mee, als je de initiële inrichting gehad hebt kun je prima met de HTML5 Client uit de voeten:

|sWORDs| wijzigde deze reactie 19-11-2016 14:30 (24%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • ComTech
  • Registratie: november 2002
  • Laatst online: 22:34
Ik heb hier een esxi server draaien met een aantal vm's waaronder 1 freenas server voor mijn data diversen ubuntu vm's (domoticz owncloud enz) en een xpenology vm (dsm6).
Nu heb ik aan de freenas vm de onboard sata controller doorgegeven (passthrough) .
Als datastore heb ik een Conceptronic PCI Express Card SATA 600 waar een ssd schijf aan zit.
Alles werkt prima alleen ik zou graag m'n xpenology ook een hardeschijf willen toewijzen.
Op de conceptronic pci sata kaart zit nog 1 aansluiting vrij.
Zou ik hier een hardeschijf op kunnen aansluiten en d.m.v RDM kunnen doorgeven aan de xpenology vm?
Of is hier een betere makkelijker oplossing voor?

| Oneplus6 128Gb Mirror Black |


  • Galukon
  • Registratie: juni 2014
  • Laatst online: 18:35
Ben even bezig met een nieuw labje creeren op mijn pc. Heb een i7 6700k en 32 GB RAM dus pruttelt wel lekker door. Kom nu wel tot de verbazing dat de nieuwe VCSA 6.5 10 (!!) GB RAM wilt hebben. Leuk als er in mijn kleine labje staat dat hij maar 2.1 GB RAM verbruikt. Iemand een tipje om hem kleiner te zetten dan 10 GB? Want als ik dat wil aanpassen zegt ie leuk: ja minimaal 10 GB RAM.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
ComTech schreef op vrijdag 25 november 2016 @ 14:48:
Ik heb hier een esxi server draaien met een aantal vm's waaronder 1 freenas server voor mijn data diversen ubuntu vm's (domoticz owncloud enz) en een xpenology vm (dsm6).
Nu heb ik aan de freenas vm de onboard sata controller doorgegeven (passthrough) .
Als datastore heb ik een Conceptronic PCI Express Card SATA 600 waar een ssd schijf aan zit.
Alles werkt prima alleen ik zou graag m'n xpenology ook een hardeschijf willen toewijzen.
Op de conceptronic pci sata kaart zit nog 1 aansluiting vrij.
Zou ik hier een hardeschijf op kunnen aansluiten en d.m.v RDM kunnen doorgeven aan de xpenology vm?
Of is hier een betere makkelijker oplossing voor?
Nee, RDM is je enige optie met passthrough. Maar PVSCSI of passthrough maakt met één disk aan Synology weinig uit, dus dat zou een makkelijkere optie kunnen zijn.

edit: Weet niet of PVSCSI met 6 werkt, welke versie (van wie) draai je?
quote:
Galukon schreef op zondag 27 november 2016 @ 16:34:
Ben even bezig met een nieuw labje creeren op mijn pc. Heb een i7 6700k en 32 GB RAM dus pruttelt wel lekker door. Kom nu wel tot de verbazing dat de nieuwe VCSA 6.5 10 (!!) GB RAM wilt hebben. Leuk als er in mijn kleine labje staat dat hij maar 2.1 GB RAM verbruikt. Iemand een tipje om hem kleiner te zetten dan 10 GB? Want als ik dat wil aanpassen zegt ie leuk: ja minimaal 10 GB RAM.
De vorige wilde al 8GB minimaal en nu is update manager toegevoegd. Van de nieuwe weet ik niet waar de checks zitten, door dat het nu een container op Photon is kan het wel eens lastiger zijn om de checks uit te schakelen. Als ik moet gokken dan zit het in de eigenschappen van de container.

|sWORDs| wijzigde deze reactie 27-11-2016 17:00 (29%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Galukon
  • Registratie: juni 2014
  • Laatst online: 18:35
quote:
|sWORDs| schreef op zondag 27 november 2016 @ 16:56:
De vorige wilde al 8GB minimaal en nu is update manager toegevoegd. Van de nieuwe weet ik niet waar de checks zitten, door dat het nu een container op Photon is kan het wel eens lastiger zijn om de checks uit te schakelen. Als ik moet gokken dan zit het in de eigenschappen van de container.
Ik kon de vorige VCSA nog op 4 of 6 GB RAM zetten dacht ik zo.. Voor een homelab is het toch wat overkill 10 GB RAM. RAM is niet goedkoop..

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Galukon schreef op zondag 27 november 2016 @ 17:02:
[...]


Ik kon de vorige VCSA nog op 4 of 6 GB RAM zetten dacht ik zo.. Voor een homelab is het toch wat overkill 10 GB RAM. RAM is niet goedkoop..
In principe is het geheugen nog wel te gebruiken. Zodra je krap komt te zitten zou TPS (intra-VM) het moeten oplossen.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Galukon
  • Registratie: juni 2014
  • Laatst online: 18:35
quote:
|sWORDs| schreef op zondag 27 november 2016 @ 17:04:
[...]

In principe is het geheugen nog wel te gebruiken. Zodra je krap komt te zitten zou TPS (interVM) het moeten oplossen.
Wat ik zo lees is dat het pagen naar de disk?

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Galukon schreef op zondag 27 november 2016 @ 17:07:
[...]


Wat ik zo lees is dat het pagen naar de disk?
Nee, dat is hashing met salting (en de-dupe zodra er krapte is) binnen de VM, aangezien het geheugen wat leeg is identiek is zou dat moeten werken. Staat standaard aan binnen de VM. Je kunt het ook aan zetten tussen alle VM's (Inter-VM), door voor alle (of gekozen) VM's dezelfde salt te gebruiken of door salting uit te schakelen.

|sWORDs| wijzigde deze reactie 27-11-2016 17:18 (35%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Galukon
  • Registratie: juni 2014
  • Laatst online: 18:35
quote:
|sWORDs| schreef op zondag 27 november 2016 @ 17:08:
[...]

Nee, dat is hashing met salting (en de-dupe zodra er krapte is) binnen de VM, aangezien het geheugen wat leeg is identiek is zou dat moeten werken. Staat standaard aan binnen de VM. Je kunt het ook aan zetten tussen alle VM's (Inter-VM), door voor alle VM's dezelfde salt te gebruiken.
Dus als ik het op de ESX host op =0 zet gaat hij het identieke bitje dedupliceren en RAM besparen? Bedankt voor de tip!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
Bijna, hij gaat hashen en bij krapte dedupliceren. Je ziet het dus pas als er weinig geheugen vrij is. Je hoeft ook niets aan te passen hij doet het standaard binnen de VM.

|sWORDs| wijzigde deze reactie 27-11-2016 17:28 (25%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 19:07

zeroday

Dream within a dream

Ah .. topic gevonden ..

Ik heb een HP Microserver G8 T1610 met 16GB onder ESXI en verschillende VM's met allemaal linux (Debian, Ubuntu)
Nu viel me wat op

Ik heb 1 VM die perfect presteert maar ook verschillende debian/ubuntu omgevingen waarvan ik in eerste instantie de apps die ik gebruik verdacht van slechte performance over een bepaalde periode

Kan het kloppen of is het zo dat ondanks dat je 4GB aan memory geeft bij de aanmaak van de VM dit in principe wel doorgegeven wordt aan de VM maar dat het dan wellicht toch niet gebruikt kan worden omdat ik in de instelling niet aangegeven heb dat ik 'reserved memory' heb?

Ik zit nu al 2 weken te prutsen met een aantal VM's die na installatie perfect werken, maar als ze dan een dag idle zijn en ik weer hetzelfde doe als na installatie dat dan de performance (bijv. downloaden van data, opbouw van webpagina's, streamen van muziek) als een giga inkakt na een kort moment.

Nu lijkt het erop dat als ik memory voor deze VM reserveer (niet in te stellen bij de hoeveelheid GB memory, maar net ergens .. dat dit dan de performance te goede komt

waar kan ik bijv. een Linux optimalisatie doen zodat de VM optimaal kan presteren (rekening houdend met het maximale wat het systeem aankan) ..

USG, 2x Unifi AP-LR, 1x Unifi Pro, 4x HP Microserver Gen8 (1x Vmware) 3x OpenMediavault. (en nog veel meer andere meuk)

Als je server echt, echt te weinig geheugen heeft, gaat hij weinig gebruikte pagina's naar swap zetten. Als je daarna weer inlogt op de machine, en je deze pagina's dus nodig hebt, is de VM in kwestie erg traag.

Kan je eens wat ESXTOP statistieken tonen?

Even niets...


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 19:07

zeroday

Dream within a dream

quote:
FireDrunk schreef op maandag 28 november 2016 @ 16:07:
Als je server echt, echt te weinig geheugen heeft, gaat hij weinig gebruikte pagina's naar swap zetten. Als je daarna weer inlogt op de machine, en je deze pagina's dus nodig hebt, is de VM in kwestie erg traag.

Kan je eens wat ESXTOP statistieken tonen?
zoiets?

USG, 2x Unifi AP-LR, 1x Unifi Pro, 4x HP Microserver Gen8 (1x Vmware) 3x OpenMediavault. (en nog veel meer andere meuk)

Kan je een keer op 'm'drukken, en dan nog een screenshot sturen?

Even niets...


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 19:07

zeroday

Dream within a dream

quote:
FireDrunk schreef op maandag 28 november 2016 @ 19:02:
Kan je een keer op 'm'drukken, en dan nog een screenshot sturen?

USG, 2x Unifi AP-LR, 1x Unifi Pro, 4x HP Microserver Gen8 (1x Vmware) 3x OpenMediavault. (en nog veel meer andere meuk)


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 21:50
quote:
Tjonge, die server is behoorlijk underpowered voor wat je aan het doen bent.
Je hebt meer dan 18GB actief terwijl je minder dan 14GB actief zou moeten hebben.

Bij SWCUR kun je zien dat zeker 6 machines aan het swappen zijn, daarnaast is er ballooning.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:03

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Kunnen jullie aangeven op welke getallen je moet letten en welke waarde die getallen moeten zijn in een optimale situatie? Ben wel benieuwd hoe het bij mijn server zit namelijk. Maar lijkt mij niet handig als iedereen hier z'n esxtop-screenies gaat plaatsen :P

zeroday, je bent trouwens ook wel erg gul met het RAM. Sommige simpele VM's zoals een OpenVPN die onder Ubuntu Server 16.04 draait (headless, dus geen GUI) heeft bij mij maar 512MB RAM. Gaat prima. Alleen een Windows 10 / Server 2012 VM krijgt bij mij 2GB RAM (wat opzich wel 4GB mag zijn, maar heb te weinig RAM nu), maar de rest (meestal is dat een Ubuntu Server 16.04) altijd <= 1GB. Eigenlijk nog geen problemen mee gehad.

ThinkPad wijzigde deze reactie 28-11-2016 20:19 (45%)

Hardware te koop | Gas besparen door CV-tuning | Elektriciteit besparen | Tweakblog

Pagina: 1 2 3 ... 15 Laatste


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True