Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

Het grote ESXi/vSphere Topic

Pagina: 1 2
Acties:

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mede-auteurs:
  • Microkid
  • Registratie: augustus 2000
  • Laatst online: 06:53

Microkid

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53

FireDrunk

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26

HyperBart

Het grote VMware ESXi/vSphere Topic



VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.



Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).



Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
  • [list]
  • 1000M, 3000M, 5000
  • K2000/K4000/K5000/K6000
  • K3100M
  • K2200/K4200/K5200
  • [/list]
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.



vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).



MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:



Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.



ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.



De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.



Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch


Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch


Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.



Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:


In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).



RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.



Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.



Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.



ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO

[Voor 255% gewijzigd door |sWORDs| op 12-02-2017 18:29]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!
  • Pinned

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Huishoudelijke mededelingen:

Na overleg met de oorspronkelijk topicstarters en onze *O* allerliefste adjes *O*, gaan we proberen het met één topic voor VMware ESXi/vSphere te doen. De focus ligt op het configureren van en werken met. Dit betekend niet dat we het geheel niet over standaard hardware hebben, maar laten we het tot een minimum beperken:
  • Er staat zo veel mogelijk over standaard hardware in de startpost, lees deze dus eerst volledig voor je iets over hardware vraagt.
  • Beperk hardware vragen tot een enkele post, mocht je er na antwoord op door willen gaan, doe dat dan even met degene die reageert via PM, mocht er wat interessants uitkomen dan is een samenvatting natuurlijk wel gewenst.
  • Wij proberen steeds terugkomende hardware vragen toe te voegen aan de startpost.
  • Voor alle bijzondere hardware is het natuurlijk een ander verhaal.

Sample Builds

Mini:
Dual Core (met HT) 2.3GHz Skylake NUC, 16GB geheugen en 256GB NVMe drive:

#ProductPrijsSubtotaal
1Intel NUC NUC6i3SYK€ 275,95€ 275,95
1Crucial CT2K8G4SFD8213€ 73,20€ 73,20
1Samsung 950 Pro 256GB€ 188,79€ 188,79
Bekijk collectie
Importeer producten
Totaal€ 537,94
Small:
3.3 GHz Dual Core Skylake met 32GB geheugen en 960GB SATA SSD:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K8G4DFD8213€ 71,95€ 143,90
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Sandisk Ultra II SSD 960GB€ 231,67€ 231,67
Bekijk collectie
Importeer producten
Totaal€ 636,80
Medium:
Quad Core 2.7GHz Skylake i5, 64GB geheugen en 512GB NVMe:

#ProductPrijsSubtotaal
1Intel Core i5-6400 Boxed€ 178,90€ 178,90
1Asus Q170M2€ 143,81€ 143,81
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K16G4DFD824A€ 135,10€ 270,20
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 950 Pro 512GB€ 330,45€ 330,45
Bekijk collectie
Importeer producten
Totaal€ 1.047,69
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 292,10€ 292,10
1Supermicro X11SSL-F€ 204,75€ 204,75
1Supermicro 731I-300€ 100,84€ 100,84
4Kingston KTH-PL424S/16G€ 108,92€ 435,68
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 311,62€ 311,62
Bekijk collectie
Importeer producten
Totaal€ 1.344,99
Large:
Dual 10 Core (met HT) 2.2GHz Xeon E5, 128GB geheugen en 1.2TB NVMe:

(Afbeelding met andere koelers, K2 en Asus bord)
#ProductPrijsSubtotaal
2Intel Xeon E5-2630 v4 Boxed€ 699,-€ 1.398,-
1Supermicro X10DRL-i€ 353,78€ 353,78
1Phanteks Enthoo Pro Window Zwart€ 98,-€ 98,-
2Noctua NH-U9DXi4€ 54,-€ 108,-
8Samsung M393A2G40DB0-CPB€ 78,-€ 624,-
1Seasonic M12II Evo 620W€ 75,95€ 75,95
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 771,76€ 771,76
Bekijk collectie
Importeer producten
Totaal€ 3.429,49
Extra Large:
Vier node elk 2.1 GHz 8 core (met HT) Xeon-D VSAN Cluster, 64GB geheugen en 1TB datatier:

#ProductPrijsSubtotaal
4Patriot Memory Tab 8GB€ 6,79€ 27,16
1D-Link DXS-1210-10TS€ 795,71€ 795,71
4Supermicro SYS-5028D-TN4T€ 1.376,15€ 5.504,60
8Samsung M393A4K40BB1-CRC€ 150,-€ 1.200,-
4Addonics ADM2PX4 M2 PCIe SSD adapter€ 23,05€ 92,20
4Samsung 960 EVO 1TB€ 444,-€ 1.776,-
4Samsung SM961 128GB€ 97,50€ 390,-
Bekijk collectie
Importeer producten
Totaal€ 9.785,67

Let op dat de BIOS naar 1.1c geflashed dient te worden voor er VM's aangemaakt worden en de switch (58dB) niet geschikt is voor een kantoor of dichtbij een woon/slaapkamer. (Fans zijn niet te vervangen, waarschijnlijk checked de switch de fan RPM speed bij opstarten.)

[Voor 255% gewijzigd door |sWORDs| op 12-11-2016 12:11]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Guides

Passthrough van Intel AHCI Controller:
  1. Login op de ssh console:

    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    esxcli storage core adapter list
    HBA Name  Driver      Link State  UID           Capabilities  Description                                                                     
    --------  ----------  ----------  ------------  ------------  --------------------------------------------------------------------------------
    vmhba0    ahci        link-n/a    sata.vmhba0                 (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba2    nvme        link-n/a    pscsi.vmhba2                (0000:02:00.0) Samsung Electronics Co Ltd <class> Non-Volatile memory controller
    vmhba3    intel-nvme  link-n/a    pscsi.vmhba3                (0000:82:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba4    intel-nvme  link-n/a    pscsi.vmhba4                (0000:81:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba32   ahci        link-n/a    sata.vmhba32                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba33   ahci        link-n/a    sata.vmhba33                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba34   ahci        link-n/a    sata.vmhba34                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller

    Hier zie je de poorten van de Intel en de PCI ID (0000:00:11.4), dit zijn er normaal twee (bij X?9/C6??, andere chipsets één), maar ik heb de 6 poorts al doorgegeven.
  2. code:
    1
    2
    
    lspci -n |grep 0000:00:11.4
    0000:00:11.4 Class 0106: 8086:8d62 [vmhba0]

    Hier zie je jouw PID (8d62)
  3. Dan zet je die onderin /etc/vmware/passthru.map.
    code:
    1
    
     8086  [PID]  d3d0     false


    Hele file bij mij:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    
    # passthrough attributes for devices                                                                                                                                                                         
    # file format: vendor-id device-id resetMethod fptShareable                                                                                                                                                  
    # vendor/device id: xxxx (in hex) (ffff can be used for wildchar match)                                                                                                                                      
    # reset methods: flr, d3d0, link, bridge, default                                                                                                                                                            
    # fptShareable: true/default, false                                                                                                                                                                          
                                                                                                                                                                                                                 
    # Intel 82598 10Gig cards can be reset with d3d0                                                                                                                                                             
    8086  10b6  d3d0     default                                                                                                                                                                                 
    8086  10c6  d3d0     default                                                                                                                                                                                 
    8086  10c7  d3d0     default                                                                                                                                                                                 
    8086  10c8  d3d0     default                                                                                                                                                                                 
    8086  10dd  d3d0     default                                                                                                                                                                                 
    # Broadcom 57710/57711/57712 10Gig cards are not shareable                                                                                                                                                   
    14e4  164e  default  false                                                                                                                                                                                   
    14e4  164f  default  false                                                                                                                                                                                   
    14e4  1650  default  false                                                                                                                                                                                   
    14e4  1662  link     false                                                                                                                                                                                   
    # Qlogic 8Gb FC card can not be shared                                                                                                                                                                       
    1077  2532  default  false                                                                                                                                                                                   
    # LSILogic 1068 based SAS controllers                                                                                                                                                                        
    1000  0056  d3d0     default                                                                                                                                                                                 
    1000  0058  d3d0     default                                                                                                                                                                                 
    # NVIDIA                                                                                                                                                                                                     
    10de  ffff  bridge   false                                                                                                                                                                                   
    # Intel Wellsburg AHCI                                                                                                                                                                                       
    8086  8d62  d3d0     false                                                                                                                                                                                   
    8086  8d02  d3d0     false
  4. En reboot, daarna kun je hem gewoon in passthrough zetten (indien er geen datastore op in gebruik is/het jouw bootdevice bevat):
    https://tweakers.net/ext/f/sUogKr8PH1zpEnKd90CfimAt/full.png
  5. Nog een reboot en je kunt m doorgeven aan een VM en niet vergeten om op die VM reserve all memory te doen:

    https://tweakers.net/ext/f/FEmlT03ziteQuNPBx632KGHG/full.png



    https://tweakers.net/ext/f/sxqyDXwfjaAFm4uyqF9sakQx/full.png
XPenology (Synology DSM) op ESXi:
1) Installeer OSFMount en open xpenology.img FAT partitie zonder readonly:





2) Bewerk syslinux.cfg zodat op elke append regel er
code:
1
 sn=[SN} mac1=[MAC_ZONDER_DUBBELE_PUNT] rmmod=ata_piix

bij komt te staan met een SN en MAC uit deze excel file en save de file en unmount en sluit OSFMount:


3) Installeer StarWind Converter en converteer de IMG naar VMDK en plaats deze op een datastore.



4) Maak nu een nieuwe VM met een VMXNET3 NIC die je dezelfde MAC geeft, een existing harddisk op een IDE controller, die je wijst naar de VMDK op de datastore.

https://tweakers.net/ext/f/elYinEeHDT8S6COR1LM7yjBf/full.png

5) Nu kun je of een PVSCSI virtuele data disk maken of een controller in passthrough (zie hier voor Intel) toevoegen. Hierna schakel je de VM in.


6) Gebruik http://find.synology.com of Synology Assistent om de PAT file te installeren.


7) Installeer open-vm-tools via Package Center en stel je updates zo in dat alleen DSM5 patches binnen komen en hij vraagt voor updates.

Custom ESXi ISO:
  1. Neem een Windows machine en installeer PowerCLI 6.5.
  2. Maak een folder C:\VIB en plaats alle VIB files die je toe wil voegen.
  3. Voorbeeld C:\VIB: [list]
  4. intel-nvme-1.0e.2.0-1OEM.550.0.0.1391871.x86_64.vib (Intel P3xx0/750 drivers)
  5. intel-passthrough-1.0.0-01.x86_64.vib (Mijn VIB om passthrough van Intel mogelijk te maken)
  6. intel_ssd_data_center_tool-3.0.2-400.vib (Beheertool voor Intel P3xx0/750)
  7. net-ixgbe_4.4.1-1OEM.600.0.0.2159203.vib (Nieuwe Intel 10Gbit driver versie voor o.a. X552)
  8. vmware-esx-storcli-1.20.15.vib (Beheertool voor LSI)
  9. [/list]
  10. Start PowerCLI en sleep ESXi-Customizer-PS-v2.5.ps1 in het venster.
  11. Voeg nu de parameters toe, voorbeeld voor alle drivers compatible met 6.5:
  12. code:
    1
    
    C:\Users\Administrator\Downloads\ESXi-Customizer-PS-v2.5.ps1 -vft -load sata-xahci,net55-r8168,net51-r8169,net-forcedeth-1,net51-sky2 -pkgDir C:\VIB -nsc -force
  13. Naast de ps1 file staat nu een ISO met alles er in

[Voor 255% gewijzigd door |sWORDs| op 07-05-2017 10:40]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 18 oktober 2016 @ 19:29:
[...]


Ah tof, heb je daar een linkje van? Ik vind het zelf ook wel boeiend. Als mijn E5 (v3) dat slikt, zou dat ook wel tof zijn. Das natuurlijk geen Intel GPU, maar een onboard prutsding :+
Oud:


Laatste toevoeging:


Het probleem is om te vinden welke chip exact supported is, momenteel kan ik dat alleen met zekerheid van de Broadwell P6300 zeggen.
Haswell P4700?
Skylake P580?

[Voor 207% gewijzigd door |sWORDs| op 19-10-2016 00:09]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52


PowerCLI Core uses Microsoft PowerShell Core and .Net Core to enable users of Linux, Mac and Docker to now use the same cmdlets which were previously only available on windows.

PowerCLI Core enables a multi-platform scripting language which will allow you to manage your VMware infrastructure on any OS. Scripts written previously against the windows version are now made portable to a number of operating systems and can simply be loaded and run on these new OS versions without change.
Doet het prima op mijn mac:



[Voor 17% gewijzigd door |sWORDs| op 21-10-2016 13:00]

Te Koop:24 Core Intel Upgradeset


  • YellowOnline
  • Registratie: januari 2005
  • Laatst online: 04-03 18:06

YellowOnline

BEATI PAVPERES SPIRITV

Zo, ik heb mijn DC thuis omgeschakeld naar Windows Server 2016. Ik heb van de gelegenheid gebruik gemaakt om op mijn server een ESX 6.0 te installeren. Tevens heb ik ontdekt dat VMware Workstation (helaas geen licentie op werk) geweldig goed aansluit op ESX.



Bij het installeren werd mijn RAID controller herkend (LSI MegaRAID), maar mijn NIC niet. Gelukkig was er deze blogpost van Andreas Peetz om met behulp van PowerCLI (dat ik als Powersheller sowieso geïnstalleerd heb) een customized image met de juiste Realtek drivers te maken.

Enige dat mij nog rest te doen is een manier vinden om aan mijn data te komen. Vroeger was DISK1 Windows en RAID1 Data. DISK1 is nu ESX, maar mijn data (5TB) staat natuurlijk nog steeds op die RAID1 en out of the box is dat niet zichtbaar voor hosts. :+ Kan ik dat op een of andere manier 'raw' aanbieden? Hmz.

Intel i7 8700K | G.Skill SniperX 3200MHz 2x8GB | MSI Z370 PC Pro | Gainward GTX 1070 | Fractal Design Define XL | LG BH10LS30 | Cherry MX Red | Logitech G500 | Thermaltake Smart M850W | Logitech X-530 | LG 34UM58 | Samsung EVO 500GB | 2x Seagate 4TB


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
YellowOnline schreef op maandag 31 oktober 2016 @ 20:30:
Zo, ik heb mijn DC thuis omgeschakeld naar Windows Server 2016. Ik heb van de gelegenheid gebruik gemaakt om op mijn server een ESX 6.0 te installeren. Tevens heb ik ontdekt dat VMware Workstation (helaas geen licentie op werk) geweldig goed aansluit op ESX.

[afbeelding]

Bij het installeren werd mijn RAID controller herkend (LSI MegaRAID), maar mijn NIC niet. Gelukkig was er deze blogpost van Andreas Peetz om met behulp van PowerCLI (dat ik als Powersheller sowieso geïnstalleerd heb) een customized image met de juiste Realtek drivers te maken.

Enige dat mij nog rest te doen is een manier vinden om aan mijn data te komen. Vroeger was DISK1 Windows en RAID1 Data. DISK1 is nu ESX, maar mijn data (5TB) staat natuurlijk nog steeds op die RAID1 en out of the box is dat niet zichtbaar voor hosts. :+ Kan ik dat op een of andere manier 'raw' aanbieden? Hmz.
RDM
Snippo schreef op dinsdag 01 november 2016 @ 11:02:
Ik vond net dit topic op het internet waarin wordt aangegeven dat het niet werkt:
https://hardforum.com/thr...sync-and-hyper-v.1912054/

Brengt vDGA hier verandering in?

Ik heb me weer iets op de hals gehaald waar ik de ballen verstand van heb :+
VMware vDGA (Intel GVT-d) gebruikt IOMMU (Intel VT-d) en daar gaat het niet voor op:


Lees IOMMU en vDGA Passthrough met VT-d/IOMMU even door, dan snap je waarom alles van een GPU beschikbaar is.

[Voor 77% gewijzigd door |sWORDs| op 01-11-2016 12:25]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[Voor 39% gewijzigd door |sWORDs| op 07-11-2016 01:16]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
RvV schreef op zaterdag 19 november 2016 @ 09:29:
[...]


Ik ga weer terug naar vcenter 6.0. Als HTML5 niet alles kan, eerder vrijwel niets kan...en de vsphere client niet meer werkt, dan heb ik weinig aan 6.5. Jammer. ;(
Ik zie niet waarom je terug zou moeten, waarom zou je de flash client niet gebruiken?

En dat niets kunnen met de HTML5 valt ook wel mee, als je de initiële inrichting gehad hebt kun je prima met de HTML5 Client uit de voeten:

[Voor 24% gewijzigd door |sWORDs| op 19-11-2016 14:30]

Te Koop:24 Core Intel Upgradeset


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

FireDrunk schreef op maandag 28 november 2016 @ 16:07:
Als je server echt, echt te weinig geheugen heeft, gaat hij weinig gebruikte pagina's naar swap zetten. Als je daarna weer inlogt op de machine, en je deze pagina's dus nodig hebt, is de VM in kwestie erg traag.

Kan je eens wat ESXTOP statistieken tonen?
zoiets?

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

FireDrunk schreef op maandag 28 november 2016 @ 19:02:
Kan je een keer op 'm'drukken, en dan nog een screenshot sturen?

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream



Ik ben inderdaad gul, maar dat heeft vooral te maken voor een paar machines waarvan ik denk: die hebben memory nodig.
dat kan en is wellicht een foutieve aanname, ik heb nu een berg aanpassingen zitten te maken en daarna de vm's herstart

Ben benieuwd ;-)

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

|sWORDs| schreef op maandag 28 november 2016 @ 21:10:
[...]

Nog steeds gul, 18.5 ipv 12-14, maar al een stuk beter dan de 31.5 die het eerst was.
wordt nog beter ;-) heb hem nu naar 12 gebracht, een VM down gebracht die niet meer gebruikt werd maar toch geheugen gebruikte, daarnaast nog een andere vm die wellicht wel weer een keer aan kan maar nu niet nodig. ben nu benieuwd of zo de performance over alle machines beter wordt / zal worden. (denk het wel).

Dus door het overboeken het systeem min of meer over de zeik helpen .. mja .. (je denkt dat het systeem het allemaal wel netjes zelf uitzoekt) ;-)

wat bedoel je met dit?
Heb InterVM TPS beschikbaar gemaakt?

ik zie wel in mijn advanced settings;
mem.share.force.salting = 2
maar tsja. dat is alles wat ik zie . ;-)

[Voor 15% gewijzigd door zeroday op 28-11-2016 21:36]

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

|sWORDs| schreef op maandag 28 november 2016 @ 22:12:
[...]

Zet die maar eens op 0, reboot en vergelijk consumed.
dat zegt me echt niet zoveel en of het veel effect heeft



laatste esxtop ;-)
Morgen maar eens kijken hoe alles draait als ik het via een vpn aanroep .. eens zien of dat lekker werkt

In ieder geval dank voor nu, was leerzaam vanavond ;-)

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

draai nu bijna 3 weken met de nieuwe config

https://tweakers.net/ext/f/wHzzrHkUvOBiXnw6u1nh8ZwY/thumb.jpg

de vmware machine, hoe 'lite' de CPU dan ook mag zijn, doet het beter dan ooit tevoren ..

[Voor 99% gewijzigd door zeroday op 24-12-2016 08:30]

There are no secrets, only information you do not yet have


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

https://tweakers.net/ext/f/h85jONuCSfDwN5Qt4DSvhBid/thumb.jpg

stream, downloaden, / par / unpack / .. ja over de 1.00 maar niet direct merkbaar

https://tweakers.net/ext/f/WtEYHuo3Il29HucH16zy3jOa/thumb.jpg

[Voor 17% gewijzigd door zeroday op 27-12-2016 21:07]

There are no secrets, only information you do not yet have


  • MichelatNL
  • Registratie: augustus 2003
  • Laatst online: 20:46

MichelatNL

PSN ID: Michel--NL

Vandaag bedacht om maar eens helemaal schoon te beginnen en dan esxi 6.5 gelijk te installeren.
Dat ging allemaal redelijk. Beetje last gehad van een .locker directory die ik niet weg kreeg, maar is gelukt.

Nu heb ik Ubuntu en Windows 10 geïnstalleerd zonder problemen. Bij het installeren van Windows Server 2016 of 2012R2 vraagt die om A media driver your computer needs is missing, dat scherm komt voor het scherm waar je de schijf kunt selecteren om de installatie op te doen.
Ook al ergens gelezen dat je beter paravirtual SCSI kunt gebruiken en dan met cd VMware Tools de driver kunt selecteren. Dat heb ik ook geprobeerd, maar het scherm blijft terug komen met de melding.


Hiervoor esxi 6 gebruikt met de zelfde hardware en geen enkel probleem gehad.

PS4 | ApexOnlineRacing | YouTube | Fanatec CSL Elite Racing Wheel (LC) + McLaren GT3 | RSeat S1 | Project CARS 2


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
|sWORDs| schreef op dinsdag 20 december 2016 @ 14:13:
[...]

Misschien moet ik eens een post doen waarin ik laat zien hoe ik een ESXi ISO maak met alle handige tools en drivers er al in.
hansdegit schreef op dinsdag 20 december 2016 @ 14:30:
Nou, dat laatste zou ik enorm op prijs stellen!
(dit ook al hoor)

[...]
Custom ESXi ISO in Guides

En mochten er nog mensen met DSM6 op ESXi willen spelen:

Ik heb een nieuwe OVA gemaakt met de laatste Jun bootloader.
Members only:
Alleen zichtbaar voor ingelogde gebruikers. Inloggen

HW Level 10, VMXNET3 en PVSCSI.

OVA deployen, disk toevoegen (of controller), starten en wordt direct gevonden in de Assistant. PAT kun je met de hand of vanaf internet installeren en daarna de open-vm-tools die er bij zit (open-vm-tools_bromolow-6.0_10.0.7.spk) installeren. Daarna bijwerken naar update 7 werkt ook prima.







https://s29.postimg.org/wrwtca43b/Schermafbeelding_2016_12_27_om_15_13_25.png

Ik heb een paar dagen met een VMDK getest en nu vijf dagen mijn DSM5 disks (VT-d van Intel SATA controller) geüpgrade. Draait vooralsnog perfect op een SuperMicro 5028D-TN4T (met 128GB, 400GB Intel 750, 512GB Samsung 950 Pro, 4x 4TB Toshiba en 2x 480GB Samsung 843T) met ESXi 6.5.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
cat /proc/cpuinfo|grep 'model name'
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz

cat /proc/meminfo|grep -i memtotal
MemTotal:        4054424 kB

cat /etc.defaults/VERSION
majorversion="6"
minorversion="0"
productversion="6.0.2"
buildphase="hotfix"
buildnumber="8451"
smallfixnumber="7"
builddate="2016/12/20"
buildtime="05:10:40"

lspci -q|egrep -i -v 'bridge|system|unclassified'
0000:00:07.1 IDE interface: Intel Corporation 82371AB/EB/MB PIIX4 IDE (rev 01)
0000:00:0f.0 VGA compatible controller: VMware SVGA II Adapter
0000:02:05.0 SATA controller: VMware SATA AHCI controller
0000:03:00.0 Serial Attached SCSI controller: VMware PVSCSI SCSI Controller (rev 02)
0000:0b:00.0 Ethernet controller: VMware VMXNET3 Ethernet Controller (rev 01)
0000:13:00.0 SATA controller: Intel Corporation 8 Series/C220 Series Chipset Family 6-port SATA Controller 1 [AHCI mode] (rev 05)

/volume1/@appstore/open-vm-tools/bin/vmware-toolbox-cmd -v
10.0.7.52125 (build-3227872)






Wat niet uit de cache komt gaat met zo'n 400MB/s, wel uit de cache gaat met 1.1GB/s. Een extra PVSCSI volume op NVMe haalt zo'n 1.3GB/s. Verkeer buiten de host met 970MB/s (cache/NVMe). Misschien kan die 400MB/s nog omhoog met wat RAID tuning.

[Voor 186% gewijzigd door |sWORDs| op 02-01-2017 16:10]

Te Koop:24 Core Intel Upgradeset


  • webgangster
  • Registratie: juli 2006
  • Laatst online: 11-04 19:14
|sWORDs| schreef op dinsdag 3 januari 2017 @ 11:40:
Probeer via je werkgever gewoon een officiële VMware cursus te krijgen.
Foundations is niet VCA, maar opsplitsing van het oude VCP examen.
Net als @TomdeJ wil ik mij ook certificeren. Er zijn veel cursussen beschikbaar welke via de werkgever bekostigd worden, wat is nu een goede cursus?

Zelf had ik de cursus 'VMware vSphere 6.0: Install, Configure & Manage' gevonden, maar bereid deze cursus je goed voor op VCA6-DCV?

Zit ik (heel) warm?



Edit: Mijn vraag is eigenlijk al beantwoord door: magneet in "Het grote ESXi/vSphere Topic"

[Voor 8% gewijzigd door webgangster op 06-01-2017 22:16]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52


Uitzetten en snapshot maken zou kunnen werken, maar is niet supported. Bij RDM heb je trouwens hetzelfde.

[Voor 8% gewijzigd door |sWORDs| op 09-01-2017 13:18]

Te Koop:24 Core Intel Upgradeset


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
Staat volgens mij juist:

https://dl.dropboxusercontent.com/u/5549288/Nested_Hyper-v.PNG

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
cooLopke schreef op donderdag 12 januari 2017 @ 14:53:
Ik zou een nested hyper-v moeten installeren binnen ESX 5.5, ik heb al even zitten proberen, maar ik krijg steeds dezelfde foutmelding. "The processor does not have required virtualization capabilities".

Het gaat om hosts met cpu Intel Xeon CPU E5-2650 v3. Ik heb al geprobeerd om de vmx file aan te passen van de VM en het volgende toe te voegen:
hypervisor.cpuid.v0 = "FALSE"
mce.enable = "TRUE"
vhv.enable = "TRUE"

Ook staat CPU/MMU Virtualization op "Use Intel VT-x/AMD-V for instruction set virtualization and Intel EPT/AMD RVI for MMU virtualization".

Echter krijg ik nog steeds dezelfde foutmelding. Hebben jullie nog enig advies, of is dit gewoon niet mogelijk?

Alvast bedankt!
De melding is de vhv regel. Als je een vCenter hebt kun je zien of deze echt aan staat:




En met een vCenter of de Web Host Client kun je het ook gewoon inschakelen (onder CPU in de VM settings) zonder de VMX file te bewerken:
https://s28.postimg.org/p3qj37lnx/Schermafbeelding_2017_01_12_om_15_51_56.png

Gebruik je wel een HW level 10 of hoger voor je VM?

[Voor 10% gewijzigd door |sWORDs| op 12-01-2017 15:57]

Te Koop:24 Core Intel Upgradeset


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
@Dennis: ik heb de vmx file ook geedit met notepad++:

https://dl.dropboxusercontent.com/u/5549288/Nested_Hyper-v_2.PNG

@sWords de VM HW staat nu inderdaad op 8, maar heb deze ook al eens op 10 geplaatst, heb dit nu ook even opnieuw gedaan, maar dan is die niet meer editbaar op de vsphere client enkel op de web client, vandaar dat ik hem opnieuw heb aangemaakt. Maar dan ook daar staat alles juist en nog werkt het niet:



https://dl.dropboxusercontent.com/u/5549288/Nested_Hyper-v_4.PNG

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
jadjong schreef op woensdag 25 januari 2017 @ 17:54:
Vier vm's op een 4-core 2GHz cpu hoeven nooit te wachten. Vier vm's op een 2-core 4GHz cpu staan in 50% van de gevallen te wachten op elkaar, ook als de vm die een core bezet houdt niet de volle 4GHz nodig heeft. In beide gevallen heeft het totale systeem 8GHz te verstoken.
Ik zou alleen voor een weinig cores/veel GHz cpu kiezen als de software binnen de vm niet om kan gaan met multicore cpu's. In alle andere gevallen kan je de vm gemakkelijk uitbreiden met een extra cpu als de software daarom vraagt.
Dit is niet geheel waar, in theorie zijn ze gelijktijdig klaar, ja de helft staan ze te wachten, maar de taak is ook twee keer zo snel klaar. (1 uur wachten en 1 uur 100km/h = 2 uur 50km/h= 100 km) En daarboven op, benut je minder dan 4 volledige cores is de machine sneller.

Waarom een dual core niet aan te bevelen is: Het zijn niet alleen de VM's die CPU gebruiken, ook de kernel, virtual storage en virtual networking. Maar ik heb liever een dual core Pentium dan een acht core Atom als we het alleen over CPU hebben.

[Voor 9% gewijzigd door |sWORDs| op 25-01-2017 23:07]

Te Koop:24 Core Intel Upgradeset


  • iMars
  • Registratie: augustus 2001
  • Laatst online: 12-04 12:20
Vraagje: Ik heb een tweede ESXi host in mijn netwerk geplaatst. Nu wil ik kijken hoe het werkt (lees: wat het makkelijkst is) om een VM te verplaatsen op een andere host.

Nu kwam ik tegen een tool genaamd ovftool
iMars:VMware OVF Tool marcel$ ./ovftool -ds=Datastore vi://root@ESX-1/PiHole vi://root@ESX-2

Daarmee heb ik een test VM verplaatst van ESX-1 naar ESX-2.
Maar als ik op ESX-2 vervolgens de VM aan zet, kan ik niet vanuit de console connecten naar de VM:
https://tweakers.net/ext/f/eLMEYCT2YmvZQGO5iQrHSGSQ/thumb.png
De VM werkt verder gewoon prima, ik kan er naar ssh'n:
iMars:VMware OVF Tool marcel$ ssh pihole
marcel@pihole's password: 

The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
You have new mail.
Last login: Sun Jan 29 22:19:39 2017
marcel@Pi-Hole:~$ 

Het enige verschil tussen beide ESXi hosts is dat op ESX-1 op de SSD is geïnstalleerd waar ook de datastore op zit, en op ESX-2 het op een usb stick is geïnstalleerd en de SSD 100% voor de datastore is.

Edit: ik zie nu dat het waarschijnlijk niks te maken heeft met het verhuizen van de VM's.
Ik installeerde een nieuwe VM, en daar werkt het ook niet bij 8)7
https://tweakers.net/ext/f/RzZlrv3rINhIMgA3OxJfeYYD/thumb.png

[Voor 10% gewijzigd door iMars op 30-01-2017 12:14]

*updated* Koop hier mijn P1 reader :) of bezoek mijn website zuidwijk.com


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 31 januari 2017 @ 10:29:
Mijn ervaring met een 4 Node VSAN cluster was niet zo slecht. Het was zeker niet snel, maar ik kon gemiddeld toch wel 2000 iops en 60-85MB/s halen.

Maar wat je zegt is waar, 1 dikke host kan het waarschijnlijk sneller af.
Laten we dat even vergelijken met nested op dual NVMe hier:
47K IOPS read, 42K IOPS write, 1324MB/s read, 916.7MB/s write.

Nested VSAN:

https://s28.postimg.org/fdg7z6te5/Schermafbeelding_2017_01_31_om_11_02_29.png

Zelfde host als local storage (200K IOPS read, 219K IOPS write):

https://s23.postimg.org/6nfgl8ovv/Schermafbeelding_2017_01_31_om_11_02_53.png

En vergeet ook de amplification met R5 niet (2 reads en 2 writes voor elke schrijfactie).

[Voor 38% gewijzigd door |sWORDs| op 31-01-2017 12:28]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op dinsdag 31 januari 2017 @ 10:35:
Die is denk ik ook nog breder inzetbaar thuis.Ik bleef heel erg in het cirkeltje van fysieke hosts voor een virtueel speellab hangen :+
Er is momenteel wel één nadeel voor nested en dat is dat de maclearning fling niet werkt op 6.5. Daar tegen over staat dat je nu wel PVSCSI support in nested hebt.

Nou is het niet ondenkbaar dat er iets komt voor maclearning. ;)
Of je zou 6.0 op de host kunnen draaien met maclearning fling en 6.5 in de nested layer.

Verder kan ROBO ook een leuke config zijn. Je kunt dan geen R5 gebruiken, maar dat is ook niet iets wat je echt hoeft te proberen om te leren hoe het werkt. Cormac zijn blogpost lezen leer je net zo veel van als het zelf doen.
Voor een super ROBO config zou ik twee hosts met dual (single kan ook) NVMe en 10Gbit nemen en een super kleine machine met SATA en Gbit. Je hebt alleen een Gbit switch nodig, 10Gbit kun je cross connecten.

Qua NVMe drives wil je iets hebben als cache (of single) drive dat continu blijft performen zoals een Intel 750, SM961 of 960 Pro, in elk geval geen EVO of vorige generatie Samsung NVMe (950, etc):


Daarnaast zie ik best veel collega's met defecte 950/SM951's als cache drives, die stappen meestal over naar de Intel 750. Hier gebruik ik alleen 950's als capacity drives, al mijn andere drives zijn Intel 750's. (Ik heb één dual node ROBO config (Maar dan met 10Gbit switch, niet crossover) met Xeon-D's en een losse dual E5 met twee 750's die de witness draait, maar ook nested VSAN voor testen met R5/R6.)

[Voor 61% gewijzigd door |sWORDs| op 31-01-2017 12:21]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
cooLopke schreef op dinsdag 31 januari 2017 @ 10:40:
[...]


Zal het HW Level eens veranderen en kijken naar de resultaten.

De reden is om ZFS te hebben. Nu weet ik wel niet wat XPenlogy mij kan bieden, aangezien dit allemaal nieuw is voor mij. Heb jij XPenlogy draaien?

Ja, ik zat inderdaad verkeerd ik bedoelde virtueel natuurlijk.
Ik draai XPenlogy, ik vind de interface een stuk fijner, minder CPU/Memory nodig, betere performance en er is qua software meer mogelijk. Ook is Linux een makkelijker guest OS dan BSD. Ik ben ooit met Windows begonnen, daarna een tijd lang Freenas en toen twee QNAP hardware NAS-en gehad, maar ik wilde alles in één en ben toen naar XPenology overgestapt. Een paar weken geleden heb ik vrijwel alle bekende NAS software geprobeerd, maar voor mij blijft XPenology het fijnste.
|sWORDs| schreef op maandag 2 januari 2017 @ 15:37:
[...]

En mochten er nog mensen met DSM6 op ESXi willen spelen:

Ik heb een nieuwe OVA gemaakt met de laatste Jun bootloader.

Members only:
Alleen zichtbaar voor ingelogde gebruikers. Inloggen


HW Level 10, VMXNET3 en PVSCSI.

OVA deployen, disk toevoegen (of controller), starten en wordt direct gevonden in de Assistant. PAT kun je met de hand of vanaf internet installeren en daarna de open-vm-tools die er bij zit (open-vm-tools_bromolow-6.0_10.0.7.spk) installeren. Daarna bijwerken naar update 7 werkt ook prima.







https://s29.postimg.org/wrwtca43b/Schermafbeelding_2016_12_27_om_15_13_25.png

Ik heb een paar dagen met een VMDK getest en nu vijf dagen mijn DSM5 disks (VT-d van Intel SATA controller) geüpgrade. Draait vooralsnog perfect op een SuperMicro 5028D-TN4T (met 128GB, 400GB Intel 750, 512GB Samsung 950 Pro, 4x 4TB Toshiba en 2x 480GB Samsung 843T) met ESXi 6.5.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
cat /proc/cpuinfo|grep 'model name'
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz
model name  : Intel(R) Xeon(R) CPU D-1541 @ 2.10GHz

cat /proc/meminfo|grep -i memtotal
MemTotal:        4054424 kB

cat /etc.defaults/VERSION
majorversion="6"
minorversion="0"
productversion="6.0.2"
buildphase="hotfix"
buildnumber="8451"
smallfixnumber="7"
builddate="2016/12/20"
buildtime="05:10:40"

lspci -q|egrep -i -v 'bridge|system|unclassified'
0000:00:07.1 IDE interface: Intel Corporation 82371AB/EB/MB PIIX4 IDE (rev 01)
0000:00:0f.0 VGA compatible controller: VMware SVGA II Adapter
0000:02:05.0 SATA controller: VMware SATA AHCI controller
0000:03:00.0 Serial Attached SCSI controller: VMware PVSCSI SCSI Controller (rev 02)
0000:0b:00.0 Ethernet controller: VMware VMXNET3 Ethernet Controller (rev 01)
0000:13:00.0 SATA controller: Intel Corporation 8 Series/C220 Series Chipset Family 6-port SATA Controller 1 [AHCI mode] (rev 05)

/volume1/@appstore/open-vm-tools/bin/vmware-toolbox-cmd -v
10.0.7.52125 (build-3227872)






Wat niet uit de cache komt gaat met zo'n 400MB/s, wel uit de cache gaat met 1.1GB/s. Een extra PVSCSI volume op NVMe haalt zo'n 1.3GB/s. Verkeer buiten de host met 970MB/s (cache/NVMe). Misschien kan die 400MB/s nog omhoog met wat RAID tuning.

[Voor 86% gewijzigd door |sWORDs| op 31-01-2017 11:44]

Te Koop:24 Core Intel Upgradeset


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
Dag swords,

Ik ben ook even bezig geweest met de finetuning van de Intel SSD, ik behaal onderstaande resultaten, maar ik gebruik de LSI Logic SAS in plaats van de LSI Logic Parallel, als ik die selecteer herkent hij mijn schijf niet. Hoe bereken je trouwens je IOPS?


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
Super, Thanks! Ik kan weer verder =)

edit: lijkt me nu wel in orde ;) (PVSCSI)

[Voor 66% gewijzigd door cooLopke op 02-02-2017 09:12]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
cooLopke schreef op donderdag 2 februari 2017 @ 07:43:
Super, Thanks! Ik kan weer verder =)

edit: lijkt me nu wel in orde ;) (PVSCSI)

[afbeelding]
Kanonnen... Wat voor drive is dat? 260K read, 248K write. Dat is hoger dan de 230K write uit de specs van de 400GB Intel 750 voor een 8GB burst, heb je een 1.2TB? Ik kom niet aan deze snelheden door de 'beperkte' frequentie van mijn CPU's.

En welk client OS gebruikt je? Die van mij waren op 2012R2, misschien zit daar ook nog een verschil in, geloof dat ik hier al eens eerder gezien heb dat Win10 het wat beter doet.

Misschien kun je even een rijtje maken met waarop je test:
ESXi: 6.5.0

Host:
  • CPU: Dual Xeon E5-2690 v3 ES (dual Haswell 12 core 2.4GHz, 2.6 All Core Turbo)
  • Mem: 256GB DDR4 2133MHz
  • Drive 1: Intel 750 400GB
  • Drive 2: Intel 750 1.2TB
VM:
  • OS: 2012R2 x64 (fully patched)
  • Cores: 4
  • Mem: 2048MB (Om geheugen caching uit te sluiten)
  • Controller: PVSCSI (Met registry edit naar QD254)
  • Fysieke drive: Intel 750 400GB

https://s23.postimg.org/6nfgl8ovv/Schermafbeelding_2017_01_31_om_11_02_53.png

VM:
  • OS: 2016 x64 (fully patched)
  • Cores: 4
  • Mem: 8096MB
  • Controller: PVSCSI (Met registry edit naar QD254)
  • Fysieke drive: Intel 750 1.2TB

[Voor 77% gewijzigd door |sWORDs| op 02-02-2017 14:01]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op donderdag 2 februari 2017 @ 13:49:
[...]


als je het zo bekijkt wel . .Maar zie maar eens toestemming van de vrouw te krijgen om een VM machine te bouwen die 2K gaat kosten (ben ik er dan?) ;-) .. (als je alles bij elkaar neemt) ;-)
Met 2K kun je echt wel een leuk systeempje bouwen hoor, onderstaande met 1.2TB ipv 400GB en de verzendkosten:
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 308,55€ 308,55
1Supermicro X11SSL-F€ 200,75€ 200,75
1Supermicro 731I-300€ 98,55€ 98,55
4Kingston KTH-PL424S/16G€ 154,50€ 618,-
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 325,01€ 325,01
Bekijk collectie
Importeer producten
Totaal€ 1.550,86

[Voor 78% gewijzigd door |sWORDs| op 02-02-2017 14:08]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
cooLopke schreef op donderdag 2 februari 2017 @ 14:19:
[...]


Dag sWords,

Dat was op de volgende machine ESXi 6.5:

Host:
  • CPU: 4x Intel Xeon CPU E3-1230 v5 at 3,4 Ghz
  • Memory: 16GB DDR4 2133Mhz
  • Drive 1: Intel 750 400GB
VM:
  • OS: 2016 x64
  • Cores: 2
  • RAM: 4096MB
  • Controller: PVSCSI (niets aangepast in registry)
  • Fysieke drive: Intel 750 400GB
code:
1
2
3
4
Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\pvscsi\Parameters\Device]
 "DriverParameter"="\"RequestRingPages=32,MaxQueueDepth=254\""


En even rebooten.
The large-scale workloads with intensive I/O patterns require adapter queue depths greater than the Paravirtual SCSI (PVSCSI) default values. Current PVSCSI queue depth default values are 64 (for device) and 254 (for adapter). You can increase PVSCSI queue depths to 254 (for device) and 1024 (for adapter) inside a Windows virtual machine or Linux virtual machine.

Increase the PVSCSI queue depth inside the Windows or Linux virtual machine, as described in the following sections. This modification increases the number of pages used by the PVSCSI adapter for the request ring to 32. It also increases the queue depth of the devices attached to the PVSCSI adapter to 254.

The default number of ring pages is 8, each of which is 4 KB in size. One entry of 128 bytes is needed for a queued I/O, which means that 32 entries on a single page of 4096 bytes, resulting in 256 entries (8x32). The Windows PVSCSI driver adapter queue was hard coded in previous releases, but it can be adjusted up to the maximum of 32 pages.
Hier zie ik een bump van 207K read naar 222K read en 215K write naar 232K write met de hogere ringpage en queuedepth op Server 2016, op 2012R2 was het verschil groter. Maar misschien maakt het met jouw CPU frequentie helemaal niet uit.

Wat ik trouwens wel frappant vind en wat hardware.info ook al opgevallen was tijdens testen, de 400GB (links) is meer constant dan de 1.2TB (rechts), zie hier een 32GB run:

[Voor 54% gewijzigd door |sWORDs| op 02-02-2017 15:45]

Te Koop:24 Core Intel Upgradeset


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
|sWORDs| schreef op donderdag 2 februari 2017 @ 14:21:
code:
1
2
3
4
Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\pvscsi\Parameters\Device]
 "DriverParameter"="\"RequestRingPages=32,MaxQueueDepth=254\""


En even rebooten.
Met de registeraanpassing, niet zo een groot verschil. Die Intel 750 is echt niet normaal =):

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op zondag 5 februari 2017 @ 14:56:
[...]

Geheugen kom ik nog even bij je op terug. Voor wat betreft die +1TB, gaat dat ook nog steeds op als ik de onboard controller doorgeef aan een VM? Met een Xeon D heb je natuurlijk maar 1 pci-e slot en volgens de site van TrendSupermicro is er geen .m2 slot toch?
Er zit zowel een PCIe slot als M.2 slot op. Ik doe hier exact hetzelfde, 6x SATA (4x 3.5" HDD, 2x 2.5" SSD) in passthrough naar XPenology (bootdisk op VSAN) en dan VSAN op 400 GB Intel 750 HHHL (cache) en 512GB Samsung 950 Pro M.2 (capactity). Wat niet zou werken is een SATA M.2, maar PCIe M.2 wel. In mijn geval moet ik wel booten van USB, omdat beide NVMe drives fysiek voor VSAN gebruikt worden en de Intel AHCI in passthrough zit.
Supermicro pagina van 5028D-TNT4
  • Intel® Xeon® processor D-1541, 8-Core, 45W
  • Up to 128GB ECC RDIMM DDR4 2400MHz
  • 1x PCI-E 3.0 x16 (LP)
  • 1x M.2 PCI-E 3.0 x4, M Key 2242/2280
  • 6x SATA3 (6Gbps) ports
  • 4x 3.5" Hot-swap drive bays
  • 2x 2.5" internal drive bays
  • Dual LAN via Intel® i350-AM2 Gigabit Ethernet
  • Dual LAN via SoC 10GBase-T




Hierboven zie je de SATA AHCI controller/devices niet staan, dat komt omdat deze in passthrough aan een VM zit, zie hieronder.





Dit vind ik nou net het grappige aan deze 'doosjes'. 8 volwaardige cores (geen Atom) met HT, 8 storage devices (4x 3.5" SATA, 2x 2.5" SATA, 1x M.2 en 1x PCIe), IPMI, dual Gbit, dual 10Gbit en 128GB RAM.
En HCL!

Hier als single node VSAN (ik moest iets testen, volgende week gaan ze weer in ROBO):




[Voor 67% gewijzigd door |sWORDs| op 05-02-2017 15:51]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op woensdag 8 februari 2017 @ 08:00:
[...]


Aan de hand van jouw advies het lijstje compleet gemaakt. Het is iets meer geworden dan 2500 euro. Klopt dit lijstje?
Het enige punt waarop ik zou kunnen snijden is de storage, dus de Intel 400GB ipv de 1.2TB maar snij mijzelf daarmee uiteindelijk niet mee in de vingers? Ik kan de 400GB uiteindelijk wel in mijn desktop gebruiken maar dat heb ik absoluut niet nodig.

#ProductPrijsSubtotaal
1Supermicro SYS-5028D-TN4T€ 1.308,82€ 1.308,82
4Samsung M393A4K40BB0-CPB€ 282,30€ 1.129,20
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 749,-€ 749,-
1Samsung PM961 1TB€ 415,60€ 415,60
Bekijk collectie
Importeer producten
Totaal€ 3.602,62
Wat is dat geheugen gestegen zeg... Ik heb eind augustus voor 4x32GB 2400MHz Samsung M393A4K40BB0-CPB 606 euro betaald, dat is +86%!

Als je ooit overgaat naar ROBO is dit wel een behoorlijke verspilling, 10% cache is wat je nodig hebt. Als de cache disk groter is dan is dat gunstig voor de levensduur (en meestal performance), maar 12x groter is wel erg veel (ik zou dus voor de 400GB gaan). Een ander ding waar je op kunt besparen is de 1TB. Als je ziet wat je op 512GB kwijt kan dan zou dat echt voldoende kunnen zijn. Zie hier een dual 5028D-TNT4 ROBO met elk 512GB (en een failure to tolerate van één) en 26 VM's (de rest is nog aan het terug migreren):









En hier wat één VM nog aan IO doet terwijl 25 anderen ook draaien (writes over 10Gbit switch, zonder checksums zou de 4K performance een stuk hoger zijn):

[Voor 6% gewijzigd door |sWORDs| op 08-02-2017 09:55]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op woensdag 8 februari 2017 @ 09:17:
Die geheugenprijzen zijn écht bizar inderdaad. Ik kan initieel ook kijken hoever ik kom met 64GB maar zal uiteindelijk toch naar die 128 toe willen.
Uiteindelijk zal ik hem nog wel uit willen bouwen naar een tweede host maar dat zal ik in een ander financieelboekjaar(decenium :+ )
Die storageaanpassing schelen wel wel een slok op een borrel maar is alsnog fors.
Een andere manier waarop je misschien 100-200 euro kan besparen is de 5028 in onderdelen te bestellen. Bij de eerste scheelde mij dat zo'n 150 euro, terwijl ik letterlijk alle (van air shroud tot kabeltjes) identieke onderdelen heb. Alleen de model name is anders, maar dat zou ik nog met IPMICFG kunnen aanpassen:



Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
johnvolkering schreef op woensdag 8 februari 2017 @ 17:33:
Vraagje: Is het mogelijk om de fan speed aan te passen in ESXi?
Ik heb een Supermicro server en ESXi V6.
De fanspeed wordt wel automatisch gereguleerd.
Echter ze maken nog te veel lawaai en de temperatuur mag wel iets hoger.
Daarom dacht ik de fan speed iets aan te passen (uiteraard voor eigen risico)

Helaas niet bruikbaars tegen gekomen in mijn zoektocht naar het antwoord.
Vandaar een vraagje op dit forum.

Bedankt voor een reactie.
In IPMI zijn ze in te stellen, de exacte percentages van de 4 modi kun je volgens mij met IPMICFG aanpassen.
|sWORDs| schreef op woensdag 11 januari 2017 @ 11:17:
[...]

Je kunt de fanspeed in IPMI aanpassen onder Configuration -> Fan Mode:
|sWORDs| schreef op woensdag 11 januari 2017 @ 11:42:
[...]

Hier is het een stuk minder.

Optimal:


Standard:


Heavy IO:


Full:


Weet je zeker dat je fans PWM zijn?

ModeFAN1-6FANA-B
Optimal30-100%30-100%
Standard50-100%50-100%
Heavy IO50-100%75%
Full100%100%

[Voor 48% gewijzigd door |sWORDs| op 08-02-2017 18:19]

Te Koop:24 Core Intel Upgradeset


  • Nakebod
  • Registratie: oktober 2000
  • Laatst online: 07:17

Nakebod

Nope.

|sWORDs| schreef op zondag 12 februari 2017 @ 20:19:
Heb je daarna wel met VT-d de USB controller doorgegeven? Dat zou namelijk altijd moeten werken of boot je van USB?
Even ervan uitgaande dat ik begrijp wat je wilt :+
We hebben het over deze settings toch?

Ik boot niet van USB, en kan alleen de GPU en 2 NIC's selecteren voor passthrough.
In de UEFI settings van mijn mobo staat VT-d aan, en ergens anders een melding dat VT-d supported was. Heb nog wel bij USB als test legacy support uitgezet, zonder resultaat.

Dus volgens mij zou het moeten werken, maar de praktijk is anders :+ Ben al lang blij dat mijn andere USB devices wel gewoon doorgegeven worden aan mijn Domoticz server.
Ik laat het maar hierbij, zo belangrijk is het ook weer niet :P

Blog | PVOutput Zonnig Beuningen


  • cooLopke
  • Registratie: juli 2013
  • Laatst online: 03-04 22:10
|sWORDs| schreef op zondag 12 februari 2017 @ 23:03:
[...]

Waarom heb je een router achter een router? En wat voor router is de eerste? Heb je naast de portforward ook de firewall rule gezet?
Verplichting van de provider, deze plaatst kabelrouters in plaats van modems, dus heb geen ander keuze, vandaar DMZ. Ik heb ook liever de firewall/router in eigen handen dan bij de provider. (Geen controle over DHCP...) Maar daarnaast zou dit perfect moeten lukken, want er zijn meer mensen wat dit doen en bij hun werkt. Firewall rule is in orde, want deze wordt automatisch gecreëerd bij aanmaken port forwards. Heb bij de WAN interface ook aanpassingen gedaan betreffende de block "bogon networks" en "private networks" opties, aangezien mijn router eigenlijk al een privé adres krijgt op de WAN zijde, heb ik dit uitgeschakeld, ik dacht dat dit hiermee was opgelost maar helaas.

Ik vermoed omdat ik NAT => NAT heb, dat ik wat andere opties over het hoofd zie en de pfsense router niet met de standaardinstellingen correct werkt.

Tevens heeft het probleem te maken met enkel TCP port forwards, UDP port forwards werken perfect. Het heeft iets te maken dat er bij de Interface WAN (pfsense) kant het IP van de default gateway staat in dit geval (192.168.0.1). De router (telenet) op de echte WAN kant doet hier niets mee precies.

Thanks alvast.

Om een idee te krijgen: (dit is niet mijn netwerk topology, maar dan krijg je het idee)

[Voor 21% gewijzigd door cooLopke op 13-02-2017 08:33]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 14 februari 2017 @ 13:56:
Wauw, die geheugen prijzen zijn echt _niet_ grappig... :(
Nee, het dubbele van toen ik de startpost schreef:
https://s24.postimg.org/t2oc3y0dx/Schermafbeelding_2017_02_14_om_16_24_22.png

Het is zelfs nog erger, die uit de startpost zijn 2400MHz, dit is 2133MHz...

Ik ben blij dat ik alles al heb, als ik het nu zou moeten kopen zou ik mijn faillissement kunnen aanvragen. 8)7

#ProductPrijsSubtotaal
16Samsung M393A2G40DB0-CPB€ 152,61€ 2.441,76
8Samsung M393A4K40BB1-CRC€ 310,60€ 2.484,80
Bekijk collectie
Importeer producten
Totaal€ 4.926,56


[Voor 86% gewijzigd door |sWORDs| op 14-02-2017 18:01]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
iMars schreef op donderdag 16 februari 2017 @ 00:26:
[...]

Dat vind ik het absoluut niet waard ;-)
Ik zit er blijkbaar niet ver naast, AnandTech in een real world power test van 15 minuten:





4x 52.5 = 210 Watt, nou is hun test wel wat zwaarder dan een lab, maar zoals je hier onder kunt zien is het idle al 158Watt, mijn gok van 180-200 lijkt dus best te kloppen. Anandtech gebruikt een LSI met externe schijven (schijven niet mee gemeten) en vier interne schijven (SATA SSD).



Please note that although the CPU load is high, we are not measuring maximum power: you can attain higher power consumption numbers by using a floating point intensive benchmark such as Linpack. But for virtualized—mostly integer—workloads, this should be more or less the maximum power draw.
Naast het stroomverbruik is het qua CPU ook niet super veel. Multi threaded score van dual x5670 is 12,665 en een i7-7700K is 12315 (3% langzamer in een synthetische benchmark, of te wel real world identiek en bij lichte load zelfs veel sneller). Je zit ook zonder PCIe 3.0 (nadeel met NVMe) en een hele bak herrie.

[Voor 38% gewijzigd door |sWORDs| op 16-02-2017 02:29]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Omdat je na een lange dag hard werken ook wel eens wat lol wil hebben, ben ik de vraag die iedereen wil weten maar gaan beantwoorden: Hoeveel idle 2012R2 RDS hosts kun je draaien met 24 cores en 256GB. :+



Mede mogelijk gemaakt dankzij vmFork.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ro3lie schreef op dinsdag 21 februari 2017 @ 10:11:
[...]


En straks kom je op het punt dat WSUS gaat draaien :+
Deze waren met de VMware OS Optimization Tool geoptimaliseerd (Windows Update uit, updaten doe je in de master), maar inderdaad, 30 minuten nadat ze uitgerold waren heb ik het aantal weer terug gezet naar 100, voordat midden in de nacht de vlammen uit mijn omgeving slaan. :D

Mijn blogpost over RDSH en Instant Clones zit nu in editing, zodra hij er staat zal ik de link posten, de resultaten zijn mind blowing. Wat ik daar natuurlijk niet in gebruik is TPS, maar reserve all memory. Mocht je TPS met vmFork in een lab willen gebruiken dan zijn hier de gebruikte host settings:

https://s10.postimg.org/xfcg706ix/Schermafbeelding_2017_02_21_om_11_34_04.png

[Voor 26% gewijzigd door |sWORDs| op 21-02-2017 11:56]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 21 februari 2017 @ 13:07:
@|sWORDs| Die share scan per Ghz kan toch veel hoger zou je denken? Geheugen zit in de orde van GB/s, of moet ik dat lezen als effectieve winst / seconde ofzo?

Ben beniewd naar je post! Ik wil thuis een autoscaling lab maken met heel veel dezelfde VM's, daar zijn bijna al die settings ook wel van toepassing :)
Alles wat je daar ziet zijn de minimum/maximums.
code:
1
2
3
4
5
6
7
8
9
/config/Mem/intOpts/> get ShareScanGHz
Vmkernel Config Option {
   Default value:4
   Min value:0
   Max value:32
   Current value:32
   hidden config option:0
   Description:max page scan rate in MB/sec per GHz of host CPU, 0 to disable
}


https://s3.postimg.org/u9o70bktf/Schermafbeelding_2017_02_21_om_13_19_41.png

[Voor 28% gewijzigd door |sWORDs| op 21-02-2017 13:20]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
cooLopke schreef op dinsdag 21 februari 2017 @ 15:18:
[...]


Yep, dat klopt volledig, ah, dat wist ik niet. Wat is een goede oplossing in mijn situatie?

edit: die telenet router is ook een modem, die kan er volgens mij niet tussenuit hoor. Daar komt de coax kabel binnen
Ik was nog bezig met lezen, heel even wachten nog. ;)

Edit:

Ok, hoeveel poorten zitten er op de telenet router? En kun je kabels trekken vanaf de telenet router naar de digicorders? Zo niet heb je minimaal twee (+1 per extra digicorder in een andere ruimte) managed switches nodig, tenzij er geen andere apparaten in de buurt van de modem/ESXi aangesloten hoeven te worden, dan zou je het kunnen trunken vanaf ESXi met alleen een managed switch bij de digicorder.

Telenet router
|
Managed Switch
|
Managed Switch
|
Digicorder

Aan één van die switches komt dan ook ESXi en tussen de switches trunk je VLAN1 (pfSense) en VLANx (telenet), dan zet je vervolgens VLANx als PVID op de poort waar de digicorder aan zit.

DLNA van devices binnen je LAN naar de digicorder werkt in beide gevallen niet. Maar er moet toch een manier zijn waarop dit achter je eigen router aan de praat te krijgen is, heeft niemand wireshark op de digicorder los gelaten?

Hier zie je iemand die trunked met VLANs via de ingebouwde managed switches van twee routers (eentje als AP):


Maar dit trunken heeft dus niets met routing te maken, toevallig hebben beide bovenstaande routers een ingebouwde managed switch maar feitelijk is het dus gewoon managed switch -> managed switch, het verkeer komt nooit bij de CPU's van één van de routers.

Die digicorder krijgt op de één of andere manier (PPPoE, API op router of MAC based VLAN?) een intern IP (10.164.x.x) van de modem of van de provider, dat moet met wireshark te zien zijn en met of routing of switching (via een enkele managed switch) naar de telenet modem te krijgen zijn.

[Voor 145% gewijzigd door |sWORDs| op 21-02-2017 15:55]

Te Koop:24 Core Intel Upgradeset


  • ComTech
  • Registratie: november 2002
  • Laatst online: 22:47
Ik heb eindelijk weer eens tijd gevonden om m'n enige puntje aan te pakken van m'n esxi server.
Wil op m'n Xpenology dsm6 VM een RDM harddisk toevoegen.
Heb de HD toegevoegd aan de controller waar ook m'n datastore opzit.
Schijf wordt gezien.
Als ik echter een disk toevoeg aan de VM blijft de optie raw device mappings grijs (niet selecteerbaar dus).
Als ik het probeer via deze instructies https://kb.vmware.com/sel...playKC&externalId=1017530 lukt het echter nog steeds niet.
Krijg deze foutmelding.



Dit krijg ik ook bij andere VM's waar ik de rdm disk wil toevoegen?
Wat doe ik fout?

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
De performance zou vrijwel identiek moeten zijn. Het is al even geleden dat ik met non shared en local RDM bezig ben geweest. Ik weet dus niet zeker wat er voor welke modus nodig was. Maar bij een shared non local moet je een apparte virtuele scsi controller hebben. Geen datastore moet volgens mij sowieso.

Ik neem aan dat die disk aan een Intel SATA controller zit?

Edit:
ComTech schreef op zondag 26 februari 2017 @ 17:33:
[...]
Bedankt voor je tips ik pruts nog even verder :)
[...]
Toch maar eens getest op een machine met een Intel 750 (Datastore voor RDM links), Samsung 950 (NVMe), Toshiba 4TB (SATA) en Sandisk X400 500GB (SATA):
code:
1
2
3
vmkfstools -z /vmfs/devices/disks/t10.NVMe____Samsung_SSD_950_PRO_512GB_______________1D00506156382500 /vmfs/volumes/NVMe1ESXi3/Samsung950.vmdk
vmkfstools -z /vmfs/devices/disks/t10.ATA_____SanDisk_SD8SB8U512G1122_________________165320422765________ /vmfs/volumes/NVMe1ESXi3/Sandisk.vmdk
vmkfstools -z /vmfs/devices/disks/t10.ATA_____TOSHIBA_MG04ACA400E_____________________________Y6LGK197FJKA /vmfs/volumes/NVMe1ESXi3/Toshiba.vmdk

Daarna op een VM "Add Existing disk" drie keer gedaan (naar de vmdk files hierboven) en geboot:


Samsung 950 500GB als RDM links, als datastore met thin vmdk rechts en VT-d onder:



Toshiba MG04ACA400E als RDM, VT-d, datastore met thin vmdk en datastore met thick eager vmdk:





Sandisk X400 500GB als RDM, VT-d en datastore met thin vmdk:




Het mag duidelijk zijn dat RDM hogere queuedepths niet leuk vind. Als je geen shared disk maakt (voor bijv. Microsoft Clustering), dan heb je geen tweede PVSCSI controller nodig.

[Voor 100% gewijzigd door |sWORDs| op 27-02-2017 02:12]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Voor mensen die nog uitkijken naar een goedkope NVMe SSD zodat ze hun Onboard AHCI controller door kunnen geven:

http://www.thessdreview.c...ew-480gb-unmatched-value/
The MyDigitalSSD BPX is a PCIe 3.0 x4 NVMe SSD that comes in an M.2 2280 form factor. It is available in capacities of 120GB ($77.43), 240GB ($114.99) and 480GB ($199.99).
Presteert beter dan een Intel 600p en heeft een keurig laag idle energieverbruik.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op dinsdag 7 maart 2017 @ 11:36:
Ik ben heel benieuwd naar de prestaties en prijs van het 128GB model...

Oeh, dat valt me nog wel tegen, ik had gehoopt op sub 75 euro.
Zotac (Sonix), PNY (CS2030), Corsair (MP500) en Patriot (Hellfire) hebben dezelfde Phison PS5007-E7 (PS5007-11) controller en zelfde flash chips (Toshiba 15nm planar MLC) als MyDigitalSSD (BPX). Misschien Toshiba zelf ook wel, die deden in het verleden ook zaken met Phison. De chip kan ook TLC aan, dus misschien dat er nog iemand met TLC komt, aangezien Phison zelf de firmware maakt (dus niet zoals bij Marvell) verwacht ik vrijwel identieke scores voor alle drives zolang ze dezelfde base firmware versie gebruiken.

Edit; nog meer:
Apacer (Z280)
Super Talent (AIC314)
G SKILL (Phoenix)
Mushkin (Striker)
Kingston (?)

4K write QD32:


Databasesimulatie QD32:




Zotac met andere firmware???

[Voor 60% gewijzigd door |sWORDs| op 07-03-2017 14:24]

Te Koop:24 Core Intel Upgradeset


  • Nakebod
  • Registratie: oktober 2000
  • Laatst online: 07:17

Nakebod

Nope.

Met mijn beperkte ESX kennis en dus het risico dat ik hele stomme dingen roep :+ ga ik het toch proberen.
Roep vooral als ik hele stomme dingen probeer.

Allereerst wat ik wil bereiken:
Colocated server, hobbyproject, zonder hardware firewall.
Server installeren met ESX, en de ESX webinterface via een Sophos UTM firewall op de ESX host beschikbaar maken. (VPN, IP restricties, etc.)
Met het risico dat ESX en/of de firewall niet start en het allemaal niet werkt. Firewall zou nog in HA setup kunnen draaien.
Dat het geen alledaagse oplossing is ben ik inmiddels wel achter :+
Alternatief is een publiek IP aan de ESX host hangen, maar daar ben ik eigenlijk geen voorstander van.

Andere oplossingen hoor ik ook graag :)

Samenvatting vooraf:
Kan het zijn dat het management netwerk/webinterface alleen functioneert als je werkelijk via een kabel aan de fysieke interface binnenkomt?

Mijn idee/configuratie is als volgt, behalve dat ik het niet werkend krijg..
ESX host met meerdere ethernet poorten.
vmnic0: WAN.
vmnic3: Management.

Port Groups:
WAN > vSwitch_WAN > Physical adapter vmnic0
VM Network > vSwitch_LAN (Geen physical adapter)
VM Management > vSwitch_Management > Physical adapter vmnic3
Management > vSwitch_Management > VMkernel (IP 192.168.10.100)

VM's:
Firewall, 3 netwerkkaarten. WAN, met meerdere publieke IP's. (Als test even in 10.0.0.0 range), VM Network (192.168.0.0) en VM Management (192.168.10.0).
Overige Guest VM's alleen VM Network (192.168.0.0)

Via mijn firewall kan ik pingen naar 192.168.10.100 (ESX Host)
Vanaf de ESX host kan ik pingen naar 192.168.10.254 (Firewall)

In de Sophos firewall wat regels aangemaakt voor HTTP/HTTPS en SSH. Dezelfde regels gebruik ik ook om bijv SSH op een extern IP door te sturen naar een Ubuntu VM.
Probeer ik vanaf "extern" te verbinden zie ik de connectie in de log langskomen als accepted, maar ik kom er niet op. De ESX firewall is als test ook even helemaal uitgeschakeld.

Ook nog een nieuwe portgroup met VMkernel op vSwitch_LAN aangemaakt, met IP 192.168.0.100. Via een guests kan ik de webinterface bereiken via 192.168.0.100.

Hier probeer ik via VPN (10.10.10.0) te verbinden. Volgens de firewall lukt dat, maar lijkt daarna in een zwart gat te verdwijnen.

Nu is mijn voorlopige conclusie dat het lijkt alsof het management netwerk alleen werkt als je fysiek via een kabel binnenkomt op vmnic3. Wat raar is omdat ik via een guest VM wel naar 192.168.0.100 kan.

Whelp! :+

Blog | PVOutput Zonnig Beuningen


  • Snippo
  • Registratie: juni 2006
  • Laatst online: 11-04 14:33
Snippo schreef op dinsdag 18 oktober 2016 @ 11:49:
Ik wil binnenkort een nieuwe server opzetten met een hypervisor. Het is de bedoeling dat één van de VM's Windows draait en daarbij ondersteuning heeft voor hardware acceleratie d.m.v. Intel Quick Sync. Nu heb ik al gezocht of dit mogelijk is waarbij ik alleen een aantal reacties tegen kom als 'Nee, niet mogelijk' of 'Wordt aan gewerkt', maar nu weet ik dus nog niets.
Misschien dat hier iemand dus het antwoord weet: is het mogelijk om ondersteuning voor Intel Quick Sync te krijgen in een VM door middel van GPU passthrough oid? (het hoeft ook niet per se in ESXi te zijn, maar zo te zien wordt dat het vaakst gebruikt).
Om mijn eigen vraag maar te beantwoorden: het is gelukt :).


Na een mislukte poging om het in unRAID aan de praat te krijgen (wat het wel zou moeten ondersteunen) heb ik ESXi geprobeerd en dat werkte eigenlijk vrij makkelijk:
-VGA controller beschikbaar stellen voor passthrough
-In de VM de VGA controller doorgeven (PCI device)
-Guest tools installeren (zonder deze werkte het niet)
-De juiste Intel graphics drivers installeren

In de screenshot is te zien dat Quick Sync dus ook ondersteund wordt. Het enige wat niet lukt is om beeld te krijgen via de HDMI poort, maar dat gebruik ik zelf toch niet dus dat is voor mij verder geen probleem.

Ik heb verder dus totaal geen ervaring met ESXi dus meteen maar een beginners vraagje: waarom is het aantal 'cores per socket' alleen in te stellen op een zelfde waarde als het aantal 'CPU's'?
Voor zover ik het begrijp zit te optie erin om ipv 4 CPU's, 1 CPU met 4 cores door te geven aan een VM. Ik begrijp dan alleen niet waarom ik 4 CPU's met 4 cores per socket in kan stellen :+ .

  • Denissen
  • Registratie: oktober 2010
  • Laatst online: 10-04 20:23
jwvdst schreef op zondag 2 april 2017 @ 22:14:
de dure manier
een sata controller kaart kopen waardoor ik weer sata aansluitingen beschikbaar heb voor de host en daar dan een harde schijf op aan sluiten.

Wat zijn de voor en nadelen van deze 2 manieren?
De dure manier hoeft niet heel duur te zijn. Conceptronic heeft leuke kaartjes welke als HBA gebruikt kunnen worden. De Conceptronic gebruikt de ASM1062 controller. Gebruik ze zelf gepasstrought voor een Xpenology VM en werkt tot op heden prima.

[Voor 6% gewijzigd door Denissen op 06-04-2017 10:04]


  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 22-03 15:34
ThaNetRunner schreef op woensdag 12 april 2017 @ 09:59:
[...]


Je hebt 6 SATA poorten aan de rand,

Wat zijn die overige 8 SATA poorten dan?
je hebt verschillende uitvoeringen van dit moederbord en die zitten er bij mij niet op
als je de specificaties door leest staat er dat er alleen 6 sata poorten op zitten
er is namelijk ook nog een uitvoering van dit moederbord met 8 san poorten en ze zullen wel dezelfde foto gebruikt hebben ik had me daar eerst ook op verkeken

hier een foto van het moederbord wat ik gebruik


je kunt hier ook zien dat het pci express x16 slot in lijn ligt met het pci express slot x8

[Voor 19% gewijzigd door jwvdst op 12-04-2017 10:13]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
jwvdst schreef op woensdag 12 april 2017 @ 09:52:
http://www.supermicro.com...eon3000/X58/X8STi-LN4.cfm

dit moederbord gebruik ik en het pci express slot is al in gebruik door de tv kaart
er zit nog wel een pci express 8x slot op maar door dat de tv kaart daar al zit kom ik daar niet bij
TV kaart met een flat cable aan de PCIe 1.0 x4 (maar de beschrijving is heel raar, zegt x8 in x4, andersom ken ik wel), de PCI 2.0 x16 gebruiken voor een HBA of NVMe(+USB boot)?

PCI zou ik niet gebruiken, daar hangt ook de BMC met VGA aan.

Edit: Het plaatje zegt SXB, dat is een Supermicro uitbreiding voor risers, maar jouw kast kan waarschijnlijk geen kaarten haaks op het bord bevatten? SXB lijkt niet echt meer leverbaar, maar je zoekt iets wat hier een beetje op lijkt:

[Voor 53% gewijzigd door |sWORDs| op 12-04-2017 10:24]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0Henk 'm!

  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 22-03 15:34
ik ben nu dan terug gegaan naar esxi 6.0 en maak nu dan ook gebruik van de vsphere client. Is er een reden dat deze niet meer volledig ondersteunt wordt in 6.5?

mn tv kaart heb ik nu ook zonder problemen aan de gang via pci pass through.
heb daarvoor wel de geel gemarkeerde regel toe moeten voegen aan de parameter configuratie


heb mn pfsense nu ook in een vm draaien. Daarvoor heb ik 2 netwerkpoorten in pass through gezet en door de configuratie van mn oude pfsense bak te backupen en te restoren op mn nieuwe pfsense bak was dit ook binnen een uurtje geregeld.

moet nog even kijken hoe en wat ik ga doen met mn xpenology of ik die er ook bij op zet. Deze draait nu nog bare metal. Het makkelijkste is om dan de sata controller in pass throug te zetten met maar dan kan ik weer niet bij mn datastore. Aangezien ik maar 1 pci-e slot heb en die al bezet is door de tv kaart ben ik veroordeeld tot een pci sata controller wat betreft mn nas. Ben me er dan wel van bewust dat ik een gbit ethernet verbinding niet dicht trek maar dat is op zich geen probleem met 500mbit kan ik me al goed redden.
Dus als er nog iemand is die een pci 4 poorts sata controller heeft liggen die compatibele is met xpenology dan mag deze altijd een berichtje sturen.

Acties:
  • 0Henk 'm!

  • wokkelz
  • Registratie: april 2004
  • Laatst online: 21:53
Ik heb het uiteraard geprobeerd toen de VM uit stond.



Snapshot loopt nu, ben benieuwd of dat lukt.

/Edit, snapshot gelukt. Wat bewijst dat?

[Voor 12% gewijzigd door wokkelz op 12-05-2017 16:41]


Acties:
  • 0Henk 'm!

  • ComTech
  • Registratie: november 2002
  • Laatst online: 22:47
Ik draai 6.0.0 Update 2 (Build 4192238) en krijg tegenwoordig als ik inlog op de webinterface met chrome elke keer deze error.





Klik ik op reload moet ik weer opnieuw inloggen met dezelfde error als resultaat.
Met firefox kan ik er nog inkomen gelukkig en met de vsphere client kan ik wel inloggen.

Krijg deze errors soms ook als ik dingen in de webclient doe had vandaag even de nieuwe Nieuwe DSM OVA v4 geinstalleerd als ik deze VM probeer te editen krijg ik ook een error en kan ik weer opnieuw inloggen.

Iemand een idee?
Ben van plan om binnenkort de hele server om te gooien (lees opnieuw installeren) misschien dat ik dan gelijk 6.5 maar ga installeren.

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


Acties:
  • +2Henk 'm!

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
Gisteren nog een handige backuptool gevonden om ESXi Free mee te kunnen backuppen xsibackup.

Installeert een cron entry op je ESXi host en backupt de boel naar mijn Synology die ik als extra datastore heb gemount (via NFS). Installatie is zo gepiept.

Via de mail ontvang je dan een rapportje:


Gaat mooi vlot zoals je kan zien en ik vond het makkelijker te installeren dan ghettoVCB :)

Ik weet alleen niet of de crontab persistent is, zodat hij ook na een reboot nog werkt. Bij ESXi is dat niet vanzelfsprekend las ik?

[Voor 12% gewijzigd door ThinkPad op 23-05-2017 09:09]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • 0Henk 'm!

  • CH4OS
  • Registratie: april 2002
  • Niet online

CH4OS

It's a kind of magic

|sWORDs| schreef op dinsdag 30 mei 2017 @ 09:12:
[...]
  1. ping 192.168.0.1/router (gateway)
  2. ping 8.8.8.8 (internet)
  3. nslookup google.com 8.8.8.8/dig @8.8.8.8 google.com (internet via google DNS)
  4. ping google.com (internet via eigen DNS)
Daarmee zou je toch redelijk goed moeten kunnen zien waar het probleem zit.
Alle tests gingen goed. Echter bij de laatste krijg ik (naar mijn idee) een wat vreemde, zie screenshot:Dit is overigens de PiHole VM, draaiend op Debian, die ik vanaf het netwerk dus niet kan bereiken.

EDIT: Inmiddels blijkt dat ik meerdere machines niet via het interne LAN kan bereiken. Een Ubuntu VM dan weer wel, maar de Debian VM's tot nu toe niet, helaas.

EDIT2: Een simpele google op het domeinnaam leert dat het domein van Google zelf is; https://support.google.com/faqs/answer/174717?hl=en

EDIT3: Stel ik de router in als DNS, kan een Windows VM van mij gewoon het internet op. Ik gok dus dat ik het moet gaan zoeken in mijn DNS / PiHole VM, die is na het opstarten ook totaal niet via het netwerk te bereiken. ;)

EDIT4:
Denk dat ik de oorzaak gevonden heb. De VM met PiHole heeft blijkbaar wél een nieuw MAC-adres gekregen en heeft dus een nieuwe static lease nodig. ;) Gisteravond laat dus overheen gekeken. :X 7(8)7

[Voor 41% gewijzigd door CH4OS op 30-05-2017 19:26]

[ Steam ][ Diablo ][ CptChaos#2957 ]


  • ComTech
  • Registratie: november 2002
  • Laatst online: 22:47
Kan iemand mij zeggen wat ik fout doe :)
Ik probeer een telnet connectie op te zetten via een serial port met een xpenology vm maar wat ik ook doe ik blijf connection refused error krijgen.


Firewall van ESXi aangepast


En de serialpoort instellingen van de vm staan ook goed dacht ik zo.


Vind het wel raar dat er staat connected No klopt dit wel.

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ivolve schreef op maandag 31 juli 2017 @ 08:25:
[...]


Wat zou je me dan aanraden om mijn doel te bereiken van 2 VM's met toegang tot 1 RAID array? Er vanuit gaande dat ik nu geen 300 euro aan een HW RAID card wil uitgeven.
Ik zou geen RAID1 gebruiken, maar voor backup zorgen. Zelfs de gedeeltelijke hardware based controllers zijn niet ideaal met lage queuedepths (25) in non HBA mode. Backup zorgt ook voor een veel grotere bescherming dan RAID.

Ik gebruik NVMe drives voor VM storage en doe een passthrough van de Intel controllers met HD's naar NAS VM's, de grootste heeft 4x4TB in RAID5. Daar gaat de backup heen en mijn media. Een ander voordeel is de snelheid en queuedepth van goede NVMe drives:

https://s1.postimg.org/vdvnndi3z/Schermafbeelding_2017-07-31_om_10.26.05.png

NVMe heeft nauwelijks zin voor desktops, maar voor virtualisatie waar er meer taken tegelijk draaien is het heel ander verhaal en qua kosten voor een RAID controller + 2 SSD's in RAID1 is een enkele Intel 750 of Samsung 960 Pro zeker goedkoper.

[Voor 51% gewijzigd door |sWORDs| op 31-07-2017 10:31]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ivolve schreef op maandag 31 juli 2017 @ 11:00:
Excuus ik bedoelde niet RAID1 maar ik bedoelde dat ik één RAID5 van 4x3 of 3x4 TB op wilde zetten. Ik wil deze opslag capaciteit echter wel beschikbaar hebben binnen 2 VM's.

Maar als ik je dus goed begrijp, zou jij aanraden om 1 NVMe schijf te kopen om daar de VM's op te draaien. Daarmee zou mijn SATA controller vrij komen voor direct pass through naar een NAS VM. Binnen die VM kan ik een RAID5 opzetten en via NFS beschikbaar maken voor andere VM's en ESXI voor back ups?
Heb ik daarmee dan ook alle functies (zoals smart monitoring etc) van de SATA controller/schijf beschikbaar binnen de VM?
Exact en ja de VM heeft dan ook toegang tot SMART.
Ivolve schreef op maandag 31 juli 2017 @ 11:00:

Verder als ik in de webgui van ESXI kijk zie ik dat de SATA controller niet beschikbaar is voor pass through. Weet jij of dit wel via een andere weg mogelijk is met een normaal consumentenmobo met een H170 chipset?
Het makkelijkst is met mijn VIB en anders kun je het met de hand doen. (Maar je mag de controller dan natuurlijk niet voor boot of datastores gebruiken!)
|sWORDs| schreef op maandag 13 februari 2017 @ 12:34:


Of nog gemakkelijker maak een custom iso met mijn intel-passtrough.vib of installeer de VIB los vanaf een datastore:
code:
1
esxcli software vib install -v /vmfs/volumes/myDatastore/VIB/intel-passthrough-1.0.0-01.x86_64.vib --no-sig-check --force


[...]
|sWORDs| schreef op donderdag 13 oktober 2016 @ 08:29:

Guides

Passthrough van Intel AHCI Controller:
  1. Login op de ssh console:

    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    esxcli storage core adapter list
    HBA Name  Driver      Link State  UID           Capabilities  Description                                                                     
    --------  ----------  ----------  ------------  ------------  --------------------------------------------------------------------------------
    vmhba0    ahci        link-n/a    sata.vmhba0                 (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba2    nvme        link-n/a    pscsi.vmhba2                (0000:02:00.0) Samsung Electronics Co Ltd <class> Non-Volatile memory controller
    vmhba3    intel-nvme  link-n/a    pscsi.vmhba3                (0000:82:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba4    intel-nvme  link-n/a    pscsi.vmhba4                (0000:81:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba32   ahci        link-n/a    sata.vmhba32                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba33   ahci        link-n/a    sata.vmhba33                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba34   ahci        link-n/a    sata.vmhba34                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller

    Hier zie je de poorten van de Intel en de PCI ID (0000:00:11.4), dit zijn er normaal twee (bij X?9/C6??, andere chipsets één), maar ik heb de 6 poorts al doorgegeven.
  2. code:
    1
    2
    
    lspci -n |grep 0000:00:11.4
    0000:00:11.4 Class 0106: 8086:8d62 [vmhba0]

    Hier zie je jouw PID (8d62)
  3. Dan zet je die onderin /etc/vmware/passthru.map.
    code:
    1
    
     8086  [PID]  d3d0     false


    Hele file bij mij:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    
    # passthrough attributes for devices                                                                                                                                                                         
    # file format: vendor-id device-id resetMethod fptShareable                                                                                                                                                  
    # vendor/device id: xxxx (in hex) (ffff can be used for wildchar match)                                                                                                                                      
    # reset methods: flr, d3d0, link, bridge, default                                                                                                                                                            
    # fptShareable: true/default, false                                                                                                                                                                          
                                                                                                                                                                                                                 
    # Intel 82598 10Gig cards can be reset with d3d0                                                                                                                                                             
    8086  10b6  d3d0     default                                                                                                                                                                                 
    8086  10c6  d3d0     default                                                                                                                                                                                 
    8086  10c7  d3d0     default                                                                                                                                                                                 
    8086  10c8  d3d0     default                                                                                                                                                                                 
    8086  10dd  d3d0     default                                                                                                                                                                                 
    # Broadcom 57710/57711/57712 10Gig cards are not shareable                                                                                                                                                   
    14e4  164e  default  false                                                                                                                                                                                   
    14e4  164f  default  false                                                                                                                                                                                   
    14e4  1650  default  false                                                                                                                                                                                   
    14e4  1662  link     false                                                                                                                                                                                   
    # Qlogic 8Gb FC card can not be shared                                                                                                                                                                       
    1077  2532  default  false                                                                                                                                                                                   
    # LSILogic 1068 based SAS controllers                                                                                                                                                                        
    1000  0056  d3d0     default                                                                                                                                                                                 
    1000  0058  d3d0     default                                                                                                                                                                                 
    # NVIDIA                                                                                                                                                                                                     
    10de  ffff  bridge   false                                                                                                                                                                                   
    # Intel Wellsburg AHCI                                                                                                                                                                                       
    8086  8d62  d3d0     false                                                                                                                                                                                   
    8086  8d02  d3d0     false
  4. En reboot, daarna kun je hem gewoon in passthrough zetten (indien er geen datastore op in gebruik is/het jouw bootdevice bevat):
    https://tweakers.net/ext/f/sUogKr8PH1zpEnKd90CfimAt/full.png
  5. Nog een reboot en je kunt m doorgeven aan een VM en niet vergeten om op die VM reserve all memory te doen:

    https://tweakers.net/ext/f/FEmlT03ziteQuNPBx632KGHG/full.png



    https://tweakers.net/ext/f/sxqyDXwfjaAFm4uyqF9sakQx/full.png
[...]

[Voor 76% gewijzigd door |sWORDs| op 31-07-2017 11:28]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ivolve schreef op maandag 31 juli 2017 @ 11:43:
[...]


Juist, ik ben nog redelijk noob op het gebied van ESXI maar zou daar denk ik wel uit moeten komen. Ga proberen om handmatig via de guide de controller op pass through te zetten. Vervolgens zet ik tijdelijk op een 2e usb stick een VM en kijk of het werkt. Indien dat het geval is koop ik een NVMe drive en ga ik het definitieve systeem opzetten.

Ik zag in de pricewatch dat de intel 600p de goedkoopste NVMe drive is.
pricewatch: Intel 600p 128GB
Voor 2 euro meer heb je een 6000 pro
pricewatch: Intel Pro 6000p 128GB

Enig idee wat het verschil is en of 1 van deze beide aan te bevelen valt?
USB voor VM's (als datastore) gebruiken is niet heel makkelijk en meestal ook erg langzaam (de meeste sticks hebben geen UASP en een queuedepth van 1!).

https://s1.postimg.org/xjnqy2w33/Schermafbeelding_2017-07-31_om_12.28.31.png

Je kunt het testen ook overslaan, er zijn ruim voldoende mensen die het zo doen met soortgelijke hardware.

Qua NVMe drives zou ik een Samsung 960 Pro of Intel 750 :9 aanraden, maar dan heb je het dus wel over 300 euro plus voor 400 of 512GB (geen kleinere drives beschikbaar). Als dat geen optie is een Samsung 960 EVO (5 tientjes duurder, maar wel twee keer zo groot en wat betere performance).

Of een bod van 250 op V&A aangeboden: Intel 750 SSD Half Height PCIe 3.0 x4 400GB misschien een idee?

Of: https://www.marktplaats.n...b-ssd-ssdpedmw400g4x.html

[Voor 25% gewijzigd door |sWORDs| op 31-07-2017 12:35]

Te Koop:24 Core Intel Upgradeset


  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
|sWORDs| schreef op donderdag 3 augustus 2017 @ 19:51:
[...]

Ik denk gewoon pech, je zou nog de firmware kunnen checken. Met 6.0 is de driver het probleem niet.
SSD uit ESXi gehaald en terug er in.
Het systeem ziet hem al terug.
Smart values zijn zoals onderstaand,mij zeggen ze niet veel *googles how to read smart :)*

[Voor 17% gewijzigd door Cookiezzz op 03-08-2017 21:43]


  • -PartyBoy-
  • Registratie: september 2002
  • Laatst online: 06:52
Sinds een aantal weken heb ik nu mijn eerste ESXi-server werkend. Hierop draait momenteel een FreeNAS VM en een windows VM. Daarnaast ben ik wat met ubuntu aan het spelen.

Nu draait FreeNAS keurig stabiel zonder problemen (incl. passthrough van de onboard intel Sata controler).
Maar voor Windows sta ik op het punt om voor de 3e keer opnieuw te beginnen. Ik krijg telkens na een aantal dagen/weken de volgende melding:



Het is voor mij niet duidelijk wat er mis gaat, of niet functioneerd. Dat maakt het zoeken naar een oplossing via google/GoT wat lastig. Ik hoop dat iemand hier de oplossing weet, of mij in de goede richting kan helpen.

Systeemspecs:
Pentium G4560
Fujitsu D3417-B2
Hynix DDR ECC 2x8gb
Intel 600p 256gb (datastore)
Sandisk Ultra Fit 32gb (ESXi boot)

  • -PartyBoy-
  • Registratie: september 2002
  • Laatst online: 06:52
In de web client krijg ik deze error;


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 07:24

zeroday

Dream within a dream

|sWORDs| schreef op zaterdag 19 augustus 2017 @ 10:30:
[...]

Mijn advies zou zijn om thuis geen custom (vendor) images te gebruiken, maar gewoon zelf de één of twee (of geen) drivers te integreren die echt noodzakelijk zijn. Een ander advies voor thuis is om een vendor te gebruiken welke niet alles customized (bijvoorbeeld Supermicro, welke op een LSI subvendor string na eigenlijk niets aanpast), dan heb je een stuk minder driver/firmware problemen en krijg je noodzakelijke updates (bijvoorbeeld CPU microcode) een stuk sneller, ook zonder premium support contracts.
dat vertel je me nu 2 jaar te laat nadat ik de 6.0.0 HPE image heb gebruikt toen ik begon te pielen ;)
maar inderdaad .. het is een crime .. nadat je standaard support contract bij HPE verlopen is kun je al veel op je buik schrijven en moet je alternatieve routes bewandelen. Erg vervelend.

Goede leer voor een volgende machine ;)

update
enig idee waarom de SNMP van de CPU er totaal anders uit ziet nu na upgrade 6.5 ?


e.e.a. lijkt gerelateerd te zijn aan de verkeerde module waarbij waarschijnlijk niet de HPE driver .88/102 werd gebruikt maar vmw_ahci ..

e.e.a. lijkt nu weer in orde nadat ik daarop een aanpassing heb gemaakt

[Voor 19% gewijzigd door zeroday op 20-08-2017 13:38. Reden: update met info over de oorzaak]

There are no secrets, only information you do not yet have


  • Deem007492
  • Registratie: januari 2002
  • Laatst online: 23:28
Iemand enig idee hoe je de snelheidsverschillen kunt verklaren?
-testen zijn gedaan op een VM Windows 10.
-datastores hebben filesytem VM5.61
-host ESXi 6.0 Update 2, build 3620759

Crucial M500 (Win10 32bit)


Crucial M100 (Win10 64bit)

  • Deem007492
  • Registratie: januari 2002
  • Laatst online: 23:28
Dank je voor alle hulp!
- Lsi 2308 staat in it mode/pass-through voor Freenas VM.
- De M500 / WIN10 32bit VM had inderdaad één snapshot en de M100 niet.

Wat ik nog ga controleren is:
- Sata op AHCI
- aansluitingen op wit of zwarte sata poort
- ESXI updaten
- firmware version SSD. Dat wordt lastig verwacht ik.

Het resultaat tot nu toe door het verwijderen van de snapshots: :)

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Die benchmark is wel een klein beetje biased. Dat is na 21-30 minuten vol gebruik. De Intel is zeker beter bij continu belasting, maar voor piekerige belasting is de EVO net zo snel.


Deze laat bijvoorbeeld een heel ander beeld zien.

Je gaat het verschil dus alleen maar merken als je ofwel iets van batchverwerking doet die meer dan 30 minuten lang, je complete SSD lam legt, of je hebt continue een belasting met VM's die meer IO's kunnen doen, dan het achterliggende MLC NAND van de 960 EVO voor meer dan 30 minuten.

Dat lukt de meeste mensen niet met maar 3 simpele test VM's ;)

In de praktijk ga je het dus denk ik niet merken. Dan zou ik die 70 euro in mijn zak steken, en 100GB extra leuker vinden.

Maar dat is mijn mening.

[Voor 49% gewijzigd door FireDrunk op 04-11-2017 20:49]

Even niets...


  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
|sWORDs| schreef op vrijdag 8 december 2017 @ 10:18:
[...]

Welke build gebruik je en staat er bij je storage adapters in de host client vmw_ahci of ahci?
Als het een build ouder dan 6765664 is, update dan eerst eens.
code:
1
2
3
4
5
esxcli system maintenanceMode  set --enable true
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile install -p ESXi-6.5.0-20171004001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient
reboot

Mocht dat niet helpen en als het vmw_ahci is probeer dan eens het volgende + een reboot:
code:
1
esxcli system module set -e=false -m=vmw_ahci
Is allemaal ahci. 6.0.0 Update 3 (Build 6921384)

[Voor 9% gewijzigd door Cookiezzz op 08-12-2017 10:33]


  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
|sWORDs| schreef op vrijdag 8 december 2017 @ 10:34:
[...]

Dan vrees ik voor je disk. Wat zegt SMART?
En hoeveel VMs draai je op die SSD? En hoeveel CMD/s doen die VMs ongeveer?



Schijf is een paar maanden oud, dus zou straf zijn.
9 VMs. 1 vcenter, 6 linux en 2 Windows.
Kan je geen exact nummer geven maar die Linux doen volgens mij niet veel. (Mail, MariaDB, irc client, nextcloud, Unifi controller,...)
Windows is fileserver en backup, maar de files zelf staan niet op de SSD.

[Voor 21% gewijzigd door Cookiezzz op 08-12-2017 10:46]


  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
https://pastebin.com/mLWGNWit
Als ik even reken kom ik uit op 4,136 TBW.
Schijf heeft een TBW van 150TB

CRC_Error_Count zie ik er een paar, maar eigenlijk geen idee of die de boosdoener zijn.

Iets wat me wel optvalt is onderstaande:
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Mobo heeft alleen sata 6GB/s poorten, dus dit is wel raar.

CMD/s


Ik heb er nu wel al enkele VMs afgehaald, maar dan nog is het weinig denk ik?

[Voor 13% gewijzigd door Cookiezzz op 08-12-2017 11:09]


  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
Eén van mijn VMs heeft een disk die bijna vol is, dus deze wou ik extenden.
Ik maak op de SAN (iSCSI) de disk groter, geen probleem. De datastore expand ik, ook geen probleem.
Nu wil ik de disk extenden, en hier krijg ik onderstaande error.


https://i.imgur.com/1cjaCC4.png

VMware ESXi, 6.5.0, 6765664


De VM heeft geen snapshots.
Als de VM uit staat gaat het ook niet.
de VM heeft geen CD drive die wijst naar een niet-bestaande ISO

Iemand ooit nog al gezien?

Acties:
  • 0Henk 'm!

  • CaptJackSparrow
  • Registratie: februari 2009
  • Niet online

CaptJackSparrow

x07 - License to Tweak.

Dat ESXi is ook niet bepaald een wandelingetje in het park. :|

Wil ik 'even' een VM met pfSense maken, waarvoor ik netjes deze handleiding volg,

https://doc.pfsense.org/i..._on_VMware_vSphere_/_ESXi

Krijg ik bij het toevoegen van een uplink de melding:



Als ik daarop zoek vind ik vooral meldingen van een bug in de Embedded Host Client die dan met een .vib bestand geüpdate kan worden.

https://www.pei.com/2018/...rs-attach-virtual-switch/

Echter gaan al die verhalen over oudere vSphere versies en heb ik geen flauw idee of de versie die ik heb (6.7.0) misschien allang die EHC-versie of later heeft en dat ik de oplossing elders moet zoeken. Iedereen leeft in het heden en gaat er van uit dat iedereen de oudere versie nog heeft en over checken van de versie heeft men het niet en ik kan er ook niets over vinden.

Hoe check ik die EHC-versie? Zou dat het inderdaad zijn of kan het wat anders zijn?

Acties:
  • 0Henk 'm!

  • Domino
  • Registratie: juli 1999
  • Laatst online: 12-04 13:18

Domino

30 Watts and overheating...

FireDrunk schreef op maandag 14 mei 2018 @ 11:09:
U2 is waarschijnlijk niet als ISO te downloaden, maar is alleen (nog) een patch (ZIP/VIB).

Verklaart allemaal wel waarom jouw ervaring met ESXi zo 'slecht' was :)
CaptJackSparrow schreef op maandag 14 mei 2018 @ 12:20:
[...]
Vooral vre-se-lijk tijdrovend daardoor. :X
Jawel, al een tijdje:



Even inloggen en deze link copy&paste: https://my.vmware.com/gro...&productId=614&rPId=22696

An IPv6 packet walks into a bar. Nobody talks to him. pvoutput


  • DaSuperGrover
  • Registratie: februari 2004
  • Laatst online: 07-04 11:04
Hallo allemaal,

ik ben op mijn werk bezig om de VM's van de server te backuppen.

Ik wil dit doen door een iSCSI connectie van onze Synology naar de ESXi op te zetten, en daar dan met XSI backup op te backuppen. Na een hoop gestoei met de verbinding is het me uiteindelijk gelukt door de MTU in de synology op 9000 te zetten ipv de standaard 2000 8)7

iSCSI target is beschikbaar als ik in de iSCSI adapter van ESXi kijk. Het lukt me alleen niet om een nieuwe datastore met dit target aan te maken.

Ik heb (per ongeluk) wel een ander LUN target aan de bestaande datastore 1 gekoppeld, als extent.

Deze zou ik graag weer willen verwijderen, maar dat wil ook nog niet echt lukken.

ESXi met extent op datastore1

Al met al een teleurstellende dag :X

Zou iemand me kunnen helpen hoe ik een nieuwe datastore op basis van de LUN kan aanmaken?

ESXi free 6.7

[Voor 14% gewijzigd door DaSuperGrover op 18-06-2018 17:12]


Acties:
  • +1Henk 'm!

  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
Vorige week mijn ESX en vCenter naar de laatste versie geüpgrade.
Sinds toen krijg ik onderstaande melding.



In mijn case zitten 3 fans + 1 CPU fan en deze doen het echter allemaal.
Iemand nog ervaring mee toevallig?


Edit: Blijkbaar hebben meerdere mensen hier toch wel last van.
https://communities.vmware.com/thread/588182

Zal wel even wachten worden op een fix dan. Zolang het geen kwaad kan :)

[Voor 25% gewijzigd door Cookiezzz op 03-07-2018 19:33]


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 22:42
Ik heb een vraag. Draai sinds deze week ook ESXi. Heb nu 2 VM's draaien.
Echter heb ik een vraag over het aangegeven storage gebruik. Deze lijkt niet te kloppen namelijk (of ik begrijp niet hoe die het berekend)
Vanuit de ESXI host staat er dat er 12.6GB in gebruik is.
https://i.imgur.com/f6mKutm.png

Ik heb 2 VM's welke allebei een 20GB Thin provisioned disk hebben en 1GB RAM.

https://i.imgur.com/ELVa90e.png

Binnen de VM middels df -h zie ik trouwens dat Plex sowieso al meer in gebruik heeft dan ESXi aangeeft:



Bij Tautulli is dit verschil al minder.
Ik heb 2 datastores van 2 verschillende SSD's. Op mijn 'Normal SSD' datastore staat 1 ISO van ubuntu 16.04. OPp de 'NVME SSD' staan de 2 ubuntu servers:



Iemand een idee waar het verschil vandaan komt? :p

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
|sWORDs| schreef op woensdag 28 juni 2017 @ 09:39:
[...]

Ja en nee. Er zit een hoop potentie in, maar AMD Ryzen en Epyc zijn gewoon nog niet af, zeker voor virtualisatie. Met elke microcode wordt het ietsje beter, maar misschien is er nog wel een hardware revisie nodig (gevoel, geen inside information) voor het echt allemaal werkt en dan moet alle software er nog mee overweg kunnen. AMD engineers werken mee aan Linux virtualisatie, maar zelfs daar werkt nog zo veel niet of nauwelijks met bleeding edge kernels.

Dan over de vergelijking met E3, dit is niet wat Epyc moet gaan doen, Epyc is E5 terrein.

Gezien de meeste bedrijven al Intel draaien en live migraties willen kunnen doen denk ik dat Epyc het zwaar gaat krijgen en in eerste instantie alleen in een paar niches gebruikt gaat worden. Zeker als je ziet dat op het totaal de prijs van de CPU niet heel veel uitmaakt (Wat is op 30-50K voor dikke servers plus 3 jaar support een paar honderd minder voor de CPU's?) en er nog geen groot ecosysteem met vendors is.
Inmiddels (AGESA 1.0.0.6) werkt hier alles wat ik maar kan bedenken:
  • All Core Turbo blijft op 2.8GHz
  • vGPU werkt
  • Onboard SATA controller (twee 8 poorts) passthrough werkt
  • Microsoft Virtualization Based Security werkt


Mogelijk dat er nog andere problemen opduiken, maar so far so good en erg onder de indruk.

Edit: Passthrough toch nog niet stabiel

[Voor 4% gewijzigd door |sWORDs| op 18-08-2018 12:23]

Te Koop:24 Core Intel Upgradeset


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 22:42
Nou daar ben ik weer. Weet niet helemaal of dit hier thuis hoort maar ik heb het volgende probleem.
Ik heb dit servertje:

#ProductPrijsSubtotaal
1Intel Core i5-8400 Boxed€ 183,-€ 183,-
1ASRock DeskMini 310€ 160,91€ 160,91
1Crucial CT16G4SFD824A€ 142,99€ 142,99
1Samsung 970 Evo 500GB€ 149,90€ 149,90
Bekijk collectie
Importeer producten
Totaal€ 636,80


plus nog een samsung ssd die ik nog had liggen. Hier draait nu ESXi 6.5U2 op met 4 VM's op de M.2 SSD. Echter geven 3 van de 4 Ubuntu VM's de volgende foutmelding:



Wel andere sectoren allemaal

Lijkt mij een probleem met de m.2 SSD maar vind het raar dat de VM's dit aangeven.
Op de host zie ik zo niets raars.

Ik heb de M.2 SSD in mijn PC gedaan en middels crystaldiskinfo gechecked. Deze geeft echter aan dat de M.2 SSD 100% in orde is. Iemand een idee wat ik nog kan doen? Is de disk defect?

edit:

Middels voma heb ik de M.2 SSD gechecked:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
voma -m vmfs -f check -d /vmfs/devices/disks/t10.NVMe____Samsung_SSD_970_EVO_500GB_______________C0E3B28156382500:1
Checking if device is actively used by other hosts
Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
Running VMFS Checker version 2.1 in check mode
Initializing LVM metadata, Basic Checks will be done
Phase 1: Checking VMFS header and resource files
   Detected VMFS-6 file system (labeled:'NVME SSD') with UUID:5b738755-e9f9f871-36cf-7085c28a48c5, Version 6:81
Phase 2: Checking VMFS heartbeat region
Phase 3: Checking all file descriptors.
Phase 4: Checking pathname and connectivity.
Phase 5: Checking resource reference counts.

Total Errors Found:           0


Kijk het voor nu wel even aan. Lijkt niets aan de hand te zijn?

[Voor 14% gewijzigd door Aschtra op 27-08-2018 21:05]


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 22:42
Hmm heb nu toch een raar dingetje.
Ik heb op mijn ESXi server 4 Ubuntu VM's draaien. Na een week gaven 3 van de 4 VM's dit soort meldingen:



Beetje in paniek uiteraard, net nieuwe server en de VM's draaien op een Samsung evo 970 M.2 SSD.
Google leert mij dat dit fouten zijn in de SSD, Ik heb de SSD toen in mijn desktop gedaan en via crystaldisk uitgelezen, deze gaf geen fouten.
Via Google kwam ik uit op het 'voma' commando. Een soort chckdsk utulity heb ik begrepen. Deze gaf geen fouten aan, niets kunnen vinden en fixen.

Toch krijgen ik deze meldingen. Momenteel op 1 VM en dat is mijn Plex server, hij kwam echter ook op andere VM's. Plex draait op Ubuntu 18.04 en de rest op Ubuntu 16.04, server variant.

Iemand een idee wat dit kan zijn?

Nu zie ik op de host via dmesg de volgende meldingen:

[Voor 6% gewijzigd door Aschtra op 10-09-2018 19:26]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
bombarie18 schreef op vrijdag 12 oktober 2018 @ 11:17:
Ik zit al een poosje te stoeien met ESXI 6 en kom er qua dns forwarding/resolving nog niet helemaal uit.
Ik heb meerdere (sub)domeinen die naar diverse vm's op 1 host moeten wijzen voor remote acces.
Ik heb nu een PfsenseVM met Haproxy draaien maar ik vind dit vanuit verschillende perspectieven niet ideaal.
Aangezien ik op dit gebied nog niet zo thuis ben vraag ik maar eens om jullie hulp/ideeën.
is Pfsense de oplossing hiervoor en/of kan ik hier bijvoorbeeld ook de DNS resolving optie voor gebruiken? (tot nu toe weinig succes) of zijn er simpelere oplossingen?

Situatie is:
Kabel => Router (T-Mobile draytek glasvezel ding, IP-adres van pfsense in DMZ) => pfsense => LAN => vm's
Ik heb XS4ALL glasvezel met extra /29 subnet.

NTU->pfSense->NSX

De pfSense box doet PPPoE en NAT/igmpproxy voor gast netwerk plus de routing (dus geen NAT) voor het public subnet. De IPTV boxen zitten in mijn gast netwerk (VLAN 1003) welke ik ook trunk naar mijn accesspoints (Airport Extreme). Ook draait hier SNORT als edge firewall.

Het publieke subnet (8 IPs) gaan elk naar een eigen router welke NAT doet. Dit kan NSX zijn of pfSense of whatever. Elke omgeving heeft dan weer zijn eigen netwerken zoals external facing DMZ, internal facing DMZ, management en LAN. Ik gebruik een reverse proxy (Unified Access Gateway) als gatekeeper tussen external en internal facing DMZ en kan hierdoor meerdere zaken op een enkele poort draaien (als de FQDN of suburl maar anders is). Omdat alles subdomeinen zijn en intern en extern dezelfde dnsnaam hebben kan ik met een enkele wildcard alles signen.

Voor interne loadbalancing kan ik of HAproxy op pfSense of een virtuele Kemp/F5 load balancer gebruiken voor één of meerdere omgevingen. Elke omgeving heeft zijn eigen DNS server maar de pfSense box als forwarder. Public DNS doe ik via een dynamic DNS provider, maar je kunt natuurlijk ook je eigen zone via een eigen name server doen.

Dit geeft me maximale flexibiliteit, maar het blijft ook beheersbaar doordat ik bijvoorbeeld elke omgeving zijn eigen router kan geven. Ook kan ik zo het maximale aantal IPs (9) benutten en elk IP volledig benutten zonder zaken op alternatieve poorten te zetten en geeft dit de maximale performance (geen dubbel NAT, etc).

Snelheid vanaf een sub omgeving (vrijwel alles direct aan de AIX geeft 2.6ms average):


Voorbeeld:
Subnet 2.0.0.0/29 via 1.1.1.2

Guest netwerk - 1.1.1.2

demo1.company.com - 2.0.0.1 (XS4ALL stuurt dit naar 1.1.1.2)
demo8.company.com - 2.0.0.8 (XS4ALL stuurt dit naar 1.1.1.2)

Pakken we dan demo1.company.com dan kan ik via de reverse proxy (NAT op 192.168.1.2) het volgende doen:
https://demo1.company.com/myweb - 192.168.1.10
https://demo1.company.com/admin - 192.168.1.11
Of via dynamic DNS provider:
https://database.company.com (2.0.0.1) - 192.168.1.12

Waarbij .10-.12 door de interne loadbalancer weer uit 2+ servers bestaan. (net als dat de reverse proxy natuurlijk ook achter een loadbalancer zit).

Het interne domein van elke omgeving is ook company.com dus een enkel *.company.com wildcard werkt voor alle omgevingen zo wel intern als extern.

De hoofd url (https://demo1.company.com) wijst naar de broker (VMware View) welke via tunnel vanaf de reverse proxy connecties naar desktops opzet.

Daarnaast heb ik nog een forwarder voor workspace.company.com plus connectors in elke omgeving welke naar Identity Manager gaat en single sign on en single pane of glass voor alle omgevingen geeft (icons voor webservices/remote desktops/remote apps). Iets zoals dit:

[Voor 21% gewijzigd door |sWORDs| op 12-10-2018 12:30]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Jeroen V schreef op woensdag 26 december 2018 @ 15:57:
Latency zal inderdaad hoger zijn, maar dan kan ik er beter een PCIe kaart in stoppen. (maar dat zal dan volgend jaar worden, ik denk dat mijn vriendin me onder het tapijt schuift als ik nu nog meer speelgoed wil aanschaffen :))

Wat is nu zo'n beetje de ultieme PCIe kaart? De nieuwe generatie Optanes zijn erg snel, maar ook behoorlijk duur...
905P (perf), of een P3700(perf/size/price) van Ebay.





Zelf heb ik momenteel 3xP3700 1.6TB als capacity met een 480GB 900p als write cache (single node VSAN met compression/dedupe) en nog wat (3x 400GB, 1x 1.2TB) Intel 750’s als local storage. Backup naar 5x4TB spinning met twee 480GB SM843T’s als read/write cache op XPenology.

Zodra ik mijn EPYC machine stable met 6.7u1 heb ga ik de dual Xeon E5 Broadwell ook naar single EPYC ombouwen en een ROBO config maken met VSAN witness op mijn router (Protectli FW6C met 32GB). Ook wil ik de NVIDIA P40 en M60 vervangen door T4’s.

[Voor 47% gewijzigd door |sWORDs| op 26-12-2018 16:35]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Even een paar dagen flink bezig geweest met het EPYC systeem.

107 Watt idle power usage met power savings=Max Performance (All Core Turbo enabled, dus 24x2800 MHz).

Gigabyte heeft in versie 1.7x van de BMC de fan threshold statisch gemaakt (1200 Non Critical Warning, 900 Critical Warning). Gelukkig heeft mijn case een fan controller, dus alles daaraan gehangen en een fan curve van 90-100% gemaakt, zo draait de CPU fan op 1215-1350RPM en die geeft de feedback, de andere fans draaien dan op 750-900RPM. 35dB op 90% en 37dB op 100% (op 30cm gemeten), lage woosh, dus geen high pitch.

Om aan Gigabyte aan te tonen dat er met de hardware en cooling niets mis is (68 uur aan memtest en 12 uur Prime met large FFT):



[Voor 4% gewijzigd door |sWORDs| op 27-12-2018 11:17]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
CurlyMo schreef op zondag 6 januari 2019 @ 09:29:
@Wlan het doel is niet klein en goedkoop, maar vooral zuinig.


[...]

Wat zou hier het probleem zijn? PCIe is toch gewoon PCIe? Als dat ding herkent wordt is het toch voldoende. Hij hoeft er niet van op te starten en in passthrough is het het probleem van de cliënt.
Passthrough is eerst het probleem van de BIOS en daarna van de reset mode van je PCIe device, daarna van de hypervisor en pas daarna van je guest OS. Er kan dus voldoende misgaan voor je hem überhaupt in passthrough krijgt.

Over BIOS gesproken dit is natuurlijk sowieso een risico met bordjes uit China, boot ESXi wel?

Dan is er nog het probleem van de CPU, dit is een Broadwell (September 2014) CPU, slechts een dual core 2GHz met HT, zonder Turbo. Met L1TF/Spectre/Meltdown hou je wel heel weinig performance over, zou je niet beter een generatie kunnen wachten en dan voor de opvolger van de i5-8250U of i5-8259U kunnen gaan?

Dat gezegd hebbende, ik draai ook pfSense onder ESXi op een systeem uit China met 6 Intel NICs (eentje in passthrough) en een Kaby Lake i3. Werkt prima, maar geen SATA controller in passthrough getest:



[Voor 16% gewijzigd door |sWORDs| op 06-01-2019 13:12]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
timmerdanny schreef op maandag 7 januari 2019 @ 15:38:
[...]


Ik gebruik geen distributed switches het gaat om een enkele host die is aangesloten op een achterliggende SFP+ switch met glasvezel. De host heeft een uplink van 10Gbit verder niet redundant uitgeveord of als teaming. Er staat geen flow-control ingesteld. De host draait op ESXi 6.5 en had ook ondersteuning voor RDMA zag ik. Op de host zelf zit een NFS datastore naar de synology toe. Als ik het goed begrijp scheelt RDMA je veel CPU kracht ook naar deze datastore toe.

Uit de documentatie van VMware haal ik dat je per VM een aparte netwerkadapter moet specificeren om deze feature te gebruiken. Met de vmxnet3 adapter blijft de networking traffic dus gewoon CPU wegvreten.
RDMA is geen vervanging van VMXNET3 en datastores hebben niets met je netwerk van je guest OS te maken. RDMA (RoCe en eventueel +iSER met vSphere) kun je gebruiken op de hypervisor voor communicatie naar andere hypervisors/storage, etc.
Of je gebruikt vRDMA tussen VM's voor een bypass van de guest OS networking stack en kernel:



maar dan wel voor RDMA aware (gebruiken RDMA Verbs API) zaken, zoals Apache Hadoop of Oracle. Binnen één host is dat memcpy en heb je helemaal geen RDMA adapter nodig, gaat direct via VMkernel (blauw):



De guest kernel driver is echter alleen beschikbaar met de 64bit Linux VMware Tools.

Met NFS moet je Synology dan ook RDMA supporten (alleen bepaalde types) plus een RDMA NIC hebben en je hebt flow control nodig op je switch. Op je VM's doe je dan niets met vRDMA, het is je OpenFabrics Enterprise Distribution stack op je VMkernel port.

Zelf wil ik zodra het supported is zoiets gaan doen:


Links is de meterkast, rechts de zolder.
  • ROOD - De Protecli draait pfSense met een NIC in passthrough aan de NTU.
  • GEEL - De twee EPYC servers gebruiken RoCe direct connect voor VSAN en vMotion.
  • GROEN - De 10Gbit NICs op de EPYC servers zijn zo vrij om alleen maar VM netwerk traffic en een klein beetje witness (naar Gbit op protectli met een vCenter plus een VSAN witness) en management traffic te doen.
Active en Passive vCenter op local storage van een specifieke EPYC server.

[Voor 15% gewijzigd door |sWORDs| op 07-01-2019 17:02]

Te Koop:24 Core Intel Upgradeset


  • citruspers
  • Registratie: december 2009
  • Laatst online: 21:41
ThinkPad schreef op maandag 11 februari 2019 @ 13:09:
Is er ook iemand die over langere tijd het verbruik van zijn/haar ESXi server monitored?

Er lijkt een soort 'geheugenlek' ofzo in mijn server te zitten (6.7.0 Update 1 (Build 10764712)). Normaal is het verbruik rond de 28-32W, maar na een maand uptime gaat hij ineens meer stroom verbruiken.

Ik kan het precies zien, het nachtelijke verbruik voor mijn huis blijft dan vrij hoog (118W). Gisteren de server gereboot en afgelopen nacht zat ik weer op de voor mij bekende 82W sluipverbruik.

Kan natuurlijk ook één van m'n VMs zijn die dit veroorzaakt, maar was wel benieuwd of iemand hier wel eens zoiets heeft gezien?
Ik kan momenteel maar een week terugzien, maar dit verbruik is eigenlijk al constant sinds 02 Maart (in die tijd eigenlijk niks veranderd qua VM's enzo):



Server is een Poweredge R420 met Vsphere 6.7 DellCustomized, en de data komt van iDRAC zelf.

Ik zou het eerder bij je VM's zoeken, en dan rekening houden met VMWare's RAM ballooning. Niet elke weergave van je RAM verbruik van je VM's is namelijk accuraat.

I'm a photographer, not a terrorist


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
De host gebruikt nu weer meer stroom dan normaal (52W vs 29W), is om 07:14 begonnen zie ik:
|sWORDs| schreef op maandag 11 februari 2019 @ 14:47:
[...]

De volgende keer als hij hoog is MHz per VM bekijken voor en na de reboot?
Het aantal MHz per VM is erg laag en geeft mij helaas niet echt een indicatie:


Resources host:
citruspers schreef op zaterdag 23 maart 2019 @ 19:48:
[...]
Ik zou het eerder bij je VM's zoeken, en dan rekening houden met VMWare's RAM ballooning. Niet elke weergave van je RAM verbruik van je VM's is namelijk accuraat.
Hoe check ik die ballooning?

Ik kan de server wel rebooten, dan blijft het vast weer een paar weken normaal. Maar ben juist wel benieuwd waar het vandaan komt.

[Voor 104% gewijzigd door ThinkPad op 01-04-2019 14:10]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • CH4OS
  • Registratie: april 2002
  • Niet online

CH4OS

It's a kind of magic

FireDrunk schreef op maandag 25 maart 2019 @ 10:29:
Draai je ESXi toevallig op een USB stick? Ik heb wel eens gezien dat er problemen waren met de USB stick, waardoor het filesystem Read Only geworden was. Daardoor kon SSH geen tmp files meer aanmaken bij login, waardoor je dus eigenlijk dacht dat dat stuk was.

Feitelijk was de hele USB stick gewoon rot, maar draaide ESXi gewoon puur in memory door :p
Ja, ik draai ESXi op de USB stick. Had laatst ook al een USB stick die stuk was, hopelijk is nu ook deze niet stuk, zou daar best van balen, eigenlijk.

Herstarten van de SSH services heeft ook niet geholpen, helaas. Staat PermitRootLogin nu niet gewoon standaard uit? Dan kan ik namelijk even kijken of ik de sshd_config file kan aanpassen om dat even op yes te zetten. ;)

Ook zie ik wel een gek icoontje, aan het begin van elke regel;

[ Steam ][ Diablo ][ CptChaos#2957 ]


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
Ik heb alle VMs uitgezet, daarna bleef het stroomverbruik nog steeds op 47W steken. Ook na een kwartier wachten.

Wat mij opviel is dat het CPU gebruik vrij hoog blijft:
https://tweakers.net/ext/f/DQ9TTC8Oyzdxo8CSheucJKK8/thumb.jpg
Hopeloos leesbaar grafiekje, maar je ziet dat het regelmatig naar 40% gaat. Vind ik erg raar voor een hypervisor waar alle VMs uit staan.

De host herstart en nu weer netjes op 28W :?

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Als die NIC toch dedicated is, waarom zet je 'm dan niet gewoon in passthrough?

Ik heb een 82583V LAN in passthrough naar de NTU (VLAN4 en 6) en dan een VMXNET3 NIC per lokaal netwerk (VLAN op poortgroep niveau) met pfSense. Werkt prima.

Protectli FW6 (i3-7100U) met VMware ESXi, 6.7.0, 13006603 en Side- Channel-Aware Scheduler v2 actief:




LRO moet eigenlijk uit op een router.
Intel:
LRO offers the lowest CPU utilization for receives but is completely
incompatible with routing/ip forwarding and bridging. The
result of not disabling LRO when combined with ip forwarding or bridging can be
low throughput or even a kernel panic.
Wikipedia:
LRO should not operate on machines acting as routers, as it breaks the end-to-end principle and can significantly impact performance.
https://www.google.com/search?q=LRO+routing+do+not+fragment


WAN:

[Voor 94% gewijzigd door |sWORDs| op 22-04-2019 12:39]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0Henk 'm!

  • Chapter82
  • Registratie: juli 2019
  • Laatst online: 28-08-2019
Yes, sorry, not well explained indeed.

Ik heb t-mobile als leverancier en zij leveren televisie en internet via VLANS (300 internet en 600 televisie).

Als je naar mijn verkeersafbeelding kijkt, heb ik een bridge voor VLAN TV en wordt de output van de bridge toegevoegd aan de LAN output, maar de input doet het goed en blijft uit elkaar.


Acties:
  • 0Henk 'm!

  • Chris-1992
  • Registratie: maart 2018
  • Laatst online: 15-02 23:03
Kan er in de vSphere 6.5 nog een maximum aantal poorten geconfigureerd worden op een VSS?
in gui of console?

https://i.postimg.cc/4HmTWvgP/2019-07-08-21-43-19-ESXI-00-VMware-ESXi.jpg

-edit-

Number of Ports on ESXi HostsTo ensure efficient use of host resources on hosts running ESXi 5.5 and later, the ports of virtual switches aredynamically scaled up and down. A switch on such a host can expand up to the maximum number of portssupported on the host. The port limit is determined based on the maximum number of virtual machines thatthe host can handle

[Voor 43% gewijzigd door Chris-1992 op 08-07-2019 22:11]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Domino schreef op woensdag 2 oktober 2019 @ 13:36:
Echt? I stand corrected.

Sinds wanneer is dat?
Altijd al.



Partition 1: systemPartition -> Bootloader Partition (4MB )
Partition 5: linuxNative -> /bootbank (250MB)
Partition 6: linuxNative -> /altbootbank ( 250MB)
Partition 7: vmkDiagnostic -> First Diagnostic Partition (110MB)
Partition 8: linuxNative -> /store (286MB)
Partition 9: vmkDiagnostic -> Second Diagnostic Partition ( 2.5 GB)
Partition 2: linuxNative -> /scratch (4GB)
Partition 3: VMFS datastore -> /vmfs/volumes/datastore (105GB)

[Voor 45% gewijzigd door |sWORDs| op 02-10-2019 13:51]

Te Koop:24 Core Intel Upgradeset


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 22:42
:| Toevallig deze keer wel. Maar heb dit wel eens eerder gehad. Als ik dan een restore vanuit VEEAM deed dan was het weer tijdelijk goed weergeven.

Na snapshot verwijderen zegt die 26GB

Een df-h toont dit:



Misschien nog een swap erbij van de 2GB RAM maar ik kom nooit aan 26GB

  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
Sinds vorige week is een van onze vCenters (6.0) onbereikbaar.
vCenter zelf klaagt dat er geen plaats meer is op de disks. Als we proberen te connecteren met SSH, sluit die sessie onmiddellijk. De WebUI komt niet meer op met het volgende bericht.
503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x7f4465e88f30] _serverNamespace = / _isRedirect = false _pipeName =/var/run/vmware/vpxd-webserver-pipe)
Console.


Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.

  • MartinMeijerink
  • Registratie: juli 2008
  • Laatst online: 20:12

MartinMeijerink

NEE tegen 1,5m

Cookiezzz schreef op vrijdag 14 februari 2020 @ 16:19:
Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.
Ik heb nog wel een idee, als je dat apparaat kan booten vanaf de VMware installatiecd, krijg je dit scherm:
Druk dan dus SHIFT+O, dan krijg je:
https://gfx.zutphen.nu/vmware-bootfromcd2.png
Haal met backspace 'runweasel' weg, en druk op enter.
Nu wordt de VMware-server vanaf de CD gestart. Zorg ook dat je een DHCP-server in het netwerk hebt hangen, dan krijg je op een gegeven moment het hoofdscherm van VMware, met daarin het ipadres:
https://gfx.zutphen.nu/vmware-bootfromcd3.png
Je kan nu met VSphere inloggen op je VMware-server, ipadres zoals hierboven aangegeven (zal bij jou anders zijn), username=root, password is leeg. En als het meezit kun je nu wel de dingen doen die je anders niet kon doen.

I love the smell of a soldeerbout in the morning

Pagina: 1 2


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True