Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

Het grote ESXi/vSphere Topic

Pagina: 1 2
Acties:

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mede-auteurs:
  • Microkid
  • Registratie: augustus 2000
  • Nu online

Microkid

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53

FireDrunk

  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 12-04 17:26

HyperBart

Het grote VMware ESXi/vSphere Topic



VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.



Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).



Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
  • [list]
  • 1000M, 3000M, 5000
  • K2000/K4000/K5000/K6000
  • K3100M
  • K2200/K4200/K5200
  • [/list]
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.



vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).



MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:



Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.



ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.



De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.



Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch


Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch


Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.



Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:


In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).



RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.



Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.



Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.



ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO

[Voor 255% gewijzigd door |sWORDs| op 12-02-2017 18:29]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!
  • Pinned

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Huishoudelijke mededelingen:

Na overleg met de oorspronkelijk topicstarters en onze *O* allerliefste adjes *O*, gaan we proberen het met één topic voor VMware ESXi/vSphere te doen. De focus ligt op het configureren van en werken met. Dit betekend niet dat we het geheel niet over standaard hardware hebben, maar laten we het tot een minimum beperken:
  • Er staat zo veel mogelijk over standaard hardware in de startpost, lees deze dus eerst volledig voor je iets over hardware vraagt.
  • Beperk hardware vragen tot een enkele post, mocht je er na antwoord op door willen gaan, doe dat dan even met degene die reageert via PM, mocht er wat interessants uitkomen dan is een samenvatting natuurlijk wel gewenst.
  • Wij proberen steeds terugkomende hardware vragen toe te voegen aan de startpost.
  • Voor alle bijzondere hardware is het natuurlijk een ander verhaal.

Sample Builds

Mini:
Dual Core (met HT) 2.3GHz Skylake NUC, 16GB geheugen en 256GB NVMe drive:

#ProductPrijsSubtotaal
1Intel NUC NUC6i3SYK€ 275,95€ 275,95
1Crucial CT2K8G4SFD8213€ 73,20€ 73,20
1Samsung 950 Pro 256GB€ 188,79€ 188,79
Bekijk collectie
Importeer producten
Totaal€ 537,94
Small:
3.3 GHz Dual Core Skylake met 32GB geheugen en 960GB SATA SSD:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-B150M-D3H€ 80,95€ 80,95
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K8G4DFD8213€ 71,95€ 143,90
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Sandisk Ultra II SSD 960GB€ 231,67€ 231,67
Bekijk collectie
Importeer producten
Totaal€ 636,80
Medium:
Quad Core 2.7GHz Skylake i5, 64GB geheugen en 512GB NVMe:

#ProductPrijsSubtotaal
1Intel Core i5-6400 Boxed€ 178,90€ 178,90
1Asus Q170M2€ 143,81€ 143,81
1Antec ISK600M€ 65,38€ 65,38
2Crucial CT2K16G4DFD824A€ 135,10€ 270,20
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 950 Pro 512GB€ 330,45€ 330,45
Bekijk collectie
Importeer producten
Totaal€ 1.047,69
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 292,10€ 292,10
1Supermicro X11SSL-F€ 204,75€ 204,75
1Supermicro 731I-300€ 100,84€ 100,84
4Kingston KTH-PL424S/16G€ 108,92€ 435,68
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 311,62€ 311,62
Bekijk collectie
Importeer producten
Totaal€ 1.344,99
Large:
Dual 10 Core (met HT) 2.2GHz Xeon E5, 128GB geheugen en 1.2TB NVMe:

(Afbeelding met andere koelers, K2 en Asus bord)
#ProductPrijsSubtotaal
2Intel Xeon E5-2630 v4 Boxed€ 699,-€ 1.398,-
1Supermicro X10DRL-i€ 353,78€ 353,78
1Phanteks Enthoo Pro Window Zwart€ 98,-€ 98,-
2Noctua NH-U9DXi4€ 54,-€ 108,-
8Samsung M393A2G40DB0-CPB€ 78,-€ 624,-
1Seasonic M12II Evo 620W€ 75,95€ 75,95
1Intel 750 SSD Half Height PCIe 3.0 x4 1,2TB€ 771,76€ 771,76
Bekijk collectie
Importeer producten
Totaal€ 3.429,49
Extra Large:
Vier node elk 2.1 GHz 8 core (met HT) Xeon-D VSAN Cluster, 64GB geheugen en 1TB datatier:

#ProductPrijsSubtotaal
4Patriot Memory Tab 8GB€ 6,79€ 27,16
1D-Link DXS-1210-10TS€ 795,71€ 795,71
4Supermicro SYS-5028D-TN4T€ 1.376,15€ 5.504,60
8Samsung M393A4K40BB1-CRC€ 150,-€ 1.200,-
4Addonics ADM2PX4 M2 PCIe SSD adapter€ 23,05€ 92,20
4Samsung 960 EVO 1TB€ 444,-€ 1.776,-
4Samsung SM961 128GB€ 97,50€ 390,-
Bekijk collectie
Importeer producten
Totaal€ 9.785,67

Let op dat de BIOS naar 1.1c geflashed dient te worden voor er VM's aangemaakt worden en de switch (58dB) niet geschikt is voor een kantoor of dichtbij een woon/slaapkamer. (Fans zijn niet te vervangen, waarschijnlijk checked de switch de fan RPM speed bij opstarten.)

[Voor 255% gewijzigd door |sWORDs| op 12-11-2016 12:11]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52

Guides

Passthrough van Intel AHCI Controller:
  1. Login op de ssh console:

    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    esxcli storage core adapter list
    HBA Name  Driver      Link State  UID           Capabilities  Description                                                                     
    --------  ----------  ----------  ------------  ------------  --------------------------------------------------------------------------------
    vmhba0    ahci        link-n/a    sata.vmhba0                 (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba2    nvme        link-n/a    pscsi.vmhba2                (0000:02:00.0) Samsung Electronics Co Ltd <class> Non-Volatile memory controller
    vmhba3    intel-nvme  link-n/a    pscsi.vmhba3                (0000:82:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba4    intel-nvme  link-n/a    pscsi.vmhba4                (0000:81:00.0) Intel Corporation NVM-Express PCIe SSD                           
    vmhba32   ahci        link-n/a    sata.vmhba32                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba33   ahci        link-n/a    sata.vmhba33                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller                      
    vmhba34   ahci        link-n/a    sata.vmhba34                (0000:00:11.4) Intel Corporation Wellsburg AHCI Controller

    Hier zie je de poorten van de Intel en de PCI ID (0000:00:11.4), dit zijn er normaal twee (bij X?9/C6??, andere chipsets één), maar ik heb de 6 poorts al doorgegeven.
  2. code:
    1
    2
    
    lspci -n |grep 0000:00:11.4
    0000:00:11.4 Class 0106: 8086:8d62 [vmhba0]

    Hier zie je jouw PID (8d62)
  3. Dan zet je die onderin /etc/vmware/passthru.map.
    code:
    1
    
     8086  [PID]  d3d0     false


    Hele file bij mij:
    code:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    
    # passthrough attributes for devices                                                                                                                                                                         
    # file format: vendor-id device-id resetMethod fptShareable                                                                                                                                                  
    # vendor/device id: xxxx (in hex) (ffff can be used for wildchar match)                                                                                                                                      
    # reset methods: flr, d3d0, link, bridge, default                                                                                                                                                            
    # fptShareable: true/default, false                                                                                                                                                                          
                                                                                                                                                                                                                 
    # Intel 82598 10Gig cards can be reset with d3d0                                                                                                                                                             
    8086  10b6  d3d0     default                                                                                                                                                                                 
    8086  10c6  d3d0     default                                                                                                                                                                                 
    8086  10c7  d3d0     default                                                                                                                                                                                 
    8086  10c8  d3d0     default                                                                                                                                                                                 
    8086  10dd  d3d0     default                                                                                                                                                                                 
    # Broadcom 57710/57711/57712 10Gig cards are not shareable                                                                                                                                                   
    14e4  164e  default  false                                                                                                                                                                                   
    14e4  164f  default  false                                                                                                                                                                                   
    14e4  1650  default  false                                                                                                                                                                                   
    14e4  1662  link     false                                                                                                                                                                                   
    # Qlogic 8Gb FC card can not be shared                                                                                                                                                                       
    1077  2532  default  false                                                                                                                                                                                   
    # LSILogic 1068 based SAS controllers                                                                                                                                                                        
    1000  0056  d3d0     default                                                                                                                                                                                 
    1000  0058  d3d0     default                                                                                                                                                                                 
    # NVIDIA                                                                                                                                                                                                     
    10de  ffff  bridge   false                                                                                                                                                                                   
    # Intel Wellsburg AHCI                                                                                                                                                                                       
    8086  8d62  d3d0     false                                                                                                                                                                                   
    8086  8d02  d3d0     false
  4. En reboot, daarna kun je hem gewoon in passthrough zetten (indien er geen datastore op in gebruik is/het jouw bootdevice bevat):
    https://tweakers.net/ext/f/sUogKr8PH1zpEnKd90CfimAt/full.png
  5. Nog een reboot en je kunt m doorgeven aan een VM en niet vergeten om op die VM reserve all memory te doen:

    https://tweakers.net/ext/f/FEmlT03ziteQuNPBx632KGHG/full.png



    https://tweakers.net/ext/f/sxqyDXwfjaAFm4uyqF9sakQx/full.png
XPenology (Synology DSM) op ESXi:
1) Installeer OSFMount en open xpenology.img FAT partitie zonder readonly:





2) Bewerk syslinux.cfg zodat op elke append regel er
code:
1
 sn=[SN} mac1=[MAC_ZONDER_DUBBELE_PUNT] rmmod=ata_piix

bij komt te staan met een SN en MAC uit deze excel file en save de file en unmount en sluit OSFMount:


3) Installeer StarWind Converter en converteer de IMG naar VMDK en plaats deze op een datastore.



4) Maak nu een nieuwe VM met een VMXNET3 NIC die je dezelfde MAC geeft, een existing harddisk op een IDE controller, die je wijst naar de VMDK op de datastore.

https://tweakers.net/ext/f/elYinEeHDT8S6COR1LM7yjBf/full.png

5) Nu kun je of een PVSCSI virtuele data disk maken of een controller in passthrough (zie hier voor Intel) toevoegen. Hierna schakel je de VM in.


6) Gebruik http://find.synology.com of Synology Assistent om de PAT file te installeren.


7) Installeer open-vm-tools via Package Center en stel je updates zo in dat alleen DSM5 patches binnen komen en hij vraagt voor updates.

Custom ESXi ISO:
  1. Neem een Windows machine en installeer PowerCLI 6.5.
  2. Maak een folder C:\VIB en plaats alle VIB files die je toe wil voegen.
  3. Voorbeeld C:\VIB: [list]
  4. intel-nvme-1.0e.2.0-1OEM.550.0.0.1391871.x86_64.vib (Intel P3xx0/750 drivers)
  5. intel-passthrough-1.0.0-01.x86_64.vib (Mijn VIB om passthrough van Intel mogelijk te maken)
  6. intel_ssd_data_center_tool-3.0.2-400.vib (Beheertool voor Intel P3xx0/750)
  7. net-ixgbe_4.4.1-1OEM.600.0.0.2159203.vib (Nieuwe Intel 10Gbit driver versie voor o.a. X552)
  8. vmware-esx-storcli-1.20.15.vib (Beheertool voor LSI)
  9. [/list]
  10. Start PowerCLI en sleep ESXi-Customizer-PS-v2.5.ps1 in het venster.
  11. Voeg nu de parameters toe, voorbeeld voor alle drivers compatible met 6.5:
  12. code:
    1
    
    C:\Users\Administrator\Downloads\ESXi-Customizer-PS-v2.5.ps1 -vft -load sata-xahci,net55-r8168,net51-r8169,net-forcedeth-1,net51-sky2 -pkgDir C:\VIB -nsc -force
  13. Naast de ps1 file staat nu een ISO met alles er in

[Voor 255% gewijzigd door |sWORDs| op 07-05-2017 10:40]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
webgangster schreef op zaterdag 15 oktober 2016 @ 12:28:
Is die VMware OS Optimization Tool echt aan te raden?
Heeft dit veel invloed op grote clusters? En waar die je rekening mee te houden?
Ja, eigenlijk zitten er alle optimalisaties uit de guides in. Oorspronkelijk voor View, maar ik gebruik hem ook altijd voor de server templates.

Je moet even nadenken over TCP Offload (ondersteunen ALLE nics Offloading correct?) en Windows Update.

Wat ik doe bij het maken van een template:
VM met 2 sockets, 1 core per socket, 2GB (of wat je kleinste/standaard moet zijn, die groter moeten zijn kun je bij deployen aanpassen.)
PVSCSI 60GB Thin.
VMXNET3.
DVD met datastore ISO.
Floppy met PVSCSI driver.

Installeren, .net Framework 3.5 en alle C runtimes installeren, VMtools, patchen, disk clean up, disable HW accel IE, OSOT (zonder uitschakelen Offload), sdelete, ipconfig /release, power off, DVD en floppy verwijderen, boot naar BIOS, com/lpt/floppy uit. Power off. Hole punching met SSH. Customization Template maken.

Resultaat een super snelle 2012R2 template van zo'n 12GB.

Eventueel kun je nog wat met de swap rommelen en hem nog kleiner krijgen (sneller clonen), maar dat vind ik teveel gedoe. En in een grote omgeving komt er vanzelf iemand die hem patched en het vergeet.

Bij het deployen even nadenken wat er op komt, indien je per socket moet betalen (Oracle e.d), 1 socket met meerdere cores. Mocht er veel IO op komen kun je de PVSCSI queuedepth en VMXNET3 buffers/ringsize nog vergroten.

Na OSOT is rightsizing meestal de grootste winst, sinds TPS en relaxed co scheduling is de impact kleiner, maar nog steeds aanzienlijk.

Als je Cluster krap in geheugen zitten kun je met het security team overleggen en eventueel Intra-VM TPS inschakelen.

[Voor 29% gewijzigd door |sWORDs| op 15-10-2016 13:15]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ComTech schreef op vrijdag 25 november 2016 @ 14:48:
Ik heb hier een esxi server draaien met een aantal vm's waaronder 1 freenas server voor mijn data diversen ubuntu vm's (domoticz owncloud enz) en een xpenology vm (dsm6).
Nu heb ik aan de freenas vm de onboard sata controller doorgegeven (passthrough) .
Als datastore heb ik een Conceptronic PCI Express Card SATA 600 waar een ssd schijf aan zit.
Alles werkt prima alleen ik zou graag m'n xpenology ook een hardeschijf willen toewijzen.
Op de conceptronic pci sata kaart zit nog 1 aansluiting vrij.
Zou ik hier een hardeschijf op kunnen aansluiten en d.m.v RDM kunnen doorgeven aan de xpenology vm?
Of is hier een betere makkelijker oplossing voor?
Nee, RDM is je enige optie met passthrough. Maar PVSCSI of passthrough maakt met één disk aan Synology weinig uit, dus dat zou een makkelijkere optie kunnen zijn.

edit: Weet niet of PVSCSI met 6 werkt, welke versie (van wie) draai je?
Galukon schreef op zondag 27 november 2016 @ 16:34:
Ben even bezig met een nieuw labje creeren op mijn pc. Heb een i7 6700k en 32 GB RAM dus pruttelt wel lekker door. Kom nu wel tot de verbazing dat de nieuwe VCSA 6.5 10 (!!) GB RAM wilt hebben. Leuk als er in mijn kleine labje staat dat hij maar 2.1 GB RAM verbruikt. Iemand een tipje om hem kleiner te zetten dan 10 GB? Want als ik dat wil aanpassen zegt ie leuk: ja minimaal 10 GB RAM.
De vorige wilde al 8GB minimaal en nu is update manager toegevoegd. Van de nieuwe weet ik niet waar de checks zitten, door dat het nu een container op Photon is kan het wel eens lastiger zijn om de checks uit te schakelen. Als ik moet gokken dan zit het in de eigenschappen van de container.

[Voor 29% gewijzigd door |sWORDs| op 27-11-2016 17:00]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Galukon schreef op zondag 27 november 2016 @ 17:02:
[...]


Ik kon de vorige VCSA nog op 4 of 6 GB RAM zetten dacht ik zo.. Voor een homelab is het toch wat overkill 10 GB RAM. RAM is niet goedkoop..
In principe is het geheugen nog wel te gebruiken. Zodra je krap komt te zitten zou TPS (intra-VM) het moeten oplossen.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Galukon schreef op zondag 27 november 2016 @ 17:07:
[...]


Wat ik zo lees is dat het pagen naar de disk?
Nee, dat is hashing met salting (en de-dupe zodra er krapte is) binnen de VM, aangezien het geheugen wat leeg is identiek is zou dat moeten werken. Staat standaard aan binnen de VM. Je kunt het ook aan zetten tussen alle VM's (Inter-VM), door voor alle (of gekozen) VM's dezelfde salt te gebruiken of door salting uit te schakelen.

[Voor 35% gewijzigd door |sWORDs| op 27-11-2016 17:18]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Bijna, hij gaat hashen en bij krapte dedupliceren. Je ziet het dus pas als er weinig geheugen vrij is. Je hoeft ook niets aan te passen hij doet het standaard binnen de VM.

[Voor 25% gewijzigd door |sWORDs| op 27-11-2016 17:28]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op maandag 28 november 2016 @ 21:04:
[afbeelding]

Ik ben inderdaad gul, maar dat heeft vooral te maken voor een paar machines waarvan ik denk: die hebben memory nodig.
dat kan en is wellicht een foutieve aanname, ik heb nu een berg aanpassingen zitten te maken en daarna de vm's herstart

Ben benieuwd ;-)
Nog steeds gul, 18.5 ipv 12-14, maar al een stuk beter dan de 31.5 die het eerst was.

Media naar 2 en seed, sab, spot naar 1? Eventueel unify naar 1.5 en libre naar 768MB.

Consumed is nu healthy, maar met een beetje meer load zit je weer in de gevarenzone. Heb je InterVM TPS beschikbaar gemaakt?

[Voor 21% gewijzigd door |sWORDs| op 28-11-2016 21:24]

Te Koop:24 Core Intel Upgradeset


  • OMX2000
  • Registratie: januari 2001
  • Laatst online: 19:24

OMX2000

By any means necessary...

|sWORDs| schreef op dinsdag 20 december 2016 @ 14:57:
[...]

Ik had het eerst ook zo, later had ik het andersom, de Intel in passthrough en de LSI als boot/datastore.
Tegenwoordig doe ik USB als boot, NVMe als datastores en Intel als passthrough.
En aan watvoor moederbordjes moet je dan denken. Is het meteen ook Supermicro spul of zijn er ook moederbordjes die onder de 100 euro zijn te krijgen?

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Kijk eens bij devices welk apparaat het is en post de vid en pid eens.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
KillerAce_NL schreef op woensdag 28 december 2016 @ 14:43:
Dat bedoel ik ook, ik denk dat we langs elkaar heen praten. GRID is echt business use en niet voor wat ktommel wil.
Dan denk ik dat je met XEN free wat verder komt qua GPU passthrough.
Maar dan nog zit je met zijn DAC enzo, dat wil je gewoon niet, tenzij je er echt veel tijd in wil stoppen en er vrede mee hebt dat het (soms) niet werkt.
Ik denk dat je het grapje niet helemaal snapte (waarschijnlijk was ik niet duidelijk genoeg).
Ik snapte prima wat je bedoelde, maar er zijn nogal wat meer use cases dan je beschrijft, echter natuurlijk allemaal business. Daarom vind ik het juist zo grappig dat ik een collectie van die kaarten voor thuis heb liggen.

Te Koop:24 Core Intel Upgradeset


  • KillerAce_NL
  • Registratie: juni 2001
  • Niet online

KillerAce_NL

If it ain't broke...

Heb je helemaal gelijk in, b.v. offloading in hp moonshots etc voor VDI komt ook steeds meer in.
Autocad op Xenapp/Xendesktop etc, begint ook al aardig te lopen. Maar echt media-usage zie ik nog niet zo heel veel, al kan het in principe wel.
Nadeel is alleen het nieuwe licensing model van Nvidia en de dure licensing van VMware.

  • magneet
  • Registratie: juli 2001
  • Laatst online: 11-04 23:05

magneet

Magnetic enhanced

Welke esxi versie? Er was meen ik iets met een nieuwe sata driver die niet altijd even lief is in 6.5.

edit: gevonden klinkt wel als jouw probleem zo op het eerste oog: https://www.vdrone.nl/esxi-6-5-vmw_ahci-ssd-extreme-latency/

[Voor 38% gewijzigd door magneet op 04-01-2017 22:24. Reden: linkje gevonden]

You have the right to remain silent
everything you say will be misquoted
and used against you in a court of law


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
iMars schreef op woensdag 25 januari 2017 @ 05:29:
Ik ben aan het orienteren naar een nieuwe NAS/Server omgeving. Ik heb mijn hele verhaal hier al gepost: iMars in "Het grote DIY RAID NAS topic deel 3"

Maar omdat ik ook hardware zoek waarop ESXi kan draaien, vraag ik jullie in deze topic ook om advies.
Met XPenology heb je geen 28GB geheugen nodig, sterker nog ik denk dat alles boven de 4GB niet gebruik gaat worden. Ik zou niet voor een Atom based PC gaan, maar voor een Xeon-D (4 core?).

Ik zit momenteel in Dubai met een hoop drukte, maar ik wil dit weekend wel even uitgebreider reageren.

Te Koop:24 Core Intel Upgradeset


  • jadjong
  • Registratie: juli 2001
  • Laatst online: 02:36
Vier vm's op een 4-core 2GHz cpu hoeven nooit te wachten. Vier vm's op een 2-core 4GHz cpu staan in 50% van de gevallen te wachten op elkaar, ook als de vm die een core bezet houdt niet de volle 4GHz nodig heeft. In beide gevallen heeft het totale systeem 8GHz te verstoken.
Ik zou alleen voor een weinig cores/veel GHz cpu kiezen als de software binnen de vm niet om kan gaan met multicore cpu's. In alle andere gevallen kan je de vm gemakkelijk uitbreiden met een extra cpu als de software daarom vraagt.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
jadjong schreef op woensdag 25 januari 2017 @ 17:54:
Vier vm's op een 4-core 2GHz cpu hoeven nooit te wachten. Vier vm's op een 2-core 4GHz cpu staan in 50% van de gevallen te wachten op elkaar, ook als de vm die een core bezet houdt niet de volle 4GHz nodig heeft. In beide gevallen heeft het totale systeem 8GHz te verstoken.
Ik zou alleen voor een weinig cores/veel GHz cpu kiezen als de software binnen de vm niet om kan gaan met multicore cpu's. In alle andere gevallen kan je de vm gemakkelijk uitbreiden met een extra cpu als de software daarom vraagt.
Dit is niet geheel waar, in theorie zijn ze gelijktijdig klaar, ja de helft staan ze te wachten, maar de taak is ook twee keer zo snel klaar. (1 uur wachten en 1 uur 100km/h = 2 uur 50km/h= 100 km) En daarboven op, benut je minder dan 4 volledige cores is de machine sneller.

Waarom een dual core niet aan te bevelen is: Het zijn niet alleen de VM's die CPU gebruiken, ook de kernel, virtual storage en virtual networking. Maar ik heb liever een dual core Pentium dan een acht core Atom als we het alleen over CPU hebben.

[Voor 9% gewijzigd door |sWORDs| op 25-01-2017 23:07]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op donderdag 2 februari 2017 @ 13:49:
[...]


als je het zo bekijkt wel . .Maar zie maar eens toestemming van de vrouw te krijgen om een VM machine te bouwen die 2K gaat kosten (ben ik er dan?) ;-) .. (als je alles bij elkaar neemt) ;-)
Met 2K kun je echt wel een leuk systeempje bouwen hoor, onderstaande met 1.2TB ipv 400GB en de verzendkosten:
3.5GHz Quad Core (met HT) Skylake Xeon, 64GB geheugen en 400GB NVMe:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Boxed€ 308,55€ 308,55
1Supermicro X11SSL-F€ 200,75€ 200,75
1Supermicro 731I-300€ 98,55€ 98,55
4Kingston KTH-PL424S/16G€ 154,50€ 618,-
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 325,01€ 325,01
Bekijk collectie
Importeer producten
Totaal€ 1.550,86

[Voor 78% gewijzigd door |sWORDs| op 02-02-2017 14:08]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op zondag 5 februari 2017 @ 14:56:
[...]

Geheugen kom ik nog even bij je op terug. Voor wat betreft die +1TB, gaat dat ook nog steeds op als ik de onboard controller doorgeef aan een VM? Met een Xeon D heb je natuurlijk maar 1 pci-e slot en volgens de site van TrendSupermicro is er geen .m2 slot toch?
Er zit zowel een PCIe slot als M.2 slot op. Ik doe hier exact hetzelfde, 6x SATA (4x 3.5" HDD, 2x 2.5" SSD) in passthrough naar XPenology (bootdisk op VSAN) en dan VSAN op 400 GB Intel 750 HHHL (cache) en 512GB Samsung 950 Pro M.2 (capactity). Wat niet zou werken is een SATA M.2, maar PCIe M.2 wel. In mijn geval moet ik wel booten van USB, omdat beide NVMe drives fysiek voor VSAN gebruikt worden en de Intel AHCI in passthrough zit.
Supermicro pagina van 5028D-TNT4
  • Intel® Xeon® processor D-1541, 8-Core, 45W
  • Up to 128GB ECC RDIMM DDR4 2400MHz
  • 1x PCI-E 3.0 x16 (LP)
  • 1x M.2 PCI-E 3.0 x4, M Key 2242/2280
  • 6x SATA3 (6Gbps) ports
  • 4x 3.5" Hot-swap drive bays
  • 2x 2.5" internal drive bays
  • Dual LAN via Intel® i350-AM2 Gigabit Ethernet
  • Dual LAN via SoC 10GBase-T




Hierboven zie je de SATA AHCI controller/devices niet staan, dat komt omdat deze in passthrough aan een VM zit, zie hieronder.





Dit vind ik nou net het grappige aan deze 'doosjes'. 8 volwaardige cores (geen Atom) met HT, 8 storage devices (4x 3.5" SATA, 2x 2.5" SATA, 1x M.2 en 1x PCIe), IPMI, dual Gbit, dual 10Gbit en 128GB RAM.
En HCL!

Hier als single node VSAN (ik moest iets testen, volgende week gaan ze weer in ROBO):




[Voor 67% gewijzigd door |sWORDs| op 05-02-2017 15:51]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Faddermakker schreef op woensdag 8 februari 2017 @ 09:17:
Die geheugenprijzen zijn écht bizar inderdaad. Ik kan initieel ook kijken hoever ik kom met 64GB maar zal uiteindelijk toch naar die 128 toe willen.
Uiteindelijk zal ik hem nog wel uit willen bouwen naar een tweede host maar dat zal ik in een ander financieelboekjaar(decenium :+ )
Die storageaanpassing schelen wel wel een slok op een borrel maar is alsnog fors.
Een andere manier waarop je misschien 100-200 euro kan besparen is de 5028 in onderdelen te bestellen. Bij de eerste scheelde mij dat zo'n 150 euro, terwijl ik letterlijk alle (van air shroud tot kabeltjes) identieke onderdelen heb. Alleen de model name is anders, maar dat zou ik nog met IPMICFG kunnen aanpassen:



Te Koop:24 Core Intel Upgradeset


  • Domino
  • Registratie: juli 1999
  • Laatst online: 12-04 13:18

Domino

30 Watts and overheating...

iMars schreef op woensdag 15 februari 2017 @ 11:20:
Wat is wijsheid?

Ik kan bijna zeker van mijn werk een oude DL380G7 krijgen.
Dual Xeon X5670, 64GB. Nou vind ik zo'n pizzadoos te luidruchtig, dus wil ik sowieso een andere case.
Ik heb een oude Power Mac G5 staan waar ik alles wel in zou willen bouwen.

Maar mijn vraag is meer: Deze hardware gebruiken en eventueel een andere mobo kopen? Deze mobo's kosten toch gauw €350 en duurder.

Of voor een i5 quad core gaan wat voor mij waarschijnlijk al voldoende is.
Als ik een nieuw processor + mobo + mem koop, kost me dat ook al €350+
#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 179,99€ 179,99
1ASRock H97 Pro4€ 73,-€ 73,-
1MicroMemory 32GB DDR3 1333MHz ECC/REG€ 116,-€ 116,-
Bekijk collectie
Importeer producten
Totaal€ 368,99
Liever de oude xeon's met meer geheugen gebruiken.
Waarom niet kijken naar een tweede hands bordje? Op ebay zie ik ze zo rond de €100 beginnen.

Vergis je trouwens niet in het energieverbruik van dat soort opstellingen. Kan aardig aantikken.

An IPv6 packet walks into a bar. Nobody talks to him. pvoutput


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Ik heb ze zelf ooit gehad, verbruik nooit gemeten, maar de verwarming hoefde in de winter niet aan. Ik denk volledig idle ongeveer 160Watt en full load ruim het dubbele. Met een paar vrijwel idle VM's heb je het dan toch zo over 180-200Watt.

[Voor 29% gewijzigd door |sWORDs| op 16-02-2017 00:18]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
iMars schreef op donderdag 16 februari 2017 @ 00:26:
[...]

Dat vind ik het absoluut niet waard ;-)
Ik zit er blijkbaar niet ver naast, AnandTech in een real world power test van 15 minuten:





4x 52.5 = 210 Watt, nou is hun test wel wat zwaarder dan een lab, maar zoals je hier onder kunt zien is het idle al 158Watt, mijn gok van 180-200 lijkt dus best te kloppen. Anandtech gebruikt een LSI met externe schijven (schijven niet mee gemeten) en vier interne schijven (SATA SSD).



Please note that although the CPU load is high, we are not measuring maximum power: you can attain higher power consumption numbers by using a floating point intensive benchmark such as Linpack. But for virtualized—mostly integer—workloads, this should be more or less the maximum power draw.
Naast het stroomverbruik is het qua CPU ook niet super veel. Multi threaded score van dual x5670 is 12,665 en een i7-7700K is 12315 (3% langzamer in een synthetische benchmark, of te wel real world identiek en bij lichte load zelfs veel sneller). Je zit ook zonder PCIe 3.0 (nadeel met NVMe) en een hele bak herrie.

[Voor 38% gewijzigd door |sWORDs| op 16-02-2017 02:29]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Omdat je na een lange dag hard werken ook wel eens wat lol wil hebben, ben ik de vraag die iedereen wil weten maar gaan beantwoorden: Hoeveel idle 2012R2 RDS hosts kun je draaien met 24 cores en 256GB. :+



Mede mogelijk gemaakt dankzij vmFork.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
FireDrunk schreef op vrijdag 24 februari 2017 @ 15:04:
Die controller heeft ook een AHCI mode. Die zal dan wel supported zijn.
Lol, te gelijk. Ik vraag me ook serieus af of ze niet gewoon stiekum de Intel als 'HBA' gebruiken. Dan is het dus helemaal een rare truuk net als sommige 'MegaRAID' implementaties op X99 borden.

Ook zie ik dit nog:
If you have installed to a newer version of ESXi on your Gen8 Micro Server and are now suffering from very low performance disk speed, try the following steps to downgrade to a former hpvsa-driver (scsi-hpvsa-5.5.0-88).

Just follow these simple steps:

Download the driver and unpack the archive named hpvsa-5.5.0-88.zip
Stop all VMs that are currently running on your machine.
Enable SSH connections to your server in the GUI
Copy „scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib“ to the /tmp directory (just use WinSCP for that) – In my case, this file is 699 KB.
Start a Session to your server (using Putty)
change directory to /tmp

1
cd /tmp
Copy the vib file to /var/log/vmware

1
cp scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib /var/log/vmware/
Start the „Maintenance mode“

1
esxcli system maintenanceMode set --enable true
Deinstall the running scsi-hpvsa driver

1
esxcli software vib remove -n scsi-hpvsa -f
Install scsi-hpvsa-5.5.0-88

1
esxcli software vib install -v file:scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib --force --no-sig-check --maintenance-mode
Restart your ESXi, stop the maintenance mode, disable SSH connections and start VMs again
@zeroday Ik zou gewoon AHCI inschakelen en mocht je ESXi 6.5 gebruiken de kernel mode AHCI driver uitschakelen.

code:
1
esxcli system module set -e=false -m=vmw_ahci

[Voor 96% gewijzigd door |sWORDs| op 24-02-2017 15:13]

Te Koop:24 Core Intel Upgradeset


  • ComTech
  • Registratie: november 2002
  • Laatst online: 22:47
|sWORDs| schreef op zondag 26 februari 2017 @ 16:15:
[...]

Heb je hem niet per ongeluk ook nog als datastore? En probeer eens een tweede SCSI controller. Ik heb ook altijd moeite met local disks als RDM. Als je mijn ova v3 gebruikt kun je trouwens ook PVSCSI gebruiken aangezien de disk UUID's gelijk blijven.
Heb hem inderdaad ook nog als datastore maar als ik die verwijder kan ik het commando
code:
1
vmkfstools -z /vmfs/devices/disks/t10.F405E46494C4540046F455B64787D285941707D203F45765 /vmfs/volumes/Datastore2/localrdm1/localrdm1.vmdk
niet meer uitvoeren die verwijst naar de datastore.
Of zeg ik nu iets heel raars.

Ik heb geprobeerd om een 2e SCSI controller toe te voegen maar dit heeft geen resultaat.

Gebruik wel jouw ova maar nog niet versie 3 die ga ik eens proberen.
Bedankt voor je tips ik pruts nog even verder :)

Ik kan natuurlijk die disk ook doorgeven aan m'n freenas VM (via VT-D geef ik al 2 disk door) en daar een iscsi disk aanmaken en dat als rdm doorgeven aan m'n xpenology VM of is dit niet aan te raden ivm performance ?

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

cooLopke schreef op dinsdag 28 februari 2017 @ 12:32:
Dag sWords,

Ik ben gestart van uw dsm6 image van xpenolgy, ik heb deze image nu verwijdert en ik heb nu een nieuwe aangemaakt, aangezien ik xpeonology gebruiksvriendelijker vond werken dan freenas.

Echter heb ik nu het probleem dat deze blijft loopen. Als ik find.synology.com doe, dan vindt hij mijn schijven, echter is er toch nog wat mis, want hij vraagt dan om te herstellen, als ik herstellen klik, blijft deze op 0% staan en herstart dan, maar dit helpt niet. Hij blijft de melding geven om alles te herstellen. Enig idee, wat er mis is? Ik heb de VM op scsi controller PVSCSI staan + heb een harde schijf en PCI Device toegevoegd (VT-d passthrough WD Reds)

Enig idee wat er misloopt?

Thanks!
Je moet zelf DSM versie 6 downloaden van de Synology site (PAt bestand), als je hem automatisch wilt installeren probeert hij DSM 6.1 te installeren, welke nog niet werkt en kom je in de loop terecht van herstellen.

Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ThaNetRunner schreef op vrijdag 3 maart 2017 @ 09:52:
[...]


Ik heb het inderdaad over u9.

Ook de OVA, volgens mij versie 1 nog en inderdaad het mac adres aangepast in de grub.

Enige bugje is dus na het herstarten een disconnect en een connect doen van de netwerkkaart.
Zonder de grub aanpassing werkt de eerste NIC niet, tot aan u8 is dat geen probleem.

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
nieuws: AMD presenteert Naples-serverprocessors

128 PCIe Lanes... Dat zijn veel NVMe drives :9~ :9~

Even niets...


Acties:
  • +1Henk 'm!

  • wopper
  • Registratie: juli 2001
  • Laatst online: 21:37
Grote kans van wel, ze gewoon een mail sturen schijnt goed te helpen.


16vms en max 2 hosts krijg je dan met een jaar (of twee).

PVoutput 4020WP Z-ZW en Z-ZO Tesla Model3


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Je VMKernel IP is 192.168.10.100? En je probeert te connecten naar 192.168.0.100?

(Overigens kan je dit veeeeeel simpeler doen, door alleen SSH open te zetten met key based access van buitenanf, en dan een tunneltje te maken voor de web interface. Heb je helemaal geen firewall vm nodig...)

[Voor 56% gewijzigd door FireDrunk op 08-03-2017 15:38]

Even niets...


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Ja en dan doe je op je Linux client (of PuTTy)

ssh <public-ip> -D1080

Daarna in je browser proxy op poort 1080 zetten (ik gebruik altijd SwitchyOmega om snel Proxies te kunnen wisselen).

Daarna gewoon browsen naar https://<management_ip>/ui

Even niets...


Acties:
  • +2Henk 'm!

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
Gisteren nog een handige backuptool gevonden om ESXi Free mee te kunnen backuppen xsibackup.

Installeert een cron entry op je ESXi host en backupt de boel naar mijn Synology die ik als extra datastore heb gemount (via NFS). Installatie is zo gepiept.

Via de mail ontvang je dan een rapportje:


Gaat mooi vlot zoals je kan zien en ik vond het makkelijker te installeren dan ghettoVCB :)

Ik weet alleen niet of de crontab persistent is, zodat hij ook na een reboot nog werkt. Bij ESXi is dat niet vanzelfsprekend las ik?

[Voor 12% gewijzigd door ThinkPad op 23-05-2017 09:09]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • +4Henk 'm!

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
ThinkPad schreef op donderdag 25 mei 2017 @ 08:44:
Gistermiddag m'n ESXi host down moeten gooien (extra geheugen geinstalleerd). Gisteravond heeft hij netjes de backupjob weer gedraaid, dus de xsibackup entry in de cron overleeft een reboot :)
Hierbij nog m'n config voor xsibackup, mocht iemand het kunnen gebruiken:

code: xsibackup-cron
1
2
3
4
5
6
7
8
9
10
11
12
13
14
#!/bin/sh
# This is your XSIBackup crontab, you can add your backup schedules here
# You can use regular XSIBackup commands appending the parameter --time="Day HH:mm", i.e. --time="Mon 21:57"
# The --time format is compounded by three letters weekday acronym (Mon,Tue,Wed,Thu,Fri,Sat,Sun) + space + hh:mm
# You can add multiple "moments" in a --time argument separated by a pipeline | like: Mon 17:31|Tue 21:33|Sun 19:21
#
# See manpage for more explanation on parameters: https://33hops.com/xsibackup-help-man-page.html
#
############# This actually deletes backups older than 3 days #####################

find /vmfs/volumes/Synology/* -maxdepth 1 -type d -mtime +3 -exec rm -rf {} \;

############ Backup schedule(s) ###################################################
"/vmfs/volumes/Crucial_250GB_SSD/xsi-dir/xsibackup" --time="Mon 21:30|Tue 21:30|Wed 21:30|Thu 21:30|Fri 21:30|Sat 21:30|Sun 21:30" --backup-point="/vmfs/volumes/Synology" --backup-type=custom --date-dir=yes --backup-vms="Unifi,Domotica,HomeAssistant,InfluxGrafana,MQTT,pfSense,OTGW,W10" --mail-from=jouwadres@gmail.com --mail-to=jouwadres@gmail.com --smtp-srv=smtp.gmail.com --smtp-port=465 --smtp-usr=jouwadres@gmail.com --smtp-pwd=jouwwachtwoordhier

Let op! De tijden zijn in UTC. De 21:30 in mijn script is dus +2 = 23:30 lokale tijd


Resultaat:
code:
1
2
3
4
5
6
7
8
9
10
/vmfs/volumes/Synology/
/vmfs/volumes/Synology/20170604080603
/vmfs/volumes/Synology/20170604080603/Domotica
/vmfs/volumes/Synology/20170604080603/W10
/vmfs/volumes/Synology/20170604080603/OTGW
/vmfs/volumes/Synology/20170604080603/InfluxGrafana
/vmfs/volumes/Synology/20170604080603/MQTT
/vmfs/volumes/Synology/20170604080603/pfSense
/vmfs/volumes/Synology/20170604080603/HomeAssistant
/vmfs/volumes/Synology/20170604080603/Unifi


De 'Synology' datastore, is zoals de naam al doet vermoeden, m'n Synology. Heb deze via NFS gemount binnen ESXi.

Gaat lekker makkelijk zo en kost helemaal niks :)

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • +1Henk 'm!

  • marc1982
  • Registratie: oktober 2002
  • Laatst online: 27-03 22:42
renedis schreef op vrijdag 16 juni 2017 @ 00:12:
[...]
Een G4560 kan dit wel trekken alhoewel ik eerlijk gezegd geen ervaring heb met Syncthing.
Ik zie Syncthing niet als een zwaar stukje software, dus dat zal niet de doorslag gevende factor zijn, was benieuwd of ie meerdere vm's een beetje knap kan draaien.
je wilt kortom:
- Opslag in VM met passthrough of RDM
- VMs op aparte opslag (NVME)
klopt :)
Software:
- Backup (Amazon Cloud Drive)
- VPN server
- Sync opnamen (NFS/Samba oid)
- Backup Pi's (NFS SSH oid)
- CouchPotato
- Sonarr
- Kodi DB (MariaDB or MySQL)
- Syncthing
- Spotweb
- SabNZBd
- Torrents (bestaat dat nog?)
- Plex Media Server
Amazon Cloud Drive ga ik loslaten en inruilen voor crashplan (op een windows / linux vm).
Sync van opnamen is lftp (doet huidige syno ook).
Backup van pi's is idd via SSH.
Ik denk dat ik voor nu plex ga gebruiken i.p.v. kodi, en hiermee ook de DB niet meer zal gebruiken, maar wil deze mogelijkheid behouden (om terug te kunnen).
Middels een XPenology VM kan je dit gemakkelijk allemaal realiseren. Het zal je huidige 213+ zeker overtreffen. In de VM maak je voor elk stukje software een docker aan. Ik zelf vind dat persoonlijk erg fijn, het geeft mij meer controle en gemakkelijkere configuratie mogelijkheden.
Hiermee past dus alles wel binnen de XPenology, behalve crashplan (niet ondersteund althans, heb het eerder ook wel draaiend gehad op de nas, maar lag er net zo vaak uit i.v.m. updates dan dat het werkte).
Enige opmerkingen heb ik wel.
- Waarom een pricewatch: Supermicro X11SSL-F ? Vanwege IPMI? Of 2 NICs?
IPMI heb ik moeten opzoeken, en ziet er niet naar uit dat ik dat ga gebruiken.
2 NICs op korte termijn ook niet.
Waarom dan wel, staat in voorbeeld config, wordt vaker aanbevolen in dit topic voornamelijk qua kwaliteit en duurzaamheid volgens mij, en ondersteund ECC.
- Waarom een pricewatch: Intel 750 SSD Half Height PCIe 3.0 x4 400GB ? Een SM961 is goedkoper en heeft meer opslagruimte. Met de SM961 heb je uiteraard wel een ander moederbord of PCIe adapter nodig.
Ook aanbevolen en in voorbeeld config, en volgens mij ook sneller (heb ik een keer opgezocht) dan M.2, daarmee wil ik niet zeggen dat ik weet dat ik dat verschil ga merken.
- Waarom maar een enkele 4TB disk? Budget?
Ja voornamelijk, ik zit nog wel in dubio wat ik met (de huidige schijven uit) de syno wil.
Ik denk dat ie uit gaat zodra XPenology de taken heeft overgenomen, en dan:
1) in de verkoop gaat, inclusief schijven.
2) in de verkoop gaat, exclusief schijven, en de schijven bijgeprikt op de XPenology.
3) er naast blijft draaien, maar heb nog geen sterk argument om hier voor te kiezen.
- Waarom een pricewatch: Supermicro 731I-300 ? Iedere Micro-ATX kast zal volstaan (Let op: voedingen)
Zelfde argument als hierboven al een paar keer gegeven, heb wel redelijk geleund op voorbeelden / aanbevelingen. Hiermee weet ik ook dat de onderdelen werken met / binnen esxi :)
Wat bedoel je met je punt betreft voedingen, zal deze te licht zijn?
Heb trouwens zo niet het idee dat deze kast, inclusief voeding erg prijzig is, of schat ik dat verkeerd in?

Edit:

Naar aanleiding van de (lastige, maar) zeer gewaardeerde vragen ben ik nog eens gaan denken, of ik inderdaad die server-kwaliteit hardware wel nodig heb, ik neig op dit moment meer naar niet (heb het nu ook niet, en het zal niet zomaar omvallen, en zowel zijn er weinig mensen die er last van hebben).

Daarom nog weer even wat terug gelezen in verschillende topics, en verder gepuzzeld, ik kom nu op:

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
1Gigabyte GA-B150M-D3H€ 88,16€ 88,16
3WD Red WD30EFRX, 3TB€ 108,95€ 326,85
1Cooler Master N300 (Closed)€ 43,80€ 43,80
1Crucial CT2K8G4DFD8213€ 116,95€ 116,95
1Seasonic G-series 360 watt€ 59,95€ 59,95
1Samsung SM961 512GB€ 280,50€ 280,50
Bekijk collectie
Importeer producten
Totaal€ 981,21


Een aantal opmerkingen hierbij, deze kast heb ik gekozen omdat deze veel interne bays heeft, ik wil er uiteindelijk 5 schijven in kwijt, de 3 uit deze config + de 2 die uit m'n syno komen.

Daarom ook gekozen voor 3gb schijven ipv 2x4, hiermee hou ik netto meer ruimte over (wil ze in shr draaien).

De rest wijst redelijk voor zich, en ik denk dat deze voeding dit prima aan zou moeten kunnen.

Wederom zijn op- of aanmerkingen van harte welkom :)

[Voor 30% gewijzigd door marc1982 op 19-06-2017 11:07]


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
marc1982 schreef op dinsdag 27 juni 2017 @ 08:27:
Gezien de G4560 momenteel lastig te krijgen is (heb 'm nog in bestelling staan, maar geef het slechts een kleine kans dat ik ook ga ontvangen), ben ik aan het kijken naar de G4600:

#ProductPrijsSubtotaal
1Intel Pentium G4600 Boxed€ 83,05€ 83,05


Echter staat er in de pricewatch dat deze alleen vt-x ondersteund en geen vt-d, kan dit een foutje in de pricewatch specs zijn?

Gezien Intel iets anders vermeld.
Ja dat is een foutje, vanaf Skylake heeft alles VT-d.

Edit: Ik heb een verbetering aan de specs in de pricewatch ingeschoten, die zou morgen verwerkt moeten zijn.

[Voor 4% gewijzigd door |sWORDs| op 27-06-2017 09:34]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

Zo, omdat ik toch wel wat dingen wilt bijhouden qua lering en vermaak heb ik hier maar gekozen om de single ESX server te vervangen voor een dubbele uitvoering;

2x HP DL360 G6
Beide met de volgende configuratie:
1x Intel(R) Xeon(R) CPU E5645 @2.40Ghz (6 core + HT)
48GB Memory
No disks
SD kaart 16GB voor ESX installatie
Advanced ILO2
tussen de 65watt / 85 per stuk gebruiken ze nu door de dag heen (in verhouding kost het mij +-1 euro per dag meer als ingeschat bij Eneco (Toon))

Daarbij heb ik een Synology DS916+ gekocht + een additionele 3TB HDD, hierin heb ik 3x3TB + de 250GB SSD geplaatst en deze met SSD read cache geconfigureerd en middels een LAG aangesloten op mijn managed TP-Link switch.

Op deze Synology zijn een 2tal ISCSI disks geconfigureerd en deze zijn bij beide hosts geconfigureerd.
De read cache hit rate staat nu voor afgelopen week op 92%. Binnen VMWare worden deze 2 datastores netjes aangegeven met Hardware Acceleration: Supported (VMWare VAAI)

Op beide hosts draait VMware ESXi, 6.5.0, 4887370, gemanaged door vCenter 6.5.0 Build 5705665, inclusief DRS + HA. (Had nog een paar licenties over uit een PoC omgeving en dat is dit ook eigenlijk :P )

Er gaat naar elke host 1 UTP kabel (1Gbit/s) voor LAN en 1 voor ILO (afgrijselijk, moet speciaal naar mijn Windows client :P )

Bovenop deze omgeving draait PFSense als router, om internet te regelen is middels een VLAN (Ziggo bridged, dus PVID op een switchpoort instellen waar het Ziggo modem aanhangt) deze naar de vliering gebracht. Zo kan ik zonder problemen een vmotion uitvoeren van PFSense zonder verlies van verbinding :)

Uiteindelijk verbruiken deze 2 servers + de NAS ongeveer hetzelfde als de i7 op mijn omgeving, de load is nu verdeeld over deze 2 servers en de i7 had een veel hogere TDP (130watt) en ik ben af van het "heb je internet nu alweer gesloopt" van vrouwlief ;)

====
Wel als tip aan ieder die ESX/VSphere gebruikt, update zo nu en dan je UI met een Fling versie:

https://labs.vmware.com/flings/esxi-embedded-host-client

Kan zomaar zijn dat het bepaalde irritaties weghaalt :) (en met de laatste versie kan je wat meer filteren etc...)

Idem voor vCenter, deze middels de Appliance pagina updaten, met de laatste update voor de HTML5 pagina zijn er ook wat verbeteringen aangebracht.

Acties:
  • +1Henk 'm!

  • renedis
  • Registratie: juli 2003
  • Laatst online: 12-04 09:40
Leuk die setup zo :)

Als ik je 1 tip mag geven, kies in plaats van iSCSI voor NFS.
Indien er namelijk iets met je iSCSI LUN aan de hand is dan is het veel lastiger om er bestanden van te herstellen.

Middels een NFS share/datastore kan je gewoon al je bestanden zien in bijvoorbeeld je Synology browser net zoals je gewend bent met een Samba (Windows) share.

VAAI is ook mogelijk via NFS en presteert in jouw geval minstens even goed als iSCSI.

Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Nou ja, geheugen gebruik is relatief, er zijn meerdere soorten geheugen gebruik, sommige applicaties alloceren heel veel geheugen, maar gebruiken het niet actief, anderen alloceren veel minder, maar gebruiken het heel actief. Beide kunnen van invloed zijn op de performance.

Als je puur wil sturen op wat voor geheugen footprint VM's hebben in je hypervisor, kan je in VMware kijken naar Active memory, dat is vaak veelzeggender dan Host Memory.

Let wel op, dat je niet zomaar het geheugen van de VM kan terugschalen naar Active Memory, dat is wat rigoreus.

Zo heeft mijn vCenter maar ~900MB actief geheugen in gebruik, maar als ik die maar 1GB RAM geef, doet ie niet veel meer :+

Even niets...


Acties:
  • +1Henk 'm!

  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

|sWORDs| schreef op dinsdag 18 juli 2017 @ 18:11:
[...]

NIC-vSwitch-Firewall distro VM-vSwitch-VM
Of VLANs als je een managed switch hebt

Wat voor router en/of switch gebruik je?
Zit je weer stiekem in het restaurant op GoT

Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Dat is _heel_ lastig om op die manier te doen. Dan is een share tussen de bakken aanmaken makkelijker.

Beter is om een Datastore te gebruiken en beide machines een vDisk te geven op die Datastore.

Even niets...


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
okio schreef op maandag 24 juli 2017 @ 12:58:
Ja ik heb 2 datastores, 1 ssd die als boot/programma schijf in gebruik is.
En vooralsnog 1x 4tb opslag.

Die laatste wou ik dus dmv bovenstaande opties gebruiken als datastore.
Als ik het goed begrijp kan dat alleen dedicated?
Dus bv ubuntu 1x1tb, xpenology 1x2tb? En dan dus 2 schijven??

Misschien beetje n00b vragen maar ben nog relatief nieuw met esxi
Je kan een disk niet delen tussen VM's zonder deze door ESXi te laten 'claimen' en er VMFS op te zetten.
Je kan wel een complete disk doorgeven aan een VM door middel van RDM (Raw Device Mapping), maar dat is niet de beste methode. Beter is om bijvoorbeeld een NVMe drive te gebruiken om van te booten, en de onboard SATA controller via VT-d (VMDirectPath) door te geven aan de VM. Dan ziet de VM (via de doorgegeven controller) je SATA schijf, en kan deze naar hartelust gebruiken.

Je kan NIET een controller doorgeven waar 2 schijven op zitten, waar je 1 schijf nog voor ESXi zelf wil gebruiken. Het is alles-of-niets :)

In jouw geval, zet de 4TB data ergens anders neer (backups?) maak een Datastore aan op de 4TB disk en maak 2 schijven van 2 (of meer) TB aan voor de VM's. Daarna kan je de data weer terug kopiëren.

Even niets...


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
wouser schreef op zondag 30 juli 2017 @ 10:29:
Ik ben bezig een home-server samen te stellen en vroeg mij af of ik esxi op nvme kon installeren, ik lees dat dat kan maar welke drives supported zijn krijg ik niet helemaal boven water...

Mijn onderdelen:
Supermicro X11SSH-LN4F
Intel Xeon E3-1225 v6 Tray

Nvme: Samsung 960pro

Gaat Esxi die herkennen en daarvan af kunnen booten of heb ik een andere nodig of moet ik drivers toevoegen aan de iso?
Dat werkt gewoon.

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
wouser schreef op zondag 30 juli 2017 @ 20:56:
Wauw, thanks for deze tip! Hoezo kan de plex vm niet gebruikmaken van de GPU van de processor? Een plex pass heb ik dus dat zou geen probleem moeten zijn dan toch?
Met jouw bord (C236+Aspeed) en CPU (xxx5) kun je de GPU doorgeven, maar gaat het om plex server met transcoding of een client (+HDMI out)?

Niemand heeft HDMI out met Intel getest voor zover ik weet.
Management van de VM is ook lastig, veel display protocollen (o.a. vSphere KMS) hebben problemen, maar RDP, VNC of SSH werkt wel.

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
wouser schreef op maandag 31 juli 2017 @ 19:24:
[...]


Dank voor je reply!

Dan zou dat denk ik, als ik het goed begrijp, voor mijn doeleinden moeten werken. Alle andere VM's beheer ik via SSH/SCP. De enige waarover ik twijfel is FreeNAS; deze beheer je natuurlijk vanuit een webgui; werkt deze wel zonder de grafische chip?

wat betreft de plex gaat het om de server die evt moet transcoden naar mobiele devices/externe apparaten. Hij dient louter als server en niet als client.
De GPU gaat maar naar één VM, de rest werkt dan gewoon normaal.

Te Koop:24 Core Intel Upgradeset


  • Valen_76
  • Registratie: oktober 2009
  • Laatst online: 05-03 17:15
Dan moet zijn host een betaalde licentie hebben om de backups te laten maken. (Of in de 60 dagen trial periode zitten) De free hypervisor licentie werkt daar niet mee.

[Voor 6% gewijzigd door Valen_76 op 16-08-2017 13:13]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op zaterdag 19 augustus 2017 @ 10:17:
ik laat even mijn vorige issue staan ..
Ik heb na wat gegoochel uiteindelijk gevonden wat het hele drama van het bovenstaande is..

1. Wanneer je je machine in maintenance mode zet: reboot je machine. Doe je dat niet (zie boven)
2. Wanneer je een custom image hebt gebruikt (HPE), blijf dan daarbij want anders krijg je allerlei meldingen van depencencies etc.. dus download het image die bij je machine hoort (HPE heeft custom images van Vmware)
3. Hierna kan je nog steeds een melding krijgen over conflicting vibs.. in dat geval controleren of je die gebruikt en indien niet: verwijder dan de vib
in mijn geval drie stappen
a. esxcli software vib list | grep Mell (kijken)
b. esxcli network nic list (controleren)
c. esxcli software vib remove -n net-mst (verwijderen)

ik heb geprobeerd eea te upgraden / installeren met de online depot commando's maar omdat er geen verbose info is bleef ik in het ongewisse of het nu goed ging. Dus besloten om gewoon de offline zip bundle te downloaden. Deze op de datastore gezet en met de install commando geïnstalleerd.

Geen foutmeldingen meer !! .. reboot, and hop meteen de U1 erachter aan omdat hier een storage performance probleem opgelost zou moeten zien zodat je de .88 driver niet meer nodig hebt.
(maar dat moeten we nog even gaan bekijken hoe we dat kunnen verifieren).

Wellicht hebben hier wat mensen wat aan in de toekomst
Mijn advies zou zijn om thuis geen custom (vendor) images te gebruiken, maar gewoon zelf de één of twee (of geen) drivers te integreren die echt noodzakelijk zijn. Een ander advies voor thuis is om een vendor te gebruiken welke niet alles customized (bijvoorbeeld Supermicro, welke op een LSI subvendor string na eigenlijk niets aanpast), dan heb je een stuk minder driver/firmware problemen en krijg je noodzakelijke updates (bijvoorbeeld CPU microcode) een stuk sneller, ook zonder premium support contracts.

[Voor 8% gewijzigd door |sWORDs| op 19-08-2017 10:36]

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Mooi, goed om te horen, wel raar dat er corruptie is, zou eigenlijk niet voor mogen komen.

Even niets...


  • JustSys
  • Registratie: januari 2015
  • Laatst online: 02-04 10:34
iemand die de sys-e300 in gebruik heeft en kan meedelen of deze veel geluid maakt tegenover de 5028D? de prijs is wel het dubbele maar is het het dan wel waard? De server zal onder mijn werktafel komen te staan, waarschijnlijk in een rack.

  • Expendable
  • Registratie: september 2013
  • Laatst online: 10-04 15:06
Als ik deze installeer in de server en er harde schijven aanhang en dan als raid 0 configureer. Kan ik deze schijven dan benaderen om als opslag te gebruiken? Of heb ik een duurdere raid controller nodig en wat is dan een goede?
Een hp p410 is wel een aardige controller om mee te beginnen, 2e hands vaak niet al te duur, plus je kan er een cache + fwbc module op zetten om het goed te verwerken bij stroomuitval.

Hierbij kun je gewoon in raid setup de schijven configureren. Is een 6g controller. (Als extra voordeel zou je dan zelfs SAS schijven kunnen gebruiken mocht je daar goedkoop aan kunnen komen)
Zullen ongetwijfeld andere en wellicht goedkopere opties zijn, maar deze controller doet het bij mij altijd goed.

  • renedis
  • Registratie: juli 2003
  • Laatst online: 12-04 09:40
Tuskermalt schreef op dinsdag 10 oktober 2017 @ 12:36:
Misschien is dit niet de juiste topic voor de vraag die ik heb maar voor ik spullen ga kopen wil ik toch hier maar vragen als ik dat ergens anders moet doen hoor ik het wel.

Ik heb al een exsi server draaien met 6.5 erop. Allen qua harde schijf ruimte komt deze nu veel te kort en wil er eigenlijk iets van een raid controller in doen voor meer schijf capaciteit zodat ik in raid kan draaien.

Ik heb deze kaart gevonden:
pricewatch: Dawicontrol DC-600e

Als ik deze installeer in de server en er harde schijven aanhang en dan als raid 0 configureer. Kan ik deze schijven dan benaderen om als opslag te gebruiken? Of heb ik een duurdere raid controller nodig en wat is dan een goede?

Verder heb ik nog de vraag hoe kan ik de VM host beter managen dan met de webinterface is er nog een client of moet alles met vcenter server.
De Dawicontrol DC-600e heeft een Marvell 88SE9128 controller.

Deze werkt standaard NIET met ESXi maar kan je werkend krijgen met een aparte vib file. Echter blijf je hangen op software RAID waar je in ESXi op datastore niveau niets mee kan. ESXi doet enkel een soort van JBOD.

Wil je RAID0 als datastore zal je echt naar een andere kaart moeten gaan kijken. Tweedehands via op V&A zijn ze niet eens zo duur.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Natrixz schreef op donderdag 2 november 2017 @ 07:51:
Dag heren,

Ik sta momenteel in dubio om mijn "oude" stroomhongerige R710 te vervangen door wat nieuws, maar zou toch ook graag jullie mening horen over mijn voorgestelde build.

Na enig zoekwerk ben ik uitgekomen op het volgende:
1 Supermicro X10SDV-7TP4F (Xeon D)
1 Fractal Node
1 Corsair RM650i
4 Samsung M393A4K40BB1-CRC (4x 32GB DDR4 2400MHz ECC)
1 Intel 750 400GB HHHL
1 Intel 960 Pro 1TB
1 16GB USB

Nu vraag ik me wel af of het qua performance beter is om gewoon ESXi te installeren met daarop direct de hosts.
Of;
1 ESX met 3-4 nested ESX's VCSA, FreeNAS? en VSAN. (en dus een vorm van shared NVMe storage) en is dat de jaarlijkse 200Euro VMUG waard? :+
Waarom twee drives en USB als je geen VSAN cluster opzet?
En waarom een RM650i?
De rest van het systeem is eigenlijk gelijk aan mijn build, alleen Samsung 950 Pro 512GB -> 960 1TB en een andere behuizing.

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Verhuis je vCenter even naar een andere host?
Als dat niet kan, moet je dus vanuit de CLI updaten. Alle VM's moeten altijd uit voor een update.
ESX Update package downloaden, en op een Datastore zetten.
Daarna kan je via de CLI updaten met zoiets als: esxcli software vib install -b update.zip (give or take).

Meteen even rebooten daarna.

[Voor 7% gewijzigd door FireDrunk op 20-11-2017 09:17]

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Timeku schreef op maandag 20 november 2017 @ 09:03:
Hoi Allemaal.

Hoe kan ik mijn DL380G6 updaten via Vcenter als hij in maintenance mode moet?
Vcenter moet daarbij ook uitgeschakeld zijn toch? mijn G5 update hij prima omdat ik daar alle vm's gewoon uit kan schakelen. Maar op de G6 staat Vcenter en die kan niet uit want die heb ik toch nodig om te upgraden?

Eerst even mijn setup:

1 X MSA2312sa (12 X 300gb disk)
1 X DL380 G6 48gb mem (ESXi 6.5)
1 x DL360 G5 32GB mem 500GB SSD (ESXi 6.0) (6.5 kent deze CPU's niet meer helaas).

Er komt binnenkort een DL380 G6 bij dan kan het volgens mij heel simpel door de vcenter te moven oid? maar goed ik ben benieuwd hoe ik dit kan doen. Probeer te leren van VMWARE.
Op de ESXi bakjes draaien mijn vms natuurlijk zoals internet gw (pfsense) untangle als filter en unifi server (wifi disks) en xymon servertje (monitoring) en backup servers etc.

Ik hoor graag van jullie.

gr,
Tim
Met maar 1 host (of een niet verplaatsbare VC) kun je beter vanaf de commandline updaten.
6.0:
code:
1
2
3
4
5
esxcli system maintenanceMode  set --enable true
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile install -p ESXi-6.0.0-20171104001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient
reboot

6.5:
code:
1
2
3
4
5
esxcli system maintenanceMode  set --enable true
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile install -p ESXi-6.5.0-20171004001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient
reboot

[Voor 11% gewijzigd door |sWORDs| op 20-11-2017 09:50]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Timeku schreef op maandag 20 november 2017 @ 14:11:
Even een andere vraag. Ik heb het een stuk terug al iets over gelezen maar als je een vm bijvoorbeeld 1gb geeft aan memory en vm geeft vervolgens in vsphere aan dat hij geel / rood is (memory icoon) dan moet hij toch meer krijgen? of kan het ook nog zijn dat hij op dat moment niet meer kan geven (te weinig geheugen vrij?).

En heeft misschien iemand een link met een soort handleiding voor vmware waar ik eens ff door kan bladeren? Ik kan al redelijk veel ermee via SSH esxcli en vlans opzetten etc maar weet nog lang niet alles.

gr, Tim
Een VM krijgt nooit meer aan geheugen dan je hem geeft.
Standaard werkt het zo:
Je wijst 1GB toe, Windows ziet 1GB aan geheugen en gaat dat gebruiken, alles wat gebruikt wordt door Windows wordt ook daadwerkelijk als geheugen op je host benut. Voor elke VM wordt een swap file aangemaakt en zodra er na compressie te weinig host geheugen is wordt de swap benut.

Zaken waarmee je dit gedrag kunt beïnvloeden:
Reservations: hiermee wordt direct een deel/alles van de VM memory als het host geheugen toegewezen en hiervoor geen swap aangemaakt.
TPS (Transparent Page Sharing): delen van common memory blocks tussen VMs.

Rood/Geel is in bepaalde gevallen (bijvoorbeeld met reserve all memory) een display bug in 6.5. En kijk nooit naar "Active Memory", dit is alleen voor de interne werking interessant (het is een schatting van geheugen dat gebruikt wordt, maar een gemiddelde tussen 3 momenten, waarbij niet gekeken wordt of dit ander geheugen was of niet), je kunt beter in de guest kijken naar het geheugen gebruik.

Google termen: "VMware TPS salt large pages" "VMware memory reservation" "VMware swap"

[Voor 42% gewijzigd door |sWORDs| op 20-11-2017 14:27]

Te Koop:24 Core Intel Upgradeset


  • Froos
  • Registratie: oktober 2003
  • Laatst online: 07-03 17:06
|sWORDs| schreef op maandag 22 januari 2018 @ 19:37:
Over een paar weken/maanden is er misschien een verbetering, maar met Haswell/Broadwell zou ik er niet op rekenen.
Het neigt ernaar dat Intel ons een mooi ei heeft gelegd. Wel eentje waar 25 jaar op is gebroed. Het is vooral lullig voor mensen/bedrijven die NET een nieuwe infra hebben gekocht en nu aankijken tegen een nog onbekende performance impact.

Wat ik hoor, maar de berichten zijn nog erg wisselend, is dat vooral SBC en Citrix omgevingen een gemene performence-reductie laten zien.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Froos schreef op maandag 22 januari 2018 @ 19:52:
[...]


Het neigt ernaar dat Intel ons een mooi ei heeft gelegd. Wel eentje waar 25 jaar op is gebroed. Het is vooral lullig voor mensen/bedrijven die NET een nieuwe infra hebben gekocht en nu aankijken tegen een nog onbekende performance impact.

Wat ik hoor, maar de berichten zijn nog erg wisselend, is dat vooral SBC en Citrix omgevingen een gemene performence-reductie laten zien.
SBC en VDI iets minder dan SDDC voor zo ver ik zie en zijn nu gratis tot eind maart op impact te testen met LoginVSI.

Te Koop:24 Core Intel Upgradeset


  • ennekke
  • Registratie: maart 2011
  • Laatst online: 23-02 11:58
Na zeer lang beraadslagen tussen de verschillende hardware mogelijkheden om ESXi te draaien is eindelijk de kogel door de kerk.
Dankzij de gewaardeerde hulp van |sWORDs| en dit topic, staat er sinds dit weekend een ESXi server te zoemen op ESXi 6.5 :).

Zeker niet goedkoop, maar ik wou iets degelijks en ook voor langere tijd.

#ProductPrijsSubtotaal
1HGST Deskstar NAS (2017), 6TB€ 183,74€ 183,74
1Sandisk Ultra Fit 32GB Zwart€ 13,90€ 13,90
1Supermicro SYS-5028D-TN4T€ 1.345,-€ 1.345,-
2Samsung M393A4K40BB1-CRC€ 321,50€ 643,-
Bekijk collectie
Importeer producten
Totaal€ 2.185,64

  • Ethirty
  • Registratie: september 2007
  • Laatst online: 22:48

Ethirty

Who...me?

Heeft je server een remote oplossing? Bij Dell heet het geloof ik Drac (ben zelf meer een HPE man). Anders is esxcli inderdaad een optie.

Voordeel van VMware over Hyper-V is dat je niet elke week moet patchen en rebooten. :+

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone 8 64GB


  • Dennism
  • Registratie: september 1999
  • Laatst online: 23:25
Ethirty schreef op maandag 29 januari 2018 @ 23:21:
Heeft je server een remote oplossing? Bij Dell heet het geloof ik Drac (ben zelf meer een HPE man). Anders is esxcli inderdaad een optie.

Voordeel van VMware over Hyper-V is dat je niet elke week moet patchen en rebooten. :+
Ik zou inderdaad ook zeggen Laatste compatible Dell ISO downloaden, mounten in iDrac en gaan met de banaan.

Vind dat laatste niet echt een argument trouwens, als je kijkt naar VMware patch releases en MS haar patch schedule zit je wanneer je beide up-to-date houd op vrij regelmatige reboots. MS iets strikter dan VMware door patch tuesday, maar heel erg veel ontloopt het elkaar ook weer niet. Wel kom ik veel vaker in het wild VMware implementaties tegen die totaal niet up-to-date zijn itt tot MS Hyper-V opstellingen.

Chronia Lvl 60 Warlock Diablo 3


  • Dennism
  • Registratie: september 1999
  • Laatst online: 23:25
rookie no. 1 schreef op dinsdag 30 januari 2018 @ 21:05:
De meeste Dell servers bij onze klanten zijn echt vrij basic helaas (en geheel tegen mijn wens) zonder iDrac of hooguit iDrac essentials, dus dan wordt het in die gevallen toch esxcli verwacht ik. Maar hoe weet ik welke VIB/update ik kan kiezen? Is er een lijst op te vragen met een commando?

/off-topic: Hyper-V server of Windows Server Core met Hyper-V role zijn anders vrijwel vergelijkbaar met VMware. Stuk minder updates en net zo beperkt benaderbaar als VMWare. Dan nog niet eens gesproken over NANO server.
Ik wist niet eens dat er nog servers zonder iDrac uitgeleverd werden, Basic/Express uiteraard wel. Misschien toch eens goed afstemmen met je sales bij komende projecten of nu aanbieden aan de klant als upgrade, zo duur is een upgrade naar Express / Enterprise ook weer niet en je wint er een flink stuk beheersbaarheid mee wat de klant op den duur ook weer kosten uitspaart ;), iDrac Express zou je als het goed is de virtual console met virtual media al moeten geven.

Voor het updaten kan je de volgende commando's gebruiken:

esxcli software sources profile list -d https://hostupdate.vmware.../main/vmw-depot-index.xml | grep ESXi-<versie>
(na grep de juiste versie opgeven bij grep ESXI-6.5.0)

En dan de image die je kiest uit de lijst installeren met:

esxcli software profile update -d https://hostupdate.vmware.../main/vmw-depot-index.xml -p <naam van versie>-standard

Moet wel zeggen dat ik niet echt weg ben van deze methode daar bepaalde compatibiliteit checks overgeslagen worden die met een upgrade via ISO wel gedaan worden. Ook mis je op deze wijze de Dell customisations. Ik weet natuurlijk niet hoeveel haast je hebt om te upgraden, maar als je geen iDrac hebt, zou ik eigenlijk toch echt aanraden de server op locatie te updaten. Je wil bijv. ook niet dat je op zaterdag morgen de upgrade aan het doen bent en door een incompatibiliteit komt de server niet meer up. Ben je mogelijk nog verder "van huis" en kun je alsnog in de auto stappen.

Chronia Lvl 60 Warlock Diablo 3


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Wim-Bart schreef op maandag 19 februari 2018 @ 03:30:
[...]

Ja. En voordeel van Hyper-V is. Je hoeft niet te klootviolen met drivers.
Als je drivers nodig hebt met ESXi gebruik je verkeerde hardware. ;)

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Jack Flushell schreef op zondag 25 februari 2018 @ 20:04:
Binnenkort komt mijn PowerEdge T330 binnen en daarop wil ik ESXi draaien met circa 4-5 VM's.
Ik heb dan dus 1 server met daarop meerdere VM's.
Ik wil de boel dan gaan managen met de vSphere Client.
ESXi staat voor-geïnstalleerd op de server.

Nou is het me niet duidlijk uit de OP en op de website van vmware
1) OF ik een licence moet aanschaffen
2) Wat ik dan moet aanschaffen.

1) In mijn situatie: Is de gratis versie voldoende? (Dat lijkt op basis van de OP wel zo te zijn, maar op de website van vmware wordt dat me niet duidelijk, zijn ze erg vaag over). Moet ik dan kiezen voor Free Trial op de vmware website? Hoe lang is deze dan geldig, of is de trial oneindig?
2) Als het noodzakelijk is om iets aan te schaffen zat ik zelf te denken aan:
a) EvalExperience zoals genoemd in OP. Dat kost dan €200 /jaar
b) VMware vSphere Essentials Kit. Dan ben je voor €650 Euro voor altijd klaar met 1 jaar updates of €774 voor 3 jaar updates.

Graag advies.
Enkele server in een thuislab zonder 3rd party management/backup: Free
Meerdere servers/VMware producten in een thuislab: EvalExperience
Kleine (3 hosts met elk 2 CPU's): productie omgeving: Essentials (Plus)

VMUG is een stuk meer dan Essentials, veel meer producten:
VMware vCenter Server v6.x Standard
VMware vSphere® ESXi Enterprise Plus with Operations Management™ (6 CPU Licenses)
VMware vCloud Suite® Standard
VMware vRealize Operations™
VMware vRealize Log Insight™
VMware vRealize Operations for Horizon®
VMware Horizon® Advanced Edition
VMware vSAN™
VMware Workstation Pro 12.5
VMware Fusion Pro 8.5
VMware NSX Enterprise Edition (6 CPU licenses)
VMware vRealize Network Insight

En veel meer features in vSphere, zoals HA, vMotion (zoals in Essentials Plus). Maar het mag alleen voor non-production use gebruikt worden.

[Voor 17% gewijzigd door |sWORDs| op 26-02-2018 11:15]

Te Koop:24 Core Intel Upgradeset


  • webgangster
  • Registratie: juli 2006
  • Laatst online: 11-04 19:14

Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Dacht het niet. Dus allicht even proberen :)

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
zeroday schreef op zaterdag 17 maart 2018 @ 12:13:
:P
[...]


super!. Ben benieuwd of dit voor mij gaat werken. mijn vmware is niet geheel bijgewerkt (voor huis tuin en keuken en niet hangend aan het internet niet echt noodzakelijk) ;)
  1. Plak al (host/wildcard + intermediates + root in deze volgorde) je certs in een enkele file en noem deze rui.crt
  2. Plak je private key in een andere file en noem deze rui.key
  3. Plak je root cert nog eens in een andere file en noem deze root.crt
Dubbelklik rui.crt even zodat je kunt zien of deze geldig is. Je mag geen certificaten missen en alles moet PEM (X.509) encoded zijn.

Als je een vCenter hebt doe je eerst de vCenter, maar je moet dus of 6.0/6.5GA gebruiken (en later upgraden, bijwerken van wildcard naar wildcard is geen probleem met nieuwere versie, maar je kunt niet een andere common name dan het huidige certificaat gebruiken!) of voor een niet wildcard gaan:
  1. Ga naar configure -> advanced settings op de vcenter en plak vpxd.certmgmt.mode in de zoekbox.
  2. Klik op edit en verander vmca naar custom.
  3. Herstart de vCenter.
  4. SCP alle files naar /tmp op de vCenter (indien VCSA, met Windows kopieer je ze gewoon naar een makkelijke folder c:\cert ofzo)
  5. Start /usr/lib/vmware-vmca/bin/certificate-manager (SSH, meestal moet je eerst shell typen om in bash te komen) of C:\Program Files\VMware\vCenter Server\vmcad\certificate-manager
  6. [list]
  7. Kies optie 1 (Replace Machine SSL certificate with Custom Certificate)
  8. Geef vCenter credentials
  9. Kies optie 2 (Import custom certificate(s) and key(s) to replace existing Machine SSL certificate)
  10. Please provide valid custom certificate for Machine SSL - /tmp/rui.crt
  11. Please provide valid custom key for Machine SSL - /tmp/rui.key
  12. Please provide the signing certificate of the Machine SSL certificate - /tmp/root.crt
  13. Yes (duurt enkele minuten, wacht tot het script klaar is en daarna tot de VC weer up is.)
  14. [/list]
Hierna of zonder vCenter doe je ESXi (met VSAN doe een reboot ipv 'herstart management agents' bij stap 3):
  1. Zet de host in maintenance mode.
  2. Met SCP hernoem je rui.crt en rui.key in /etc/vmware/ssl naar ruicrt.backup en ruikey.backup en plak je de nieuwe files.
  3. Nu ga je naar de console op de host (DCUI) naar Troubleshooting Options > Restart Management Agents en drukt op F11.
  4. Haal de host uit maintenance mode.

[Voor 28% gewijzigd door |sWORDs| op 17-03-2018 16:00]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mentox schreef op zaterdag 17 maart 2018 @ 20:47:
@|sWORDs| Geweldig topic, heel erg bedankt voor je inzet!

Voor MCSE 2016 wil ik weer een homelab bouwen en dacht aan het volgende:
Intel Xeon E3-1240 v6
£253,-
Supermicro X11SSM-F
£203,-
Corsair Carbide 270R
£58,-
Corsair V350 PSU
£30,-
Corsair LPX 2x (16GBcmk32gx4m2a2133c13)
£89,- koopje van eBay
Cooler Master Hyper TX3 EVO
£19,-

Voor opslag wil ik mijn Synology DS916+ gebruiken met twee SSDs en iSCSI.

Ik woon in Engeland vandaar de Ponden.

Tips en/of kritiek? :)
Ponden zijn hier niet raar, heb anderhalf jaar vrijwel alleen om het weekend thuis doorgebracht voor klussen in de UK en sta over anderhalve week weer in London te presenteren. :)

Mooi systeem, maar drie opmerkingen:
1) De achtste generatie staat voor de deur (paar weken?), waarschijnlijk meer cores voor dezelfde prijs of even veel cores voor minder.
2) Ik ben geen fan van shared storage, zeker niet voor een enkele host. Blader dit topic even door, voor een beetje testen net MCSE is het zeker voldoende, maar het is wel een bottleneck voor je systeem.
3) Boxed is hier vaak goedkoper dan tray en de cooler is afdoende, dat kan dus dubbel schelen qua kosten.

[Voor 4% gewijzigd door |sWORDs| op 17-03-2018 22:19]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +2Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
jwvdst schreef op vrijdag 13 april 2018 @ 08:21:
ik heb een stomme fout gemaakt.
Ik heb nadat ik een extra sata controller toegevoegd heb per abuis de verkeerde (onboard) sata controller in pass through modus gezet. Gevolg is dat esxi6.5 wel start vanaf de ssd wat wel wat langer duurt. Ook lukt het nog om de vm's die op een nfs share staan te starten maar de vm's die op de ssd datastore niet omdat de ssd na het starten niet meer beschikbaar is omdat de sata controller dan in pass through modus staat. Ok lukt het me niet om de pass through van de sata controller terug te draaien omdat wijzigingen in de configuratie niet weg geschreven kunnen worden naar de ssd.
De ssd op de andere sata controller aansluiten wordt em niet omdat die sata controller niet ondersteunt wordt door esxi en ik heb ook geen losse sata controller liggen die wel ondersteunt wordt door esxi.
Zijn er nog mogelijkheden om zonder verlies van data configuratie en niet al te veel werk de pass through modus van de sata controller terug te draaien? Of wordt het gewoon een herinstallatie van esxi?
De passthrough staat in esx.conf (/device/00000:000:17.4/owner = "passthru" voor 0000:00:11.4, dus decimaal, niet hex) welke in state.tgz zit, probleem is dat als ik de tar file extract en bewerk en weer tar/gzip de configuratie hier niet gebruikt wordt (ESX start dan weer met defaults). /sbin/backup.sh lijkt de enige manier te zijn.
Ik zou het via een USB naar SATA converter proberen en mocht het via de GUI niet lukken dan kan het ook via de console (passthrough van 0000:00:11.4->0000:00:1f.2):
code:
1
2
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ hardwareinternal pci setpassthru --device-id 0000:00:11.4 --enable 0
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ hardwareinternal pci setpassthru --device-id 0000:00:1f.2 --enable 1


Alternatief zou de state.tgz kopiëren (Linux live disk of Mac) zijn, nieuwe installatie, state.tgz in /tmp en dan:
code:
1
2
3
4
5
6
7
8
9
10
cd /tmp
tar -xvzf state.tgz
cd /
mv local.tgz local.tgz.old
cp /tmp/local.tgz .
tar -xzvf local.tgz
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ hardwareinternal pci setpassthru --device-id 0000:00:11.4 --enable 0
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ hardwareinternal pci setpassthru --device-id 0000:00:1f.2 --enable 1
/sbin/backup.sh
reboot


In plaats van kopiëren/herinstalleren kun je state.tgz ook hernoemen naar state.bck (wachtwoord daarna leeg) en daarna in plaats van de tweede stap hierboven het volgende doen:
code:
1
tar -xvzf /tardisks/state.bck

[Voor 31% gewijzigd door |sWORDs| op 13-04-2018 11:41]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • hans_lenze
  • Registratie: juli 2003
  • Laatst online: 19:53
JustSys schreef op woensdag 14 maart 2018 @ 12:59:
Is een ATOM c3000 af te raden als men sql/sccm en Cisco/gns/virl wilt draaien binnen esxi? Of toch op zijn minst een xeon e3
Dat hangt er vanaf.
Zelf ben ik fan van het C3000 platform omdat ik zelf de stroomrekening moet betalen en geen behoefte heb aan een bloedsnel systeem. Als je thuis wilt spelen en niet veel geld uit wilt geven is het helemaal prima.
Als je een beetje meer budget hebt, is de upgrade naar Xeon-D wel de moeite waard. Een Xeon E3 systeem is een optie als je niet heel veel VMs tegelijk wilt draaien en kunt leven met minder RAM.

while (! ( succeed = try ()));


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
wapzil schreef op donderdag 19 april 2018 @ 14:11:
[...]


Wat adviseer je voor CPU(s) voor de aangepaste wens?
Wil je er een adviseren met games en een GPU voor twee Windows 10 VM's die tegelijkertijd draaien?
En een zonder de game opties, maar alleen de opties eronder?

De verwachting is dat ongeveer 10 gebruikers tegelijkertijd gebruik zullen maken van:
- de file server
- mail server
- media server

De verwachting is dat ongeveer 25 gebruikers tegelijkertijd gebruik zullen maken van:
- Game server (minecraft)
- Teamspeak server (ook 25 gebruikers).

De verwachting is dat ongeveer 4 gebruikers tegelijkertijd gebruik zullen maken van:
- Windows 10
- Office
- Google SkechUP
- Internet zoals youtube en netflix
- Adobe Photoshop, Adobe Illustrator, Dreamweaver, indesign (waarbij data naar file server opgeslagen wordt).
Laten we dit even opbreken in desktops en servers. Voor Horizon mis je nog een paar servers:
  • Domain Controller
  • Connection Server
  • Unified Access Gateway
  • vCenter
En optioneel een App Volumes Manager en Identity Manager.

Wat je zou kunnen overwegen is om de domain controller, file/media/mail/teamspeak/minecraft server te combineren met bijvoorbeeld XPenology. Dan zou je zoiets krijgen:
  • XPenology - 8GB en 4 vCPU
  • Connection Server - 8GB en 2 vCPU
  • Unified Access Gateway - 4GB en 2 vCPU
  • vCenter - 10GB en 2 vCPU
Waarbij je toch wel minimaal 4 fysieke cores moet hebben om het bovenstaande rijtje op te draaien.

Dan de desktops, met Horizon hoef je Netflix en Youtube niet mee te rekenen, hier kun je HTML5 redirection voor gebruiken al weet ik niet of dit met Netflix ook daadwerkelijk werkt.
Puur Windows 10 en Office dan heb je over 2 vCPU's en 2.4GB geheugen en een 1:8 ratio zou voldoende zijn, echter heb je maar 4 VM's en dan te weinig spare voor pieken van meerdere VM's, dus hebben we het al snel over 2-4 fysieke cores.

Dan de probleem gevallen:
Google SkechUP - License staat gebruik in een VM (kun je omheen) niet toe en vereist OpenGL 3.0 (GPU)
Adobe Creative Suite - Ook hiervoor wil je eigenlijk een GPU hebben.

CPU en geheugen bereken voor de probleem gevallen is niet te doen, ik heb geen idee hoe zwaar de workloads zijn en hoeveel mensen echt simultaan een taak uitvoeren. Gok met 4 simultaan:
8GB en 4 vCPU's met 8-12 fysieke cores.

Dan heb je het dus al over minimaal 64GB en 16 cores, maar je wil ook niet gelijk vol zitten, dus ik zou dan op minimaal 20 cores en 128GB inzetten. Ook heb je minimaal 4 VM's met GPU nodig, dan is MxGPU of vGPU (GRID) waarschijnlijk de enige optie, met 4 losse kaarten zit je direct aan je max VM's en 4 kaarten zijn ook niet goedkoop.

[Voor 7% gewijzigd door |sWORDs| op 19-04-2018 15:55]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
ESXi wil een device claimen, daarvoor wil het alle UUID's en alle partitie (type) ID's snappen en kunnen mounten/verwerken. Als er nog andere partities op staan met onbekende ID's, onbekende UUID's of wat dan ook, zal ESXi's storage provider zeggen dat de SSD al 'in use' is door andere toepassingen, en dus dienst weigeren.

Even niets...


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
CaptJackSparrow schreef op zaterdag 5 mei 2018 @ 15:01:
[...]


Ik kon me alleen voorstellen dat de ondersteuning van virtualisatie in de hardware daarbij een rol zou kunnen spelen. Een vrij essentieel onderdeel van virtualisatie is nu eenmaal het delen van hardware door virtuele machines. Hoe ver dat kan gaan voor verschillende componenten weet ik (nog) niet. Dat was ik allemaal een beetje aan het verkennen.
Je zou kunnen beginnen door de start post te lezen:
Graphics in de startpost

Of de discussie die hier begon:
|sWORDs| in "Het grote ESXi/vSphere Topic"

Delen van een GPU met meerdere VM's kan alleen met:
  • Intel GVT-G (werkt niet met vSphere)
  • AMD MxGPU
  • NVIDIA vGPU

[Voor 13% gewijzigd door |sWORDs| op 05-05-2018 17:23]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • Le Enfant!
  • Registratie: juli 2012
  • Laatst online: 20:14
CaptJackSparrow schreef op zondag 6 mei 2018 @ 16:13:
Dat ESXi is ook niet bepaald een wandelingetje in het park. :|

Wil ik 'even' een VM met pfSense maken, waarvoor ik netjes deze handleiding volg,

https://doc.pfsense.org/i..._on_VMware_vSphere_/_ESXi

Krijg ik bij het toevoegen van een uplink de melding:

[afbeelding]


Als ik daarop zoek vind ik vooral meldingen van een bug in de Embedded Host Client die dan met een .vib bestand geüpdate kan worden.

https://www.pei.com/2018/...rs-attach-virtual-switch/

Echter gaan al die verhalen over oudere vSphere versies en heb ik geen flauw idee of de versie die ik heb (6.7.0) misschien allang die EHC-versie of later heeft en dat ik de oplossing elders moet zoeken. Iedereen leeft in het heden en gaat er van uit dat iedereen de oudere versie nog heeft en over checken van de versie heeft men het niet en ik kan er ook niets over vinden.

Hoe check ik die EHC-versie? Zou dat het inderdaad zijn of kan het wat anders zijn?
code:
1
esxcli software vib get

Die melding kreeg ik ook toen ik een nieuwe netwerkadapter op mijn server plaatste en ik deze moest toevoegen. Ik heb dit toen opgelost door deze handmatig toe te voegen via de cli.
Om een uplink toe te voegen aan een switch, moet je volgende commando gebruiken.
code:
1
esxcli network vswitch standard --add uplink-name=vmnic --vswitch-name=vSwitch

Bij vmnic moet de nic die je wilt gebruiken als uplink, bij -vswitch name moet de vswitch waar je de uplink wilt aan toevoegen.

Edit: Zoals KRGT zei, moet je dan wel beschikken over meerdere NIC's.

Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Zoals KRGT al zegt met één NIC zul je een managed switch achter ESXi met VLANs moeten hebben.

De guide die je volgt van pfSense gaat uit van meerdere NICs op de host. Wat je nu probeert te doen kan gewoon niet, niet met ESX, niet met HyperV of welke hypervisor dan ook en ook niet met pfSense rechtstreeks op de NUC.

Haal een managed switch:
pricewatch: TP-Link TL-SG105E-Gigabit (5-poorts)

Hang internet aan poort 1 met VLAN2, ESXi aan poort 2 met een trunk van VLAN2 en VLAN1 (=default VLAN) met als PVID VLAN1 en andere apparatuur aan poort 3-5.

In ESXi gebruik je gewoon 1 vSwitch met de NIC als uplink en voeg je een portgroup WAN toe met VLAN1.

De pfSense VM geef je twee vnics, eentje aan VM Network en eentje aan WAN.
Of je maakt een extra portgroup aan op de vSwitch met VLAN1-2 en stelt de VLANs in op pfSense.

Alternatief voor de managed switch is een USB NIC, maar dat raad ik sterk af.

[Voor 75% gewijzigd door |sWORDs| op 06-05-2018 18:46]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +2Henk 'm!

  • Raven
  • Registratie: november 2004
  • Niet online

Raven

Marion Raven fan

https://tinkertry.com/easy-update-to-esxi-67 ;)

Kan een no space left error opleveren, op te lossen door swap op datastore aan te zetten, liep ik tegenaan...

[Voor 71% gewijzigd door Raven op 09-05-2018 12:34]

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • +1Henk 'm!

  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 22:18
ThinkPad schreef op woensdag 9 mei 2018 @ 12:13:
Binnenkort mijn 6.5 (ik draai nog op build 4564106) maar eens bijwerken naar 6.7.
Makkelijkste in mijn geval (PCtje in meterkast waar ESXi Free op draait) is om even beeldscherm aan te sluiten, de ISO booten en dan daarmee bijwerken denk ik?

Of kan het ook via SSH?
Heb laatst mijne geupdate middels esxcli, ging prima!
Moest nog wel ff langs de pc, omdat safeboot begon te bokken.
Binnenkort pc verhuizen naar de kelder.

Whatever.


Acties:
  • +1Henk 'm!

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:19

ThinkPad

Moderator Duurzame Energie & Domotica
Raven schreef op woensdag 9 mei 2018 @ 12:29:
[...]

https://tinkertry.com/easy-update-to-esxi-67 ;)

Kan een no space left error opleveren, op te lossen door swap op datastore aan te zetten, liep ik tegenaan...
Gelukt, bedankt voor die pagina. Uiteindelijk is het maar één commando uitvoeren via SSH, viel wel mee.
Wel altijd weer spannend of hij weer up komt, de ping timeouts duren dan erg lang haha.

Moest wel de swap aanzetten omdat ik die foutmelding kreeg inderdaad.
Kan nu, na het upgraden, die swap weer uit?
Misschien weet @FireDrunk of @|sWORDs| dat?

[Voor 21% gewijzigd door ThinkPad op 11-05-2018 07:44]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • +1Henk 'm!

  • Felyrion
  • Registratie: november 2001
  • Laatst online: 01:13

Felyrion

goodgoan!

zeroday schreef op dinsdag 15 mei 2018 @ 10:57:
wat voor ESXI backup tools gebruiken jullie als je van 6.5.0 naar 6.7 gaat?
Een van de redenen om nu nog niet over te gaan is dat mijn tool 6.7 nog niet ondersteund.

En het liefst zou ik een mooie 'free to use' GUI backup tool willen gebruiken ..
Volgens mij ondersteunen de meesten het nog niet (officieel).

Ik gebruik zelf Veeam, zowel gratis als betaald en zij geven aan vermoedelijk richting eind juni 6.7 te gaan ondersteunen. Ze zijn nu aan het testen en bugs aan het oplossen.
Bepaalde setups lijken wel te functioneren, maar met beperkingen (bijvoorbeeld een VeeAm proxy binnen de ESXi host, per host).

Ik geef het altijd een maand of twee/drie voordat alle vendors bij zijn. VMware heeft er nogal een handje van om tussen de RC en de GA nogal wat aan te passen waardoor veel vendors de kat uit de boom kijken tot de GA er is :/

sleep: a completely inadequate substitute for caffeine


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
CaptJackSparrow schreef op woensdag 16 mei 2018 @ 11:46:
[...]

Dan ein-de-lijk proberen de VMs te exporteren wat onder v6.7 onmiddellijk tot een Network Error leidde bij exporteren van een .vmdk file. De kleinste pfSense VM lukte maar bij de grotere Windows VMs gaat het toch weer na enkele GB mis met wéér die network error. Ik vroeg me af of de inactivity time-out mogelijk roet in het eten gooide hierbij en heb die verhoogd maar bij een laatste poging toch weer die network error.

[...]
Welke browser gebruik je? Er zijn nogal wat browsers die bestanden boven de 4GB niet leuk vinden, Chrome heeft daar geen last van.
CaptJackSparrow schreef op woensdag 16 mei 2018 @ 11:46:
[...]
Hoe moeilijk is het nou toch om een bestandje foutloos over een netwerk te sturen?
[...]
VMware gebruikt gewoon https, als dat misgaat dan is er of iets met je browser of misschien iets met de nic, disk of controller die je gebruikt.
CaptJackSparrow schreef op woensdag 16 mei 2018 @ 11:46:
[...]
Zijn ze bij VMware niet in staat om dat fatsoenlijk te implementeren? :F
[...]
Dit is de zoveelste opmerking op die toon. Kun je die niet achterwege laten:
CaptJackSparrow schreef op maandag 7 mei 2018 @ 16:39:
[...]
Ik had gehoopt dat daar wat slimmer mee omgegaan zou worden maar dat valt dus tegen.
[...]
quote:
CaptJackSparrow schreef op zondag 6 mei 2018 @ 16:13:
Dat ESXi is ook niet bepaald een wandelingetje in het park. :|

[...]
quote:
CaptJackSparrow schreef op zaterdag 5 mei 2018 @ 09:40:
Het lijkt erop dat Vmware een verandering van management software/clients heeft doorgevoerd met tegelijkertijd een naamgeving die van een ongelooflijk wollige mistigheid is en die voor een nieuwkomer buitengewoon verwarrend is.

[...]

Ik geloof dat de verwarring bij mij nu officieel compleet is. Wát een onduidelijke terminologiebende heeft men er bij VMware van gemaakt.
quote:
CaptJackSparrow schreef op vrijdag 4 mei 2018 @ 14:27:
[...]

Nee het zal ook eens makkelijk gaan. :')
quote:
CaptJackSparrow schreef op vrijdag 4 mei 2018 @ 12:06:
[...]
VMware loopt een beetje achter lijkt het. Kan iemand ze even op de hoogte brengen dat het niet zo zwart-wit is? :)
[...]
Pak hardware die geschikt is en gebruik het zoals de bedoeling is en negen van de tien problemen verdwijnen als sneeuw voor de zon.

[Voor 96% gewijzigd door |sWORDs| op 16-05-2018 12:00]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

@CaptJackSparrow Er zijn duizenden als niet honderduizenden bedrijven en personen welke ESX gebruiken. Natuurlijk zijn er soms problemen, maar het lijkt in de basis al fout te gaan en dat ligt dan meer aan kennis of/en hoe je het wilt gaan gebruiken. Dan heeft afgeven op ESXi / Veeam / de community geen enkele zin.

Ik doe bijna dagelijks ESX, Hyper-V en XEN servers uitrollen en nergens ben ik zoveel problemen tegengekomen als jij hier ervaart.

Ik deel @|sWORDs| zijn opmerking met het negatieve over VMWare / ESX, maar ook zoals @Jazzy aangaf je dan beter gewoon in een eigen topic verder kan gaan met je wensen / eisen / problemen, zodat dit topic niet alleen richt op jouw problemen / uitdagingen met ESX.Ook in je laatste opmerking, dat het blijkbaar alleen prettig werkt met het betaald vCenter, is ook weer zo'n sneer naar VMWare.

Acties:
  • +1Henk 'm!

  • Jazzy
  • Registratie: juni 2000
  • Laatst online: 23:25

Jazzy

Moderator SWS/PB

Moooooh!

CaptJackSparrow schreef op woensdag 16 mei 2018 @ 12:36:
En als ik steeds maar een oplossing voor de oplossing voor de oplossing etc. van een probleem moet zoeken dan vind ik dat ik daar best een beetje kritisch over mag zijn.
Dan doe je dat maar in een email aan VMware. Je bent je er blijkbaar niet van bewust hoe zeurderig en vervelend je toon overkomt op de mensen die je proberen te helpen. Omdat je hier al eerder op aangesproken bent maar het kwartje blijkbaar maar niet wil vallen kun je op een PB met meer uitleg rekenen.

Verder is dit een goed moment om je eens af te vragen of je op de goede weg bent met wat je hier wilt bereiken. Als je een Type 0 hypervisor zoekt met een toegankelijke interface, vergelijkbare featureset en die draait op alle hardware dan kun je misschien beter Hyper-V overwegen.

Mocht je toch met ESXi verder willen, zorg dan dat je je zo veel mogelijk houd aan de supportrichtlijnen. Wanneer je dan alsnog hulp nodig hebt en er ook na onderzoek zelf niet uit komt, graag een eigen topic openen. Kies in dat geval een positieve toon, laat je mede-Tweakers merken dat je hun hulp waardeert en deponeer je feedback over het product op een plaats waar iemand er wat mee kan.

Eventuele discussie hierover graag in Oneens met de actie van een moderator? Post het hier en niet in dit topic. Bedankt.

Exchange en Office 365 specialist. Mijn blog.


Acties:
  • +1Henk 'm!

  • bubbelbabe
  • Registratie: februari 2012
  • Laatst online: 03-04 21:31
@Craven nee misschien niet helemaal :+
Maar ik beschouw de spullenboel voor thuis meer als semi-productie 8)7
(Al zou ik stiekem toch wel heel erg balen als het weg zou vallen dus wellicht heb je stiekem toch gelijk)

Acties:
  • +1Henk 'm!

  • Cookiezzz
  • Registratie: juni 2011
  • Laatst online: 12-04 16:01
Vorige week mijn ESX en vCenter naar de laatste versie geüpgrade.
Sinds toen krijg ik onderstaande melding.



In mijn case zitten 3 fans + 1 CPU fan en deze doen het echter allemaal.
Iemand nog ervaring mee toevallig?


Edit: Blijkbaar hebben meerdere mensen hier toch wel last van.
https://communities.vmware.com/thread/588182

Zal wel even wachten worden op een fix dan. Zolang het geen kwaad kan :)

[Voor 25% gewijzigd door Cookiezzz op 03-07-2018 19:33]


Acties:
  • +1Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
sloth schreef op zaterdag 21 juli 2018 @ 12:49:
Ik ben op een nogal knullige manier het root password van m'n ESXi 6.5 host verloren. De VMware KB is heel duidelijk over een password reset:


[...]


Er zit dan vast niets anders op dan te herinstalleren, of zijn er toch (not supported) workarounds?
https://4sysops.com/archi...e-system-from-a-second-os en dan optie 3.

Te Koop:24 Core Intel Upgradeset


Acties:
  • +4Henk 'm!

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Mijn nieuwe whitepaper is uit, staan ook best interessante stappen voor thuis in:

https://techzone.vmware.c...e-horizon-virtual-desktop

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
Support bellen.

Even niets...


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
|sWORDs| schreef op woensdag 28 juni 2017 @ 09:39:
[...]

Ja en nee. Er zit een hoop potentie in, maar AMD Ryzen en Epyc zijn gewoon nog niet af, zeker voor virtualisatie. Met elke microcode wordt het ietsje beter, maar misschien is er nog wel een hardware revisie nodig (gevoel, geen inside information) voor het echt allemaal werkt en dan moet alle software er nog mee overweg kunnen. AMD engineers werken mee aan Linux virtualisatie, maar zelfs daar werkt nog zo veel niet of nauwelijks met bleeding edge kernels.

Dan over de vergelijking met E3, dit is niet wat Epyc moet gaan doen, Epyc is E5 terrein.

Gezien de meeste bedrijven al Intel draaien en live migraties willen kunnen doen denk ik dat Epyc het zwaar gaat krijgen en in eerste instantie alleen in een paar niches gebruikt gaat worden. Zeker als je ziet dat op het totaal de prijs van de CPU niet heel veel uitmaakt (Wat is op 30-50K voor dikke servers plus 3 jaar support een paar honderd minder voor de CPU's?) en er nog geen groot ecosysteem met vendors is.
Inmiddels (AGESA 1.0.0.6) werkt hier alles wat ik maar kan bedenken:
  • All Core Turbo blijft op 2.8GHz
  • vGPU werkt
  • Onboard SATA controller (twee 8 poorts) passthrough werkt
  • Microsoft Virtualization Based Security werkt


Mogelijk dat er nog andere problemen opduiken, maar so far so good en erg onder de indruk.

Edit: Passthrough toch nog niet stabiel

[Voor 4% gewijzigd door |sWORDs| op 18-08-2018 12:23]

Te Koop:24 Core Intel Upgradeset


  • Crahsystor
  • Registratie: februari 2009
  • Laatst online: 12-04 17:45
Jazzy schreef op woensdag 12 september 2018 @ 10:33:
[...]
Weet je het zeker? Als ze zeggen dat het met ESXi werkt, dan bedoelen ze toch de gratis versie van vSphere?

https://www.veeam.com/nl/...backup-solution-free.html
Blijkbaar niet (meer):
Veeam Backup Free Edition "Let op: De gratis vSphere Hypervisor (gratis ESXi) wordt niet ondersteund. vSphere Essentials of hoger licentieniveau vereist."

edit bron:
De opmerking staat op de downloadpagina van Veeam Backup Free Edition (https://www.veeam.com/nl/...load.html?ad=in-text-link login vereist)

[Voor 16% gewijzigd door Crahsystor op 12-09-2018 12:29]

Addicted to silent computing


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Bij 6.5 en 6.7u1 kan dat, alleen met 6.7 niet.

Te Koop:24 Core Intel Upgradeset


  • Ethirty
  • Registratie: september 2007
  • Laatst online: 22:48

Ethirty

Who...me?

MvL schreef op dinsdag 23 oktober 2018 @ 16:09:
Het antwoord is ja. Top!

Ik wil nu graag een test server opzetten is er ergens documentatie hoe ik dit het best kan aanpakken (bv. blog). Ik heb hier een Supermicro met 32gb en een 1270v6 voor de test.
Ik had het antwoord op je eerste vraag binnen 3 seconde gevonden met Google. Je vraagt ons toch niet nog een keer om te Googlen hè? ;)

Er wordt wel wat eigen inzet verwacht op Tweakers.

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone 8 64GB


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Harmen schreef op maandag 22 oktober 2018 @ 16:10:
Iemand ervaringen met het volgende?
Valt mij op dat de leds van de connectbox en ESX host altijd knipperen, ook als ik naar bed ga. 's morgens het zelfde verhaal. Iemand bekend met dit 'probleem'?

Ik heb een ESX 6.5 machine in gebruik met oa:
Sophos XG firewall, Pi-Hole, Unifi, gekoppeld aan Connectbox en AC Lite.
Zie in de logboeken veel de volgende meldingen voorbij komen:
(ne1000): false RX hang detected on vmnic0

Destijds heb ik mijn Firewall geinstalleerd met de ne1000 adapter ipv de vmnet adapter.
De ne1000 driver zijn meerdere problemen mee (ook fysiek) ik zou de e1000e driver gebruiken.
code:
1
esxcli system module set --enabled=false --module=ne1000

Traffic is er hier in huis de hele dag en nacht, altijd wel een telefoon/VM/PC/apparaat wat voor een update checkt.

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Harmen schreef op dinsdag 23 oktober 2018 @ 16:51:
Dankje, zal ff moeten kijken of ik on the fly de nic kan aanpassen, anders wordt het een kwestie van opnieuw installeren en backup teruglezen.
Weet je zeker dat het in de VM is en niet je host?

Te Koop:24 Core Intel Upgradeset


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:53
@HellStorm666 Op zich kan ik me wel vinden met wat @Dronium zegt. Enterprise grade HW RAID is vaak prima. Perfect gemanagede software RAID kan in theorie beter zijn, maar hoeft niet perse makkelijker in beheer te zijn. Je moet competente beheerders hebben in alle gevallen.

Kies de oplossing waar je het meest vertrouwd mee bent, en test je failure scenario's goed. Ruk een disk uit het systeem, zorg dat je test dat je je piepjes krijgt, en probeer het op te lossen.

Test ook het ultieme doem scenario, en bedenk hoe je dat gaat oplossen.

Welke oplossing het dan ook is, als je hem simpel houdt, en genoeg backups hebt, maakt de rest weinig uit.

Even niets...


  • Dronium
  • Registratie: januari 2007
  • Laatst online: 00:26
HellStorm666 schreef op donderdag 20 december 2018 @ 13:13:
Hoe "veilig" is de volgende situatie....
Niet !
Je VM heeft virtueel wel raid1 maar de definitie van die VM (de *.vmx file) staat nog steeds maar op een plek.

Je maakt het te ingewikkeld :
- Supermicro server als ESXi host
- een aantal (sas-)disken in Raid5 aan de LSI als gewone storage (daar kun je ook ESXi op installeren)
- 1 NVMe SSDs als snelle storage voor de CAD-tekeningen
(gewoon een apart volume van je fileserver waarvan de VMDK op de SSD staat)
- Dagelijks een backup naar je Synology (als die genoeg ruimte heeft meerdere versies).
Als er nog budget is: investeer in een een licentie voor vSphere essentials en Veeam voor de backup.

[Voor 10% gewijzigd door Dronium op 20-12-2018 17:14]


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
Jeroen V schreef op zaterdag 29 december 2018 @ 18:10:
Waarom wil je eigenlijk overstappen naar het EPYC systeem? Gewoon omdat het kan?
Omdat er bij Intel niets meer van de performance over is. Spectre + Meltdown + L1TF is 18-66% performance hit, afhankelijk van CPU, workload en guest OS. In mijn geval hebben we het over zo'n 50%. Daarbij is de IPC van EPYC en Broadwell ongeveer gelijk en is ook de frequency nog eens 12% hoger en de prijs 50% lager.

In theorie dus een 4.55x betere keuze, maar dan moet het wel werken. ;)

[Voor 39% gewijzigd door |sWORDs| op 29-12-2018 19:58]

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1Henk 'm!

  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:37

CurlyMo

www.pilight.org

|sWORDs| schreef op zondag 6 januari 2019 @ 13:04:
[...]

Passthrough is eerst het probleem van de BIOS en daarna van de reset mode van je PCIe device, daarna van de hypervisor en pas daarna van je guest OS. Er kan dus voldoende misgaan voor je hem überhaupt in passthrough krijgt.
Hier wordt bevestigd dat PCI passthrough moet werken met Proxmox VE, dan zou dat voor ESXi toch ook geen probleem moeten zijn toch?
https://fuzzyitlogic.com/tag/pci-passthrough/

Is er dan nog een reden waarom een willekeurig mini-pcie naar sata kaartje niet zou werken?

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • wian
  • Registratie: september 2005
  • Niet online
Tip: je kunt nu ook pihole functionaliteit implementeren op pfSense met pfBlockerNG. Scheelt weer een VM die je moet onderhouden. Je hebt nu nog het “pfBlockerNG-devel” package nodig, maar werkt gewoon stabiel.

  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
timmerdanny schreef op maandag 7 januari 2019 @ 15:38:
[...]


Ik gebruik geen distributed switches het gaat om een enkele host die is aangesloten op een achterliggende SFP+ switch met glasvezel. De host heeft een uplink van 10Gbit verder niet redundant uitgeveord of als teaming. Er staat geen flow-control ingesteld. De host draait op ESXi 6.5 en had ook ondersteuning voor RDMA zag ik. Op de host zelf zit een NFS datastore naar de synology toe. Als ik het goed begrijp scheelt RDMA je veel CPU kracht ook naar deze datastore toe.

Uit de documentatie van VMware haal ik dat je per VM een aparte netwerkadapter moet specificeren om deze feature te gebruiken. Met de vmxnet3 adapter blijft de networking traffic dus gewoon CPU wegvreten.
RDMA is geen vervanging van VMXNET3 en datastores hebben niets met je netwerk van je guest OS te maken. RDMA (RoCe en eventueel +iSER met vSphere) kun je gebruiken op de hypervisor voor communicatie naar andere hypervisors/storage, etc.
Of je gebruikt vRDMA tussen VM's voor een bypass van de guest OS networking stack en kernel:



maar dan wel voor RDMA aware (gebruiken RDMA Verbs API) zaken, zoals Apache Hadoop of Oracle. Binnen één host is dat memcpy en heb je helemaal geen RDMA adapter nodig, gaat direct via VMkernel (blauw):



De guest kernel driver is echter alleen beschikbaar met de 64bit Linux VMware Tools.

Met NFS moet je Synology dan ook RDMA supporten (alleen bepaalde types) plus een RDMA NIC hebben en je hebt flow control nodig op je switch. Op je VM's doe je dan niets met vRDMA, het is je OpenFabrics Enterprise Distribution stack op je VMkernel port.

Zelf wil ik zodra het supported is zoiets gaan doen:


Links is de meterkast, rechts de zolder.
  • ROOD - De Protecli draait pfSense met een NIC in passthrough aan de NTU.
  • GEEL - De twee EPYC servers gebruiken RoCe direct connect voor VSAN en vMotion.
  • GROEN - De 10Gbit NICs op de EPYC servers zijn zo vrij om alleen maar VM netwerk traffic en een klein beetje witness (naar Gbit op protectli met een vCenter plus een VSAN witness) en management traffic te doen.
Active en Passive vCenter op local storage van een specifieke EPYC server.

[Voor 15% gewijzigd door |sWORDs| op 07-01-2019 17:02]

Te Koop:24 Core Intel Upgradeset


  • |sWORDs|
  • Registratie: maart 2000
  • Laatst online: 12-04 15:52
ThinkPad schreef op maandag 11 februari 2019 @ 13:09:
Is er ook iemand die over langere tijd het verbruik van zijn/haar ESXi server monitored?

Er lijkt een soort 'geheugenlek' ofzo in mijn server te zitten (6.7.0 Update 1 (Build 10764712)). Normaal is het verbruik rond de 28-32W, maar na een maand uptime gaat hij ineens meer stroom verbruiken.

Ik kan het precies zien, het nachtelijke verbruik voor mijn huis blijft dan vrij hoog (118W). Gisteren de server gereboot en afgelopen nacht zat ik weer op de voor mij bekende 82W sluipverbruik.

Kan natuurlijk ook één van m'n VMs zijn die dit veroorzaakt, maar was wel benieuwd of iemand hier wel eens zoiets heeft gezien?
De volgende keer als hij hoog is MHz per VM bekijken voor en na de reboot?

Te Koop:24 Core Intel Upgradeset


  • Endpoint
  • Registratie: april 2016
  • Laatst online: 20:41
Kecin schreef op maandag 28 januari 2019 @ 23:24:
Hallo allemaal, ik ben nieuw hier in dit topic en ook nieuw in virtualiseren. Ik had altijd een HP N54L met een baremetal Xpenology erop geinstalleerd. Graag wou ik het iets beter aanpakken door ook andere virtuele machine's te kunnen draaien.

Het is gelukt om ESXI 6.7U1 te draaien op:
PC pricewatch: HP EliteDesk 800 G1 SFF J0F16EA ( I7, 8 cores met 16GB Ram)
HDD Storage: 3 x pricewatch: Seagate IronWolf, 6TB (128MB cache)
Datastore 1: 1 x pricewatch: Crucial MX500 2,5" 500GB
Swapstore 1 : 1 x pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB

Al met al werkt dit prima en haal ik goede read/write resultaten. Echter is mijn Raid nu softwarematig opgebouwd. Standaard kon ik de onboard SATA controller niet doorlussen. Door hem in de passthrough te zetten kwamen de poorten wel los beschikbaar, maar hij ging over zijn nek en was niet stabiel. Daarop heb ik een Raid controller gekocht (via V&A), een pricewatch: HP Smart Array P212/Zero , met 256mb cache, kabel naar 4xsata, batterypack (die nog werkt). Daaraan had ik de 3 X 6TB gekoppeld, dat werkte in eerste instantie niet. Het bleek dat de controller nog op firmware versie 3.0 draaide. Inmiddels op 6.4(?) worden de disks herkend in de boot van de controller. Daarop heb ik een RAID 5 gemaakt, paritycheck e.d. laten gaan. Ging prima.

Ga ik echter de kaart doorlussen dan werkt dit niet, ik kan hem activeren binnen de webomgeving van ESXI, echter na reboot is er 10,9TB gevonden (klopt door Raid 5). Wil ik er echter een datastore opmaken dan loopt de machine gewoon letterlijk vast.

Ik heb al veel zaken geprobeerd (bijvoorbeeld de controller door de linken naar Xpenology/DSM, die kon er niet mee overweg). De boot-sequence veranderd, de bootschijf in de raid erbij te hangen, EHCI modus aan/uit, write-cache aan/uit, poorten gewisseld, etc. Ik kom er niet uit.
Ook natuurlijk meerdere drivers geupload naar ESXI voor de raidcontroller, maar ik krijg hem niet aan de praat waardoor ik nu 1 datastore heb gemaakt van 3 schijven rechtstreeks op het moederbord van de HP machine, maar dat is gevaarlijk wanneer er 1 schijf stuk gaat.

Verder draait het ding als een tiet, alleen de raidcontroller werkt dus voor geen meter. Iemand tips :)?
Je hba staat ook niet op de HCL van esxi voor 6.7, hij gaat niet verder als 6.0u3. ik denk dat daar je grootste crux zit, je drivers.
https://www.vmware.com/re...ategory=io&productid=4617
Pagina: 1 2


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True