⛔ Trackers of betalen ⛔
//edit1:
Intel NVMe controller stond gewoon in de lijst met ondersteunde PCI devices.
//edit2:
De NVMe wordt niet goed doorgegeven aan FreeNAS. Blijft met error "missing interrupt".
Deze controller alsnog handmatig toegevoegd aan passthru.map. Pas toen ik ook de regel
([1] = 2e PCI device welke ik doorgeef aan de VM) in de .vmx van FreeNAS had toegevoegd, functioneerde alles naar behoren.pciPassthru1.msiEnabled = "FALSE"
[ Voor 61% gewijzigd door Rene2322 op 25-11-2019 10:45 . Reden: update + oplossing ]
i219LM op een Fujitsu D3644 hier geef een ne1000|sWORDs| schreef op woensdag 6 november 2019 @ 11:35:
Ik heb hulp nodig als aanvulling op een interne bug report. Wie heeft er ESXi 6.5 of 6.7 en een:
i217v
i217lm
i218v
i218lm
i219v
i219lm
Als je in de host client -> Networking -> Physical NIC->vmnicX kijkt wat staat er dan bij driver?
Als iemand anders al iets over dezelfde NIC zegt, graag alleen reageren indien jouw resultaat anders is.
https://docs.vmware.com/e...1204001-standard-resolved / https://www.vmware.com/se...ories/VMSA-2019-0022.html
https://www.reddit.com/r/...01912001_released_fixing/
Volgens mij wordt daarmee de recente lek verholpen.
⛔ Trackers of betalen ⛔
Met VUM of op de CLI?JohanKupers schreef op zaterdag 7 december 2019 @ 16:26:
Vanmiddag zonder problemen geïnstalleerd op mijn homelab.
‘t Is een tijdje geleden dat ik nog eens ESXi vanop de CLI geupdated heb (geen vCenter en VUM hier).
Wat zijn de stappen tegenwoordig vanaf CLI?
Via de CLI en dan volgens deze methode.HyperBart schreef op zaterdag 7 december 2019 @ 17:10:
[...]
Met VUM of op de CLI?
‘t Is een tijdje geleden dat ik nog eens ESXi vanop de CLI geupdated heb (geen vCenter en VUM hier).
Wat zijn de stappen tegenwoordig vanaf CLI?
⛔ Trackers of betalen ⛔
Ik heb dit nu meerdere keren meegemaakt, op diverse hardware, versies van ESXi en Windows en ik begin het een beetje naar te vinden.
Uiteraard gebruik ik paravirtualised drivers voor scsi en netwerk, en werk ik altijd de VMWare client tools bij.
Ask yourself if you are happy and then you cease to be.
Geen idee of dit nog een issue is maar:Lethalis schreef op zondag 8 december 2019 @ 18:58:
Hebben jullie nog tips voor wanneer een Windows guest OS op een ESXi host 100% CPU load veroorzaakt, terwijl het volgens de Windows guest maar 3% gebruikt?
Ik heb dit nu meerdere keren meegemaakt, op diverse hardware, versies van ESXi en Windows en ik begin het een beetje naar te vinden.
Uiteraard gebruik ik paravirtualised drivers voor scsi en netwerk, en werk ik altijd de VMWare client tools bij.
Is het geheugen gebruik ook heel hoog? staat de host te balloonen/swappen?
Anders is het handig om wat grafieken te geven?
[ Voor 7% gewijzigd door jwvdst op 17-12-2019 20:06 ]
om een VM in een VM te draaien klopt dit dat ik deze moet aan zetten ?
https://prnt.sc/qh2hk0
maar dan kan ik mijn pci niet in passtrough plaatsen is hier een workaround voor ?
mvg
Nee, met de laatste vSphere versies kun je niet beide doen.TomGear schreef op zondag 29 december 2019 @ 09:27:
wie weet kunnen jullie helpen,
om een VM in een VM te draaien klopt dit dat ik deze moet aan zetten ?
https://prnt.sc/qh2hk0
maar dan kan ik mijn pci niet in passtrough plaatsen is hier een workaround voor ?
mvg
Access Control Services (ACS) was introduced by the PCI-SIG to address potential data corruption with direct assignment of devices. Passthrough of a PCIe device to a virtual machine, using DirectPath I/O, is disallowed by the VMKernel if the device is connected to a switch port or root port that does not support Access Control Services.jwvdst schreef op dinsdag 17 december 2019 @ 19:46:
Ik heb een Intel quad ethernet op basis van de 82571eb die ik graag in passthrough modus zet ten behoeve van pfsense. Als ik dit doe en de host reboot staat er nog steeds needs reboot. Na even op internet gezocht te hebben is er een workaround waarin staat dat ik VMKernel.Boot.disableACSCheck op true moet zette. Daarna staan de 4 netwerkpoorten ook idd in passthrough modus. Is er ook iemand die mij kan vertellen wat de voordelen of nadelen zijn van dat ik VMKernel.Boot.disableACSCheck op true gezet heb? Ik heb hier namelijk niet zo snel wat over kunnen vinden wat er nou precies gebeurd. Het belangrijkste is dat ik geen afbreuk doe aan de stabiliteit van het systeem met die instelling
[ Voor 59% gewijzigd door |sWORDs| op 29-12-2019 15:38 ]
Te Koop:24 Core Intel Upgradeset
[...]
Nee, met de laatste vSphere versies kun je niet beide doen.
-----------------------------------------------------------------------------------
vhv.enable = "TRUE"
vhv.allowPassthru = "TRUE"
source
Ik heb dit toegevoegd en nu werkt het wel, of dit goed is geen idee

Wat is de makkelijkste manier?
Gewoon de datastore ssd overzetten in de nieuwe server of alle VM's kopiëren naar de datastore van de nieuwe server.
Dan kan mijn feature request weer dicht.TomGear schreef op zondag 29 december 2019 @ 15:52:
[quote]|sWORDs| schreef op zondag 29 december 2019 @ 15:35:
[...]
Nee, met de laatste vSphere versies kun je niet beide doen.
-----------------------------------------------------------------------------------
vhv.enable = "TRUE"
vhv.allowPassthru = "TRUE"
source
Ik heb dit toegevoegd en nu werkt het wel, of dit goed is geen idee
SSD overzetten en in de datastore browser VMs registreren is het makkelijkst.ComTech schreef op zondag 29 december 2019 @ 17:28:
Ik heb een nieuwe Esxi server gebouwd en nu wil ik zonder al te lange downtime de meeste VM's overzetten van de oude naar de nieuwe.
Wat is de makkelijkste manier?
Gewoon de datastore ssd overzetten in de nieuwe server of alle VM's kopiëren naar de datastore van de nieuwe server.
[ Voor 26% gewijzigd door |sWORDs| op 29-12-2019 17:31 ]
Te Koop:24 Core Intel Upgradeset
Wat is niet al te lange downtime? Je zou met bijvoorbeeld veeam een backup kunnen maken van je vm's en deze dan kunnen restoren op je nieuwe bak.ComTech schreef op zondag 29 december 2019 @ 17:28:
Ik heb een nieuwe Esxi server gebouwd en nu wil ik zonder al te lange downtime de meeste VM's overzetten van de oude naar de nieuwe.
Wat is de makkelijkste manier?
Gewoon de datastore ssd overzetten in de nieuwe server of alle VM's kopiëren naar de datastore van de nieuwe server.
Cloud ☁️
Dus dit kan ten koste gaan van de stabiliteit?|sWORDs| schreef op zondag 29 december 2019 @ 15:35:
Access Control Services (ACS) was introduced by the PCI-SIG to address potential data corruption with direct assignment of devices. Passthrough of a PCIe device to a virtual machine, using DirectPath I/O, is disallowed by the VMKernel if the device is connected to a switch port or root port that does not support Access Control Services.
Customers will be able to selectively control access between PCI Express Endpoints and between Functions within a multi-function device through well-defined interfaces. The following examples illustrate some of the benefits customers will be able to enable through the use of these controls:jwvdst schreef op zondag 29 december 2019 @ 19:00:
[...]
Dus dit kan ten koste gaan van de stabiliteit?
ACS can be used to prevent various forms of silent data corruption by preventing PCI Express Requests from being incorrectly routed to a peer Endpoint. For example, if the address within a Request header is silently corrupted within a PCI Express Switch (such as in a store-and-forward implementation), the transaction may be incorrectly routed to a downstream Endpoint or Root Port and acted upon it as though it were a valid transaction for that component. This could result in any number of problems which may or may not be able to be detected by the associated application or service.
ACS can be used to prevent data leakage by precluding PCI Express Requests from being routed between Functions within a multi-function device.
ACS can be used to validate that every Request transaction between two downstream components is allowed. Validation can occur within intermediate components or within the RC itself.
On systems where ATS is being used, ACS can be used to enable direct routing of peer-to-peer Memory Requests whose addresses have been Translated, while blocking or redirecting peer-to- peer Memory Requests whose addresses have not been Translated.
Te Koop:24 Core Intel Upgradeset
Heb nu een nvme die ik wil gaan gebruiken om alles op te draaien
Hoe doe ik dit best volgens jullie ?
Staat ESXi ook geïnstalleerd op deze schijf en wil je hem volledig vervangen? Dan klonen.TomGear schreef op woensdag 1 januari 2020 @ 19:02:
Ik draai nu esxi op een SSD met 4 vm's
Heb nu een nvme die ik wil gaan gebruiken om alles op te draaien
Hoe doe ik dit best volgens jullie ?
Staat ESXi hier niet op? Dan storage vmotion
Esxi staat hier op,Endpoint schreef op woensdag 1 januari 2020 @ 20:38:
[...]
Staat ESXi ook geïnstalleerd op deze schijf en wil je hem volledig vervangen? Dan klonen.
Staat ESXi hier niet op? Dan storage vmotion
dus zal eens proberen om hem te klonen!
bedankt
Ik heb veel verlies op lees en schijf snelheden op mijn HDD's.
│ - Filepath = /mnt/hdd/benchmark.file │
│ - Test size = 500 MiB │
│ - WRITE = 17 MiB/s │
│ - READ = 70 MiB/s
Dit is naar een WD Black schijf van 2 TB, welke in Windows prima 110 mb's haalde zowel lees als schrijf.
Ik heb al verschillende mogelijkheden geprobeerd in esxi.
Thin provisioned
thick provisioned
Maar de waardes blijven het zelfde.
Ik wil schijven stuk voor stuk kunnen toewijzen aan een VM en niet een NAS OS moeten draaien voor mijn shares.
Begrijp ik je goed dat je de schijf voor data buiten de VM's wil gebruiken? Zo ja dan zou je eens kunnen kijken of je de schijf via een raw device mapping (RDM) door kunt geven aan de betreffende VM. Ik haal daar zelf goede performance mee. Een alternatief is om de hele (sata) controller voor passthrough te configureren. Dan kun je de schijven echt 1:1 door geven aan je guest OS.marcel19 schreef op maandag 6 januari 2020 @ 22:02:
Ik ben weer eens aan het spelen met mijn microserver en kwam tot de volgend conclusie.
Ik heb veel verlies op lees en schijf snelheden op mijn HDD's.
│ - Filepath = /mnt/hdd/benchmark.file │
│ - Test size = 500 MiB │
│ - WRITE = 17 MiB/s │
│ - READ = 70 MiB/s
Dit is naar een WD Black schijf van 2 TB, welke in Windows prima 110 mb's haalde zowel lees als schrijf.
Ik heb al verschillende mogelijkheden geprobeerd in esxi.
Thin provisioned
thick provisioned
Maar de waardes blijven het zelfde.
Ik wil schijven stuk voor stuk kunnen toewijzen aan een VM en niet een NAS OS moeten draaien voor mijn shares.
De bovengenoemde technieken staan goed beschreven in de openingspost mocht je ermee aan de slag willen.
Nee ik wil juist de schijven gebruiken voor data IN de VM.HikL schreef op woensdag 8 januari 2020 @ 12:15:
[...]
Begrijp ik je goed dat je de schijf voor data buiten de VM's wil gebruiken? Zo ja dan zou je eens kunnen kijken of je de schijf via een raw device mapping (RDM) door kunt geven aan de betreffende VM. Ik haal daar zelf goede performance mee. Een alternatief is om de hele (sata) controller voor passthrough te configureren. Dan kun je de schijven echt 1:1 door geven aan je guest OS.
De bovengenoemde technieken staan goed beschreven in de openingspost mocht je ermee aan de slag willen.
Dus als voorbeeld: 1 schijf van 2tb wil ik eigenlijk op delen onder 2 Linux Ubuntu Server Vm's zodat beide VM's 1TB schijf grote hebben.
Het 1:1 passtrough werkt enkel alleen als je dan ook gelijk ALLE schijven aan 1 VM hangt. het opdelen kan dan niet meer. Zelfs het opdelen tussen schijf 1 en 2 en 3 is dan niet meer mogelijk.
Probeer dit eens met een reboot:marcel19 schreef op maandag 6 januari 2020 @ 22:02:
Ik ben weer eens aan het spelen met mijn microserver en kwam tot de volgend conclusie.
Ik heb veel verlies op lees en schijf snelheden op mijn HDD's.
│ - Filepath = /mnt/hdd/benchmark.file │
│ - Test size = 500 MiB │
│ - WRITE = 17 MiB/s │
│ - READ = 70 MiB/s
Dit is naar een WD Black schijf van 2 TB, welke in Windows prima 110 mb's haalde zowel lees als schrijf.
Ik heb al verschillende mogelijkheden geprobeerd in esxi.
Thin provisioned
thick provisioned
Maar de waardes blijven het zelfde.
Ik wil schijven stuk voor stuk kunnen toewijzen aan een VM en niet een NAS OS moeten draaien voor mijn shares.
1
| esxcli system module set -m=vmw_ahci -e=FALSE |
Met een virtuele LSI of PVSCSI controller moet het net zo snel als native zijn.
[ Voor 3% gewijzigd door |sWORDs| op 08-01-2020 13:38 ]
Te Koop:24 Core Intel Upgradeset
# | Category | Product | Prijs | Subtotaal |
1 | Processors | Intel Core i3-8100 Boxed | € 123,- | € 123,- |
1 | Moederborden | ASRock H370M-ITX/ac | € 102,99 | € 102,99 |
1 | Behuizingen | Fractal Design Node 304 Wit | € 76,05 | € 76,05 |
1 | Processorkoeling | Noctua NH-L12S | € 50,90 | € 50,90 |
1 | Geheugen intern | Crucial Ballistix Sport LT BLS16G4D32AESB | € 73,- | € 73,- |
1 | Voedingen | Corsair SF450 (2018) | € 97,68 | € 97,68 |
1 | Solid state drives | Samsung 970 Evo Plus 500GB | € 106,90 | € 106,90 |
Bekijk collectie Importeer producten | Totaal | € 630,52 |
Daar draait nu VMWare Free version 6.7.0 Update 3 (Build 15160138) op. Dank zij de reactie van NakeBod kon ik snel aan de slag met de installatie van VM's en Docker na een succesvolle installatie van ESXi..
Nu bezig met monitoring inrichting waaronder hardware monitoring. Op het moederbord zit geen IPMI en daardoor wordt de melding getoond "This system has no IPMI capabilities, you may need to install a driver to enable sensor data to be retrieved" in de webclient onder Monitor -> Hardware. Op GoT en de zoekmachines heb ik weinig oplossingen kunnen vinden vandaar onderstaande vraag.
Wat is er nog nodig om hardware monitoring (met name temperatuur van CPU cores en S.M.A.R.T. sensor data uit te kunnen lezen in mijn Linux VM? In de Ubuntu VM draai ik lm-sensors en sensors-detect maar die ziet natuurlijk ook niets. Of kan hardware monitoring alleen met IPMI en is een overstap naar een andere Hypervisor beter?
Het doel is om minimaal 3 VM's te draaien (Windows, OPNSense/pfsense, Ubuntu LFS+Docker)
Dan ben je idd beter af met Proxmox of FOSS Xen (dus niet XenServer, maar XO kan dan weer wel). In theorie kan het management OS van ESXi die data wel lezen, maar dat ondersteunen ze niet en zelf bouwen is een bak werk die de moeite niet waard is (om dat je daar mee ook compatibiliteit met patches en complete upgrades kwijnt bent - en dat is nou juist het punt van VMware).Fonz55 schreef op vrijdag 10 januari 2020 @ 01:34:
Onlangs als nieuw project de volgende zuinige thuisconfiguratie aangeschaft:
# Category Product Prijs Subtotaal 1 Processors Intel Core i3-8100 Boxed € 123,- € 123,- 1 Moederborden ASRock H370M-ITX/ac € 102,99 € 102,99 1 Behuizingen Fractal Design Node 304 Wit € 76,05 € 76,05 1 Processorkoeling Noctua NH-L12S € 50,90 € 50,90 1 Geheugen intern Crucial Ballistix Sport LT BLS16G4D32AESB € 73,- € 73,- 1 Voedingen Corsair SF450 (2018) € 97,68 € 97,68 1 Solid state drives Samsung 970 Evo Plus 500GB € 106,90 € 106,90 Bekijk collectie
Importeer productenTotaal € 630,52
Daar draait nu VMWare Free version 6.7.0 Update 3 (Build 15160138) op. Dank zij de reactie van NakeBod kon ik snel aan de slag met de installatie van VM's en Docker na een succesvolle installatie van ESXi..
Nu bezig met monitoring inrichting waaronder hardware monitoring. Op het moederbord zit geen IPMI en daardoor wordt de melding getoond "This system has no IPMI capabilities, you may need to install a driver to enable sensor data to be retrieved" in de webclient onder Monitor -> Hardware. Op GoT en de zoekmachines heb ik weinig oplossingen kunnen vinden vandaar onderstaande vraag.
Wat is er nog nodig om hardware monitoring (met name temperatuur van CPU cores en S.M.A.R.T. sensor data uit te kunnen lezen in mijn Linux VM? In de Ubuntu VM draai ik lm-sensors en sensors-detect maar die ziet natuurlijk ook niets. Of kan hardware monitoring alleen met IPMI en is een overstap naar een andere Hypervisor beter?
Het doel is om minimaal 3 VM's te draaien (Windows, OPNSense/pfsense, Ubuntu LFS+Docker)
[ Voor 3% gewijzigd door johnkeates op 10-01-2020 02:03 ]
Helaas werkt dit niet.|sWORDs| schreef op woensdag 8 januari 2020 @ 13:37:
[...]
Probeer dit eens met een reboot:
code:
1 esxcli system module set -m=vmw_ahci -e=FALSE
Met een virtuele LSI of PVSCSI controller moet het net zo snel als native zijn.
De snelheid is eerst hoog +- 100 MB's maar daalt heel snel naar 10-20 mbps met kopieren.
Het is zelfs zo dat als ik in windows 10 op een SSD datastore kopieer van de map c:\downloads naar de map c:\downloads1 kopieer zelfde snelheden.
Ik snap hier nu werkelijk niks meer van.....

[ Voor 19% gewijzigd door marcel19 op 13-01-2020 19:29 ]
marcel19 schreef op maandag 13 januari 2020 @ 12:13:
[...]
Helaas werkt dit niet.
De snelheid is eerst hoog +- 100 MB's maar daalt heel snel naar 10-20 mbps met kopieren.
Het is zelfs zo dat als ik in windows 10 op een SSD datastore kopieer van de map c:\downloads naar de map c:\downloads1 kopieer zelfde snelheden.
Ik snap hier nu werkelijk niks meer van.....
- Controller staat wel op AHCI?
- Virtuele controller is LSISAS of PVSCSI?
- Geen snapshots op de VM?
- ESXi 6.7 U3 of hoger? (er zijn storage problemen met Windows 10 1809+ op eerdere ESXi versies)
[ Voor 17% gewijzigd door |sWORDs| op 14-01-2020 11:24 ]
Te Koop:24 Core Intel Upgradeset
Ik zie op internet dat het anderen is gelukt:
https://elatov.github.io/...gh-video-card-to-plex-vm/
Wat bij mij anders is: ik zie geen Intel HD graphics kaart in Esxi maar "intel vga controller". Deze kan ik wel doorzetten en dan zie ik in de plex VM: VGA compatible controller: Intel Corporation device 5927.
Moet er ergens een driver worden ingeladen ? Ik zie in esxi ook allerlei packages die nog kunnen worden ingeladen? Of moet ik in ubuntu drivers installeren?
Ubuntu 18.04 en nieuwer zouden al drivers moeten hebben en ESXi heeft geen drivers nodig voor een device in passthrough.tomdh76 schreef op donderdag 16 januari 2020 @ 11:19:
Ik probeer vanuit een Intel NUC7i7BNH met esxi 6.5 de interne GPU naar mijn plex VM te passthroughen. Ik gebruik de laatste bios.
Ik zie op internet dat het anderen is gelukt:
https://elatov.github.io/...gh-video-card-to-plex-vm/
Wat bij mij anders is: ik zie geen Intel HD graphics kaart in Esxi maar "intel vga controller". Deze kan ik wel doorzetten en dan zie ik in de plex VM: VGA compatible controller: Intel Corporation device 5927.
Moet er ergens een driver worden ingeladen ? Ik zie in esxi ook allerlei packages die nog kunnen worden ingeladen? Of moet ik in ubuntu drivers installeren?
8086 5927 = Iris Plus Graphics 650 en dat is ook precies wat er in een NUC7i7BNH zit.
Te Koop:24 Core Intel Upgradeset
Dank, dan zou het moeten werken denk ik.|sWORDs| schreef op donderdag 16 januari 2020 @ 12:21:
[...]
Ubuntu 18.04 en nieuwer zouden al drivers moeten hebben en ESXi heeft geen drivers nodig voor een device in passthrough.
8086 5927 = Iris Plus Graphics 650 en dat is ook precies wat er in een NUC7i7BNH zit.
- Niet genoeg cores
- Maar 2 NIC's
- Te weinig geheugen slots
- en vooral : Te Duur (een hobby mag best wat kosten maar het moet niet te gek worden
)
Het hangt er vooral vanaf wat precies je eisen zijn. Op welke punten moet het beter zijn?JustSys schreef op zaterdag 18 januari 2020 @ 10:01:
Een hardware vraag, is er een volwaardige vervanger/opvolger voor de Supermicro SYS-5028D-TN4T?
Een kant en klaar model met alleen een moderne CPU is er in ieder geval niet.
EPYC3251D4I-2T
[ Voor 34% gewijzigd door |sWORDs| op 18-01-2020 22:16 ]
Te Koop:24 Core Intel Upgradeset
ik heb een vm met ubuntu deze werkt, maar nu wil ik mijn gpu toevoegen maar dit lukt me niet ik krijg geen beeld op de vm
http://prntscr.com/qsuz17
hier passtrough aan
http://prntscr.com/qsuzcr
en hier voeg ik deze toe aan de vm maar hierna geen beeld meer
Geen beeld meer met vSphere Client? Dat hoort zo, die connect via mks naar de VMware SVGA en die gebruik je nu niet. Op Windows pak je dan RDP of Horizon, op Linux VNC of Horizon.TomGear schreef op zaterdag 25 januari 2020 @ 22:48:
Iemand een idee waarom dit niet werkt ?
ik heb een vm met ubuntu deze werkt, maar nu wil ik mijn gpu toevoegen maar dit lukt me niet ik krijg geen beeld op de vm
http://prntscr.com/qsuz17
hier passtrough aan
http://prntscr.com/qsuzcr
en hier voeg ik deze toe aan de vm maar hierna geen beeld meer
[ Voor 6% gewijzigd door |sWORDs| op 25-01-2020 23:15 ]
Te Koop:24 Core Intel Upgradeset
dit klopt dan ook dat je geen beeld krijgt in vmworkstation ?|sWORDs| schreef op zaterdag 25 januari 2020 @ 23:14:
[...]
Geen beeld meer met vSphere Client? Dat hoort zo, die connect via mks naar de VMware SVGA en die gebruik je nu niet. Op Windows pak je dan RDP of Horizon, op Linux VNC of Horizon.
Ja, die gebruikt ook mks.TomGear schreef op zondag 26 januari 2020 @ 12:05:
[...]
dit klopt dan ook dat je geen beeld krijgt in vmworkstation ?
Te Koop:24 Core Intel Upgradeset
Vandaag esxi geïnstalleerd op een hp proliant dl 380 g9, de hele installatie liep perfect, netjes een rootpassword aangemaakt en de installatie verder doorlopen. De server weer opgestart zonder de usb. toen wou ik een aantal dingen configureren, maar dat lukte niet omdat mn password niet meer werkte. Heb de installatie 3 keer opnieuw gedaan om er zeker van te zijn dat ik het wachtwoord niet verkeerd aanmaakte. Iemand enig idee wat het probleem kan zijn?
Alvast Bedankt,
Groeten Robin
Installatie gedaan op de machine zelf of via ilo?
Even niets...
Waarschijnlijk te maken met:
Cookie updates
The SameSite attribute was introduced in Chrome 51 and Firefox 60 to allow sites to declare whether cookies should be restricted to a same-site (sometimes called first-party) context, mitigating the risk of cross-site request forgeries (CSRF). In Chrome 80, the backward compatible behaviors described below are removed. For more on these features, read SameSite cookies explained.
⛔ Trackers of betalen ⛔
alvast bedankt
Na een profiel reset in Chrome werkt het weer, zat vast een virtueel bitje dwars.JohanKupers schreef op woensdag 5 februari 2020 @ 14:55:
Met Chrome 80 is het niet meer mogelijk om een console te openen vanuit de webinterface van ESXi 6.7 U3. Je krijgt dan een failed connection. In Edge werkt het openen van de console nog wel.
Waarschijnlijk te maken met:
Cookie updates
The SameSite attribute was introduced in Chrome 51 and Firefox 60 to allow sites to declare whether cookies should be restricted to a same-site (sometimes called first-party) context, mitigating the risk of cross-site request forgeries (CSRF). In Chrome 80, the backward compatible behaviors described below are removed. For more on these features, read SameSite cookies explained.

⛔ Trackers of betalen ⛔
Ik heb een vervanger gevonden voor de SYS 5028d..
https://www.supermicro.co...TX/SYS-E301-9D-8CN8TP.cfm
2 jaar oude Skylake met een bak security bugs en performance impact. Zou niet mijn keuze zijn.JustSys schreef op zondag 9 februari 2020 @ 16:02:
[...]
Ik heb een vervanger gevonden voor de SYS 5028d..
https://www.supermicro.co...TX/SYS-E301-9D-8CN8TP.cfm
Te Koop:24 Core Intel Upgradeset
Ik had bij servethehome een positive review gelezen vandaar mijn keuze. Het chassis is eigenlijk wat ik ook zo interessant vind, compact en er kunnen standaard 4xssd erin gestoken worden.|sWORDs| schreef op zondag 9 februari 2020 @ 21:58:
[...]
2 jaar oude Skylake met een bak security bugs en performance impact. Zou niet mijn keuze zijn.
Welke zou je dan nemen voor een Intel bordje voor deze chassis? De voorganger van de D2100?
Je kunt het 5028 chassis gewoon los bestellen en daar een m-itx board instoppen.JustSys schreef op woensdag 12 februari 2020 @ 08:18:
[...]
Ik had bij servethehome een positive review gelezen vandaar mijn keuze. Het chassis is eigenlijk wat ik ook zo interessant vind, compact en er kunnen standaard 4xssd erin gestoken worden.
Welke zou je dan nemen voor een Intel bordje voor deze chassis? De voorganger van de D2100?
Nu nog Broadwell of Skylake kopen lijkt me niet verstandig.
Te Koop:24 Core Intel Upgradeset
Ben langzaamaan aan het kijken om de gen8's hier te vervangen.
vCenter zelf klaagt dat er geen plaats meer is op de disks. Als we proberen te connecteren met SSH, sluit die sessie onmiddellijk. De WebUI komt niet meer op met het volgende bericht.
Console.503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x7f4465e88f30] _serverNamespace = / _isRedirect = false _pipeName =/var/run/vmware/vpxd-webserver-pipe)

Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.
Deze staan momenteel toch idle in het dc in afwachting van iets dat er waarschijnlijk pas volgend jaar zal komen. Daarna doe ik eens openstack, om te vergelijken of dat beter werkt.
PXE boot?dovo schreef op vrijdag 14 februari 2020 @ 17:04:
Oke ik heb hier 60 servers met 384 GiB ram, dual Xeon Gold 6130, 3* dual 10Ge intel nic en nvme. Wil vmware eens testen met trail keys, iemand ervaring met zo een grote hoop ineens te deployen? Ik heb gezien dat ubuntu maas dat kan doen, maar wil ook eens horen wat men hier te zeggen heeft.
Deze staan momenteel toch idle in het dc in afwachting van iets dat er waarschijnlijk pas volgend jaar zal komen. Daarna doe ik eens openstack, om te vergelijken of dat beter werkt.
Te Koop:24 Core Intel Upgradeset
Exporten vanaf de host, op een andere host importeren en daar starten?Cookiezzz schreef op vrijdag 14 februari 2020 @ 16:19:
Sinds vorige week is een van onze vCenters (6.0) onbereikbaar.
vCenter zelf klaagt dat er geen plaats meer is op de disks. Als we proberen te connecteren met SSH, sluit die sessie onmiddellijk. De WebUI komt niet meer op met het volgende bericht.
[...]
Console.
[Afbeelding]
Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.
Of andere VMs verwijderen van de eerste host?
Sowieso niet gek om eens te upgraden als de hardware recent genoeg is.
Te Koop:24 Core Intel Upgradeset
Ziet er goed uit, vooral met de Xeon.Domino schreef op woensdag 12 februari 2020 @ 12:38:
Wat denk je van de nieuwe gen10 plus @|sWORDs| : Pyramiden in "Het grote HP Proliant Microserver topic"?
Ben langzaamaan aan het kijken om de gen8's hier te vervangen.
Te Koop:24 Core Intel Upgradeset
Op de datstore is nog plaats zat. Het is echt één van de vCenter disks volgens mij. Als ik deze in de ui extend, scaled die vCenter dan zelf terug groter? Hardware is Xeon v4, DDR4 dus een upgrade moet wel lukken.|sWORDs| schreef op vrijdag 14 februari 2020 @ 19:52:
[...]
Exporten vanaf de host, op een andere host importeren en daar starten?
Of andere VMs verwijderen van de eerste host?
Sowieso niet gek om eens te upgraden als de hardware recent genoeg is.
Nee, je moet een commando runnen via ssh of console.Cookiezzz schreef op vrijdag 14 februari 2020 @ 20:09:
[...]
Op de datstore is nog plaats zat. Het is echt één van de vCenter disks volgens mij. Als ik deze in de ui extend, scaled die vCenter dan zelf terug groter? Hardware is Xeon v4, DDR4 dus een upgrade moet wel lukken.
Te Koop:24 Core Intel Upgradeset
Ik heb het chassis van de 5028 niet nodig wel erin steekt|sWORDs| schreef op woensdag 12 februari 2020 @ 12:19:
[...]
Je kunt het 5028 chassis gewoon los bestellen en daar een m-itx board instoppen.
Nu nog Broadwell of Skylake kopen lijkt me niet verstandig.
Ik heb nog wel een idee, als je dat apparaat kan booten vanaf de VMware installatiecd, krijg je dit scherm:Cookiezzz schreef op vrijdag 14 februari 2020 @ 16:19:
Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.

Druk dan dus SHIFT+O, dan krijg je:

Haal met backspace 'runweasel' weg, en druk op enter.
Nu wordt de VMware-server vanaf de CD gestart. Zorg ook dat je een DHCP-server in het netwerk hebt hangen, dan krijg je op een gegeven moment het hoofdscherm van VMware, met daarin het ipadres:

Je kan nu met VSphere inloggen op je VMware-server, ipadres zoals hierboven aangegeven (zal bij jou anders zijn), username=root, password is leeg. En als het meezit kun je nu wel de dingen doen die je anders niet kon doen.
An unbreakable toy is useful to break other toys
wil graag mijn 6700K vervangen!
iemand een idee ?
Bijna niets en toch sterk zijn twee “vage” termen, misschien moet je ze beide een beetje uitwerken.TomGear schreef op donderdag 27 februari 2020 @ 21:17:
oke, er zijn heel veel cpu's maar ik zoek iets die bijna niets verbruikt, en toch sterk is met een budget tot 1k, enkel CPU
wil graag mijn 6700K vervangen!
iemand een idee ?
Initiële gedachte is dat je het beste de 6700K nog even kan houden en dan voor de volgende generatie AMD of Intel CPU kiezen.
Te Koop:24 Core Intel Upgradeset
Misschien wat mosterd na de maaltijd.Cookiezzz schreef op vrijdag 14 februari 2020 @ 16:19:
Sinds vorige week is een van onze vCenters (6.0) onbereikbaar.
vCenter zelf klaagt dat er geen plaats meer is op de disks. Als we proberen te connecteren met SSH, sluit die sessie onmiddellijk. De WebUI komt niet meer op met het volgende bericht.
Dit issue ben ik een tijd terug ook tegen gekomen in een kleine setup. Eerste keer issue gefixed door een oudere backup terug te zetten (het is niet echt een dynamische omgeving). Maar binnen een maand weer hetzelfde probleem. Weer diezelfde backup terug gezet en meteen daarna de vCenter geupgrade naar v6.5. Daarmee hadden we dan ook meteen de root cause gefixed
Probleem is dat er altijd weer een volgende volgende generatie klaar staat.|sWORDs| schreef op donderdag 27 februari 2020 @ 22:31:
[...]
Bijna niets en toch sterk zijn twee “vage” termen, misschien moet je ze beide een beetje uitwerken.
Initiële gedachte is dat je het beste de 6700K nog even kan houden en dan voor de volgende generatie AMD of Intel CPU kiezen.
Wat betreft exploits, zolang jezelf de enige bent bent met toegang tot de VM's valt dat naar mijn mening allemaal wel mee.
Ik heb zelf een tijd lang alles werkend gehad op één (later twee stuks) Atom 2758 (A1SRM-LN7F) met 32GB memory
- Sophos Firewall
- Pi-Hole
- Windows DC / files
- Exchange 2010
- Teamspeak
- RDP servertje
- Web / FTP
En ja snel is anders maar dat was eigenlijk alleen bij RDP gebruik een probleem.
Audit.log?Cookiezzz schreef op vrijdag 14 februari 2020 @ 16:19:
Sinds vorige week is een van onze vCenters (6.0) onbereikbaar.
vCenter zelf klaagt dat er geen plaats meer is op de disks. Als we proberen te connecteren met SSH, sluit die sessie onmiddellijk. De WebUI komt niet meer op met het volgende bericht.
[...]
Console.
[Afbeelding]
Heeft er iemand nog een idee hoe we kunnen proberen deze terug toegankelijk te maken zodat we wat plaats kunnen maken op de disks? Of zou het eenvoudiger zijn om gewoon een nieuwe vCenter te deployen? Deze zal dan wel opnieuw geconnecteerd moeten worden naar onze Horizon en backup setup.
https://vsaiyan.info/2018...g-in-to-the-root-account/
Hij heeft eigenlijk al de huidige generatie, welke winst valt er te behalen? Dan nog eens de mitigations...Dronium schreef op donderdag 27 februari 2020 @ 22:58:
[...]
Probleem is dat er altijd weer een volgende volgende generatie klaar staat.
Wat betreft exploits, zolang jezelf de enige bent bent met toegang tot de VM's valt dat naar mijn mening allemaal wel mee.
Ik heb zelf een tijd lang alles werkend gehad op één (later twee stuks) Atom 2758 (A1SRM-LN7F) met 32GB memoryDat gebruikte minder power onderload als de 2x dual nic kaarten van mijn eerdere server. Die trokken, idle, zonder ingeplugde kabels, als 10Watt per stuk uit de muur.
- Sophos Firewall
- Pi-Hole
- Windows DC / files
- Exchange 2010
- Teamspeak
- RDP servertje
- Web / FTP
En ja snel is anders maar dat was eigenlijk alleen bij RDP gebruik een probleem.
Een Atom zou wel een hele stap achteruit zijn qua performance.
Te Koop:24 Core Intel Upgradeset
Ik kan gerust nog wachten,|sWORDs| schreef op donderdag 27 februari 2020 @ 22:31:
[...]
Bijna niets en toch sterk zijn twee “vage” termen, misschien moet je ze beide een beetje uitwerken.
Initiële gedachte is dat je het beste de 6700K nog even kan houden en dan voor de volgende generatie AMD of Intel CPU kiezen.
En het klopt zijn vage termen, maar de cpu moet 4 vm's aankunnen en toch 1 4k transcode dat is wat de 6700k nu kan alleen is de tpd te hoog

Ik ben bezig om voor mijn iMac een DAS/NAS op te zetten via Thunderbolt. Nu werkt dit zeer waarschijnlijk als ik dit niet onder ESXi (OSX / Hackintosh) zal doen, echter lijkt het me mooi om te kijken of dit wel lukt omdat ik de machine dan voor meerdere doeleinden kan gebruiken.
Ik heb een moederbord met ondersteuning voor Thunderbolt middels een uitbreidingskaart.
In principe is het gewoon PCIe en zou je passthrough moeten kunnen gebruiken. Sowieso werken Thunderbolt apparaten op de host:hackint0sh schreef op donderdag 5 maart 2020 @ 19:37:
Heeft iemand hier ervaring met Thunderbolt passthrough en ESXi?
Ik ben bezig om voor mijn iMac een DAS/NAS op te zetten via Thunderbolt. Nu werkt dit zeer waarschijnlijk als ik dit niet onder ESXi (OSX / Hackintosh) zal doen, echter lijkt het me mooi om te kijken of dit wel lukt omdat ik de machine dan voor meerdere doeleinden kan gebruiken.
Ik heb een moederbord met ondersteuning voor Thunderbolt middels een uitbreidingskaart.
https://www.virtuallyghet...olt-storage-for-esxi.html
Passthrough succes: https://www.reddit.com/r/...rbolt_and_vmware/dtwz6ft/
Geen succes: https://www.reddit.com/r/...rbolt_and_vmware/dtxd40l/
[ Voor 11% gewijzigd door |sWORDs| op 06-03-2020 10:02 ]
Te Koop:24 Core Intel Upgradeset
maar esxi ziet deze wel maar kan hem niet als datastore gebruiken, en als ik deze passtrough naar vm kan ik deze ook niet gebruiken

in windows werkt het wel!
enig idee hoe ik dit aan de praat krijg ?
alvast bedankt!
De adapter kan het probleem niet zijn, dat is eigenlijk niets meer dan een kabel. Welke NVMe drive is het en heb je hem al eens geprobeerd te wissen?TomGear schreef op woensdag 11 maart 2020 @ 15:01:
Ik heb een nvme in mijn server via een NVME Adapter PCIe (https://www.amazon.de/dp/B07KWX1BBK/)
maar esxi ziet deze wel maar kan hem niet als datastore gebruiken, en als ik deze passtrough naar vm kan ik deze ook niet gebruiken
in windows werkt het wel!
enig idee hoe ik dit aan de praat krijg ?
alvast bedankt!
Te Koop:24 Core Intel Upgradeset
het is een wd black nvme ssd sn750 2tb|sWORDs| schreef op woensdag 11 maart 2020 @ 15:44:
[...]
De adapter kan het probleem niet zijn, dat is eigenlijk niets meer dan een kabel. Welke NVMe drive is het en heb je hem al eens geprobeerd te wissen?
ik heb deze in windows kunnen formateren en gebruiken maar in mijn server niets,
enkel dit https://prnt.sc/revx4l

geen idee wat hier mee bedoeld wordt,jadjong schreef op woensdag 11 maart 2020 @ 18:53:
Zit hij stiekem in een slot achter een pci-switch?
dit is de adapter https://www.amazon.de/dp/B07KWX1BBK/
en die zit op mijn pcie op het moederbord
mvg
Desnoods via een Linux LiveCD. Zeker niet moeders mooiste oplossing, maar het werkt wel...|sWORDs| schreef op vrijdag 14 februari 2020 @ 20:30:
[...]
Nee, je moet een commando runnen via ssh of console.
[ Voor 35% gewijzigd door Dr Pro op 11-03-2020 20:43 ]
Zet passthrough eens uit, boot met gparted, wis de partition table, boot ESXi en maak een datastore.TomGear schreef op woensdag 11 maart 2020 @ 18:40:
[...]
het is een wd black nvme ssd sn750 2tb
ik heb deze in windows kunnen formateren en gebruiken maar in mijn server niets,
enkel dit https://prnt.sc/revx4l
Te Koop:24 Core Intel Upgradeset
Bedankt nu kan ik deze gebruiken in esxi!|sWORDs| schreef op donderdag 12 maart 2020 @ 00:34:
[...]
Zet passthrough eens uit, boot met gparted, wis de partition table, boot ESXi en maak een datastore.
Op dit moment staan al mijn VM's op een SSD schijf van 512 GB.
Aangezien ik toch net iets meer ruimte nodig heb wil ik deze graag vervangen voor een 1TB schijf.
En dan ga ik de SSD van 512 via RDM doorzetten naar een NAS server voor SMB sharing.
Maar, hoe zet ik alle vm's over van de SSD van 512 naar de SSD van 1TB zonder verlies?
Is daar een simpele en snelle oplossing voor?
Beide aansluiten, VM uit, copy maken van datastore1 naar datatstore2, Unregister VM > browse naar datastore2 en register VM (via VMX file) op nieuwe SSD en dan bij opstarten antwoorden met"i have moved the vm"marcel19 schreef op vrijdag 3 april 2020 @ 19:39:
Ik ben in het bezit van een ESXI server waar ik de SSD schijf van wil vervangen.
Op dit moment staan al mijn VM's op een SSD schijf van 512 GB.
Aangezien ik toch net iets meer ruimte nodig heb wil ik deze graag vervangen voor een 1TB schijf.
En dan ga ik de SSD van 512 via RDM doorzetten naar een NAS server voor SMB sharing.
Maar, hoe zet ik alle vm's over van de SSD van 512 naar de SSD van 1TB zonder verlies?
Is daar een simpele en snelle oplossing voor?
Of vCenter en een storage vMotion (in trail werkt dat ook vziw)
nu wil ik de oude SSD verwijderen maar daar krijg ik de volgende error op:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| Key haTask-ha-host-vim.host.DatastoreSystem.removeDatastore-28 Description Removes a datastore from a host Datastore: SSD State Failed - The resource 'Datastore Name: SSD VMFS uuid: 5e7c9f9b-e29a57db-71e8-2c534a0be6a4' is in use. Errors Cannot remove datastore 'Datastore Name: SSD VMFS uuid: 5e7c9f9b-e29a57db-71e8-2c534a0be6a4' because file system is busy. Correct the problem and retry the operation. |
Als ik in de storage van deze SSD kijk zie ik het volgende:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| Type: VMFS6 Location: /vmfs/volumes/5e7c9f9b-e29a57db-71e8-2c534a0be6a4 UUID: 5e7c9f9b-e29a57db-71e8-2c534a0be6a4 Hosts: 1 Virtual Machines: 0 |
EDIT:
ScratchConfig.ConfiguredScratchLocation stond nog ingesteld op de oude SSD.
Deze na maintance mode te hebben gewijzigd is de SSD nu verwijderd.
[ Voor 8% gewijzigd door marcel19 op 03-04-2020 22:54 ]
En intussen heeft HPE inmiddels ook zijn eigen HPE Customized ESXi Image "ESXi 7.0 Apr 2020" vrijgegeven. Met een bijkomende HPE Custom Addon for "ESXi 7.0 Apr 2020". En voor de voorloper van VMware vSphere 6.7 U3 heeft HPE een nieuwe uitgave uitgebracht genaamd HPE Customized ESXi Image "ESXi 6.7 U3 Mar 2020".
Deze HPE uitgaven zijn eigenlijk alleen bestemd voor de "HPE Proliant MicroServer Gen9 servers and forward", waardoor HPE voor deze voorgenoemde ESXi/vSphere uitgaven geen officiële ondersteuning meer aanbied, indien men deze toch wel in gebruik zou nemen op de HPE Proliant MicroServer Gen8 servers. Waardoor er met elke nieuwe uitgave geen garantie is of deze nog wel blijft werken op de Gen8 servers.
Aangezien ik al enige tijd gebruik maak van een HPE Proliant MicroServer Gen8 in combinatie van zowel de VMware als de HPE vSphere 6.7 uitgaven, heb ik van de week even de moeite genomen om te testen of de nieuwe uitgaven van "ESXi 6.7 U3 Mar 2020" en HPE Customized ESXi Image "ESXi 7.0 Apr 2020" nog wel werken op de genoemde HPE Proliant MicroServer Gen8.
Hiervoor draaide ik "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.0.48-Dec2019-depot.zip (Build 15160138)". Na daar "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip (Build 15160138)" overheen te hebben geüpdatet zoals hieronder te zien is bleek na de reboot ook deze nieuwe uitgave vooralsnog werkzaam op de Gen8;
1
2
3
4
5
6
7
8
9
10
| [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip Installation Result Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective. Reboot Required: true VIBs Installed: BCM_bootbank_bnxtnet_214.0.230.0-1OEM.670.0.0.8169922, BCM_bootbank_bnxtroce_214.0.187.0-1OEM.670.0.0.8169922, EMU_bootbank_brcmfcoe_12.0.1278.0-1OEM.670.0.0.8169922, EMU_bootbank_elxnet_12.0.1216.4-1OEM.670.0.0.8169922, EMU_bootbank_lpfc_12.4.270.6-1OEM.670.0.0.8169922, HPE_bootbank_oem-build_670.U3.10.5.5-7535516, HPE_bootbank_ssacli_4.17.6.0-6.7.0.7535516.hpe, QLogic_bootbank_qlnativefc_3.1.31.0-1OEM.670.0.0.8169922 VIBs Removed: BCM_bootbank_bnxtnet_214.0.195.0-1OEM.670.0.0.8169922, BCM_bootbank_bnxtroce_214.0.184.0-1OEM.670.0.0.8169922, EMU_bootbank_brcmfcoe_12.0.1211.0-1OEM.670.0.0.8169922, EMU_bootbank_elxnet_12.0.1115.0-1OEM.670.0.0.7535516, EMU_bootbank_lpfc_12.4.242.0-1OEM.670.0.0.8169922, HPE_bootbank_oem-build_670.U3.10.5.0-7535516, HPE_bootbank_ssacli_4.15.6.0-6.7.0.7535516, QLogic_bootbank_qlnativefc_3.1.29.0-1OEM.670.0.0.8169922 VIBs Skipped: Avago_bootbank_lsi-mr3_7.706.08.00-1OEM.670.0.0.8169922, ELX_bootbank_elx-esx-libelxima-8169922.so_12.0.1188.0-03, EMU_bootbank_elxiscsi_12.0.1188.0-1OEM.670.0.0.8169922, HPE_bootbank_amsd_670.11.5.0-16.7535516, HPE_bootbank_bootcfg_6.7.0.02-06.00.14.7535516, HPE_bootbank_conrep_6.7.0.03-04.00.34.7535516, HPE_bootbank_cru_670.6.7.10.14-1OEM.670.0.0.7535516, HPE_bootbank_fc-enablement_670.3.50.16-7535516, HPE_bootbank_hponcfg_6.7.0.5.5-0.18.7535516, HPE_bootbank_ilo_670.10.2.0.2-1OEM.670.0.0.7535516, HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820, HPE_bootbank_smx-provider_670.03.16.00.3-7535516, HPE_bootbank_sut_6.7.0.2.5.0.0-83, HPE_bootbank_testevent_6.7.0.02-01.00.12.7535516, INT_bootbank_i40en_1.9.5-1OEM.670.0.0.8169922, INT_bootbank_igbn_1.4.10-1OEM.670.0.0.8169922, INT_bootbank_ixgben_1.7.20-1OEM.670.0.0.8169922, MEL_bootbank_nmlx5-core_4.17.15.16-1OEM.670.0.0.8169922, MEL_bootbank_nmlx5-rdma_4.17.15.16-1OEM.670.0.0.8169922, MEL_bootbank_nmst_4.12.0.105-1OEM.650.0.0.4598673, MSCC_bootbank_smartpqi_1.0.4.3008-1OEM.670.0.0.8169922, Microsemi_bootbank_nhpsa_2.0.44-1OEM.670.0.0.8169922, QLC_bootbank_qcnic_1.0.27.0-1OEM.670.0.0.8169922, QLC_bootbank_qedentv_3.11.16.0-1OEM.670.0.0.8169922, QLC_bootbank_qedf_1.3.41.0-1OEM.600.0.0.2768847, QLC_bootbank_qedi_2.10.19.0-1OEM.670.0.0.8169922, QLC_bootbank_qedrntv_3.11.16.0-1OEM.670.0.0.8169922, QLC_bootbank_qfle3_1.0.87.0-1OEM.670.0.0.8169922, QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922, QLC_bootbank_qfle3i_1.0.25.0-1OEM.670.0.0.8169922, VMW_bootbank_ata-libata-92_3.00.9.2-16vmw.670.0.0.8169922, VMW_bootbank_ata-pata-amd_0.3.10-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-atiixp_0.4.6-4vmw.670.0.0.8169922, VMW_bootbank_ata-pata-cmd64x_0.2.5-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-hpt3x2n_0.3.4-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-pdc2027x_1.0-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-serverworks_0.4.3-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-sil680_0.4.8-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-via_0.3.3-2vmw.670.0.0.8169922, VMW_bootbank_block-cciss_3.6.14-10vmw.670.0.0.8169922, VMW_bootbank_char-random_1.0-3vmw.670.0.0.8169922, VMW_bootbank_ehci-ehci-hcd_1.0-4vmw.670.0.0.8169922, VMW_bootbank_hid-hid_1.0-3vmw.670.0.0.8169922, VMW_bootbank_iavmd_1.2.0.1011-2vmw.670.0.0.8169922, VMW_bootbank_ima-qla4xxx_2.02.18-1vmw.670.0.0.8169922, VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608, VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608, VMW_bootbank_ipmi-ipmi-si-drv_39.1-5vmw.670.1.28.10302608, VMW_bootbank_iser_1.0.0.0-1vmw.670.1.28.10302608, VMW_bootbank_lpnic_11.4.59.0-1vmw.670.0.0.8169922, VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.670.3.73.14320388, VMW_bootbank_lsi-msgpt35_09.00.00.00-5vmw.670.3.73.14320388, VMW_bootbank_lsi-msgpt3_17.00.02.00-1vmw.670.3.73.14320388, VMW_bootbank_misc-drivers_6.7.0-2.48.13006603, VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608, VMW_bootbank_ne1000_0.8.4-2vmw.670.2.48.13006603, VMW_bootbank_nenic_1.0.29.0-1vmw.670.3.73.14320388, VMW_bootbank_net-cdc-ether_1.0-3vmw.670.0.0.8169922, VMW_bootbank_net-e1000_8.0.3.1-5vmw.670.0.0.8169922, VMW_bootbank_net-e1000e_3.2.2.1-2vmw.670.0.0.8169922, VMW_bootbank_net-enic_2.1.2.38-2vmw.670.0.0.8169922, VMW_bootbank_net-fcoe_1.0.29.9.3-7vmw.670.0.0.8169922, VMW_bootbank_net-forcedeth_0.61-2vmw.670.0.0.8169922, VMW_bootbank_net-libfcoe-92_1.0.24.9.4-8vmw.670.0.0.8169922, VMW_bootbank_net-mlx4-core_1.9.7.0-1vmw.670.0.0.8169922, VMW_bootbank_net-mlx4-en_1.9.7.0-1vmw.670.0.0.8169922, VMW_bootbank_net-nx-nic_5.0.621-5vmw.670.0.0.8169922, VMW_bootbank_net-tg3_3.131d.v60.4-2vmw.670.0.0.8169922, VMW_bootbank_net-usbnet_1.0-3vmw.670.0.0.8169922, VMW_bootbank_net-vmxnet3_1.1.3.0-3vmw.670.3.89.15160138, VMW_bootbank_nfnic_4.0.0.29-0vmw.670.3.73.14320388, VMW_bootbank_nmlx4-core_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_nmlx4-en_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_nmlx4-rdma_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_ntg3_4.1.3.2-1vmw.670.1.28.10302608, VMW_bootbank_nvme_1.2.2.28-1vmw.670.3.73.14320388, VMW_bootbank_nvmxnet3-ens_2.0.0.21-1vmw.670.0.0.8169922, VMW_bootbank_nvmxnet3_2.0.0.29-1vmw.670.1.28.10302608, VMW_bootbank_ohci-usb-ohci_1.0-3vmw.670.0.0.8169922, VMW_bootbank_pvscsi_0.1-2vmw.670.0.0.8169922, VMW_bootbank_qflge_1.1.0.11-1vmw.670.0.0.8169922, VMW_bootbank_sata-ahci_3.0-26vmw.670.0.0.8169922, VMW_bootbank_sata-ata-piix_2.12-10vmw.670.0.0.8169922, VMW_bootbank_sata-sata-nv_3.5-4vmw.670.0.0.8169922, VMW_bootbank_sata-sata-promise_2.12-3vmw.670.0.0.8169922, VMW_bootbank_sata-sata-sil24_1.1-1vmw.670.0.0.8169922, VMW_bootbank_sata-sata-sil_2.3-4vmw.670.0.0.8169922, VMW_bootbank_sata-sata-svw_2.3-3vmw.670.0.0.8169922, VMW_bootbank_scsi-aacraid_1.1.5.1-9vmw.670.0.0.8169922, VMW_bootbank_scsi-adp94xx_1.0.8.12-6vmw.670.0.0.8169922, VMW_bootbank_scsi-aic79xx_3.1-6vmw.670.0.0.8169922, VMW_bootbank_scsi-fnic_1.5.0.45-3vmw.670.0.0.8169922, VMW_bootbank_scsi-ips_7.12.05-4vmw.670.0.0.8169922, VMW_bootbank_scsi-iscsi-linux-92_1.0.0.2-3vmw.670.0.0.8169922, VMW_bootbank_scsi-libfc-92_1.0.40.9.3-5vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid-mbox_2.20.5.1-6vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid-sas_6.603.55.00-2vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid2_2.00.4-9vmw.670.0.0.8169922, VMW_bootbank_scsi-mpt2sas_19.00.00.00-2vmw.670.0.0.8169922, VMW_bootbank_scsi-mptsas_4.23.01.00-10vmw.670.0.0.8169922, VMW_bootbank_scsi-mptspi_4.23.01.00-10vmw.670.0.0.8169922, VMW_bootbank_scsi-qla4xxx_5.01.03.2-7vmw.670.0.0.8169922, VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.3.73.14320388, VMW_bootbank_shim-iscsi-linux-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-iscsi-linux-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libata-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libata-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfc-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfc-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfcoe-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfcoe-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-3-0_6.7.0-0.0.8169922, VMW_bootbank_uhci-usb-uhci_1.0-3vmw.670.0.0.8169922, VMW_bootbank_usb-storage-usb-storage_1.0-3vmw.670.0.0.8169922, VMW_bootbank_usbcore-usb_1.0-3vmw.670.0.0.8169922, VMW_bootbank_vmkata_0.1-1vmw.670.0.0.8169922, VMW_bootbank_vmkfcoe_1.0.0.1-1vmw.670.1.28.10302608, VMW_bootbank_vmkplexer-vmkplexer_6.7.0-0.0.8169922, VMW_bootbank_vmkusb_0.1-1vmw.670.3.89.15160138, VMW_bootbank_vmw-ahci_1.2.8-1vmw.670.3.73.14320388, VMW_bootbank_xhci-xhci_1.0-3vmw.670.0.0.8169922, VMware_bootbank_cpu-microcode_6.7.0-3.77.15018017, VMware_bootbank_esx-base_6.7.0-3.89.15160138, VMware_bootbank_esx-dvfilter-generic-fastpath_6.7.0-0.0.8169922, VMware_bootbank_esx-ui_1.33.4-14093553, VMware_bootbank_esx-update_6.7.0-3.89.15160138, VMware_bootbank_esx-xserver_6.7.0-3.73.14320388, VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-16vmw.670.1.28.10302608, VMware_bootbank_lsu-intel-vmd-plugin_1.0.0-2vmw.670.1.28.10302608, VMware_bootbank_lsu-lsi-drivers-plugin_1.0.0-1vmw.670.2.48.13006603, VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608, VMware_bootbank_lsu-lsi-lsi-msgpt3-plugin_1.0.0-9vmw.670.2.48.13006603, VMware_bootbank_lsu-lsi-megaraid-sas-plugin_1.0.0-9vmw.670.0.0.8169922, VMware_bootbank_lsu-lsi-mpt2sas-plugin_2.0.0-7vmw.670.0.0.8169922, VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608, VMware_bootbank_native-misc-drivers_6.7.0-3.89.15160138, VMware_bootbank_rste_2.0.2.0088-7vmw.670.0.0.8169922, VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.36-2.48.13006603, VMware_bootbank_vsan_6.7.0-3.89.14840357, VMware_bootbank_vsanhealth_6.7.0-3.89.14840358, VMware_locker_tools-light_11.0.1.14773994-15160134 [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot |
Wat de "Image profile: VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip (Build 15843807)" betreft daarentegen, bleek het niet mogelijk om zomaar even een upgrade uit te voeren van "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip (Build 15160138)" naar HPE Customized ESXi Image 7.0;
1
2
3
4
5
6
7
8
9
| [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip [DependencyError] VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot |
Datzelfde bleek ook toen ik de "Image profile: VMware-ESXi-7.0.0-15843807-depot.zip (Build 15843807)" probeerde te updaten over de bestaande en recent uitgerolde "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip (Build 15160138)";
1
2
3
4
5
6
7
8
9
| [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip [DependencyError] VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot |
Zodoende ook voor de "Image profile: VMware-ESXi-7.0.0-15843807-depot.zip (Build 15843807)";
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware-ESXi-7.0.0-15843807-depot.zip [DependencyError] VIB HPE_bootbank_testevent_6.7.0.02-01.00.12.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_ilo_670.10.2.0.2-1OEM.670.0.0.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_conrep_6.7.0.03-04.00.34.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_ssacli_4.17.6.0-6.7.0.7535516.hpe requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_fc-enablement_670.3.50.16-7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_oem-build_670.U3.10.5.5-7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_bootcfg_6.7.0.02-06.00.14.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_hponcfg_6.7.0.5.5-0.18.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_amsd_670.11.5.0-16.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot |
Inmiddels heb ik de "VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020.iso (Build 15843807)" op een nieuwe USB-stick gezet en draaiend gekregen op de HPE Proliant MicroServer Gen8 server.
Het is trouwens goed om te weten dat de ondersteuning voor bepaalde Intel CPU's in toekomstige uitgaven van ESXi/vSphere 7.x ten einde blijkt te komen. Zo kreeg ik ook een soortgelijke melding tijdens het installeren van de laatstgenoemde customized HPE ESXi/vSphere 7.0 ISO op de USB-stick, omtrent het volgende;
Upgrades and Installations Disallowed for Unsupported CPUs
Comparing the processors supported by vSphere 6.7, vSphere 7.0 no longer supports the following processors:
Intel Family 6, Model = 2C (Westmere-EP)
Intel Family 6, Model = 2F (Westmere-EX)
During an installation or upgrade, the installer checks the compatibility of the host CPU with vSphere 7.0. If your host hardware is not compatible, a purple screen appears with an incompatibility information message, and the vSphere 7.0 installation process stops.
The following CPUs are supported in the vSphere 7.0 release, but they may not be supported in future vSphere releases. Please plan accordingly:
Intel Family 6, Model = 2A (Sandy Bridge DT/EN, GA 2011)
Intel Family 6, Model = 2D (Sandy Bridge EP, GA 2012)
Intel Family 6, Model = 3A (Ivy Bridge DT/EN, GA 2012)
AMD Family 0x15, Model = 01 (Bulldozer, GA 2012)
![]() | ![]() |
[ Voor 10% gewijzigd door Indir op 04-04-2020 18:57 . Reden: Screenshot toegevoegd. ]
Het gros van je errors wordt veroorzaakt door custom VIB's. Als je deze VIB's zou removen dan lukt je update/upgrade daarna wel. Vraag is alleen eerder of je deze VIBs gebruikt voor hardware die je hebt.Wat de "Image profile: VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip (Build 15843807)" betreft daarentegen, bleek het niet mogelijk om zomaar even een upgrade uit te voeren van "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip (Build 15160138)" naar HPE Customized ESXi Image 7.0;
code:
1 2 3 4 5 6 7 8 9 [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip [DependencyError] VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot
Datzelfde bleek ook toen ik de "Image profile: VMware-ESXi-7.0.0-15843807-depot.zip (Build 15843807)" probeerde te updaten over de bestaande en recent uitgerolde "Image profile: VMware-ESXi-6.7.0-Update3-15160138-HPE-Gen9plus-670.U3.10.5.5.25-Mar2020-depot.zip (Build 15160138)";
code:
1 2 3 4 5 6 7 8 9 [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020_depot.zip [DependencyError] VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot
Zodoende ook voor de "Image profile: VMware-ESXi-7.0.0-15843807-depot.zip (Build 15843807)";
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_enter [root@HPE-ESXi:~] esxcli software vib update --depot=/vmfs/volumes/vmNFS/ESXi-updates/VMware-ESXi-7.0.0-15843807-depot.zip [DependencyError] VIB HPE_bootbank_testevent_6.7.0.02-01.00.12.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB QLC_bootbank_qfle3f_1.0.75.0-1OEM.670.0.0.8169922 requires vmkapi_2_2_0_0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_scsi-hpdsa_5.5.0.68-1OEM.550.0.0.1331820 requires com.vmware.driverAPI-9.2.2.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_ilo_670.10.2.0.2-1OEM.670.0.0.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_conrep_6.7.0.03-04.00.34.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_ssacli_4.17.6.0-6.7.0.7535516.hpe requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_fc-enablement_670.3.50.16-7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_oem-build_670.U3.10.5.5-7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_bootcfg_6.7.0.02-06.00.14.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_hponcfg_6.7.0.5.5-0.18.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. VIB HPE_bootbank_amsd_670.11.5.0-16.7535516 requires esx-version << 7.0.0, but the requirement cannot be satisfied within the ImageProfile. Please refer to the log file for more details. [root@HPE-ESXi:~] vim-cmd /hostsvc/maintenance_mode_exit [root@HPE-ESXi:~] reboot
I Don't Know, So Don't Shoot Me
[ Voor 3% gewijzigd door CH4OS op 13-04-2020 14:32 ]
1
| Hardware precheck of profile ESXi-7.0.0-15843807-standard failed with warnings: <UNSUPPORTED_DEVICES WARNING: This host has unsupported devices [<PciInfo ' [1000:0072 1000:3020]'>]> |
Of begrijp ik jou nu niet, @jadjong?
EDIT:
Ik probeer het gewoon, ik zie het wel.
[ Voor 8% gewijzigd door CH4OS op 13-04-2020 14:43 ]
ESXi 7.0 geeft wel aan dat het niet meer supported is voor 7.0 maar hert werkt in mijn systeem nog wel. Volgens mij wordt de LSI chip langer ondersteund maar het specifieke IBM model niet meer.
Geen garanties natuurlijk dat het bij jou blijft werken.
[ Voor 9% gewijzigd door CH4OS op 13-04-2020 15:03 ]
Verder daarna de 2x HP DL380 Gen8 met generiek image succesvol geüpgraded naar ESX7. Beide hebben een dual Intel(R) Xeon(R) CPU E5-2650 v2 en verder geen bijzonderheden erin zitten.
Als ik de image laad via hyper-v dan kom ik in het installatie menu maar geeft deze aan dat er geen compatibel netwerkkaart gevonden kan worden.. ik heb een Intel kaart en deze staat op de vmware site onder 6.5 op de lijst als support. De esxi heb ik voorzien van Tulip drivers drivers ik een normale als een legancy adapter geprobeerd. Iemand een idee hoe ik dit kan fixen?
[ Voor 5% gewijzigd door HKLM_ op 13-04-2020 18:56 ]
Cloud ☁️
Je moet dus zorgen dat je virtuele kaart compatible is met ESXi.
Even niets...
De LSI2008 met als driver mpt2sas staat in de deprecated lijst maar de driver is nog niet geremoved; hij valt momenteel nog in categorie 2b zoals hieronder beschreven. Het artikel op de knowledge base van VMware bevat 2 lijsten in Excel formaat met devices die echt verwijderd zijn en devices die wel deprecated zijn maar nog wel een driver hebben lijkt het.leander-s schreef op maandag 13 april 2020 @ 14:52:
@CH4OS Ik heb een variant van deze IBM M1015 controller welke ook in IT mode draait.
ESXi 7.0 geeft wel aan dat het niet meer supported is voor 7.0 maar hert werkt in mijn systeem nog wel. Volgens mij wordt de LSI chip langer ondersteund maar het specifieke IBM model niet meer.
Geen garanties natuurlijk dat het bij jou blijft werken.
Devices deprecated and unsupported in ESXi 7.0 (77304)
Deprecated devices in ESXi 7.0 fall into three categories:If you are upgrading to 7.0 using an ISO image or VMware Update Manager on a host with a device described in category 1 or 2(a) above , you may see a warning indicating that you are attempting to upgrade your host with a deprecated device. If you are upgrading using the ESXCLI upgrade method, you will not see a warning.
- Devices that were only supported in 6.7 or earlier by a VMKlinux inbox driver. These devices are no longer supported because all support for VMKlinux drivers and their devices have been completely removed in 7.0.
- (a) Devices that were supported by a Native inbox driver in 6.7 or earlier but that support has been completely removed in the 7.0 inbox driver.
(b) Devices that were supported by a Native inbox in 6.7 or earlier and will recognized by 7.0 but are no longer supported in 7.0 and will be completely removed from the driver in a subsequent release.
If you proceed with the upgrade on a host with any device described in category 1 or 2(a), the following non-recoverable consequences can occur:
You may lose access to storage / data-stores
You may lose network access
You may lose previous configuration on the host
If your host contains any of the devices described in category 1 or 2(a, those devices should be replaced with supported hardware prior to upgrading or performing a fresh installation of 7.0.
If your host contains any of the devices described in category 2(b), you will also get a warning but you may proceed with caution and are encouraged to replace the unsupported devices with supported hardware as soon as possible.
I Don't Know, So Don't Shoot Me
Ik probeer al de hele avond passthrough werkend te krijgen, maar ESXi blijft volhouden dat passthrough pas werkt na een reboot. Ik heb het ook geprobeerd met vmkernel.boot.disableACScheck = TRUE, maar dit had geen effect.
Het stomme is wel dat wanneer ik passthrough inschakel zonder te rebooten, de host aan geeft dat het actief is. In een VM werkt het echter niet (GPU zichtbaar, maar werkt niet, code 43).
Volgens ESXi zelf is VT-x gewoon beschikbaar:
1
2
| [snip@snip:~] esxcfg-info|grep "\----\HV Support" |----HV Support............................................3 |
Ik heb het ook geprobeerd met een handmatige entry in de passthrough map. Eén poging met bridge en één met d3d0.
1
2
3
| [snip@snip:~] lspci -v 0000:00:02.0 Display controller VGA compatible controller: Intel Corporation 8th Gen Core Processor Gaussian Mixture Model Class 0300: 8086:3e91 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| # Intel 82579LM Gig NIC can be reset with d3d0 8086 1502 d3d0 default # Intel 82598 10Gig cards can be reset with d3d0 8086 10b6 d3d0 default 8086 10c6 d3d0 default 8086 10c7 d3d0 default 8086 10c8 d3d0 default 8086 10dd d3d0 default # Broadcom 57710/57711/57712 10Gig cards are not shareable 14e4 164e default false 14e4 164f default false 14e4 1650 default false 14e4 1662 link false # Qlogic 8Gb FC card can not be shared 1077 2532 default false # LSILogic 1068 based SAS controllers 1000 0056 d3d0 default 1000 0058 d3d0 default # NVIDIA 10de ffff bridge false # AMD FCH SATA Controller [AHCI mode] 1022 7901 d3d0 default # Intel VGA Passthrough testing 8086 3e91 d3d0 false |
Gaat om een Intel Core i3-9100 op een Fujitsu D3642-B bord.
Of all tyrannies, a tyranny sincerely exercised for the good of its victims may be the most oppressive.
Zo niet dan is de GPU actief en kan die niet doorgegeven worden.
De map is alleen een filter voor wat door te geven is of om de reset mode te overriden.
Te Koop:24 Core Intel Upgradeset
Ik krijg gewoon het console beeld op het scherm. De GPU is zoals jij aamgeeft actief. Ik was in de veronderstelling dat esxi de handover zelf zou doen?|sWORDs| schreef op woensdag 15 april 2020 @ 23:14:
Heb je de console op een andere GPU zitten of gaat het beeld op zwart tijdens booten?
Zo niet dan is de GPU actief en kan die niet doorgegeven worden.
De map is alleen een filter voor wat door te geven is of om de reset mode te overriden.
EDIT: Ik zie nu pas dat ik één vraag ben vergeten te antwoorden. Er zit maar één GPU in dit systeem en dat is de Intel.
[ Voor 11% gewijzigd door wjjkoevoets op 16-04-2020 14:28 ]
Of all tyrannies, a tyranny sincerely exercised for the good of its victims may be the most oppressive.