Even dit topic mogelijk misbruiken voor een "welke hypervisor?"-vraag. Het gaat niet om thuisgebruik, daarom stel ik de vraag ook niet in Het grote thuis-virtualisatie topic
Voor een standalone testserver zoek ik de beste virtualization-oplossing. Doelstelling is om beide endpoints voor performance tests die ik met IxChariot en iperf uitvoer op zelfde fysieke machine te combineren. Alles draait dus om de netwerkverbindingen. Storage is minimaal aanwezig en backups gebeuren extern. Enige bijkomende is een testapparaat dat via USB-aansluitingen aangestuurd wordt. Het is een totaal standalone-apparaat met eigen netwerk (omdat veel van de devices die getest worden routers zijn en eigen netwerken opzetten).
Hardware:
Supermicro X10SDV-4C+-TP4F moederbord met embedded Xeon D-1518 (4 cores, 8 threads)
- ondersteunt VT-x
- ondersteunt VT-D
- 2x PCIe 10GbE (Intel X522) SFP+, ondersteunen FLR, dus PCI passthrough
- 2x PCIe 1GbE (Intel), ondersteunen FLR, dus PCI passthrough
16GB RAM
256GB NVME SSD en 2TB HDD
Metageek Wi-Spy (USB 2.0)
Testapparaat met 2x USB aansturing.
Guest OSsen:
1x Windows 7 Enterprise 64b, ~4GB RAM required
1x IxChariot 9.x (=RedHat-based x86_64 Linux),
1x Ubuntu server 64b
(en mogelijk nog een Linux-based VM)
Functionele requirements:
- >2.5Gbps TCP throughput op de Ubuntu server en ofwel de Windows 7 (nu) danwel IxChariot 9.0 VM (later) guests.
- USB toegang voor de Windows guest
USB passthrough kan op erg veel hypervisors. Maar >2.5Gbps TCP throughput voor een guest OS is lastiger en vereist voorzover ik het kan zien dat de device rechtstreeks door de guest aangesproken wordt dmv PCI passthrough. Dan wordt het lijstje opties iets korter. Ik vind:
- KVM (op Linux, bijv Ubuntu Server)
- Virtualbox (op Linux, bijv Ubuntu Server)
- Vmware ESX/Vsphere Hypervisor
- Xen (waarbij het schijbaar zowel met hvm als pv kan)
Allevier blijken standalone gratis te gebruiken. Nu heb ik mondjesmaat ervaring met Vmware en Virtualbox, maar onvoldoende om een uitgesproken voorkeur voor of tegen een van de twee te hebben. Eenvoud in de boel (incl PCI passthrough!) aan de praat krijgen vind ik belangrijker dan gemak in het beheer (want zoals gezegd standalone install), al ben ik prima in staat tot bijv hercompileren van een kernel indien echt nodig.
Vragen:
1) klopt het dat op de genoemde vier PCI passthrough (met correcte hardware) mogelijk is - en ben ik geen andere opties vergeten?
2) ik ga er voor het gemak vanuit dat de performance die ik over PCI passthrough haal met guestOS hetzelfde zal zijn (aangezien host OS/hypervisor niets meer doet met de device). Klopt deze aanname wel of zijn er significante verschillen te verwachten?
3) ervan uitgaande dat er meerdere opties zijn die PCI passthrough aankunnen en degelijke prestaties leveren, welke is waarschijnlijk de meest eenvoudige qua initiele configuratie om dat voor elkaar te krijgen?
Voor een standalone testserver zoek ik de beste virtualization-oplossing. Doelstelling is om beide endpoints voor performance tests die ik met IxChariot en iperf uitvoer op zelfde fysieke machine te combineren. Alles draait dus om de netwerkverbindingen. Storage is minimaal aanwezig en backups gebeuren extern. Enige bijkomende is een testapparaat dat via USB-aansluitingen aangestuurd wordt. Het is een totaal standalone-apparaat met eigen netwerk (omdat veel van de devices die getest worden routers zijn en eigen netwerken opzetten).
Hardware:
Supermicro X10SDV-4C+-TP4F moederbord met embedded Xeon D-1518 (4 cores, 8 threads)
- ondersteunt VT-x
- ondersteunt VT-D
- 2x PCIe 10GbE (Intel X522) SFP+, ondersteunen FLR, dus PCI passthrough
- 2x PCIe 1GbE (Intel), ondersteunen FLR, dus PCI passthrough
16GB RAM
256GB NVME SSD en 2TB HDD
Metageek Wi-Spy (USB 2.0)
Testapparaat met 2x USB aansturing.
Guest OSsen:
1x Windows 7 Enterprise 64b, ~4GB RAM required
1x IxChariot 9.x (=RedHat-based x86_64 Linux),
1x Ubuntu server 64b
(en mogelijk nog een Linux-based VM)
Functionele requirements:
- >2.5Gbps TCP throughput op de Ubuntu server en ofwel de Windows 7 (nu) danwel IxChariot 9.0 VM (later) guests.
- USB toegang voor de Windows guest
USB passthrough kan op erg veel hypervisors. Maar >2.5Gbps TCP throughput voor een guest OS is lastiger en vereist voorzover ik het kan zien dat de device rechtstreeks door de guest aangesproken wordt dmv PCI passthrough. Dan wordt het lijstje opties iets korter. Ik vind:
- KVM (op Linux, bijv Ubuntu Server)
- Virtualbox (op Linux, bijv Ubuntu Server)
- Vmware ESX/Vsphere Hypervisor
- Xen (waarbij het schijbaar zowel met hvm als pv kan)
Allevier blijken standalone gratis te gebruiken. Nu heb ik mondjesmaat ervaring met Vmware en Virtualbox, maar onvoldoende om een uitgesproken voorkeur voor of tegen een van de twee te hebben. Eenvoud in de boel (incl PCI passthrough!) aan de praat krijgen vind ik belangrijker dan gemak in het beheer (want zoals gezegd standalone install), al ben ik prima in staat tot bijv hercompileren van een kernel indien echt nodig.
Vragen:
1) klopt het dat op de genoemde vier PCI passthrough (met correcte hardware) mogelijk is - en ben ik geen andere opties vergeten?
2) ik ga er voor het gemak vanuit dat de performance die ik over PCI passthrough haal met guestOS hetzelfde zal zijn (aangezien host OS/hypervisor niets meer doet met de device). Klopt deze aanname wel of zijn er significante verschillen te verwachten?
3) ervan uitgaande dat er meerdere opties zijn die PCI passthrough aankunnen en degelijke prestaties leveren, welke is waarschijnlijk de meest eenvoudige qua initiele configuratie om dat voor elkaar te krijgen?
Oslik blyat! Oslik!