Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

2 hardcore gamers op 1 kist welke VM software

Pagina: 1
Acties:

  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Het volgende dient zich voor. Wij, mijn meid en ik spelen CSgo. Mijn computer ligt in onderdelen op een doos op het dressoir in de woonkamer. Haar pc staat onder onze tafel stof te zuigen en blijft met Duck tape dicht.

Nu heb ik inmiddels wat nieuwe hardware aangeschaft:

Asus Z9PE-D8 WS
2x E5-2600 series Xeon met genoeg core en cache
2x teveel werk geheugen
en een set 980 nvidia rakkers.

Het idee, Ik wil op deze kast
2 windows7 virtual computers draaien.
Maar aan elke vm hun eigen videokaart,toetsenbord, muis, monitor (2 per vm) en geluidskaart toewijzen.
Dit om dus onze rommel te vervangen door 1 apparaat wat uit eindelijk dus 2 computers moet draaien en waar wij dus beiden op kunnen counter-striken.

Nou heb ik zelf al volop gespeeld met VMWare maar dit was geïnstalleerd boven op win7.
Nou wil ik dus iets wat in de basis niet al een dijk resources opslokt. Maar waarmee ik wel hardware dedicate kan toewijzen aan een vm.
Nu ben ik bij mijn zoektocht op verschillende websites gelopen maar allemaal spreken ze wel over virtualisatie maar niet over dus bv. gamen op een vm.

Ik heb wat gevonden over ESXI en Vsphere Ik ben zelf erg microsoft georiënteerd. Maar bij Hyper-V moet ik volgens mij nog steeds een complete Server 2008 of 12 op de achtergrond mee laten slepen ?
Wat zou een goede basis zijn voor mijn idee ?

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
pak xenserver, gooi die pci-e kaarten door en klaar.

Maar gpu's doorgeven met vt-d is een vak apart, of het werkt prima of compleet niet.

http://hcl.xensource.com/GPUPass-throughDeviceList.aspx

hier werkt het sowieso mee.

[ Voor 63% gewijzigd door justahuman op 12-12-2014 01:10 ]


  • lazybones
  • Registratie: December 2001
  • Laatst online: 01:30
vSphere is een optie, kost relatief weinig resources. Als je dan de resources goed verdeelt over de VM's en de videokaarten mapped moet dat nog best aardig lopen.

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 13:19

The Eagle

I wear my sunglasses at night

Gamen in VM's is geen goed idee. CPU en RAM trekken het wel, maar grafisch ben je gebonden aan een gevirtualiseerde kaart. Kun je dus niks met je nvidia's doen.

Als ik jou was zou ik een extra kast en mobo kopen en gewoon twee PC's bouwen.

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Ik ben XenServer tegen vSphere aan het af wegen.
Een 2de kast fixen kan ik altijd nog mocht ht niet [gewoon] werken.

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
ik ben wel geïnteresseerd hoe lekker de pcie passtrough werkt door middel van vt-d. Dus als je het werkend hebt plz report back :)

  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Dat doe ik ziezo natuurlijk ;)
Ik zocht eerst al naar andere die mij voor gingen maar krijg allen maar mensen die hun 32 cores en 128Gb voor zich zelf houden... Ik deel dar in tegen graag met mijn meid 8)

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • Lucky0wn
  • Registratie: Oktober 2009
  • Laatst online: 28-11 14:54
Heb zelf ervaring met een zestal Grid K1 kaarten op Vsphere, en moet zeggen, de gamepreformance op een single desktop is al om te huilen met direct pci-e passthrough. Alhoewel de kaarten daar ook niet voor gemaakt zijn. Ben bang dat dit niet gaat werken.

  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Bij Xenserver kan ik ook alleen maar quadro's vinden en geen desktop kaartjes. En ik kan zo niet vinden wat ik in trail versies allemaal kan gebruiken. Op een website anders dan van xenserver zelf las ik iets oever maximaal 4gb ram bv voor een vm. en om nou eerst een lic te kopen en dan teleur gesteld te worden vind ik ook weer iets.

Iemand ervaring met https://www.virtualbox.org/wiki/Screenshots ?

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • geforce5_guy
  • Registratie: December 2001
  • Niet online
Professor_Botje schreef op vrijdag 12 december 2014 @ 01:26:
Bij Xenserver kan ik ook alleen maar quadro's vinden en geen desktop kaartjes. En ik kan zo niet vinden wat ik in trail versies allemaal kan gebruiken. Op een website anders dan van xenserver zelf las ik iets oever maximaal 4gb ram bv voor een vm. en om nou eerst een lic te kopen en dan teleur gesteld te worden vind ik ook weer iets.

Iemand ervaring met https://www.virtualbox.org/wiki/Screenshots ?
Een google op "virtualbox gpu" levert op dat PCI-E pass passthrough nog niet stabiel is wiki virtualbox.

Zoals eerder aangemerkt kan het verstandiger zijn om twee losse machines te gebruiken. Ze richten zich nu vooral op pakketten die in het bedrijfsleven gebruikt worden ( CAD etc. ) en bij behorende GPU's.

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
VirtualBox en andere desktopsoftware gaat niet werken.

Ik heb het met 'normale' Xen werkend gehad, 1x Linux en 2x Windows, alledrie met eigen GPU's.
Linux had een iGPU, de Windows VM's allebei een USB controller en een PCIe GPU, waren wel slappe GeForce 210 kaartjes, maar je kon wel prima allebei Left4Dead2 spelen met een matige FPS (~55FPS) op medium settings. Stel dat je het met wat snellere kaartjes doet moet het wel lukken.

Beide VM's draaien wel op eigen backing SSD's en hadden 4GB RAM per stuk, plus de Linux VM in domein 0 had 2 CPU cores gepind en exclusief om I/O te garanderen. Zaten twee losse Xeon's in, was een dual socket Supermicro bordje. Was de pre-haswell generatie. Heb hem hier niet meer staan, was meer een testsetup om te kijken of het kon (heb ook triple-boot gehad, Mac OS X, Linux en Windows, allebei eigen KVM :p OS X had geen accelerated GFX, maar de andere twee wel). Was met Xen 4.1.

Het kan dus wel, je hebt wel Vt-d support nodig en genoeg CPU power, want virtuele I/O kost simpelweg CPU cycles. De hypervisor heeft geen videokaart nodig, Xen is een bare-metal hypervisor, het Linux control domain (dom0) heeft eigenlijk alleen genoeg geheugen en cores nodig om essentiele zaken als netwerk en hardware I/O te regelen, kan verder via SSH benaderd worden of een seriele poort.

Met VMWare gaat het sowieso niet werken, daar is de hardware support gewoon te beperkt voor, dat kan je alvast vergeten. Met KVM schijnt het nog wel te kunnen, maar dan moet je wel een custom compiled qemu backend hebben zodat je twee GPU's van forwarden.

Met de Xen setup heb je wel een beperking, en dat is dat je de GPU's maar 1x kan initialiseren per boot. Ik heb toen niet uitgezocht waarom, maar het schijnt met initialisatie na dat VT-d z'n ding gedaan heeft te maken te hebben. Als je Windows dus 'herstart' (de VM dus) heb je geen beeld meer tot je Xen herstart. Verder moet je voor je netwerk en schijf wel de virtio of netback/blockback drivers installeren, de GPLPV drivers zijn dat, anders is de performance gewoon te slecht om er mee te werken. Ik heb alleen L4D2, SC1, AoE3, UT2004 en UrbanTerror geprobeerd, had verder niks op kantoor liggen om mee te testen. Weet niet zeker of er een driver hack nodig was om de nvidia drivers fatsoenlijk met de GPU te laten babbelen, ik dacht het niet. Met OSX was dat wel nodig, maar ik had geen zin om het uit te zoeken. Met Linux werkt het OOB gewoon goed.

Toevoeging: je hebt XenServer dus niet nodig, gewoon de FOSS Xen is prima. De enige reden dat mensen nog XenServer gebruiken is om dat ze perse een Citrix SLA willen of hun beheertools willen gebruiken.

[ Voor 4% gewijzigd door johnkeates op 12-12-2014 02:08 ]


  • Osiris
  • Registratie: Januari 2000
  • Niet online
Hier vind je meer informatie over hoe Windows te installeren onder Xen, inclusief onderaan informatie over die GPLPV-drivers: Chapter 13: Xen and Windows.

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 29-11 16:40

MAX3400

XBL: OctagonQontrol

Even knuppel in het hoenderhok; Windows 8.1 kan ook worden ingezet voor Hyper-V en als je maar 2 machines wil virtualiseren, lijkt me dit een "logischer" oplossing? Of je test/probeert Server 2012 Core met Hyper-V role; qua resources kost het je minder dan je in je startpost (niet) beargumenteert.

RemoteFX en de nieuwste RDP-versies, geven een "betere" performance op grafisch gebied dan XenServer en voor zover ik me kan herinneren (maar ik zit niet volledig in de virtuele GPU-wereld), kan je 1 fysieke GPU verdelen over meerdere VM's.

In alle gevallen, maar dat lijkt me logisch, zou je eigenlijk een lang weekend moeten testen met de 3 bekende hypervisors en bekijken/bedenken welke passthrough-mogelijkheden de beste performance geven. Meten is weten dus "out of the box" een hypervisor installeren, dan je VM installeren (deze VM moet je wel elke keer documenteren en hetzelfde installeren) en daarna kijken welke tools zoals Integration Services er zijn die kunnen interacten met de host-hardware.

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
Als VT-d passthrough werkt, wint dat van elke andere techniek. Ook van RemoteFX omdat het een Native oplossing is. De GPU is 'echt' van de VM, en wordt niet gevirtualiseerd.

Ben beniewd of het lukt! Ziet er uit als een gave setup!

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 07:35
Ik ben ook zeker benieuwd!

Any job you can do in your pajamas is not the hardest job in the world.


  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
FireDrunk schreef op vrijdag 12 december 2014 @ 08:29:
Als VT-d passthrough werkt, wint dat van elke andere techniek. Ook van RemoteFX omdat het een Native oplossing is. De GPU is 'echt' van de VM, en wordt niet gevirtualiseerd.
Ik heb mijn twijfels. Genoeg fabrikanten beweren tegenwoordig dat op deze manier het mogelijk is om zware grafische bewerkingen zoals autocad te doen in VDI of Citrix omgevingen. In de praktijk valt dit tegen, ondanks alle optimalisaties blijft in mijn ervaring de prestaties achter bij het draaien van zulke taken direct op de hardware.

Nou is CS:GO niet een heel zwaar spel, maar dan nog denk ik dat de prestaties tegen zullen vallen.

Je hebt al twee keer zoveel hardware, ik zou gewoon nog een moederboard kopen en nog een kast, dan kan je twee PC's bouwen. Je hebt toch al een behoorlijk hoeveelheid geld uitgegeven aan die Xeons en meerdere GTX 980 kaarten. Moet er ook nog wel een kastje bijgekocht kunnen worden.

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Als je via VT-D de videokaart doorgeeft wordt er rechtstreeks op de hardware gedraaid, dan moet performance gelijk zijn aan native.
Maar het lijkt mij alsnog praktischer om twee aparte systemen te bouwen zeker aangezien je enkel een extra moederbord, behuizing en voeding nodig hebt. Ben je voor ~200 euro klaar zonder gezeik.

[ Voor 42% gewijzigd door Tsurany op 12-12-2014 09:04 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • RGAT
  • Registratie: Augustus 2011
  • Niet online
Tsurany schreef op vrijdag 12 december 2014 @ 09:04:
Als je via VT-D de videokaart doorgeeft wordt er rechtstreeks op de hardware gedraaid, dan moet performance gelijk zijn aan native.
Maar het lijkt mij alsnog praktischer om twee aparte systemen te bouwen zeker aangezien je enkel een extra moederbord, behuizing en voeding nodig hebt. Ben je voor ~200 euro klaar zonder gezeik.
Een hele grote als ;), vaak genoeg gehad dat alles op de doosjes zei dat het VT-D ondersteunt en dan toch na drie dagen erachter komen dat de BIOS het niet ondersteunt (maar dan wel de opties toont...), of dat het wel ondersteunt wordt maar alles behalve stabiel is (per boot werkt hardware wel/niet...).

Klinkt erg leuk, maar ik denk dat een host met VT-D voor twee gameclients wat overkill is ;)

Fixing things to the breaking point...


  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 18-11 10:27

prutser001

Vaak zit het tegen en soms zi

\\\\\\TOTAAL OFF TOPIC//////

Zou wel eens willen weten of dit werkt, nou vraag ik me alleen af hoe het nou precies werkt want dat is me nu nooit duidelijk. Ik heb wel gewoon VMWare op mijn desktop draaien voor DOS/oudere windows versies en embedded versies (XPembedded/POSready2009/W7 embedded - voor werk) Maar dat hele Vsphere e.d of Xen ontgaat me een beetje aangezien ik niet echt de tijd heb om me daarin te verdiepen en niet direct de voordelen zie.

Server draait Xen/Vspere -> 2 x Windows, maar nu via netwerk? Boot je direct van de server over je netwerk (Zoals vroeger met b.v. Novell via bootrom? - Eigenlijk draaide je hier gewoon je OS vanaf de server over netwerk) Er is genoeg te vinden over installaties e.d. maar ik heb het nog nooit in de praktijk gezien.

Ik heb hier zelf nog een oudere dual Xeon X5450/32GB staan met Supermicro X7DAE+ om dit eventueel een keer te testen.

Ik blijf dit wel even volgen.

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 29-11 16:40

MAX3400

XBL: OctagonQontrol

FireDrunk schreef op vrijdag 12 december 2014 @ 08:29:
Als VT-d passthrough werkt, wint dat van elke andere techniek. Ook van RemoteFX omdat het een Native oplossing is. De GPU is 'echt' van de VM, en wordt niet gevirtualiseerd.

Ben beniewd of het lukt! Ziet er uit als een gave setup!
Kan vanavond misschien wel heel snel een PoC opzetten; heb Hyper-V draaien onder 8.1 Pro. De GPU die ik in mijn machine heb is dan wel bagger want een GT730 maar ik denk dat dat wel een leuke case is. Sowieso eerst een benchmark draaien op de host en daarna in een VM; dit soort GPU's is erg zwak en hopelijk zie ik weinig/geen performance-verlies.

Of moet ik mijn tijd besparen en heeft iemand al een dergelijke setup klaarstaan met bench-cijfers?
Jouw vraagstelling (en omschrijving) neigt aanzienlijk meer naar PXE-booting en provisioning zoals Citrix PVS. Net van hoe je het inricht, heb je alsnog dikke hardware nodig op jouw clients. Dat heeft bijna 0 meer te maken met hypervisors. ;)

[ Voor 19% gewijzigd door MAX3400 op 12-12-2014 09:46 ]

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
CMD-Snake schreef op vrijdag 12 december 2014 @ 08:57:
[...]


Ik heb mijn twijfels. Genoeg fabrikanten beweren tegenwoordig dat op deze manier het mogelijk is om zware grafische bewerkingen zoals autocad te doen in VDI of Citrix omgevingen. In de praktijk valt dit tegen, ondanks alle optimalisaties blijft in mijn ervaring de prestaties achter bij het draaien van zulke taken direct op de hardware.

Nou is CS:GO niet een heel zwaar spel, maar dan nog denk ik dat de prestaties tegen zullen vallen.

Je hebt al twee keer zoveel hardware, ik zou gewoon nog een moederboard kopen en nog een kast, dan kan je twee PC's bouwen. Je hebt toch al een behoorlijk hoeveelheid geld uitgegeven aan die Xeons en meerdere GTX 980 kaarten. Moet er ook nog wel een kastje bijgekocht kunnen worden.
Klopt, maar die gebruiken voor zover ik weet geen VT-d.
Een van de beste oplossingen is nog wel die van vGPU's. De AMD FirePro en sommige NVidia Quadra kaarten ondersteunen dat. Dit betekend dat de GPU zich in 100 kleine videokaartjes kan splitsten, welke volgens mij alsnog via VT-d doorgegeven worden (maar zeker weten doe ik het niet) aan een VM. Dit geeft echt bijna native performance. De crux zit hem in het feit dat het beeld nog steeds op een conventionele manier doorgestuurd moet worden via RDP/Citrix/VNC achtige technieken.

In het geval van de TS hangt hij gewoon een monitor aan de kaart, en gaat gewoon alleen het beeld van de VM te zien krijgen.

@TS,
Hyper-V doet geen VT-d, de truck die zij doen (volgens mij) is de host de GPU berekeningen laten doen, en die doorsturen via Ring0 communicatie (soort paravirtualisatie) naar de VM.

Dat is echt *HEEL* iets anders dan VT-d (wat direct op de PCIe poort zorgt dat de verbinding met de GPU niet met het Host OS is, maar het het Guest OS...).

Ik zou mijn geld inzetten op Xen, daar zijn de meeste succesverhalen mee, maar als je een moderne kaart hebt als een 980 of een moderne AMD zou het ook met ESXi moeten werken. Ook daar zijn een heel aantal succesverhalen mee.

Even niets...


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
Professor_Botje schreef op vrijdag 12 december 2014 @ 01:26:
Bij Xenserver kan ik ook alleen maar quadro's vinden en geen desktop kaartjes. En ik kan zo niet vinden wat ik in trail versies allemaal kan gebruiken. Op een website anders dan van xenserver zelf las ik iets oever maximaal 4gb ram bv voor een vm. en om nou eerst een lic te kopen en dan teleur gesteld te worden vind ik ook weer iets.

Iemand ervaring met https://www.virtualbox.org/wiki/Screenshots ?
Xenserver is gratis....
Maar gezien je allemaal nieuwe features wilt gaan testen is mogelijk debian met xen 4.4 los een beter idee.
Kost wel wat meer configuratie werk.

http://wiki.xen.org/wiki/VTd_HowTo

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
Nee, vergis je niet in de terminologie!

Xen is gratis (en opensource), er is een gratis variant van XenServer, maar ook een betaalde variant!
Maar die is er ook van ESXi (5.5 ook ja), waarbij je die gewoon zonder vCenter gratis kan gebruiken (alleen even registeren voor een key).

@TS, je hebt dus geen Trials of iets nodig, zoals justahuman zegt, kan je prima een Debian based Xen installatie gebruiken hiervoor. (ik zou zelf voor iets nieuwers gaan, of voor Debian Testing gaan, je wil in dit soort knutselprojectjes wel ondersteuning hebben voor the-latest-and-greatest hardware....).

Even niets...


  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Als ik dus alle mogenlijk heden samen pak dan zou ik het volgende moeten proberen?

MAX3400: Windows Server 2012 Core met HyperV
Dit heb ik gratis beschikbaar dus dat ik voor mij altijd goed :D

justahuman: Debian met een losse Xen install.
Dit is volgens mij sowieso gratis ?

FireDrunk, ESXi, Want dat is al een host os op zich zelf als ik het goed begrijp ?
Tsurany schreef op vrijdag 12 december 2014 @ 09:04:
Maar het lijkt mij alsnog praktischer om twee aparte systemen te bouwen zeker aangezien je enkel een extra moederbord, behuizing en voeding nodig hebt. Ben je voor ~200 euro klaar zonder gezeik.
Klopt, Maar dan is het hele idee van 1 sjieke kast 4 monitoren en een opgeruimde woonkamer weg xD.
Niet dat een 2de kasje nou het probleem is. Maar dit is wat ik dus wil gaan proberen en waar ik dus nog geen of nauwelijks verstand van heb. Steaming komt ook steeds meer in het nieuws maar daar is nog niks opensource voor... Dus blijf ik steken op 2 VMs op 1 kast en wat ik dus nodig heb aan hostOS als basis.
FireDrunk schreef op vrijdag 12 december 2014 @ 08:29:
Als VT-d passthrough werkt, wint dat van elke andere techniek. Ook van RemoteFX omdat het een Native oplossing is. De GPU is 'echt' van de VM, en wordt niet gevirtualiseerd.
Ben beniewd of het lukt! Ziet er uit als een gave setup!
Ik wacht nog op de CPU coolers.. 8)7 Maar zodra ik het straks draaiend heb zal ik screendumps posten en 3Dmark draaien want heb bij die kaarten 3Dmark keys gekregen :+

[ Voor 23% gewijzigd door Professor_Botje op 12-12-2014 13:13 ]

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dan zou ik gaan voor een oplossing met twee kleine kasten die je makkelijk weg kan werken. Uiteindelijk gaat dit wellicht wel of wellicht niet werken maar gaat het je zoveel tijd en frustratie kosten dat het volgens mij geen aantrekkelijk idee is.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 29-11 16:40

MAX3400

XBL: OctagonQontrol

Tsurany schreef op vrijdag 12 december 2014 @ 13:14:
Dan zou ik gaan voor een oplossing met twee kleine kasten die je makkelijk weg kan werken. Uiteindelijk gaat dit wellicht wel of wellicht niet werken maar gaat het je zoveel tijd en frustratie kosten dat het volgens mij geen aantrekkelijk idee is.
He, waar is het Tweak-gehalte gebleven? Gewoon lekker de grenzen van het mogelijke opzoeken; we kunnen altijd nog naar de Dynabyte lopen voor hun 1337 game-systeem >:) :+

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

MAX3400 schreef op vrijdag 12 december 2014 @ 13:23:
[...]

He, waar is het Tweak-gehalte gebleven? Gewoon lekker de grenzen van het mogelijke opzoeken; we kunnen altijd nog naar de Dynabyte lopen voor hun 1337 game-systeem >:) :+
Tweaken is hardstikke leuk, maar aan het eind van de dag wil ik gewoon gamen op een bak die altijd werkt en waar ik niet aan hoef te knutselen. Tweaken doe ik wel op een extra systeem ;)

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • gekkie
  • Registratie: April 2000
  • Laatst online: 08:50
Ik heb momenteel pci passthrough werkend met een radeon (HD6570) onder Xen (en het werkte ook onder KVM).
Welliswaar naar een linux HVM en niet windows (niet getest).

Maar out of the box werkt het allemaal nog niet (onder Xen heeft de dom0 kernel nog patches nodig om pci device fatsoenlijk te resetten na een shutdown van de Guest, en de guest kernel moet ook niet al te oud zijn aangezien voorheen pci bar met het bios werd geshadowt met whatever er op c000 stond.

Daarnaast zie je pas wat op het scherm als de driver (radeon of fglrx) geladen is (je mist dus een stuk van het boot gebeuren). Buiten dat lijkt het op mijn passief gekoelde kaartje wel (near) native performance op te leveren. En het hele ratteplan werkt .. van dpm opengl tot opencl.

Kortom het kan werken .. alleen niet voor "the faint of heart" en het is WIP :-)

(ps. om nog maar te zwijgen van het gedoe rond vt-d / iommu's en zuigende biossen)

[ Voor 4% gewijzigd door gekkie op 12-12-2014 13:25 ]


  • Arunia
  • Registratie: Februari 2003
  • Laatst online: 12:17
Mijn oplossing zou zijn 2 pc's in 1 kast. Wellicht moet je wat knutselen of bestaan er kasten die dit ondersteunen.

  • Nederlandhc
  • Registratie: Maart 2010
  • Laatst online: 28-11 14:05
Zoiets heb ik ooit ook gezocht.
Mijn vriendin en ik op dezelfde pc aan het gamen.

Er was eigenlijk niks wat echt lekker werkte tot ik het programma SoftXpand probeerde, als eerste de 30 dagen trial gedaan. Hier was het enige mindere dat beide gebruikers elke 60 minuten worden uitgelogd.

Dit bleek echt super te werken op het volgende systeem:
i5 2500k
8GB aan ram
HD6950

Beide konden Skyrim full hd spelen zonder stutter of lag oid.
Daarna gekocht voor nog geen 30 euro toen.

Het was toen wel zo dat je Windows 7 moet draaien. De uitleg op de site is trouwens erg goed.

Mocht je hierna willen kijken is hun site http://www.miniframe.com/

Met vriendelijke groet,

  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
Professor_Botje schreef op vrijdag 12 december 2014 @ 13:11:
justahuman: Debian met een losse Xen install.
Dit is volgens mij sowieso gratis ?
Correct. 2 hvm guests met pcie passthrough zou prima moeten werken.

  • Professor_Botje
  • Registratie: September 2001
  • Laatst online: 22-11 18:28
Nederlandhc schreef op vrijdag 12 december 2014 @ 13:32:
Zoiets heb ik ooit ook gezocht.
Mijn vriendin en ik op dezelfde pc aan het gamen.
Dit bleek echt super te werken op het volgende systeem:
i5 2500k
8GB aan ram
HD6950
Mocht je hierna willen kijken is hun site http://www.miniframe.com/
Met vriendelijke groet,
Dude, Ik las jou post en dacht, uhuu ja. Maar sommige dingen die dom lijken op het eerste gezicht kunnen heel anders uit pakken dus gaf ik je het voordeel van de twijfel 8)
YouTube jou optie op gezocht ->
https://www.youtube.com/watch?v=OEHZ7COohTU

12 jarige kid die precies laat zien wat ik wil in 10 min inc een hoop geklets xD en een 100 dollar pc 8)7
En een lic kost 5 tientjes...

Nu ben ik nog niet overtuigt en zoek toch nog naar een VM oplossing omdat ik dan nog andere zaken zou kunnen vitualiseren maar jou optie ga ik zeker proberen en hier posten wat de fps en input lag is.

Intel 80486 Dx4, 100@158MHz 4x 32Mb EDO FP mem, Quantum Bigfoot 8Gb 3200RPM 256KB/cach VESA-Localbus 2Mb Tseng Labs ET4000 Windows95usb www.Professor-Botje.nl


  • flappje
  • Registratie: Juni 2008
  • Laatst online: 24-11 23:06
oe, klinkt erg leuk dit, ik ben zelf bezig geweest met vsphere (esxi) van vmware en het virtualiseren van een media center (iets van 2 jaar terug).

de config die ik nu werkend heb:
mobo: x8sil-f
cpu: xeon L3770 (weet ik niet meer zeker)
mem: 32GB
video: ATI HD6750
OS host: esxi 5.5
OS guest: windows 7

werkt op dit moment nogsteeds, alleen heeft mijn tv zo nu en dan problemen met mijn geluid over hdmi, maar niks wat een reboot niet verhelpt :)...

echter weet ik dat dit toen ik bezig was alleen kon met ATI/AMD video kaarten, nvidia werkte gewoon niet.
en voor esxi heb je ook nog een apparte pci-usb kaart nodig (in jouw geval 2x) omdat je de onboard usb niet meer door mag zetten naar een vm.


maar die miniframe klinkt wel erg vet :), ben benieuwd wat het doet. en je zou alsnog kunnen virtualiseren met vmware workstation of de building feature van window 8.1

  • Nederlandhc
  • Registratie: Maart 2010
  • Laatst online: 28-11 14:05
SoftXpand heb ik zeker een jaar gebruikt zonder echte problemen.
Qua gamen merkte we ook beide niks als in vertraging oid. Zeker ook goede FPS.

Enige nadeel voor ons was dat we maar 1 Grafische kaart hadden en dan heb je het probleem dat als er 1 een full screen programma afsluit je bij de andere ook minder als 1 sec ff dat zwarte "tussenscherm" krijgt van het switchen.

Hier heb ik toen naar gezocht of dit op te lossen was en dit scheen geen probleem te zijn bij het hebben van 2 aparte kaarten.

Dit kan ik zelf alleen niet bevestigen omdat ik op dat moment het geld niet had voor een 2e kaart en dus gewoon 2 schermen 2 toetsenborden en 2 muizen op 1 pc met 1 videokaart had.

Dit zou je dus zelf even moeten testen.
(Het is ondertussen wel een jaar geleden voor ons en we hebben er ong. een half jaar mee gewerkt tot mn vriendin een eigen kast had).

  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
FireDrunk schreef op vrijdag 12 december 2014 @ 09:58:
Nee, vergis je niet in de terminologie!

Xen is gratis (en opensource), er is een gratis variant van XenServer, maar ook een betaalde variant!
Maar die is er ook van ESXi (5.5 ook ja), waarbij je die gewoon zonder vCenter gratis kan gebruiken (alleen even registeren voor een key).

@TS, je hebt dus geen Trials of iets nodig, zoals justahuman zegt, kan je prima een Debian based Xen installatie gebruiken hiervoor. (ik zou zelf voor iets nieuwers gaan, of voor Debian Testing gaan, je wil in dit soort knutselprojectjes wel ondersteuning hebben voor the-latest-and-greatest hardware....).
Correct, ik zou zelf ook voor xenserver gaan ipv xen+debian. Tevens kies in xenserver boven esxi ivm features die in de standaard variant zitten. (oa live migratie, resource pools. geen memory limit) Het enige verschil tussen de gratis en de betaalde variant van xenserver is eigelijk gewoon support.

Als je voor xenserver gaat zou ik nog wel even wachten. een nieuwe release kan elk uit komen.

  • tellavist
  • Registratie: Februari 2014
  • Laatst online: 22-10 15:17
Even een vraag mijnerzijds, waar haal jij een CSgo spelende vrouw vandaan?! Dat vind ik eerlijk gezegd veel intressanter om te weten, in plaats van of jij 2 pc's in 1 kast kan draaien... :+

Een handtekening?!


  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 29-11 16:40

MAX3400

XBL: OctagonQontrol

tellavist schreef op vrijdag 12 december 2014 @ 15:42:
Even een vraag mijnerzijds, waar haal jij een CSgo spelende vrouw vandaan?! Dat vind ik eerlijk gezegd veel intressanter om te weten, in plaats van of jij 2 pc's in 1 kast kan draaien... :+
Goed zoeken; ik ken ook een vrouw die graag spelletjes als GRID:Autosport, Forza Motorsport en Ghost Recon speelt :P

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • tellavist
  • Registratie: Februari 2014
  • Laatst online: 22-10 15:17
MAX3400 schreef op vrijdag 12 december 2014 @ 16:06:
[...]

Goed zoeken; ik ken ook een vrouw die graag spelletjes als GRID:Autosport, Forza Motorsport en Ghost Recon speelt :P
Wat is haar 06 nummer?! :P ;)

Een handtekening?!


  • Killah_Priest
  • Registratie: Augustus 2001
  • Laatst online: 12:14
MAX3400 schreef op vrijdag 12 december 2014 @ 08:21:
Even knuppel in het hoenderhok; Windows 8.1 kan ook worden ingezet voor Hyper-V en als je maar 2 machines wil virtualiseren, lijkt me dit een "logischer" oplossing? Of je test/probeert Server 2012 Core met Hyper-V role; qua resources kost het je minder dan je in je startpost (niet) beargumenteert.

RemoteFX en de nieuwste RDP-versies, geven een "betere" performance op grafisch gebied dan XenServer en voor zover ik me kan herinneren (maar ik zit niet volledig in de virtuele GPU-wereld), kan je 1 fysieke GPU verdelen over meerdere VM's.
RemoteFX werkend krijgen voor 3D accelleratie gaat niet zo 123 lukken, je moet namelijk de RD virtualization host rol eerst aanzetten (welke dus alleen in Standard / Datacenter edities van 2012 en R2 zitten), vervolgens MOET je Windows 8 / 8.1 enterprise gebruiken (anders geen remoteFX support).
Ik ben zelf in het "testlab" op mijn werk ook nog even bezig geweest om remoteFX goed werkend te krijgen en fine te tunen.

  • gekkie
  • Registratie: April 2000
  • Laatst online: 08:50
justahuman schreef op vrijdag 12 december 2014 @ 15:34:
[...]
Correct, ik zou zelf ook voor xenserver gaan ipv xen+debian. Tevens kies in xenserver boven esxi ivm features die in de standaard variant zitten. (oa live migratie, resource pools. geen memory limit) Het enige verschil tussen de gratis en de betaalde variant van xenserver is eigelijk gewoon support.

Als je voor xenserver gaat zou ik nog wel even wachten. een nieuwe release kan elk uit komen.
Hmm ik zou juist voor linux distro + xen gaan .. uitermate flexibel .. en je kunt er als je wilt makkelijk xen-unstable draaien (die aardig stabiel is .. uberhaupt, maar momenteel helemaal nu met de freeze voor 4.5)

  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
gekkie schreef op vrijdag 12 december 2014 @ 16:22:
[...]

Hmm ik zou juist voor linux distro + xen gaan .. uitermate flexibel .. en je kunt er als je wilt makkelijk xen-unstable draaien (die aardig stabiel is .. uberhaupt, maar momenteel helemaal nu met de freeze voor 4.5)
Het is idd flexibel, maar ik heb geen idee hoe ervaren TS is met linux beheer/ xen setups. In dat geval is xenserver icm de citrix beheer tool juist erg prettig.

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 29-11 16:40

MAX3400

XBL: OctagonQontrol

Het nadeel van Xen, en dan voornamelijk VDI's, vind ik dat je best wel diepgaand kan/mag/moet tunen wil je een beetje acceptabele performance krijgen. Zo heb ik hier een paar whitepapers liggen *confidential* waarin we bepaalde settings omtrent dom0 aanpassen alsook HKLM-registry voor de guests.

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • gekkie
  • Registratie: April 2000
  • Laatst online: 08:50
justahuman schreef op vrijdag 12 december 2014 @ 16:28:
[...]
Het is idd flexibel, maar ik heb geen idee hoe ervaren TS is met linux beheer/ xen setups. In dat geval is xenserver icm de citrix beheer tool juist erg prettig.
Hmm dan is vga passthrough ook al gauw een stap te ver vrees ik :)

Ach cli (xl) icm met .cfg files werkt prima .. geen ingewikkelde beheerstools nodig :p

Zo even een nieuwe xen gebouwd .. op de server met 3 graka's ..
Nu xbmc met hardware accelerated video (tears of steel) in de ene VM met de radeon driver ...
en wat opencl rekenmeuk headless in een andere VM met de fglrx ... naast alle andere dingen die die machine nog mag doen :)

Het kan dus wel :9

[ Voor 26% gewijzigd door gekkie op 12-12-2014 16:54 ]


  • Web-Brielle
  • Registratie: Februari 2011
  • Niet online
tellavist schreef op vrijdag 12 december 2014 @ 15:42:
Even een vraag mijnerzijds, waar haal jij een CSgo spelende vrouw vandaan?! Dat vind ik eerlijk gezegd veel intressanter om te weten, in plaats van of jij 2 pc's in 1 kast kan draaien... :+
M'n zusje is verslaafd aan CoD :P
Zo ook d'r vriend van nu ontmoet, het kan dus wel 8)7

2x BambuLab H2C 3D Printer - Omtech 60w Co2 Laser - Cloudray 30w Fiber Laser


  • Brodo
  • Registratie: Maart 2010
  • Niet online
Heb je er al aan gedacht om 1 grote case te kopen en er 2 mini-atx systemen in te bouwen?

Airflow e.d. goed genoeg houden zal misschien een uitdaging zijn(het passen van 2 systemen in 1 kast ook maar het zou goed mogelijk moeten zijn met eventueel wat gemod(HDD cages verplaatsen, stuk uit het interieur van de kast snijden o.i.d.)

  • Spekkie88
  • Registratie: Februari 2006
  • Laatst online: 29-11 22:53
Zelf ben ik ook langere tijd bezig geweest met een dergelijke opdeling van mijn gamePC...
Mijn bevindingen:
- Xenserver + nvidia = no go voor Maxwell dankzij de nVidia driver whitelist die voorkomt dat er geen andere kaarten dan quadro gebruikt kunnen worden in een virtuele omgeving. Voor de 600 en 700 serie is er een hardmod en voor de 400 serie een softmod beschikbaar waardoor de kaarten HERKEND! worden als een quadro en daarmee ineens wel prima werken.
- Onlangs is er een doorbraak op basis van KVM en vfio, maar naar mijn bevindingen nog behoorlijk instabiel...

Beste combinatie tot nu toe is xenserver (Creedence RC) + AMD of gemodde nVidia.
Met jouw huidige config is optie 2 echter de enige mogelijkheid zonder extra aankopen.

FX8350 @4.8 GHz
i7 4930K @4.5 GHz


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
Spekkie88 schreef op vrijdag 12 december 2014 @ 19:21:
Zelf ben ik ook langere tijd bezig geweest met een dergelijke opdeling van mijn gamePC...
Mijn bevindingen:
- Xenserver + nvidia = no go voor Maxwell dankzij de nVidia driver whitelist die voorkomt dat er geen andere kaarten dan quadro gebruikt kunnen worden in een virtuele omgeving. Voor de 600 en 700 serie is er een hardmod en voor de 400 serie een softmod beschikbaar waardoor de kaarten HERKEND! worden als een quadro en daarmee ineens wel prima werken.
- Onlangs is er een doorbraak op basis van KVM en vfio, maar naar mijn bevindingen nog behoorlijk instabiel...

Beste combinatie tot nu toe is xenserver (Creedence RC) + AMD of gemodde nVidia.
Met jouw huidige config is optie 2 echter de enige mogelijkheid zonder extra aankopen.
Heb je dit ook getest met pcie passtrough ipv vgpu ?

  • Spekkie88
  • Registratie: Februari 2006
  • Laatst online: 29-11 22:53
justahuman schreef op vrijdag 12 december 2014 @ 19:37:
[...]


Heb je dit ook getest met pcie passtrough ipv vgpu ?
Met xenserver gebruik ik alleen maar pcie passthrough in de config files en niet de vgpu optie in xencenter oid. Maar ook dat mag niet baten voor nVidia kaarten...

FX8350 @4.8 GHz
i7 4930K @4.5 GHz


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
Spekkie88 schreef op vrijdag 12 december 2014 @ 19:45:
[...]

Met xenserver gebruik ik alleen maar pcie passthrough in de config files en niet de vgpu optie in xencenter oid. Maar ook dat mag niet baten voor nVidia kaarten...
Appart, gezien een vt-d pastrough geheel transparant is voor de kaart. Was dit met vt-d/IOMMU of zonder ?

  • Petervanakelyen
  • Registratie: December 2006
  • Laatst online: 30-04 12:52
SoftXpand is the way to go. Heb het hier zelf ook al draaiend gehad en het werkt prima. Wordt ook gebruikt in scholen bijvoorbeeld, om meerdere gebruikers op één fysieke desktop te laten werken.

Somewhere in Texas there's a village missing its idiot.


  • Spekkie88
  • Registratie: Februari 2006
  • Laatst online: 29-11 22:53
justahuman schreef op vrijdag 12 december 2014 @ 19:48:
[...]


Appart, gezien een vt-d pastrough geheel transparant is voor de kaart. Was dit met vt-d/IOMMU of zonder ?
Met iommu anders werkt het helemaal niet. Het ligt ook niet aan de kaart, maar is puur een driver/software limitatie van nVidia... De drivers herkennen dat het os gevirtualiseerd wordt en weigert daarom de kaart te starten als deze niet op de whitelist staat, ondanks dat de kaart er technisch prima toe in staat is...

FX8350 @4.8 GHz
i7 4930K @4.5 GHz


  • gekkie
  • Registratie: April 2000
  • Laatst online: 08:50
justahuman schreef op vrijdag 12 december 2014 @ 19:48:
[...]
Appart, gezien een vt-d pastrough geheel transparant is voor de kaart. Was dit met vt-d/IOMMU of zonder ?
Met grafische kaarten kom je vaak nog wat additionele problemen tegen met:
- Ondersteuning van legacy vga (nodig tijdens early bootup van je guest)
- Graka's halen nog wel eens wat niet standaard trucjes uit

(zie je bijvb helemaal bij intel IGD's .. die hangen in de hardware en drivers vol van de assumpties aangezien ze vast in een platform gebakken zijn. maar als je ze dan aan een guest assigned dan matcht dat allemaal niet meer .. en *poef*)

Met KVM en vfio-pci werkte het prima ook met legacy vga ondersteuning, alleen moest ik toen geloof ik nog wel gedumpte vgabios vanuit een file laten laden.
Onder Xen heb ik legacy vga nog niet werkend, maar als ik het assign naast de geemuleerde kaart dan werkt het prima (met qemu-xen + recente kenel + wat extra nog niet gecommite patches)

Maar dat is allemaal wel met 2 Radeon's ja.

Is xenserver nog qemu-traditional of al over op qemu-xen ?

[ Voor 24% gewijzigd door gekkie op 12-12-2014 20:21 ]


  • maikoool
  • Registratie: Juli 2009
  • Laatst online: 10:33
Ik draai zelf ook CS:GO in een vm, dat gaat prima :)
Doe dit met libvirt&qemu-kvm, beiden open source linux pakketten. Er is inderdaad wat CPU loss, en je hebt drivers nodig in Windows voor virtio devices (netwerk, disk). Deze zijn optineel maar bieden wel performancewinst.

Je hebt inderdaad wel VT-d hardware support nodig, of het AMD equavilent.

Je kan meer vinden hierover op de volgende plekken:

Known working hardware list (Google drive spreadsheet)

Het vga-passtrough Arch Linux forumtopic (kan ook werken op andere distros, is enigzins outdated)

En de vfio blogspot pagina. Hier bloggen wat developers van libvirt die ook met vga-passtrough bezig zijn. Een van dat team is ook de auteur van meerdere patches die in de Arch forum post staan.

Also: In deze YouTube video, wordt verteld wat de huidige staat is van dit hele gebeuren en de issues die deze developer onderweg is tegengekomen.

(PS: dat hele vga gebeuren is ondertussen met UEFI bijna opgelost. Je kan een UEFI compabile GPU bios (indien nodig) laten inladen, dus je hoeft je kaart niet eens te flashen.)

[ Voor 7% gewijzigd door maikoool op 12-12-2014 23:26 ]


  • justahuman
  • Registratie: Maart 2011
  • Laatst online: 12:21
gekkie schreef op vrijdag 12 december 2014 @ 20:16:
[...]

Met grafische kaarten kom je vaak nog wat additionele problemen tegen met:
- Ondersteuning van legacy vga (nodig tijdens early bootup van je guest)
- Graka's halen nog wel eens wat niet standaard trucjes uit

(zie je bijvb helemaal bij intel IGD's .. die hangen in de hardware en drivers vol van de assumpties aangezien ze vast in een platform gebakken zijn. maar als je ze dan aan een guest assigned dan matcht dat allemaal niet meer .. en *poef*)

Met KVM en vfio-pci werkte het prima ook met legacy vga ondersteuning, alleen moest ik toen geloof ik nog wel gedumpte vgabios vanuit een file laten laden.
Onder Xen heb ik legacy vga nog niet werkend, maar als ik het assign naast de geemuleerde kaart dan werkt het prima (met qemu-xen + recente kenel + wat extra nog niet gecommite patches)

Maar dat is allemaal wel met 2 Radeon's ja.

Is xenserver nog qemu-traditional of al over op qemu-xen ?
huidige xenserver (6.2) is nog xen 4.1 dus zal nog wel traditional doen. 6.5 die bijna uitkomt is moderne qumu want xen 4.3

  • ljsquare
  • Registratie: April 2006
  • Laatst online: 29-11 20:48
Ik zat hier aan te denken, ooit in een grijs verleden mee geëxperimenteerd.
http://en.m.wikipedia.org/wiki/Multiseat_configuration

Laurens-Jan Merkx


  • M2M
  • Registratie: Juli 2006
  • Laatst online: 28-11 12:09

M2M

medicijnman

Dus als ik het goed begrijp; aan het eind van de dag komt het allemaal neer op 1 ding. Kan ik mijn PCI-E slot passthrough-en richting de virtual machine of niet.

Ik ben zelf dan wel benieuwd (mocht het lukken) naar zaken als input lag en stabiliteit.

-_-


  • gekkie
  • Registratie: April 2000
  • Laatst online: 08:50
justahuman schreef op zondag 14 december 2014 @ 00:55:
[...]
huidige xenserver (6.2) is nog xen 4.1 dus zal nog wel traditional doen. 6.5 die bijna uitkomt is moderne qumu want xen 4.3
Mwah qemu-traditional zit nog steeds in xen 4.5 die bijna uit is, met 4.3 op qemu-xen over denk ik dat er een hoop niet zal werken .. of dat moeten ze gebackport hebben of iets dergelijks.
M2M schreef op zondag 14 december 2014 @ 01:23:
Dus als ik het goed begrijp; aan het eind van de dag komt het allemaal neer op 1 ding. Kan ik mijn PCI-E slot passthrough-en richting de virtual machine of niet.

Ik ben zelf dan wel benieuwd (mocht het lukken) naar zaken als input lag en stabiliteit.
De lag en stabiliteit zullen niet zo zeer een probleem van de passthrough, maar meer van virtualisatie (aandachtspunten) in het algemeen .. contention/scheduler en (disk/net) i/o.

[ Voor 38% gewijzigd door gekkie op 14-12-2014 11:47 ]


  • maikoool
  • Registratie: Juli 2009
  • Laatst online: 10:33
M2M schreef op zondag 14 december 2014 @ 01:23:
Dus als ik het goed begrijp; aan het eind van de dag komt het allemaal neer op 1 ding. Kan ik mijn PCI-E slot passthrough-en richting de virtual machine of niet.
Ja, en dat heet dus VT-d bij Intel en IOMMU bij AMD. Je processor en moederbord moeten het beiden ondersteunen.
M2M schreef op zondag 14 december 2014 @ 01:23:
Ik ben zelf dan wel benieuwd (mocht het lukken) naar zaken als input lag en stabiliteit.
Input lag heb ik zelf nog geen last van gehad, je kan gewoon usb-devices naar je VM forwarden of een extra usb pci-e controller kopen en die passtroughen. Als je twee onboard usb controllers hebt kan je ook een daarvan passtroughen. Er zijn soms wel wat issues met draadloze headsets over usb, wat inderdaad wel zou kunnen duiden op inputlag.

Ik en een paar vrienden draaien het al een tijdje, het is soms tricky op te zetten maar als het eenmaal werkt (en je niet aan je VM config gaat lopen kloten) draait het gewoon stabiel. Zie ook de youtube video die ik eerder linkte.
Pagina: 1