Ubuntu en windows op zelfde machine

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • nielskool
  • Registratie: Juli 2012
  • Laatst online: 18-09 12:43
Hoi allen

Ik wil een server draaien die zowel Ubuntu als Windows heeft draaien. Windows als een VM die remote toegankelijk moet zijn. De Ubuntu zal altijd aan moeten staan om bepaalde services te draaien(webhosting, cloud management). Op de Ubuntu zal af en toe ook een game gerendered/gestreamd worden, die ik vervolgens dan op mijn laptop speel.

Voor de services op de Ubuntu wil ik graag dat er een SLOG van 2x 16GB Optane gebruikt wordt.

Er is 1 GPU aanwezig, deze zal enkel geruikt worden door Ubuntu voor game rendering en wat encoding/decoding van video.

Mijn vraag:
Wat moet ik gebruiken als basis laag? Is dat een Ubuntu die dan een windows VM ondersteund of is er een andere mogelijkheid wat beter is voor de resource allocation. Misschien ook iets zodat alles profijt heeft van de SLOG.
Eventueel wil ik in de toekomst meerdere Windows VMs draaien.


Server setup:
CPU: Ryzen 5 3600
Mobo: MSI X570 GODLIKE
RAM: 128GB
GPU: Geforce GTX 760
Opslag: 2x Intel Optane M10 16GB, 1x Samsung 970 Evo Plus 500GB, 3x 3TB hdd

P.S.
Het is voor prive/hobby gebruik.

//edit
Is het draaien van een VMware ESXi met 3 VMs beter dan twee Windows VMs op Ubuntu?
Kan via ESXi die 2 optanes net zo gebruikt worden als een ZIL SLOG, dit is nodig voor de sync database writes van cloud management. Het geheugen moet/mag gebruikt worden als cache(ARC).

//edit2
Ik zit nu te denken om een VMware ESXi te doen met een ubuntu die de 2x optane gebruikt als ZFS ZIL SLOG. In LINK is er wel een performance penalty van > 50% voor kleine writes...

[ Voor 22% gewijzigd door nielskool op 13-06-2020 03:12 ]

Alle reacties


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

ZFS is in userland, zover ik weet .. dat maakt performance niet beter, sterker nog je wint niks. zeker met huidige SSD's ..

Waarom vmware ? je kan ook KVM doen, eventueel HW passthrough voor de GPU

Met een SSD (NVME) 512GB kan je ook goed uit de voeten als storage voor beide OS-en ..

ik heb het jaren terug gebouwd Xen op freebsd als Domain 0 (host) + vga,usb,sound
ps doel was toen ZFS + BSD, het werd echter Debian zonder ZFS

- 1 GPU per OS (goedkope voor bv je Linux host)
je kan switchen tussen GPU A en B .. voor je VM/OS (waar op je wilt gamen)
- ram/netwerk kaart,CPU moest fysiek gekoppeld aan de VM om passthrough goed te laten werken
- AMD had toen een issue..

Overige VM's los draaien is nog steeds een optie.

Als je ZFS ofzo wilt doen, zou ik een aparte machine doen (DIY NAS)

[ Voor 7% gewijzigd door vso op 13-06-2020 03:55 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • nielskool
  • Registratie: Juli 2012
  • Laatst online: 18-09 12:43
Thanks voor je antwoord.

ZFS had ik vooral in gedachten vanwege de Optanes als SLOG. Die heeft PLP, en is sneller voor de vele writes van database files.

De GPU zal altijd beschikbaar moeten zijn voor de ubuntu voor encoding/decoding/transcoding van video. Eventueel via passthrough.

Windows machine zal geen grafische dingen hoeven doen. En geen GPU nodig hebben denk ik.

Ik heb even zitten kijken naar KVM wat je noemde. https://forum.level1techs...hine-performance/110192/4
KVM laat ook best goede performances zien daar.

Inderdaad leek mij een NVME van 512GB genoeg om de OS-en op te zetten.

//edit
Leuke lees van jouw project.

https://www.ixsystems.com...hy-is-iscsi-faster.12506/
Hier komen ze toch wel tot de conclussie dat een SLOG de performance van een ESXi systeem best kan versnellen. ESXi schreef alles als een sync write. Echter is dit topic alweer van een paar jaar geleden en weet ik niet hoe relevant dat nog is.

[ Voor 23% gewijzigd door nielskool op 13-06-2020 05:29 ]


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

@nielskool Doe jezelf een lol, zoek uit hoe je "test' en welke zaken je wilt monitoren. Hoe je je deze zaken kan tunen ..

ik zou me afvragen of je zoveel speed / kracht echt nodig hebt .. beetje vergelijkbaar met een F1 wagen naar de super markt en boodschappen doen .. voegt weinig toe.
Let op, dat het kan is zeker geen reden om het niet te doen, altijd prettig snelheid te hebben..

Mijn usecase was redelijk uniek, erg leerzaam maar het heeft 1 a 2 jaar gedraaid voordat ik besloot alles weer te splitsen naar fysieke machines.

De limiterende factor op dit moment is je moederbord, (hoe Ram, CPU en HD samenwerken) .. focus je in dit geval op genoeg ram voor de host (lees vm's) cpu en HD zijn niet relevant.

Je database valt min of meer onder dezelfde categorie als een VM, (ram + HD)

Als ZFS in userland(linux) beter / goed genoeg presteerd dan onder een BSD tja waarom niet ?

ZFS/Iscsi is meer voor "remote" en je netwerk is dan de vertragende factor .. zeker met de huidige HD tech omdat lokaal goedkoop genoeg is net zoals een NVME disk in een raid stripe te draaien meer read/write performance kost dan dat het oplevert..

houd een buildlog bij :)

Tja vanalles


Acties:
  • +1 Henk 'm!

  • nielskool
  • Registratie: Juli 2012
  • Laatst online: 18-09 12:43
Ik was eerst ook helemaal niet van plan zoveel kracht/speed in de pc te stoppen. Ben meer per toeval aan het mobo+ram gekomen.

Heb zelf Nextcloud op een oude server draaien als Dropbox alternatief. Echter zijn de sync writes killing! dat maakt het syncen echt ondraagelijk. Heb op dit moment zelf zo'n 100GB aan cloud data erop. dat zijn 1 miljoen files. Nextcloud maakt er met de encryption en alles al 4.4M files van. Database bestand daarvan is erg langzaam, elk bestand wat hij doerzoekt of update of doet wordt bijna een sync write gedaan. De NVME zal daar al een grote performance boost op halen ten opzichte van een normale hdd. Maar als ik dat dan ook nog kan versnellen door ZIL te gebruiken op een PLP NVME, kan dat de sync writes aanzienlijk versnellen nog. Gewoon lezen van DB zal via ram gebeuren.

Familie leden zullen ook een een account krijgen op de nextcloud.

Draai ook een paar game servers erop voor vrienden(modded minecraft/factorio/ of wat net maar gedaan wordt)

Dus ja zeker beetje overkill, maar wil wel het beste eruit halen. dus waarom niet gewoon gelijk goed systeem van maken software technisch ook.
Het systeem zit aan een 200/200 glas verbinding. En de VMs zullen voor remote gebruikt worden. En wil ook kijken of er wat shares via NFS gedeeld kunnen worden. Ook dan is het weer handig dat de sync writes goed gaan.

Het betrefende mobo biedt mij de mogelijkheid om de NVMEs op de juiste pcie lanes te krijgen. Er zou genoeg bandwidth moeten zijn(tussen chipset en cpu) voor de de optanes(mirrored) en de overige sata poorten.

Buildlog is wel handig ja. Bedankt voor je input weer.