Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

Het grote thuis-virtualisatie topic

Pagina: 1 ... 4 5 6 Laatste
Acties:

  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 20:56

Compizfox

I use Arch, btw

quote:
CurlyMo schreef op donderdag 18 augustus 2016 @ 21:19:
[...]

Nee, maar ik ging er vanuit dat dit alleen nodig is voor drivers niet voor performance.
De VMware tools (of open-vm-tools) zijn o.a. voor ballooning, paravirtualisation drivers (vmxnet3, pvscsi), graceful shutdown, clock sync, filesystem quiescing (voor snapshots). Wel handig om te hebben dus.

There is no system but GNU and Linux is one of its kernels


  • goarilla
  • Registratie: oktober 2012
  • Laatst online: 20-11 02:31

code:
1
iostat -h -x -w 1

Kijk naar svc_t en %b.
%b kan je wat vergelijken met wait, een percentage dat uitdrukt
hoeveel tijd er gewacht moet worden op data.

Terwijl svc_t een beetje het omgekeerde is: de hoeveelheid tijd een transactie inneemt
om te eindigen.

  • ppl
  • Registratie: juni 2001
  • Niet online
quote:
CurlyMo schreef op donderdag 18 augustus 2016 @ 21:19:
Nee, maar ik ging er vanuit dat dit alleen nodig is voor drivers niet voor performance.
Les nr 1 bij virtualisatie: die guest tools zijn absoluut niet alleen drivers. Ze zijn noodzakelijk voor een goede werking en ook goede performance van je vm. Als je ze kunt installeren dan ook altijd installeren. In dit geval kun je er voor kiezen om ofwel de officiële VMware Tools te installeren ofwel de (officiële) open source variant (open-vm-tools). Ik heb met de laatste betere ervaringen wat betreft UNIX/Linux systemen zoals FreeBSD., werkt net even wat sneller en stabieler.
quote:
Het gaat hier onder andere over cross-compilen, dus dat is vrij zeker GCC :) GCC werd in FreeBSD zelf vervangen door CLANG.
Dat bedoelde ik ook eigenlijk. Ze zijn naar LLVM/CLANG gestapt, iets wat wel meer doen maar niet iedereen. Daarom is het wel zo handig om dat ook even na te gaan. Check dan ook vooral je make instellingen want niet iedereen heeft ingesteld staan dat je alle threads die mogelijk zijn kunt gebruiken.

  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

quote:
goarilla schreef op vrijdag 19 augustus 2016 @ 12:11:
code:
1
iostat -h -x -w 1

Kijk naar svc_t en %b.
%b kan je wat vergelijken met wait, een percentage dat uitdrukt
hoeveel tijd er gewacht moet worden op data.

Terwijl svc_t een beetje het omgekeerde is: de hoeveelheid tijd een transactie inneemt
om te eindigen.

code:
1
2
3
4
5
6
extended device statistics
device     r/s   w/s    kr/s    kw/s qlen svc_t  %b
da0        0.0   0.0     0.0     0.0    0   0.0   0
cd0        0.0   0.0     0.0     0.0    0   0.0   0
pass0      0.0   0.0     0.0     0.0    0   0.0   0
pass1      0.0   0.0     0.0     0.0    0   0.0   0

Niks te zien hier. Let wel dat de data op een andere VM staat en via NFS wordt gedeeld.

Ondertussen ook open-vm-tools geïnstalleerd, maar de traagheid t.o.v. Ubuntu blijft.

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
NFS mount al async gedaan?

Even niets...


  • goarilla
  • Registratie: oktober 2012
  • Laatst online: 20-11 02:31
quote:
CurlyMo schreef op zaterdag 20 augustus 2016 @ 14:59:

Niks te zien hier. Let wel dat de data op een andere VM staat en via NFS wordt gedeeld.
Aah OK sorry, dan ben ik niet echt bij de les. Maar zoals FireDrunk al aanwijst misschien gebruikt
FreeBSD nog NFS3 en moet je dat misschien wat tunen (async, buffers tweaken en misschien proto=udp).
Network utilities en nfstat kunnen je hierbij helpen.

  • foxgamer2019
  • Registratie: februari 2009
  • Niet online
Deze week wederom aan de slag geweest met QEMU (+ KVM) voor het testen van Windows 10 op een i5-6400 Skylake systeem met Arch op de laatste kernel.

Prestaties vallen nog tegen, weet niet of het de HDD (WD Black SATA3) is, een mount met barrier=0 lost het id.g.v. niet op.
Verder maak ik gebruik van QXL en Spice en nog wat tweaks hier en daar.

Mijn vermoeden gaat uit naar de GPU, aangezien Windows 10 daarin al wat meer op leunt dan zijn voortganger(s). Nu heb ik alleen geen ruimte meer voor het bijplaatsen van een GPU om deze toe te kennen aan de VM. Naam aan dat ik niet de interne Intel HD kan gebruiken? Zijn er andere mogelijkheden? :)

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Zit je via RDP op de bak, of kijk je via Spice? Want RDP is vele malen sneller dan een lokaal spice window.
GPU offloading naar die QXL zou ook juist vertragend kunnen werken, omdat die QXL videokaart volgens mij een 'fake' 3D kaart is die software rendering doet. Ik weet niet of er al een goede implementatie is van een vGPU die daadwerkelijk calls doorgeeft aan de lokale GPU (zoals VMware hem wel heeft).

Even niets...


  • rolfkunst
  • Registratie: mei 2007
  • Laatst online: 10-11 17:23
Beste mensen,
Ik weet niet of ik hier goed zit met mijn vraag, maar ik zou niet weten waar ik hem anders zou kunnen plaatsen.

Ik zit met het volgende probleem, maar ik ga eerst even wat voorgeschiedenis vertellen.

Ik ben sinds anderhalf jaar de trotse eigenaar van een Asrock rack c2550d4i. Deze wordt perfect door esxi 5.5 ondersteund. 16GB ram erin, sas controllertje van LSI erbij en 2x 1TB schijven in raid 1.

Dat heeft altijd zonder problemen gedraaid, tot 1 maand terug. Ik controleerde mijn mail die ochtend rond 10:30 en zag dat mijn telefoon de mail al sinds 7:00 uur niet meer had bijgewerkt. Een probleem dus. Nu heb ik een monitor in de meterkast hangen en toevallig was mijn vrouw ook nog thuis, dus ik bel haar op en vraag of ze de monitor even wil aanzetten, dat wilde ze wel even doen. Even later hoor ik een "Oohh, wat een mooie kleur!!" Ik wist meteen dat het mis was, een psod. Maar geen paniek, ik uitleggen dat ze de server even uit en aan moet zetten en de vm's worden vanzelf wel weer opgestart in de juiste volgorde met wat tussenpauze.

Na ca 30 minuten, nog altijd geen mail, maar nog altijd geen paniek, hij is niet de meest snelle server, dus we hebben nog even geduld. Na 1 uur nog altijd niets, nu begin ik me toch wat zorgen te maken. Nog maar even weer bellen met de vrouw, "no signal" geeft het scherm aan, zegt ze. Nu begin ik me nog meer zorgen te maken, "hij staat echt aan?" vraag ik nog. Ja, ik zie een blauw lampje voorop de kast, hij staat echt aan dus.

Ik heb het er voor die werkdag eerst maar bij gelaten en 's avonds gekeken wat er aan mankeert. Om een kort verhaal lang te maken, het bordje was echt helemaal dood. Alleen de ilo werkte nog naar behoren.

Daarom het bordje maar opgestuurd, ik had toch nog garantie. Binnen 2 weken krijgt 90% zijn product gerepareerd terug, mocht dat niet zo zijn dan krijg je binnen 3 weken een oplossing aangeboden, geld terug of een vervangend product.

Na een dag of 3 bevestiging dat het pakketje was aangekomen, en na 2 dagen de mail dat ze hem toch doorsturen naar een externe partij.
Na ca 4 weken kreeg ik precies dezelfde mail opnieuw, dus dat hij weer was doorgestuurd naar een externe partij. Nu begon ik me toch weer zorgen te maken. Daarom maar even gebeld, dit was inderdaad niet de bedoeling, en ik krijg zsm bericht dat ik de keuze krijg voor een vervangend product of erop te wachten. Die heb ik inderdaad gehad.

Ondertussen waren we ook op vakantie gegaan, en waar heb je dan tijd voor, om even na te denken of de huidige situatie nog aansluit bij mij mijn wensen en interesses. Na veel wikken en wegen blijkt dat dus niet meer zo te zijn. Ik heb inmiddels 2 kinderen, en die vreten tijd, dus om 's avonds of in het weekend lekker te prutsen aan mijn servertje, is er niet echt meer bij. Dus daarom toch maar gekozen voor geld terug. Daarvoor wil ik wel een nieuw bordje kopen, ook weer met veel geheugen en iets dergelijks, maar esx heb ik niet meer nodig, wel wil ik iets waarmee ik fatsoenlijk kan transcoden, want de 2550 doet dat gewoonweg niet!

Dus, waar komt het op neer, ik heb geen backup (jep, slecht, is ook maar voor mezelf)
En dan nu de vraag: Is er een mogelijkheid om van de disken de vmdk's te exporteren naar Windows zodat ik ze via vmware workstation nog een keer kan starten zodat ik alle benodigde info eraf kan halen?

Wat heb ik al geprobeerd: een vmfsdriver voor windows, zo'n java tooltje waarmee je de schijf via webdav kunt mounten, niet gelukt, hij geeft aan dat er geen esx installatie op de schijf aanwezig is.
VMWare workstation geïnstalleerd en daarop esx geïnstalleerd en daarna de fysieke schijf gekoppeld, ook geen succes.

rolfkunst wijzigde deze reactie 22-08-2016 12:38 (4%)


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Oftewel TL;DR: Hoe krijg je de VMDK's van de schijven (om andere users het lezen van je lange verhaal te besparen).

ThinkPad wijzigde deze reactie 22-08-2016 12:40 (13%)

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

En nog los van de mogelijke oplossing. Maak ook een backup van je datastore zelf. Dat is op zich niet moeilijk op te zetten met rsync en ssh keys (zo heb ik het tenminste gedaan).

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Daar is https://github.com/lamw/ghettoVCB voor :)

Je kan met Workstation ook daadwerkelijk connecten naar een ESXi machine. Je kan je installatie gewoon booten op een andere bak, waarna je er naar kan connecten.

Ook kan je de disk in een Linux PC (of dmv een Bootable Linux ISO) uitlezen mits je de vmfs fuse driver even installeert. Dan heb je readonly toegang tot je datastore, en kan je de VMDK's er af halen.

Even niets...


  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

Ik vind zelf rsync handiger, dat scheelt weer aanvullende programma's.

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Met rsync kun je geen VMDK's kopiëren die in gebruik zijn toch? Met ghettoVCB gaat het automatisch, die maakt een snapshot om van een draaiende VM een backup te kunnen maken en verwijderd naderhand de backup weer.

Ik laat het naar een NFS-share op m'n NAS pompen.

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

Dat is precies wat ik ook doe. Via ssh een snapshot maken, rsync, snapshot verwijderen. Vrij simpele commando's.

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Tja, ghettoVCB kan ook wat compressie doen enzo. Het is net wat meer dan standaard rsync, maar als je goed kan scripten (zoals jij :+ ) is het goed te doen :)

Even niets...


  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

Ik zal later de commando's wel even plaatsen met een toelichting van hoe ik het geheel qua backup draai.

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • larshack
  • Registratie: maart 2007
  • Laatst online: 21-11 23:31

larshack

Zonder melk en suiker

Hierbij mijn setup.
Hypervisor
Als basis voor mijn homelab heb ik gekozen voor Hyper-V. Ik heb via school licenties voor Microsoft Windows Server 2012 R2 Datacenter en kan op deze manier "gratis" gebruikmaken van Windows Server.
Via AVMA worden alle VM's met Windows Server 2012 R2 Datacenter en Standard automatisch geactiveerd.


Hardware
#ProductPrijsSubtotaal
1Intel Xeon E5-2603 v3 Boxed€ 229,20€ 229,20
1Supermicro X10SRI-F€ 304,50€ 304,50
1Samsung HD204UI, 2TB€ 0,-€ 0,-
1Seagate Spinpoint M8 ST1000LM024, 1TB€ 53,95€ 53,95
1WD Green HDD, 3TB€ 97,63€ 97,63
2WD Green HDD, 4TB€ 145,90€ 291,80
1WD Green SATA 3 Gb/s WD15EARS, 1,5TB€ 0,-€ 0,-
4WD Red SATA 6 Gb/s WD10EFRX, 1TB€ 61,84€ 247,36
1Fractal Design Define R5 Titanium€ 106,-€ 106,-
6Kingston ValueRAM KVR21R15D4/16€ 83,01€ 498,06
1Dell PERC 6/i met BBU€ 147,69€ 147,69
1Seasonic S12II-Bronze 520W€ 52,95€ 52,95
1Crucial BX100 120GB€ 62,99€ 62,99
1Samsung 850 EVO 250GB€ 94,46€ 94,46
1APC Back-UPS Pro 550 VA€ 120,-€ 120,-
Bekijk collectie
Importeer producten
Totaal€ 2.306,59


De gehele setup verbruikt volgens APC PowerChute ongeveer 100 Watt.


Virtuele machines
OS/ApplianceFunctie
Windows Server 2012 R2 Datacenter Domain controller, DHCP en PKI
Windows Server 2012 R2 Datacenter Domain controller en PKI
Windows Server 2012 R2 Datacenter Domain controller
Windows Server 2012 R2 Datacenter Exchange 2016 Mailbox Server
Windows Server 2012 R2 Datacenter Exchange 2016 Mailbox Server
Windows Server 2012 R2 Datacenter Exchange 2016 Edge Transport Server
Windows Server 2012 R2 Datacenter Plex server
Windows Server 2012 R2 Datacenter SABNZBD, Couchpotato en NZBDrone
Windows Server 2012 R2 Datacenter Microsoft SQL Server 2012
Windows Server 2012 R2 Datacenter MySQL server
Windows Server 2012 R2 Datacenter Microsoft System Center Configuration Manager 2012 R2
Windows Server 2012 R2 Datacenter Microsoft System Center Virtual Machine Manager 2012 R2
Windows Server 2012 R2 Datacenter Microsoft Azure pack
Windows Server 2012 R2 Datacenter Web server (IIS)
Windows Server 2012 R2 Datacenter Web Application Proxy voor DirectAccess en HTTPS proxyserver
Windows Server 2012 R2 Datacenter Fileserver
Windows Server 2012 R2 Datacenter PRTG monitoring
Ubuntu Server 16.04 Minecraft server



Foto's
Plaatjes komen eraan


Motivatie
De hele setup draait sinds vorig jaar september als een zonnetje. De vier 1 TB schijven draaien als RAID-5 set op de Dell controller. De meeste bootdisks van de VM's staan op de SSD van 250 GB doormiddel van deduplication:

Ik gebruik Virtual Machine Manager in combinatie met Azure Pack als lab omgeving voor certificeringen van Microsoft. De gehele omgeving inclusief Exchange wordt gebruikt door familie en vrienden.

Iets 3D geprint nodig? CLOUD3D - Lekker shinen: 6000 Wp op het zuiden en geen aardgas.


  • foxgamer2019
  • Registratie: februari 2009
  • Niet online
quote:
FireDrunk schreef op maandag 22 augustus 2016 @ 08:02:
Zit je via RDP op de bak, of kijk je via Spice? Want RDP is vele malen sneller dan een lokaal spice window.
GPU offloading naar die QXL zou ook juist vertragend kunnen werken, omdat die QXL videokaart volgens mij een 'fake' 3D kaart is die software rendering doet. Ik weet niet of er al een goede implementatie is van een vGPU die daadwerkelijk calls doorgeeft aan de lokale GPU (zoals VMware hem wel heeft).
Nee, direct via spice-gtk3, dit is hoe ik de VM opstart:
code:
1
2
3
4
5
6
7
8
9
10
11
12
#!/bin/sh
qemu-system-x86_64 -enable-kvm -machine q35,accel=kvm,iommu=on -cpu host -smp 2,cores=2,threads=1 -m 4G -boot menu=on \
-drive file=/mnt/hdd1/Images/win10_x64,if=virtio,format=raw,index=0,media=disk,cache=none,aio=native \
-drive file=/mnt/hdd1/ISO/Win10_1607_SingleLang_English_x64.iso,index=1,media=cdrom \
-spice port=5930,disable-ticketing -vga qxl \
-net nic,model=virtio \
-soundhw hda \
-usb \
-balloon virtio \
-device virtio-serial-pci \
-device virtserialport,chardev=spicechannel0,name=com.redhat.spice.0 \
-chardev spicevmc,id=spicechannel0,name=vdagent

Daarna maak ik verbinding dus via de client via localhost en het poortnummer (5930).

Ik had gelezen dat cache uitschakelen prestatie winst maakt, ook de aio op native zetten maakt een verschil.
Is dit de juiste manier? Betere tweaks? :)

foxgamer2019 wijzigde deze reactie 22-08-2016 14:18 (4%)


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Cache=none is wel een bottleneck, ik zou daar 'default' ofzo van maken (of standard) weet de optie niet meer.
Ik mis trouwens je SATA controller in dit rijtje? Valt die niet terug naar IDE by default?

Even niets...


  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:47

CurlyMo

www.pilight.org

quote:
CurlyMo schreef op maandag 22 augustus 2016 @ 13:45:
Ik zal later de commando's wel even plaatsen met een toelichting van hoe ik het geheel qua backup draai.

code:
1
2
3
/usr/bin/ssh esxi "vim-cmd vmsvc/getallvms | tail -n+2 | awk '{print \$1}' | sort -n | while read nr; do vim-cmd vmsvc/snapshot.create \$nr snapshot snapshot 0 0; done"
/usr/local/bin/rsync --progress --delete -arv esxi:/vmfs/volumes/57b069ff-4d89b3a9-cb13-d05099099593 /backup/ESXi
/usr/bin/ssh esxi "vim-cmd vmsvc/getallvms | tail -n+2 | awk '{print \$1}' | sort -n | while read nr; do vim-cmd vmsvc/snapshot.removeall \$nr; done"

PS. esxi is een voorgeconfigureerde ssh host met keys.

CurlyMo wijzigde deze reactie 22-08-2016 19:17 (4%)

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • foxgamer2019
  • Registratie: februari 2009
  • Niet online
quote:
FireDrunk schreef op maandag 22 augustus 2016 @ 15:20:
Cache=none is wel een bottleneck, ik zou daar 'default' ofzo van maken (of standard) weet de optie niet meer.
Ik mis trouwens je SATA controller in dit rijtje? Valt die niet terug naar IDE by default?
Thanks, ik heb de AHCI-controller erbij gezet, cache tweaks weggehaald, en ik merk meteen al het verschil. :)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
#!/bin/sh
qemu-system-x86_64 -enable-kvm -machine q35,accel=kvm,iommu=on -cpu host -smp 2,cores=2,threads=1 -m 4G -boot menu=on \
-drive id=disk,file=/mnt/hdd1/Images/win10_x64,if=none,format=raw \
-device ich9-ahci,id=ahci \
-device ide-drive,drive=disk,bus=ahci.0 \
-netdev user,id=vmnic -device virtio-net,netdev=vmnic \
-vga qxl \
-spice port=5930,disable-ticketing \
-usb \
-device virtio-serial-pci \
-device virtserialport,chardev=spicechannel0,name=com.redhat.spice.0 \
-chardev spicevmc,id=spicechannel0,name=vdagent \
-soundhw hda \
-balloon virtio

Hoe doe ik trouwens met QEMU mijn netwerk verbinden?
Kan ik net zoals bij VB/VMWare aangeven dat deze moet verbinden met mijn interne lan?
Op Google vind ik van alles, de een spreek van tap0 devices aanmaken, de andere heeft het over bridgen.

Thanks. :)

PS. Net even een YT 1080p film afgespeeld.. geluid en beeld wat schokkerig, maar opzicht niet slecht. :D
Same een beetje met 720p, de rest gaat prima. Op een VB sessie was mij dit niet gelukt. Met Spice kun je voor lz4 kiezen als image-compressie, dat maakt al wat verschil. Denk dat volledig alleen mogelijk is met een externe GPU.

foxgamer2019 wijzigde deze reactie 22-08-2016 22:32 (11%)


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Er zijn meerdere optie, maar een bridge is eigenlijk het simpelst. Zoek eerst een guide hoe je een bridge maakt van je lokale LAN (of WLAN) en daarna kan je de virtuele NIC direct op de bridge hangen.

Als je dingen wil weten over Linux Kernel Virtualisatie, kan je beter zoeken op KVM ipv QEMU. Het heet tegenwoordig in de kernel namelijk gewoon KVM, qemu was de oude softwarematige virtualisatie, toen kwam er qemu-kvm (een fork van qemu die Processor assisted virtualisatie ondersteunde), en later is dit weer gemerged in de kernel naar gewoon KVM.

De Userland tools heten nog qemu, terwijl het eigenlijk gewoon KVM is. Toen ik net googlede op QEMU kreeg ik ook een heel aantal resultaten die al veel te oud zijn. Oppassen dus :)

http://www.linux-kvm.org/page/Networking

Hier staat genoeg over het gebruik van bridges. (TIP: gebruik niet die kvm ifup scripts, maar de "Solution 1" scripts die iets verder staan, en start de bridge altijd. Dat betekend dat de bridge altijd actief is ookal draaien er geen VM's, maar dat kan helemaal geen kwaad).

Voor simpel(er) VM management, kan ik je virt-manager aanraden. Dat werkt toch een stuk makkelijker dan op de command line met qemu klooien. Je hebt er geen hele X11 omgeving voor nodig, je kan virt-manager prima draaien via X-forwarding in SSH.

En dat ziet er zo uit:
https://tweakers.net/ext/f/mMT8ffs0FH3zOYV9ZheyWRB9/thumb.png

FireDrunk wijzigde deze reactie 23-08-2016 08:04 (6%)

Even niets...


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Hierbij mijn setup.
Hypervisor
Ik gebruik VMware ESXi 6u2.
Dit werkt prima op de NUC. Met 5.0 moest ik volgens mij nog een driver voor de netwerkkaart injecteren, maar sinds 6.0 werkt alle hardware out of the box. Alleen jammer dat ik geen CPU-temperatuur o.i.d. in ESXi kan zien.


Hardware
pricewatch: Intel NUC DC3217IYE met daarin een pricewatch: Crucial MX200 mSATA 250GB

Backups van de VM's zet ik over naar de pricewatch: Synology DiskStation DS715 met 2x2TB in RAID1 + offsite naar DS213j bij m'n ouders (2x1TB RAID1).

De NUC gebruikt maar zo'n 15W idle en is daarmee geen vervelende inwoner van m'n meterkast :+ De DS715 zo'n 18W als beide schijven (WD Green 2TB) draaien.
Heb er ook een UPS tussen gehad (MGE Ellipse 375VA), maar laatst gooide ik de stroom eraf (in de verwachting dat alles mooi bleef doorsnorren), maar na 3sec viel alles uit. Bleek dat de batterij van de UPS verrot was :-(
Nu de UPS er maar tussenuit gehaald, in de bijna 3 jaar dat ik hier woon is de stroom nog nooit uitgevallen.


Virtuele machines
NaamOSFunctie
UbuntuTemplate Ubuntu Server 16.04 LTS Template om gemakkelijk nieuwe VM's uit te rollen. Staat altijd aan zodat hij automatisch geupdate blijft.
HASSUbuntu Server 16.04 LTS Home Assistant domotica, regelt verlichting e.d. in m'n huis (Z-Wave)
DomoticaUbuntu Server 16.04 LTS Algemene I/O VM, draait wat cronjobs zoals buitentemperatuur van Wunderground naar binnen halen e.d., script om accespoint elke nacht te resetten, uitlezen van slimme meter P1-poort (USB-Serial kabel).
OTGWUbuntu Server 16.04 LTS Leest m'n OpenTherm-gateway uit.
InfluxGrafanaUbuntu Server 16.04 LTS Draait InfluxDB en Grafana om o.a. grafiekjes van OTGW en slimme meter te maken.
MQTTUbuntu Server 16.04 LTS Draait Mosquitto om wat dingen aan elkaar te knopen (woonkamertemperatuur vanuit thermostaat via OTGW naar HASS)
WebserverUbuntu Server 16.04 LTS Doet niet heel veel, is meer om af en toe eens wat PHP-scriptjes o.i.d. te knutselen
OpenVPN Ubuntu Server 16.04 LTS OpenVPN AS Appliance van OpenVPN, voor externe toegang tot m'n netwerk (443 TCP om firewalls te omzeilen). De appliance is wel makkelijk, met z'n webinterface kun je makkelijker dingen instellen dan commandline
W10Windows 10 (Professional?) Gebruik ik zelden, VM voor als ik eens een Windows applicatie wil testen of tijdelijk nodig heb



Motivatie
Toen ik nog thuis woonde had ik al een thuisserver. In 2012 ESXi ontdekt en toen de boel gevirtualiseerd. 2,5j geleden uit huis gegaan en toen ik de stroomkosten zelf moest betalen toch maar voor wat zuinigers gekozen. Thuisserver bij m'n ouders gebruikte 50-55W continu (Intel DH67BL mobo + G620 CPU, 1x 3.5" HDD).

Het domoticaspul heb ik ook wel op een Pi draaiend gehad, maar via ESXi is zoveel makkelijker. Bij spannende upgrades van bijv. het domoticapakket maak ik eerst even een snapshot van de VM en kan ik zo weer terugrollen als de boel in het honderd loopt. Ook nooit meer gezeur met SD-kaarten die corrupt raken, waar de Pi toch wel een beetje berucht om is :P

Keuze voor OS
Als OS probeer ik zoveel mogelijk Ubuntu Server te gebruiken in de VM's, het is gratis, werkt stabiel en gebruikt nagenoeg geen resources (Meeste VM's doen <100Mhz CPU). Een nieuwe VM is dankzij de template VM die ik heb, zo uitgerold en door 'unattended-upgrades' blijven de VM's netjes up to date.
Het maken van de template VM was niet eens zo moeilijk, ik heb het via de 'OEM install' methode gedaan. Je kunt hem dan klaarmaken met allerlei packages (o.a. SSH server), 'unattended-upgrades' aangezet om packages automatisch bijgewerkt te houden. Ik heb er een .ova van gemaakt, als ik die boot hoef ik alleen user/pass, hostname en een static IP in te stellen. De template VM staat 24/7 aan zodat packages automatisch bijgewerkt blijven. Af en toe 'generalize' ik hem (vooraf eerst snapshot maken, anders is het geen template meer :P ) om de .ova bij te werken.

Backups
Backups maak ik elke avond met ghettoVCB. Het ghettoVCB script en config staat op de ESXi host en via een cronjob op de Synology start ik een SSH naar de ESXi host en trap ik ghettoVCB af. De backups van de VM's worden dan overgepompt naar een NFS-share op de Synology.
Veeam ook naar gekeken, maar dan moet ik een Windows VM draaien (==licentie nodig) en het kan geen scheduled backups maken van een ESXi Free host. Het is even wat werk om ghettoVCB in te stellen, maar daarna draait het zonder problemen.

Monitoring?
Ik ben alleen nog op zoek naar een leuke monitoring oplossing. In het verleden PRTG gedraaid, je kunt gratis 100 sensoren gebruiken dus voor een thuislab is dat voldoende. Maar het draait alleen op Windows en die W10 VM gebruikt in verhouding met m'n Ubuntu VM's wel erg veel resources (>1500Mhz CPU en RAM volledig in gebruik).
Ook nog eventjes 'collectd' gedraaid op de VM's en de data daaruit in InfluxDB gepompt om dan met Grafana grafiekjes te maken, maar dat is nog best wat werk om voor elke VM in te regelen. Bij PRTG kon je eenvoudig je netwerk laten scannen en kon hij (met de juiste credentials) ook inloggen op Linux/Windows-hosts.

Heb ook wel gekeken naar libreNMS, maar die kan alleen maar SNMP e.d. zoals het lijkt, ik zou niet weten hoe ik daar een Ubuntu VM mee kan uitlezen.
Ben niet echt op zoek naar alerting, ik heb toch geen redundant hardware o.i.d, maar meer om bijv. de CPU-load van een VM eenvoudig in de gaten te kunnen houden om afwijkingen te kunnen opmerken.

Toekomst
Ik weet nog niet of ik in de toekomst weer een Synology neem. Ik gebruik hem eigenlijk alleen als fileserver (SMB share met foto's/films/series) en als offsite backup target (rsync) van de Syno bij m'n ouders. En af en toe een torrentje downloaden. Opzich kan ik dat ook wel met losse VM's af, wat weer een apparaat zou schelen. Fileshares is dan wel leuk om met Windows Server te doen, kun je wat leuke dingen mee als deduplication en bepaalde extensies blokkeren enzo (handig tegen cryptolockers). Maar nu gaat de RAID-array netjes slapen, ik vraag mij af of dat gaat werken als de array aan ESXi zou hangen. Stroomverbruik vind ik wel belangrijk namelijk.

ThinkPad wijzigde deze reactie 17-09-2016 09:53 (9%)

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • CyBeR
  • Registratie: september 2001
  • Niet online

CyBeR

💩

quote:
ThinkPad schreef op woensdag 07 september 2016 @ 11:29:
Ook nog eventjes 'collectd' gedraaid op de VM's en de data daaruit in InfluxDB gepompt om dan met Grafana grafiekjes te maken, maar dat is nog best wat werk om voor elke VM in te regelen.
Daar heb je config management voor.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • Pa-Lu
  • Registratie: februari 2016
  • Laatst online: 01-05 13:16
Volg dit topic al een tijd, lijkt me leuk om mijn setup eens te delen. Ik heb de laatste versie van VMware ESXI draaien op een Intel Nuc.

Hardware
  • Intel Barebone NUC D54250WYK2
  • 2x Crucial 8 GB SODIMM DDR3-1600
  • Samsung 840 EVO mSATA 250 GB
  • Kingston DataTraveler G4 16 GB
Op de USB stick is ESXi geinstalleerd, de SSD wordt gebruikt voor de virtuele machines. Een aantal VMs zijn via NFS gekoppeld aan mijn NAS.

Ik ben erg tevreden over de stabiliteit, snelheid en het stroomverbruik van de NUC.

Virtual Machines
VMOSFunctie
VMW7 Windows 7 Staat standaard uit, doet niks gaat alleen aan als ik de vSphere client nodig heb aangezien deze niet beschikbaar is voor Mac. Sinds de VMware Host Client gebruik ik deze bijna niet meer.
VMWM Ubuntu Server 16.04 Web en monitoring server: Apache icm letsencrypt als reverse proxy, Observium gebruik ik als monitoring tool. Tevens maak ik vanaf diverse remote locaties via SSH backups naar deze VM.
VMME Ubuntu Server 16.04 Media Server: Plex voor streaming en Pydio als web filemanager voor mijn NAS. PlexPy draait hier ook op om statistieken over plex bij te houden.
VMDL Ubuntu Server 16.04 Download Server: Transmission, Sickrage en Autosub-BootstrapBill. Deze server kan alleen internet bereiken via een VPN provider met OpenVPN
VMUU Ubuntu Server 14.04 Ubiquiti Unifi (WiFi controller) en Ubiquiti Unifi NVR. Hier zijn 5 cameras mee verbonden waarvan 3 op remote lokaties. Op bepaalde tijdstippen bij beweging of bij disconnects wordt er automatisch opgenomen en een mail verstuurd.
VMKL Kali Linux Pentesting linux, gebruik ik om te testen en voor studie.
VMGNS3 Ubuntu Server GNS3 appliance VM, gebruik ik om te testen en voor studie.
VMX1 Juniper vMX Juniper test router 1, gebruik ik om te testen en voor studie
VMX2 Juniper vMX Juniper test router 2, gebruik ik om te testen en voor studie


Al mijn VM's draaien op zowel IPv4 en IPv6 in combinatie met een hurricane electric tunnel op mijn router.
Remote toegang tot mijn netwerk heb ik via OpenVPN.

Ubuntu 16.04 probeer ik als standaard OS aan te houden, de software Ubiquiti Unifi ondersteund dit nog niet dus deze zit nog op 14.04. Het streven is om zo min mogelijk Windows VM aan te zetten / te gebruiken. Mijn ervaring is dat 1 windows VM net zoveel resources nodig heeft als de rest bij elkaar om een beetje soepel te functioneren.

Backups van de VM's doe ik eens in de zoveel tijd met de hand, hiervoor moet ik nog eens gaan kijken naar GhettoVCB of tool die dit gemakkelijk kan.

  • Basz0r
  • Registratie: april 2009
  • Laatst online: 21-11 19:23
Hierbij mijn setup.


Hypervisor
Ik heb een custom build Hypervisor in mijn meterkast draaien voor diverse doeleinden. Als OS heb ik gekozen voor Ubuntu 16.04 LTS. Ik gebruik KVM om te virtualiseren, en bcache voor SSD offloading van de disken die er in zitten. Ook heb ik een 2 port Intel NIC er in geprikt om LACP te kunnen doen naar m'n HP Procurve switch.


Hardware
Het volgende heb ik aan hardware in m'n hypervisor zitten.

#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 178,50€ 178,50
1Asus H81I-PLUS€ 67,51€ 67,51
2WD Green HDD, 3TB€ 101,95€ 203,90
1Cooler Master Elite 110€ 39,-€ 39,-
1Intel Pro/1000 PT Dual Port€ 154,50€ 154,50
1Silverstone Argon AR06€ 39,99€ 39,99
1Kingston HyperX Fury blu HX313C9FK2/16€ 76,-€ 76,-
1Seasonic G-series 360 watt€ 59,95€ 59,95
2Kingston SSDNow V300 120GB€ 46,18€ 92,36
Bekijk collectie
Importeer producten
Totaal€ 911,71


De hardware is opgebouwd uit bij elkaar gezochte onderdelen. Sommigen heb ik tweedehands gekocht en sommigen kwamen uit m'n oude werkstation.


Virtuele machines
NaamOSFunctie
rtr01CentOS 7Default Gateway voor 3 VLANs. Draait ook ZeroTier op voor wat externe machines. En een tunnel naar Hurricane Electric voor IPv6 verkeer.
fs01CentOS 7Fileserver. Met btsync draaiende om belangrijke data tussen 3 locaties te syncen.
cgs01Ubuntu 16.04 LTSCargoship VM. Draaien op dit moment 2 containers op dmv. LXC/LXD. Éen met Domoticz en één met unbound en named als fallback voor DNS als m'n router VM niet draait.
dckr01Ubuntu 16.04 LTSDocker VM. Hier staan de volgende images op: mailserver, confluence, NGINX proxy, rainloop en phpMyAdmin. Ook draait er een Letsencrypt image op om automatisch certs te genereren voor de web applicaties.



Foto's



Motivatie
Storage

In m'n hypervisor heb ik 2 disken van 3TB zitten en 2 SSD's van 120GB. Beiden setjes draaien in RAID 1. Een klein gedeelte van de SSD's gebruik ik voor het OS. De rest als cache device voor bcache. De disken gebruik ik als backing device voor bcache. Dit verbeterd de performance voor random IO aanzienlijk voor de VM's.

Externe toegang

Op m'n router VM draait ZeroTier met een gesloten netwerk. Deze is oa. gekoppeld aan een DigitalOcean VM, die ik gebruik als SSH jump host. Apparaten die in hetzelfde netwerk zitten (ook dmv ZeroTier) kunnen daarmee verbinden, om naar m'n netwerk thuis toe gaan.

Backups

Alle VM's hebben een cronjob staan met een script wat duplicity gebruikt om back-ups te maken naar een externe locatie. Op die externe host draait ook een duplicity script wat incrementeel back-ups maakt van de btsync directories (voor als er iemand een oepsje maakt in een map met foto's).

Stroom

De hypervisor is aangesloten op een kleine UPS (APC Back-UPS 950VA), evenals de switch en m'n modem. Als de stroom uitvalt neemt apcupsd dit waar en gaat er hopelijk iets in Nagios loeien :). Als de UPS bijna leeg is worden alle VM's afgesloten en gaat de hypervisor uit.

De machine schommelt qua gebruik ongeveer tussen 40 á 50 watt aan stroom.

  • YoVla
  • Registratie: september 2008
  • Laatst online: 17-11 13:30

YoVla

Yoghurt met vla

Hoi allemaal!

Ik heb sinds kort ook het één en ander aangeschaft als energiezuinige ESXi server.
Nu twijfel ik over het volgende. Via de /etc/vmware/passthru.map (|sWORDs| in "Zuinige ESXi Server") aanpassing heb ik de controller van mijn GA-B150M-D3H als passthrough ingesteld.

Nu mis ik echter de mogelijkheid om een datastore aan te maken, omdat nu mijn SSD en twee HDD zijn aangesloten op de ingestelde controller.

Nu wil ik het wel enigzins energiezuinig houden en sta ik niet te springen om een losse controller te kopen, maar ik lees nu ook de nvme ssd's los staan van de doorgegeven controller?

Kan ik dus de passthrough aan laten staan en dan wel mijn nvme als datastore toevoegen?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Ja, dat kan.

Even niets...


  • Oliekoets
  • Registratie: september 2016
  • Laatst online: 09-09 18:37
Aangezien dit topic wel heel erg op ESXi gericht is, weet ik niet zeker of mijn oplossing ook hier past, maar komt ie:
Hypervisor
Openstack , release Kilo.

Waarom openstack, omdat het volledig opensource is en draait op zowat alle grote linux distributies. De enorme hoeveelheid uitwisselbare onderdelen maken het een topper. Verder levert het heel veel cloud services 'as a service' zoals bijvoorbeeld 'vpn as a service' 'storage as a service' 'network as a service'.

Openstack kan overweg met simpele configuraties tot hele complexe configuraties met bridges, vlans etc.


Hardware
Een wat oudere server , een intel core-i5 (4 cores zonder HT), 3.1Ghz met 16 gig aan ram.
Verder heeft het ding 2 disks van 1 TB, SATA in mirrored mode-raid0.


Virtuele machines
Linux Centos 7 omgeving.

argus => Mijn identity server, draait FreeIPA.
Faun => Mijn media server, deelt al zijn files via nfs/samba aan mijn thuisnetwerk.
Jotunn => Mijn controller, draait puppet-server en foreman/katello
minotaur => Spelletjes server, draait o.a. mijn eigen minecraft server
oberon => Puppetserver backup/development machine. Hier ontwikkel ik nieuwe puppet scripts
satyr => Mijn webservertje.

Het geheel wordt naar internet ontsloten door het prima modem van mijn ISP.



Motivatie
Vanaf het moment dat openstack tot wasdom kwam bij Havana vond ik het interessant om te volgen. Tijdgebrek hebben mij 2 jaar nog tegengehouden, maar nu draait ie toch echt bij mij thuis.


Toekomstmuziek
Ik zou graag openstack uitbreiden tot minimaal 3 nodes met live-migration eraan, echter zeurt het thuisfront nu al over de geluidsproductie van een 19" server. Heb hem nu in de tuinschuur draaien...

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Je bedoelt mirror-RAID1? RAID0 is geen mirror :)

OpenStack is wel heel cool overigens! Wel een flinke kluif qua installatie.

Even niets...


  • Oliekoets
  • Registratie: september 2016
  • Laatst online: 09-09 18:37
quote:
FireDrunk schreef op woensdag 28 september 2016 @ 12:59:
Je bedoelt mirror-RAID1? RAID0 is geen mirror :)

OpenStack is wel heel cool overigens! Wel een flinke kluif qua installatie.
Raid-1 inderdaad, excuses.

Openstack installatie valt zelf wel mee, gewoon op centos packstack installeren als pakket.

packstack -genanswerfile.

Answerfile editten naar je smaak, en puppet doet de rest.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Ik ken het (/me heeft een OpenStack Diploma :+).

Nadeel is weer, als je een wat exotischere config wil dan PackStack toestaat, je nogal ingewikkelde dingen moet doen.

Ik zou bijvoorbeeld alleen OpenStack willen als het goed HA ondersteund, en dat doet het (nog) niet.

Even niets...


  • Oliekoets
  • Registratie: september 2016
  • Laatst online: 09-09 18:37
quote:
FireDrunk schreef op woensdag 28 september 2016 @ 14:09:
Ik ken het (/me heeft een OpenStack Diploma :+).

Nadeel is weer, als je een wat exotischere config wil dan PackStack toestaat, je nogal ingewikkelde dingen moet doen.

Ik zou bijvoorbeeld alleen OpenStack willen als het goed HA ondersteund, en dat doet het (nog) niet.
Ik draai zelf dus OS-Kilo, maar ik hoor goede verhalen van de opvolgers qua HA. Zoals ik al zei, ik wil graag nog 3 nodes met live-migration erbij, dan pas kan je HA goed gaan testen dus ik geloof je meteen als je zegt dat de HA dingen nog niet goed erin zitten.

Overigens, openstack upgraden is voor mij ook al 2x een "uitdaging" geweest. Omdat OS al 2 versies verder is, wilde ik eerst van kilo->liberty en zelfs die mocht ik weer afblazen.

Volgende keer dat ik OS vanaf scratch opbouw zal ik waarschijnlijk de controller-node ook een VM maken.

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Gisteren even wat gespeeld met Ubuntu Landscape.
M'n thuislab bestaat eigenlijk voor 99% uit Ubuntu VM's (omdat: gratis en stabiel, weinig resources nodig) dus dit leek mij wel handig om de boel centraal te kunnen managen.
En het is idd handig, je kunt je machines eenvoudig beheren qua package upgrades e.d. Wat mij ook erg aansprak is dat er ook een stuk monitoring in zit, CPU-load, RAM, HDD en netwerk. Scheelt mij weer een extra pakket zoals 'LibreNMS' draaien.

Ik moet er nog wat verder mee spelen (heb er nu ook nog maar één VM in hangen) maar het ziet er veelbelovend uit. Soort WSUS/SCCM maar dan voor Ubuntu.


Toch maar weer vanaf gestapt, een goed ingestelde unattended-upgrades is voor mij ook voldoende. Ik vond die Landscape VM nogal traag werken en kon ook geen manier vinden om een VM automatisch updates te laten installeren en rebooten. Met unattended-upgrades had ik dat al wel voor elkaar.

ThinkPad wijzigde deze reactie 25-10-2016 11:37 (29%)

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • NL-RaVeR
  • Registratie: oktober 2007
  • Laatst online: 21-11 14:16
Tijd om mijn virtualisatie machine ook maar eens te posten. Hij is bij lange na niet efficient, maar het is wat het is op dit moment. Opmerkingen hoor ik graag :)

Hypervisor
Ik gebruik een custom build van ESXi 6, gebouwd met ESXi customizer. Hierin zit de vsphere web client en drivers voor mijn Areca ARC 1280ML.


Hardware
#ProductPrijsSubtotaal
1Intel Xeon X3430 Boxed€ 89,-€ 89,-
1Intel Server Board S3420GPLX€ 0,-€ 0,-
2HGST Deskstar NAS, 4TB€ 151,55€ 303,10
2Hitachi Deskstar 7K250 160GB , 160GB€ 0,-€ 0,-
2Samsung Spinpoint F1 HD103UJ, 1TB€ 0,-€ 0,-
3WD Green WD20EARX, 2TB€ 107,69€ 323,07
1Areca ARC-1280ML (24x SATA300 RAID, XOR, 256MB, PCI-e x8)€ 0,-€ 0,-
1Cooler Master Real Power Pro 650W€ 0,-€ 0,-
2Crucial MX200 2,5" 500GB€ 145,43€ 290,86
1OCZ Vertex 3 60GB€ 0,-€ 0,-
1Custom Build 24 Bay hotswap case----
4DDR3-1600 ECC Registered 4GB----
Bekijk collectie
Importeer producten
Totaal€ 1.006,03

Binnenkort is de custom build 24-bay server case af die ik met vrienden heb ontworpen/gemaakt. Huidige kast kunnen helaas geen disks meer bij in. Stroomverbruik weet ik eigenlijk niet precies, maar me jaarafrekening viel niet tegen :P. Alles werkte eigenlijk out of the box, op de raid controller na. Hiervoor heb ik dus via vsphere customizer drivers geinclude en passthrought werkt nu prima met die kaart :)


Virtuele machines
OS/ApplianceFunctie
Windows 10RDP, development, downloads en data opslag
CentOS 7MariaDB database
CentOS 7Apache/Nginx web server
CentOS 6Minecraft vanilla server
CentOS 7Minecraft Tekkit server
Ubuntu 16.04Pi-Hole DNS server



Foto's

Dit is de huidige kast die dus vervangen gaat worden. Onderaan de foto is het huidige bordje dat in de server zit.


Motivatie
Het is nu voornamelijk een bij elkaar geraapt "zooitje". Dit wordt dus binnenkort en stuk beter als de nieuwe kast arriveerd. Dan wordt de storage ook verder uitgebreid en ga ik de opslag ook regelen onder een ander OS. Verder wil ik ook mijn backups verder automatiseren naar een ander systeem. Momenteel maak ik snapshots van de vm's op een USB disk die aan de server hangt.

Desktop/Server/Notebook | Steam


  • miel54
  • Registratie: oktober 2010
  • Laatst online: 12-11 17:18
Hypervisor
Beide systemen draaien qemu/kvm onder ubuntu. De intel gebruikt simpele scripts terwijl de AMD het met virt-manager over ssh doet.

Hardware
#ProductPrijsSubtotaal
1Intel Core i7-4790K Boxed€ 366,50€ 366,50
1Asus Sabertooth Z97 Mark S€ 263,99€ 263,99
1EVGA GeForce GTX 980 4GB Superclocked ACX 2.0€ 558,-€ 558,-
1Corsair Graphite 760T Arctic White€ 175,95€ 175,95
1Corsair Hydro H110€ 120,50€ 120,50
1Kingston HyperX Fury black HX318C10FBK2/16€ 93,87€ 93,87
1Corsair HX1000i€ 209,90€ 209,90
2Samsung 850 EVO 250GB€ 95,51€ 191,02
1Samsung 950 Pro 256GB€ 192,50€ 192,50
Bekijk collectie
Importeer producten
Totaal€ 2.172,23

#ProductPrijsSubtotaal
1AMD FX-8320 Black Edition€ 133,90€ 133,90
1Asus Sabertooth 990FX€ 0,-€ 0,-
1MSI N8400GS-D1GD3H/LP€ 0,-€ 0,-
1WD Green HDD, 2TB€ 79,90€ 79,90
1Fractal Design Define R5 Zwart€ 99,-€ 99,-
3IBM Intel Ethernet Quad Port Server Adapter I340-T4 for IBM System x€ 259,70€ 779,10
1Scythe Mugen 4 PCGH Edition€ 44,90€ 44,90
4Kingston ValueRAM KVR1333D3E9S/8G€ 53,49€ 213,96
1EVGA SuperNOVA 650 GS (V2)€ 105,-€ 105,-
1Kingston SSDNow V300 120GB€ 48,89€ 48,89
Bekijk collectie
Importeer producten
Totaal€ 1.504,65


De intel was voornamelijk een gaming build en niet zozeer bedoeld om virtuele machines mee te draaien. Na de overgang naar linux moest hij toch beide doen. Nadeel aan dit moederbord/cpu is dat de 2 onderste pcie sloten tesamen in een IOMMU group zitten waardoor je deze niet apart kan doorgeven aan een vm. De amd draait als headless server en werkt een stuk beter met dit soort zaken. In de toekomst zouden er nog een aantal hard disks en ssds bijkomen voor een nas. :)


Virtuele machines
OS/ApplianceFunctie
Windows 10 proGaming
pfsenserouter/switch



Motivatie
Windows gaming vm
http://pastebin.com/z9vUneh4

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

Ik heb thuis jarenlang gedraaid op Xen op basis van Debian. Werkt technisch prima en het installeren van een nieuwe vm is een eitje (xen-create-image), maar het begon me meer en meer tegen te staan dat er geen fijne grafische (web-based) beheerinterface omheen zat.

Draai nu pak 'm beet anderhalf jaar op Proxmox, in een 2-node cluster met een NAS op basis van FreeNAS er achter.

Hardware bestaat uit 3 HP Microservers, waarbij de Proxmox machines enkel een 128G SSD hebben voor LXC en Proxmox zelf en de FreeNAS machine 4x5T in een striped mirror (ZFS) draait met nog een 128G SSD voor het OS.

Ik lees in deze draad dat Proxmox wat onduidelijk in zijn features en vergeleken word met Hyper-V. Ik vind dat nogal meevallen. Als je niet bekend bent met Linux virtualisatie is het misschien minder duidelijk, maar Proxmox is een geavanceerde schil over KVM en LXC heen. Niet alleen een GUI, maar ook een eigen CLI waarmee heel veel zaken die met stock KVM en LXC vrij lastig zijn, makkelijk worden gemaakt.

Zie ook:
http://www.proxmox.com/en/proxmox-ve/features
http://www.proxmox.com/en/proxmox-ve/comparison

Proxmox bevalt inmiddels zo goed, dat ik het voor mijn stichting heb ingezet en volgend jaar op kantoor wil inzetten op een plek waar VMWare te duur en overkill is. (2-node cluster met GlusterFS, zonder centrale storage).

Grote pluspunten:
  • Schaalbaarheid
  • Het is licht, heeft zelf amper resources nodig
  • Zowel containervirtualisatie als paravirtualisatie als full virtualization
  • Support vanuit het bedrijf mogelijk (Proxmox Server Solutions GmbH is een volwaardig bedrijf)
  • ZFS
Ik kan nog -tig pluspunten bedenken, maar dan word dit een heel lang verhaal. :)

Schaalbaarheid maakt dat het zowel bruikbaar is in een kleine, 1-server thuisomgeving, als in een cluster van tientallen, mogelijk honderden machines. Er is ook niet 1 beheermachine zoals bij VMWare waar je van afhankelijk bent. Je kunt op iedere willekeurige node inloggen en het beheer van je hele cluster doen. Valt er een node uit, is er weinig aan de hand en kun je op een andere node verder beheren.

Alle functionaliteit zit ook in de gratis versie, er is functioneel geen enkel verschil tussen de gratis en betaalde versie. Hun businessmodel is gebaseerd op support, niet op licenties op de software as-such.

Ná Scaoll. - Don’t Panic.


  • Adlermann
  • Registratie: januari 2007
  • Laatst online: 23:13
quote:
archie2012 schreef op zondag 21 augustus 2016 @ 23:41:
Deze week wederom aan de slag geweest met QEMU (+ KVM) voor het testen van Windows 10 op een i5-6400 Skylake systeem met Arch op de laatste kernel.

Prestaties vallen nog tegen, weet niet of het de HDD (WD Black SATA3) is, een mount met barrier=0 lost het id.g.v. niet op.
Verder maak ik gebruik van QXL en Spice en nog wat tweaks hier en daar.

Mijn vermoeden gaat uit naar de GPU, aangezien Windows 10 daarin al wat meer op leunt dan zijn voortganger(s). Nu heb ik alleen geen ruimte meer voor het bijplaatsen van een GPU om deze toe te kennen aan de VM. Naam aan dat ik niet de interne Intel HD kan gebruiken? Zijn er andere mogelijkheden? :)
Ja hoor, je kan gewoon voor je host de igu gebruiken. Je dedicated gpu via passthrough naar de host.

Voor disk performance ervoor zorgen dat je virtio gebruikt.


Ik doe het zelf ook zo, gewoon gamen op een gevirtualiseerde windows.

  • belrpr
  • Registratie: februari 2010
  • Laatst online: 01:44
Ik ben bezig met mijn thuis netwerk te gaan upgraden:
Momenteel draai ik esxi 5.5 opDaarop draaien een aantal vms:
  • Pfsense
  • Windows server 2012R2
  • # Windows 7 machines voor dingen te testen
Nu zou ik alles willen veranderen naar proxmox.
Dit voor:
  • ZFS support zodat bitrot tot het verleden behoort.
    Ik heb namelijk alle dvd's omgezet naar mp4 en merk dat sommige dvd filmen niet meer afspelen.
  • Web interface
  • Gratis backup systeem
  • Windows server (Plex, ...) vervangen door een linux vm of containers.
Vragen waar ik tegen aanloop:
  • Welke "raid" kaart of kaarten kan ik nu het best gebruiken?
  • Installeer ik proxmox of een RAIDZ volume van 2 raid kaarten. Hoeveel GB voorzie ik. Kan ik de andere ruimte nog gebruiken voor de zil & arc?
  • Limiteer ik het geheugen van zfs of proxmox dat ze elkaar niet ambeteren.

  • duiveltje666
  • Registratie: mei 2005
  • Laatst online: 20-11 13:02
quote:
belrpr schreef op zaterdag 22 april 2017 @ 15:57:
Ik ben bezig met mijn thuis netwerk te gaan upgraden:
  • Welke "raid" kaart of kaarten kan ik nu het best gebruiken?
  • Installeer ik proxmox of een RAIDZ volume van 2 raid kaarten. Hoeveel GB voorzie ik. Kan ik de andere ruimte nog gebruiken voor de zil & arc?
  • Limiteer ik het geheugen van zfs of proxmox dat ze elkaar niet ambeteren.
[/list]
Sowieso : Je kunt Proxmox rechtstreeks op een Raidz pool installen (root-on-zfs) vanuit de installer zelf .
Je kaarten moet je iig in een IT-mode zetten ( ZFS wil namelijk de volledige controle over je schijven , dus zonder dat de Raid-controller van je kaarten ook involved gaan worden) .

Limiteren is een kwestie van /etc/modprobe.d/zfs.conf aanmaken met daarin bijv de directive :
options zfs zfs_arc_max=4299967296 (4 GB RAM in mijn geval), saven en daarna rebooten..

  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20:45
Of je neemt een mobo met genoeg onboard SATA aansluitingen. Geen gedoe met raid kaarten nodig.

Dat is nu juist 1 van de vele voordelen van ZFS

I don't fail. I successfully identify suboptimal methods. iRP


  • Pantagruel
  • Registratie: februari 2000
  • Laatst online: 21:32

Pantagruel

Mijn 80486 was snel,....was!

quote:
A1AD schreef op zaterdag 22 april 2017 @ 19:18:
Of je neemt een mobo met genoeg onboard SATA aansluitingen. Geen gedoe met raid kaarten nodig.

Dat is nu juist 1 van de vele voordelen van ZFS
Met het beest van een moederbord dat hij heeft is t jammer om die in de wilgen te hangen.

Zie dat je een HBA op de kop tikt (fleebay) met een LSISAS3008 controller (IBM M1215 bijv) en flash deze naar IT mode zodat ZFS de volledige controle over de disks heeft. Als je gebruik blijft maken van virtualisatie (ESXi) dan kun je de HBA mbv passthrough door geven aan een storage VM die diskruimte serveert.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
A1AD schreef op zaterdag 22 april 2017 @ 19:18:
Of je neemt een mobo met genoeg onboard SATA aansluitingen. Geen gedoe met raid kaarten nodig.

Dat is nu juist 1 van de vele voordelen van ZFS
Een HBA is geen RAID kaart.
Je wilt met ZFS absoluut geen RAID kaart, je wilt een HBA. Dat is niet per-se een goedkopere kaart, maar wel een kaart die gespecialiseerd is in 1 ding: loeisnel toegang verschaffen tot heel veel disks.

Ik draai onze stichting (en op kantoor de NAS van de testomgeving) op een LSI SAS 9207-8i. Die kaart is standaard voorzien van de ook door Pantagruel genoemde zgn. IT (Initiator Target) firmware. Ik heb nog even zitten kijken naar het reflashen van een kaart die daar niet oorspronkelijk mee is uitgerust maar vond dat toch te tricky. Het kan, het werkt, maar een kaart die door de fabrikant ook echt gemaakt is om in IT mode te draaien vind ik gevoelsmatig toch prettiger. (Het is alleen niet per-se de goedkoopste optie. Laatst bekende prijs van die LSI SAS 9207-8i was bijna 400 EUR...)

Ná Scaoll. - Don’t Panic.


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 20:56

Compizfox

I use Arch, btw

quote:
belrpr schreef op zaterdag 22 april 2017 @ 15:57:
Vragen waar ik tegen aanloop:
  • Welke "raid" kaart of kaarten kan ik nu het best gebruiken?
  • Installeer ik proxmox of een RAIDZ volume van 2 raid kaarten. Hoeveel GB voorzie ik. Kan ik de andere ruimte nog gebruiken voor de zil & arc?
  • Limiteer ik het geheugen van zfs of proxmox dat ze elkaar niet ambeteren.
Je hebt voor ZFS geen RAID-controller nodig. Je onboard HBA voldoet. Sterker nog, je wil absoluut geen hardware-RAID want ZFS doet dat in software. Als je toch een RAID-controller neemt (omdat je bv. niet genoeg SATA-poorten onboard hebt) dan moet je zorgen dat je die controller in IT-mode zet zodat hij als 'domme' HBA fungeert.

ZIL/ARC doe je op een SSD. Als je ZFS-pool al op een SSD staat, heeft het geen zin om nog ZIL/ARC te gebruiken: de cache is dan net zo snel als de storage zelf, en daar heb je dus niks aan.

There is no system but GNU and Linux is one of its kernels


  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20:45
quote:
unezra schreef op zaterdag 22 april 2017 @ 21:11:
[...]


Een HBA is geen RAID kaart.
Je wilt met ZFS absoluut geen RAID kaart, je wilt een HBA. Dat is niet per-se een goedkopere kaart, maar wel een kaart die gespecialiseerd is in 1 ding: loeisnel toegang verschaffen tot heel veel disks.

Ik draai onze stichting (en op kantoor de NAS van de testomgeving) op een LSI SAS 9207-8i. Die kaart is standaard voorzien van de ook door Pantagruel genoemde zgn. IT (Initiator Target) firmware. Ik heb nog even zitten kijken naar het reflashen van een kaart die daar niet oorspronkelijk mee is uitgerust maar vond dat toch te tricky. Het kan, het werkt, maar een kaart die door de fabrikant ook echt gemaakt is om in IT mode te draaien vind ik gevoelsmatig toch prettiger. (Het is alleen niet per-se de goedkoopste optie. Laatst bekende prijs van die LSI SAS 9207-8i was bijna 400 EUR...)
Waarom reageer jij op mijn bericht? Wij raden hier meestal aan om een raid kaart (populair kaartje en prijs kwaliteit is lang een m1015 geweest) naar IT mode te flashen.

Maar dat is dus gedoe en is de naam raid kaart bij deze wel de juiste benaming.

Maar waarom gedoe als je ook gewoon een mobo met genoeg sata poorten kan kiezen.
KISS heeft altijd mijn voorkeur.

Daarbij verbruiken die dingen redelijk wat. Toch ook niet onbelangrijk in een THUIS server
...

I don't fail. I successfully identify suboptimal methods. iRP


  • Pantagruel
  • Registratie: februari 2000
  • Laatst online: 21:32

Pantagruel

Mijn 80486 was snel,....was!

quote:
A1AD schreef op zaterdag 22 april 2017 @ 23:22:
[...]
Waarom reageer jij op mijn bericht? Wij raden hier meestal aan om een raid kaart (populair kaartje en prijs kwaliteit is lang een m1015 geweest) naar IT mode te flashen.

Maar dat is dus gedoe en is de naam raid kaart bij deze wel de juiste benaming.

Maar waarom gedoe als je ook gewoon een mobo met genoeg sata poorten kan kiezen.
KISS heeft altijd mijn voorkeur.

Daarbij verbruiken die dingen redelijk wat. Toch ook niet onbelangrijk in een THUIS server
...
Rustig, mekaar niet meteen de kop af willen bijten.

Een SAS/SATA HBA van IR naar IT mode flashen is niet echt zwarte magie, een beetje googlefoo en je hebt wel een guide of howto van reddit/servethehome/hardocp/.. die redelijk fool-proof is (ok garanties zijn er nooit)

Het gros vd moederborden met een flinke zwik SATA ports onboard zijn doorgaans voorzien van de chipset gebonden SATA ports en een add-on controller (doorgaans LSI controllers). Er zijn wel wat (pro-) consumer grade bordjes die naast de 6x SATA van de chipset nog een extra 2 tot 4 SATA ports aanbieden via een Asmedia/Marvell controller. De Asmedia varianten werken doorgaans vlekkeloos onder *ux/*bsd, de Marvell is afhankelijk van de gebruikte chip.

De meest ideale oplossing zou zijn als Intel haar SATA controller op een losse insteekkaart zou aan bieden, een pure AHCI controller zonder verdere franje of dat Asmedia met een 8 a 10 port variant komt. (zonder gebruik te maken van een wazige port-multiplier en 8+ poorten door een dual port SATA controller te wrikken.)

Als je al uitslag krijgt bij het denken aan t flashen van firmware/bios dan is deze DeLock controller een optie (JMicron controller). Geen idee hoe t kaartje performed.

Extra SATA poorten is idd extra verbruik, persoonlijk lijkt mij een insteekkaart minder zuinig dan een on-board oplossing te zijn, dus tja je zult de lasten en de lusten moeten dragen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Lethalis
  • Registratie: april 2002
  • Niet online
Gaaf wat mensen hier allemaal draaien thuis.

Ik heb laatst bij wijze van experiment KVM gedraaid op een Intel NUC N2820 (eigenlijk heel zielige CPU). Maar ik was verbaasd hoe soepel ik PfSense en nog 2 andere Ubuntu VM's er op kon draaien met de Virtio drivers. Nu zit ik er ook aan te denken dit op een echte server te gaan draaien :)

Het lastigste is eigenlijk het managen van KVM, gezien ik Windows machines draai en eigenlijk alleen Linux op de server draai. Command line via SSH is wat omslachtig. En VNC vereist X op de server.

Heb al wat gelezen over X11 forwarding naar een Windows X11 server :+ Een web interface als ovirt.org lijkt me ook handig, nadeel is alleen dat ik dan over moet op CentOS of Fedora (terwijl ik altijd Ubuntu gebruik).

The secret to creativity is knowing how to hide your sources ~ Walking on water and developing software to specification are easy.. as long as both are frozen ~ Everything should be made as simple as possible, but not simpler.


Acties:
  • 0Henk 'm!

  • belrpr
  • Registratie: februari 2010
  • Laatst online: 01:44
@Lethalis je zou proxmox kunnen draaien. Is debian gebaseerd dus dichter tegen ubuntu.

Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
quote:
Lethalis schreef op dinsdag 25 april 2017 @ 12:02:
Gaaf wat mensen hier allemaal draaien thuis.

Ik heb laatst bij wijze van experiment KVM gedraaid op een Intel NUC N2820 (eigenlijk heel zielige CPU). Maar ik was verbaasd hoe soepel ik PfSense en nog 2 andere Ubuntu VM's er op kon draaien met de Virtio drivers. Nu zit ik er ook aan te denken dit op een echte server te gaan draaien :)

Het lastigste is eigenlijk het managen van KVM, gezien ik Windows machines draai en eigenlijk alleen Linux op de server draai. Command line via SSH is wat omslachtig. En VNC vereist X op de server.

Heb al wat gelezen over X11 forwarding naar een Windows X11 server :+ Een web interface als ovirt.org lijkt me ook handig, nadeel is alleen dat ik dan over moet op CentOS of Fedora (terwijl ik altijd Ubuntu gebruik).
Download Xming, zet X11 forwarding aan, vink in putty X Forwarding aan, en start virt-manager. Werkt prima :)

Even niets...


  • DaRoot
  • Registratie: maart 2001
  • Laatst online: 20-11 11:25

DaRoot

Some say...

Hypervisor: Proxmox?
Kwam toevallig gisteravond een topic tegen waarin over Proxmox gesproken werd.
Heb nu thuis een Ubuntu server staan, die momenteel beetje filesharing / downloads / OpenVPN / Zabbix / wat andere webbased software draait.
Nu heb ik zelf ook naast de reguliere job een kleine onderneming in de IT (lees: particulieren / MKB helpen met ICT problemen, meest brede zin van het woord), dus ook wel eens besmette machines. Die wil ik dan liefst via gescheiden VLAN laten lopen (switches daarvoor zijn al aanwezig) en via een beperkte internetverbinding, dus een specifiek router/firewall OS lijkt mij daarvoor wel handig.
Verder draait mijn mailserver momenteel bij mijn vader thuis ivm de glasvezel daar, die wil ik eigenlijk ook wel weer thuis draaien.
Daarnaast wil ik qua filesharing ook wel wat meer mogelijkheden hebben (synchronisatie / backup naar die server bij mijn vader bijv.)
Ook wil ik in de nieuwe woning wat met domotica gaan doen, ben er nog niet uit welk systeem.
Verder wil ik ook videobewaking erop gaan draaien met 2 of 3 IP-cams. Daar heb ik ooit een mooi Opensource pakket voor gevonden (naam ff kwijt)


Hardware
De volgende hardware heb ik momenteel al in gebruik als server en werkt verder prima, wil graag deze set blijven gebruiken, maar als andere CPU / meer RAM nodig is, kan dat uiteraard wel aangepast worden:
#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 50,63€ 50,63
1ASRock B75 Pro3-M€ 0,-€ 0,-
1Samsung HD204UI, 2TB€ 0,-€ 0,-
1WD Green WD15EADS, 1,5TB€ 0,-€ 0,-
16GB DDR3----
Bekijk collectie
Importeer producten
Totaal€ 50,63



Virtuele machines
OS/ApplianceFunctie
Je OS......en wat het doet



Foto's
Plaatjes zijn altijd leuk, maar volgen later nog.


Motivatie
Ben benieuwd naar jullie meningen. Ik hoor ook veel goede geluiden over Docker / containers, en dat schijnt net iets te zijn dat Proxmox niet ondersteunt, iig geen Docker.

Insured by MAFIA - You hit me, we hit you!!!


  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
DaRoot schreef op woensdag 10 mei 2017 @ 09:09:
Hypervisor: Proxmox?
Kwam toevallig gisteravond een topic tegen waarin over Proxmox gesproken werd.
Heb nu thuis een Ubuntu server staan, die momenteel beetje filesharing / downloads / OpenVPN / Zabbix / wat andere webbased software draait.
Nu heb ik zelf ook naast de reguliere job een kleine onderneming in de IT (lees: particulieren / MKB helpen met ICT problemen, meest brede zin van het woord), dus ook wel eens besmette machines. Die wil ik dan liefst via gescheiden VLAN laten lopen (switches daarvoor zijn al aanwezig) en via een beperkte internetverbinding, dus een specifiek router/firewall OS lijkt mij daarvoor wel handig.
Verder draait mijn mailserver momenteel bij mijn vader thuis ivm de glasvezel daar, die wil ik eigenlijk ook wel weer thuis draaien.
Daarnaast wil ik qua filesharing ook wel wat meer mogelijkheden hebben (synchronisatie / backup naar die server bij mijn vader bijv.)
Ook wil ik in de nieuwe woning wat met domotica gaan doen, ben er nog niet uit welk systeem.
Verder wil ik ook videobewaking erop gaan draaien met 2 of 3 IP-cams. Daar heb ik ooit een mooi Opensource pakket voor gevonden (naam ff kwijt)
Klinkt als een setup waarbij het gerechtvaardigd / leuk / interessant / de moeite is te werken met een NAS én 1 of meerdere hypervisors. Ben je meteen flexibel naar de toekomst omdat als je het goed in richt, je zowel je hypervisors als je storage eenvoudig kunt uitbreiden.
quote:

Hardware
De volgende hardware heb ik momenteel al in gebruik als server en werkt verder prima, wil graag deze set blijven gebruiken, maar als andere CPU / meer RAM nodig is, kan dat uiteraard wel aangepast worden:
#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 50,63€ 50,63
1ASRock B75 Pro3-M€ 0,-€ 0,-
1Samsung HD204UI, 2TB€ 0,-€ 0,-
1WD Green WD15EADS, 1,5TB€ 0,-€ 0,-
16GB DDR3----
Bekijk collectie
Importeer producten
Totaal€ 50,63



Virtuele machines
OS/ApplianceFunctie
Je OS......en wat het doet
De G1610 is grofweg dezelfde CPU als die in een HP Microserver Gen8 zit. (Daar zit de G1610T in, de low-power variant.)
CPU doet het prima als je niet al te hoge eisen hebt.

6G geheugen is aan de krappe kant.

Thuis heb ik het volgende:

Hypervisors (Proxmox)
2x HP Microserver Gen8, 16G geheugen, 128G SSD

NAS (FreeNAS)
1x HP Microserver Gen8, 16G geheugen, 64G USB (OS), 4x5T HDD (data)

Op de hypervisors (Proxmox cluster) staan 2 of 3 LXC's lokaal, die doen DNS en DHCP en zorgen er voor dat basisfunctionaliteit nog werkt, ook als mijn NAS nog niet volledig geboot is en ik dus nog geen andere vm's kan starten. Alle overige vm's draaien via NFS op de NAS.

De hele bende is aan elkaar gehangen met een enkele 24 poorts Zyxel GS-1900 Layer 2 managed switch, waarbij de hypervisors ieder met 7x GBit Ethernet is aangeslotenen de NAS met 5x GBit Ethernet. (ILO is ook aangesloten vandaar het oneven aantal, iedere Microserver heeft een 4xGBit NIC er in zitten wat me 6xGBit per machine geeft.)

Dat is wat overdreven, je kunt voor zo'n setup prima toe met 2 poorten per machine, al word voor het heartbeat signaal van Proxmox wel aangeraden daar een apart, fysiek gescheiden, netwerk voor te gebruiken. (Maar dat hoeft dus niet.)

VLAN's doe ik (nog) niet aan, alles zit in 1 groot netwerk. Wel heb ik aparte subnetten voor diverse functies. VLAN's zitten in de planning, maar eigenlijk wil ik er een L3 netwerk van maken en daarvoor heb ik andere switches nodig. Ook wil ik die dubbel uitvoeren. Mgoed, ook daar, dat is way overdreven en vooral voor de leuk.

De setup met tenminste 1 hypervisor en 1 NAS is denk ik wel heel leuk en zinvol in jouw situatie.

Oh, kleine sidenote, het meest flexibel is gebruik maken van disk images (qcow2) en die in een directory opslaan op NFS. Ook als je toch lokaal 1 of meerdere vm's wilt draaien, zet ze in een directory als image. Dat migreert oneindig veel makkelijker. Juist met een disk image kun je live migreren naar andere storage, ook als die storage op een heel andere plek staat. (Zeg maar, Storage vMotion.)
quote:

Foto's
Plaatjes zijn altijd leuk, maar volgen later nog.


Motivatie
Ben benieuwd naar jullie meningen. Ik hoor ook veel goede geluiden over Docker / containers, en dat schijnt net iets te zijn dat Proxmox niet ondersteunt, iig geen Docker.
Proxmox heeft LXC, Linux Containers.
Hence the name, dat is container virtualisatie. :)

Voor een vergelijk tussen LXC en Docker:
https://robinsystems.com/...rs-comparison-lxc-docker/

Ná Scaoll. - Don’t Panic.


  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

...niet meer actueel....

KRGT wijzigde deze reactie 19-10-2017 22:19 (100%)
Reden: Oude hardware


  • DaRoot
  • Registratie: maart 2001
  • Laatst online: 20-11 11:25

DaRoot

Some say...

quote:
unezra schreef op woensdag 10 mei 2017 @ 09:39:
[...]


Klinkt als een setup waarbij het gerechtvaardigd / leuk / interessant / de moeite is te werken met een NAS én 1 of meerdere hypervisors. Ben je meteen flexibel naar de toekomst omdat als je het goed in richt, je zowel je hypervisors als je storage eenvoudig kunt uitbreiden.


[...]


De G1610 is grofweg dezelfde CPU als die in een HP Microserver Gen8 zit. (Daar zit de G1610T in, de low-power variant.)
CPU doet het prima als je niet al te hoge eisen hebt.

6G geheugen is aan de krappe kant.

Thuis heb ik het volgende:

Hypervisors (Proxmox)
2x HP Microserver Gen8, 16G geheugen, 128G SSD

NAS (FreeNAS)
1x HP Microserver Gen8, 16G geheugen, 64G USB (OS), 4x5T HDD (data)

Op de hypervisors (Proxmox cluster) staan 2 of 3 LXC's lokaal, die doen DNS en DHCP en zorgen er voor dat basisfunctionaliteit nog werkt, ook als mijn NAS nog niet volledig geboot is en ik dus nog geen andere vm's kan starten. Alle overige vm's draaien via NFS op de NAS.

De hele bende is aan elkaar gehangen met een enkele 24 poorts Zyxel GS-1900 Layer 2 managed switch, waarbij de hypervisors ieder met 7x GBit Ethernet is aangeslotenen de NAS met 5x GBit Ethernet. (ILO is ook aangesloten vandaar het oneven aantal, iedere Microserver heeft een 4xGBit NIC er in zitten wat me 6xGBit per machine geeft.)

Dat is wat overdreven, je kunt voor zo'n setup prima toe met 2 poorten per machine, al word voor het heartbeat signaal van Proxmox wel aangeraden daar een apart, fysiek gescheiden, netwerk voor te gebruiken. (Maar dat hoeft dus niet.)

VLAN's doe ik (nog) niet aan, alles zit in 1 groot netwerk. Wel heb ik aparte subnetten voor diverse functies. VLAN's zitten in de planning, maar eigenlijk wil ik er een L3 netwerk van maken en daarvoor heb ik andere switches nodig. Ook wil ik die dubbel uitvoeren. Mgoed, ook daar, dat is way overdreven en vooral voor de leuk.

De setup met tenminste 1 hypervisor en 1 NAS is denk ik wel heel leuk en zinvol in jouw situatie.

Oh, kleine sidenote, het meest flexibel is gebruik maken van disk images (qcow2) en die in een directory opslaan op NFS. Ook als je toch lokaal 1 of meerdere vm's wilt draaien, zet ze in een directory als image. Dat migreert oneindig veel makkelijker. Juist met een disk image kun je live migreren naar andere storage, ook als die storage op een heel andere plek staat. (Zeg maar, Storage vMotion.)


[...]


Proxmox heeft LXC, Linux Containers.
Hence the name, dat is container virtualisatie. :)

Voor een vergelijk tussen LXC en Docker:
https://robinsystems.com/...rs-comparison-lxc-docker/
Bedankt voor je uitgebreide antwoord!
Ik wil nog niet direct met aparte NAS gaan werken, liefst alles op 1 server.
Misschien is voor mijn situatie aparte subnetten ook wel voldoende ipv complete VLAN's bedenk ik me nu.
Heb nog wel een SSD liggen die ik als OS-disk kan gaan gebruiken. Extra GBit LAN poort erbij, en geheugen uitbreiden.

Insured by MAFIA - You hit me, we hit you!!!


  • idef1x
  • Registratie: januari 2004
  • Laatst online: 21-11 22:12
Laat ik mijn set-up ook maar eens plaatsen dan:
Hypervisor
Een kale Ubuntu 16.04 server met een 6 disk ZFS RAIDZ2 pool. De server start op van een 16GB USB stick. Ik gebruik voornamelijk LXD (Linux Containers), maar voor de enkele keer dat ik een windows VM nodig heb
(of een complete Linux VM), dan slinger ik KVM aan.
De server zelf zend zelf eens per week (is redelijk statisch) zfs snapshots naar een backup Ubuntu 16.04 ZFS server die eerst wakker wordt gemaakt (WOL) om na de backup weer in slaap gezet te worden (al dan niet na een maandelijkse scrub sessie).


Hardware
#ProductPrijsSubtotaal
1Intel Celeron G1840 Boxed€ 36,-€ 36,-
1Gigabyte GA-H97N-WIFI€ 0,-€ 0,-
6WD Green HDD, 3TB€ 104,89€ 629,34
1Fractal Design Node 304 Wit€ 76,-€ 76,-
6Sharkoon SATA Kabel€ 0,-€ 0,-
1Sandisk Cruzer Ultra Fit 16GB Zilver€ 9,14€ 9,14
1Kingston KVR1333D3N9/8G€ 57,95€ 57,95
1be quiet! Straight Power 10 400W€ 74,95€ 74,95
Bekijk collectie
Importeer producten
Totaal€ 883,38


Verbruik niet echt gemeten, maar kwam rond de 45W uit bij normaal gebruik


Virtuele machines
OS/ApplianceFunctie
dnsPiHole DNS + dnsmasq DHCP server
NASSAMBA server,syncthing
EmbyMultimedia server
ZabbixMonitoring
wikiMijn eigen dokuwiki wiki
CloudbackupBackup to cloud (momenteel STACK) met duplicity
apt-proxyAPT proxy server voor updates caching
vpnOpenVPN server
leecherSickrage,bittorrent (transmission),Couchpotato
HurricaneIPv6 connectiviteit daar Ziggo dat nog steeds niet leverd :(
CalibreCalibre ebook webserver



Motivatie
De wens was een zo simpel mogelijke zo kaal mogelijke NAS te bouwen met alles wat maar enigsinds in een VM te stoppen valt in een VM draaien met zo min mogelijk overhead.
Wanneer de NAS stuk zou gaan, kan ik de backup server opstarten en zonder al teveel moeite alle containers weer starten.

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
DaRoot schreef op woensdag 10 mei 2017 @ 10:30:
[...]

Bedankt voor je uitgebreide antwoord!
Graag gedaan. :)
quote:
Ik wil nog niet direct met aparte NAS gaan werken, liefst alles op 1 server.
Misschien is voor mijn situatie aparte subnetten ook wel voldoende ipv complete VLAN's bedenk ik me nu.
Heb nog wel een SSD liggen die ik als OS-disk kan gaan gebruiken. Extra GBit LAN poort erbij, en geheugen uitbreiden.
Waarom wil je niet meteen met een NAS aan de slag? Een eenvoudige NAS is een ontzettend goede investering en het fijne is dat je meteen je Windows shares er op kunt laten draaien.

Dat is ook wat ik thuis doe.
FreeNAS bied NFS aan mijn Proxmox cluster, maar SMB/CIFS aan mijn Windows machines. Juist door storage laag te leggen, haal ik wat afhankelijkheden weg.

SMB/CIFS via een vm is relatief traag en je hebt er een compleet levende hypervisor + vm voor nodig. Extra laag relatief nutteloze complexiteit.

SSD als OS disk is bij Proxmox niet heel nuttig to be honest. Ik weet ook eigenlijk niet goed waarom ik die keuze heb gemaakt. Het kan prima op een reguliere disk. Snelheid is niet relevant op je hypervisor. (De grap is dat mijn storagelaag gewoon HDD's zijn.)

Overigens, met mijn stichting heb ik dus wel lokale storage. Daar is maar 1 reden voor: Geld.
Een 2U machine hosten kost geld en de hardware zelf is ook niet bepaald gratis. 2 van die machines levert de dubbele lasten op. Wel is die machine voorbereid op migratie naar centrale storage. Het is dé reden waarom we met images in directories werken. :)

Ná Scaoll. - Don’t Panic.


  • Pantagruel
  • Registratie: februari 2000
  • Laatst online: 21:32

Pantagruel

Mijn 80486 was snel,....was!

quote:
unezra schreef op woensdag 10 mei 2017 @ 12:15:
[...]


Graag gedaan. :)


[...]


Waarom wil je niet meteen met een NAS aan de slag? Een eenvoudige NAS is een ontzettend goede investering en het fijne is dat je meteen je Windows shares er op kunt laten draaien.

Dat is ook wat ik thuis doe.
FreeNAS bied NFS aan mijn Proxmox cluster, maar SMB/CIFS aan mijn Windows machines. Juist door storage laag te leggen, haal ik wat afhankelijkheden weg.

SMB/CIFS via een vm is relatief traag en je hebt er een compleet levende hypervisor + vm voor nodig. Extra laag relatief nutteloze complexiteit.
Omschrijf relatief traag, in de realiteit zal de beperking bij de netwerkkaart (Gbit) liggen en zelden bij de storage hardware (single HDD kan GBit NIC verzadigen). 10Gbit voor de thuis situatie zal zelden voorkomen.

Zelf draai ik ESXi als hypervisor (USB stick) en de vm's vanaf een NVMe SSD. De storage vm en de andere vm's hangen aan dezelfde virtual switch (20 GBit virt ). De tests (Ubuntu 16.04.2 LTS vm's, CIFS) die ik heb gedaan (NVMe naar SSD en vice versa) tussen 2 vm's lieten zien dat de doorvoer schommelde tussen zo'n 450 a 500 MiB/sec (max vd hardware). Een verbinding naar 'buiten' (Gbit NIC) kwam niet verder dan de ca. 100 MiB/sec (ander Ubuntu machine).
quote:
SSD als OS disk is bij Proxmox niet heel nuttig to be honest. Ik weet ook eigenlijk niet goed waarom ik die keuze heb gemaakt. Het kan prima op een reguliere disk. Snelheid is niet relevant op je hypervisor. (De grap is dat mijn storagelaag gewoon HDD's zijn.)
Idd jammer, een kleinere HDD voldoet ook.
quote:
Overigens, met mijn stichting heb ik dus wel lokale storage. Daar is maar 1 reden voor: Geld.
Een 2U machine hosten kost geld en de hardware zelf is ook niet bepaald gratis. 2 van die machines levert de dubbele lasten op. Wel is die machine voorbereid op migratie naar centrale storage. Het is dé reden waarom we met images in directories werken. :)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0Henk 'm!

  • Daantje20
  • Registratie: mei 2002
  • Laatst online: 16-11 20:51

Daantje20

Je moet leven om te leren.

Hypervisor
Voor het leren en studeren voor MS Certificaten wilde ik graag een simpele oplossing, eentje die niet veel tijd kost om op te bouwen en verder stabiel werkt. Ook moest het zo min mogelijk aan intern geheugen gebruiken. Daarnaast liefst Open Source OS zodat ik niet telkens na verlopen van bijvoorbeeld proefperiode opnieuw kan beginnen. Gezien de hardware kan het net, ik ben nog bezig met de VM's in te richten.
Wilde wel graag recente software en grootste kans op ondersteuning van Windows 10 en daarom Ubuntu Server 17.04 gekozen met KVM als Hypervisor (kan later upgraden naar een een LTS van volgend jaar).


Hardware
#ProductPrijsSubtotaal
1Intel Core i5 750 Boxed€ 0,-€ 0,-
1Gigabyte GA-P55-UD4€ 0,-€ 0,-
1MSI GeForce GT 710 1GD3H LP€ 31,50€ 31,50
1Samsung Spinpoint F3 HD103SJ, 1TB€ 0,-€ 0,-
1Seagate Barracuda 7200.10 ST3160215AS, 160GB€ 0,-€ 0,-
1WD Blue WD10EZEX, 1TB€ 48,94€ 48,94
1Chieftec Bravo BH-01€ 0,-€ 0,-
1Iiyama ProLite E2201W Zwart€ 0,-€ 0,-
1Scythe Ninja 3€ 0,-€ 0,-
1Corsair XMS CMX8GX3M2A1333C9€ 66,95€ 66,95
1Hiper Type R 480W€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 147,39



Virtuele machines
OS/ApplianceFunctie
Windows 10 EnterpriseOefen client
DC01 (Windows Server 2012 R2 Standard)DC+DHCP+DNS
Ubuntu 16.04.2Plex



Foto's
Helaas geen foto's.


Motivatie
Voor mijn doeleinden is het een prima setup. Er is een semi-veiligheid van data door de Software RAID1 waar de 2x 1TB in draaid. En het voordeel dat als dit alles mocht falen dat ik snel een Linux (hoeft niet perse Ubuntu te zijn) machine kan opzetten en de virtuele machines kan migreren. En dat alles op "leftover" hardware met Host software welke altijd blijft werken.

Mobiel: Samsung S10e zwart Laptop: HP EliteBook 820 G3


Acties:
  • 0Henk 'm!

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
Daantje20 schreef op dinsdag 16 mei 2017 @ 14:16:
Hypervisor
Voor het leren en studeren voor MS Certificaten wilde ik graag een simpele oplossing, eentje die niet veel tijd kost om op te bouwen en verder stabiel werkt. Ook moest het zo min mogelijk aan intern geheugen gebruiken. Daarnaast liefst Open Source OS zodat ik niet telkens na verlopen van bijvoorbeeld proefperiode opnieuw kan beginnen. Gezien de hardware kan het net, ik ben nog bezig met de VM's in te richten.
Wilde wel graag recente software en grootste kans op ondersteuning van Windows 10 en daarom Ubuntu Server 17.04 gekozen met KVM als Hypervisor (kan later upgraden naar een een LTS van volgend jaar).
Wat is je reden om te gaan voor KVM op Ubuntu in plaats van voor iets veel gebruiksvriendelijkers als Proxmox?

"Zo min mogelijk intern geheugen" en "virtualisatie" gaan niet echt samen. Voor je OS ben je altijd wel wat geheugen kwijt en of je nu Proxmox kiest of Ubuntu met KVM maakt niet zo veel uit. Het gebruikte geheugen gaat vnl in je vm's zitten.

De 8G die je er in wilt zetten (als ik het goed zie), is krap. Ga minimaal voor 16G of 32G, zeker als je met Microsoft clusters wilt bouwen.

Het leuke van KVM (of je dat nu op Ubuntu of via Proxmox draait), is dat RedHat er drivers voor heeft zodat je VirtIO kunt gebruiken. (En dat wil je, virtio scheelt enorm qua snelheid.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0Henk 'm!

  • Daantje20
  • Registratie: mei 2002
  • Laatst online: 16-11 20:51

Daantje20

Je moet leven om te leren.

quote:
unezra schreef op dinsdag 16 mei 2017 @ 14:34:
[...]


Wat is je reden om te gaan voor KVM op Ubuntu in plaats van voor iets veel gebruiksvriendelijkers als Proxmox?

"Zo min mogelijk intern geheugen" en "virtualisatie" gaan niet echt samen. Voor je OS ben je altijd wel wat geheugen kwijt en of je nu Proxmox kiest of Ubuntu met KVM maakt niet zo veel uit. Het gebruikte geheugen gaat vnl in je vm's zitten.

De 8G die je er in wilt zetten (als ik het goed zie), is krap. Ga minimaal voor 16G of 32G, zeker als je met Microsoft clusters wilt bouwen.

Het leuke van KVM (of je dat nu op Ubuntu of via Proxmox draait), is dat RedHat er drivers voor heeft zodat je VirtIO kunt gebruiken. (En dat wil je, virtio scheelt enorm qua snelheid.)
De keuze voor KVM en headless zorgt zeker wel voor lager RAM gebruik, de type 1 hypervisor VMware ESXI had nog 1GB in gebruik en mijn huidige setup doet tussen de 350-450MB ongeveer. En het management is zeker simpel te noemen met virt-manager via Putty+Xming op mijn Windows machine.
Aangezien Proxmox naast Hypervisor ook nog een mooie interface via http moet presenteren kost dat ook meer RAM dan deze oplossing. Daarbij heb je voor stabiele updates een abbo nodig bij Proxmox en bij Ubuntu krijg je (nu 9 maanden met deze release) gewoon alle updates.
Ik kijk ook wel op internet of ik ergens een setje geheugen zie dat genoeg lijkt op wat ik heb, maar geheugen is niet meer zo goedkoop als het ooit was geworden.

Mobiel: Samsung S10e zwart Laptop: HP EliteBook 820 G3


Acties:
  • 0Henk 'm!

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
Daantje20 schreef op dinsdag 16 mei 2017 @ 14:55:
[...]
De keuze voor KVM en headless zorgt zeker wel voor lager RAM gebruik, de type 1 hypervisor VMware ESXI had nog 1GB in gebruik en mijn huidige setup doet tussen de 350-450MB ongeveer. En het management is zeker simpel te noemen met virt-manager via Putty+Xming op mijn Windows machine.
Aangezien Proxmox naast Hypervisor ook nog een mooie interface via http moet presenteren kost dat ook meer RAM dan deze oplossing.
Dat valt heel erg mee. De web interface is licht, apache heeft weinig geheugen nodig. Daarbij heb je geen afhankelijkheid meer van een 3rd party applicatie op je desktop en heb je genoeg aan alleen een browser.

De impact op geheugen is dusdanig nihil, dat ik daar je keuze niet van af zou laten hangen.

ESXi vergelijken met Ubuntu/KVM of Debian/Proxmox is niet logisch.
quote:
Daarbij heb je voor stabiele updates een abbo nodig bij Proxmox en bij Ubuntu krijg je (nu 9 maanden met deze release) gewoon alle updates.
Er zijn 2 repo's voor non-subscribers toegankelijk, waarvan 1 testing is maar de ander gewoon stable.
Die stable repo is dusdanig stabiel, dat die prima geschikt is voor productie.

Je hebt alleen geen toegang tot de *nog* verder doorgeteste repo maar de vraag is in hoeverre het gebruik daarvan zinvol is zolang je d'r geen heel bedrijf aan hangt. (En ook die repo krijg je voor 5 EUR per CPU per maand toegang toe.)
quote:
Ik kijk ook wel op internet of ik ergens een setje geheugen zie dat genoeg lijkt op wat ik heb, maar geheugen is niet meer zo goedkoop als het ooit was geworden.
Hoe dan ook, 16G is wel zo'n beetje het minimum om leuk met virtualisatie te kunnen spelen.
Is geheugen het probleem, kijk of je een 2e hands DL-series of ML-series op de kop kunt tikken. Maakt een bak herrie maar je hebt dan opeens wel een prima en relatief betaalbare labserver voor weinig geld.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0Henk 'm!

  • kronolith
  • Registratie: juli 2009
  • Laatst online: 23:03

kronolith

[EDIT]

Hypervisor
ESXi 6.5. Ik heb eerst een tijdje met Proxmox gedraaid, maar dat was bij mij niet stabiel. Bijna dagelijks liep de boel krakend vast en moest ik een harde reset uitvoeren om het weer draaiend te krijgen. Geen idee waar het aan lag; ik heb er ook weinig tijd aan besteed om het op te lossen. In plaats daarvan ESXi geprobeerd en dat draait nu alweer enkele weken probleemloos. Zeer tevreden!

Hardware
#ProductPrijsSubtotaal
1ASRock J3160DC-ITX€ 128,-€ 128,-
2Seagate Barracuda Compute 2,5", 2TB€ 93,-€ 93,-
1Silverstone Milo ML05B€ 49,95€ 49,95
1Corsair SCMSO8GX3M1A1600C11€ 51,76€ 51,76
1Crucial m4 SSD 2.5" 256GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 322,71

Ik weet het, geen hardware met veel "oompf'', maar het doet wat het moet doen en volstaat uitstekend. ESXi staat geïnstalleerd op de SSD. Totale overkill, ik weet het, maar deze lag nog ongebruikt in de kast. Gemiddelde verbruik is ongeveer 15 watt. Ik ben er inmiddels wel achter dat 8gb geheugen aan de krappe kant is, hier komt binnenkort nog 8gb bij zodat ik een totaal heb van 16gb.

Virtuele machines
OS/ApplianceFunctie
Ubuntu Server 17.04Nextcloud Server
Ubuntu Server 17.04NZBget, Radarr, Sonarr, Plex server
Ubuntu Server 17.04NAS/Samba share
Ubuntu Server 17.04Test VM. Staat 99,9% van de tijd uit.

De Nextcloud VM host belangrijke documenten die ik vervolgens altijd en overal kan bereiken. Ook voorziet hij in automatische backup van foto's vanaf zowel mijn als mijn vriendin's telefoon. De NAS/Samba VM wordt voornamelijk gebruikt als backup van mijn Raspberry Pi die in de meterkast hangt en mijn domoticasysteem (Home Assistant) host. Dagelijks worden alle config bestanden gebackupped naar de NAS.

Motivatie
In de toekomst wil ik mijn server verhuizen naar de meterkast, waardoor hij ook mijn Raspberry Pi kan vervangen door een Home Assistant VM te draaien.

Tja, verder eigenlijk weinig over te vertellen! Nogmaals, hij doet wat hij moet doen en ik ben er uitermate tevreden over! :)

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
kronolith schreef op dinsdag 16 mei 2017 @ 19:27:
Hypervisor
ESXi 6.5. Ik heb eerst een tijdje met Proxmox gedraaid, maar dat was bij mij niet stabiel. Bijna dagelijks liep de boel krakend vast en moest ik een harde reset uitvoeren om het weer draaiend te krijgen. Geen idee waar het aan lag; ik heb er ook weinig tijd aan besteed om het op te lossen. In plaats daarvan ESXi geprobeerd en dat draait nu alweer enkele weken probleemloos. Zeer tevreden!
Ik moet zeggen dat me dat ontzettend verrast.
Thuis draai ik nu volgens mij een jaar of 2 op Proxmox, sinds een paar maanden op een 2-node cluster.
Mijn stichting draait meer dan een jaar volledig stabiel op Proxmox.

Nadeel van ESXi vind ik dat het extreem beperkt is in zijn functionaliteit ten opzichte van Proxmox. (Daarnaast is het niet open source, maar voor het gebruik hoeft dat niet per-sé een nadeel te zijn.)

Ná Scaoll. - Don’t Panic.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Wat noem jij extreem beperkt?

Even niets...


  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
Geen HA, beperkt in je storage mogelijkheden (ZFS, lvm, etc), geen ingebouwde backupmogelijkheden, etc. https://www.proxmox.com/en/proxmox-ve/features

Zodra je leuke dingen met VMWare wilt doen zit je vast aan vSphere en kost het je minimaal een paar honderd EUR voor Essentials. Heb je nog geen storage v-motion. (Uberhaupt geen v-motion.)

Proxmox kan dat wel. Ook live.

Ná Scaoll. - Don’t Panic.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
quote:
unezra schreef op woensdag 17 mei 2017 @ 13:22:
[...]


Geen HA, beperkt in je storage mogelijkheden (ZFS, lvm, etc), geen ingebouwde backupmogelijkheden, etc. https://www.proxmox.com/en/proxmox-ve/features

Zodra je leuke dingen met VMWare wilt doen zit je vast aan vSphere en kost het je minimaal een paar honderd EUR voor Essentials. Heb je nog geen storage v-motion. (Uberhaupt geen v-motion.)

Proxmox kan dat wel. Ook live.
Voor een enkel uitgevoerde thuisserver is dat allemaal niet van belang. Op ZFS na misschien. Ingebouwde backup is leuk, maar erg beperkt. Voor ESXi zijn daar ook wel prima alternatieven voor.

Voor een thuisnetwerk met meerdere bakken is het wel leuk.

(Ik ben het zelf ook aan het overwegen, icm Ceph :) )

Even niets...


  • CaptJackSparrow
  • Registratie: februari 2009
  • Niet online

CaptJackSparrow

x07 - License to Tweak.

Beetje stil hier. ;) Of is er ergens nog een ander algemeen topic over virtualisatie?

Kan iemand iets zinnigs zeggen (liefst uit echte eigen ervaring met de concrete situaties natuurlijk) over een evt. verschil in RAM behoefte tussen de twee volgende constructies waarbij er zowel een W10 als een pfSense installatie op één 'harde' machine draait?

1. ESXi met twee VMs. Eentje met W10 en een andere met pfSense.

2. Gewone niet-virtuele Windows 10 met daarin VirtualBox of VMware Workstation waarin de pfSense installatie draait.

Zou die laatste minder RAM vergen? En zou die met 4GB toe kunnen? Als bijv. de pfSense VM 0,5GB zou krijgen hoeveel zou er dan ongeveer van de resterende 3,5GB overblijven voor W10 nadat de hypervisor zijn deel heeft ingepikt? De W10 zou alleen maar lichte servertaken en verder vooral nog wat internetbrowsen hoeven te vervullen.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
ESXi is ~400-500MB aan RAM. Rest kan je vrij inzetten. Meer is altijd beter.

Even niets...


  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
FireDrunk schreef op donderdag 22 maart 2018 @ 21:29:
ESXi is ~400-500MB aan RAM. Rest kan je vrij inzetten. Meer is altijd beter.
Heeft 6.5 niet meer geheugen nodig dan 5.5 en lager?
(Vanwege de volledige web GUI die er in zit.)

Niet dat ik vind dat iets anders dan 6.5 een optie is als je voor ESXi wilt gaan...

Ná Scaoll. - Don’t Panic.


  • tim427
  • Registratie: september 2006
  • Laatst online: 12-11 13:00

tim427

Turbulence!

Ik weet niet of dit draadje nog leeft, maar zit met het volgende :+

Heb inmiddels aardig wat hardware bij elkaar weten sprokkelen:
6x Dell R720 met 64GB RAM, 6*4TB SAS schijfjes, 10Gbps glaskaarten
1x Quanta LB6M met 24 SFP+ poorten

In de klassieke virtualisatie setup bouwt men een storage-cluster + een compute-cluster. Aangezien alle machines én leuk zijn voor storage én leuk zijn voor rekenen wil ik alle machines in een hyperconverged setup gaan draaien.

Nu zit ik zelf te denken aan oVirt (GlusterFS + KVM), maar sta natuurlijk open voor ideeën :)

Kortom: stel je heb bovenstaande thuis staan, hoe zou jij dat inzetten/gebruiken?

Acties:
  • +2Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Proxmox met Ceph. oVirt is erg groot en log, proxmox is veel kleiner, en Ceph is sneller ;)

Even niets...


Acties:
  • +1Henk 'm!

  • CAPSLOCK2000
  • Registratie: februari 2003
  • Laatst online: 17:47

CAPSLOCK2000

zie teletekst pagina 888

Kijk eens naar Ganeti, dat is low-tech clustersoftware die weinig zelf doet en vooral vertrouwt op de bestaande Linux-kernel en tools. Het configureert (bijvoorbeeld) KVM en DRBD en zorgt voor hot-migration enzo.

In vergelijking met een tool als VMware is het maar een dwerg, maar wel heel makkelijk, toegankelijk en overzichtelijk.

This post is warranted for the full amount you paid me for it.


Acties:
  • +1Henk 'm!

  • 26779
  • Registratie: november 2019
  • Niet online
@tim427 Ik zou, zoals Firedrunk ook al aangeeft zeker voor ProxMox + Ceph gaan.... Daar ga je gewoon erg blij van worden.. :)

  • tim427
  • Registratie: september 2006
  • Laatst online: 12-11 13:00

tim427

Turbulence!

quote:
Naast eerder genoemde setup heb ik ook nog 2x R320's liggen voor eventuele oVirt Engine.

Dat oVirt wat groter en wat logger is, kan ik mee inkomen :) Maar dat is met deze setup niet echt een issue toch?

Betreft Ceph: ik zie overal dat de RAID functionaliteit uitgeschakeld dient te worden; IT-mode/ HBA-mode, RAID-0 met 1 disk is ook geen optie. Is dit echt een show-stopper?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Nee, het is gewoon niet nodig. Ceph kan dat zelf regelen. Maar je kan prima Ceph op RAID draaien thuis. Niet super geschikt voor productie, maar het kan.

Even niets...


  • Sandor_Clegane
  • Registratie: januari 2012
  • Laatst online: 17:31

Sandor_Clegane

Fancy plans and pants to match

Volgens mij is dit de juiste plaats.

Ik gebruik een tweede GPU doorgelust in een Windows VM, deze GPU wordt door vfio-pci beheert en KVM zet deze netjes door.

Nu is deze GPU een redelijk snelle en aangezien ik sinds kort met Blender werk en Cycles kan renderen op de GPU vond ik het best zonde dat ik niets aan deze GPU heb als Linux is opgestart. Nu had ik Blender op mijn Windows VM geïnstalleerd en deze als slave aangemerkt zodat hij netwerk render jobs kan ontvangen, maar dit is niet helemaal zo elegant als ik zou willen.

Het mooiste zou zijn dat ik de GPU kan unbinden van vfio-pci en deze kan rebinden aan de nvidia drivers binnen Linux zelf en andersom.

Lo and behold: dat kan! Het is echt briljant.

Hoe werkt dat:

Linux start altijd op met de tweede GPU beheert door vfio-pci. Ik heb geprobeerd dit niet te doen en het on the fly te doen maar dit leidt tot problemen met X die van alles met de videokaart wil doen. Ik heb busnummers toegevoegd en de option ignore maar dit lijkt allemaal niet te werken.

Als je dan lcpci -nnk doet zie je dus:
code:
1
2
3
4
5
6
7
8
08:00.0 VGA compatible controller [0300]: NVIDIA Corporation GP104 [GeForce GTX 1080] [10de:1b80] (rev a1)
        Subsystem: Gigabyte Technology Co., Ltd GP104 [GeForce GTX 1080] [1458:3717]
        Kernel driver in use: vfio-pci
        Kernel modules: nvidiafb, nouveau, nvidia_384_drm, nvidia_384
08:00.1 Audio device [0403]: NVIDIA Corporation GP104 High Definition Audio Controller [10de:10f0] (rev a1)
        Subsystem: Gigabyte Technology Co., Ltd GP104 High Definition Audio Controller [1458:3717]
        Kernel driver in use: vfio-pci
        Kernel modules: snd_hda_intel

nvidia-smi geeft:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
root@hepheastus:~# nvidia-smi 
Sun Apr 15 17:03:50 2018       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.130                Driver Version: 384.130                   |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 108...  Off  | 00000000:43:00.0  On |                  N/A |
| 34%   47C    P0    62W / 250W |   1337MiB / 11158MiB |      5%      Default |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1348      G   /usr/lib/xorg/Xorg                           456MiB |
|    0      1738      G   kwin_x11                                      46MiB |
|    0      1741      G   /usr/bin/krunner                               2MiB |
|    0      1743      G   /usr/bin/plasmashell                         684MiB |
|    0      5069      G   ...-token=A4EDB8AD06A2280F6B630504857D21E3   117MiB |
|    0      7449      G   ...ngGlass/client/bin/looking-glass-client    26MiB |
+-----------------------------------------------------------------------------+

Nu kan KVM deze netjes aan de Windows VM geven en alles is ok met de wereld.
Probleem is nu dus wel dat hij voor Linux niet zichtbaar is.
Als ik nu de VM uitzet en dus de GPU in bijvoorbeeld Blender wil gebruiken moet je hem afmelden van vfio-pci en aanmelden bij de NVidia driver:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
#!/bin/sh
#vfio-pci.ids=10de:1b80,10de:10f0

stop()
{

    echo "Unbinding GPU from VFIO-PCI"
    echo -n 0000:08:00.0 > /sys/bus/pci/drivers/vfio-pci/unbind || echo "Failed to unbind gpu from vfio-pci"
    echo -n 0000:08:00.1 > /sys/bus/pci/drivers/vfio-pci/unbind || echo "Failed to unbind gpu-audio from vfio-pci"
    echo -n 10de 1b80 > /sys/bus/pci/drivers/vfio-pci/remove_id
    echo -n 10de 10f0 > /sys/bus/pci/drivers/vfio-pci/remove_id
    echo "Rescanning PCI bus"
    echo -n 1  > /sys/bus/pci/rescan
    echo "Unloading vfio-pci kernel module"
    modprobe -r vfio-pci
    echo -n 0000:08:00.0 > /sys/bus/pci/drivers/nvidia/bind || echo "Failed to bind nvidia gpu"
    echo -n 0000:08:00.1 > /sys/bus/pci/drivers/snd_hda_intel/bind || echo "Failed to bind nvidia hdmi audi"
}


start()
{
    echo "Binding GPU to VFIO-PCI"
    echo -n "0000:08:00.0" > /sys/bus/pci/drivers/nvidia/unbind || echo "Failed to unbind gpu from nvidia"
    echo -n "0000:08:00.1" > /sys/bus/pci/drivers/snd_hda_intel/unbind || echo "Failed to unbind hdmi audio in gpu"
    modprobe vfio-pci
    echo "Loaded vfio-pci kernel module"
    echo -n "10de 1b80" > /sys/bus/pci/drivers/vfio-pci/new_id
    echo -n "10de 10f0" > /sys/bus/pci/drivers/vfio-pci/new_id
}

echo  

case $1 in
    start|stop) "$1" ;;
esac

Door dit script te runnen wordt de GPU weer aan Linux teruggegeven en geeft nvidia-smi:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
root@hepheastus:~# nvidia-smi 
Sun Apr 15 17:09:07 2018       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.130                Driver Version: 384.130                   |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1080    Off  | 00000000:08:00.0 Off |                  N/A |
|  0%   38C    P5    24W / 200W |      0MiB /  8114MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX 108...  Off  | 00000000:43:00.0  On |                  N/A |
| 40%   52C    P8    19W / 250W |   1280MiB / 11158MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    1      1348      G   /usr/lib/xorg/Xorg                           426MiB |
|    1      1738      G   kwin_x11                                      46MiB |
|    1      1741      G   /usr/bin/krunner                               2MiB |
|    1      1743      G   /usr/bin/plasmashell                         684MiB |
|    1      5069      G   ...-token=A4EDB8AD06A2280F6B630504857D21E3   117MiB |
+-----------------------------------------------------------------------------+

Alles werkte al naar behoren (lspci gaf alleen dat de juiste kernel drivers gebind waren) , alleen de PCI rescan bleek nodig te zijn om de Nvidia driver weer te laden/verversen.
Ik weet niet of dit gesneden koek is voor iedereen hier, maar ik vind het wel handig om beide GPUs binnen Linux te kunnen gebruiken. Misschien heeft iemand er wat aan.

Ik weet niet of het ook kan met een mix van AMD/Nvidia, maar twee Nvidia kaarten gaat prima.

  • HashIT
  • Registratie: december 2004
  • Laatst online: 22-07 14:43
Dit is mijn huidige projectje, waarbij ik nog aan het zoeken ben naar de beste oplossingen.


Hypervisor
Ik ben nog op zoek naar de beste oplossing, maar overweeg KVM en/of LXC te gaan gebruiken. Hypervisor wordt dan een kale Ubuntu LTS of Debian, hoewel een andere distro ook nog een optie is.


Hardware
#ProductPrijsSubtotaal
1Gigabyte GA-J3455N-D3H€ 86,-€ 86,-
1Inter-Tech IPC SC-4100€ 83,50€ 83,50
1Kingston HyperX Impact HX318LS11IBK2/16€ 141,50€ 141,50
Bekijk collectie
Importeer producten
Totaal€ 311,-


Op het moment heb ik er twee wat oudere 2TB WD schrijven in zitten. Achteraf gezien had ik even iets langer moeten zoeken naar een MiniITX bord met hardwarematige RAID of een PCI Express slot. Ik heb nu gekozen voor een redelijke hoeveelheid CPU power die passief gekoeld is en vast zit op het bord.


Virtuele machines
Ik ben nog aan het uitzoeken wat beter is, KVM of LXC. Mogelijk dat ik ze ga combineren. Ook de Linux distro's die ik wil gebruiken ben ik nog naar aan het kijken, maar waarschijnlijk wordt dat Ubuntu LTS of Debian.

OS/ApplianceFunctie
LinuxPlex Media Server
LinuxLogitech Media Server
LinuxFileserver (NFS en SMB/CIFS)
LinuxUnifi Controller



Motivatie
Hoe mooi alle standaard NAS oplossingen ook zijn, ik ben graag iets meer in controle en ik wil graag een overzichtelijk systeem. Het idee is om alle diensten te virtualiseren, inclusief de 'NAS' functies.

Op het moment heb ik twee identieke 2GB SATA schijven, met daarop een Linux software RAID 1 (MD), met daarin dan weer een LVM2 volume group.

  • Sandor_Clegane
  • Registratie: januari 2012
  • Laatst online: 17:31

Sandor_Clegane

Fancy plans and pants to match

quote:
Ik zou van de HyperVisor ook de NAS maken, als je dan een VM wilt snapshotten doe je dat gewoon met het host OS. Lekker simpel.


Alles wat op Linux draait zou ik in een container gooien, misschien niet als je een speciale kernel nodig hebt. Daar zou ik een VM van bakken.

Heb zelf een TS440 staan met Ubuntu waar ZFS, LXC en KVM op draaien. Gitlab draait in een container en PFsense draait in een VM met een doorgeluste hardwarematige netwerkkaart.

  • ocf81
  • Registratie: april 2000
  • Laatst online: 00:09

ocf81

Gewoon abnormaal ;-)

Ik heb een vraagje voor degenen die W10 in een VM draaien. Welke licentie hebben jullie? Gaat een OEM licentie werken?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive


  • Sandor_Clegane
  • Registratie: januari 2012
  • Laatst online: 17:31

Sandor_Clegane

Fancy plans and pants to match

quote:
ocf81 schreef op vrijdag 20 april 2018 @ 22:41:
Ik heb een vraagje voor degenen die W10 in een VM draaien. Welke licentie hebben jullie? Gaat een OEM licentie werken?
Volgens mij is een OEM licentie gekoppeld aan de hardware. Als je een VM draait op een machine waar deze licentie bij hoort zie ik geen probleem. Als thuis gebruiker die een OEM licentie op de kop tikt ergens, ook niet. :)

Volgens de EU is het helemaal niet mogelijk voor MS om dit af te dwingen: https://www.theregister.c...g_oem_windows_copies_you/

Is al wel uit 2002, zo YMMV.

  • CHBF
  • Registratie: februari 2012
  • Laatst online: 02-04 14:47
Ik heb begrepen dat het bij het klonen van virtuele machines problemen kan geven omdat er dan iets verkeerd kan gaan aan de kant van MS. :)
Hoe zit dat technisch precies volgens de voorwaarden van die licentie? Windows in een virtuele machine en niet dual booten geeft natuurlijk geen probleem maar wat als je en dual boot en Windows in een virtuele machine draait met 1 licentie (OEM of retail, dat maakt in dit geval niets uit).

Missen jullie ook Neelie Kroes en haar voorganger als commissaris van de EU? Zij konden MS zo lekker aanpakken en ook Intel werd rond dezelfde tijd aangepakt (de boete van €1miljard staat nog open) , de huidige commissaris lijkt een pushover te zijn, je hoort er nooit meer iets over.

CHBF wijzigde deze reactie 26-04-2018 00:29 (6%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 23:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Vrije ruimte terugclaimen door 'hole punching' van VMDK

Met ESXi (en andere hypervisors wellicht ook?) heb je het issue dat wanneer een virtuele disk groeit en er weer ruimte vrijkomt, dit niet weer wordt teruggegeven aan je datastore. De VMDK van een VM blijft daardoor vrij groot waardoor in mijn geval de datastore (250GB SSD) redelijk vol liep. Vooral merkbaar nadat een VM updates heeft geïnstalleerd.

Hieronder wat stappen om weer ruimte te winnen op je datastore. Helaas is er wel downtime van de VM benodigd (10 - 15 min.):
  • Inloggen op Linux VM daarna root worden (sudo su -)
  • cat /dev/zero > /zero.fill;sync;sleep 1;sync;rm -f /zero.fill
    om de vrije ruimte op te vullen
  • VM afsluiten
In ESXi 'hole punchen' in de VMDK:
  • vmkfstools -K Router.vmdk (de normale VMDK, niet de -flat)
  • VM unregisteren en opnieuw importeren
Datastore zou nu een stuk meer ruimte vrij moeten hebben doordat de VM een stuk minder ruimte inneemt. Voor een Windows VM kun je 'sdelete' gebruiken i.p.v. het Linux commando. Het ESXi stukje met vmkfstools zou zelfde moeten zijn.

Een drietal Ubuntu VM's gingen bij mij hiermee van 15-18GB naar zo'n 5-8GB.

ThinkPad wijzigde deze reactie 30-04-2018 13:08 (7%)

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Dit is dus best gevaarlijk op bijvoorbeeld een ZFS installatie, en kan sneller als je een andere blocksize gebruikt.
code:
1
dd if=/dev/zero of=/zero.fill bs=16M; sync; sleep 1; sync; rm -f /zero.fill

Verder goede tip ;)

Even niets...


  • squaddie
  • Registratie: februari 2000
  • Laatst online: 18:22
quote:
ThinkPad schreef op maandag 30 april 2018 @ 12:36:

Vrije ruimte terugclaimen door 'hole punching' van VMDK

Met ESXi (en andere hypervisors wellicht ook?) heb je het issue dat wanneer een virtuele disk groeit en er weer ruimte vrijkomt, dit niet weer wordt teruggegeven aan je datastore. De VMDK van een VM blijft daardoor vrij groot waardoor in mijn geval de datastore (250GB SSD) redelijk vol liep. Vooral merkbaar nadat een VM updates heeft geïnstalleerd.

Hieronder wat stappen om weer ruimte te winnen op je datastore. Helaas is er wel downtime van de VM benodigd (10 - 15 min.):
  • Inloggen op Linux VM daarna root worden (sudo su -)
  • cat /dev/zero > /zero.fill;sync;sleep 1;sync;rm -f /zero.fill
    om de vrije ruimte op te vullen
  • VM afsluiten
In ESXi 'hole punchen' in de VMDK:
  • vmkfstools -K Router.vmdk (de normale VMDK, niet de -flat)
  • VM unregisteren en opnieuw importeren
Datastore zou nu een stuk meer ruimte vrij moeten hebben doordat de VM een stuk minder ruimte inneemt. Voor een Windows VM kun je 'sdelete' gebruiken i.p.v. het Linux commando. Het ESXi stukje met vmkfstools zou zelfde moeten zijn.

Een drietal Ubuntu VM's gingen bij mij hiermee van 15-18GB naar zo'n 5-8GB.
Ander risico als de datastore zeer vol zit is dat de virtuele disk eerst wordt opgeblazen tot maximum grootte en pas bij de tweede stap vrije ruimte gaat terugwinnen.

In principe zou deze workaround niet meer nodig hoeven zijn. Indien het OS Windows server 2012 R2 of hoger is is unmap ondersteunt vanaf esxi 6.0. In 6.5 is SPC-4 support toegevoegd hiermee kunnen Linux distributies die dit ondersteunen unmap commands sturen. Voor beide type besturingsystemen geld dat unmap alleen functioneert bij thin provisioned disks.

There are never enough hours in a day, but always too many days before saturday.


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 20:56

Compizfox

I use Arch, btw

quote:
FireDrunk schreef op maandag 30 april 2018 @ 13:06:
Dit is dus best gevaarlijk op bijvoorbeeld een ZFS installatie, en kan sneller als je een andere blocksize gebruikt.
code:
1
dd if=/dev/zero of=/zero.fill bs=16M; sync; sleep 1; sync; rm -f /zero.fill

Verder goede tip ;)
Waarom is dat gevaarlijk op ZFS-setups?

There is no system but GNU and Linux is one of its kernels


  • vso
  • Registratie: augustus 2001
  • Laatst online: 22:37

vso

raap voor zijn recht

quote:
squaddie schreef op maandag 30 april 2018 @ 22:06:
In principe zou deze workaround niet meer nodig hoeven zijn. Indien het OS Windows server 2012 R2 of hoger is is unmap ondersteunt vanaf esxi 6.0. In 6.5 is SPC-4 support toegevoegd hiermee kunnen Linux distributies die dit ondersteunen unmap commands sturen. Voor beide type besturingsystemen geld dat unmap alleen functioneert bij thin provisioned disks.
Unmap of Trim hangt heel erg af van het OS en de opties available, een paar key features zijn pas available als je disk gezien word als SCSI of SSD disk,
quote:
[...]
Ander risico als de datastore zeer vol zit is dat de virtuele disk eerst wordt opgeblazen tot maximum grootte en pas bij de tweede stap vrije ruimte gaat terugwinnen.
Dit is zoiezo een gevaar van overcommitment, alleen met juist onderhoud en opzet heb je hier echter niet veel last van.

leuk leesvoer
https://support.purestora...anagement_and_Reclamation
en
https://support.purestora...rations/Space_Reclamation

Overgens thin provisioning, heeft meer zin als je deduplication en bv zero detection (misschien een feature van intel Optane?) geactiveerd hebt. nu zal je bv op 250gb ssd niet veel winst hebben maar als elke kb winst is .. hmmm

vso wijzigde deze reactie 01-05-2018 00:02 (8%)

Searching internet is like drinking from a fire hydrant


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
quote:
Compizfox schreef op maandag 30 april 2018 @ 23:36:
[...]

Waarom is dat gevaarlijk op ZFS-setups?
Omdat je bij een ZFS setup, vanwege het copy on write mechanisme, na het het schrijven van de file, deze niet meer weg kan gooien. Bij 0 bytes free mag je geen files meer verwijderen..

Even niets...


Acties:
  • 0Henk 'm!

  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 20:56

Compizfox

I use Arch, btw

quote:
FireDrunk schreef op dinsdag 1 mei 2018 @ 07:02:
[...]

Omdat je bij een ZFS setup, vanwege het copy on write mechanisme, na het het schrijven van de file, deze niet meer weg kan gooien. Bij 0 bytes free mag je geen files meer verwijderen..
Houdt ZFS om die reden geen "slop space" in acht?

There is no system but GNU and Linux is one of its kernels


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 21:15
Nog niet gezien, misschien lig ik wat updates/upgrades achter. Laatste keer dat ik mijn Filesystem vol had, was nogal k*t :+

Even niets...


Acties:
  • +1Henk 'm!

  • Barryke
  • Registratie: augustus 2003
  • Laatst online: 25-10 14:11

Barryke

blauw

Ik gebruikte thuis voorheen VMs en nu vooral Docker.
Het leek mij wel leuk om deze invalshoek aan deze lijst toe te voegen. O-)


Wat gebruik ik thuis
Een server.. voor uitzoek-projectjes, storage, en de magie die in de achtergrond Plex laat werken als een vol-automatische prive Netflix. Ik had vroeger NASjes, maar storage+compute in 1 bak bevalt mij stukken beter (sneller en goedkoper).

Op welke hardware draai ik het
  • Shuttle sx58h7 + Intel i7 920 cpu + 6GB ram
  • 3x HDD 6TB (storage)
  • SSD 512GB (storage cache)
  • Unraid draait in RAM en boot van USB stick
Een kleine, stille, en energiezuinige ex-PC dus. ..maar doet alles met 2 vingers in neus. Zeker nu ik dockers gebruik.

Wat virtualiseer je eigenlijk
Ik heb dockers voor Plex, Sonarr, Radarr, Jackett, Deluge, Cardigann, Plexpy, Domoticz, Headphones, Musicbrainz, oscam, netwerk en device monitoring, en meer dockers van linuxserver.io. Ik draai ook dockers voor backup en file management, transcode en crunchjobs, voip en gameservers, maar die dockers staan niet standaard aan.

Waarom heb ik gekozen voor dit platform?
Ik heb mijn Windows server ooit vervangen door een Linux server met VM waarin Windows draaide, als overgang. Op die server draait Unraid als OS. Ook experimenteerde ik daarop met andere software in VMs.

Inmiddels heb ik alle VMs vervangen door dockers. Die zijn ook te starten/stoppen (commandline of webinterface) en ben er zeer tevreden over. Nog heb ik VMs klaarstaan om aan te zwengelen op die server maar hiervoor heb ik eigenlijk geen noodzaak meer voor.

De hardware blijkt ruim afdoende. Dat had ik niet verwacht, en de setup blijft mij verbazen. Of een proces iets in 0.010 ms of een halve seconde kan regelen maakt mij niet uit, als ik er toch pas 3 minuten of dagen later naar kijk.
Ik moet hard mijn best doen om deze setup over de zeik te krijgen, dat lukt me alleen met een onrealistische IO piek, en zelfs dat herstelt zichzelf weer in 10 seconden. De cache SSD van Unraid is hierin een grote factor. Daarnaast blijkt deze CPU nog steeds erg goed in transcoden, ook vergeleken met hedendaagse cpu modellen.

Error 304: Please hit any user to continue.


Acties:
  • 0Henk 'm!

  • Tombastic
  • Registratie: juni 2013
  • Laatst online: 14-11 21:21
Ik zie hier KVM en LXD/LXC vaak voorbij komen voor servertjes. Mijn vraag is waarom niemand kijkt naar OpenVZ 7? Waarom alleen LXD voor thuisservers?

Op het gebied van efficientie en stabiliteit komt LXC niet eens in de buurt van OpenVZ. Afgelopen 2 weken heb ik met LXD gespeeld op een servertje met 18.04 en het komt niet in de buurt qua performance, stabiliteit en mogelijkheden.

LXC/LXD is leuk voor storage zoals Ceph, maar het is toch wel interessant om dit eens goed te bekijken. De KVM-optie in OpenVZ 7 werkt geweldig en bevat zelfs de virtuozzo guest agent. Maar voor Linux gebruik je de KVM-optie natuurlijk niet ;) .

Met deze guide kun je alles opzetten en inrichten: Klik
ISO: Klik

Comparison:
https://openvz.org/Comparison

Daarnaast is Virtuozzo een veel veiligere optie dan LXC, mocht je de containers het internet op sturen d.m.v. van je homeserver. Iets met ervaring en kernel isolatie etc.

Mocht je hulp nodig hebben, dan hoor ik het natuurlijk graag :)

Tombastic wijzigde deze reactie 05-05-2018 09:33 (7%)
Reden: Links


Acties:
  • 0Henk 'm!

  • Sandor_Clegane
  • Registratie: januari 2012
  • Laatst online: 17:31

Sandor_Clegane

Fancy plans and pants to match

Omdat OpenVZ volgens mij altijd betaalde software was? Staat me zoiets van bij.

Dat is een beetje hetzelfde als dat Solaris Zones niet veel gebruikt wordt, dat is ook elegante software helemaal in combinatie met Crossbow.

Sandor_Clegane wijzigde deze reactie 05-05-2018 11:13 (47%)


Acties:
  • 0Henk 'm!

  • Tombastic
  • Registratie: juni 2013
  • Laatst online: 14-11 21:21
quote:
Sandor_Clegane schreef op zaterdag 5 mei 2018 @ 11:11:
Omdat OpenVZ volgens mij altijd betaalde software was? Staat me zoiets van bij.

Dat is een beetje hetzelfde als dat Solaris Zones niet veel gebruikt wordt, dat is ook elegante software helemaal in combinatie met Crossbow.
OpenVZ is helemaal gratis (altijd al geweest), je hoeft nergens voor de betalen. Alle features kun je gebruiken en het werkt beter dan alle andere alternatieven. Zeker m.b.t. Linux systemen.

In Solaris en OVZ zitten grote verschillen. Maar ik wil OVZ hier benoemen, omdat ik vaak VMware voorbij zie komen voor Linux only systemen, terwijl OVZ minimaal 75% efficienter is. Dan nog het feit dat OVZ zeer stabiel is en meelift op Virtuozzo, de betaalde variant. Dus zeker interessant voor de Tweaker die een stabiele onderlaag wilt hebben met daarin een stukje software in een geïsoleerde container. In een container is het mogelijk om Ubuntu, CentOS, Fedora etc. te draaien.

Tombastic wijzigde deze reactie 05-05-2018 13:05 (3%)


Acties:
  • 0Henk 'm!

  • wopie
  • Registratie: maart 2006
  • Laatst online: 22-11 15:06
Ik ben het met je eens dat het vaak over VMWare gaat. OpenVZ ken ik persoonlijk niet, gezien de comparison-table die je geeft lijkt het mij persoonlijk minder interessant als bijv Proxmox (die ik zelf ook eerder als open-source/freeware concurrent voor ESXi zou zetten).

Zelf maak ik gebruik van SmartOS (een Solaris afgeleide) en daarbinnen van Zones en je hebt ook de mogelijkheid om KVM te gebruiken (men is daar nu bezig met het beschikbaar maken van BHyve, dit is de hypervisor die door FreeBSD is ontwikkeld maar nog erg jong is, de techniek is echter veelbelovend en het feit dat de mannen achter SmartOS dit aan het integreren zijn geeft ook aan dat deze de toekomst heeft voor SmartOS virtualisatie).

SmartOS biedt je naast solaris-zones ook LX-zones, dit zijn containers waarbij de Linux system-calls vertaald worden naar Solaris system-calls en hierdoor near-native speed halen, je kunt zo gewoon je Linux-applicaties in een LX-Zone draaien. Zoals Sandor_Clegane al aangaf heb je voor networking een ERG sterke networking-laag door middel van Crossbow, hiermee kan je prioriseren/scheiden/virtualiseren van netwerken wat je maar wilt.
Afgezien van je type virtualisatie werk je voor je storage in SmartOS met ZFS, hier is al genoeg over genoemd denk ik, maar wanneer je draaiende container/vm's wilt snapshotten/clonen/backuppen en meer van dit soort geavanceerde zaken dan maakt ZFS dit grotendeels out-of-the-box mogelijk.

SmartOS is ook gratis, gemaakt door Joyent die inmiddels zijn opgekocht door Samsung-Mobile, zij moeten Samsungs cloud-infra naar de toekomst tillen. Wanneer je geïnteresseerd bent in de techniek achter onder andere SmartOS kan ik je aanraden wat video's van Bryan Canthrill te gaan kijken (een van de masterminds achter SmartOS), hij kan erg vermakelijk vertellen en je krijgt een goed beeld van hoe zaken zijn ontstaan.

Acties:
  • 0Henk 'm!

  • Tombastic
  • Registratie: juni 2013
  • Laatst online: 14-11 21:21
quote:
wopie schreef op zondag 6 mei 2018 @ 18:23:
Ik ben het met je eens dat het vaak over VMWare gaat. OpenVZ ken ik persoonlijk niet, gezien de comparison-table die je geeft lijkt het mij persoonlijk minder interessant als bijv Proxmox (die ik zelf ook eerder als open-source/freeware concurrent voor ESXi zou zetten).

Zelf maak ik gebruik van SmartOS (een Solaris afgeleide) en daarbinnen van Zones en je hebt ook de mogelijkheid om KVM te gebruiken (men is daar nu bezig met het beschikbaar maken van BHyve, dit is de hypervisor die door FreeBSD is ontwikkeld maar nog erg jong is, de techniek is echter veelbelovend en het feit dat de mannen achter SmartOS dit aan het integreren zijn geeft ook aan dat deze de toekomst heeft voor SmartOS virtualisatie).

SmartOS biedt je naast solaris-zones ook LX-zones, dit zijn containers waarbij de Linux system-calls vertaald worden naar Solaris system-calls en hierdoor near-native speed halen, je kunt zo gewoon je Linux-applicaties in een LX-Zone draaien. Zoals Sandor_Clegane al aangaf heb je voor networking een ERG sterke networking-laag door middel van Crossbow, hiermee kan je prioriseren/scheiden/virtualiseren van netwerken wat je maar wilt.
Afgezien van je type virtualisatie werk je voor je storage in SmartOS met ZFS, hier is al genoeg over genoemd denk ik, maar wanneer je draaiende container/vm's wilt snapshotten/clonen/backuppen en meer van dit soort geavanceerde zaken dan maakt ZFS dit grotendeels out-of-the-box mogelijk.

SmartOS is ook gratis, gemaakt door Joyent die inmiddels zijn opgekocht door Samsung-Mobile, zij moeten Samsungs cloud-infra naar de toekomst tillen. Wanneer je geïnteresseerd bent in de techniek achter onder andere SmartOS kan ik je aanraden wat video's van Bryan Canthrill te gaan kijken (een van de masterminds achter SmartOS), hij kan erg vermakelijk vertellen en je krijgt een goed beeld van hoe zaken zijn ontstaan.
Het is wel veel interessanter dan Proxmox, juist omdat zij gebruik maken van LXC en niet meer van OpenVZ. Daarom gebruik ik Proxmox zelf niet meer. Virtuozzo als organisatie is geen kleine jongen en hebben natuurlijk veel meer ervaring met isolatie en ontwikkelingen van Containers. Als je volledig gebruik wilt maken van alle Proxmox updates etc. moet je een abonnement aanschaffen en dat is bij OpenVZ niet het geval.

SmartOS ziet er ook leuk uit. Enig idee hoelang dit (supported) open-source blijft? Ik weet niet in hoeverre het echt vergelijkbaar is met LXC en OVZ qua OS-container isolatie etc.. Zal dit later eens bekijken. Als mensen overweg kunnen met LXC via de terminal, dan is OVZ helemaal makkelijk met de guide erbij.

Acties:
  • +1Henk 'm!

  • wopie
  • Registratie: maart 2006
  • Laatst online: 22-11 15:06
quote:
Tombastic schreef op zondag 6 mei 2018 @ 21:02:
[...]


Het is wel veel interessanter dan Proxmox, juist omdat zij gebruik maken van LXC en niet meer van OpenVZ. Daarom gebruik ik Proxmox zelf niet meer. Virtuozzo als organisatie is geen kleine jongen en hebben natuurlijk veel meer ervaring met isolatie en ontwikkelingen van Containers. Als je volledig gebruik wilt maken van alle Proxmox updates etc. moet je een abonnement aanschaffen en dat is bij OpenVZ niet het geval.

SmartOS ziet er ook leuk uit. Enig idee hoelang dit (supported) open-source blijft? Ik weet niet in hoeverre het echt vergelijkbaar is met LXC en OVZ qua OS-container isolatie etc.. Zal dit later eens bekijken. Als mensen overweg kunnen met LXC via de terminal, dan is OVZ helemaal makkelijk met de guide erbij.
Ik weet niet hoe lang het supported/open source blijft. Wat ik wel weet is dat het bedrijf dat erachter zit (Joyent) het zelf gebruikt voor hun cloud-platform en dat het open-sourcen van Solaris naar Illumos destijds hun dit alles heeft gebracht (de license van de code is op dit moment CDDL).

Acties:
  • 0Henk 'm!

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
Tombastic schreef op zondag 6 mei 2018 @ 21:02:
[...]
Het is wel veel interessanter dan Proxmox, juist omdat zij gebruik maken van LXC en niet meer van OpenVZ. Daarom gebruik ik Proxmox zelf niet meer.
Proxmox is al heel lang over geschakeld op LXC. :-)
(Ik dacht zelfs 1 of 2 jaar alweer.)

https://pve.proxmox.com/wiki/Linux_Container
quote:
Virtuozzo als organisatie is geen kleine jongen en hebben natuurlijk veel meer ervaring met isolatie en ontwikkelingen van Containers. Als je volledig gebruik wilt maken van alle Proxmox updates etc. moet je een abonnement aanschaffen en dat is bij OpenVZ niet het geval.
Is niet waar.
Het énige dat je niet krijgt zonder (betaalde) licentie is toegang tot de zng. stable repository. Dus de updates die je krijgt, zijn niet volledig door Q&A heen. Je krijgt ze wel. Kwestie van de repo aanpassen.

Zie hun wiki:
https://pve.proxmox.com/w...o_subscription_repository

Het enige dat je niet weg krijgt is het nagscreen. (Nja, kan wel, maar dat duurt maar 1 update.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0Henk 'm!

  • Tombastic
  • Registratie: juni 2013
  • Laatst online: 14-11 21:21
quote:
unezra schreef op maandag 7 mei 2018 @ 06:36:
[...]


Proxmox is al heel lang over geschakeld op LXC. :-)
(Ik dacht zelfs 1 of 2 jaar alweer.)

https://pve.proxmox.com/wiki/Linux_Container
1 of 2 jaar vind ik persoonlijk niet echt lang. Dan alsnog is het erg zonde, maar dat hebben zij wel begrepen van de gebruikers :) Ze hebben OVZ6 bij Proxmox uitgefaseerd na de OVZ7 release. Aangezien Virtuozzo nu een eigen OS gebruikt i.p.v. een kernel replacement in een linux distributie.
quote:
Is niet waar.
Het énige dat je niet krijgt zonder (betaalde) licentie is toegang tot de zng. stable repository. Dus de updates die je krijgt, zijn niet volledig door Q&A heen. Je krijgt ze wel. Kwestie van de repo aanpassen.

Zie hun wiki:
https://pve.proxmox.com/w...o_subscription_repository

Het enige dat je niet weg krijgt is het nagscreen. (Nja, kan wel, maar dat duurt maar 1 update.)
Heb dit ook een tijdje gebruikt, melding is idd makkelijk weg te krijgen. Het ligt eraan hoe stabiel de omgeving moet zijn :) Heb destijds wel een licentie gekocht, toen was het nog een stuk goedkoper en was het niet echt bug-free. + het feit dat Proxmox een leuk schilletje is, maar (helaas) onderwater gewoon LXC gebruikt.

Tombastic wijzigde deze reactie 07-05-2018 06:53 (12%)


Acties:
  • 0Henk 'm!

  • unezra
  • Registratie: maart 2001
  • Laatst online: 15:55

unezra

Allround ICTer, OSS adept.

quote:
Tombastic schreef op maandag 7 mei 2018 @ 06:47:
[...]
1 of 2 jaar vind ik persoonlijk niet echt lang.
Ik heb het even opgezocht:
https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_4.0

Released 05.10.2015

Dus ruim 2.5 jaar nu, wat ik persoonlijk best een lange tijd vind.
quote:
[...]
Heb dit ook een tijdje gebruikt, melding is idd makkelijk weg te krijgen. Het ligt eraan hoe stabiel de omgeving moet zijn :) Heb destijds wel een licentie gekocht, toen was het nog een stuk goedkoper en was het niet echt bug-free.
Geen enkele software is bug-free. Ook ESXi niet.
Bugs as-such zijn niet echt spannend, zolang je er maar niet al te veel last van hebt. :)

Ik gebruik PVE nu een jaar of 3, 4 denk ik en eigenlijk akelig tevreden over. Vind het veel flexibeler dan een ESXi en qua features gaat ESX daar alleen overheen als je fors in de buidel tast. (Sommige features heeft het helemaal niet. Logisch, gezien de andere markt maar dat zijn nu net de features die voor kleinere omgevingen nuttig zijn.)

Vind de prijs redelijk mee vallen, al zijn ze idd wat gestegen. Dacht dat het rond de €5,- per CPU per maand lag maar het is nu €6,24 per CPU per maand. (€74,90 per jaar) Kan ook zijn dat ik me daarin vergis.

Da's overigens voor community support en toegang tot de stable/enterprise repo, maar voor zo'n prijs per maand kun je logischerwijs geen volledige support verwachten. (Hoewel bizar genoeg ik bij een totaal ander stuk software wél volledige support kreeg voor een behoorlijk laag bedrag. Mixcraft, aangeschaft voor rond de €120 en dan krijg je veel meer dan alleen community support.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0Henk 'm!

  • Tombastic
  • Registratie: juni 2013
  • Laatst online: 14-11 21:21
quote:
unezra schreef op maandag 7 mei 2018 @ 07:07:
[...]


Ik heb het even opgezocht:
https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_4.0

Released 05.10.2015

Dus ruim 2.5 jaar nu, wat ik persoonlijk best een lange tijd vind.


[...]


Geen enkele software is bug-free. Ook ESXi niet.
Bugs as-such zijn niet echt spannend, zolang je er maar niet al te veel last van hebt. :)

Ik gebruik PVE nu een jaar of 3, 4 denk ik en eigenlijk akelig tevreden over. Vind het veel flexibeler dan een ESXi en qua features gaat ESX daar alleen overheen als je fors in de buidel tast. (Sommige features heeft het helemaal niet. Logisch, gezien de andere markt maar dat zijn nu net de features die voor kleinere omgevingen nuttig zijn.)

Vind de prijs redelijk mee vallen, al zijn ze idd wat gestegen. Dacht dat het rond de €5,- per CPU per maand lag maar het is nu €6,24 per CPU per maand. (€74,90 per jaar) Kan ook zijn dat ik me daarin vergis.

Da's overigens voor community support en toegang tot de stable/enterprise repo, maar voor zo'n prijs per maand kun je logischerwijs geen volledige support verwachten. (Hoewel bizar genoeg ik bij een totaal ander stuk software wél volledige support kreeg voor een behoorlijk laag bedrag. Mixcraft, aangeschaft voor rond de €120 en dan krijg je veel meer dan alleen community support.)
Het werkt zeer goed als managementtool, dat ben ik met je eens. :) Maar het blijft LXC..... En ik vind LXC helemaal niet productie-ready of krachtig genoeg om bijv. in een enterprise/productie-omgeving te gebruiken. Wel leuk om mee te hobbyen natuurlijk, maar het is zeker geen vervanger voor mijn OVZ installaties :) Niet efficiënt genoeg en nogal omslachtig om de config in te richten naar wens.

Ik snap in het algemeen ook niet waarom ze 'het wiel opnieuw uitvinden' met LXC, maar goed...

Tombastic wijzigde deze reactie 07-05-2018 08:01 (6%)

Pagina: 1 ... 4 5 6 Laatste


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische voertuigen

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True