Xen op freebsd als Domain 0 (host) + vga,usb,sound

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter

Inleiding

Mijn doel is Xen te draaien met ZFS(FreeBSD) als Xen Domain 0
Waarom kies ik en zou jij ook voor deze hardware/software setup kunnen kiezen? Wat is het nut? Kan je je afvragen.

2 van de voordelen in het kort
*) Geen harddisk space verkwisting (en het is al zo duur nu)
*) optimaal gebruik van je hardware

Nu ik draai een al een tijdje wat diensten "virtueel" bv fileserver/Nas, torrent/Usenet client en natuurlijk desktop. Hoe mooi is het als je 5 tot meer machines allemaal op 1 fysieke bak kan gooien en kan draaien?
met daaraan 4 monitoren, 2 muizen, 2 toetsenborden en 2x geluid.Nu is dit wel mogelijk met Xwindows en veel configuratie. Maar je wilt wellicht windows 7 draaien weinig configureren? Nu ik wel. Daarnaast wil ik ook nog centrale opslag tot zijn volste capaciteit benutten.

Maar dan krijg je nog je hardware afhankelijkheid, 1 machine klinkt leuk maar wat als je moederbord overlijd ?
ZFS is transporteerbaar op andere hardware en tevens kan je ervan booten. ook RaidZ-2 betekend dat ik 2 schijven die "dood" gaan kan overleven. met Xen kan je ook je desktop weer terug krijgen (misschien zonder beeldscherm direct aangesloten maar ook dat is overleefbaar als je remote desktop actief hebt)


Xen + passthrough
Xen is een hypervisor als ESXi (Vsphere),Hyper-V en draait op "bare metal" oftewel direct op de hardware.
De techniek(en) die je moederbord/CPU moeten hebben zijn:
- VT-d
- IOMMU
Wat kan je ermee ? Nu een Guest OS direct toegang geven tot de "hardware", let op hiermee word de guest niet meer te verplaatsen naar een andere machine (vmotion/live migration).
Xen Is de enige die VGA Passthrough op dit moment van schrijven ondersteund.
ESXi (Vsphere 5) ondersteund ook PCI(e) passtrhough maar helaas geen VGA
Overige hypervisors zover ik weet nog niet ondersteuning voor PCI(e) Passthrough,
Virtualbox is ermee bezig dit zou ook een overweging zijn


FreeBSD
Waarom wil ik FreeBSD? Tja ik zou voor Solaris kunnen kiezen, maar een linux is geen optie dit heeft Fuse-ZFS wat gewoon nog niet zo volwassen is als de BSD/Solaris variant. Fuse-ZFS is te "traag" en weinig tuning opties. Solaris is trouwens de "uitvinder" van dit FS
ZFS Dit is een FileSysteem (FS) die heel anders werkt dan RAID, partion manieren( zoals LVM) en andere Filesystems(NTFS/Ext3/Ext4/Fat32 etc) terwijl het eigenlijk een combinatie is van die 3 dingen is.
een aantal +punten en -punten
+ Bij elke disk die je toevoegt kan het de snelheid verhogen
+ Zeer snel (SSD performance kan je benaderen)
+ RaidZ kan afhankelijk van de gekozen setup met 1,2 of 3 willekeurige disks die uitvallen overweg
+ Kost naderend tot geen CPU (tenzij je encryptie inschakeld)
+ Kan SSD caching/loging doen
- Zeer geheugen intensief
- Je diskcontroller(s) sata/ide/scsi zijn erg bepalend voor performance
Wil je meer weten over ZFS zie dan Het grote ZFS topic die je meer uitlegt



De setup


Hardware specificaties
- Mainbord: Intel DX58SO2
- CPU I7 980 (6 core) 3.3 ghz
- RAM 24 GB (max 48 GB )
- GPU's (zal ik later op terug komen)
- 6x 1TB WD EADS (ik weet slechte schijven)
update: schijven zijn eruit gehaald en verplaatst naar andere machine
- 2x Intel netwer kaarten (nu nog onboard)
DX58SO2 Het mainboard is erg bewust gekozen, max geheugen is 48GB ram en genoeg PCIe sloten
de bios is trouwens uitzonderlijk "mooi" heel erg compleet en wil je weten welk slot/hardware je hebt is dat goed vanuit de bios te zien. USB flash zonder extra utilities. _/-\o_ Cheappo Intel _/-\o_


software
- Xen hypervisor 4.1
- Freebsd 8.2
- Fedora 16
update:helaas vervangen door een ZFSGuru installatie
- Windows 7 (xen guest)
Base OS
Update: FreeBSD is nog niet mogelijk overgeschakeld naar Fedora met ZFS(Guru) NAS
Een belangrijke note die je wilt voor je Dom0 (host) os, houd de installatie Generiek en "uitgebreid" dit voorkomt hardware issues moment dat je hardware 'faalt" en je het OS transplanteert naar een ander systeem.
BV kernel zaken, zet waar mogelijk alles als modules op(te laden indien nodig) en houd een goeie uitgebreide kernel achter de hand .. (je kan natuurlijk een kernel maken met hardware specifieke zaken als primaire boot optie)



De install

Hypervisor, de hypervisiors Xen,Vshpere 5 geprobeerd. Vsphere mist dus de VGA passthrough
Xen niet dus we gaan daarmee verder


Dom0 (base OS)
Xen 4.1 (moment van schrijven de laatste) kan helaas niet op FreeBSD geinstalleerd worden, de tarbal bevat een verwijzig naar NetBSD en wat FreeBSD opties maar wil je het zelf doen zie de volgende post.


Dus overgestapt (helaas) op een Linux distributie in dit geval Fedora 16.
Het is raadzaam een complete desktop install van fedora te doen. omdat dit jezelf enorm "vergemakkelijkt"
dus ook met Xwindows (gnome/kde desktop)


Geinstalleerd schakel je naar (alt+ctrl+f2) tty2/tty3 en log je in als root. (mag ook sudo)
code:
1
- yum install xen, virtmanager, python en nog wat andere meuk (update later)



Wanneer je met "virt manager" aan de slag gaat, is het raadzaam om het als root op te starten.
En ik maakte de fout om QEMU te connecten maar je moet connect naar xen://. Als deze goed geinstalleerd is is dit trouwens een "selectable" optie.


Voor een "virtuele" omgeving is het raadzaam de volgende zaken eerst te doen:
- Private (internal) netwerk, deze heeft geen connectie naar de buitenwereld.
- Storage te defineren (ISCSI connectie bv naar NAS) hierop komen de machines
- Systeem tijd (liefst via NTP protocol) goed te zetten
- Je passthrough appartuur te "mappen", hiermee bedoel ik identificeer elk poortje en elke mogelijk aparaat
wat je aangesloten wilt hebben ook eventuele toekomstige appratuur.

1 Van de dingen waar je over gaat struikelen is de USB poort die je aan je guest gaat toewijzen welke is nu welke? De PCI apparatuur is wel handig dat je weet hoe de notatie is. ;)


Tools
Voor mijn tooling heb ik een aantal dingen gebruikt:
- Portable USB CD/DVD-r/w slim drive (goud)
- USB stick(s) (install cd's/test boot image/reddings tools)
- Aditionele software (intel preboot, boos flash etc)

Voor USB stick is er een geweldige handleiding: DIT IS FREEWARE
(voordat ik gezeur met mod krijg, anders bij deze verwijder de link)
http://www.hiren.info/pages/bootcd-on-usb-disk

Om de cd te downloaden
http://www.hirensbootcd.org/download/

Nu dat je de USB stick hebt, download je
- preboot.exe (bij intel te verkrijgen)
- BIOS update tools (voor je mobo's)
- ghost32.exe
Pak ze uit in root van je USB stick, deze helpen je eenvoudig zaken voor elkaar te krijgen.
PS: Voor de dos utility bootutil zet de bootIMG.flp bij de executable

Hirens bied zelf ook nog wat tools o.a partitie editors en andere handige meuk.


[h2]ISCSI boot[/b]
Waarom zou jij ISCSI boot willen gebruiken?
In plaats van 100GB of meer op je HD te verspillen, kan je ook gebruik maken van ZFS/RAID5 gehoste Disks
die "op maat" zijn voor jou wensen. Helaas kan je zonder netwerk niet booten (of wireless kan ook niet)
Let wel erop of je NAS rap genoeg is.

Server
Je moet een "target" server hebben meeste NAS apparaten of "zelfbouw" NAS op een stick hebben deze functionaliteit. (FreeNAS en ZFSguru o.a)

Client
Ik ga bij voorkeur uit van PCIe netwerk kaarten Intel (andere merken???) deze moet je flashen via de bootutil.exe van Intel. Ik heb hiervoer een Intel CT desktop adapter gebruikt
Onboard nics (helaas werkt niet)
Het commando:
code:
1
bootutil.exe -up=iscsi -all

Je krijgt een aantal vragen of je zeker de PXE (nutteloos) wilt backup-en (nee) en daarna schrijft tie de PXE image over met ISCSI (je kan zelfde wijze ook EFI boot doen (handig ??? ik weet het niet)

http://Etherboot.org heeft ook een USB/ISO en howto's hoe je dit met andere netwerk kaarten doet.
Helaas heb ik het niet werkend gekregen door "wat in te rammen" maar dit word wel een missie :)

[ Voor 96% gewijzigd door vso op 21-11-2011 07:37 . Reden: Toevoeging en interpunctie + schrijffouten ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • 0xDEADBEEF
  • Registratie: December 2003
  • Niet online
vso schreef op vrijdag 18 november 2011 @ 01:42:
na het downloaden kwam ik 1 dingen tegen waar die gewoon over de nek van ging.

open dan het volgende bestand in je tekst editor
code:
1
/xen-4.1-testing.hg/config x86_64.mk

vervang
code:
1
2
ifeq ($(XEN_OS),OpenBSD)
LDFLAGS_DIRECT += -melf_x86_64_obsd


door
code:
1
2
ifeq ($(XEN_OS),FreeBSD)
LDFLAGS_DIRECT += -melf_x86_64_fbsd
toon volledige bericht
'kzou een patch submitten als ik jou was :)

http://wiki.xen.org/xenwiki/SubmittingXenPatches

Zie ook http://wiki.freebsd.org/FreeBSD/Xen

"Religion is an insult to human dignity. With or without it you would have good people doing good things and evil people doing evil things. But for good people to do evil things, that takes religion." - Steven Weinberg


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Op het moment van schrijven is de installatie nog in volle gang en loop ik tegen diverse "drama's aan"
ik installeer FreeBSD 8.2 van memstick editie .. (er is een windows tool die de .img op usb zet gratis)

Om jullie deze drama's te besparen moet je de volgende "stappen" doen (tot nu toe)

Als ik de volledige "dir" heb zet ik ze erbij, tot nu toe zeker nodig met verse installatie als".
"Vereisten voor installatie begint"
/usr/ports/devel/mercurial
gmake
ocaml
compat5x
gcc
/usr/ports/devel/git
openssl

Nog niet zeker op moment van schrijven (kvm).
???x11 (gnome2)??

code:
1
hg clone http://xenbits.xensource.com/ de xen-4.x source

Na het downloaden kwam ik 1 dingen tegen waar die gewoon over de nek van ging.

Open dan het volgende bestand in je tekst editor.
code:
1
/xen-4.1-testing.hg/config x86_64.mk

Vervang
code:
1
2
ifeq ($(XEN_OS),OpenBSD)
LDFLAGS_DIRECT += -melf_x86_64_obsd


Door
code:
1
2
ifeq ($(XEN_OS),FreeBSD)
LDFLAGS_DIRECT += -melf_x86_64_fbsd
Teveel werk en Dom0 is nog niet ondersteund.

De wiki zegt niks intressants(helaas)

[ Voor 77% gewijzigd door vso op 21-11-2011 09:50 . Reden: interpunctie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Nu kvm is wellicht het volgende waar de install op stuk loopt.

Dit lijkt wat belovend(s) http://retis.sssup.it/~fabio/freebsd/lkvm/
voor die heb je nodig
/usr/ports/emulators/qemu
/usr/ports/devel/linux-kmod-compat
Linux emulatie ? (schijnt beter te draaien dan linux direct op de host_ dus dat zou wellicht nog intressant zijn
althans dat was vroeger die emulatie .. nu ?? kweenie.


/usr/ports/ftp/wget moet je ook installeren (clean install)

XWindows(gnome) ben ik niet zo zeker van dat het nodig is ..
of het is
/usr/ports/x11/xorg

In iedergeval dat lijkt me weer een error minder op te leveren

[edit]
nu hij errort weer ergens :(
code:
1
<installdir>/tools/include/../../tools/cross-install -m0644 -p xen/sys/*.h <installdir>/dist/install/usr/include/xen/sys


Dat fix je door naar
code:
1
cd /tools/include/xen-sys

Copieer NetBSD naar een nieuwe Dir genaamd "FreeBSD"
duik in de 2 bestanden die in je nieuwe Dir zitten en vervang elk woordje "NetBSD" naar "FreeBSD"

Oww wel handig ter info voor "debug" gebruik gewoon "gmake" volgens de documentatie moet je "gmake world" doen maar tja .. voor nu niet

[ Voor 53% gewijzigd door vso op 21-11-2011 09:49 . Reden: interpunctie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
8)7
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
gmake[3]: Entering directory `/usr/home/xen/xen-4-1/tools/libxc'
gmake libs
getconf: no such configuration parameter `LFS_CFLAGS'
gmake[4]: Entering directory `/usr/home/xen/xen-4-1/tools/libxc'
gcc  -O2 -fomit-frame-pointer -m64 -fno-strict-aliasing -std=gnu99 -Wall -Wstrict-prototypes -Wno-unused-value -Wdeclaration-after-statement  -D__XEN_TOOLS__ -MMD -MF .xc_hcall_buf.o.d  -D_LARGEFILE_SOURCE -D_LARGEFILE64_SOURCE  -I../../xen/common/libelf -Werror -Wmissing-prototypes  -I. -I../xenstore -I../include -c -o xc_hcall_buf.o xc_hcall_buf.c
In file included from xc_hcall_buf.c:20:
/usr/include/malloc.h:3:2: error: #error "<malloc.h> has been replaced by <stdlib.h>"
cc1: warnings being treated as errors
xc_hcall_buf.c: In function 'xc__hypercall_buffer_alloc_pages':
xc_hcall_buf.c:149: warning: implicit declaration of function 'memalign'
xc_hcall_buf.c:149: warning: assignment makes pointer from integer without a cast
gmake[4]: *** [xc_hcall_buf.o] Error 1
gmake[4]: Leaving directory `/usr/home/xen/xen-4-1/tools/libxc'
gmake[3]: *** [build] Error 2
gmake[3]: Leaving directory `/usr/home/xen/xen-4-1/tools/libxc'
gmake[2]: *** [subdir-install-libxc] Error 2
gmake[2]: Leaving directory `/usr/home/xen/xen-4-1/tools'
gmake[1]: *** [subdirs-install] Error 2
gmake[1]: Leaving directory `/usr/home/xen/xen-4-1/tools'
gmake: *** [install-tools] Error 2


8)7 8)7 |:( 8)7 8)7

Maar goed goed je komt al een heel eind door in de source code.
Overal waar open/net BSD voorkomt dit te veranderen naar FreeBSD zowel bestandsnamen/directories en in de file zelf.

Iemand een handige awk code voor ofzo ?

Maar dan begint de code ellende .. niet gedeclareerde waardes of functies die niet kloppen .. teminste laat ik er wel bij zeggen dat ik niet een find + replace op de "source" heb los gelaten ..



Ben het even zat en heb Fedora 16 dvd maar op de machine los gelaten, natuurlijk word de marvel chip niet herkend dus ben ik gedwongen 1 van de toekomstige zfs schijven te gebruiken wat niet erg is want dit zal later toch aangepast worden.

Waarom ? omdat ik toch wat meer van de Xen kant wil zien van de oplossing, GPU, Sound en USB passthrough + eventuele ZFS guru (smerig maar als het werkt ..) in een guest kan ik verder FreeBSD + xen gaan etteren en dit topic omtoveren in een hopenlijk werkende oplossing (ook FreeBSD 9.0 verdient wellicht wat meer aandacht ..

[ Voor 27% gewijzigd door vso op 21-11-2011 09:48 . Reden: interpunctie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Fedora draait op de oude FreeBSD machine, xen draait en nu kom ik erachter dat de marvel sata controler(s) GB/s op het moederbord de disks "niet zien" linux bug ofzo

Ik heb gelukkig nog 1 sata raid PCI liggen dus deze gaat dan maar ten koste van de sound van de 2de werkstation.

Hopen dat mijn video-kaarten die ik rond heb slingeren recent genoeg zijn voor de VGA passthrough
Fedora 16
De installatie van Fedora 16 was lekker simpel, na xen install via yum kan je tijdens boot
gewoon xen aangeven en alles draait.

Grub2 is wel bijzonder "irritant" het is niet zo van "ff aanpassen" zoals je gewent bent. maar goed dat is ook overleefbaar.

Wegens de sata controller probleem moet ik echter nu wel ff de bootdisk van 1 tb wijzigen naar een laptop schijf zodat ik met ZFS guru kan gaan spelen :)

[ Voor 36% gewijzigd door vso op 22-11-2011 09:45 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Waarom probeer je niet met FreeBSD 9? Daar zou Dom0 supported moeten zijn; voor FreeBSD 8 alleen DomU.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op vrijdag 18 november 2011 @ 23:07:
Waarom probeer je niet met FreeBSD 9? Daar zou Dom0 supported moeten zijn; voor FreeBSD 8 alleen DomU.
Das een goeie vraag, iso brand nu :P

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
vso schreef op vrijdag 18 november 2011 @ 23:23:
[...]
Das een goeie vraag, iso brand nu :P
Tijdens de install had ik 8.2 en niet echt onderzoek gedaan eigenlijk ervan uit gegaan dat xen wel op 8.2 ondersteund zou worden .. immers xen moet toch wel redelijk volwassen zijn (d8 ik)

na de install en bovenstaande "trail" was ik het even zo zat dat ik fedora 16 gedownload heb en erop geramd.
ook kon ik niet echt de installs vinden van FBSD op 9.0 die je nodig hebt voor xen.. maar goed install is het wel waard.


update 1
CD install died on me .. naar USB stick dan maar (grrr)


update2
Wauw de install van freebsd 9.0 beta 2 ziet er echt "netjes" uit (draai nu van usb stick) raid van de marvel chip word niet herkend .. maar ja dat moet dan maar :P

[ Voor 18% gewijzigd door vso op 18-11-2011 23:59 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

ZFSguru heeft ook een FreeBSD 9 image trouwens. De 'experimental' LiveCD draait bijvoorbeeld FreeBSD 9.0-RC1. Xen lijkt mij erg interessant en hopelijk leuk speelgoed voor professionele virtualisatie!

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op vrijdag 18 november 2011 @ 23:57:
ZFSguru heeft ook een FreeBSD 9 image trouwens. De 'experimental' LiveCD draait bijvoorbeeld FreeBSD 9.0-RC1. Xen lijkt mij erg interessant en hopelijk leuk speelgoed voor professionele virtualisatie!
Ik zie proffensioneel niet zoveel toepassing voor XEN behalve situaties waar je een dongel deeld tussen 2 werkplekken ofzo .. maar die zijn vrij uniek.
Let op ik heb het niet over hypervisor maar over de specifieke PCI(e) passthrough optie ..

Baremetal hypervisors tja ZFS is gewoon een heftig goeie combo als je die met xen kan combineren. High end performance voor relatief weinig geld. Het maakt het een zeer goeie oplossing imho voor MKB.
(whitebox servers)

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Niet veel toepassing?? Virtualisatie is super-hot, en Xen is in feite de beste vorm van (para)virtualisatie waarbij Xen-native kernels op volle snelheid werken met veelal directe toegang tot hardware. Dus dat is super sexy en kent enorm veel toepassingen, veel maar dan virtualisatie via Virtualbox bijvoorbeeld.

Wat mij zelf erg gaaf lijkt is FreeBSD als Dom0 host draaien en Ubuntu Linux als guest waarbij de videokaart/GPU via passthrough wordt doorgegeven. Dit is nog niet functioneel als ik goed had begrepen, maar theoretisch wel mogelijk in de toeokomst. Dit soort ontwikkelingen lijken mij enorm interessant.

Voor (virtual) hosting providers lijkt me Xen ook een superieure optie, zodat je je eigen kernel + OS kunt draaien binnen een virtual hosting environment. Ik zie genoeg mogelijkheden en toepassingen in elk geval!

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zaterdag 19 november 2011 @ 00:34:
Niet veel toepassing?? Virtualisatie is super-hot, en Xen is in feite de beste vorm van (para)virtualisatie waarbij Xen-native kernels op volle snelheid werken met veelal directe toegang tot hardware. Dus dat is super sexy en kent enorm veel toepassingen, veel maar dan virtualisatie via Virtualbox bijvoorbeeld.
Op dit moment is virtualisatie eigenlijk alleen geschikt voor servers die 99% niks zitten te doen ..
En natuurlijk de hardware onafhankelijkheid (zijn 2 aparte zaken)

Maar voor bv jou en mij houd het snel op bij "test" machines (welk doel dan ook) het is goedkoop(er) als je er bv 3 machines voorheen zou draaien .. dan is 1 monster intressant(er).

Kom zo nog even op terug.
Wat mij zelf erg gaaf lijkt is FreeBSD als Dom0 host draaien en Ubuntu Linux als guest waarbij de videokaart/GPU via passthrough wordt doorgegeven. Dit is nog niet functioneel als ik goed had begrepen, maar theoretisch wel mogelijk in de toeokomst. Dit soort ontwikkelingen lijken mij enorm interessant.

Voor (virtual) hosting providers lijkt me Xen ook een superieure optie, zodat je je eigen kernel + OS kunt draaien binnen een virtual hosting environment. Ik zie genoeg mogelijkheden en toepassingen in elk geval!
Dat virtualisatie hot is zie je wel aan Het grote thuis-virtualisatie topic het is trouwens voordeliger ..om onder andere de redenen die ik hierboven aangeef.

Wat FreeBSD vooral ophoud is het netwerk en VT-d (de passthrough) optie als Dom0 is me met 9.0 rc1 ook niet gelukt. Erg jammer.

Wat ik overgens lees al zou je Dom0 aan de gang krijgen dan zijn er netwerk issues (die wil je al helemaal niet toch ?)

Maar goed iets wat ik dus intressant vind is de passthrough en ZFS combo zeker omdat de performance van zfs zo dicht tegen een SSD aan kan komen (IMHO) met het voordeel van "veel" space ..

[ Voor 0% gewijzigd door vso op 21-11-2011 09:47 . Reden: interpunctie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 16-08 17:34

CAPSLOCK2000

zie teletekst pagina 888

vso schreef op zaterdag 19 november 2011 @ 02:28:

Op dit moment is virtualisatie eigenlijk alleen geschikt voor servers die 99% niks zitten te doen ..
en natuurlijk de hardware onafhankelijkheid (zijn 2 aparte zaken)
Ik weet niet waar je dat vandaan haalt maar het klopt niet. Virtualisatie is razendsnel de default aan het worden. Ik zou je stelling durven omdraaien. Virtualisatie is voor de 99% van de servers die niet de hele dag door overbelast zijn.

Je spaart niet alleen op de directe hardware kosten maar ook op beheer. Alleen al de tijd die je niet meer hoeft te besteden aan het uitpakken en ophangen van servers is al de moeite waard.

Op CPU heb je nauwelijks overhead. Op IO wat meer, maar als je een beetje groot virtualiseert kun je geld uitgeven aan een snel SAN in plaats van met langzame lokale disks te werken.

Als moderator vraag ik me een beetje af waar dit topic naar toe gaat, het lijkt wel een blog.

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
CAPSLOCK2000 schreef op zaterdag 19 november 2011 @ 12:27:
Ik weet niet waar je dat vandaan haalt maar het klopt niet. Virtualisatie is razendsnel de default aan het worden. Ik zou je stelling durven omdraaien. Virtualisatie is voor de 99% van de servers die niet de hele dag door overbelast zijn.
Je zegt het zelfde als ik ;) of bedoelt het zelfde ;)

Overgens Xen en FreeBSD(met name ZFS) lijken niet verenigbaar te zijn reden :?
Althans niet de manier die ik graag zou willen ..

[ Voor 0% gewijzigd door vso op 21-11-2011 07:05 . Reden: interpunctie ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Goed wat ik wil gaat niet werken, ESXi 5.0 is ook in de buurt, alleen geen vga passthrough.

@chiperIk bouw nu een externe NAS op basis van ZFSGuru (hopen dat ik loadbalancing op de nic's aankrijg) daarvan moet ik van 6 disks terug naar 5 omdat het moederbord maar 5 onboard heeft (pcie)
en een pci insteek kaartje niet werkt.
O ter info .. op esxi had ik zfs guru wel aan de slag met de disks "native" via de interne en een pci controler

Xen 4.1 zal wel gebruikt gaan worden maar dan met Fedora 16 als dom0

Voor iedereen die dit ook wilt doen, zorg dat je main videokaart die je via VT-d passthrough gaat doen.
Niet de gene is die je aanwijst als eerste guest OS die je wilt toepassen. (je verliest beeld :( ik deed het via virt-manager en instant geen beeld meer.. vandaar dat ik even ESXi 5.0 geprobeerd had..)

[ Voor 15% gewijzigd door vso op 21-11-2011 07:05 . Reden: interpunctie etc ]

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Je hebt toch ook geen beeld nodig? Gewoon alles via de web-interface of via SSH doen? Sommige van mijn servers draaien helemaal zonder videokaart (chipset zonder IGP en CPU zonder IGP).

Ben wel erg benieuwd of het sharen van je GPU aan de guest nou werkt? Dus FreeBSD als host en Ubuntu als guest die dan de GPU krijgt en dat je bijvoorbeeld kunt gamen binnen de guest met goede performance? Dat zou wel kewl zijn als de virtualisatie op dat niveau zou raken. :)

Maar over je controller: welk PCI kaartje werkt niet? Welke chip zit daar op? Je kunt ook een Silicon Image SiI-3132 overwegen. Maar als je nou een échte controller wilt is een IBM M1015 wel gaaf, en dan flashen naar IT firmware en je hebt een kinky 6Gbps controller voor 8 schijven.

Wat zijn nu eigenlijk de problemen waar je tegenaan loopt? ZFS niet te verenigen met Xen? Ik snap het niet zo goed.

Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 16-08 17:34

CAPSLOCK2000

zie teletekst pagina 888

Ik vind dit topic maar erg moeilijk om te volgen. VSO, kun je iets meer hoofdletters gebruiken en je posts nog een keertje nalopen op fouten? tnx.

[ Voor 54% gewijzigd door CAPSLOCK2000 op 20-11-2011 16:04 ]

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

Verwijderd

Met dank aan CAPSLOCK2000 voor het heropenen van dit topic. Laten we proberen een succes te maken van dit topic en zoals gevraagd extra aandacht te besteden aan opmaak en interpunctie.

Daarnaast zal ik ook binnenkort beginnen met mijn Xen-avontuur op FreeBSD en mijn bevinden hier posten. Het uiteindelijke doel zal worden om een FreeBSD ZFS server te combineren met een Ubuntu workstation die bovenop Xen draait. Dus Ubuntu als DomU (guest) en FreeBSD als Dom0 (host).

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
CAPSLOCK2000 schreef op zondag 20 november 2011 @ 13:25:
[mbr] Ik vind dit topic maar erg moeilijk om te volgen. VSO, kun je iets meer hoofdletters gebruiken en je posts nog een keertje nalopen op fouten? tnx.[/mbr]
Ga ik doen als ik een install af moet wachten :) Dus zie binnenkort edit van allemaal. :P
Verwijderd schreef op zondag 20 november 2011 @ 13:03:
Je hebt toch ook geen beeld nodig? Gewoon alles via de web-interface of via SSH doen? Sommige van mijn servers draaien helemaal zonder videokaart (chipset zonder IGP en CPU zonder IGP).
Je hebt ze inderdaad niet nodig maar voor "test" is het geweldig dat je beeld hebt teminste mijn idee. :P
Ben wel erg benieuwd of het sharen van je GPU aan de guest nou werkt?
Er zitten 3 verschillende GPU's in de machine allemaal PCIe, 2x sound (onboard en een pci creative kaartje)
ik ben ook erg benieuwd. Trouwens ESXI 5 (Vsphere 5 gratis variant) werkte the passthrough goed genoeg voor de sata/sound controller maar ja zonder vga heb je er niks aan ;-) Xen is het enige Hyperplatform wat dit wel kan.
Dus FreeBSD als host en Ubuntu als guest die dan de GPU krijgt en dat je bijvoorbeeld kunt gamen binnen de guest met goede performance? Dat zou wel kewl zijn als de virtualisatie op dat niveau zou raken. :)
Nu de "truuk" is dat zfs met 6 schijven SSD performance nadert of overtreft ? Mits genoeg geheugen 24GB of meer. GPU is natuurlijk beeld, en sound is "icing on the cake" Daarnaast is de ZFS opslag met raidz2 redundant genoeg en groot genoeg voor leuke truukjes. De extra capaciteit die je "over" hebt kan je voor achtergrond "diensten" gebruiken zoals bv een file server voor je netwerk diensten of een download machine.
added bonus Je primaire clients krijgen wanneer deze actief zijn de meeste performance maar wanneer ze uit staan. Gaat de performance naar achtergrond diensten die daar goed gebruik van kunnen maken.
Maar over je controller: welk PCI kaartje werkt niet? Welke chip zit daar op? Je kunt ook een Silicon Image SiI-3132 overwegen. Maar als je nou een échte controller wilt is een IBM M1015 wel gaaf, en dan flashen naar IT firmware en je hebt een kinky 6Gbps controller voor 8 schijven.
Ik heb een HTP (highpoint rocketraid PCI kaartje hij werkt wel maar versus onboard PCIe sata controler (780G AMD moederbord) lijkt me dat niet handig met onze vorige discussie in gedachte.. Gezien dat je me afraden om met bepaalde performance issues te ontwijken.
Dus al zou ik 1 tot 4 disks op deze HTP controller gebruiken zou dit performance van de onboard controller naar beneden trekken. (Wat ik ook in mijn vorige nasbuild merkte) Dank voor je uitleg _/-\o_
Wat zijn nu eigenlijk de problemen waar je tegenaan loopt? ZFS niet te verenigen met Xen? Ik snap het niet zo goed.
In het kort FreeBSD kan (nog) niet met Xen overweg in DOM0 modus, ook niet 9.0-rc2 als DomU werkt dit wel.
Maar dat is niet wat we willen. Je zou ervoor kunnen kiezen om een linux Dom0 te draaien, dan freebsd ZFS DomU en die vervolgens de overige DomU machines laten starten. (ssh script?)
Echter er zitten een aantal -puntjes aan.
1) Xen moet zijn eigen "bootdisk" hebben (wellicht niet fault tolerant)
2) Freebsd moet ook vanaf "extern medium ? booten" ..want Ide boot is alleen ondersteund.
* xen ondersteund alleen 4 IDE devices per guest en mix van SCSI kweet niet of dat zo goed werkt. In mijn test ging ZFSguru niet werken met die diverse configs(disk setup dus mix van IDE/SCSI)
3) De SATA controller zou via passthrough kunnen maar of dit werkt ?? dat durf in niet te zeggen. Omdat ik niet getest heb.
4) Je main systeem echt "booten" duurt "uren"

Problemen die ik tegenkom waarom Freebsd niet als Dom0 kan zijn:
- Netwerk locks (weinig to geen performance)
- Manier van booten
- Bepaalde manier van I/O afhandeling

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Update:
ZFS(guru) draait op de andere machine
Wel wat persoonlijke aanpassingen gedaan
- ISTGT (iscsi service geinstalleerd)

En via root/ssh access
De /etc/rc.conf aangepast op de volgende zaken
code:
1
2
3
4
5
ifconfig_DEFAULT="DHCP"
#istgt_enable="YES"
veranderd in
#ifconfig_DEFAULT="DHCP"
istgt_enable="YES"

En toegevoegd
code:
1
2
3
4
ifconfig_fxp0="up"
ifconfig_fxp1="up"
cloned_interfaces="lagg0"
ifconfig_lagg0="laggproto lacp laggport fxp0 laggport fxp1 10.0.0.3/24"

meer info over deze LAGG FreeBSD handboekje over network-aggregation

In /etc/netstart de volgende lijn uitgecommentaart (just in case)
[code]
#/etc/rc.d/dhclient ${_start}
[code]

Let op dat je met een vast ip en wijzigen van ZFSGuru instellingen wel even meeneemt
/usr/local/etc/istgt/istgt.conf en hierin je oude IP wijzigt naar het nieuw

Reboot ZFSGuru na deze instellingen ! :)

ISCSI(booten)
Voor "test" doeleinden is een ISCSI volume natuurlijk extreem makkelijk, ervan booten vergt nogal wat zou je denken. Ik zeg dan FOUT kijk eens naar Via http://etherboot.org/wiki/howtos

Ik heb een usbstick gepakt en daarmee een "universele" ISCSI boot driver stick gemaakt. (all drivers)
Howto-make-boot-stick is op de site te vinden.

Nu nog kijken of het mogelijk is via script een "multi" iscsiboot te maken is.
Hiermee zou ik dus op "keuze" een aantal bootable OS-en kunnen starten waardoor ik productie versus test ook makkelijk uitelkaar kan houden. Denk aan de volgende OS installaties:
- FreeBSD (waar dit project om draait)
- ESXI (goed alternatief voor hypervisor)
- Fedora + Xen
- Andere opties ? :P
Overgens boot van ISCSI kan bijna elk OS. Bij MS moet je wel erg goed opletten dat je de bootable ISCSI initiator download niet de default zonder boot enabeling ..

_/-\o_ Zie hier hoe je het menutje maakt, en bekijk zekers het plaatje onderaan de pagina _/-\o_

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
main post geupdate.
iscsiboot deel 2
Na enorm veel wijzer te zijn geworden hoe iscsi boot werkt via etherboot, is dit iets wat ik nog even in de kast leg. Waarom? Omdat ik niet echt blij word van een 8GB stick opofferen voor een gPXE boot die niet onthouden word na reboot.
Vandaar dat ze een DHCP server bij dit product adviseren, met custom settings (als je een nas hebt kan dit vak wel door de dhcpd.conf te wijzigen. Als je geluk hebt kan dat via het webinterface anders --> SSH

De install van ISCSI via gPXE werkte goed en snel, echter bij reboot ;w settings.
Toen ik met een PCIe Intel CT desktop adaptertje aan de slag ging en deze flashte met een ISCSI rom zag ik tijdens de install een extra "boot optie" meegaan dat tie van ISCSI zou kunnen booten 8)

Let op etherboot is niet "verkeerd" het is alleen op dit moment niet geschikt wat ik wil, namelijk een stabiele omgeving waarop ik kan verder kan testen ..
Immers het doel is ZFS te verenigen met een VGA Passthrough (Xen 4.1 op het moment) via FreeBSD.
NAS Specificaties
Mijn NAS heeft nu;
- 6 GB RAM
- quad core AMD
- 780G moederbord ASUS M4A78-EM
- 5x 1TB WD EADS disks via onboard controller (4kb sector optimized via ZFSguru 1.9.0 rc2)
- 3 netwerkkaarten (1x PCIe, 1x onboard en 1x PCI de onboard is offline)
- Netwerkkaarten zijn Loadbalanced via 1 IP

Ik ben niet geheel overtuigd dat de NAS optimaal performed .. maar goed. Het is beter dan de Qnap TS-410 die ik hier heb staan (te koop)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Zucht ...

Wegens fout in de bootloader config .. ISCSI boot fail .. vreemd genoeg pakte fedora wel 1x mijn ISCSI lun op via de interface automagisch.
Nu back to disk.

Leuk (not) probleem tegen gekomen. disk(750gb) zegt dat tie onderdeel is van een raid disk maar no way dat ik die config terug naar "orgineel" krijg. ;w Mirror/stripe set ;w 12 Uur werk voor niks

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
VSO ga je helemaal stoppen met VGA passthrough?

Ik heb nu sinds kort ook een server draaien met esxi 5.0 op een Supermicro bord draaien VT-d supported enzovoorts.

Wat ik interessant vind is de mogelijkheid dus van vga passthrough om zodoende echt 1 pc te draaien die alles doet VM's, HTPC, en gaan met die banaan...

of had jij andere ideeën met VGA passtrough?

op deze pagina wordt dom0 uitgelegd, maar ik begrijp het niet erg goed. In Esxi draai je een hypervisor en die "laadt" dan de VM's. Wat is dan dom0 voor Xen? Is dat dan puur de management laag van de hypervisor?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op maandag 21 november 2011 @ 23:27:
VSO ga je helemaal stoppen met VGA passthrough?
Nope verwacht meer over dit onderwerp.
Ik heb nu sinds kort ook een server draaien met esxi 5.0 op een Supermicro bord draaien VT-d supported enzovoorts.

Wat ik interessant vind is de mogelijkheid dus van vga passthrough om zodoende echt 1 pc te draaien die alles doet VM's, HTPC, en gaan met die banaan...

of had jij andere ideeën met VGA passtrough?
Helaas dat ESXi 5.0 geen VGA support heeft, of "goeie" Software raid ondersteuning, je bent al min of meer gedwongen voor een NAS oplossing ik neem aan dat men een goeie HD redundancy hebben (of dure raid controller) alle andere PCIe/USB hardware kan je wel passthrough doen (lekker voor dongles etc)

update dit merk je moment dat je een GPU passthrough doet dat de ESX guest start en weer afsluit.
op deze pagina wordt dom0 uitgelegd, maar ik begrijp het niet erg goed. In Esxi draai je een hypervisor en die "laadt" dan de VM's. Wat is dan dom0 voor Xen? Is dat dan puur de management laag van de hypervisor?
Ja en Nee, Dom0 voegt meer toe dan de "ssh of GUI" console van ESXi.
Het is gewoon een normale installatie van linux, waarna je NA de installatie van het OS een andere kernel boot (De bare metal hypervisor kernel zoals je die kent van ESX). Wat voegt het toe?
Meer hardware ondersteuning: en dus meer mogelijkheden.

Wat onder ESX niet kan bv:"
- software raid
- x-windows (grafische schil ala windows)
- meer service(s) of server diensten

Nu is met name de software raid(zfs) wat in combinatie met een Bare metal Hypervisor zo intressant maakt.
stel je voor 4 of 6 of meer disks allemaal met 2 TB space = 8 of 12 TB space(minus wat redundancy) aan opslag dat je op kan delen zoals jij wilt. Niet alleen de Space is extreem handig maar ook de manier waarom ZFS deze disks benaderd. Zie "het grote ZFS topic" (linkje staat hierboven in de eerste post van mij) waarom ik dat zo graag wil. Doe je het goed kan je SSD speeds benaderen, maar voor minder geld en meer capaciteit)

Tot nu toe ben ik gewoon aan het stoeien geweest met een goeie installatie van de Hypervisor Alleen de vorige post gaf even aan dat ik wat tegenslagen had :(

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Nog een tegenslag de BIOS wil niet meer "updaten" oftewel elke "reset" die ik uitvoer of wijzing word niet meer in de bios opgeslagen .. Ik geloof ook dat dit de oorzaak is van de "corrupte" boot schijf (of zou kunnen zijn).
Op dit moment maar ff de PSU, Batterij en andere meuk eruit gehaald en ik laat het even staan een uurtje kijken of die dan alles "vergeten" is.

Als dit probleem gefixed is ga ik eerst voor boot "schijf" zorgen, want ergens in de install wil de hypervisor ook niet meer in de kernel lijst komen. Ik ben weer terug gegaan naar F16 (nieuwe DVD)
Dan probeer ik daarna als ik daarmee kan booten een nieuwe ISCSI boot te doen (tegen beter weten in)

update
Fix http://communities.intel.com/thread/26520
Oftwel kaartje terug doen .. zonder devices attached bios in? en reboot kaart eruit en klaar.

[ Voor 10% gewijzigd door vso op 22-11-2011 06:27 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Maar als je dat wilt, Zfs, dan kun je toch een VM inladen en deze als fileserver weer terug aanbieden aan je hypervisor?

Dat is mijn plan. Op mijn mobo heb ik een LSI integrated sas kaart die ik op passthrough zet.

Dan kun je dus het volgende doen:
Dom0 = Linux met X en dus ook XBMC
En dan Zfs-guru als VM en dat terugaanbieden aan Dom0

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op dinsdag 22 november 2011 @ 07:58:
Maar als je dat wilt, Zfs, dan kun je toch een VM inladen en deze als fileserver weer terug aanbieden aan je hypervisor?

Dat is mijn plan. Op mijn mobo heb ik een LSI integrated sas kaart die ik op passthrough zet.

Dan kun je dus het volgende doen:
Dom0 = Linux met X en dus ook XBMC
En dan Zfs-guru als VM en dat terugaanbieden aan Dom0
Kan ook, je kan ook de onboard sata controller pakken :)
Nadeel is dat je wel een ssh script klaar moet zetten om de rest te "booten"
Tevens heb je wel een overhead van --> ZFS --> ISCSI --> ge-emuleerde netwerk kaart --> storage
De ISCSI storage die je dan via ssh script vanaf de zfsguru machine remote moet mounten op de Dom0 machine en dan vervolgens mounten voor Xen.
Daarna als die gemount is kan je de overige machines "booten" om van de Storage gebruik te maken.
Die dus ook "scripten"

Goed de interne "netwerk" is nog altijd sneller dan je externe netwerk maar fraaie oplossing is het niet. Tevens kost het je wat CPU kracht. Daarom is het ook mooier als FreeBSD direct als Dom0 kan draaien.

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
@ chiper
zou het nut hebben in mijn nas (zie specs hierboven) 2 gb ram te upgraden en 1x 1TB op een Highpoint of promise PCI kaartje erin te mikken ?

Disks in zfs guru staan nu op 80/100% write status ..

code:
1
2
3
4
5
6
 L(q)  ops/s    r/s   kBps   ms/r    w/s   kBps   ms/w   %busy Name
    2    280     25    100   15.6    255   5864    3.1        51.0  gpt/storage-disk1
    2    278     25    100   10.4    253   5860    3.4        42.3  gpt/storage-disk2
    4    291     43    172   12.6    248   5820    3.4         53.7  gpt/storage-disk3
    0    260     27    108   22.8    233   6080   11.9        82.1  gpt/storage-disk4
    0    263     28    112   23.5    235   6100   11.8        81.8  gpt/storage-disk5


Config is RAIDZ2 houd ik 2.4 GB over (niet veel .. me raid 5 NAS heeft 2.7 ben nu data van daar naar aan het copieren ..

Goed zelf voor RAIDZ2 gekozen .. het gaat mij even op de "schrijf" snelheid lezen is wel snel zat :)

Wat jou mening?

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Wat ik nog niet helemaal begrijp is wat je uiteindelijk wilt bereiken met je setup. Heb je meerdere servers? En hoeveel clients heb je in je netwerk?

Wat ga je met de VM's doen en wat gaan ze je bieden?

Of is dit een homelab? Ik vind het wel interessant hoe je dit aanpakt met Xen, alleen zou je duidelijker kunnen omschrijven wat je visie/doel is?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op dinsdag 22 november 2011 @ 22:15:
Wat ik nog niet helemaal begrijp is wat je uiteindelijk wilt bereiken met je setup. Heb je meerdere servers? En hoeveel clients heb je in je netwerk?

Wat ga je met de VM's doen en wat gaan ze je bieden?

Of is dit een homelab? Ik vind het wel interessant hoe je dit aanpakt met Xen, alleen zou je duidelijker kunnen omschrijven wat je visie/doel is?
Het doel is meerdere computers op 1 machine te draaien, inclusief de 2 desktops en NAS
Netwerk doet er eigenlijk niet toe

Ik wil 2 volwaardige desktops + Wat servers op de Xen machine draaien. Dit om o.a het stroom verbruik in huis te verminderen. En omdat het in theorie kan.
Buiten de 2 desktops heb ik wel wat apparatuur rond huis wat ook van de facaliteit gebruik mag maken..
Oftewel de diensten die op de Xen server aangeboden worden .. denk aan file sharing

update
Het intel moederbord wat ik gebruik is gaar Bios wil niet meer naar defaults resetten wat ik ook probeer.
Ik ga het moederbord terug brengen en een ander merk halen ..

De NAS die nu standalone draait gaat wel weer in de machine draaien, het zal me iets meer overhead kosten maar dat neem ik dan maar voor lief. de winst is IMHO groter dan het verlies.

[ Voor 16% gewijzigd door vso op 23-11-2011 17:00 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
vso schreef op woensdag 23 november 2011 @ 16:56:
[...]

Het doel is meerdere computers op 1 machine te draaien, inclusief de 2 desktops en NAS
Netwerk doet er eigenlijk niet toe
[...]
update
De NAS die nu standalone draait gaat wel weer in de machine draaien, het zal me iets meer overhead kosten maar dat neem ik dan maar voor lief. de winst is IMHO groter dan het verlies.
Ga je nu de NAS niet meer als VM inzetten? Dat is jammer want dat was IMHO nu net interessant met XEN.

Btw pak je een supermicro bord ben helemaal verliefd op de IPMI van hun. Intel bordje heeft dat vast ook, maar weet niet of dezelfde implementatie is.

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op woensdag 23 november 2011 @ 23:18:
[...]

Ga je nu de NAS niet meer als VM inzetten? Dat is jammer want dat was IMHO nu net interessant met XEN.

Btw pak je een supermicro bord ben helemaal verliefd op de IPMI van hun. Intel bordje heeft dat vast ook, maar weet niet of dezelfde implementatie is.
Nee ik loop gewoon tegen een groot aantal opstakels ..

Zoals het intel Mobo is gewoon gaar en mag ik terug naar de winkel brengen.

Het is niet zo makkelijk als "cd" erin proppen en gaan. Daarnaast wil ik het e-a getest hebben voordat ik mijn productie versie installeer. Ik weet uit ervaring is dat iets goed testen van te voren en 3x nadenken later veel nare ontwerp foutjes kan voorkomen.
Zoals onder andere CHIPER op wees is dat de disk controller van je ZFS installatie erg belangrijk zijn.
dus je wilt ZFS installatie gewoon goed door testen.
Zo was ff een setting in de BIOS een performance killer (ACHI vs IDE)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
goud mijntje ! http://zfsonlinux.org/

grrr Fedora ondersteund de marvel chipset niet .. maar gelukkig Debian wel dus switch (Zo kwam ik op bovenstaande link)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Dat is volgens mij erg beta-achtig en sowieso worden niet alle functies ondersteund. Ik zou je data er niet aan toevertrouwen.

Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Ik zou dan eerder gaan voor NetBSD. ZFS op NetBSD is 'work in progress' maar heeft (itt FreeBSD) wel XEN Dom 0 support wat je goed kan gebruiken voor je project.

Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
d1ng schreef op vrijdag 25 november 2011 @ 17:22:
Ik zou dan eerder gaan voor NetBSD. ZFS op NetBSD is 'work in progress' maar heeft (itt FreeBSD) wel XEN Dom 0 support wat je goed kan gebruiken voor je project.
Ik weet het niet hoor: dit baart me wel zorgen:
NetBSD zfs port is work in progress and can easily panic your system.
Bron: Link

Zou je daar dan wel je data aan vertrouwen?

Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
DjCoke schreef op vrijdag 25 november 2011 @ 18:56:
Zou je daar dan wel je data aan vertrouwen?
Nee ;)
Ik ging er ff vanuit dat de setup bedoeld was 'omdat het kan', dan zou je wel kunnen leven met een keertje panic. Maar na het herlezen van de topic start (die aanzienlijk verandert is) zie ik pas dat het bedoeld is voor dagelijks gebruik.

Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Ik ben eens gaan inlezen in wat stuff over verschillen tussen hypervisors en "type 2" virtual machines, die draaien in Vmware Workstation, parallels, enz en volgens deze blog is de performance verschil tussen beiden verwaarloosbaar.

Link en hier nog een forum post erover (link)

Het schijnt dus dat er nagenoeg geen verschil is.

Dus TS zou ook gewoon FreeBSD kunnen draaien met bijvoorbeeld Virtualbox...

Dan heb je dus ZFS plus je VM's, alleen geen pci-passthrough volgens mij...

Ik weet niet of anderen een enorm verschil ervaren?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Primair kies ik liever voor FreeBSD. NetBSD of Debian denk ik toch eerder voor Debian met ZFS ondersteuning. Data daaraan toe vertrouwen ? waarom niet. Het is niet alsof ik "spannende" dingen doe.
het is niet productie rated. Maar de ondersteuning van wat ik lees van Debian ten opzichte van ZFS is beter dan van NetBSD.

Xen is de enige Hypervisor waarvan ik gevonden heb dat die VGA PCI(e) passthrough support.
ESXI en nog een paar Hypervisors ondersteunen wel VT-D maar dit is alles behalve VGA, denk aan USB, SATA controller, Sound en nog een paar PCI dingen ? ..

Er bestaan verschillen tussen Virtualizaties, voor een hoster kan het intressanter zijn om VM's die semi-transparant met de host OS (binairry?) files sharen. Voor anderen gewoon "volle" VM's

in mijn geval kies ik om een paar reden voor deze setup:
- ZFS = Snel
- data opslag = 1 locatie en niet verspillen van GB's voor OS of andere meuk. (Zoals in mijn workstation 250GB hebben en maar 25% gebruiken.)
- VM = hardware onafhankelijk (met VT-D weer wel afhankelijk)
Een Hypervisor OS kan veel meer resources "verdelen" dan een single machine .. denk voornamelijk aan CPU maar ook geheugen "uitbreiding" is simpler. Zo kan ik besluiten 24GB te upgraden naar 48GB wat op 1 workstation overkill is, is dit echter voor zo'n server natuurlijk wel veel beter.

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Wat jou mening?
3.4ms versus 11.9ms, de PCI controller is dus zeker 3 keer zo langzaam in latency; daar is waar het om draait. Dus voor ZFS is die controller niet zo geschikt.

Kun je met Xen meerdere PCI devices sharen? Zo ja, dan hoeft dit niet zo'n groot probleem te zijn denk ik met een goede controller. Je hebt dan ook geen iSCSI overhead via Xen, of zie ik iets over het hoofd?
Xen is de enige Hypervisor waarvan ik gevonden heb dat die VGA PCI(e) passthrough support.
Maar nog wel experimental, dacht ik? Overigens wel heel gaaf, want dat lijk mij nu juist zo interessant. Je hoofd OS is dan FreeBSD die native ZFS doet met directe toegang tot controller etc. Terwijl je via Xen je videokaart kunt meegeven en dus een full-fledged desktop met sexy ZFS server kunt combineren. Dus ZFSguru als hoofdOS en Ubuntu als desktop/client OS waarbij de videokaart aan Ubuntu wordt gegeven.

Ik las overigens dat FreeBSD wel degelijk PV drivers heeft voor network en storage:
FreeBSD supports only hardware virtualized (HVM) kernels on amd64; however, PV drivers are supported in this configuration.

While a GENERIC (or similar) kernel will work, a custom-compiled XENHVM kernel will add PV drivers, improving performance, etc.

Notes on PV drivers

In addition to emulating physical devices, Xen supports para-virtualized drivers, which provide better performance and integration. FreeBSD supports the netfront (network interface), blkfront (storage device), and Xen console devices. These devices can be probed and attached if xenpci is configured into the kernel.

The netfront driver attaches as its own ethernet driver, xnX.

The blkfront driver attaches as a block storage device, but emulates the adX and daX disk namespaces used by the ATA and SCSI drivers based on the disk number presented by Xen.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Verwijderd schreef op zaterdag 26 november 2011 @ 01:10:
[...]

3.4ms versus 11.9ms, de PCI controller is dus zeker 3 keer zo langzaam in latency; daar is waar het om draait. Dus voor ZFS is die controller niet zo geschikt.
Check
Kun je met Xen meerdere PCI devices sharen? Zo ja, dan hoeft dit niet zo'n groot probleem te zijn denk ik met een goede controller. Je hebt dan ook geen iSCSI overhead via Xen, of zie ik iets over het hoofd?
Ja meerdere PCI(e) devices kan maximaal 8
Nadeel: FreeBSD als Dom(ain)0 word niet ondersteund. En ja je ziet iets over het hoofd. (zie volgend stuk)
Maar nog wel experimental, dacht ik? Overigens wel heel gaaf, want dat lijk mij nu juist zo interessant. Je hoofd OS is dan FreeBSD die native ZFS doet met directe toegang tot controller etc. Terwijl je via Xen je videokaart kunt meegeven en dus een full-fledged desktop met sexy ZFS server kunt combineren. Dus ZFSguru als hoofdOS en Ubuntu als desktop/client OS waarbij de videokaart aan Ubuntu wordt gegeven.
Deze vlieger gaat dus nog niet op. Mede doordat Dom0 niet mogelijk is voor FreeBSD.
Er zijn eigenlijk 2 alternatieven die het redelijk "mogelijk" maken.
- PV of HVM virtualized FreeBSD/ZFSguru draaien met de gewenste controlers via VT-d techniek aan de VM aanbieden. Eventueel iscsi starten en dan het BSD gedeelte een SSH script af laten vuren, ISCI remote mounten voor storage (ISCSI intern hosten dus)
-ZFSonLinux project (dit is geen FUSE-ZFS !) bv debian draaien. (linkje zfsonlinux staat paar posts van mij hierboven)

Beide hebben hun + en - punten.
De 1ste van de 2 oplossingen lijkt de meest "smerige" in mijn optiek. omdat je een overhead OS/ZFS via overhead ISCSI weer aanbied aan de host etc etc .. Wellicht denk je nog dat het netwerk ook overhead is en probleem is. Ja netwerk is extra overhead maar bandbreedte is virtueel en dus meer als 1GB. Des al niet te min het is "stabieler" dan wellicht de 2de oplossing waar ZFS (niet in FUSE) praktischer lijkt helaas is die nog "erg" in BETA fase.

Ik denk dat ik kies voor de Debian ZFSonLinux te gaan "proberen" kijken of ik een raid-z 1 of 2 op kan bouwen en de performance eens "test" van de volume. Afhankelijk van de ervaring die ik ook ga delen schakel ik wel/niet over naar een PV/HVM oplossing voor BSD.
Misschien dat ik voor de gein gewoon die ZFS pool gemaakt in debian eens in ZFSguru ga mounten

Op dit moment ben ik eerst de VT-d techniek voor VGA aan het testen, Ik heb nu een VM guest gemaakt.
Moet nog de hardware (USB, Sound VGA) toekennen en dan "starten". Dit draait lokaal van een RAID0 disk set op laptop HD's (niet zo snel :)) als dat faalt dan heb ik weing redenen om Debian te blijven draaien.
Dan ga ik alleen even dubben of ik Switch naar ESXi 5.0 of op Linux blijf.
Ik las overigens dat FreeBSD wel degelijk PV drivers heeft voor network en storage:
dat is altijd wel mooi meegenomen. Maar Volgens mij niet super relevant ???
met VT-D stuur je namelijk "Direct" de controller aan, deze gaat niet via de hypervisor OS meer, maar je communiceert direct met de PCI(e) bus

[ Voor 3% gewijzigd door vso op 26-11-2011 01:43 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
HET WERKT :) de ATI Radeon PCIe HD 4350 passive kaart van 4 tientjes werkt "standaard" (niet super veel "last"
de "oplossing" voor VGA passthrough)
PS ATI(beste keuze), Nvidea(zeer slechte keuze) en intel IGB

Pfff goed het heeft wel voeten in de aarde,
- Ik draai nu debian wueezy (testing) zeg maar versie 7.0 ?
Dit omdat xen 4.1 en kernel 3.1 ondersteund worden. (4.x is nodig voor VGA passthroug)
Van source builden loop ik nog alwat problemen tegen

volgende "oplossingen" zijn wel nodig:
- ISO voor je OS (win7 torrent iso van iemand)
- winscp als je ff wilt uploaden van de iso
mv --> ISO naar je Xen storage locatie (leesbaar voor root)
- Drivers voor je grafische kaart (kan na primairy install van je OS)

Fix voor virt-manager "inlog error"
Met "virsh" kan je ff testen of het werkt
code:
1
chmod 777 /var/run/libvirt/libvirt-sock

Default 770 wat de oorzaak van de error is.

Nu in virt-manager(gui Xwindows management) heb ik de basis configuratie gedaan, usb/pci passthrough wilde hij niet .. vandaar de onderstaande "oplossing".
- met passthroug kan je geen min en max memory doen dus 4GB = 4GB weg
- ook start hij voor mij nog niet automagisch het netwerk :(

Wil je btw de "domain editen" zie dan --->
/var/lib/xend/domains/<zoek in een lelijke string de juiste config op>

Debian kent niet "pciback" ?? dus met pci_stub aan de slag gegaan.

Eerst met "lspci -v" de gewenste apparaten opzoeken
code:
1
2
3
4
5
6
03:00.1 Display controller: ATI Technologies Inc RV570 [Radeon X1950 Pro] (secondary) (rev 9a)
        Subsystem: PC Partner Limited Device e191
        Flags: bus master, fast devsel, latency 0
        Memory at c0210000 (64-bit, non-prefetchable) [size=64K]
        Capabilities: [50] Power Management version 2
        Capabilities: [58] Express Endpoint, MSI 00

Dan met "lspci -n" de rest van de "info" opzoeken.
code:
1
2
3
...
03:00.1 0380: 1002:72a0
...


Dan met de volgende code heb ik het "werkend" gekregen (na reboot is het pleituh)
PS let op de 1ste echo spatie!!! ipv dubbele punt
code:
1
2
3
4
modprobe pci_stub
echo "1002 72a0" > /sys/bus/pci/drivers/pci-stub/new_id
echo 0000:03:00.1 > /sys/bus/pci/devices/0000\:03\:00.1/driver/unbind
echo 0000:03:00.1 > /sys/bus/pci/drivers/pci-stub/bind


Dan met de volgende Shell commando
code:
1
xm pci-attach Win7-Victor 0000:03:00.1


De "echo" + xm-attach doe je voor elk device, dus VGA,Sound en USB(hub) op je mobo uiterraard wel ff checken welke USB poort welke is :)

Hang je het eraan vast via virt-manager dan trekt hij het om reden x.y.z niet (stomme python errors).
De ZFS oplossing
Na week van bijna full-time ellende een compile error op ZFSonLinux (http://zfsonlinux.org)

Baal, Nu is het vanwege een aantal Xen en Debian "problemen" niet mogelijk om:
- vanaf SATA te booten
- ZFS in userland (erg slechte performance)

Nu zou ik FreeBSD op een "ide" disk kunnen zetten, booten en via PCI passthroug de 6 SATA disks direct aan Freebsd kunnen aanbieden. met 8 GB ram moet tie aardig kunnen trekken.
maar ja hoe krijg ik de storage ruimte weer aan Xen aangeboden NFS/ISCSI of samba
Waar IMHO ISCSI de "beste" is .. maar ja

ik vraag me af of de "winst van zfs wel waard is om zoveel overhead van : OS, netwerk, ISCSI en weer terug
wel te rechtvaardigen.

Ik denk dat ik voor nu een RAID6 MDadm lap aanleg :'( Of iemand moet goed argument hebben :?

(K)FreeBSD kernel (Dom0) voor debian of ZFSonLinux.org moet "werken" wil het ZFS gedeelte gaan slagen.

[ Voor 14% gewijzigd door vso op 27-11-2011 14:50 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Nice dat je dat geslaagd is "video passthrough"!

Is het stabiel? en kun je ook video intensieve dingen doen? Zoals HD video bekijken, enzovoorts?

Ik ben zelf een andere weg aan het proberen aan de hand van deze topic, namelijk gewoon FreeBSD (ZFSguru) en dan Virtualbox een windows SBS 2011 draaien.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op zondag 27 november 2011 @ 17:25:
Nice dat je dat geslaagd is "video passthrough"!

Is het stabiel? en kun je ook video intensieve dingen doen? Zoals HD video bekijken, enzovoorts?

Ik ben zelf een andere weg aan het proberen aan de hand van deze topic, namelijk gewoon FreeBSD (ZFSguru) en dan Virtualbox een windows SBS 2011 draaien.
Thx

Stabiel moet de tijd uitwijzen, maar de kaart word "out of the box" herkend oftewel de kaart was zo nieuw dat windows geen drivers ervoor had, en tijdens of na driver install geen "foutmeldingen"
Ik moet nog gaan testen .. en verder configureren

als je hypervisor "algemeen" wilt testen zou ik voor ESXi 5.0 gaan gratis download (na registratie)
deze heeft ook VT-d support en als je een disk over hebt kan je een sata disk gebruiken (ESXi kan lastig doen over Sata controllers .. maar dat merk je snel genoeg tijdens install.)
ESXi heeft ook een SSH console. .(activatie van je ESXi hoeft niet btw voor test)

ESXi is bestwel vooruitstrevend + stabiel en enorm veel opties. enige wat ze missen tenopzichte van Xen is de VGA passthrough. Maar hun management is Super! niet moeilijk van a-z heb je 30 min nodig om een host en 2 guests te starten indien je beetje de weg weet.. guest install is echt een eitje.

Xen is best wel wiel opnieuw uitvinden :( zoals nieuwe disk aan win7 install toevoegen .. 2.8 tb en ik krijg 35,6 mb ??? grr

[ Voor 8% gewijzigd door vso op 27-11-2011 18:38 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Esxi heb ik al in gebruik gehad en functioneerde goed. Ik wilde freebsd proberen met virtualbox. Dat is uitgedraaid op een fiasco. Bij het opstarten van een VM krijg ik een kernel panic. Zucht.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DjCoke schreef op maandag 28 november 2011 @ 10:58:
Esxi heb ik al in gebruik gehad en functioneerde goed. Ik wilde freebsd proberen met virtualbox. Dat is uitgedraaid op een fiasco. Bij het opstarten van een VM krijg ik een kernel panic. Zucht.
Dat schiet niet op nee, Xen is overgens ook nog erg "modderig" oftewel netwerk en USB redirection is ook nog een quest aan het worden ..

USB --> het is niet zo simpel om een poortje "door te zetten" omdat controllers en "fysieke" poortjes niet met elkaar "overeen" komen (google komt vrij "leeg" over.. http://planet.spice-space.org/ is een bron voor meer onderzoek.

Netwerk --> performance en bridging of "passthrough" is ook niet appeltje+eitje .. ook maar eens verder in verdiepen

[update]
[debian] pciback.hide met Xen kernel

had xen-pciback ipv pciback moeten gebruiken |:(

[ Voor 7% gewijzigd door vso op 28-11-2011 14:43 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Update
1 "workstation" is volledig up and running
- HD sound (onboard mobo)
- 2 schermen
- usb 2.0 poorten (3.0 is ook mogelijk) deze zijn "direct" aan windows gegeven .. via Passthrough.


problemen:
- unload "sound" driver(s) voordat je ze aan je guest kan providen
- USB controller(s) van je mobo .. de back IO shield is blijkbaar 1 controller en kan dus niet worden "opgedeeld" wel vervelend maar goed beter dat dan 1.1 "semi passthrough" met blijkbaar slecht werkende (dus niet) plug en play .. ..
- de usb headers op het moederbord lijken als 1.1 te identificeren :(

1 van de headers gaat voor de "console" dienen de andere 2 gaan voor ???

Ach anders doe ik er 1 met usb 3.0 en de ander met usb 2.0 en misschien nog ff met de bios "proberen" of ik de headers op 2.0 krijg ..

einde naderd ! :)

langeste durende problemen waren/zijn
- oude nas die te traag is om te gebruiken in dit project (wellicht goed voor huistuin en keuken gebruik)
- defect moederbord
- uitzoek werk (relatief kort) langste "wachttijd" is installatie van OS.

[ Voor 12% gewijzigd door vso op 01-12-2011 00:06 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Nu wat ga ik doen om "max performance" performance eruit te halen.
meningen zijn welkom :)

- Software Raid tunen ? (WD10EADS) wat kan ik best tunen ?
- NUMA in kernel aanzetten (heb een i7 980 zou ik aan kunnen zetten)
- netwerk performance (nog niet nodig maar kan handig zijn)

Ook niet makkelijk hoe ik van de huidge xen install nu GFX_passthru zet (gelijk naar desktop "starten" ipv via de console ..
Netwerk gewoon "doorzetten zonder NAT of andere "gezeur" ik wil 1 platte laag zonder virutele routers er tussen.

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
netwerk werkt nu standaard zonder "nat/routed" meuk ertussen

Windows netwerk wat er bovenop moet gaan draaien is deels geinstalleerd (vlamt in de pan)
xen heeft nog wat performance issues. (tweaking en tuning :) moet nog gebeuren)

disk opzetten is met dd if=/dev/zero of=/media/data/xend/domains/<machinenaam>.img bs=1 count=1 seek=80G het beste want disk verbruik = echte verbruik niet sparse file van 80GB .. scheelt toch ruimte

maar moet nog ff verder uitzoeken hoe de disk verbruik verder benut kan worden .. wil niet zo een data probleem krijgen ..
- resize disk enzv .. dat moet wel ff goed gedaan worden.

[ Voor 4% gewijzigd door vso op 04-12-2011 03:11 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Ter info,
http://callfortesting.org/bhyve/
How to install and help test FreeBSD's exciting new BHyVe hypervisor

Neel Natu and Peter Grehan unveiled BHyVe, the "BSD HyperVisor" for FreeBSD at BSDCan 2011 and kindly helped me get it up and running. I invite you to do the same and explore the many possibilities of this up and coming alternative to Linux KVM. Because BHyVe relies primarily on the Virtual Machine Manager vmm.ko kernel module, it should be portable to other BSD's and even other operating systems. BHyVe guest virtual machines run modified FreeBSD kernels at this time and there are many opportunities to remove this limitation. Be aware that BHyVe is under active development and should be considered experimental. That said, I am pleased to report that it has performed predictably in every test I have run to date.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
Zo eindelijk alles "werkt"

1 pc met:
- Xen (hypervisor)
- Domain-0 (debian 7.0 wheezy)
- 2x win2008 R2 als dc/fileserver
- 2x desktops (windows 7 ultimate)

Het moederbord levert:
- netwerk (kaart A ) voor de DC/Fileserver en domain-0
- netwerk (kaart B ) voor 1ste desktop
- HD audio voor de 1ste desktop
- USB 3.0 voor de 2de desktop
"addon kaarten/meuk"
3x passive grafische kaart
- dx 9 ati kaart voor "domain-0" console
- HD radeon 6450 (2x) voor beide desktops
- usb 2.0 hub (voor extra poortjes ipv back I/O)
- pci Soundblaster live (kxproject.org drivers werken ??? kweet nog niet)

Nu moet er nog een PCIe nic in mikken (vt-d netwerk vind dit wellicht prettiger anders klapt de verbinding eruit) en als die PCI soundblaster niet werkt ga ik over op USB 10,- kostende soundcard.

problemen ondervonden
Pff een lading.

De xen documentatie is niet echt "up to par" wat een ramp is dat.
Het netwerk op de desktop werkte "perfect" totdat ik ging gamen/teamspeak ging doen .. toen klapte mijn verbinding er elke keer er uit.. :(
Echter toen ik dus 1 van de onboard netwerkkaarten ook op "passthrough" modus activeerde voor de desktop
verdwenen de problemen. (ramp want je wilt alles in 1 netwerk)
Dus nu zitten de desktops gedwongen op aparte netwerk kaarten. :(

Geluid pci + KXproject (soundblaster live) is een apart windows bugje .. overleefbaar. en zoals ik zei dan maar een usb soundcard tis niet als of we extreem geluids kwaliteit daarvoor nodig hebben.

De pci_stub en xen-pciback moet je in diverse gevallen "mixed" gebruiken .. :( of er is nog iets wat ik over het hoofd zie. Dit heb je nodig om de PCI(e) devices te de-activeren voor Domain-0 en dan worden ze zichtbaar voor de "xen passthrough" optie.

USB is standaard 1.1 passthrough en niet 2.0 / 3.0 dus het is handiger een PCI VT-d hiervoor te doen echter je kan dan ook het netwerk probleem wat ik had krijgen.. (en memory = locked)

zal zoiezo een kernel recompile en xen hypervisor recompile moeten doen met meer "opties" of juist minder
bijvoorbeeld:
- xen meer opties enabled voor VT-d
- xen pci_stub/pci-back
- kernel --> disable sound (zaken heb ik toch niet nodig heb voor console)
- compile HVM opties en meer virtualisatie

Je hoeft voor "bridge" weinig te doen onder xen maar advies is zet wel firewall of dtc-soap meuk uit
(kan je later weer aanzetten natuurlijk)

virt-manager is ook nog "vrij buggy" en libvrt (wellicht omdat Debian versie nog testing is)

xen maakt ook een overstap van xm naar xl (command line interface van python naar xml ofzo)

bugs zijn nu nog:
- virtmanager "kan niet connecten"
code:
1
chmod 777 /var/run/libvirt/xend-socket

kweet slecht maar boeie het werkt :)

xen(domU) win7 desktop start niet met gfx_passthru=1" ergens moet ik dat ik de config neer mikken maar .. is niet persistant.

Nog wat vergeten ? vast wel ... nu ff verslag gedaan .. even genieten van de desktop :)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
http://youtu.be/feFpdfXcgDM de beloofde video ;)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • gabn88
  • Registratie: Februari 2005
  • Laatst online: 15:54
Ben benieuwd of de TS de set-up nog draaiend heeft en of het al beter ondersteund wordt tegenwoordig?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
gabn88 schreef op vrijdag 9 mei 2014 @ 16:24:
Ben benieuwd of de TS de set-up nog draaiend heeft en of het al beter ondersteund wordt tegenwoordig?
Beetje laat maar ik heb er een ruim jaar met plezier op gedraaid .. ;)

Technisch beter ondersteund (anno nu).. vast ..

Het grootste voordeel is ook zijn nadeel .. op een productie server ga je niet hobby(en) daar heb je een werkstation voor. Echter als de omgeving plat licht houd je over ... juist de server. als je die "kaal hebt" of bv ESX zelfs zonder een grafische internet console dan word het snel erg lastig.


Het is zeker leuk en leerzaam.

Tja vanalles

Pagina: 1