Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • HyperBart
  • Registratie: maart 2006
  • Nu online
Mede-auteurs:
  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07

FireDrunk

  • Nextron
  • Registratie: maart 2005
  • Laatst online: 00:11

Nextron

Ok, voorlopig een placeholder voor mensen die thuis op de een of andere manier aan virtualisatie van OS'en doen.

Bedoeling is om dit topic uit te bouwen met een setje van mogelijke platformen voor virtualisatie, gaande van VirtualBox tot het complexere ESXi.

Wat gebruik je thuis? Op welke hardware draai je het? Wat virtualiseer je eigenlijk en wat doe je binnen die VM's? Waarom heb je gekozen voor platform A of B?

Omdat het merendeel van de virtualisatiesoftware Linux-gebaseerd is, is dit topic hier geplaatst... Dit wil daarom niet zeggen dat je hier niet kan posten over Hyper-V.

Noot: Dit topic is uit interesse gegroeid vanuit Zuinige ESXi Server, ga voor vragen en discussie daar naar toe. Gebruik dit topic uitsluitend om je systeem te showen.

Je kan onderstaande template gebruiken (copy/paste) om uniform overzicht te houden. Probeer alle koppen in te vullen, maar voel je vrij om uit te breiden.

[h2]Hypervisor[/h2]
Hier iets over je hypervisor: Welke en waarom

[br][h2]Hardware[/h2]
Je hardware. Wanneer je een wenslijst hier op Tweakers hebt, kan je die makkelijk hier naar toe kopieren door onderaan die lijst naar 'Genereer RML' te gaan. Vertel verder of alles standaard ondersteund wordt en zo niet, hoe je dat hebt opgelost.
Ook zaken als energieverbruik, kosten, externe datastores... laat het weten.


[br][h2]Virtuele machines[/h2]

[table width=100% border=1 bordercolor=#dcdcdc fontsize=12 cellpadding=4]
[tr][td bgcolor=#ededed][b]OS/Appliance[/b][/td][td bgcolor=#ededed][b]Functie[/b][/td][/tr]

[tr][td bgcolor=#fafafa]Je OS...[/td][td bgcolor=#fafafa]...en wat het doet[/td][/tr]

[/table]

[br][h2]Foto's[/h2]
Plaatjes zijn altijd leuk, bij voorkeur gehost in je Tweakers fotoalbum. Gratis hosts zoals TinyPic als geen album hebt.

[br][h2]Motivatie[/h2]
Alles wat je nog kwijt wil.

Hero of Time wijzigde deze reactie 11-05-2013 01:18 (65%)
Reden: Rood opmaak verwijdert nav klachten

Vandaag even niets


  • Nextron
  • Registratie: maart 2005
  • Laatst online: 00:11

Nextron

Ik weet dat ik niets weet

Topicstarter
Hypervisor
Alles draait op ESXi 4.1u1. Ik ben bekend met VMware Workstation en VMware is langer bezig dan de concurrentie. Verder heb ik geen alternatieven serieus overwogen.


Hardware
#ProductPrijsSubtotaal
1IBM ServeRAID-BR10i
Via eBay erg goedkoop te krijgen als 'system pulls'. Je mist alleen een PCIe bracket. Geconfigureerd als passthrough.
€ 82,32€ 82,32
1Intel Xeon E3-1220 Boxed€ 165,10€ 165,10
6Samsung EcoGreen F4EG HD204UI, 2TB
Deze zijn aangesloten op de ServeRAID.
€ 59,99€ 359,94
1Fractal Design Define R3 (Zwart)€ 87,44€ 87,44
1Fractal Design Silent Series 140mm Fan, 140mm€ 10,59€ 10,59
1Corsair Builder CX430 V2
Laagste vermogen, enkel-rail voeding.
€ 37,27€ 37,27
1Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB
De bootschijf en datastore. Gekozen voor de agressieve garbage collection.
€ 114,99€ 114,99
1Kingston ValueRAM KVR1333D3E9SK2/8G
Voorlopig 8GB, tot de 16GB beschikbaar wordt.
€ 75,50€ 75,50
1Club3D HD3450
Voor passthrough, schijnt hier te lukken.
€ 28,02€ 28,02
1Supermicro MBD-X9SCA-F-O€ 192,68€ 192,68
Totaal€ 1153,85
Alle hardware wordt standaard door ESXi ondersteund en VT-d werkt. De KVM met mounten van virtuele media werkt erg fijn: Je hoeft dus nooit een monitor, keyboard, DVD-speler of USB-stick aan te sluiten, alleen voeding- en netwerkkabels.

Bij ontvangst was de bios op het moederbord de op-één-na-nieuwste, die schakelde de onboard video echter uit wanneer een andere grafische kaart werd geplaatst. De nieuwste die op dat moment pas 8 dagen uit was liet je kiezen welke output gebruikt moet worden. Een server zal die optie dan ook niet vaak nodig hebben. De losse grafische kaart op passthrough werkt alleen nog niet.

Het systeem omvat zes hardeschijven van elk 2TB. Eén van deze wordt door middel van FlexRAID gebruikt voor pariteit. Effectief blijft er (5 × 2TB=) 10TB over, oftewel (10TB/1,0244=) 9,09TiB aan opslagruimte.

Tijdens de installatie was het idle verbruik 59W. Het actuele verbruik moet ik nog nameten.


Virtuele machines
Tot nu toe draai ik het volgende:
OS/ApplianceFunctie
pfSenseRouter, firewall
Windows server 2008 met flexraidNAS
Windows XPCamerabewaking, printerserver

Er moet nog een download-VM, LAMP, domotica-host bij. Hopelijk krijg ik de grafische kaart nog werkend met VT-d, want dan komt XBMC erbij en een monitor met camerabeelden.


Foto's

Zes van de acht 3,5" HD-trays zijn gevuld met 2TB schijven en worden gekoeld door twee 12cm fans. De SSD werkt als ESXi datastore en is op de onderste 5,25" tray verstopt.


De IBM ServeRAID Br10i met IT firmware. De SAS naar SATA breakout kabels en SATA kabels zijn goed weg te werken. Van de rode SATA-kabels is er nog maar één in gebruik voor de SSD, maar weghalen vond ik nog niet nodig.


Een servermoederbord, dus de geheugenlatjes liggen een kwartslag gedraaid. Dit is de standaard CPU-fan, de CPU-fanheader zit echter erg ver van de CPU en de kabel is net lang genoeg. De exhaust heb ik bovenin in plaats van achterin. Ook de CPU- en moederbordvoeding is erg goed weg te werken in deze kast.


Daar zitten dan al die kabels. Het sluiten van deze kant van de kast is best lastig.


De schijven zijn zichtbaar als losse volumes. Flexraid gebruikt één (of meerdere) schijf voor pariteit. Het is ook mogelijk een virtueel volume als container te maken waarbij je zelf configureert welke volumes, mappen of bestanden zichtbaar zijn (laatste volume).
Voor oplettende lezers: Het verbruik van het pariteitsvolume is inderdaad kleiner dan één van de datavolumes. De pariteit wordt wekelijk geüpdate en loopt nu dus achter.



Motivatie
Voor ik aan een virtualisatieserver dacht wilde ik alleen een NAS hebben omdat mijn desktop vol zal met schijven en de schijven zelf ook bijna vol zaten. Geen ruimte voor nieuwe schijven dus en ik ben geen fan van externe schijven. Geschrokken van 4+ disk NASsen bleek zelfbouw goedkoper. Ik ben voor een wat zwaarder systeem gegaan dan nodig is voor een NAS om meteen de oude server en router te vervangen.
Initieel wilde ik met mdadm een RAID5 NAS opzetten. Uiteindelijk ben ik toch voor flexraid gegaan omdat ik juist pariteit wil voor extra zekerheid tegen schijfuitval. Flexraid voegt dat toe zonder striping toe te passen, precies wat ik nodig heb. Het risico om alle data kwijt te raken bij meervoudig schijfuitval wanneer striping gebruikt wordt vond ik onacceptabel. De snelheidswinst die ik nu misloop zou ik toch niet benutten.
Verder moest de server dienst gaan doen als HTPC maar dat valt dus vies tegen.

Nextron wijzigde deze reactie 23-08-2011 23:15 (4%)

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • HyperBart
  • Registratie: maart 2006
  • Nu online
He nou zeg, een TS die zijn eigen virtualisatieplatform hier niet even dumpt is ook nogal raar :)
Hypervisor
Gekozen voor VMware's ESXi, bewezen platform, stabiel, heel lage footprint op de hardware, bootable van USB (ook al draait ie omwille van gemak en het feit dat ik nog wat moest uitzoeken omtrent drivers nog op mijn SATA-drive), in mijn ogen bijna geen performance verlies in verhouding tot de flexibiliteit die je ervoor terugkrijgt, makkelijk te configureren, propere interface en bovenal: MEMORY OVERCOMMITMENT :)


Hardware
Slechts één HDD van 320 GB via SATA

#ProductPrijsSubtotaal
1Intel PRO 1000MT Server Adapter (1Gbps, RJ-45, PCI-X)€ 98,-€ 98,-
1Antec New Solution VSK-2000-EC€ 38,72€ 38,72
1Intel Core i3 540€ 79,10€ 79,10
1be quiet! Pure Power L7 300W€ 35,50€ 35,50
1GeIL Value PLUS GVP38GB1333C9DC€ 40,94€ 40,94
1Kingston ValueRAM KVR1333D3N9K2/8G€ 36,35€ 36,35
1MSI H55M-E33€ 62,-€ 62,-
Bekijk collectie
Importeer producten
Totaal€ 390,61


En neen ik heb geen zot geld betaald voor die NIC :) , die heb ik nog via via gekregen...

heb hier zelfs nog een quadriple NIC liggen, maar die krijg ik voorlopig niet werkend, eigenlijk zou ik die eens in mijn andere PC moeten steken en kijken of ie werkt...


Virtuele machines
mixed environment van Windows en Linux:



3x Windows 2008 R2 Enterprise (DC, vCenter en VPN-machine)
1x Ubuntu 11.04 64-bits voor Sabnzbd, Couch Potato en Sick Beard O+ (mijn favoriet, de hele boite mag crashen, zolang die nog maar draait :P )
1x Windows XP Pro 32-bits (handig als ik thuis wat dingen wil doen remote, kan ik benaderen via SSh-tunnel of via PPTP-VPN)

De laatste draait in de Test-pool...


Foto's
ESXi en varia
Le backLe very low consuming PSULe network card
Le motherboardLe total setupESxi @ Home



Motivatie
Tja, het begon weer te kriebelen, ik had een bakje staan maar dat was oude hardware en door de blog van mux kwam ik er eigenlijk op uit dat die te veel stroom ging zuipen, zelfs zonder te meten :+ . Die bak maar gedecommisoned (hmm, waar staat die eigenlijk :o ) en vervangen door deze ESXi-compatibele setup, 10x zo krachtig en flexibel en een sterk gereduceerd verbruik, dat was het mij wel waard, en kijk eens aan, 5 VM's en ik heb nog overschot...


Toekomstmuziek
Voor de lol zou ik er graag nog een SSD willen insteken, alleen moet ik dan weer gaan opletten waar ik welke VM zet, mijn downloadbak zou ik dan moeten opsplitsen zodat de bootpartitie op de SSD staat en de downloadpartitie op de HDD, maar de boot is dan weer te groot, maar mogelijk met een herinstallatie van Pyro deze week zou ik daar rekening mee kunnen houden...

Backups doe ik niet aan mee, mijn VM's draaien nu, dat is voldoende, ik vloek wel even als die disk crashed, maar ik kan er mee leven...

Data die kritiek is staat toch op de NAS, backup ik naar een 1TB HDD via eSATA onregelmatig maar courant. Volgende droom is (als mijn QNAP vol staat) te vervangen of aan te vullen met een machine waar ik ZFS op draai... Enkele HDD's (4 tot 8) gecombineerd met een SSD voor te ZIL en gaan maar!

Vandaag even niets


  • HyperBart
  • Registratie: maart 2006
  • Nu online
Toch maar even de geïnteresseerden verlekkeren ;)

Volgende week heb ik ter mijner beschikking:

Mijn eigen server op basis van de i3
Een Intel server (http://www.intel.com/prod...5ur/sr1625ur-overview.htm) met 24GB DDR3, een 160GB grote SSD Enterprise grade, 6 NIC's en 2 Xeon's 5570, 8 cores dus :+ , 16 threads :')
Een i5-gebaseerd systeem (wenslijst: PC Dimitri)

We kunnen dus wat experimenteren :9

De Intel server koop ik waarschijnlijk omdat ik die via via op de kop kan tikken en hij schandalig goedkoop is...

Nu zou ik nog graag willen experimenteren met de VSA van VMware, maar ik vind die nergens en de trial downloaden lukt niet...

Vandaag even niets


  • HyperBart
  • Registratie: maart 2006
  • Nu online
quote:
Staatslot schreef op zaterdag 10 september 2011 @ 22:25:
Vrij rustig hier, je topic wil niet echt gaan lopen (heel jammer trouwens!)

Gaat die intel geen pokkeherrie maken? Een echte server thuis heb ik nooit lang volgehouden reed ze altijd na een snelle eerste check direct naar het datacentrum :)
Blijkbaar, idd spijtig, de vibe die bij het ESXi-topic hebben loopt hier niet zo door...

Djees? Zelf servers in een DC steken, kost dat niet ongelooflijk veel geld?

Vandaag even niets


  • HyperBart
  • Registratie: maart 2006
  • Nu online
Met ESXi moet je er als volgt vanuit gaan: beeldkaarten krijg je bijna niet werkend onder ESXi, geen full featured desktop met alle grafische pracht, neen, net genoeg om de GUI's van Windows te draaien, alleen via remote tools kan je die dingen beheren en instellen, je kan een VM wel openen in een console-scherm maar dat dient dan echt ook alleen maar om dingen in te stellen, je gaat daar bv geen filmpje over kunnen trekken...

Ik ben geen Xen-specialist, andere niet bare metal hypervisors zoals VMware Workstation en Virtualbox heb ik de basic ervaring van mee... VMware Workstation biedt je dan wel weer de mogelijkheid om gebruik te maken van de GPU dacht ik, maar hier durf ik mijn hand niet voor in het vuur te steken.

ESXi ondersteunt voor mij een heel belangrijk iets, namelijk "memory overcommitment" wat inhoudt dat je meer geheugen uitdeelt dan je effectief ter beschikking hebt :) ...

ZFS met ESXi gaat niet goed werken als je zogenaamde RDM's gebruikt, dwz dat je een disk exclusief aan een VM geeft... Wat wel beter werkt is een HBA doorgeven via VT-d...

Wat je dus vraagt omtrent dat muis en toetsenbord probleem: dat gaat alleen als je een virtualisatieoplossing zoals VirtualBox of iets dergelijks gebruikt... Mijn inziens niet optimaal, want dan zit je nog altijd met een veel te log OS onder je virtuele infrastructuur... Je zal dus via een RDP-variant moeten verbinden naar die full featured desktops...

HyperBart wijzigde deze reactie 12-09-2011 20:06 (4%)

Vandaag even niets


  • HyperBart
  • Registratie: maart 2006
  • Nu online
Deze wou ik jullie toch niet onthouden :+

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
Rukapul schreef op maandag 12 september 2011 @ 21:15:
[...]

Wel jammer. Mijn Debian server is naast server ook HTPC. De HTPC functionaliteit zou ik graag doorleiden naar een Windows VM met hardware support. Echter, met Xen wilde X in Dom0 niet eens starten door een probleem met Xen/NVidia-drivers.
Met Xen heb ik wel eens gezien dat het kon. Er staat ergens een filmpje op internet, van een kerel die 2 Unreal Tournament sessies in 2 VM's heeft draaien.

Zitten die gasten op 1 PC tegen elkaar te gamen :)

Het KAN dus wel...

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Nu online
quote:
Gadverdamme moet je nu ineens het pijnpunt uit mijn setup halen jaaa :+

Weet eigenlijk nog niet hoe ik mijn storage nu moet regelen :( , heb wel nog mijn QNAP thuis staan, maar heb niet zoveel zin om daar op zitten te R/W'en, zeker niet omdat dat ding voor geen meter performed met random I/O's...

Ik sta open voor suggesties...

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Gebruik je VMXNET3 of E1000? Dat maakt qua CPU belasting echt heeeel erg veel uit (1% tegenover 50% bij mij).

(Of Virt-IO in het geval van non ESX :+ )

FireDrunk wijzigde deze reactie 13-09-2011 13:35 (17%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Das nog best pittig dan inderdaad... Heb je al gekeken of je jumbo frames aan kan zetten?
(let op dat al je apparaten dat moeten ondersteunen)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Mjah, dan is het acceptabel... Waarom zoveel ellende als je toch over IPv4 internet?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
vso schreef op maandag 28 november 2011 @ 16:43:
Dit word ook ballooning genoemd en is ook onder andere Hypervisors beschikbaar, sla de documentatie erop na
Uh, ballooning is het oprekken van de lege ruimte in een guest OS om zo applicaties in het OS te laten denken dat er weinig geheugen is, waardoor een guest effectief minder geheugen van de Host gebruikt.
Dit is een techniek die ervoor zorgt dat je iets langer kan wachten met swappen, maar in de praktijk maar een paar procent helpt.
quote:
CAPSLOCK2000 schreef op maandag 28 november 2011 @ 17:56:
[...]


Kun je dat uitleggen?

Als ik geen swap gebruik moet ik meer geheugen toekennen aan m'n VM's om dezelfde prestaties te krijgen.
Uiteraard heb ik al m'n geheugen al uitgedeeld. Geheugen ongebruikt in je systeem laten zitten is immers zonde.
Enige manier om nog meer geheugen toe te kennen is door te overcommiten. Als ik ga overcommiten zal de host gaan swappen. De host heeft echter geen idee welke stukken guest-geheugen gebruikt worden en welke niet. Hij moet dus maar blind iets swappen. De guest kan wel een min of meer verstandige beslissing nemen over welk stuk geheugen je wilt uitswappen.
Overcommitment betekend altijd swappen? Dacht het niet! En je statement dat je guest beter weet wat hij uit kan swappen dan een host is ook niet waar. ESX houd namelijk vrolijk in de gaten welke blokken actief gebruikt worden, en swapped die juist niet uit.

Effectief betekend dit dat je op een host met 16GB ram, 16 2008 VM's kan draaien met elk 2GB geheugen gegeven, en 1GB reservering. Omdat op elke VM 1GB aan bullshit geheugen vrolijk uitgeswapped word, of niet meer nodig is vanwege Transparant Page Sharing.

En nee je VM word hier (bijna) niet trager van, want alle belangrijke informatie is wel gewoon direct beschikbaar.

^^
Jullie hebben beide lijkt het nog niet veel gelezen over hoe ESX met geheugen omgaat.
Er zijn echt hele papers geschreven van 100-den pagina's over het geheugen management van VMware.

Dat is vele malen ingewikkelder (en slimmer) dan jullie beide beschrijven.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik ben ook inderdaad van mening dat een swap partitie nodig is. Vaak vanwege het simpele feit dat er applicaties zijn die keihard dezelfde hoeveelheid swap in willen nemen als geheugen (SAP/Oracle en dat soort applicaties).

Wel denk ik dat de VMware driver echt IN het OS kan kijken en het verschil kan zien tussen geheugen dat van applicaties is, en geheugen dat als diskcache in gebruik is. Hiervoor heb je wel VMware tools nodig, die bevat namelijk de memctl driver die onder andere ballooning mogelijk maakt.

In de praktijk zie ik dat onze omgeving (> 300 VM's) heel veel VM's bevat die <500MB geheugen gebruiken (2003) en < 800MB (2008). De 'rustige' VM's zitten ook wel eens op 5MB geheugen gebruik, en reageren prima.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Chapeau voor je goede uitleg ;)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Xen (niet XenServer)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
Sendy schreef op donderdag 12 januari 2012 @ 18:18:
Ik heb een Dom0 waar ik alleen wat met ethernetbridges speel, zodat al het verkeer van de netwerkkaart naar de firewall-DomU gaat. Deze firewall dekt dan weer andere DomU's, en de Dom0 af.

Hiervoor maak ik de bridges statisch in Debians /etc/network/interfaces, en gebruik ik de script vif-bridge om dynamisch systemen aan de bridges toe te voegen. Dit lijkt wel een beetje op wat jij wil, geloof ik.

Serieus werk verrichten op de Dom0 lijkt me een dom idee. Als de Dom0 gekraakt wordt ligt alles op de machine open.
Helemaal mee eens, je 'HyperVisor' moet zo dun en dom mogelijk zijn.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
FREEBSD9 heeft toch VirtIO in de kernel?
Kan je kijken of je host op IO staat te wachten of je Guest. Misschien iets makkelijker om het probleem te pinpointen.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat ruikt dus naar driver issues in de guest.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Nope, dan zit je met Hyper-V beter volgens mij. Sequentieel heb ik met Hyper-V de hoogste resultaten behaald. Daarna kwam ESXi4 (nu met 5.0 kan het best anders zijn overigens).

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Klopt ook als een bus, Hyper-V management is erg bagger. Maar verbruik zou wel goed moeten zitten omdat drivers voor windows vaak beter zijn?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik mis een moederbord :)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Waar zet je de FreeNAS VMX file op?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat kan niet.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ga je ESXi en FreeNAS niet naast elkaar draaien dan?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
VorCha schreef op woensdag 08 augustus 2012 @ 10:59:
[...]

Juist wel, waarom denk jij van niet?
Omdat je een VM altijd op een datastore moet staan, en je geen datastore kan maken op een USB stick.
Als je dus een VM maakt zonder disks met alleen de USB stick doorgegeven, komt daar nog steeds een .vmx file uit die op een datastore *moet* staan.

Wat jij wil kan dus niet.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Je kan een SATA plugin module ofzo kopen van enkele gigabytes.

FireDrunk wijzigde deze reactie 08-08-2012 15:39 (26%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat kan prima ja. Bedenk wel dat dat een tikkie performance kost.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Waarom verdenk je de voeding? Dat is volgens mij juist het generiekste onderdeel van een PC :)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat zou allemaal niet uit moeten maken... Zolang de voeding aan de ATX standaard voldoet zou het gewoon moeten werken. En dat verhaal met die gesplitste P4 (P8) stekker, maakt ook niet uit. Dat is gewoon een stabiele 12V stekker, meer niet.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Watvoor emulatie gebruik je?

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Nu online
quote:
VorCha schreef op woensdag 08 augustus 2012 @ 16:05:
[...]

Daarmee impliceer je dat je wel wat ziet in FreeNAS en ESX naast elkaar in 1 host? _/-\o_
Ik doe dat thuis bv... Ik virtualiseer mijn ZFS machine...

Trouwens, als je echt eens "batshit crazy alles in eens" wilt draaien, kan je volgend doen:

HyperBart in "Zuinige ESXi Server"

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Als hij PCIe passthru gebruikt die daadwerkelijk gebruik maakt van de hardwarematige versnelling van IOMMU (VT-d dus) dan is 30 MB/s wel heel erg langzaam. Als hij softwarematige IOMMU gebruikt (XEN kan dat dmv een speciale PCI driver) dan is de snelheid al wat acceptabeler.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dan zal het VT-d zijn. Watvoor netwerkkaart gaat het om?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Nieuwste IXGB drivers geinstalleerd? (en niet via repositories, maar via intel.com)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Andere naam voor zelfde driver :)

FireDrunk wijzigde deze reactie 10-09-2012 20:25 (3%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
935Mb is prima toch? Je moet nog even in de driver van je guest LRO (Large Recieve Offloading) uitzetten, scheelt ook volgens mij.

modprobe e1000e lro=off

volgens mij.

kan ook zijn dat ik in de war was met 10Gb, maar het zal vast helpen..

FireDrunk wijzigde deze reactie 11-09-2012 08:42 (19%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat is erg vreemd, watvoor kaartje zit daar in? Heb je misschien jumbo frames op de ene plek wel aangezet, maar op de andere niet?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Boot anders op beide systeem eens een Ubuntu live cd, en probeer iperf.
Dan weet je gelijk of het aan de software ligt.

out-of-the-box zouden ze minimaal 600-700Mbit moeten halen (of het nou Realtek is of Intel, maakt geen kont uit.)

@Hierboven

Betaal je per mA?

FireDrunk wijzigde deze reactie 11-09-2012 15:04 (6%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Omdat ik het een tikkie vreemd vond dat ze het zo precies in kaart brachten :)
Als de minimale afnamehoeveelheid 500mA is, kan je er dus net zo goed een minder zuinige bak in hangen...

FireDrunk wijzigde deze reactie 11-09-2012 20:14 (40%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
sysctl -a vergelijken?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Je kan ze natuurlijk mailen, en zeggen dat je onder de 500mA zit, en dus minder wil betalen :+

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Heb je iperf uit de repositories geinstaleerd? Of vanaf source?
Misschien is de ene wel veel ouder dan de andere...

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
AMD-Vi? Gebruik je dat voor het doormappen van de NIC? Ik heb AMD-Vi nog niet echt veel in de praktijk gezien! Ik ben wel benieuwd naar de functionaliteit!

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Benchmarks zijn altijd goed, hoe meer hoe beter.

Waarom voeg je niet een 2e (virtuele) NIC toe aan je VM?
Dan heeft het ding intern snel netwerk naar je storage VM :)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Vanwaar de trage RAID array? :+

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik ken eerlijk gezegd geen filesystem meer wat dat niet kan...

XFS kan het, EXT4 kan het, NTFS kan het, BTRFS kan het...

@hierboven
Uh wat? ESXi op een QNAP???

FireDrunk wijzigde deze reactie 17-09-2012 12:50 (14%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Toch jammer... Heb je een mooie server, haal je geen Gbit :)

Ik ben persoonlijk ook wel benieuwd naar BTRFS, laten we hopen dat de ontwikkeling snel gaat!

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Default gateway leeglaten.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ligt aan het gebruik, test of productie?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Mits je een recente kernel hebt, heb je TRIM ondersteuning, dat is wel handig. Dan kan je eigenlijk elke SSD gebruiken.

Wel backups maken uiteraard.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
TRIM werkt wel met software RAID onder linux. De RAID implementatie van linux is onafhankelijk van de drivers, waardoor TRIM gewoon werkt.

Zolang je niet 1000-den GiB's naar die VM's schrijft, kan je gerust Samsung 830's of Crucial M4's gebruiken.

FireDrunk wijzigde deze reactie 06-11-2012 11:05 (28%)

Even niets...


  • HyperBart
  • Registratie: maart 2006
  • Nu online
Zo ga je idd moeten werken (ivm die UPS), een mgmt VM die een script laat lopen als hij detecteert dat de stroom uitgevallen is...

Wel opletten: storage VM als laatste afsluiten dus :) .


Weet je eigenlijk wat jouw verbruik is?

HyperBart wijzigde deze reactie 10-11-2012 20:28 (10%)

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Die VMware VM, hoe heet dat ding ook alweer... Ohja, VMA, die kan met je UPS omgaan volgens mij.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Daarmee kan je ook patchen ;)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
ACPI en APIC aanzetten, en DAN pas installeren. Zonder deze opties wordt er een ACPI/APIC loze Kernel geinstalleerd en die is stukken minder zuinig.

Je kan het achteraf wel wijzigen, maar dat is niet heel makkelijk.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Als je powertop draait, zie je dan ook echt dat KVM/QEMU de CPU wakker maakt?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
VM met Windows XP en een vSphere client erin?
Download een gestripte tiny windows XP en installeer een vSphere client. :)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Om wat voor adapter gaat het?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
PXE booten? :+

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ja, je moet voor VT-d gaan, en dan nog gaat het niet werken, want de 2 laatste schijven kan je dan niet doorgeven. Tenzij je de ASmedia controller ook doorgeeft, maar het is nog steeds een beetje vaag of dat werkt. Er zijn verhalen waar de onboard controller dan mee gaat (en dat gaat dus niet goed...)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
MikeVM schreef op dinsdag 05 februari 2013 @ 11:53:
op het moederbord zit toch ook een Intel controller? met 6 sata poorten? samen met de IBM heb ik dan 14 poorten? zonder de ASmedia controller? of kan ik die intel onboard niet doorgeven aan FreeBSD?

heb ik dan nog een andere PCIe controller nodig? (ik heb nog een belking 2poorts en een 4 poorts controller uit een Qnap)

hoe moet het dan wel?

* ik wil niet opdringerig overkomen, maar ik zit een beetje met de handen in het haar, ik heb een dure server besteld, en ik hoop er het meeste uit te halen :)
Nee je kan de onboard controller niet zomaar doorgeven, tenzij je dus nog een andere controller hebt waar je datastore op staat.

Bedenk het zo: Je VM MOET op een datastore staan, en deze datastore moet altijd van ESXi blijven.
Die datastore mag op elke controller staan, maar niet op USB. Zolang de controller door ESXi ondersteunt word, is het prima.

Daarna kan je een VM aanmaken met de onboard of addon controllers via VT-d doorgegeven.
Hoe je dus precies je server in moet richten weet ik niet, je moet zelf even kijken welke controllers wel en niet ondersteund worden.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ho, dat werkt niet...

RDM gaat maar tot 2TB, en hij heeft 3TB schijven.

Dus JA je hebt persé VT-d nodig.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik heb een hele poos terug ook Proxmox geinstalleerd, maar die gebruiken een kernel uit de prehistorie, of zelfs daarvoor. Ik geloof dat ik default 2.6.38 kreeg...

Je mag dus hopen dat VT-d (als je dat gebruikt, waar ik maar even vanuit ga...) goed werkt.

FireDrunk wijzigde deze reactie 28-03-2013 19:43 (22%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Tja, als je de Linux Kernel website bekijkt zie je dat het de Laatste supported longterm kernel is...
Er zitten 7 invidinduele stable kernel branches tussen...

Dat is niet meer tried and tested, dat is "I'm to fucking scared to upgrade to the next stable version..."

Beetje ik wil perse XP want dat is proven...

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Wow, das wel een mooi verschil! Misschien zijn een aantal instellingen ook wel toepasbaar op mensen met FreeBSD onder ESXi :D

-poke -> HyperBart :+

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Gewoon scp? VMs uitzetten, en de directory structuur met winscp kopieren.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat is heel makkelijk te scripten met powershell...

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Kan je het niet scripten met iets van AutoIT?
En weet je zeker dat je niet met SCP kan kopieren?

FireDrunk wijzigde deze reactie 22-04-2013 08:46 (36%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ja, vind hem niet zo fijn. Is 100% command line, en vind hem een beetje traag.
Hij draait in de ESXi SSH Shell, en werkt gewoon met 2 datastores. Hij maakt een nieuwe directory aan met de datum, en doet een cp van de normale files, en een vmkfstools disk clone van de VMDK files.

Volgens mij moeten de VM's ook uit, hoewel ik dat bij de laatste versie nog niet 100% getest heb.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
ThinkPad schreef op zondag 21 april 2013 @ 23:35:
***knip***


@ hierboven, mooie setup heb je staan! Alleen in mijn ogen behoorlijk overdreven voor een thuis situatie... 3 hosts zal wel aardig wat slurpen qua stroom, dan zit je wel op honderden euro's stroom per jaar (elke Watt is 2 euro per jaar) :X Tuurlijk is spelen leuk, maar heb je daadwerkelijk alles nodig om je thuisnetwerkje draaiend te houden? No flame intended hoor, ziet er verder keurig uit allemaal ! 8)
Wat veel mensen natuurlijk doen, is oefenen voor trainingen/examens die ze voor hun dagelijks werk nodig hebben. Door het doen van trainingen en zo krijg je vaak wat meer betaald (uiteindelijk...).

Dus qua kosten verdien je er wel weer wat op terug.

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Een kale Debian installatie is praktisch even groot als een kale Ubuntu installatie... En al helemaal als je de minimal ISO gebruikt van ubuntu...

Daarnaast is Ubuntu veel recenter qua packages, en is VMware Tools fatsoenlijk supported :)

AntiVirus software kan je prima doen, ClamAV werkt prima onder Linux.

Zolang je er geen last van hebt, is 2 beter dan 1 ;)

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Het word gesponsord volgens mij...

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
quote:
ThinkPad schreef op donderdag 09 mei 2013 @ 13:43:
Die SSD gaat al gauw te krap worden denk ik. Je hebt nu maar 24GB per VM beschikbaar, als je het gemiddeld genomen ziet (120 / 5 = 24). Waar laat je bijv. Sabnzbd z'n bestanden wegschrijven als hij aan het downloaden is? Dat wil je niet op je ZFS pool aangezien die dan elke keer moet opspinnen...

En als je ZFS wilt dan zou ik sowieso voor VT-D gaan. Schijven doorgeven via RDM aan ZFS is crap.

Voor het ZFS verhaal zou je hier nog kunnen kijken:
Het grote DIY RAID NAS topic deel 3
Het grote ZFS topic
Vind ik persoonlijk onzinnig. Want als je downloads daadwerkelijk klaar zijn gaan ze toch alsnog naar je data pool? Of sorteer je al je data met de hand?

Die 5 minuten dat je schijven even draaien als er een download binnen komt geven toch niet zo?

Over het RDM verhaal: VT-d is niet sneller dan RDM, wel stabieler en iets veiliger.
Bovendien zit je met RDM gelimiteerd aan 2TB schijven.

FireDrunk wijzigde deze reactie 11-05-2013 11:40 (7%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik vind het een beetje zonde van mijn SSD om elke download daar overheen te laten lopen... In het kader van slijtage heb ik dat toch liever op een HDD. Maar verder klopt het punt wel idd.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Een M1015 is een hele behoorlijke controller, en kost 120,-

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Nou nou, dat is een stevig oordeel... Waarom zou het niet nuttig zijn?

Dat iets niet aan de voorwaarden van een bedrijfskritische setup voldoet, wil toch niet zeggen dat het niet 'goed' en zinnig is?

Ik virtualiseer graag, scheelt een hoop gekloot met configs in operating systems die bepaalde software wel ondersteunen maar waar geen automatische installers voor zijn...
(CouchPotate/SickBeard op FreeBSD is gewoon kak, op Ubuntu is het 3 keer niezen en het staat er op...)

Het zinnige is dus: Ease of use...

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dump alsjeblieft die Intel PRO/1000 GT kaartjes... PCI is zwaar outdated, en die kaart heeft allang veel betere opvolgers...

Weet je overigens zeker dat je een SFX voeding nodig hebt? Die kast kan toch gewoon een ATX voeding aan? En met zo'n systeem mag je best een kwalitatief betere voeding nemen. Een Seasonic G360 bijvoorbeeld...

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik weet niet of de CT adapter werkt onder ESXi, zou je even moeten opzoeken.

Verder is een 3770 wel erg overkil... Een 3570 is maar een fractie langzamer, maar scheelt 100 euro.
Een i7 heeft vooral meer cache, en dat is niet echt een meerwaarde onder ESXi volgens mij (omdat bij elke vCPU context switch er een cache flush gedaan moet worden).

Maar de CPU is wel wat sneller, en als je denkt dat je het nodig hebt, moet je het vooral zelf weten :)

Oh, en waarom trouwens Asus? Die staan niet bekend om hun zuinigheid... Intel of MSI is beter, en als je het goedkoop wil, ASRock...

FireDrunk wijzigde deze reactie 21-05-2013 13:40 (13%)

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ja, maar niet met een nieuwe BIOS, let daar wel op. Er zijn nogal wat wisselende verhalen over die Realtek driver. Wil je perse 3 netwerkkaarten gebruiken? Want die 2 Intel kaartjes zijn in principe ook veel beter...

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Mooi, gaat een leuke server worden!

Even niets...


Acties:
  • 0Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Tja, die post is een beetje gechargeerd, maar het klopt aardig. Als je niet 100% weet wat je doet met ZFS / ESXi / VT-d moet je het niet doen...

Als je weet wat je doet, kan het prima...

Puntje 4 is echt overtrokken... Als je een moederbord hebt met UEFI is de kans 99.9% dat de VT-d code gewoon door Intel geschreven is, omdat die in de basis staat van het complete ontwerp van UEFI. Moederbord bouwers nemen gewoon een licentie en passen aan wat ze willen, dus de code voor VT-d is voor veel borden exact gelijk...

En puntje 6 is ook klets, ik kan toch gewoon eerst mijn ZFS VM booten, en dan de rest? Niemand die me tegenhoudt... Niks boot paradox..

FireDrunk wijzigde deze reactie 04-06-2013 13:30 (11%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Klopt, maar het leuke is, is dat je met de Startup manager gewoon kan aangeven dat ESXi moet wachten met het starten van de volgende VM tot VMWare tools is gestart... De kans dat je pool niet online is, maar vmware wel, is niet zo groot... En als dat niet zo is, is er zeer waarschijnlijk een goede reden om niet door te gaan met starten, want de storage is er toch niet :P

Die VM's kunnen niet gestart worden zonder storage, is dat erg? nee, dat kan niet eens... :P

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Klinkt goed :) Ik ga er even van uit dat je esxi gaat gebruiken?
Ik zie maar 1 disk, waar ga je VT-d voor gebruiken?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Ik heb juist mijn server niet meer als router in gebruik, want zodra je aan het spelen bent, of je hebt problemen, heb je gelijk geen internet meer... Ik heb nu dus gewoon een goede router met DD-WRT ingericht, dat werkt 100 keer fijner ;)

DD-WRT doet ook gelijk VPN, waardoor ik ook geen VPN Appliance meer hoef te draaien, en bovendien kan ik mijn host machine compleet besturen omdat ik op al mijn bakken remote KVM heb. Dus ik kan zelfs via VPN mijn thuismachine opnieuw installeren. ;)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Als je toch gaat RDPen boeit de performance toch niet?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Dat is ook wel een grappige vorm van "Thuis Virtualisatie" een game station maar dan anders.

Leuk gedaan! :D

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
RDM maakt geen bal uit, dus je kan de disk gewoon loskoppelen en in een andere Linux bak (of zelfs een windows bak) hangen.

RDM veranderd niets aan de disk, er staat als het goed is gewoon EXT4 op de disk.

Volgens mij heb ik de laatste keer deze gebruikt:
http://www.paragon-software.com/home/br-free/

FireDrunk wijzigde deze reactie 03-12-2013 10:44 (19%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Je moet ook nog een lokale datastore hebben waar de FreeBSD nas op staat... Je kan niet een controller doorgeven aan een VM zonder dat deze op een datastore staat voor ESXi zelf.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
http://tweakers.net/ext/f/9GdhDPCmasB5iYePBekCqqLh/full.png

Werkt prima hier...

8168 == 8111

http://pci-ids.ucw.cz/read/PC/10ec/8168

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
De wat oudere Crucial M500 mSATA SSD's staan er ook wel bekend om vrij warm te worden.
Heb hier ook zo'n heethoofd.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Toevallig deze week mijn ESXi cluster weer aangeslingerd met ESXi6 en VSAN.

Bestaat momenteel uit:

4 * Intel G1820 op ASUS H81 ITX met elk 2 * 8GB RAM.
Onboard Realtek NIC wordt gebruikt voor management en LAN traffic.
Elke node is voorzien van een Intel Pro 1000/PT dual port adapter welke gebruikt word voor VSAN en vMotion verkeer.

Bovenop de 4 nodes staat een HP MicroServer welke momenteel fungeert als een 'extra' NFS server (Fedora 22 met BTRFS). Staat momenteel mijn vCenter nog op. (Heb na wat verhalen hier, nog niet echt behoefte om mijn vCenter op VSAN te zetten). vCenter op BTRFS over NFS werkt eigenlijk prima. Snelheid van BTRFS icm NFS valt mij best mee. Werkt out-of-the-box beter dan ZFS.

Momenteel nog bezig met bouwen (en ontwerpen) van een goede multipathing strategie voor VSAN.
Ik weet nog niet hoe ik dat aan ga pakken.

Op het cluster draait nog maar 1 VM (een puppetmaster). Heb al wel een werkende Fedora 22 template, dus ik kan met een paar minuten nieuwe VM's (inclusief guest customizations) inspoelen.

Nu nog puppet verwerken in de guest customizations, zodat nieuwe VM's automatisch in puppet gehangen worden.

Op het todo lijstje:
- Backup systeem inrichten
- Veel oefenen met Puppet
- Yum repository maken
- ESXi Update Manager (upgraden naar 6.0U1 en straks 6.1 (die is onderweg)).
- Keys ergens vandaan toveren :+
- Misschien weer eens een private VLAN maken inclusief gateway VM.
- PXE boot en automatische uitrol via Cobbler (al eerder gedaan).

FireDrunk wijzigde deze reactie 14-10-2015 21:08 (5%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Wat gaat er fout tijdens installatie?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Probeer eens via IPMI te installeren (als je dat hebt) :)

Anders kan je ook een ESXi installatie maken in een Virtualbox VM op je desktop, op een USB stick die je doorgeeft.

Daarna prik je de USB stick gewoon over.

FireDrunk wijzigde deze reactie 19-11-2015 08:00 (69%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Nee, een ESXi installatie is niet hardware afhankelijk. Hij registreert wel, welke NIC als management nic gebruikt moet worden. Dus als je een installatie op een vreemd systeem boot, kan het zijn dat je wat netwerk configuratie moet doen op de console.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Heb je het VM Guest OS Type op FreeBSD 64bit gezet onder ESXi?

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Als je daadwerkelijk aan het compilen bent, zie je dan veel IOwait?
En hoe ziet je datastore configuratie er uit? De VM('s) draaien lokaal via VMFS op de twee SSD's uit je RML?

PS: dat verhaal wat je linkt ligt heel erg aan de adapter die je gebruikt. Probeer VMXNET3 eens (moet je wel even wat .conf wijzigingen doen).

FireDrunk wijzigde deze reactie 17-08-2016 16:25 (29%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Hmm, nfs async mounten? Groot verschil met Linux is dat in de recente versies van veel Linux distro's NFS4 de default is. Scheelt best in performance. FreeBSD doet volgens mij nog geen NFS4(.1)

FireDrunk wijzigde deze reactie 17-08-2016 17:37 (86%)

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
I stand corrected, ik doelde meer op "by-default". Je moet onder BSD dus standaard de nfsv4 optie meegeven.

Even niets...


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 13:07
Onder Linux heet het WA:

top - 22:51:18 up 1 day, 12:59,  1 user,  load average: 0.41, 0.40, 0.33
Tasks: 1485 total,   1 running, 1484 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.2 us,  0.2 sy,  0.0 ni, 99.2 id,  0.4 wa,  0.0 hi,  0.0 si,  0.0 st


Volgens mij is top onder BSD niet anders.

http://bencane.com/2012/0...ng-high-io-wait-in-linux/

Even niets...

Pagina: 1 2


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Sport

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True