Neen, ESXi en grafische kaarten doorgeven aan een VM (ik weet niet of je het door hebt, maar het is telkens een 1 op meer relatie: 1 VM kan (maar moet niet) één of meerdere grafische kaarten "bezitten"/toegekend gekregen hebben. Het is niet zo dat de grafische kaart (of de kracht althans) gedeeld wordt door meerdere VM's. Wat wel spijtig is, dat we GPU's nog niet kunnen abstraheren zoals CPU-power of RAM...tennisbal schreef op donderdag 28 februari 2013 @ 22:39:
[...]
Hackintosh bedoel je? topic ken ik idd en heb de juiste hardware, probleem is alleen dat ik niet zoals XEN alles op 1 pc kan realiseren, of is dat ondertussen veranderd/gaat dat veranderen? Sorry ben pas sinds 2 dagen aan het inlezen moet nog veel leren
Ik begrijp uiteraard dat het 1:1 is. Ik had het ook niet over 1 sharen, maar 2 videokaarten koppelen, ofwel IGP als dat mogelijk is en anders gewoon 2 losse videokaarten.HyperBart schreef op donderdag 28 februari 2013 @ 22:41:
[...]
Neen, ESXi en grafische kaarten doorgeven aan een VM (ik weet niet of je het door hebt, maar het is telkens een 1 op meer relatie: 1 VM kan (maar moet niet) één of meerdere grafische kaarten "bezitten"/toegekend gekregen hebben. Het is niet zo dat de grafische kaart (of de kracht althans) gedeeld wordt door meerdere VM's. Wat wel spijtig is, dat we GPU's nog niet kunnen abstraheren zoals CPU-power of RAM...
Maar ESXi kan never nooit op dezelfde pc ook viewer zijn? ik bekijk nu parallels extreme voor de mac, die schijnt ook VT-D te hebben dus moet dan wellicht mogelijk zijn op een andere manier.
Waarom wil je zo graag je server combineren met je workstation? Ik wil opmerken dat dit nogal ongebruikelijk is, zoals je zelf waarschijnlijk al merkte.
Gewoon een heel grote verzameling snoertjes
Tja vooral omdat ik dan maar 1 pc gebruik en niet 2. en omdat het kan... (of niet dus). Lijkt me leuk om met diverse OS'sen tegelijk te spelen, en natuurlijk kunnen veel ook in een normale vmmachine. Als vmware voor de desktop via VT-D kon was ik allang klaar, maar dat kan dus niet. Parallels extreme kan alleen met bepaalde quattro (of hoe je dat ook schrijft), dus dat wordt lastig.Compizfox schreef op donderdag 28 februari 2013 @ 23:17:
Waarom wil je zo graag je server combineren met je workstation? Ik wil opmerken dat dit nogal ongebruikelijk is, zoals je zelf waarschijnlijk al merkte.
Ik vind die hyper-v oplossing die ik hierboven beschreef ook erg grappig, ik gebruik het inderdaad ook niet als server en zit misschien helemaal niet goed meer in dit topic
Nu lees ik net dat virtualbox opeens wel VT-D passthrough heeft. Lekker dat internet, al die onbetrouwbare bronnen,
[ Voor 6% gewijzigd door Tennisbal op 28-02-2013 23:39 ]
Nou kijk, de reden dat ik dat vraag is omdat je het jezelf nogal lastig maakt.
ESXi is echt bedoeld voor headless setups. Het is dus een bare-metal hypervisor waarbij niet wordt verwacht dat je er überhaupt een beeldscherm aanhangt.
Je zou ook nog gewoon VMWare Workstation of Virtualbox kunnen overwegen natuurlijk. Dan gebruik je gewoon Windows als host, en draai je je server in een VM.
ESXi is echt bedoeld voor headless setups. Het is dus een bare-metal hypervisor waarbij niet wordt verwacht dat je er überhaupt een beeldscherm aanhangt.
Je zou ook nog gewoon VMWare Workstation of Virtualbox kunnen overwegen natuurlijk. Dan gebruik je gewoon Windows als host, en draai je je server in een VM.
Gewoon een heel grote verzameling snoertjes
Ik lees inderdaad nu veel over ESXi dualboot oplossing en nesting van diverse oplossingen. Mss beter om eerst mee te spelen dan hard core direct main systeem van maken. Krijg spullen over 3 dagen binnen.Compizfox schreef op vrijdag 01 maart 2013 @ 00:04:
Nou kijk, de reden dat ik dat vraag is omdat je het jezelf nogal lastig maakt.
ESXi is echt bedoeld voor headless setups. Het is dus een bare-metal hypervisor waarbij niet wordt verwacht dat je er überhaupt een beeldscherm aanhangt.
Je zou ook nog gewoon VMWare Workstation of Virtualbox kunnen overwegen natuurlijk. Dan gebruik je gewoon Windows als host, en draai je je server in een VM.
Dat kunnen we wel, alleen in kaarten van 5000,- +.HyperBart schreef op donderdag 28 februari 2013 @ 22:41:
[...]
Neen, ESXi en grafische kaarten doorgeven aan een VM (ik weet niet of je het door hebt, maar het is telkens een 1 op meer relatie: 1 VM kan (maar moet niet) één of meerdere grafische kaarten "bezitten"/toegekend gekregen hebben. Het is niet zo dat de grafische kaart (of de kracht althans) gedeeld wordt door meerdere VM's. Wat wel spijtig is, dat we GPU's nog niet kunnen abstraheren zoals CPU-power of RAM...
AMD heeft er recentelijk 1 geintroduceerd. Die dingen zijn vooral voor VDI Appliances zodat VM's videoacceleratie hebben.
Even niets...
Naar aanleiding van de berichten in het Zuinige Server Topic over de DQ77KB ben ik aan het nadenken over een VT-D setup op basis van dit moederbord, icm een VT-D capable CPU.
Zou het mogelijk zijn met een i5 3470S en een msata ssd 4 WDC greens (of reds) op de onboard sata door te mappen naar een guest, en de msata port te gebruiken als datastore voor de ssd's? Dit ook nog eens met een 120watt powerbrick.
Zou het mogelijk zijn met een i5 3470S en een msata ssd 4 WDC greens (of reds) op de onboard sata door te mappen naar een guest, en de msata port te gebruiken als datastore voor de ssd's? Dit ook nog eens met een 120watt powerbrick.
[ Voor 9% gewijzigd door sloth op 01-03-2013 14:34 ]
Nee, de mSATA poort zit op de onboard controller.
Enige wat je in mijn ogen kan doen, is een PCIe x1 of mPCIe ASMedia controller kaartje kopen.
Enige wat je in mijn ogen kan doen, is een PCIe x1 of mPCIe ASMedia controller kaartje kopen.
[ Voor 49% gewijzigd door FireDrunk op 01-03-2013 14:47 ]
Even niets...
Balen, was mooi geweest als het stock zou werken 
Jij had toch getest of dat mogelijk was om zo de 8 sata ports door te mappen naar een guest bij een ASRock B75 Pro3-M, maar je controller kaartje was DOA oid?
Jij had toch getest of dat mogelijk was om zo de 8 sata ports door te mappen naar een guest bij een ASRock B75 Pro3-M, maar je controller kaartje was DOA oid?
Lees al een tijdje mee maar ga nu ook aan de slag met een hopelijk zuinige esxi server in aanbouw. Tijd om de eerste meetresultaten te delen.
Net in elkaar gedrukt:
Asrock H77 pro4-M met i5-3470 (Boxed cooler) en 16GB Kingston KHX16LC10K2/16x
Powered by PicoPSU-120-WI-25 met EDAC EA11001E-120 12V 8,33A adapter
Verder connected 2x USB stick (esxi installer en ander om op te installeren), logitech USB keybord. En monitor op VGA, dus geen casefans disks etc. Stock bios instelingen.
gemeten met conrad energy logger 3500
Uit: 1,1W
In bios scherm gesettled: 33,2W
Tijdens ESXI install en bij boot ESXI blijft onder 50W
Na boot ESXI 23W, settled na tijd rond 22,3W
Net in elkaar gedrukt:
Asrock H77 pro4-M met i5-3470 (Boxed cooler) en 16GB Kingston KHX16LC10K2/16x
Powered by PicoPSU-120-WI-25 met EDAC EA11001E-120 12V 8,33A adapter
Verder connected 2x USB stick (esxi installer en ander om op te installeren), logitech USB keybord. En monitor op VGA, dus geen casefans disks etc. Stock bios instelingen.
gemeten met conrad energy logger 3500
Uit: 1,1W
In bios scherm gesettled: 33,2W
Tijdens ESXI install en bij boot ESXI blijft onder 50W
Na boot ESXI 23W, settled na tijd rond 22,3W
[ Voor 0% gewijzigd door Zorc op 01-03-2013 15:38 . Reden: typefoutje ]
Je kunt de ASM1061 niet als datastore gebruiken als je je onboard SATA-controller doorgeeft!
Dit heeft Pantagruel getest met een onboard ASM1061 (hij gaf de onboard Panterpoint door), en dit heb ik getest met een ASM1061 op een los PCI-e kaartje.
Dit heeft Pantagruel getest met een onboard ASM1061 (hij gaf de onboard Panterpoint door), en dit heb ik getest met een ASM1061 op een los PCI-e kaartje.
Gewoon een heel grote verzameling snoertjes
Heeft een van jullie dat al eens met KVM getest?
Even niets...
Nee, KVM heb ik nog niet (volledig) werkend.
Maar met KVM heb ik helemaal geen los kaartje nodig omdat die vanaf een HBA zou moeten kunnen booten die je met PCI-e passthrough aan een VM doorgegeven is.
(Met als voorwaarde dat die HBA een option ROM moet hebben, dus sommige onboard HBAs vallen af)
Maar met KVM heb ik helemaal geen los kaartje nodig omdat die vanaf een HBA zou moeten kunnen booten die je met PCI-e passthrough aan een VM doorgegeven is.
(Met als voorwaarde dat die HBA een option ROM moet hebben, dus sommige onboard HBAs vallen af)
Gewoon een heel grote verzameling snoertjes
Om hier even op voort te borduren:Compizfox schreef op vrijdag 01 maart 2013 @ 17:48:
Je kunt de ASM1061 niet als datastore gebruiken als je je onboard SATA-controller doorgeeft!
Dit heeft Pantagruel getest met een onboard ASM1061 (hij gaf de onboard Panterpoint door), en dit heb ik getest met een ASM1061 op een los PCI-e kaartje.
De servervariant van intel (c602/606) heeft de standaard Intel ICH met daarnaast soms een 4/8 poort SCU. Die is slechts SATA300 maar werk prima als datastore. De ICH kan dan wel doorgeven (getest). De SCU kan je op dit moment niet doorgeven. Er gaat niets mis, maar na een reboot is het vinkje in ESX weer weg.
Dat betekend 99/100 keer dat de PCIe root poort controller die ervoor hangt, het niet ondersteund.
Even niets...
Kan je de ingebouwde raid functionaliteit op de SAS controller voor ESXi gebruiken? Vraag me dat al tijden af namelijk, ik weet dat de c2xx reeks het niet ondersteunt.jadjong schreef op vrijdag 01 maart 2013 @ 21:53:
[...]
Om hier even op voort te borduren:
De servervariant van intel (c602/606) heeft de standaard Intel ICH met daarnaast soms een 4/8 poort SCU. Die is slechts SATA300 maar werk prima als datastore. De ICH kan dan wel doorgeven (getest). De SCU kan je op dit moment niet doorgeven. Er gaat niets mis, maar na een reboot is het vinkje in ESX weer weg.
Het is wat verwarrend qua functionaliteit maar wat in Windows 8 zit is niks anders als wat je met VMware Workstation/Fusion/Player kunt doen. Hyper-V wat in de Windows server edities zit is iets meer dan dat waardoor je het beter met ESXi kunt vergelijken qua features.tennisbal schreef op donderdag 28 februari 2013 @ 21:55:
Ik las net een artikel over Hyper-v-guest-os-machine-virtualisation. Kan dat ook in ESXi? Lijkt me wel erg handig. http://www.extremetech.co...os-machine-virtualization
Hyper-V is echter nogal anders dan ESXi in opzet omdat het bij zowel de client (Windows
ESXi is totaal anders omdat het maar 1 ding doet: virtualiseren. Je kunt daar dus niet allerlei andere rollen bij naast installeren. Dat moet je nou juist doen middels vm's.
Wat je in een vm draait maakt niet uit. VT-d is echter een ander verhaal: zowel de hardware als de software moet dit wel ondersteunen. Bij de desktop oplossingen zul je die VT-d support op dit moment niet vinden. 3D support in vm's is tegenwoordig wel erg goed geregeld dus je zou ook kunnen overwegen om van VT-d af te zien. Dan hoef je alleen nog maar desktop virtualisatie (VMware Workstation, etc.) te gebruiken voor de andere zaken.en is er een mogelijkheid om een desktop oplossing van virtualisatie te hebben waar ik wel zowel server als guest OS tegelijk kan draaien EN vt-d (videokaart koppeling) kan realiseren?
Dank voor je antwoorden, ik wil de komende tijd gaan experimenteren met het eea. (heb daar ook een apart topic voor gemaakt omdat het nogal offtopic gaat anders, loopt overigens voor geen meterppl schreef op zaterdag 02 maart 2013 @ 17:19:
[...]
Het is wat verwarrend qua functionaliteit maar wat in Windows 8 zit is niks anders als wat je met VMware Workstation/Fusion/Player kunt doen. Hyper-V wat in de Windows server edities zit is iets meer dan dat waardoor je het beter met ESXi kunt vergelijken qua features.
Hyper-V is echter nogal anders dan ESXi in opzet omdat het bij zowel de client (Windowsals de server (Windows 2008, 2012) onderdeel van het OS is en je het via het configuratiescherm of de management tool van de server moet activeren. Op deze systemen kun je daarnaast nog meer doen. Bij de client kun je 'm ook gewoon als client inzetten en dus games draaien. Bij de server kun je er nog iets als Exchange e.d. naast Hyper-V installeren. Dan heb je meerdere rollen op 1 doos staan.
ESXi is totaal anders omdat het maar 1 ding doet: virtualiseren. Je kunt daar dus niet allerlei andere rollen bij naast installeren. Dat moet je nou juist doen middels vm's.
[...]
Wat je in een vm draait maakt niet uit. VT-d is echter een ander verhaal: zowel de hardware als de software moet dit wel ondersteunen. Bij de desktop oplossingen zul je die VT-d support op dit moment niet vinden. 3D support in vm's is tegenwoordig wel erg goed geregeld dus je zou ook kunnen overwegen om van VT-d af te zien. Dan hoef je alleen nog maar desktop virtualisatie (VMware Workstation, etc.) te gebruiken voor de andere zaken.
Ik heb mijn onboard controller met ESXi doorgegeven aan een FreeBSD 9.1-guest, maar daar krijg ik nu contstant interrupt storms op IRQ16 
Echter, het lijkt er niet op dat er 2 of meer devices op de zelfde IRQ zitten:
IRQ16 is dus de SATA-controller die ik dmv PCI-e passthrough heb doorgegeven.
What to do?
Echter, het lijkt er niet op dat er 2 of meer devices op de zelfde IRQ zitten:
]$ vmstat -i interrupt total rate irq1: atkbd0 88 0 irq16: ahci0 74043089 148382 cpu0:timer 552613 1107 irq256: mpt0 3980 7 irq257: vmx3f0 2046 4 cpu7:timer 5799 11 cpu4:timer 4260 8 cpu3:timer 4027 8 cpu6:timer 548705 1099 cpu2:timer 4690 9 cpu1:timer 4411 8 cpu5:timer 4252 8 Total 75177960 150657
IRQ16 is dus de SATA-controller die ik dmv PCI-e passthrough heb doorgegeven.
What to do?
[ Voor 4% gewijzigd door Compizfox op 02-03-2013 19:02 ]
Gewoon een heel grote verzameling snoertjes
Even 1 CPU geven.
Even niets...
Jup, dat las ik net op internet. Als ik maar 1 core toeken heb ik dit probleem niet.
Maar ja, dat is uiteraard niet de bedoeling, ik heb namelijk 8 cores die per core relatief langzaam zijn...
Iets anders: Ik heb in de host 16 GB RAM zitten. Dit zie ik ook op het Overview tabje: Capacity: 16341,53 MB.
Echter, onder het Resource Allocation tabje zie ik het volgende onder Memory:
Total Capacity: 13386 MB
Reserved Capacity: 12419 MB
Available Capacity: 967 MB
De Reserved Capacity klopt wel want precies die hoeveelheid heb ik toegewezen aan een VM die nu draait (+ wat overhead).
Maar waar haalt ESXi die Total Capacity vandaan? Er is ruim 3 GB verdwenen!
Overheid van ESXi zelf kan het niet zijn want onder Configuration --> Memory kan ik zien dat "System" maar 78,5 MB gebruikt.
Maar ja, dat is uiteraard niet de bedoeling, ik heb namelijk 8 cores die per core relatief langzaam zijn...
Iets anders: Ik heb in de host 16 GB RAM zitten. Dit zie ik ook op het Overview tabje: Capacity: 16341,53 MB.
Echter, onder het Resource Allocation tabje zie ik het volgende onder Memory:
Total Capacity: 13386 MB
Reserved Capacity: 12419 MB
Available Capacity: 967 MB
De Reserved Capacity klopt wel want precies die hoeveelheid heb ik toegewezen aan een VM die nu draait (+ wat overhead).
Maar waar haalt ESXi die Total Capacity vandaan? Er is ruim 3 GB verdwenen!
Overheid van ESXi zelf kan het niet zijn want onder Configuration --> Memory kan ik zien dat "System" maar 78,5 MB gebruikt.
[ Voor 60% gewijzigd door Compizfox op 02-03-2013 22:11 ]
Gewoon een heel grote verzameling snoertjes
Onboard GPU, PCIe reserveringen (256MB per 16x slot), reserveringen voor andere devices.
Even niets...
Heb ik niet.FireDrunk schreef op zondag 03 maart 2013 @ 14:39:
Onboard GPU
Dat gaat toch niet van mijn RAM af?, PCIe reserveringen (256MB per 16x slot), reserveringen voor andere devices.
Ik dacht dat ESXi bare-metal was. 3 GB geheugengebruik voor ESXi zelf vind ik anders flink wat.
Ik heb nog 512 MB teruggekregen door de reservering voor vmvisor terug te schroeven. (Zie: http://www.vm-help.com/esx40i/memory_allocation.php)
Maar dat is nog weinig vergeleken met de 3 GB die ik in totaal mis...
Gewoon een heel grote verzameling snoertjes
Dat gaat wel van je RAM af...
Even niets...
Het probleem is niet dat het bare-metal is, maar er moet ergens "verwerking" plaatsvinden.Compizfox schreef op zondag 03 maart 2013 @ 15:13:
[...]
Heb ik niet.
[...]
Dat gaat toch niet van mijn RAM af?
Ik dacht dat ESXi bare-metal was. 3 GB geheugengebruik voor ESXi zelf vind ik anders flink wat.
ESXi wordt bij boot juist in geheugen geladen, om snel te functioneren.
Overal kom ik tegen "More is better" zodoende dat ik direct 16GB heb meebesteld voor mijn n40L microserver ( wat de levering direct verlengde met 6 dagen
Ik hoop dinsdag te kunnen starten met ESXi ...
Waarom? Dat heb ik nog met geen ander OS meegemaakt. Ik kan Linux draaien op een paar 512 MB, als ik dat zou willen.FireDrunk schreef op zondag 03 maart 2013 @ 15:50:
Dat gaat wel van je RAM af...
Een maar honderd MB overhead, OK. Maar 3 GB?
Volgens mij klopt er iets niet helemaal. Volgens VMWare is het minimum aantal RAM 2 GB. Terwijl ESXi bij mij meer dan 3 GB gebruikt...
[ Voor 31% gewijzigd door Compizfox op 03-03-2013 17:24 ]
Gewoon een heel grote verzameling snoertjes
Ik heb een paar dingetjes verbeterd...ppl schreef op zaterdag 02 maart 2013 @ 17:19:
[...]
Het is wat verwarrend qua functionaliteit maar wat in Windows 8 zit is niks anders als wat je met VMware Workstation/Fusion/Player kunt doen. COMPLEET anders dan Workstation/Fusion/Player aangezien het een bare metal hypervisor is, waar Workstation en consoorten op een hogere ring opereren.
Hyper-V wat in de Windows server edities zit is iets meer dan dat is net hetzelfde als die van Windows 8 waardoor je het beter met ESXi kunt vergelijken qua features. Hyper-V is echter nogal anders dan ESXi in opzet omdat het bij zowel de client (Windowsals de server (Windows 2008, 2012) onderdeel van het OS is en je het via het configuratiescherm of de management tool van de server moet activeren. Op deze systemen kun je daarnaast nog meer doen. Bij de client kun je 'm ook gewoon als client inzetten en dus games draaien. Bij de server kun je er nog iets als Exchange e.d. naast Hyper-V installeren. Dan heb je meerdere rollen op 1 doos staan.
ESXi is totaal anders omdat het maar 1 ding doet: virtualiseren. Je kunt daar dus niet allerlei andere rollen bij naast installeren. Dat moet je nou juist doen middels vm's.
Ik had de vraag ook in het Nieuw Zuinige Server (discussie) topic geplaatst, maar toch even hier omdat dit topic meer specifiek over virtualisatie gaat.
Overigens gaat het niet per sé over virtualisatie met ESXi, maar denk ik wel dat het interessant is.
Ergo:
Energiebesparing op bijvoorbeeld Windows VM's, nuttig of niet?
Ik kan mij indenken dat zoiets als Search Indexen uitzetten scheelt, want minder HD activiteit.
Maar bijvoorbeeld het scherm laten "uitzetten"? Wel of geen screensaver (blank screen)?
Bepaalde functionaliteit verwijderen die je toch niet gebruikt (geluidsdrivers e.d.)?
En Linux VM's, de powertop aanpassingen bijvoorbeeld, hebben die veel effect wanneer in een VM toegepast?
Overigens gaat het niet per sé over virtualisatie met ESXi, maar denk ik wel dat het interessant is.
Ergo:
Energiebesparing op bijvoorbeeld Windows VM's, nuttig of niet?
Ik kan mij indenken dat zoiets als Search Indexen uitzetten scheelt, want minder HD activiteit.
Maar bijvoorbeeld het scherm laten "uitzetten"? Wel of geen screensaver (blank screen)?
Bepaalde functionaliteit verwijderen die je toch niet gebruikt (geluidsdrivers e.d.)?
En Linux VM's, de powertop aanpassingen bijvoorbeeld, hebben die veel effect wanneer in een VM toegepast?
Scherm uitzetten na x minuten. Screensaver kost cpu. Dump alle eyecandy als aero & widgets. Minimaliseer alle programma's die aan staan. Als het niet nodig is om ingelogd te blijven, log dan uit.Ben.Hahlen schreef op maandag 04 maart 2013 @ 08:09:
Energiebesparing op bijvoorbeeld Windows VM's, nuttig of niet?
Ik kan mij indenken dat zoiets als Search Indexen uitzetten scheelt, want minder HD activiteit.
Maar bijvoorbeeld het scherm laten "uitzetten"? Wel of geen screensaver (blank screen)?
Bepaalde functionaliteit verwijderen die je toch niet gebruikt (geluidsdrivers e.d.)?
Een windows 2008 vm ging op deze manier van ~350mhz continue naar ~80mhz.
Ik herhaal mijn antwoord nog maar eens. De beste besparing is upgraden naar Windows 2012. Vanwege de tickless kernel en interrupt scheduling is het gewoon de beste upgrade qua idle CPU usage.
Even niets...
Heeft windows 8 dezelfde features? En kun je de besparing kwantificeren / schatten in watt? Het is nogal een uitgave om naar Windows 2012 te gaan. Windows 8 is nog wel te doen.
Windows 8 en 2012 hebben dezelfde kernel. Het aantal wakeups gaat gewoon substantieel omlaag. In watts is dat lastig uit te drukken.
Even niets...
wian schreef op maandag 04 maart 2013 @ 14:44:
Het is nogal een uitgave om naar Windows 2012 te gaan.
180dagen evaluatie ...wian schreef op maandag 04 maart 2013 @ 14:44:
Heeft windows 8 dezelfde features? En kun je de besparing kwantificeren / schatten in watt? Het is nogal een uitgave om naar Windows 2012 te gaan. Windows 8 is nog wel te doen.
mogelijkheden te over
Als je echt een aantal 2012 VM's zou moeten kopen, kan je prima een technet abbo nemen. Kost je iets van 150-ish euro per jaar, en je mag 5 enterprise/datacenter licenties gebruiken. En een datacenter licentie geeft onbeperkt gebruik van standard edition per CPU. Dus als je 1 CPU hebt kan je 5 bakken van oneindig VM's voorzien.
Je mag er alleen geen 'productie' mee draaien, maar niemand die beweerd dat jouw thuis bakje een productie machine is... Das gewoon voor test en training, precies waar Technet voor bedoeld is.
Je mag er alleen geen 'productie' mee draaien, maar niemand die beweerd dat jouw thuis bakje een productie machine is... Das gewoon voor test en training, precies waar Technet voor bedoeld is.
Even niets...
Even aan het testen geweest met de h77-pro4 en ESXi native compabiliteit. De onboard realtec 8111e wordt herkend (als rtl8186) en 'werkt' onder 5.1. Ik heb zelf wat vaagheden ervaren maar dat kan ook zijn vanwege een ingewikkelder-dan-gemiddelde-netwerk-configuratie. Hij kan inderdaad geen jumbo frames doen omdat :
vmnic1 is dan natuurlijk de realtec interface.
edit: hij werkt ook niet met een statische trunk in combo met een intel 1000pt kaartje en HP 1810-24G. Heb zelfde ESXi instellingen als bij mijn Supermicro x9scm-f overgenomen. Mijn advies over de 8111e: mijden als je meer dan een dumb-switch hebt.
code:
1
2
| Call "HostNetworkSystem.UpdateVirtualSwitch" for object "networkSystem" on ESXi "192.168.1.129" failed.
Operation failed, diagnostics report: Unable to set MTU to 9000 the following uplinks refused the MTU setting: vmnic1 |
vmnic1 is dan natuurlijk de realtec interface.
edit: hij werkt ook niet met een statische trunk in combo met een intel 1000pt kaartje en HP 1810-24G. Heb zelfde ESXi instellingen als bij mijn Supermicro x9scm-f overgenomen. Mijn advies over de 8111e: mijden als je meer dan een dumb-switch hebt.
[ Voor 17% gewijzigd door analog_ op 04-03-2013 21:15 ]
@FireDrunk: thanks, kende die Technet abbo's niet, alleen MSDN. Is eigenlijk wel de prijs waard om ongelimiteerd te kunnen testen/experimenteren thuis. Heb je dan geen problemen met activeren etc als je een vm met 2012 dubbel of opnieuw installeert?
Je mag bij 2012 standaard 3 keer activeren, maar bij de datacenter licentie mag je volgens mij onbeperkt activeren per licentie. Precieze details weet ik eerlijk gezegd niet, ik heb een technet abbo via mijn werkgever, en daar heb ik 5 keys van elk type licentie, dus ik kan nog wel even toe
Even niets...
Dan moet je vooral gewoon een tijdje met een bepaalde hypervisor gaan draaien, een omgeving optuigen en daarna dezelfde omgeving proberen op te tuigen in een andere hypervisor. Althans, zo zou ik het dan doen. Dat is eigenlijk de enige echt goede manier om ze met elkaar te vergelijken.Tennisbal schreef op zaterdag 02 maart 2013 @ 17:44:
Ik wil vooral weten waarmee ik het beste kan exp. wil nesting gaan toepassen XEN/Hyper-V/Esxi en dan al die dingen die ik opnoem. Voornamelijk voor fun en zelfstudie.
Je koppelt geen core aan een vm! Wat je doet is een virtuele cpu (!!!) maken en dat moet je met beleid doen. Dat betekent dat je niet meer dan 50% van wat je aan daadwerkelijke fysieke cpus/cores in je machine hebt zitten kunt toewijzen (HT spul kun je beter niet meerekenen). Doe je dat wel zul je onherroepelijk tegen (performance) issues e.d. aan gaan lopen. Doorgaans is 1 vCPU ook meer dan genoeg. Je wijst er meer dan 1 toe wanneer de software dat vereist of wanneer je multi cpu spul wil testen. ESXi zelf schaalt wel mee met wat er aan resources nodig is en regelt verder zelf wel wat op welke core wordt gedaan (waarbij het tegenwoordig ook gebruik kan maken van HT).Compizfox schreef op zaterdag 02 maart 2013 @ 21:02:
Jup, dat las ik net op internet. Als ik maar 1 core toeken heb ik dit probleem niet.
Maar ja, dat is uiteraard niet de bedoeling, ik heb namelijk 8 cores die per core relatief langzaam zijn...
ESXi heeft zelf ook geheugen nodig, dat gaat natuurlijk ook van je totaal fysiek geheugen af. Bij mij is dat 2GB (ik heb in totaliteit 16GB en kan dus maar max 14GB toewijzen aan vm's). Er is natuurlijk de optie om meer toe te wijzen dan je fysiek in de machine hebt maar slim is dat vaak niet omdat het je performance problemen kan opleveren.De Reserved Capacity klopt wel want precies die hoeveelheid heb ik toegewezen aan een VM die nu draait (+ wat overhead).
Maar waar haalt ESXi die Total Capacity vandaan? Er is ruim 3 GB verdwenen!
Nee dat heb je niet. Je leest over zeer cruciale informatie in mijn tekst heen waardoor je "verbeteringen" flauwekul zijn geworden. Hyper-V in Windows 8 en Windows 2012 is NIET te vergelijken met de techniek van welk VMware product dan ook omdat Hyper-V een rol is in Windows 8 & 2012. Qua functionaliteit (features) is het een ander verhaal.
Lang niet alle mogelijkheden in Windows 2012 zijn ook beschikbaar in Windows 8 en dat is ook niet zo raar aangezien de een een server OS is en de ander een desktop OS. Op functioneel niveau is de Hyper-V in Windows 2012 dus zeer zeker wel te vergelijken met ESXi qua functionaliteit en zit de Hyper-V in Windows 8 op het niveau van de desktop virtualisatie tools. Vergeet hierbij niet dat de VMware producten voor het grote deel dezelfde code/techniek met elkaar delen.
Techniek != functionaliteit/features.
Anyway, hoe het daadwerkelijk allemaal in elkaar steekt ligt een stuk ingewikkelder en is ver buiten de scope van dit topic en waar diegene zich van bewust moet zijn (dat kan ie verder zelf ook wel opzoeken als ie het wil weten).
In dit geval zal het niet uitmaken maar pas wel op: dat beide de techniek hebben wil nog niet zeggen dat je die ook als functionaliteit tot je beschikking hebt. De vSphere Hypervisor (ESXi) bevat alle techniek die je in vSphere Standard t/m de allerduurste variant kunt krijgen. Heb je die tot je beschikking? Nope. De licentie code die je invoert bepaald wat je krijgt. Dat geldt dus ook bij bijv. Windows 8. Op basis van je licentie code is het een Pro versie of een niet-Pro versie. Ik weet niet welke functionaliteit je nog meer zoekt maar houdt dit in je achterhoofd.FireDrunk schreef op maandag 04 maart 2013 @ 14:52:
Windows 8 en 2012 hebben dezelfde kernel. Het aantal wakeups gaat gewoon substantieel omlaag. In watts is dat lastig uit te drukken.
@wian: zoek even in dit topic, er staat ergens een link naar het msdn topic elders op het forum waar je een mooi overzicht van kosten e.d. terug kunt vinden.
Ik wijs 1 vCPU toe met meerdere cores. Het lijkt me wel dat deze cores corresponderen met de cores van mijn fysieke CPU, want ik kan er maximaal 8 selecteren en ik heb er ook een octacore in.ppl schreef op maandag 04 maart 2013 @ 21:59:
[...]
[...]
Je koppelt geen core aan een vm! Wat je doet is een virtuele cpu (!!!) maken en dat moet je met beleid doen. Dat betekent dat je niet meer dan 50% van wat je aan daadwerkelijke fysieke cpus/cores in je machine hebt zitten kunt toewijzen (HT spul kun je beter niet meerekenen). Doe je dat wel zul je onherroepelijk tegen (performance) issues e.d. aan gaan lopen. Doorgaans is 1 vCPU ook meer dan genoeg. Je wijst er meer dan 1 toe wanneer de software dat vereist of wanneer je multi cpu spul wil testen. ESXi zelf schaalt wel mee met wat er aan resources nodig is en regelt verder zelf wel wat op welke core wordt gedaan (waarbij het tegenwoordig ook gebruik kan maken van HT).
Het is ook (hardware)-virtualisatie, geen emulatie of zo.
(of heb ik het nou helemaal verkeerd?
Maargoed, je leest niet helemaal goed gok ik, want dat is helemaal niet mijn probleem. Heeft altijd prima gewerkt, totdat ik via PCI-e passthrough mijn onboard SATA-controller doorgaf. Als ik dat doe (en meerdere cores toewijs), krijg ik interrupt storms op die betreffende SATA-controller.
Ik loop nu tegen dit geheugenlimiet aan omdat ik via PCI-e passthrough die controller heb doorgegeven aan mijn storage-VM, die ik normaal gesproken 12 GB geef.[...]
ESXi heeft zelf ook geheugen nodig, dat gaat natuurlijk ook van je totaal fysiek geheugen af. Bij mij is dat 2GB (ik heb in totaliteit 16GB en kan dus maar max 14GB toewijzen aan vm's). Er is natuurlijk de optie om meer toe te wijzen dan je fysiek in de machine hebt maar slim is dat vaak niet omdat het je performance problemen kan opleveren.
Full passthrough betekent bij ESXi dat je per se een memory reserveration moet instellen (heeft met DMA te maken)
Beetje jammer, maar ja. Niet het grootste probleem
Gewoon een heel grote verzameling snoertjes
Welke informatie? Waar heb ik gezegd dat dat ze niet te vergelijken zijn? Ik zeg gewoon dat VMware Workstation en consoorten totaal anders zijn dan Hyper-V, alleen al maar omdat de een een BMHV is en de ander op een hogere ring functioneert.ppl schreef op maandag 04 maart 2013 @ 21:59:
Nee dat heb je niet. Je leest over zeer cruciale informatie in mijn tekst heen waardoor je "verbeteringen" flauwekul zijn geworden. Hyper-V in Windows 8 en Windows 2012 is NIET te vergelijken met de techniek van welk VMware product dan ook omdat Hyper-V een rol is in Windows 8 & 2012.
Daar heb ik toch ook niks over gezegd?Qua functionaliteit (features) is het een ander verhaal.
Lang niet alle mogelijkheden in Windows 2012 zijn ook beschikbaar in Windows 8 en dat is ook niet zo raar aangezien de een een server OS is en de ander een desktop OS.
Ik zeg alleen maar dat
Hyper-V en ESXi in dezelfde categorie zitten en dat VMware Workstation totaal niet te vergelijken is met de twee eerste (omdat het een andere categorie is). Of Hyper-V nu van een Windows 8 komt of van een 2012 maakt geen tierelier uit, het is een BMHV en daar draait het om in mijn vergelijking als differentiator tov Workstation.
Ik ben wat aan het spelen geweest met bios instellingen en het is toch leuk om te zien dat je daarmee nog wat zuiniger kan worden. Undervolten is vooral leuk voor de max. load.
Ik ben nu even van ESXI af en draai bare metal win7 om de stabiliteit te testen met prime95/intel burntest, zit daarmee beneden de 75W. Win7 desktop, rond de 28W.
Dit met 7200rmp 500gb seagate en samsung 840pro SSD en muis + casefan (antec tri, low speed) extra aangesloten, t.o.v. mijn eerdere config.
Ik ben nu even van ESXI af en draai bare metal win7 om de stabiliteit te testen met prime95/intel burntest, zit daarmee beneden de 75W. Win7 desktop, rond de 28W.
Dit met 7200rmp 500gb seagate en samsung 840pro SSD en muis + casefan (antec tri, low speed) extra aangesloten, t.o.v. mijn eerdere config.
zo, setup binnen,
Antec Midi Tower One
ASRock H77 Pro4-M iH77
Corsair 2x8GB, DDR3, PC12800
Corsair Voeding VS350 350W
Intel Core i5 3330 3.00GHz 6MB Box
Kingston 8GB, USB2.0
Lite-On DVD Brander
Samsung SSD 2.5", 250GB, SATA600, 840 Series
Ati Radeon 5450 PCI-E 512mb
Esxi 5.1 geinstalleerd, SBS2011 test setup gemaakt, werkt als een trein.
Daarna een W8PRO als test HTPC oplossing geinstalleerd.
Via VTD de ati kaart doorgegeven. dit werkt, aangezien de pc boven staat, en er beneden gebruik van word gemaakt, wilde ik de usb controller doorgeven. Ik had al gelezen dat dit problemen gaf met Esxi 5.1, dus dit werkte niet.
Esxi 5.0 U2 geinstalleerd, VM's opnieuw gekoppeld, VTD passtrough voor de Ati kaart + Usb controller ingesteld, en voila, beeldscherm eraan hangen, muis en toetsenbord worden netjes doorgemapped, en ik kan de pc als volwaardige desktop gebruiken.
Nog uit te zoeken / Todo:
- youtube filmpjes blijven groen beeld vertonen, (hardwarematige versnelling?)
- XBMC: speelt filmpjes de 1e 3 seconden vloeiend, daarna haperend.
- VLC player daarentegen speelt alles WEL vloeiend af, ook x264 content.
- Extra storage toevoegen: 750gb 2.5inch hdd of 2Tb 3.5 inch storage.
- Wireless toetsenbord + trackpad muis aanschaffen.
Verbruik (Esxi optimalisatie nog niet doorgevoerd na herinstall)
- idle: 43 watt
- film: 50 watt +/-
- max: 63 watt op de teller gezien.
Antec Midi Tower One
ASRock H77 Pro4-M iH77
Corsair 2x8GB, DDR3, PC12800
Corsair Voeding VS350 350W
Intel Core i5 3330 3.00GHz 6MB Box
Kingston 8GB, USB2.0
Lite-On DVD Brander
Samsung SSD 2.5", 250GB, SATA600, 840 Series
Ati Radeon 5450 PCI-E 512mb
Esxi 5.1 geinstalleerd, SBS2011 test setup gemaakt, werkt als een trein.
Daarna een W8PRO als test HTPC oplossing geinstalleerd.
Via VTD de ati kaart doorgegeven. dit werkt, aangezien de pc boven staat, en er beneden gebruik van word gemaakt, wilde ik de usb controller doorgeven. Ik had al gelezen dat dit problemen gaf met Esxi 5.1, dus dit werkte niet.
Esxi 5.0 U2 geinstalleerd, VM's opnieuw gekoppeld, VTD passtrough voor de Ati kaart + Usb controller ingesteld, en voila, beeldscherm eraan hangen, muis en toetsenbord worden netjes doorgemapped, en ik kan de pc als volwaardige desktop gebruiken.
Nog uit te zoeken / Todo:
- youtube filmpjes blijven groen beeld vertonen, (hardwarematige versnelling?)
- XBMC: speelt filmpjes de 1e 3 seconden vloeiend, daarna haperend.
- VLC player daarentegen speelt alles WEL vloeiend af, ook x264 content.
- Extra storage toevoegen: 750gb 2.5inch hdd of 2Tb 3.5 inch storage.
- Wireless toetsenbord + trackpad muis aanschaffen.
Verbruik (Esxi optimalisatie nog niet doorgevoerd na herinstall)
- idle: 43 watt
- film: 50 watt +/-
- max: 63 watt op de teller gezien.
Heb je de 2e videokaart als primaire videokaart ingesteld (in windows)? VLC zal wel slim genoeg zijn om te kijken of je 2e videokaart wel hardwareacceleratie ondersteund, en zodoende daar je video op renderen.
Even niets...
Afhankelijk van wat je draait kun je best 8 vCPU aanmaken per virtuele core. Dat is dus eventeel met HyperThreading meegerekend. Vooral bij dekstop virtualisatie met harwarematige videoversnelling kan dit beter uitpakken dan een lager aantal vCPU's per virtuele core. Op een dual socket octocore met HT kun je dan zomaar met 256 vCPU's de beste prestaties krijgen.ppl schreef op maandag 04 maart 2013 @ 21:59:
Je koppelt geen core aan een vm! Wat je doet is een virtuele cpu (!!!) maken en dat moet je met beleid doen. Dat betekent dat je niet meer dan 50% van wat je aan daadwerkelijke fysieke cpus/cores in je machine hebt zitten kunt toewijzen (HT spul kun je beter niet meerekenen). Doe je dat wel zul je onherroepelijk tegen (performance) issues e.d. aan gaan lopen.
Nogmaals, afhankelijk van wat er aan VM's gebruikt worden. Performance monitoring en analyse is een must.
Vrijwel elk OS met een Multi-threaded kernel heeft baat bij meer dan 1 vCPU op een goede BMHV.Doorgaans is 1 vCPU ook meer dan genoeg. Je wijst er meer dan 1 toe wanneer de software dat vereist of wanneer je multi cpu spul wil testen. ESXi zelf schaalt wel mee met wat er aan resources nodig is en regelt verder zelf wel wat op welke core wordt gedaan (waarbij het tegenwoordig ook gebruik kan maken van HT).
Ook hier is het gevolg analyseren sterk aan te raden. Maar dan hebben we het al snel niet meer over een simpele thuisserver. Stel een aantal VM's met in tijd geplande geheugen intensieve taken. Over commitment van geheugen kan hier enorme efficiency winst opleveren.Er is natuurlijk de optie om meer toe te wijzen dan je fysiek in de machine hebt maar slim is dat vaak niet omdat het je performance problemen kan opleveren.
Zowel ESX als Hyper-V zijn 'Bare Metal Hyper Visors'. Dat heeft niets met de wijze van installatie te maken. Waar wel een groot verschil in zit is het kernel en driver model. Het waarom, en de voor en nadelen is waar het interessant wordt bij grotere implementaties.Hyper-V in Windows 8 en Windows 2012 is NIET te vergelijken met de techniek van welk VMware product dan ook omdat Hyper-V een rol is in Windows 8 & 2012. Qua functionaliteit (features) is het een ander verhaal.
Klopt als een bus.Lang niet alle mogelijkheden in Windows 2012 zijn ook beschikbaar in Windows 8 en dat is ook niet zo raar aangezien de een een server OS is en de ander een desktop OS.
Ach, de W8 BMHV biedt juist ook weer functionaliteit welke de niet BMHV's (dus ook VMWare Workstation) niet hebben alsook andersom. En daarnaast delen de virtualisatie technieken op Windows Server 2012 en Windows 8 veel meer dan ESX(i) en andere VMWare virtualisatie technieken.Op functioneel niveau is de Hyper-V in Windows 2012 dus zeer zeker wel te vergelijken met ESXi qua functionaliteit en zit de Hyper-V in Windows 8 op het niveau van de desktop virtualisatie tools. Vergeet hierbij niet dat de VMware producten voor het grote deel dezelfde code/techniek met elkaar delen.
The Lord, ik had het niet beter kunnen verwoorden, chapeau
Even niets...
Terugkomend op mijn interrupt storm-probleem:
Als ik meerdere cores toewijs aan de VM zie ik in de guest met top dat er constant ongeveer 11% CPU usage naar interrupts gaat.
In de vSphere client onder Performance kan ik dit bevestigen.
Als ik maar 1 core toewijs, en de interrupt storms dus verdwijnen, en de guest is idle, is de CPU usage bijna 0% (Hij is 99,6% idle)
Toch zie ik dan in vSphere onder performance dat de VM een constante 20% CPU verbruikt, ook al is dat niet zichtbaar in de guest.
Vreemd...
Maar dit drukt het idle stroomverbruik van de host nogal jammergenoeg
Als ik meerdere cores toewijs aan de VM zie ik in de guest met top dat er constant ongeveer 11% CPU usage naar interrupts gaat.
In de vSphere client onder Performance kan ik dit bevestigen.
Als ik maar 1 core toewijs, en de interrupt storms dus verdwijnen, en de guest is idle, is de CPU usage bijna 0% (Hij is 99,6% idle)
Toch zie ik dan in vSphere onder performance dat de VM een constante 20% CPU verbruikt, ook al is dat niet zichtbaar in de guest.
Vreemd...
Maar dit drukt het idle stroomverbruik van de host nogal jammergenoeg

[ Voor 7% gewijzigd door Compizfox op 05-03-2013 19:41 ]
Gewoon een heel grote verzameling snoertjes
Ravenstein,
je maakt me helemaal happy dat vt-d gpu passthrough toch wel werkt.
In mijn gedachte was ik al bij Xenserver, maar liever heb ik ESX5.x
Heb je specifieke acties moeten doen om vt-d met de ati kaart voor elkaar te krijgen? Dus aparte drivers importeren of ander gefreubel? Of gewoon as is installatie, passthroughen en gas op die pantoffel
je maakt me helemaal happy dat vt-d gpu passthrough toch wel werkt.
In mijn gedachte was ik al bij Xenserver, maar liever heb ik ESX5.x
Heb je specifieke acties moeten doen om vt-d met de ati kaart voor elkaar te krijgen? Dus aparte drivers importeren of ander gefreubel? Of gewoon as is installatie, passthroughen en gas op die pantoffel
[ Voor 8% gewijzigd door magic_japie op 05-03-2013 23:49 ]
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Ik heb nog een PCI kaartje liggen met USB en PATA aansluitingen.
Ik heb nog wat PATA disks liggen, dus het zou wel handig zijn als ik die aan unRAID zou kunnen doorgeven.
Kan je uberhaupt PCI (geen express!) kaarten doorgeven middels VT-D?
Ik heb nog wat PATA disks liggen, dus het zou wel handig zijn als ik die aan unRAID zou kunnen doorgeven.
Kan je uberhaupt PCI (geen express!) kaarten doorgeven middels VT-D?
Je kunt het proberen, maar de kans is klein dat het gaat lukken.
Maar eh, lol, PATA-disks?
Maar eh, lol, PATA-disks?
[ Voor 26% gewijzigd door Compizfox op 06-03-2013 10:33 ]
Gewoon een heel grote verzameling snoertjes
Als de PCI chip op een PCIe poort zit welke weer achter een PCIe root zit, kan je hem doorgeven.
Meestal is dat niet zo, en zit de PCI chip direct op een PCIe lane dmv een convertertje, en is de poort dus niet door middel van VT-d door te geven.
Meestal is dat niet zo, en zit de PCI chip direct op een PCIe lane dmv een convertertje, en is de poort dus niet door middel van VT-d door te geven.
Even niets...
De PCI-E kaart staat als enige kaart ingeschakeld, de onboard dient te worden uitgeschakeld.FireDrunk schreef op dinsdag 05 maart 2013 @ 13:30:
Heb je de 2e videokaart als primaire videokaart ingesteld (in windows)? VLC zal wel slim genoeg zijn om te kijken of je 2e videokaart wel hardwareacceleratie ondersteund, en zodoende daar je video op renderen.
Ik zal vanavond eens verder puzzelen.
Nee dat bedoel ik niet.. IN de vm virtualiseert VMware altijd een videokaart, die moet je even in de Windows VM als secundair markeren.
Even niets...
Nee ik had een document gevonden met wat bios instellingen specifiek voor dit moederbord en vele anderenmagic_japie schreef op dinsdag 05 maart 2013 @ 23:19:
Ravenstein,
je maakt me helemaal happy dat vt-d gpu passthrough toch wel werkt.
In mijn gedachte was ik al bij Xenserver, maar liever heb ik ESX5.x
Heb je specifieke acties moeten doen om vt-d met de ati kaart voor elkaar te krijgen? Dus aparte drivers importeren of ander gefreubel? Of gewoon as is installatie, passthroughen en gas op die pantoffel
Even uit mijn hoofd, ik zal het vanavond even controleren thuis:
- IGPU uit
- Onboard audio uit
- PCI-E als primaire display adapter
- aan de vm config file: Add pciHole.start = "2909" toevoegen
Vervolgens de kaart + hdmi poort doormappen naar een VM, zodra je de VM opstart word het beeld even zwart (esxi console verdwijnt) en na een 10tal seconden zie je je VM.
Krijg vandaag mijn Logitech K400 binnen (trackpad muis + tb) en ga vanavond weer verder testen.
Ah, dat is een goede, zal ik vanavond ff controleren.FireDrunk schreef op woensdag 06 maart 2013 @ 10:56:
Nee dat bedoel ik niet.. IN de vm virtualiseert VMware altijd een videokaart, die moet je even in de Windows VM als secundair markeren.
Als je dat document nog terug zou kunnen vinden zou dat tof zijn.ravenstein schreef op woensdag 06 maart 2013 @ 11:01:
[...]
Nee ik had een document gevonden met wat bios instellingen specifiek voor dit moederbord en vele anderen
Even uit mijn hoofd, ik zal het vanavond even controleren thuis:
- IGPU uit
- Onboard audio uit
- PCI-E als primaire display adapter
- aan de vm config file: Add pciHole.start = "2909" toevoegen
Vervolgens de kaart + hdmi poort doormappen naar een VM, zodra je de VM opstart word het beeld even zwart (esxi console verdwijnt) en na een 10tal seconden zie je je VM.
Krijg vandaag mijn Logitech K400 binnen (trackpad muis + tb) en ga vanavond weer verder testen.
zeer zeker. Zeker met de setup die ik nu in gedachte is, valt de prijs nogal mee.yeehaw schreef op woensdag 06 maart 2013 @ 11:06:
[...]
Als je dat document nog terug zou kunnen vinden zou dat tof zijn.
Is je setup ook redelijk zuinig met het H77 mobo?
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Vanavond zal ik dat document ff terugzoeken: Dit is mijn huidige verbruik:magic_japie schreef op woensdag 06 maart 2013 @ 14:10:
[...]
zeer zeker. Zeker met de setup die ik nu in gedachte is, valt de prijs nogal mee.
Is je setup ook redelijk zuinig met het H77 mobo?
Verbruik (Esxi optimalisatie nog niet doorgevoerd na herinstall) (2VM's draaiend, SBS2011 + W8PRO)
- idle: 43 watt
- film: 50 watt +/-
- max: 63 watt op de teller gezien.
Ik vind 43W eigenlijk best veel... Dat moet wel lager kunnen.
Maar je draait nu ESXi 5.0? Want 5.1 is volgens mij een stuk zuiniger (vanwege tickless kernel).
Maar je draait nu ESXi 5.0? Want 5.1 is volgens mij een stuk zuiniger (vanwege tickless kernel).
Even niets...
maar dan heeftie problemen met zijn virtuele desktop (HTPC)...
Ik vind 43W ook vrij behoorlijk.
@ Firedrunk,
is dit in Xenserver wel zuiniger toevallig? Ik twijfel nog zeg maar welk host OS: ESX5.x of Xenserver 6.1.0
Ik vind 43W ook vrij behoorlijk.
@ Firedrunk,
is dit in Xenserver wel zuiniger toevallig? Ik twijfel nog zeg maar welk host OS: ESX5.x of Xenserver 6.1.0
[ Voor 39% gewijzigd door magic_japie op 06-03-2013 15:55 ]
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Waarom wil je perse de hele USB controller doorgeven? Je kan de devices zelf toch ook doorgeven? Of werkt dat ook niet meer in 5.1?
Even niets...
het gaat om zijn GPU via VT-d...
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Dat staat niet in zijn post? Er staat dat USB doorgeven niet werkt?
ravenstein schreef op dinsdag 05 maart 2013 @ 12:46:
zo, setup binnen,
Antec Midi Tower One
ASRock H77 Pro4-M iH77
Corsair 2x8GB, DDR3, PC12800
Corsair Voeding VS350 350W
Intel Core i5 3330 3.00GHz 6MB Box
Kingston 8GB, USB2.0
Lite-On DVD Brander
Samsung SSD 2.5", 250GB, SATA600, 840 Series
Ati Radeon 5450 PCI-E 512mb
Esxi 5.1 geinstalleerd, SBS2011 test setup gemaakt, werkt als een trein.
Daarna een W8PRO als test HTPC oplossing geinstalleerd.
Via VTD de ati kaart doorgegeven. dit werkt, aangezien de pc boven staat, en er beneden gebruik van word gemaakt, wilde ik de usb controller doorgeven. Ik had al gelezen dat dit problemen gaf met Esxi 5.1, dus dit werkte niet.
Esxi 5.0 U2 geinstalleerd, VM's opnieuw gekoppeld, VTD passtrough voor de Ati kaart + Usb controller ingesteld, en voila, beeldscherm eraan hangen, muis en toetsenbord worden netjes doorgemapped, en ik kan de pc als volwaardige desktop gebruiken.
Nog uit te zoeken / Todo:
- youtube filmpjes blijven groen beeld vertonen, (hardwarematige versnelling?)
- XBMC: speelt filmpjes de 1e 3 seconden vloeiend, daarna haperend.
- VLC player daarentegen speelt alles WEL vloeiend af, ook x264 content.
- Extra storage toevoegen: 750gb 2.5inch hdd of 2Tb 3.5 inch storage.
- Wireless toetsenbord + trackpad muis aanschaffen.
Verbruik (Esxi optimalisatie nog niet doorgevoerd na herinstall)
- idle: 43 watt
- film: 50 watt +/-
- max: 63 watt op de teller gezien.
Even niets...
Klopt usb doorgeven werkt niet in 5.1.0 , ik kan de controllers markeren als passtrough device, waarna ze na een reboot van de Esxi server gewoon weer unchecked staan. GPU passtrough werkte overigens WEL.
Ik heb 2 Usb controllers op het bordje zitten, en maar 1 via passtrough gekoppeld aan de VM
Ik wilde de controller doorgeven vanwege een usb toetsenbord, tenzij daar ook nog "nettere" oplossingen voor zijn, ik kon zo snel niks makkelijks vinden.
43w is inderdaad nog behoorlijk, ik ga nog wat tweaken om dit omlaag te krijgen.
Ik heb 2 Usb controllers op het bordje zitten, en maar 1 via passtrough gekoppeld aan de VM
Ik wilde de controller doorgeven vanwege een usb toetsenbord, tenzij daar ook nog "nettere" oplossingen voor zijn, ik kon zo snel niks makkelijks vinden.
43w is inderdaad nog behoorlijk, ik ga nog wat tweaken om dit omlaag te krijgen.
je hebt gelijk FiredrunkFireDrunk schreef op woensdag 06 maart 2013 @ 16:03:
Dat staat niet in zijn post? Er staat dat USB doorgeven niet werkt?
[...]
Ik zat in een training en ik moest zorgen dat ik mijn ogen openhield.

Luisteren naar de trainer, ogen naar het scherm, dan kun je soms wat zaken door elkaar halen
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Werkt prima hier.ravenstein schreef op woensdag 06 maart 2013 @ 17:05:
Klopt usb doorgeven werkt niet in 5.1.0
Ja, maar dat is ook niet de goede manier., ik kan de controllers markeren als passtrough device, waarna ze na een reboot van de Esxi server gewoon weer unchecked staan.
Wat jij probeert is is PCI-e passthrough van je gehele controller.
Je kunt ook gewoon USB passthrough gebruiken, dat is veel gemakkelijker.
Gewoon een heel grote verzameling snoertjes
Vind je? Elke keer dat ik een ubs-device erin steek moet ik vsphere openen en vertellen welke vm met dat apparaat mag spelen. Door een complete controller te gebruiken kan je iets aansluiten en windows gaat vanzelf opzoek naar een driver.Compizfox schreef op woensdag 06 maart 2013 @ 21:22:
[...]
Werkt prima hier.
[...]
Ja, maar dat is ook niet de goede manier.
Wat jij probeert is is PCI-e passthrough van je gehele controller.
Je kunt ook gewoon USB passthrough gebruiken, dat is veel gemakkelijker.
Tja, OK...
Ik steek dan ook niet regelmatig USB-devices erin. Ze zitten er gewoon in, en ze blijven zitten
Ik steek dan ook niet regelmatig USB-devices erin. Ze zitten er gewoon in, en ze blijven zitten
Gewoon een heel grote verzameling snoertjes
Ja klopt, onder 5.1 werkt dat niet, nu onder 5.0 wel.Compizfox schreef op woensdag 06 maart 2013 @ 21:22:
[...]
Werkt prima hier.
[...]
Ja, maar dat is ook niet de goede manier.
Wat jij probeert is is PCI-e passthrough van je gehele controller.
Je kunt ook gewoon USB passthrough gebruiken, dat is veel gemakkelijker.
USB passtrough werkt bij mij niet voor een muis + toetsenbord, als ik een Usb stick wil doorgeven ziet hij dit device wel.
Hier de beloofde doc:
https://docs.google.com/s...V09lNWxfODd1alRUTlE#gid=0
Los pcie usb controllertje kopen?
Even niets...
Heb je de PCI-E ATI Radeon kaart nog in een aparte sleuf gestopt? Ik lees dat sommige mobo's problemen hebben met GPU passtrough in bepaalde sleuven.
Bij mij zal het USB device ook altijd aangesloten blijven, aangezien dit de USB ontvanger van mijn tb en muis is.
Mijn voorlopige setup:
De serveraid kaart incl kabels staan erbij, maar ik denk voldoende te hebben aan de onboard aansluitingen voor 3 of 4 schijven.
Proberen via RDM alles aan de praat te krijgen in ESX5.x of Xenserver.
Enige twijfel is het mobo vanwege het hoge verbruik wat Ravenstein meldde in zijn post.
Misschien toch naar een andere Asrock of MSI variant van de B75 serie met zoveel mogelijk dezelfde specs...
De i5-3470, zit net tussen de i5-3330 en de i5-3550 in...
Bij mij zal het USB device ook altijd aangesloten blijven, aangezien dit de USB ontvanger van mijn tb en muis is.
Mijn voorlopige setup:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3470 Boxed | € 167,- | € 167,- |
1 | ASRock H77 Pro4-M | € 68,90 | € 68,90 |
1 | Sapphire HD 5450 512MB DDR3 PCIE HDMI | € 24,45 | € 24,45 |
1 | Silverstone Grandia GD06B | € 110,20 | € 110,20 |
1 | 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M | € 15,56 | € 15,56 |
1 | Corsair Vengeance CML32GX3M4A1600C10 | € 157,30 | € 157,30 |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 118,58 |
1 | be quiet! System Power 7 300W | € 32,88 | € 32,88 |
1 | Samsung 840 series SSD 120GB | € 84,98 | € 84,98 |
Bekijk collectie Importeer producten | Totaal | € 779,85 |
De serveraid kaart incl kabels staan erbij, maar ik denk voldoende te hebben aan de onboard aansluitingen voor 3 of 4 schijven.
Proberen via RDM alles aan de praat te krijgen in ESX5.x of Xenserver.
Enige twijfel is het mobo vanwege het hoge verbruik wat Ravenstein meldde in zijn post.
Misschien toch naar een andere Asrock of MSI variant van de B75 serie met zoveel mogelijk dezelfde specs...
De i5-3470, zit net tussen de i5-3330 en de i5-3550 in...
[ Voor 87% gewijzigd door magic_japie op 07-03-2013 11:50 . Reden: Vergeten toekomstige server specs toe te voegen ]
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Nope is niet nodig, ik heb 1 van de onboard controllers doorgegeven.FireDrunk schreef op donderdag 07 maart 2013 @ 08:21:
Los pcie usb controllertje kopen?
Alleen via 5.1.0 gaat dat dus niet.
Nope, zit gewoon in het 1e "standaard" slot zegmaar.magic_japie schreef op donderdag 07 maart 2013 @ 11:19:
Heb je de PCI-E ATI Radeon kaart nog in een aparte sleuf gestopt? Ik lees dat sommige mobo's problemen hebben met GPU passtrough in bepaalde sleuven.
Bij mij zal het USB device ook altijd aangesloten blijven, aangezien dit de USB ontvanger van mijn tb en muis is.
Ik betwijfel of dat "hoge" verbruik aan het moederbord is toe te schrijven,magic_japie schreef op donderdag 07 maart 2013 @ 11:19:
Enige twijfel is het mobo vanwege het hoge verbruik wat Ravenstein meldde in zijn post.
Misschien toch naar een andere Asrock of MSI variant van de B75 serie met zoveel mogelijk dezelfde specs...
De i5-3470, zit net tussen de i5-3330 en de i5-3550 in...
Zie mijn eerdere posts voor meer info, ik heb de i5-3470 op de Asrock H77 pro4-M, 16GB, samsung pro 840 SSD en 1x 7200rpm HDD, doet 28W idle in ESXI met 2VMs actief.
28W is netjes ja. Ik ga je posts nog even teruglezen...
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Trouwens, ik denk dat alles onder de 50w best goed te noemen is voor een ESXI home server, zeker als je er wat extra disk ruimte en netwerkkaarten bij wil....
Leuke anekdote, vriend van mij die nog bij zijn ouders woont, wilde een 24/7 servertje maar zijn ouders waren bang gemaakt voor de stroomkosten van PC's die altijd aan staan
dus het moest vooral energiezuinig. Grap is, zijn vader heeft nog een of ander bakbeest van een oude switch van zijn werk op zolder hangen met 48 poorten ofzo en een joekel van een oude laserprinter die altijd aan staat. Daar zouden ze voor de grap eens een meter tussen moeten hangen
Leuke anekdote, vriend van mij die nog bij zijn ouders woont, wilde een 24/7 servertje maar zijn ouders waren bang gemaakt voor de stroomkosten van PC's die altijd aan staan
28w is zeker netjes!Zorc schreef op donderdag 07 maart 2013 @ 13:32:
[...]
Ik betwijfel of dat "hoge" verbruik aan het moederbord is toe te schrijven,
Zie mijn eerdere posts voor meer info, ik heb de i5-3470 op de Asrock H77 pro4-M, 16GB, samsung pro 840 SSD en 1x 7200rpm HDD, doet 28W idle in ESXI met 2VMs actief.
Heb je nog specifieke instellingen gedaan? Ik moet nog het e.e.a. optimaliseren
Nieuwe hardware gekocht en mijn ESXi bak gedowngrade om verbruik te verlagen :-)
Aanvankelijk:
AMD Phenom II X6 1090T
Asus M4A88TD-M/USB3
6 HDDs
OCZ ModXStream Pro 500W
Idle Verbruik: 130w
Toen getweaked:
CPU / mem voltage
3Ghz -> 2Ghz
2 cores disabled
Idle Verbruik: 87w
Toen mobo + cpu vervangen en 1 HDD verwijderd
Asrock b75 pro3-m
G540
5 HDDs
Idle Verbruik: 62w
Net PSU vervangen:
Asrock b75 pro3-m
G540
5 HDDs
be quiet pure power l7 300w
Idle Verbruik: 57w
In alle gevallen gemeten met tenminste 3 draaiende VMs.
Processor is gemiddeld 30% belast. Zou het verbruik met een g1610 veel lager uitkomen? Ik weet dat de g540 en g1610 in idle niet zoveel schelen, maar bij gebruik scheelt het toch meer?
Aanvankelijk:
AMD Phenom II X6 1090T
Asus M4A88TD-M/USB3
6 HDDs
OCZ ModXStream Pro 500W
Idle Verbruik: 130w
Toen getweaked:
CPU / mem voltage
3Ghz -> 2Ghz
2 cores disabled
Idle Verbruik: 87w
Toen mobo + cpu vervangen en 1 HDD verwijderd
Asrock b75 pro3-m
G540
5 HDDs
Idle Verbruik: 62w
Net PSU vervangen:
Asrock b75 pro3-m
G540
5 HDDs
be quiet pure power l7 300w
Idle Verbruik: 57w
In alle gevallen gemeten met tenminste 3 draaiende VMs.
Processor is gemiddeld 30% belast. Zou het verbruik met een g1610 veel lager uitkomen? Ik weet dat de g540 en g1610 in idle niet zoveel schelen, maar bij gebruik scheelt het toch meer?
28w idle is uitstekend! Draaien de VMs vanaf SSD of (ook) vanaf de harddisk?Zorc schreef op donderdag 07 maart 2013 @ 13:32:
[...]
Ik betwijfel of dat "hoge" verbruik aan het moederbord is toe te schrijven,
Zie mijn eerdere posts voor meer info, ik heb de i5-3470 op de Asrock H77 pro4-M, 16GB, samsung pro 840 SSD en 1x 7200rpm HDD, doet 28W idle in ESXI met 2VMs actief.
Nee, beide op SSD om wat te testen, (1x win7 en 1x debian). Die harddisk doet overigens ongeveer krap 5W als hij niets staat te doen. Ik denk dat die er tzt weer uit gaat.wian schreef op donderdag 07 maart 2013 @ 20:58:
[...]
28w idle is uitstekend! Draaien de VMs vanaf SSD of (ook) vanaf de harddisk?
Ik zit nog te twijfelen wat ik ga doen qua opslag. Oorspronkelijke plan is ZFS mirror met 2x 1TB 2,5inch voor opslag belangrijke data (passtrough Asmedia controller) en 1 grote disk voor "meuk".
Verder wil ik er nog 2 netwerkpoortjes bij om te experimentern hoe het bevalt om het ook als router&firewall te gaan inzetten.
Ik heb sinds jaar en dag astaro runnen als UTM / router en werkt echt als een tierelier. Veel info, helpt ook nog tegen spam/av/malware etc.Zorc schreef op vrijdag 08 maart 2013 @ 08:31:
[...]
Nee, beide op SSD om wat te testen, (1x win7 en 1x debian). Die harddisk doet overigens ongeveer krap 5W als hij niets staat te doen. Ik denk dat die er tzt weer uit gaat.
Ik zit nog te twijfelen wat ik ga doen qua opslag. Oorspronkelijke plan is ZFS mirror met 2x 1TB 2,5inch voor opslag belangrijke data (passtrough Asmedia controller) en 1 grote disk voor "meuk".
Verder wil ik er nog 2 netwerkpoortjes bij om te experimentern hoe het bevalt om het ook als router&firewall te gaan inzetten.
- Red_Head
- Registratie: Oktober 2001
- Laatst online: 20:42
Kleine moeite groot plezier !!
Matched: esxi
Na enige tijd te hebben mee gelezen hier, ga ik ook mijn huidige server/htpc ombouwen tot ESXi server, en dan waar ik dan mijn fileserver / dc / mail / pruts servers in ga zetten.
Twijfel nog of ik wil gaan testen met Vt-D en GPU pass trough. Anders komt er een los htpc'tje naast te staan.
Nu heb ik inmiddels het meeste klaar staan om besteld te worden, maar aangezien ik niet superhandig ben met hardware en compability etc, dacht ik laat ik het hier eens delen.
Zal dit gaan werken?
Hardeschijven, Geheugen en Intel LAN kaartje staan er even bij ter illustratie. Processor kan ik goedkoop van iemand overnemen, dus moet eigenlijk alleen het juiste bordje zien te vinden waar vt-d ook goed op werkt, en waar ik de IBM Raid Controller kan aansluiten.
Twijfel nog of ik wil gaan testen met Vt-D en GPU pass trough. Anders komt er een los htpc'tje naast te staan.
Nu heb ik inmiddels het meeste klaar staan om besteld te worden, maar aangezien ik niet superhandig ben met hardware en compability etc, dacht ik laat ik het hier eens delen.
Zal dit gaan werken?
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 156,90 | € 156,90 |
1 | Asrock Q77M vPro | € 93,99 | € 93,99 |
1 | Western Digital Green WD30EZRX, 3TB | € 114,75 | € 114,75 |
1 | Intel Gigabit CT Desktop Adapter | € 23,50 | € 23,50 |
2 | Kingston ValueRAM KVR1333D3N9K2/8G | € 42,- | € 168,- |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 118,58 |
1 | Samsung 840 series SSD 120GB | € 84,98 | € 84,98 |
Bekijk collectie Importeer producten | Totaal | € 760,70 |
Hardeschijven, Geheugen en Intel LAN kaartje staan er even bij ter illustratie. Processor kan ik goedkoop van iemand overnemen, dus moet eigenlijk alleen het juiste bordje zien te vinden waar vt-d ook goed op werkt, en waar ik de IBM Raid Controller kan aansluiten.
Je geheugen is 4 * een kit van 2... Dat is volgens mij 8 DIMM's? Lijkt me niet de bedoeling
Even niets...
Oh foutje..
had de eerste KVR1333 kitje aan gevinkt die ik tegen kwam
Maar het moederbord i.c.m. i5 3330 en IBM Raid controller moet werken?

Maar het moederbord i.c.m. i5 3330 en IBM Raid controller moet werken?
Ben ik de enige die Windows Server verkrachten als desktop gevoel krijg bij de recente vloed aan ESXi gpu rdm dozen?
Misschien dat het aan mij ligt analog_ maar ik snap niet veel van je zin...
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Volgens mij doelt analog_ op de mensen die een ESXi doos bouwen, en dan hun GPU doorgeven via RDM om zodoende een HTPC te hebben. Waar de Windows Server in zijn zin vandaan komt weet ik ook niet. Je kunt immers ook prima Windows 7 o.i.d. draaien lijkt mij
?
Jullie hebben denk ik de rage een paar jaar geleden overkeken toen er velen Windows 2003 server gebruikten ipv. Windows XP omdat het enkele procenten optimaler is voor de gamers (vanwege wat meer gestripte kernel).
Het is vooral de easy-of-use van ESXi denk ik... Jij bedoelt dat je net zo goed een client hypervisor kan gebruiken omdat die paar procent verschil toch niet zoveel uit maakt? (ala VirtualBox / VMWare Workstation? )
Even niets...
Milestone!
Ik heb het voor elkaar gekregen om 2 poorten van mijn AMD SB700 onboard SATA-controller te behouden voor ESXi zelf, als je die controller met PCI-e passthrough doorgeeft aan een VM!
Dit heb ik getest op een Asrock 970 Extreme3, en het werkt dmv SATA IDE Combined Mode (een optie in de BIOS). Deze optie zorgt ervoor dat 2 van je SATA-poorten (ik meen SATA_5 en je eSATA) in IDE mode staan, terwijl je overgebleven poorten in AHCI mode staan.
Je 4 overgebleven poorten worden dus in AHCI mode doorgegeven naar je VM, terwijl je 2 poorten overhoudt om je datastore op te zetten.
Geen extra HBA (zoals de sil3114) nodig dus!


Met dank aan HyperBart die mij wees op het bestaan hiervan!
Zie ook:
HyperBart in "Het grote ZFS topic"
Compizfox in "Het grote ZFS topic"
Compizfox in "Het grote ZFS topic"
Ik heb het voor elkaar gekregen om 2 poorten van mijn AMD SB700 onboard SATA-controller te behouden voor ESXi zelf, als je die controller met PCI-e passthrough doorgeeft aan een VM!
Dit heb ik getest op een Asrock 970 Extreme3, en het werkt dmv SATA IDE Combined Mode (een optie in de BIOS). Deze optie zorgt ervoor dat 2 van je SATA-poorten (ik meen SATA_5 en je eSATA) in IDE mode staan, terwijl je overgebleven poorten in AHCI mode staan.
Je 4 overgebleven poorten worden dus in AHCI mode doorgegeven naar je VM, terwijl je 2 poorten overhoudt om je datastore op te zetten.
Geen extra HBA (zoals de sil3114) nodig dus!


Met dank aan HyperBart die mij wees op het bestaan hiervan!
Zie ook:
HyperBart in "Het grote ZFS topic"
Compizfox in "Het grote ZFS topic"
Compizfox in "Het grote ZFS topic"
Gewoon een heel grote verzameling snoertjes
- Red_Head
- Registratie: Oktober 2001
- Laatst online: 20:42
Kleine moeite groot plezier !!
Matched: esxi
Als het werkbaar is met een GPU via RDM scheeld het weer een media pc'tje, maar als het stottert of andere problemen mee brengt was ik niet van plan om mijn htpc hier op te draaien.analog_ schreef op vrijdag 08 maart 2013 @ 18:05:
Ben ik de enige die Windows Server verkrachten als desktop gevoel krijg bij de recente vloed aan ESXi gpu rdm dozen?
Enigste reden waarom ik dubbel wil checken dat vt-d werkt is voor de Raid controller.
Hmm, gezien de driverondersteuning en stroomverbruik zou je dus eigenlijk beter server 2012+hyperV. Beetje offtopic i know.HyperBart schreef op dinsdag 05 maart 2013 @ 10:24:
[...]
Welke informatie? Waar heb ik gezegd dat dat ze niet te vergelijken zijn? Ik zeg gewoon dat VMware Workstation en consoorten totaal anders zijn dan Hyper-V, alleen al maar omdat de een een BMHV is en de ander op een hogere ring functioneert.
[...]
Daar heb ik toch ook niks over gezegd?
Ik zeg alleen maar dat
Hyper-V en ESXi in dezelfde categorie zitten en dat VMware Workstation totaal niet te vergelijken is met de twee eerste (omdat het een andere categorie is). Of Hyper-V nu van een Windows 8 komt of van een 2012 maakt geen tierelier uit, het is een BMHV en daar draait het om in mijn vergelijking als differentiator tov Workstation.
Any job you can do in your pajamas is not the hardest job in the world.
Of als je enkel Windows + Suse + CentOS wilt virtualiseren. Dat waren dacht ik toch de twee non-windows ondersteunde besturingssystemen onder hyper-v. Daarnaast moet je het ook niet erg vinden je systeem veel frequenter te updaten (dan ESXi).
Er is een paar dagen geleden een nieuwe patch uitgekomen voor ESXi 5.1 zag ik: http://kb.vmware.com/self...playKC&externalId=2043967
Ik dacht misschien dat het mijn interrupt storm-probleem zou oplossen, maar helaas.This patch updates the esx-base VIB to resolve an issue that occurs when level-triggered interrupts are invoked for the same device or driver in two different CPUs of an ESXi host and are run simultaneously, the ESXi host stops responding and displays a purple diagnostic screen. The following message appears in the stack trace:
mpt2sas_base_get_smid_scsiio
or
Failed at vmkdrivers/src_9/vmklinux_9/vmware/linux_scsi.c:2221 -- NOT REACHED
When reviewing the VMkernel logs included as part of a VMkernel core dump, you will see an ALERT similar to the following prior to the outage:
ALERT: LinScsi: SCSILinuxCmdDone:2220:Attempted double completion
This patch resolves the issue by improving the interrupt handling mechanism for level-triggered interrupts.
Gewoon een heel grote verzameling snoertjes
Voor mijn thuis vmware test/dev setup zou ik graag een Raid1 toepassen. Ik weet dat een IBM M1015 daarmee uit de voeten kan, maar zoek eigenlijk iets simpelers/goedkopers daar ik toch maar Raid 1 nodig heb. De 'echte' opslag gaat via een NFS of iSCSI NAS.
Nu heb ik een aantal insteekkaarten gevonden die van 1 Sata aansluiting een stand-alone Raid opstelling maken die onafhankelijk is van het OS/software. Onder andere:
Syba 2 Port SATA II Hardware Internal Port Multiplier (SY-PEX40045)
http://www.amazon.com/Syb...SY-PEX40045/dp/B005NH5MTY
ORICO CAS3922-S2R 2x SATA Port Dual kanal RAID Controller express card Karte
http://www.ebay.nl/itm/ws...iewItem&item=170875228674
Zijn er mensen die hiermee ervaring hebben icm ESXi5.x? Hoe is de performance en ook het verbruik hiervan?
Nu heb ik een aantal insteekkaarten gevonden die van 1 Sata aansluiting een stand-alone Raid opstelling maken die onafhankelijk is van het OS/software. Onder andere:
Syba 2 Port SATA II Hardware Internal Port Multiplier (SY-PEX40045)
http://www.amazon.com/Syb...SY-PEX40045/dp/B005NH5MTY
ORICO CAS3922-S2R 2x SATA Port Dual kanal RAID Controller express card Karte
http://www.ebay.nl/itm/ws...iewItem&item=170875228674
Zijn er mensen die hiermee ervaring hebben icm ESXi5.x? Hoe is de performance en ook het verbruik hiervan?
Gigabyte heeft net een nieuwe moederbord aangekondigd:
http://www.tomshardware.c...C,21418.html#xtor=RSS-181
Allemaal niet zo interessant, behalve dan dat er 64GB RAM ondersteund wordt op haswell blijkbaar
. Nu ben je nog een groot gedeelte van je geheugen kwijt aan ZFS als je een all in one doet, maar straks kan je dus nog makkelijker en ZFS en veel VM's draaien.
http://www.tomshardware.c...C,21418.html#xtor=RSS-181
Allemaal niet zo interessant, behalve dan dat er 64GB RAM ondersteund wordt op haswell blijkbaar
Wil je die RAID-array door ESXi laten gebruiken? Dat zal niet gaan werken, want ESXi ondersteunt geen RAID.Der Rudi schreef op zondag 10 maart 2013 @ 18:55:
Voor mijn thuis vmware test/dev setup zou ik graag een Raid1 toepassen. Ik weet dat een IBM M1015 daarmee uit de voeten kan, maar zoek eigenlijk iets simpelers/goedkopers daar ik toch maar Raid 1 nodig heb. De 'echte' opslag gaat via een NFS of iSCSI NAS.
Nu heb ik een aantal insteekkaarten gevonden die van 1 Sata aansluiting een stand-alone Raid opstelling maken die onafhankelijk is van het OS/software. Onder andere:
Syba 2 Port SATA II Hardware Internal Port Multiplier (SY-PEX40045)
http://www.amazon.com/Syb...SY-PEX40045/dp/B005NH5MTY
ORICO CAS3922-S2R 2x SATA Port Dual kanal RAID Controller express card Karte
http://www.ebay.nl/itm/ws...iewItem&item=170875228674
Zijn er mensen die hiermee ervaring hebben icm ESXi5.x? Hoe is de performance en ook het verbruik hiervan?
Wat je wel kunt doen is software-RAID uitvoeren door een VM. Pak dan meteen maar ZFS
Gewoon een heel grote verzameling snoertjes
Ik heb nog eens zitten kijken en er lijkt wat conflicterende informatie te zijn bij VMware. Bij iets als Workstation en Fusion wordt er aangegeven dat je maar max. 8 vCPU's kunt toewijzen en deze niet gemapped worden aan een fysieke cpu of core (die 8 kreeg je sowieso ongeacht hoeveel fysieke cores je er zelf in hebt zitten maar inmiddels is dat ook al niet zo meer). De documentatie van ESXi daarentegen meldt wel weer dat ie ze mapped aan de fysieke core (niet de fysieke cpu). Maarrrrr, ze melden daarna het volgende:Compizfox schreef op maandag 04 maart 2013 @ 22:21:
Ik wijs 1 vCPU toe met meerdere cores. Het lijkt me wel dat deze cores corresponderen met de cores van mijn fysieke CPU, want ik kan er maximaal 8 selecteren en ik heb er ook een octacore in.
Het is ook (hardware)-virtualisatie, geen emulatie of zo.
(of heb ik het nou helemaal verkeerd?)
Aangezien de code van de VMware producten volgens hun zeggen voor meer dan 90% overeenkomt...Considering that 1 vCPU is equal to 1 CPU is an assumption for the sake of simplification, since vCPUs are scheduled on logical CPUs which are hardware execution contexts.
Anyway, hier de bron: Setting the number of cores per CPU in a virtual machine (1010184). In geval van ESXi is 8 de max van de free licentie, voor meer zul je een licentie moeten aanschaffen.
Dat is al de zoveelste keer dat ik lees dat het doorgeven van de onboard sata controller voor problemen zorgtMaargoed, je leest niet helemaal goed gok ik, want dat is helemaal niet mijn probleem. Heeft altijd prima gewerkt, totdat ik via PCI-e passthrough mijn onboard SATA-controller doorgaf. Als ik dat doe (en meerdere cores toewijs), krijg ik interrupt storms op die betreffende SATA-controller.
Qua geheugen kun je gelukkig nog veel spelen. Een Windows 2012 zonder GUI draaien scheelt ook alIk loop nu tegen dit geheugenlimiet aan omdat ik via PCI-e passthrough die controller heb doorgegeven aan mijn storage-VM, die ik normaal gesproken 12 GB geef.
Full passthrough betekent bij ESXi dat je per se een memory reserveration moet instellen (heeft met DMA te maken)
Beetje jammer, maar ja. Niet het grootste probleem
Dat is dus wat er niet klopt. Hyper-V is een totaal andere opzet dan wat ESXi en Workstation zijn. ESXi is veel specifieker gericht als zijnde een bare metal hypervisor terwijl Hyper-V een rol in Windows Server en de Windows client is. Als je Hyper-V met een product van VMware zou moeten vergelijken dan is Workstation eerder een kandidaat dan ESXi. Hyper-V is alleen dermate anders dat je het niet zo eenvoudig kunt vergelijken.HyperBart schreef op dinsdag 05 maart 2013 @ 10:24:
Ik zeg alleen maar dat
Hyper-V en ESXi in dezelfde categorie zitten en dat VMware Workstation totaal niet te vergelijken is met de twee eerste (omdat het een andere categorie is). Of Hyper-V nu van een Windows 8 komt of van een 2012 maakt geen tierelier uit, het is een BMHV en daar draait het om in mijn vergelijking als differentiator tov Workstation.
VMware geeft in haar eigen documentatie aan dat je HT niet mee mag rekenen omdat het alleen maar om fysieke cores gaat. HT cores zijn niet fysiek. Wat je moet toewijzen aan vCPU, geheugen, disk(space), etc. is altijd afhankelijk van wat je met de vm wil doen en wat er op je systeem nog mogelijk is. Performance monitoring en analyse is zeer zeker een must in deze, daar heb je helemaal gelijk in.The Lord schreef op dinsdag 05 maart 2013 @ 13:31:
Op een dual socket octocore met HT kun je dan zomaar met 256 vCPU's de beste prestaties krijgen.
Nogmaals, afhankelijk van wat er aan VM's gebruikt worden. Performance monitoring en analyse is een must.
Nee, dat ligt aan wat de vm doet. Simpele taken en taken die weinig cpu afhankelijk zijn zorgen er voor dat een vm helemaal geen baat heeft bij meer dan 1 cpu. Zoals je zelf al eerder zei: performance monitoring en analyse is een must. Dat betekent dat je ook dit soort zaken in de gaten moet houden want dat stelt je in staat om beter met je resources in ESXi om te gaan zodat de vm's die het nodig hebben ook de performance krijgen.Vrijwel elk OS met een Multi-threaded kernel heeft baat bij meer dan 1 vCPU op een goede BMHV.
Voor thuis is er ongetwijfeld ook wel een reden te bedenken om dat te doen maar het probleem is dat verkeerde settings (o.a. teveel vCPUs en geheugen toewijzen) veelal tot performance problemen leiden omdat ze maar lukraak worden ingesteld. Het is 1 van de meest voorkomende oorzaken van performance problemen in de topics op communities.vmware.com vandaar de waarschuwing.Ook hier is het gevolg analyseren sterk aan te raden. Maar dan hebben we het al snel niet meer over een simpele thuisserver. Stel een aantal VM's met in tijd geplande geheugen intensieve taken. Over commitment van geheugen kan hier enorme efficiency winst opleveren.
Rollen zijn niet een manier van iets installeren, nee rollen zijn exact datgene wat het woordenboek zegt. Je kunt het ook functie noemen. Virtualisatie is een functie van een server maar die kan naast die functie ook nog de functie van AD, DNS, DHCP, etc. hebben. ESXi heeft dat nie, die heeft maar 1 functie: virtualisatie. Zo bare metal is het allemaal niet meer bij Windows. Maar goed, ik realiseer me dat sommigen dit weer vrij discutabel vinden dus laten we er verder maar geen woorden meer vuil aan makenZowel ESX als Hyper-V zijn 'Bare Metal Hyper Visors'. Dat heeft niets met de wijze van installatie te maken. Waar wel een groot verschil in zit is het kernel en driver model.
Dat is bij ieder product zo aangezien je wel moet onderscheiden van de concurrentie. VMware zelf zegt dat haar producten voor meer dan 90% identiek zijn qua code. Gezien de fixes en features die ik bij nieuwe updates van Workstation, Player, Fusion en ESXi voorbij zie komen wil ik dat wel geloven. Het zou ook dom zijn als ze dit niet deden, het bespaart je gruwelijk veel werk.Ach, de W8 BMHV biedt juist ook weer functionaliteit welke de niet BMHV's (dus ook VMWare Workstation) niet hebben alsook andersom. En daarnaast delen de virtualisatie technieken op Windows Server 2012 en Windows 8 veel meer dan ESX(i) en andere VMWare virtualisatie technieken.
Het OS wat je in de vm wil draaien is vaker degene die bepaald welk virtualisatie product je het beste kunt nemen. Hyper-V werkt prima met Windows en een aantal Linux distro's zoals ook XenServer/Xen en KVM. Wil je het wat exotischer dan wordt het oppassen en kom je best vaak uit op iets als ESXi of een compleet andere setup.Rooke schreef op zaterdag 09 maart 2013 @ 09:45:
Hmm, gezien de driverondersteuning en stroomverbruik zou je dus eigenlijk beter server 2012+hyperV.
Dat kan nu ook al met een licentie die een paar honderd euro kost (de gratis vSphere versie (aka ESXi) doet maximaal maar 32GB aan geheugen). Als je het makkelijker wil met ESXi dan kan dat maar op 1 manier: VMware hoogt die max van 32GB op naar 64GB. Reken daar maar niet op. Wil je die 64GB gebruiken dan kun je beter uitwijken naar een andere virtualisatie tool die deze limiet niet heeft (XenServer?, Hyper-V?).yeehaw schreef op zondag 10 maart 2013 @ 19:35:
Allemaal niet zo interessant, behalve dan dat er 64GB RAM ondersteund wordt op haswell blijkbaar. Nu ben je nog een groot gedeelte van je geheugen kwijt aan ZFS als je een all in one doet, maar straks kan je dus nog makkelijker en ZFS en veel VM's draaien.
Kleine correctie, er is geen goedkopere controller onder ESXi die wel raid0/1 doet dan de m1015 (lsi 2008) of je zou naar oudere (tweedehands) kaarten met een lsi 1068 chip moeten kijken. Het is dan goedkoper om je ESXi op usb stick te plempen en één tweede kopen. Met image tools regelmatig kopieetje imagen of tools gebruiken voor esxi config backup (+offsite backup voordeel)Compizfox schreef op zondag 10 maart 2013 @ 20:15:
[...]
Wil je die RAID-array door ESXi laten gebruiken? Dat zal niet gaan werken, want ESXi ondersteunt geen software RAID.
Wat je wel kunt doen is software-RAID uitvoeren door een VM. Pak dan meteen maar ZFS
[ Voor 8% gewijzigd door analog_ op 11-03-2013 02:05 ]
Dat is niet waar, de meeste processoren op het Ivy Bridge platform ondersteunen maar maximaal 32GB aan ram. Alleen de socket 2011 processoren kunnen met meer omgaan.ppl schreef op maandag 11 maart 2013 @ 00:06:
Dat kan nu ook al met een licentie die een paar honderd euro kost (de gratis vSphere versie (aka ESXi) doet maximaal maar 32GB aan geheugen). Als je het makkelijker wil met ESXi dan kan dat maar op 1 manier: VMware hoogt die max van 32GB op naar 64GB. Reken daar maar niet op. Wil je die 64GB gebruiken dan kun je beter uitwijken naar een andere virtualisatie tool die deze limiet niet heeft (XenServer?, Hyper-V?).
Licentie-technisch maak ik me niet zo heel erg druk
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.