Daar dan al eens naar gekeken? Kan zijn dat er toch iets niet lekker gaat met die driver van ze. Je zou niet de eerste zijn iig.FireDrunk schreef op donderdag 26 juli 2012 @ 19:51:
Je zou dus haast moeten zeggen, het zou met FreeBSD moeten werken, maar dat is dus niet zo.
Ja ik heb het uitgezocht, maar het heeft te maken met de manier waarop FreeBSD omgaat met MSI/MSI-X. Daaruit komen ook de problemen met LSI controllers voort. Aardige van LSI is dat ze gewone interrupts toestaan (Dus geen MSI/MSI-X). Mijn Intel AF DA kaart weigert te starten als er geen MSI/MSI-X interrupts aanwezig zijn.
Onder Linux (zowel host als guest) werkt de kaart prima met VT-d en start hij ook op met MSI/MSI-X interrupts
Ook onder ESXi werkt een Linux guest prima.
===
Voor de mensen die zich afvragen waarom je een SSD in je ESXi bak moet zetten:

20.000 30.000 iops met 3 actieve VM's. (Die 2 bovenste doen niks op de SSD).
En nee ze staan niet te benchmarken ofzo
Onder Linux (zowel host als guest) werkt de kaart prima met VT-d en start hij ook op met MSI/MSI-X interrupts
Ook onder ESXi werkt een Linux guest prima.
===
Voor de mensen die zich afvragen waarom je een SSD in je ESXi bak moet zetten:

20.000 30.000 iops met 3 actieve VM's. (Die 2 bovenste doen niks op de SSD).
En nee ze staan niet te benchmarken ofzo
[ Voor 30% gewijzigd door FireDrunk op 27-07-2012 12:40 ]
Even niets...
Zijn dat Windows machines of wat zijn het?
Ik heb op het moment ook een VT-d setup(E3 1260L, 32gb, ssd datastore) waarin ik mijn 1068E doormap naar een ZFSguru vm, werkt allemaal prima en niets aan de hand. Echter ben ik afgelopen week op mijzelf gegaan en wil toch eigenlijk wel mijn energieverbruik zo laag mogelijk krijgen. Aangezien de disks(4x2TB 5900) op de geflashte 1068E zitten kunnen deze niet sleepen. Zijn er hier mensen die de storage los hebben getrokken van hun host en zo ja wat kan je ermee winnen?
Ik heb op het moment ook een VT-d setup(E3 1260L, 32gb, ssd datastore) waarin ik mijn 1068E doormap naar een ZFSguru vm, werkt allemaal prima en niets aan de hand. Echter ben ik afgelopen week op mijzelf gegaan en wil toch eigenlijk wel mijn energieverbruik zo laag mogelijk krijgen. Aangezien de disks(4x2TB 5900) op de geflashte 1068E zitten kunnen deze niet sleepen. Zijn er hier mensen die de storage los hebben getrokken van hun host en zo ja wat kan je ermee winnen?
Any job you can do in your pajamas is not the hardest job in the world.
Uh, met VT-d zou spindown gewoon moeten werken hoor, en die 1068 kan het ook prima?
Zijn 3 Server 2008R2 server voor een VMWare View Home Lab. (Domain Controller, Virtual Center, en View Connection Server).
Zijn 3 Server 2008R2 server voor een VMWare View Home Lab. (Domain Controller, Virtual Center, en View Connection Server).
Even niets...
In het zuinige server topic (niet ESXi) staan een paar berichten over het Asrock B75 Pro3-M moederbord icm een G540 processor. Het schijnt dat je daarmee met undervolten rond de 12w idle kunt draaien. Dat ziet er erg aantrekkelijk uit. Mijn huidige server draait rond de 87w idle (met 6 HDDs), dus zelfs als ik met die drives op het dubbele of driedubbele zou uitkomen zou het een behoorlijke besparing zijn qua stroom. Het bordje heeft ook 8 SATA aansluitingen, dus kan ik ook 2 extra drives kwijt.
Hoeveel VMs zou je met een G540 kunnen draaien? Stel dat je 1 redelijk drukke linux VM hebt, een windows 7 VM met newsleecher en nog een paar dev/test Linux VMs hebt, zou een G540 dat trekken?
P.S. vt-d gebruik ik niet, alleen RDMs en USB pass-through.
Hoeveel VMs zou je met een G540 kunnen draaien? Stel dat je 1 redelijk drukke linux VM hebt, een windows 7 VM met newsleecher en nog een paar dev/test Linux VMs hebt, zou een G540 dat trekken?
P.S. vt-d gebruik ik niet, alleen RDMs en USB pass-through.
[ Voor 4% gewijzigd door wian op 28-07-2012 15:08 . Reden: PS toegevoegd ]
Goede vraag. Het is een VM met alienvault , die momenteel twee cores toegewezen heeft gekregen. Hardware requirements volgens de vendor zijn 2GB ram en een 64bit CPU.
Op mijn huidige server heeft ie gemiddeld 30% usage van de twee toegewezen cores.
Op mijn huidige server heeft ie gemiddeld 30% usage van de twee toegewezen cores.
Wat is je huidige CPU?
Even niets...
Dan lever je wel een hele hap aan performance in! Tevens zal het systeem in het zuinige server topic op Windows 7 draaien waardoor je altijd nog weer iets zuiniger bent dan onder ESXi. Het zal me niet verbazen als dezelfde setup daar nog steeds bijna 30W trekt. Kijk gewoon naar je CPU load per core, daar heeft ESXi genoeg monitoring tools voor. Als je CPU gebruik regelmatig twee cores bijna volledig benut is het geen aanrader...
Een CPU op 100% is eigenlijk het laatste wat je wilt hebben als je systeem soepel moet blijven.
Een CPU op 100% is eigenlijk het laatste wat je wilt hebben als je systeem soepel moet blijven.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Een hele CPU op 100% is erg ja, maar 1 core op 100% is prima.
Je kan tegenwoordig beter 1 core op 100% hebben dan 4 (of 6) op 20%.
Voor de mensen die toch vrij vaak op de console zitten:
http://www.ntpro.nl/blog/...Tech-Preview-Release.html
Je kan tegenwoordig beter 1 core op 100% hebben dan 4 (of 6) op 20%.
Voor de mensen die toch vrij vaak op de console zitten:
http://www.ntpro.nl/blog/...Tech-Preview-Release.html
Even niets...
Meh.. "requires vSphere 5.0".
nou ja.
nou ja.
ik heb een 864 GB floppydrive! - certified prutser - the social skills of a thermonuclear device
Bedankt voor jullie reacties. Ga nog even rustig nadenken. Misschien voldoet een G540 op dit moment en voor de prijs hoef ik het niet te laten, kan altijd weer upgraden.
Aan de andere kant kan ik met bv een i5 3550 (zuinig en lijkt hier populair te zijn) weer een tijd vooruit en kan ik m'n andere test servertje (HP Micro N40L) verkopen.
Choices, choices...
Aan de andere kant kan ik met bv een i5 3550 (zuinig en lijkt hier populair te zijn) weer een tijd vooruit en kan ik m'n andere test servertje (HP Micro N40L) verkopen.
Choices, choices...
Kun je die plugin installeren in vCenter?FireDrunk schreef op zaterdag 28 juli 2012 @ 15:14:
Een hele CPU op 100% is erg ja, maar 1 core op 100% is prima.
Je kan tegenwoordig beter 1 core op 100% hebben dan 4 (of 6) op 20%.
Voor de mensen die toch vrij vaak op de console zitten:
http://www.ntpro.nl/blog/...Tech-Preview-Release.html
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Dat dacht ik wel, maar daar lijkt het nu niet op nadat ik verder doorlees... Best jammer 
Het is/word officieel onderdeel van VMWare Workstation 2012.
Het is/word officieel onderdeel van VMWare Workstation 2012.
Even niets...
Wat ik zag wel iets met vCenter wou hem net gaan installeren
jammer jammer.
Zie wel dat die veel met linux doet maar goed hij heeft er wel zijn ESX bak in zo te zien... hoe kan ik er dan voor zorgen dat ik me esxi er ook in krijg.
Wat opzicht wel zou kunnen denk ik is op een server vmware workstation installeren die connecten naar je ESXi of vCenter en dan overnemen misschien dat ik dat maandag eens even ga testen.
Zie wel dat die veel met linux doet maar goed hij heeft er wel zijn ESX bak in zo te zien... hoe kan ik er dan voor zorgen dat ik me esxi er ook in krijg.
Wat opzicht wel zou kunnen denk ik is op een server vmware workstation installeren die connecten naar je ESXi of vCenter en dan overnemen misschien dat ik dat maandag eens even ga testen.
[ Voor 29% gewijzigd door Kavaa op 28-07-2012 18:36 ]
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Waar je op moet letten bij die Asrock hij kan wel 8 onboard sata aansluitingen hebben maar 2 daarvan zijn niet van de onboard intel controller en die werkt denk ik niet in ESXi. Zelf denk ik ik ook dat de G540 genoeg is mijn i3 2100 is ook al meer dan genoeg en ik heb linux vm met 12 gameservers, vcenter een downloadbak en openvpn en nog meer als genoeg processorkracht over.wian schreef op vrijdag 27 juli 2012 @ 18:19:
In het zuinige server topic (niet ESXi) staan een paar berichten over het Asrock B75 Pro3-M moederbord icm een G540 processor. Het schijnt dat je daarmee met undervolten rond de 12w idle kunt draaien. Dat ziet er erg aantrekkelijk uit. Mijn huidige server draait rond de 87w idle (met 6 HDDs), dus zelfs als ik met die drives op het dubbele of driedubbele zou uitkomen zou het een behoorlijke besparing zijn qua stroom. Het bordje heeft ook 8 SATA aansluitingen, dus kan ik ook 2 extra drives kwijt.
Hoeveel VMs zou je met een G540 kunnen draaien? Stel dat je 1 redelijk drukke linux VM hebt, een windows 7 VM met newsleecher en nog een paar dev/test Linux VMs hebt, zou een G540 dat trekken?
P.S. vt-d gebruik ik niet, alleen RDMs en USB pass-through.
[ Voor 8% gewijzigd door Zenix op 28-07-2012 21:20 ]
Ram is ook meestal het geen wat je het messte nodig hebt cpu staat 90/ 100% niks te doen zeg maar
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Met dat probleem zit in nu dus ook, mijn Dual Xeon staat 90% van de tijd uit zijn neus te eten, en zelfs als ik mijn best doe (met compilen enzo) worden er misschien 3-4 cores goed belast van de 8 die ik heb.
Maar qua geheugen zit ik nu op 32GB in gebruik en dat word nog meer... Dus een i7-3770 is nog geen optie, want daar is 32GB nog steeds de max
Maar qua geheugen zit ik nu op 32GB in gebruik en dat word nog meer... Dus een i7-3770 is nog geen optie, want daar is 32GB nog steeds de max
Even niets...
@firedrunk: 32GB in een thuisserver niet genoeg!? Wat draai je daar allemaal op dan? Met transparent page sharing en ballooning kun je daar toch tientallen VMs op kwijt?
@zenix: bedankt voor de tip. Dan lijkt het toch weer een beter idee om een processor met VT-D te nemen, zodat je die tweede controller alsnog binnen een VM kunt gebruiken. Is de i5 3550 de goedkoopste ivy bridge die VT-D ondersteunt?
@zenix: bedankt voor de tip. Dan lijkt het toch weer een beter idee om een processor met VT-D te nemen, zodat je die tweede controller alsnog binnen een VM kunt gebruiken. Is de i5 3550 de goedkoopste ivy bridge die VT-D ondersteunt?
Heb zelf een quad xeon nog enkel core ook 8 met ht maar wel 48 gb ram.
Ik ga nog naar een 2e xeon als ik hem een keer voorbij zie komen en dan nog minimaal 48 gb erbij.
Allemaal LVT (leuk voor thuis)
Ik ga nog naar een 2e xeon als ik hem een keer voorbij zie komen en dan nog minimaal 48 gb erbij.
Allemaal LVT (leuk voor thuis)
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
6GB voor een ZFS VM, 16GB voor mijn NAS VM (waarvan 8GB voor Article Cache voor het downloaden, dan zijn de disks niet zo druk...)
En VMware View Home Lab, met 3 Server 2008R2 VM's van 4GB en een WIndows 7 desktop met 4 GB.
Uitgegeven geheugen: 40GB, en active 23GB ofzo.
Dat word nog meer als ik mijn Microsoft SCCM Home Lab ga inrichten
En VMware View Home Lab, met 3 Server 2008R2 VM's van 4GB en een WIndows 7 desktop met 4 GB.
Uitgegeven geheugen: 40GB, en active 23GB ofzo.
Dat word nog meer als ik mijn Microsoft SCCM Home Lab ga inrichten
Even niets...
Mooi man heb ook allemaal van die test dingen draaien:D is allemaal goed te doen;)
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
En ja, uit sabnzbd: 339205.58 ⁄ 340426.38 MB Remaining
Die heeft het wel druk ja..
Nou weet ik dat ik veel CPU benchmarks met een korreltje zout moet nemen, maar hier: http://www.cpubenchmark.net/high_end_cpus.html
Staat dat een i7-3770 sneller is dan een dual Xeon E5620 systeem
Dat is toch wel apart...
Die heeft het wel druk ja..
Nou weet ik dat ik veel CPU benchmarks met een korreltje zout moet nemen, maar hier: http://www.cpubenchmark.net/high_end_cpus.html
Staat dat een i7-3770 sneller is dan een dual Xeon E5620 systeem
Dat is toch wel apart...
[ Voor 55% gewijzigd door FireDrunk op 28-07-2012 22:53 ]
Even niets...
Dude dan bende gei best wel veel aan het downloaden ahahaha.
Heeft die van mij ook regelmatig last van....
Heeft die van mij ook regelmatig last van....
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Zou kunnen kloppen heb ook een E5620 erin zitten
Alleen niet dual...
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Gebruiken jullie de ESX(i) server alleen als server voor het hosten van diverse servers en andere testdoeleinden of ook voor een HTPC?
Dus via een passthrough om naar een TV te leggen. Streamen van films etc of gebruiken jullie hiervoor een aparte NAS?
Mijn nieuwe server moet een combi worden van beide, zoals mijn huidige ook al draait. Een belangrijk punt is wel het HTPC gedeelte.
Ik stream nogal eens films of internetstreams op mijn TV.
Ik lees dat dit nog niet helemaal goed functioneert in ESX 4.1 en 5 met de juiste / geschikte hardware.
Momenteel host ik alles op een Windows 7 OS, waarop ik download, backup, stream, en 4 VM's host via VMware workstation.
Dus via een passthrough om naar een TV te leggen. Streamen van films etc of gebruiken jullie hiervoor een aparte NAS?
Mijn nieuwe server moet een combi worden van beide, zoals mijn huidige ook al draait. Een belangrijk punt is wel het HTPC gedeelte.
Ik stream nogal eens films of internetstreams op mijn TV.
Ik lees dat dit nog niet helemaal goed functioneert in ESX 4.1 en 5 met de juiste / geschikte hardware.
Momenteel host ik alles op een Windows 7 OS, waarop ik download, backup, stream, en 4 VM's host via VMware workstation.
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Heb dit zelf niet gebruik hier namelijk een gejailbreakte apple TV voor.
Maar het ESXi 5.0 en de juiste Hardware moet het geen probleem zijn.
Let er wel op dat het erg veel van je CPU gaat vragen Dat is een nadeel van VT-d dus dan zal ook je energie verbruik oplopen maar het is maar net wat je wil.
Ik heb bij mij alles in een zitten VMware server Nas Ad enz enz... allemaal in 1 server verspreid over meerdere VM's natuurlijk.
Heb er zelf 20 Disken in zitten 4 voor VMware 16 voor me nas.
De Disken die naar de nas gaan hangen via Passtrough en RDM aan me NAS...
Verder heb ik ook nog VMware View draaien voor me ipad erg handig en snel!
Maar het ESXi 5.0 en de juiste Hardware moet het geen probleem zijn.
Let er wel op dat het erg veel van je CPU gaat vragen Dat is een nadeel van VT-d dus dan zal ook je energie verbruik oplopen maar het is maar net wat je wil.
Ik heb bij mij alles in een zitten VMware server Nas Ad enz enz... allemaal in 1 server verspreid over meerdere VM's natuurlijk.
Heb er zelf 20 Disken in zitten 4 voor VMware 16 voor me nas.
De Disken die naar de nas gaan hangen via Passtrough en RDM aan me NAS...
Verder heb ik ook nog VMware View draaien voor me ipad erg handig en snel!
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Wat bedoel je met strwamen?
Even niets...
met streamen bedoel ik:
internetstreams voor radio & tv uitzendingen in het buitenland. Vnl sport.
Ik heb films lokaal staan en wil dit dan via mijn server / HTPC afspelen op mijn aangesloten TV.
Als ik ESX draai moet minimaal 1 VM via pass through via HDMI bereikbaar zijn.
Aangezien de server / HTPC in mijn tv meubel moet komen staan, is dat wel een vereiste.
internetstreams voor radio & tv uitzendingen in het buitenland. Vnl sport.
Ik heb films lokaal staan en wil dit dan via mijn server / HTPC afspelen op mijn aangesloten TV.
Als ik ESX draai moet minimaal 1 VM via pass through via HDMI bereikbaar zijn.
Aangezien de server / HTPC in mijn tv meubel moet komen staan, is dat wel een vereiste.
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Ah, je bedoelt dus, ik wil dat mijn VM via HDMI beeld genereerd voor mijn TV 
Dat is heel wat anders dan streamen (in mijn ogen). Dat is inderdaad tricky, en je moet goed op internet kijken naar werkende scenario's. Enige tip is vaak, kijk of mensen het ook met minder dan 4GB geheugen hebben geprobeerd, want daar zit vaak een probleem heb ik gelezen.
Ik weet niet meer wie het was, maar er zijn in dit topic toch wel 2-3 mensen die het werkend hebben dacht ik.
HyperBart?
Dat is heel wat anders dan streamen (in mijn ogen). Dat is inderdaad tricky, en je moet goed op internet kijken naar werkende scenario's. Enige tip is vaak, kijk of mensen het ook met minder dan 4GB geheugen hebben geprobeerd, want daar zit vaak een probleem heb ik gelezen.
Ik weet niet meer wie het was, maar er zijn in dit topic toch wel 2-3 mensen die het werkend hebben dacht ik.
HyperBart?
Even niets...
dat klopt, maar de reden is dus dat ik via internet kan streamen op mijn TV.
Nu doe ik dit met mijn guest OS Windows 7 met daarop Vmware workstation.
Ik maak dan een P2V van mijn guest OS voor onder ESXi.
Nu doe ik dit met mijn guest OS Windows 7 met daarop Vmware workstation.
Ik maak dan een P2V van mijn guest OS voor onder ESXi.
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Inmiddels een stapje verder met mijn server. De Highpoint RocketRAID 3520 kan ik via passtrough doorgeven aan een VM. Ben benieuwd wat mijn beestje nu verbruikt.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Ik zou een nieuwe install doen, op een fysieke machine zijn dingen toch erg anders dan onder een virtuele.magic_japie schreef op zondag 29 juli 2012 @ 11:44:
dat klopt, maar de reden is dus dat ik via internet kan streamen op mijn TV.
Nu doe ik dit met mijn guest OS Windows 7 met daarop Vmware workstation.
Ik maak dan een P2V van mijn guest OS voor onder ESXi.
Bovendien wil je toch niet VMWare Workstation in een VM gaan draaien neem ik aan?
Even niets...
Nee geen VMware workstation onder ESX.
Ik zou VMware workstation kunnen verwijderen... Alleen de zin om een nieuwe Windows 7 installatie te starten ontbreekt me.
Wat je zegt klopt wel icm drivers onder vmware is anders dan op een fysieke machine.
Eerst maar zorgen voor de juiste hardware en ESX met alle toeters en bellen aan de gang krijgen.
Mijn systeem hoeft niet per se heel zuinig te zijn, maar het moet ook niet erg overdreven veel verbruiken.
Ik kan me voorstellen dat VT-D wat meer energie verbruikt vanwege de doorgifte van hardware I/O aan een VM, maar dit is zo substantieel meer?
Ik probeer via google een antwoord te krijgen op mijn net bedachte vraag
Ik zou VMware workstation kunnen verwijderen... Alleen de zin om een nieuwe Windows 7 installatie te starten ontbreekt me.
Wat je zegt klopt wel icm drivers onder vmware is anders dan op een fysieke machine.
Eerst maar zorgen voor de juiste hardware en ESX met alle toeters en bellen aan de gang krijgen.
Mijn systeem hoeft niet per se heel zuinig te zijn, maar het moet ook niet erg overdreven veel verbruiken.
Ik kan me voorstellen dat VT-D wat meer energie verbruikt vanwege de doorgifte van hardware I/O aan een VM, maar dit is zo substantieel meer?
Ik probeer via google een antwoord te krijgen op mijn net bedachte vraag
Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE
Ik snap niet waar djkavaa het vandaan haalt dat VT-d meer zou moeten verbruiken? In mijn ervaring is dat niet zo hoor.
Even niets...
Qua CPU met Video verbruikt die wat meer van je CPU...
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Ik volg je niet... VT-d als techniek kost niet meer power. Het toevoegen van een videokaart uiteraard wel.
Even niets...
Ik denk dat ie doelt op het feit dat VT-d vooral een techniek is die in de cpu zit en de cpu in het geheel de nodige requests moet afhandelen. Dat is een extra beetje overhead waardoor in theorie de cpu meer verbruikt omdat ie ook meer moet doen. In de praktijk zal het ongetwijfeld dermate weinig zijn dat je dit totaal niet meer terugvindt en het dus te verwaarlozen is. Ervan uitgaande dat het op deze wijze werkt.
[ Voor 5% gewijzigd door ppl op 29-07-2012 16:34 ]
En zelfs dat is niet waar. VT-d moet welliswaar door de CPU ondersteund worden, maar word daadwerkelijk door de memory controller uitgevoerd, en niet door je CPU.
In feite zit die weer IN je CPU, maar verbruikt maar minimaal stroom.
In feite zit die weer IN je CPU, maar verbruikt maar minimaal stroom.
[ Voor 17% gewijzigd door FireDrunk op 29-07-2012 17:17 ]
Even niets...
En ook dat is niet waar want het is sterk afhankelijk van de implementatie daarvan. Intel en AMD zijn niet de enigen met VT-d support. Bij Intel wordt het niet direct door de cpu gedaan maar door de chipset: Intel® Virtualization Technology for Directed I/O. Er staat daar een heel mooi plaatje waarin VT-d in de chipset is geplaatst. Inmiddels is die chipset (de Northbridge) in de cpu geplaatst, net als de memory controller.
[ Voor 0% gewijzigd door ppl op 30-07-2012 20:29 . Reden: woordje teveel ]
Even snel posten van op de smartphone: zit op vakantie in Frankrijk. Ik denk dat in mijn inventaris van Tweakers nog een server met de naam 'Matthias' is, die ondersteunt enkele geteste grafische kaarten voor passtrough...
Bij de core2 implementatie (jouw document is anno 2006) liep alles nog via de FSB. Ofwel, geheugen en pcie lanes zaten direct aan je chipset. Bij de nieuwere generaties zijn ze de memory lanes direct aan de cpu gaan koppelen, zoals AMD dat al langer deed. Ook de pci-e lanes komen nu direct vanuit de cpu zetten, terwijl de communicatie tussen chipset en cpu via dmi gaat. Ik geloof dan ook dat vt-d support meer een bios issue is bij sommige moederborden en chipsets dan werkelijk iets dat door de chipset wordt afgehandeld.ppl schreef op maandag 30 juli 2012 @ 00:08:
En ook dat is niet waar want het is sterk afhankelijk van de implementatie daarvan. Intel en AMD zijn niet de enigen met VT-d support. Bij Intel wordt het niet direct door de cpu gedaan maar door de chipset: Intel® Virtualization Technology for Directed I/O. Er staat daar een heel mooi plaatje waarin VT-d in de chipset is geplaatst. Inmiddels is die chipset (de Northbridge) inmiddels in de cpu geplaatst, net als de memory controller.
Deze inventaris staat er helaas niet bij.HyperBart schreef op maandag 30 juli 2012 @ 00:09:
Even snel posten van op de smartphone: zit op vakantie in Frankrijk. Ik denk dat in mijn inventaris van Tweakers nog een server met de naam 'Matthias' is, die ondersteunt enkele geteste grafische kaarten voor passtrough...
Wat was trouwens de beweegreden om voor pricewatch: Intel Xeon E3-1230 Boxed i.p.v. iets als pricewatch: Intel Core i5 3550 Boxed te gaan?
Kloksnelheid is zo goed als gelijk, maar de Xeon ondersteund wel ECC en heeft als ik het goed zie ook HT.
Was dat je motivatie of waren er nog andere elementen?
Zie hier bij de wenslijst: gallery: HyperBartsloth schreef op maandag 30 juli 2012 @ 08:36:
[...]
Deze inventaris staat er helaas niet bij.
Wat was trouwens de beweegreden om voor pricewatch: Intel Xeon E3-1230 Boxed i.p.v. iets als pricewatch: Intel Core i5 3550 Boxed te gaan?
Kloksnelheid is zo goed als gelijk, maar de Xeon ondersteund wel ECC en heeft als ik het goed zie ook HT.
Was dat je motivatie of waren er nog andere elementen?
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Voor degene die het willen weten heb ik het voor elkaar gereken om WSX te draaien wat nog in beta is bij VMware.
Ik heb dit gedaan door (voor nu) VMware workstation en WSX te installeren op me PC op het werk.
Hier heb ik een Tunnel mee naar huis via Hamachi.
Vervolgens heb ik in de de webinterface van WSX het IP van me vCenter server ingevuld en vervolgens kon ik moeiteloos bij me VM'S eventjes deze 2 pakketjes downloaden en installeren...
http://communities.vmware...tn/beta/workstationtp2012
Klik op download en download de workstation en de WSX addon...
Ik ga het nu thuis installeren in een virtual en dan kijken of ik er van buitenaf ook bij kan...
Ik heb dit gedaan door (voor nu) VMware workstation en WSX te installeren op me PC op het werk.
Hier heb ik een Tunnel mee naar huis via Hamachi.
Vervolgens heb ik in de de webinterface van WSX het IP van me vCenter server ingevuld en vervolgens kon ik moeiteloos bij me VM'S eventjes deze 2 pakketjes downloaden en installeren...
http://communities.vmware...tn/beta/workstationtp2012
Klik op download en download de workstation en de WSX addon...
Ik ga het nu thuis installeren in een virtual en dan kijken of ik er van buitenaf ook bij kan...
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
Sinds een tijdje ben ik ook bezig met het bouwen van een zuinige ESXI server.
Een van de onderdelen het maken van een storage VM. Omdat ik de disks graag in spin down wil hebben als ik ze niet gebruik heb ik besloten om alle disk die aan mijn Areca RAID kaart zitten door te zetten naar mijn storage VM door middel van passthrough, zie onderstaande screenshots.



Echter wanneer ik de VM start wordt de Areca niet herkend.
Wat mij opvalt is dat de PCI Express root port in op passthrough staat en deze kan ik niet selecteren.
De PCI Express Bridge kon ik ook niet selecteren maar dat heeft ESXI gedaan op het moment dat ik de Areca selecteerde.
Doe ik nu iets fout of zie ik iets over het hoofd?
Een van de onderdelen het maken van een storage VM. Omdat ik de disks graag in spin down wil hebben als ik ze niet gebruik heb ik besloten om alle disk die aan mijn Areca RAID kaart zitten door te zetten naar mijn storage VM door middel van passthrough, zie onderstaande screenshots.



Echter wanneer ik de VM start wordt de Areca niet herkend.
Wat mij opvalt is dat de PCI Express root port in op passthrough staat en deze kan ik niet selecteren.
De PCI Express Bridge kon ik ook niet selecteren maar dat heeft ESXI gedaan op het moment dat ik de Areca selecteerde.
Doe ik nu iets fout of zie ik iets over het hoofd?

Een toevoeging op het bericht van me hierboven!
Als je alleen de WSX neemt werkt het ook dus je hebt er geen VMware Workstation voor nodig.
De console is nog wat langzaam maar het is wel handig om machines te rebooten enz. enz.
Als je alleen de WSX neemt werkt het ook dus je hebt er geen VMware Workstation voor nodig.
De console is nog wat langzaam maar het is wel handig om machines te rebooten enz. enz.
ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?
@KobolD54, kan je de vmx file eens posten?
Even niets...
.encoding = "UTF-8"FireDrunk schreef op maandag 30 juli 2012 @ 15:27:
@KobolD54, kan je de vmx file eens posten?
config.version = "8"
virtualHW.version = "8"
pciBridge0.present = "TRUE"
pciBridge4.present = "TRUE"
pciBridge4.virtualDev = "pcieRootPort"
pciBridge4.functions = "8"
pciBridge5.present = "TRUE"
pciBridge5.virtualDev = "pcieRootPort"
pciBridge5.functions = "8"
pciBridge6.present = "TRUE"
pciBridge6.virtualDev = "pcieRootPort"
pciBridge6.functions = "8"
pciBridge7.present = "TRUE"
pciBridge7.virtualDev = "pcieRootPort"
pciBridge7.functions = "8"
vmci0.present = "TRUE"
hpet0.present = "TRUE"
nvram = "storage.nvram"
virtualHW.productCompatibility = "hosted"
powerType.powerOff = "soft"
powerType.powerOn = "hard"
powerType.suspend = "hard"
powerType.reset = "soft"
displayName = "storage"
extendedConfigFile = "storage.vmxf"
numvcpus = "4"
cpuid.coresPerSocket = "2"
scsi0.present = "TRUE"
scsi0.sharedBus = "none"
scsi0.virtualDev = "lsilogic"
memsize = "4096"
scsi0:0.present = "TRUE"
scsi0:0.fileName = "storage.vmdk"
scsi0:0.deviceType = "scsi-hardDisk"
ide1:0.present = "TRUE"
ide1:0.fileName = "/vmfs/volumes/50112997-ccf50778-c4bb-0025900583d3/iso/CentOS-6.3-x86_64-netinstall.iso"
ide1:0.deviceType = "cdrom-image"
ethernet0.present = "TRUE"
ethernet0.virtualDev = "e1000"
ethernet0.networkName = "LAN"
ethernet0.addressType = "generated"
chipset.onlineStandby = "FALSE"
guestOS = "centos-64"
uuid.location = "56 4d ef 69 33 fc 1d de-af 0c e3 98 79 79 63 ce"
uuid.bios = "56 4d ef 69 33 fc 1d de-af 0c e3 98 79 79 63 ce"
bios.bootDelay = "5000"
vc.uuid = "52 87 df fc 46 4e 8d 3f-11 83 fb d3 40 52 65 66"
wwn.enabled = "TRUE"
snapshot.action = "keep"
sched.cpu.min = "0"
sched.cpu.units = "mhz"
sched.cpu.shares = "normal"
sched.mem.min = "4096"
sched.mem.shares = "normal"
ethernet0.generatedAddress = "00:0c:29:79:63:ce"
vmci0.id = "2037998542"
cleanShutdown = "TRUE"
replay.supported = "FALSE"
sched.swap.derivedName = "/vmfs/volumes/50112997-ccf50778-c4bb-0025900583d3/storage/storage-25bc4a3a.vswp"
replay.filename = ""
scsi0:0.redo = ""
pciBridge0.pciSlotNumber = "17"
pciBridge4.pciSlotNumber = "21"
pciBridge5.pciSlotNumber = "22"
pciBridge6.pciSlotNumber = "23"
pciBridge7.pciSlotNumber = "24"
scsi0.pciSlotNumber = "16"
ethernet0.pciSlotNumber = "32"
vmci0.pciSlotNumber = "33"
ethernet0.generatedAddressOffset = "0"
hostCPUID.0 = "0000000b756e65476c65746e49656e69"
hostCPUID.1 = "000106e5001008000098e3fdbfebfbff"
hostCPUID.80000001 = "00000000000000000000000128100800"
guestCPUID.0 = "0000000b756e65476c65746e49656e69"
guestCPUID.1 = "000106e500020800809822011febfbff"
guestCPUID.80000001 = "00000000000000000000000128100800"
userCPUID.0 = "0000000b756e65476c65746e49656e69"
userCPUID.1 = "000106e500100800009822011febfbff"
userCPUID.80000001 = "00000000000000000000000128100800"
evcCompatibilityMode = "FALSE"
vmotion.checkpointFBSize = "4194304"
tools.syncTime = "FALSE"
tools.remindInstall = "TRUE"
pciPassthru1.present = "TRUE"
pciPassthru1.deviceId = "1210"
pciPassthru1.vendorId = "17d3"
pciPassthru1.systemId = "4ffed681-2581-804c-0e35-0025900583d2"
pciPassthru1.id = "02:14.0"
pciPassthru1.pciSlotNumber = "192"
pciPassthru0.present = "FALSE"
floppy0.present = "FALSE"
Doe eens lspci in je VM, en post de resultaten eens.
Even niets...
# lspciFireDrunk schreef op maandag 30 juli 2012 @ 16:03:
Doe eens lspci in je VM, en post de resultaten eens.
00:00.0 Host bridge: Intel Corporation 440BX/ZX/DX - 82443BX/ZX/DX Host bridge (rev 01)
00:01.0 PCI bridge: Intel Corporation 440BX/ZX/DX - 82443BX/ZX/DX AGP bridge (rev 01)
00:07.0 ISA bridge: Intel Corporation 82371AB/EB/MB PIIX4 ISA (rev 08)
00:07.1 IDE interface: Intel Corporation 82371AB/EB/MB PIIX4 IDE (rev 01)
00:07.3 Bridge: Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 08)
00:07.7 System peripheral: VMware Virtual Machine Communication Interface (rev 10)
00:0f.0 VGA compatible controller: VMware SVGA II Adapter
00:10.0 SCSI storage controller: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI (rev 01)
00:11.0 PCI bridge: VMware PCI bridge (rev 02)
00:15.0 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.1 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.2 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.3 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.4 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.5 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.6 PCI bridge: VMware PCI Express Root Port (rev 01)
00:15.7 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.0 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.1 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.2 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.3 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.4 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.5 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.6 PCI bridge: VMware PCI Express Root Port (rev 01)
00:16.7 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.0 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.1 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.2 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.3 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.4 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.5 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.6 PCI bridge: VMware PCI Express Root Port (rev 01)
00:17.7 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.0 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.1 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.2 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.3 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.4 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.5 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.6 PCI bridge: VMware PCI Express Root Port (rev 01)
00:18.7 PCI bridge: VMware PCI Express Root Port (rev 01)
02:00.0 Ethernet controller: Intel Corporation 82545EM Gigabit Ethernet Controller (Copper) (rev 01)
0b:00.0 RAID bus controller: Areca Technology Corp. ARC-1210 4-Port PCI-Express to SATA RAID Controller
Hmmz, daar staat de controller wel tussen.
Echter als ik de CLI tool van Areca pakt doet hij het niet.
# cli64
Copyright (c) 2004-2011 Areca, Inc. All Rights Reserved.
Areca CLI, Version: 1.86, Arclib: 310, Date: Nov 1 2011( Linux )
None.
Error: Please check the (arcmsr & sg) drivers are installed properly.
En de drivers lijken ook geladen
# lsmod | grep arc
arcmsr 30158 0
edit:
Het probleem zat hem in SELinux en dat de module niet goed geladen wordt.
Als ik 'rmmod arcmsr' en 'modprobe arcmsr' doe doet hij het wel.
Echter na een reboot niet meer, nog tips?
Het probleem zat hem in SELinux en dat de module niet goed geladen wordt.
Als ik 'rmmod arcmsr' en 'modprobe arcmsr' doe doet hij het wel.
Echter na een reboot niet meer, nog tips?
[ Voor 3% gewijzigd door KoBolD54 op 30-07-2012 18:09 ]
Het is Intels document en helaas het enige wat ze van VT-d op hun site hebben staan. Als je even verder nadenkt waar VT-d voor bedoeld is, wat het beoogt te doen zul je zien dat het ook in/nabij de chipset thuis hoort. Zo gek veel is er nou ook weer niet veranderd sinds de Core 2 Duo. De huidige generatie is een voortborduring daarop waarbij ze de Northbridge alleen maar hebben afgebroken en verder naar de cpu hebben verhuisd. Men is toen zo ongeveer begonnen met de igp.K4F schreef op maandag 30 juli 2012 @ 00:47:
Bij de core2 implementatie (jouw document is anno 2006) liep alles nog via de FSB. Ofwel, geheugen en pcie lanes zaten direct aan je chipset.
Dat weet ik eigenlijk wel zeker van niet. VT-d heeft interactie met de hardware zelf en dus moet het ergens aan die PCIe bus kunnen geraken waardoor je toch weer aan/in die chipset zit.Ik geloof dan ook dat vt-d support meer een bios issue is bij sommige moederborden en chipsets dan werkelijk iets dat door de chipset wordt afgehandeld.
Balen dat het wederom zo'n Workstation only ding is. Gewoon stom dat VMware voor de Mac weer een apart product moest maken ipv Workstation en Player te porten zoals ze dat ook voor Linux hebben gedaan. Als ze dat al is gelukt dan was OS X ook wel gelukt. Misschien dat het op een of andere vage manier ook in Fusion TP 2012 aan de praat te krijgen is maar dat betwijfel ik ten zeerste.djkavaa schreef op maandag 30 juli 2012 @ 14:38:
Voor degene die het willen weten heb ik het voor elkaar gereken om WSX te draaien wat nog in beta is bij VMware.
Ik lees veel over de ST3000DM001 en de WD30EFRX ( Red edition ), dat deze zeer geschikt zijn voor Server doeleinde.
Ik ga gebruik maken van de adaptec 5805, waarbij ik dus een van deze 2 schijven wil gaan gebruiken. Of nog andere natuurlijk. Maar wat is nu de zuinigste HDD?
Natuurlijk blijft de server 24/24 7/7 draaien, zodoende moeten de schijven ook van perfecte kwaliteit zijn.
Ik ga gebruik maken van de adaptec 5805, waarbij ik dus een van deze 2 schijven wil gaan gebruiken. Of nog andere natuurlijk. Maar wat is nu de zuinigste HDD?
Natuurlijk blijft de server 24/24 7/7 draaien, zodoende moeten de schijven ook van perfecte kwaliteit zijn.
Dit heeft toch helemaal niets meer met ESXi te maken? Ik denk dat je beter even een eigen topic start in Opslagmedia & I/O Controllers
En wat stuurt de hardware aan, deelt IRQ adressen uit etc? Juist, het BIOS of de EFI.ppl schreef op maandag 30 juli 2012 @ 20:37:
Dat weet ik eigenlijk wel zeker van niet. VT-d heeft interactie met de hardware zelf en dus moet het ergens aan die PCIe bus kunnen geraken waardoor je toch weer aan/in die chipset zit.
Het BIOS/EFI initialiseert het systeem en boot de bootloader zodat het OS gestart kan worden. Het OS zal daarna de hardware aansturen (het OS is de laag tussen hardware en de applicaties). Het is dan ook het OS die met de DMA en IRQ aan de slag gaat. Die IRQ adressen werden vroeger door het BIOS uitgedeeld maar het is al inmiddels al meer dan 10 jaar zo dat we op plug & play zitten waarbij het nu het OS dit doet (het is nota bene nog een optie in je BIOS).CptChaos schreef op dinsdag 31 juli 2012 @ 16:43:
[...]
En wat stuurt de hardware aan, deelt IRQ adressen uit etc? Juist, het BIOS of de EFI.
Van dat document uit 2006 heb ik inmiddels een recentere uit februari 2011 gevonden: Intel® Virtualization Technology for Directed I/O: Architecture Specification. De informatie is nagenoeg gelijk aan die van de link uit 2006. Je zult dan ook duidelijk zien dat het BIOS/EFI er weinig mee te maken heeft. Het enige waar het BIOS/EFI hier nog wat mee te maken heeft is ontdekken dat DMA adressen geremapped zijn (zie hoofd "BIOS considerations"). De VT-d implementatie zit niet in het BIOS/EFI.
Het belangrijkste vergeet je echter: ik had het niet over welke onderdelen allemaal met VT-d te maken krijgen (dat zijn er dus veel meer dan alleen BIOS/EFI!) maar waar ze VT-d nou in hebben ondergebracht. VT-x zit in de cpu zelf, VT-d zit in de chipset. Allemaal niet zo raar want VT-x heeft meer met de cpu van doen en VT-d meer met PCIe devices (het wordt niet voor niets PCIe passthrough genoemd!). Dat daar nog allerlei extra dingen omheen zitten zoals het OS en het BIOS/EFI ter management is heel wat anders.
Zie het BIOS/EFI als manager die er voor zorgt dat de stratenmaker z'n werk kan doen en ook doet. Hij regelt de wagen, de kruiwagen, de hamer, het zand, de stenen, etc. (of beter gezegd, zorgt ervoor dat het geregeld wordt) Wat de manager echter niet doet is het inhoudelijke werk van de stratenmaker want daar heeft ie de stratenmaker nou voor. De manager is dus niet degene die met de kruiwagen, hamer, etc. in de weer gaat. Dat is waar de stratenmaker zich mee bezig houdt dus zit daar ook de kennis (=VT-d) hoe je dit alles dusdanig combineert zodat je een mooi straatje krijgt. Het heeft geen enkel zin om die kennis in de manager te stoppen want die werkt niet met het gereedschap en het materiaal.
Je reply is verder ook heel erg dom omdat hetgeen je zegt ook opgaat voor de technologie van 2006 en daar hebben we een heel mooi document voor met ene plaatje waarin VT-d overduidelijk in de chipset is geplaatst en daarmee je uitspraak naar het land der fabelen verwijst. Zie dit als een kleine hint om voortaan toch echt eerst eens dit soort documentatie door te nemen als daar naar wordt verwezen.
Ik heb zojuist een SSD besteld voor mijn ESXi machine. Op een laptop/desktop zet je normaal gesproken je swapfile uit als je een SSD hebt. Hoe hebben jullie dit gedaan op je ESXi machine?
Swap uit, of gewoon naar een andere schijf/datastore?
Swap uit, of gewoon naar een andere schijf/datastore?
- NAC Breda -
Ik ben een Dell server aan het configureren, maar twijfel over welke cpu ik zal kiezen.
Keuzes die ik heb :
Xeon E5-1410 4C 2.8GHz turbo 1333mhz mem 80w tdp (zeg basis prijs)
Xeon E5-2407 4C 2.2GHz non turbo 1066mhz mem 80w tdp (minder prijs e77)
Xeon E5-2420 4C 1.9GHz turbo 1333mhz mem 95w tdp (meerprijs e60)
Natuurlijk nog wel wat keuzes maar dan gaan de euros flink lopen.
Ik twijfel vooral tussen de 1410 of de 2407.
Server is als vervanging van mijn huidige server met een Xeon L5420 2.5GHz cpu.
Die merendeel van de tijd idle staat te draaien met 4 vm's
Vermoed dat de cpu's idle allemaal zelfde zullen verbuiken. (alleen is deze info nergens te vinden)
Iemand nog argumenten voor de 1410 vs de 2420 ?
En voor verbruik kan ik beter 1 rdimm van 16gb gebruiken dan 2*8gb ?
(volgens de dell tech guide draait geheugen met 1 rdimm ook gewoon op 1333)
Keuzes die ik heb :
Xeon E5-1410 4C 2.8GHz turbo 1333mhz mem 80w tdp (zeg basis prijs)
Xeon E5-2407 4C 2.2GHz non turbo 1066mhz mem 80w tdp (minder prijs e77)
Xeon E5-2420 4C 1.9GHz turbo 1333mhz mem 95w tdp (meerprijs e60)
Natuurlijk nog wel wat keuzes maar dan gaan de euros flink lopen.
Ik twijfel vooral tussen de 1410 of de 2407.
Server is als vervanging van mijn huidige server met een Xeon L5420 2.5GHz cpu.
Die merendeel van de tijd idle staat te draaien met 4 vm's
Vermoed dat de cpu's idle allemaal zelfde zullen verbuiken. (alleen is deze info nergens te vinden)
Iemand nog argumenten voor de 1410 vs de 2420 ?
En voor verbruik kan ik beter 1 rdimm van 16gb gebruiken dan 2*8gb ?
(volgens de dell tech guide draait geheugen met 1 rdimm ook gewoon op 1333)
[ Voor 9% gewijzigd door DDX op 01-08-2012 11:27 ]
Ik heb de swap gewoon op de SSD staan. Swap in ESXi word alleen gebruikt in tijden van memory tekort, anders is het alleen maar een reservering.Ritchie schreef op woensdag 01 augustus 2012 @ 10:53:
Ik heb zojuist een SSD besteld voor mijn ESXi machine. Op een laptop/desktop zet je normaal gesproken je swapfile uit als je een SSD hebt. Hoe hebben jullie dit gedaan op je ESXi machine?
Swap uit, of gewoon naar een andere schijf/datastore?
Even niets...
tipje?FireDrunk schreef op vrijdag 27 juli 2012 @ 14:11:
Uh, met VT-d zou spindown gewoon moeten werken hoor, en die 1068 kan het ook prima?
Zijn 3 Server 2008R2 server voor een VMWare View Home Lab. (Domain Controller, Virtual Center, en View Connection Server).
Any job you can do in your pajamas is not the hardest job in the world.
Nee een fooitje
Even zonder dollen, ik heb een tijdje terug zitten zoeken om mijn dataschijven van mn zfspool te kunnen laten sleepen maar dat is toen op niets uitgedraaid. Binnen zfs kan ik ze niet laten sleepen, hoe volgens jou wel dan?
Any job you can do in your pajamas is not the hardest job in the world.
Heb je het handmatig geprobeerd met camcontrol?
Even niets...
Die zijn er niet tenzij je een dual-socket server hebt. Ik zou voor de 1410 gaan.DDX schreef op woensdag 01 augustus 2012 @ 11:20:
Iemand nog argumenten voor de 1410 vs de 2420 ?
Duct tape can't fix stupid, but it can muffle the sound.
Indien je bij een VT-D compatible setup de onboard sata poorten wil doormappen, gebeurd dit dan per controler?
Het moederbord wat ik op het oog heb heeft een B75 chipset met 5 SATA2 poorten, en 1 SATA3 port. Kan je op de sata3 port een disk aansluiten, en hierop een datastore voor je guests aanmaken terwijl je de andere 5 sata poorten passthrought aan 1 VM?
Het moederbord wat ik op het oog heb heeft een B75 chipset met 5 SATA2 poorten, en 1 SATA3 port. Kan je op de sata3 port een disk aansluiten, en hierop een datastore voor je guests aanmaken terwijl je de andere 5 sata poorten passthrought aan 1 VM?
Per controller. Afhankelijk van hoe je moederbord in elkaar zit zelfs per meerdere controllers.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Het gaat om pricewatch: MSI B75MA-P45
Begrijp ik het dan goed dat je sowieso die SATA3 controller als datastore kan gebruiken met 1 hdd aan, terwijl je de andere controller met 5 sata ports aan een guest kan toekennen?• SATAIII controller integrated in Intel® B75 chipset
- Up to 6Gb/s transfer speed.
- Supports one SATAIII ports (SATA1) by B75
• SATAII controller integrated in Intel® B75 chipset
- Up to 3Gb/s transfer speed.
- Supports five SATAII ports (SATA2~6) by B75
Mijn bord identificeert ook twee losse controllers (Sata2+3). Wanneer ik er één op passthrough zet en reboot, is na de reboot de controller niet meer gepassthrought. Waarschijnlijk is een deel van de chipset gedeeld waardoor individuele passthrough niet werkt.
Dat klinkt hetzelfde als jouw geval, ik zou er niet teveel van verwachten.
Dat klinkt hetzelfde als jouw geval, ik zou er niet teveel van verwachten.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Is een T320 server, dus gewoon single-socket.DukeBox schreef op woensdag 01 augustus 2012 @ 15:43:
[...]
Die zijn er niet tenzij je een dual-socket server hebt. Ik zou voor de 1410 gaan.
Ik ben op zoek naar een goedkope 1/2 port HBA om te kunnen gebruiken als datastore. De overige 6 sata ports kunnen dan gebruikt worden om door te kunnen mappen naar een NAS guest.
In dit topic las ik dat de sil3132 werkt. Helaas blijkt dit beperkt tot ESXi 4.1, in ESXi 5 doet ie het niet.
Dan maar even verder gezocht, en blijkbaar wordt de sil3114 chipset wél ondersteunt in ESXi 5
Helaas vind ik wel niet zo 1-2-3 een kaartje in de pricewatch met deze chipset, iemand die kan helpen of een andere ondersteunde chipset weet?
Edit: Op ebay voor 24 EUR te koop
In dit topic las ik dat de sil3132 werkt. Helaas blijkt dit beperkt tot ESXi 4.1, in ESXi 5 doet ie het niet.
Dan maar even verder gezocht, en blijkbaar wordt de sil3114 chipset wél ondersteunt in ESXi 5
Helaas vind ik wel niet zo 1-2-3 een kaartje in de pricewatch met deze chipset, iemand die kan helpen of een andere ondersteunde chipset weet?
Edit: Op ebay voor 24 EUR te koop
[ Voor 8% gewijzigd door sloth op 02-08-2012 11:03 ]
Al op DealExtreme gekeken? Die hebben nog wel eens Sillicon-Image kaartjes.
Even niets...
Ik kan nu even niet kijken (proxy blokkeert DE), maar je kan even in de reviews kijken of er mensen een unboxing hebben gedaan en misschien op youtube gezet hebben.
Even niets...
Gevonden, maar de inhoud is waardeloos.
* sloth ziet nu pas dat er 25 reviews zijn die je allen kan openen..

Nadeel is wel dat je vrij beperkt zit in throughput door de PCI-bus en SATA1. Hoewel je hier wellicht weinig van zal merken met een simpele 2,5" disk?
* sloth ziet nu pas dat er 25 reviews zijn die je allen kan openen..

Hij is t dusIt's based on the Silicon Images Sil3114 chip which is a very nicely documented chip.
I've been using this product with 4 x 1 TB HD's in Linux and sata_sil driver seems to work just great with this card.
Nadeel is wel dat je vrij beperkt zit in throughput door de PCI-bus en SATA1. Hoewel je hier wellicht weinig van zal merken met een simpele 2,5" disk?
Nou, dat ligt er maar aan hoor, de nieuwste 2.5" diskjes zijn echt niet langzaam... Een M8 of een WD Black doe toch vaak tegen de 100MB/s aan. En proppen de hele PCI bus dus dicht...
Even niets...
Even opgezocht:
Een 1TB M8 doet blijkbaar sequental tussen de 50 en 110 MB/s read/write.
De PCI bus is theoretisch beperkt tot 133MB/s. Laten we stellen dat met overhead je nog rond de 115 MB/s haalt, dan heb je geen bottleneck als je maar 1 hdd aan die sil3114 hangt?
Wordt de PCI bus nog gedeeld door andere zaken waardoor bovenstaande 115 MB/s lager kan uitvallen in het geval van een headless server op basis van pricewatch: MSI B75MA-P45?
Een 1TB M8 doet blijkbaar sequental tussen de 50 en 110 MB/s read/write.
De PCI bus is theoretisch beperkt tot 133MB/s. Laten we stellen dat met overhead je nog rond de 115 MB/s haalt, dan heb je geen bottleneck als je maar 1 hdd aan die sil3114 hangt?
Wordt de PCI bus nog gedeeld door andere zaken waardoor bovenstaande 115 MB/s lager kan uitvallen in het geval van een headless server op basis van pricewatch: MSI B75MA-P45?
Ja de PCI bus is in zijn geheel gedeeld tussen alle PCI sloten. Het is afhankelijk van het moederbord welke apparaten op die PCI bus zitten. Zelfs audio zit tegenwoordig al op PCIe x1, dus ik denk dat het meevalt.
Even niets...
Je kunt in ESXi zelfs een ssd specifiek voor swapping gebruikenRitchie schreef op woensdag 01 augustus 2012 @ 10:53:
Ik heb zojuist een SSD besteld voor mijn ESXi machine. Op een laptop/desktop zet je normaal gesproken je swapfile uit als je een SSD hebt. Hoe hebben jullie dit gedaan op je ESXi machine?
Swap uit, of gewoon naar een andere schijf/datastore?
Ik heb diverse ssd's en gebruik ze al een jaar of 3. Op geen enkele ssd heb ik speciale trucs uitgehaald. Ze doen het allemaal nog prima. Gewoon ding erin stoppen en initialiseren als datastore, daar je vm's op zetten en van de heerlijke snelheid genieten. Het is zonde als je allerlei dingen gaat uithalen om vooral niets op je ssd te zetten. Waarom heb je dan uberhaupt zo'n duur ding gekocht?
Teveel gelul over SSDs, controllers en VT-d...tijd voor een verbruikscijfertje.* Dadona pakt handschoen op
ESXi 5, standaard ESXi instelling voor minimaal verbruik, geen guests (detail
) met deze hardware:
ESXi 5, standaard ESXi instelling voor minimaal verbruik, geen guests (detail
- Supermicro X9SCM-F
- Intel Xeon E3-1225 met een G620 heatsink met ventilator op minimale snelheid (geld op
)
- Kingston 2GB DDR3 module
- USB stick met daarop ESXi
- IPMI en 1 gigabit poort actief
- Seasonic S12II 330W
[ Voor 4% gewijzigd door Dadona op 02-08-2012 22:39 . Reden: Energymeter toegevoegd ]
Zo, na een jaar toch maar even een update.
Dit draait sinds vandaag op de SSD. Met een usbstick als startschijf. Draaide voorheen op een oude 500GB Samsung hdd als startschijf.
VT-D krijg ik niet aan de praat ook al staat alles in de bios goed. Setup verbruikt nu zo'n 47 watt
# | Product | Prijs | Subtotaal |
1 | Intel PRO/1000 GT Netwerk PCI Adapter low profile | € 27,- | € 27,- |
2 | Western Digital Caviar Green WD20EARX, 2TB SATA-600, 64MB, 5400rpm | € 98,90 | € 197,80 |
1 | Intel Core i5 2500 Boxed | € 190,45 | € 190,45 |
1 | Samsung 830 series 256GB | € 172,99 | € 172,99 |
2 | Kingston ValueRAM KVR1333D3N9K2/8G | € 34,95 | € 69,90 |
1 | Asus P8Q67-M DO (B3) | € 105,30 | € 105,30 |
Bekijk collectie Importeer producten | Totaal | € 763,44 |
Dit draait sinds vandaag op de SSD. Met een usbstick als startschijf. Draaide voorheen op een oude 500GB Samsung hdd als startschijf.
VT-D krijg ik niet aan de praat ook al staat alles in de bios goed. Setup verbruikt nu zo'n 47 watt
[ Voor 18% gewijzigd door Ritchie op 02-08-2012 22:44 ]
- NAC Breda -
Geen hosts? Je bedoeld geen guests?Dadona schreef op donderdag 02 augustus 2012 @ 21:28:
ESXi 5, standaard ESXi instelling voor minimaal verbruik, geen hosts (detail) met deze hardware:
Om diezelfde reden heb ik 2x 256GB SSD in mijn virtualisatie laptop zittenppl schreef op donderdag 02 augustus 2012 @ 21:10:
[...]
Je kunt in ESXi zelfs een ssd specifiek voor swapping gebruikenDat is niet voor niets trouwens want juist swap heeft veel baat bij snelle storage (aka een ssd). Swap zet je normaal gesproken absoluut niet uit want er zijn teveel applicaties/processen/etc. die daar afhankelijk van zijn. Je hoeft niet zoals vroeger het rekensommetje van 1,5x de hoeveelheid geheugen aan te houden want inmiddels kunnen we beschikken over sloten aan geheugen waardoor er nog weinig geswapt wordt.
Ik heb diverse ssd's en gebruik ze al een jaar of 3. Op geen enkele ssd heb ik speciale trucs uitgehaald. Ze doen het allemaal nog prima. Gewoon ding erin stoppen en initialiseren als datastore, daar je vm's op zetten en van de heerlijke snelheid genieten. Het is zonde als je allerlei dingen gaat uithalen om vooral niets op je ssd te zetten. Waarom heb je dan uberhaupt zo'n duur ding gekocht?
[ Voor 67% gewijzigd door redfoxert op 02-08-2012 22:36 ]
Heb ea. vandaag ingericht, de vm's staan nu op de ssd, en heb verder niets aangepast, dus het eventuele swappen gaat ook gewoon op de ssd.ppl schreef op donderdag 02 augustus 2012 @ 21:10:
[...]
Je kunt in ESXi zelfs een ssd specifiek voor swapping gebruikenDat is niet voor niets trouwens want juist swap heeft veel baat bij snelle storage (aka een ssd). Swap zet je normaal gesproken absoluut niet uit want er zijn teveel applicaties/processen/etc. die daar afhankelijk van zijn. Je hoeft niet zoals vroeger het rekensommetje van 1,5x de hoeveelheid geheugen aan te houden want inmiddels kunnen we beschikken over sloten aan geheugen waardoor er nog weinig geswapt wordt.
Ik heb diverse ssd's en gebruik ze al een jaar of 3. Op geen enkele ssd heb ik speciale trucs uitgehaald. Ze doen het allemaal nog prima. Gewoon ding erin stoppen en initialiseren als datastore, daar je vm's op zetten en van de heerlijke snelheid genieten. Het is zonde als je allerlei dingen gaat uithalen om vooral niets op je ssd te zetten. Waarom heb je dan uberhaupt zo'n duur ding gekocht?
- NAC Breda -
Heyuuuh....niet doen alsof ik er geen flauw benul van heb he...redfoxert schreef op donderdag 02 augustus 2012 @ 22:35:
[...]
Geen hosts? Je bedoeld geen guests?ESXi is de host ... je VM's de guests.
Neemt niet weg dat je gelijk hebt, er draaien geen guests.
Met die specs denk ik trouwens ook niet dat je heel veel guests kunt gaan draaien. 2GB memory?Dadona schreef op donderdag 02 augustus 2012 @ 22:40:
[...]
Heyuuuh....niet doen alsof ik er geen flauw benul van heb he...
Neemt niet weg dat je gelijk hebt, er draaien geen guests.
Het is een WISP... Ik ga af en toe met de computer aan de gang ga om te tunen qua verbruik. Helaas wat weinig tijd dus kan ik het niet echt snel afronden.
Zodra het verbruik, met één hdd, op 25.xW is gekomen met één actieve guest dan ga ik met wat systemen schuiven (server wissel en nas leeghalen) Door die actie kan ik uiteindelijk met 16GB DDR3 draaien. Ik had graag met 32GB gedraaid, maar ECC Udimms, tsja....de prijs wil maar niet echt dalen. (En vanzelfsprekend houd ik bij het tunen rekening met de extra modules en het bijbehorende verbruik.)
Zodra het verbruik, met één hdd, op 25.xW is gekomen met één actieve guest dan ga ik met wat systemen schuiven (server wissel en nas leeghalen) Door die actie kan ik uiteindelijk met 16GB DDR3 draaien. Ik had graag met 32GB gedraaid, maar ECC Udimms, tsja....de prijs wil maar niet echt dalen. (En vanzelfsprekend houd ik bij het tunen rekening met de extra modules en het bijbehorende verbruik.)
Ik heb nog 6x4 liggen te verstoffen, wil je dat graag hebben?
Even niets...
Die ECC udimm discussie komt net op tijd. Ik zag wat Transcend ECC's (8gb) voor < 60, 1600 mhz zelfs. Op de officiële lijst staat de x9scm bijv niet maar zit er toch aan te denken wat te bestellen. Iemand ervaring? (geen link voorhanden)
[ Voor 5% gewijzigd door K4F op 03-08-2012 00:26 ]
Zou best kunnen werken, maar ja, tis en blijft gokken...
Even niets...
Geen link voorhanden omdat het concurrentie is op een tweedehands markt?K4F schreef op vrijdag 03 augustus 2012 @ 00:23:
Die ECC udimm discussie komt net op tijd. Ik zag wat Transcend ECC's (8gb) voor < 60, 1600 mhz zelfs. Op de officiële lijst staat de x9scm bijv niet maar zit er toch aan te denken wat te bestellen. Iemand ervaring? (geen link voorhanden)
Als het 8GB udimms zijn dan is het een mooie prijs, maar als het nieuwe modules zijn dan vraag ik mij af of je niet met rdimms komt te zitten. Dan is rond de 60 euro opeens een gangbare prijs.
FireDrunk, bedankt voor het aanbod, maar ik heb geen interesse. Ik heb de 4x4 al in een pc zitten die binnenkort inactief zal zijn. Het verschil zou dus zijn dat niet meer 4x4 op de plank hebt liggen, maar ik. En dan ben ik sociaal genoeg om ze op jouw plank te laten liggen.
Op dit moment heb ik een ESXi server draaien met een i5 2500. Met de Asrock Z68 Extreme4 Gen.3 is ook VT-d mogelijk hoewel ik dit niet gebruik (videokaarten die ik wilde forwarden bleken toch niet te werken).
Ik overweeg een upgrade, omdat ik de processor en het geheugen ook weer door kan verkopen.
Mijn setup is nu:
Asrock Z68 Extreme4 Gen.3
Intel Core i5 2500
4 x 4 GB Kingston
Wat ik overweg is het geheugen te verdubbelen en voor de processor een Ivy Bridge i5, i7 of Xeon.
wenslijst: esxi
Intel Xeon E3-1230V2 (Ivy Bridge) Boxed
€ 222,50
Intel Core i5 3570K Boxed
€ 206,-
Intel Core i7 3770 Boxed
€ 265,-
Hiermee gaat het stroomverbruik omlaag en de performance flink omhoog.
Een paar dingen vraag ik me nog wel af:
- Worden alle 8 threads van de Xeon/i7 ondersteund door de gratis versie van ESXi 5 (dacht het wel)
- Zelfde geldt voor 32 GB geheugen. Voor zover ik weet wel.
- Zijn er nog argumenten voor/tegen een bepaalde processor?
Gevoelsmatig lijkt me de Xeon de beste keus omdat deze minder kost dan de i7 en toch 8 threads ondersteunt. (4 cores, hyperthreading.) Het verschil in kloksnelheid is klein.
De processors worden ondersteund door het moederbord met een BIOS update; of dit ook voor het geheugen geldt is nog onbekend. Geheugen staat niet in de QVL. Gecertificeerd geheugen kost een stuk meer.
Ik overweeg een upgrade, omdat ik de processor en het geheugen ook weer door kan verkopen.
Mijn setup is nu:
Asrock Z68 Extreme4 Gen.3
Intel Core i5 2500
4 x 4 GB Kingston
Wat ik overweg is het geheugen te verdubbelen en voor de processor een Ivy Bridge i5, i7 of Xeon.
wenslijst: esxi
Intel Xeon E3-1230V2 (Ivy Bridge) Boxed
€ 222,50
Intel Core i5 3570K Boxed
€ 206,-
Intel Core i7 3770 Boxed
€ 265,-
Hiermee gaat het stroomverbruik omlaag en de performance flink omhoog.
Een paar dingen vraag ik me nog wel af:
- Worden alle 8 threads van de Xeon/i7 ondersteund door de gratis versie van ESXi 5 (dacht het wel)
- Zelfde geldt voor 32 GB geheugen. Voor zover ik weet wel.
- Zijn er nog argumenten voor/tegen een bepaalde processor?
Gevoelsmatig lijkt me de Xeon de beste keus omdat deze minder kost dan de i7 en toch 8 threads ondersteunt. (4 cores, hyperthreading.) Het verschil in kloksnelheid is klein.
De processors worden ondersteund door het moederbord met een BIOS update; of dit ook voor het geheugen geldt is nog onbekend. Geheugen staat niet in de QVL. Gecertificeerd geheugen kost een stuk meer.
Disclaimer: P. aanvaardt geen aansprakelijkheid op grond van dit bericht.
Japinockio schreef op zondag 05 augustus 2012 @ 13:38:
- Worden alle 8 threads van de Xeon/i7 ondersteund door de gratis versie van ESXi 5 (dacht het wel)
Ja- Zelfde geldt voor 32 GB geheugen. Voor zover ik weet wel.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Dan zit je dus wel aan je max, ESXi Free kan tot 32GB vRAM.
Even niets...
Waarom zou je zo'n energie slurpende cpu kiezen? I5 is al meer dan voldoende.. IOPS (hdisk) en geheugen zijn inderdaad eerder bottleneck.pinockio schreef op zondag 05 augustus 2012 @ 13:38:
Op dit moment heb ik een ESXi server draaien met een i5 2500. Met de Asrock Z68 Extreme4 Gen.3 is ook VT-d mogelijk hoewel ik dit niet gebruik (videokaarten die ik wilde forwarden bleken toch niet te werken).
Ik overweeg een upgrade, omdat ik de processor en het geheugen ook weer door kan verkopen.
Mijn setup is nu:
Asrock Z68 Extreme4 Gen.3
Intel Core i5 2500
4 x 4 GB Kingston
Wat ik overweg is het geheugen te verdubbelen en voor de processor een Ivy Bridge i5, i7 of Xeon.
Ik had overigens een AMD Athlon II X4 600e Quadcore Energy cpu (4 cores) en kon er met gemak 10 machines op draaien met een enkele SSD en hdisk. Memory was mijn eerste bottleneck.
[ Voor 79% gewijzigd door Workaholic op 05-08-2012 13:56 ]
Ik heb een dual Xeon, en de enige reden daarvoor is dat ik veel geheugen kan gebruiken.
Enige moment dat ik mijn CPU's enigzins heb zien zweten is tijdens het compilen van Gentoo, en zelfs daar was de SSD de bottleneck.
PAR2 / UNPAR wil ook nog wel eens wat CPU kosten, maar ook dat zit eerder aan IOPS gebonden.
Enige moment dat ik mijn CPU's enigzins heb zien zweten is tijdens het compilen van Gentoo, en zelfs daar was de SSD de bottleneck.
PAR2 / UNPAR wil ook nog wel eens wat CPU kosten, maar ook dat zit eerder aan IOPS gebonden.
[ Voor 17% gewijzigd door FireDrunk op 05-08-2012 14:15 ]
Even niets...
Dank voor deze info, ik oriënteer mij momenteel ook op een Supermicro bordje met Xeon proc. Maar waar is je storage in deze setup?Dadona schreef op donderdag 02 augustus 2012 @ 21:28:
ESXi 5, standaard ESXi instelling voor minimaal verbruik, geen guests (detail) met deze hardware:
Verbruik in idle 28.xW, gemeten met de Energy Monitor 3000
- Supermicro X9SCM-F
- Intel Xeon E3-1225 met een G620 heatsink met ventilator op minimale snelheid (geld op
)
- Kingston 2GB DDR3 module
- USB stick met daarop ESXi
- IPMI en 1 gigabit poort actief
- Seasonic S12II 330W
Ik heb bij gebruik van o.a. een SBS 2011 server, enkele Linux servers en enkele gevirtualiseerde XP/W7 machines toch echt wel zo nu en dan 100% CPU gebruik. "I5 is al meer dan voldoende"... de TDP van die Xeon is 69W, van de i5 en i7 77W (en van de eerder gebruikte i5 2500 95W). Dus energieslurpend is die i7 en Xeon zeker niet. Ik ga er dus op vooruit qua zuinigheid.Workaholic schreef op zondag 05 augustus 2012 @ 13:54:
[...]
Waarom zou je zo'n energie slurpende cpu kiezen? I5 is al meer dan voldoende.. IOPS (hdisk) en geheugen zijn inderdaad eerder bottleneck.
Ik had overigens een AMD Athlon II X4 600e Quadcore Energy cpu (4 cores) en kon er met gemak 10 machines op draaien met een enkele SSD en hdisk. Memory was mijn eerste bottleneck.
De bedoeling is trouwens ook dat door het extra geheugen ik twee andere VMWare hosts kan vervangen en de VMs op deze machine plaatsen. Dat spaart ook weer twee PC's uit die 24/7 draaien.
Maar inderdaad, geheugen is veel eerder de limiterende factor. Vandaar dan ook de geheugenupgrade. Heeft iemand ervaring met 32 GB in een bord van bijna een jaar oud? Ik ga het natuurlijk gewoon proberen, mocht het geheugen niet werken dan koop ik een ander moederbord.
Disclaimer: P. aanvaardt geen aansprakelijkheid op grond van dit bericht.
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.