Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 16:25:
OK, mja, ik snap je punt wel...

Maar aan de andere kant, lijst nu eens echt voor jezelf deftig op wat je gaat draaien op je bak en doe eens een inschatting van de load... Het merendeel van de tijd staan je bakken toch te idlen tenzij je wat zit af te spelen op je TV... Ik veronderstel dat terwijl jij dev-werk (of wat was het dat je deed waardoor je VM's graag had?) doet dat het gebruik van de mediacenter beperkt is... Als is het dan al zo dat er media wordt afgespeeld moet je al sterk doen lijkt me om die bak vertragend dicht te trekken dat het merkbaar is... Genoeg geheugen blijft het belangrijkste punt imho...

Uiteindelijk ga je dan zien dat de CPU absoluut weinig belast wordt... OK, als je ESXi draait is 4 cores leuk, maar geloof me, je geheugen zal eerder aan de limiet zitten. Ik heb door hardwarebeperkingen maar 16GB er in steken... Mijn CPU zit bijna nooit tegen zijn grens aan (alhoewel mijn Ubuntu-machine die verantwoordelijk is voor downloads via Sabnzbd vaak met een load van 2.00+ zit merk ik daar nooit iets van op ESXi-niveau (nu, het feit dat alles meestal 's nachts gebeurt kan daar ook wat mee te maken hebben :+ ))
Een i5-2400(S) is een 10tje duurder als een i5-650 en toch een stukje sneller... Vandaar dat ik voor mijn gevoel gek zou zijn om dan voor een i5-650 te gaan...

2400S lijkt me geschikter, lager TDP, iets langzamer maar nog steeds quad-core

[ Voor 2% gewijzigd door NetXtreme op 19-08-2011 16:39 . Reden: 2400S ip 2400 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
OK, daar heb je een punt...
Trouwens, ik las hier net even iets interessant:
http://forum-en.msi.com/index.php?topic=150649.0
http://www.msi.com/produc...D55--B3-.html#?div=Detail

Vaak is het dus BIOS afhankelijk, maar wat vind je van dit mobo?

Er valt me wel één ding op in dit topic, en dat is dat we vaak het "zuinige" hier verliezen en het eerder naar een Whitebox-topic gaat...

[ Voor 21% gewijzigd door HyperBart op 19-08-2011 16:38 ]


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 16:37:
OK, daar heb je een punt...
Trouwens, ik las hier net even iets interessant:
http://forum-en.msi.com/index.php?topic=150649.0
http://www.msi.com/produc...D55--B3-.html#?div=Detail

Vaak is het dus BIOS afhankelijk, maar wat vind je van dit mobo?

Er valt me wel één ding op in dit topic, en dat is dat we vaak het "zuinige" hier verliezen en het eerder naar een Whitebox-topic gaat...
Ziet er goed uit. Ik zie alleen dat dit moederbord een RTL8111E netwerkkaart heeft. Gaven die geen problemen met ESXi?

Qua zuinigheid, ik ben net van een i5-2400 naar een i5-2400S gegaan... Welke 2.5 GHz is en TDP van 65W...

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
TDP wilt niks zeggen als ik me het goed herinner van de blogs van mux... Of toch niet qua effectief verbruik...

Om je nu maar ineens een idee te geven, gestaafd met een performance chart van mijn ESXi:

CPU Usage Weekly ESXi HyperBart

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Hmm blijkt dat 2400 en 2400S bijna gelijkwaardig zijn idle (3.7 en 3.8 watt) en onder load is de 2400 wat hoger, maar is ook logisch met hogere clock.

Jou MSI bordje heeft een RTL8111D, heeft deze nog problemen gegeven in ESXi? Dan neem ik aan dat een RTL8111E ook wel gaat werken.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Pas daar toch maar goed mee op... Ik heb mijn RTL8111D met custom firmware netjes aan de praat gekregen (had wel even problemen dacht ik, maar dat lag aan de vNIC)

Alhoewel, hier spreken ze gewoon over de 8111:
http://www.vm-help.com/fo...?f=12&t=1272&p=9462#p9462

Het proberen waard... Werkt het niet, tja dan gooi je er een Intel-kaartje bij, dat is iets wat je dan moet incalculeren...

Wat denk je nu als ik die CPU graph heb gepost?

[ Voor 47% gewijzigd door HyperBart op 19-08-2011 17:12 ]


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Op het moment kom ik hier op uit:

#ProductPrijsSubtotaal
1Intel PRO/1000 GT Netwerk PCI Adapter low profile€ 17,50€ 17,50
1Intel Core i5 2400€ 149,95€ 149,95
1be quiet! Pure Power L7 300W€ 35,50€ 35,50
2Kingston ValueRAM KVR1333D3N9K2/8G€ 36,35€ 72,70
1Sapphire Radeon HD 6450 512MB Silent€ 34,44€ 34,44
1MSI Z68MA-ED55 (B3)€ 131,13€ 131,13
Bekijk collectie
Importeer producten
Totaal€ 441,22


Iemand nog op of aan merkingen?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Nette bak lijkt me zo... Een gepimptere dan die van mij ;) .Met die grafische kaart erbij is je voeding nog sterk genoeg?

Maar je gaat je risico nemen om een VM als HTPC te gebruiken? Zou wel netjes zijn als dat werkt...

Of ga je voor een Linux-distro?

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Indien ESXi niet gaat werken kan ik atlijd terug naar Windows 2008 met Hyper-V... Videokaart is iets van 20 watt en zal ik ook alleen maar gebruiken i.c.m. ESXi VMDirectPath, aangezien er een 2e GPU aanwezig moet zijn voor ESX zelf.

[ Voor 38% gewijzigd door NetXtreme op 19-08-2011 17:46 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
OK, have fun with it, zou je ook even met een deftige energiemeter kunnen laten weten hoeveel je setup verbruikt en je bevindingen omtrent ESXi en doormappen van de graka? Mij interesseert het alvast heel fel en ik hoop met mij nog wat mensen...

Dan kan ik het evt ook in de startpost gooien en kunnen we misschien een lijstje uitbouwen met onze compatibele whiteboxes en het verbruik.

Bij deze ook een oproep:
Wil iedereen die een setup thuis heeft draaien met ESXi zijn hardwarelijstje in combinatie met het verbruik even doorsturen naar mij via DM?

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 17:48:
OK, have fun with it, zou je ook even met een deftige energiemeter kunnen laten weten hoeveel je setup verbruikt en je bevindingen omtrent ESXi en doormappen van de graka? Mij interesseert het alvast heel fel en ik hoop met mij nog wat mensen...

Dan kan ik het evt ook in de startpost gooien en kunnen we misschien een lijstje uitbouwen met onze compatibele whiteboxes en het verbruik.

Bij deze ook een oproep:
Wil iedereen die een setup thuis heeft draaien met ESXi zijn hardwarelijstje in combinatie met het verbruik even doorsturen naar mij via DM?
Lijkt me een heel goed idee... ESXi is nog al picky als het aan komt op desktop hardware. Ik heb zelf geen energiemeter in huis, maar zal kijken wat ik kan regelen zodra ik de hardware heb. Wat er nog bij komt is 5x 2TB Samsung F4's, maar dat is nog niet 100% zeker.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Ok, voorlopig ga ik deze oplijsten:

http://gathering.tweakers.net/forum/list_messages/1455241?data[filter_keywords]=bekijk%20collectie&data[boolean]=AND

Voor de rest mogen mensen mij een DM'tje sturen met zo veel mogelijk informatie omtrent hun setup...

[ Voor 31% gewijzigd door HyperBart op 19-08-2011 20:17 ]


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Ik kom er net achter dat ESXi hier een hele andere CPU-load weergeeft dan de guests. M'n pfSense firewall geeft in de webconfig een load van 2%, ESXi geeft 50% aan. Een windowsguest voor camerabewaking: ~10%, ESXi: 25%.
Beide hebben 1 vCPU van een quadcore Xeon en VT-x staat op automatisch.

Ik draai nog weinig andere VM's maar als dit klopt lijkt het me erg veel overhead?

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!
Meestal klopt het wel redelijk, maar je moet wel met gemiddeldes rekenen. ESXi Performance Charts liggen een tikkie achter.

Even niets...


Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
@Hyperbart

Ik vind het eigenlijk vooral leuk om te lezen wat iemand voor vms heeft draaien, welke keuzes zijn gemaakt qua indeling van vms. Misschien kunnen mensen dat ook doorgeven zodat je het kunt meenemen in je overzicht..?

Acties:
  • 0 Henk 'm!

  • odelay
  • Registratie: Oktober 2000
  • Laatst online: 14-09 11:43
@NetXtreme

erg nieuwsgierig of het je gaat lukken om de videokaart werkend te krijgen in een VM.
Heb het geprobeerd met een GeForce GT520 maar kreeg het niet voor elkaar. Idee was om XBMC te gaan draaien, ook nog in ubuntu desktop geprobeerd maar kreeg steeds geen output op dvi/hdmi. Kaart werd wel herkend, kon 'm ook passthrough(en) in ESXi

Iemand enig idee of dit is verbeterd in ESXi 5?

topics die ik er over kon vinden:
http://communities.vmware...d/297072?start=0&tstart=0
http://www.vm-help.com/fo...=21&t=3219&p=12416#p12416

Acties:
  • 0 Henk 'm!
Volgens mij niet, de feature is erg hardware en driver afhankelijk. VT-d zorgt ervoor dat een device direct in het geheugen kan schrijven. Soms wil de driver daar nog wel eens vreemd mee omgaan en dat kan problemen veroorzaken. Wat ik weet van vSphere 5 is dat daar niet echt veel nieuws aan is.

Misschien dat er ooit een VT-d2 komt die nog iets anders doet dan gewoon VT-d...

Even niets...


Acties:
  • 0 Henk 'm!

  • odelay
  • Registratie: Oktober 2000
  • Laatst online: 14-09 11:43
dus het probleem kan in de toekomst ook opgelost worden door nieuwere nvidia/ati driver of de juiste kaart kiezen. of kan het ook nog afhangen van wel moederbord je gebruik?

Wel jammer zag het alleen helemaal voor me, XBMC VM, hdmi kabel van de meterkast naar de versterker voor geluid en beeld..

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

Je kan een GPU niet als videokaart gebruiken middels VT-d, alleen als GPU. Net als dat je PXE niet op een NIC middels VT-d kan gebruiken. Dat kan alleen met de 'virtuele' GPU en NIC.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!
Huh? Hoe kom je aan die info? Bij het gebruik van VT-d heb je geen 'virtuele' devices meer?

Anders graag een bron :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Je videokaart als output gebruiken voor een enkele VM dmv VT-d is zeker mogelijk. Het werkend krijgen daarentegen :X.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Ok, daar zijn we het dan toch allemaal over eens uiteindelijk...

Nu ja, aan de andere kant, bij het VDI-verhaal met View merk je dat klanten vaak bepaalde mensen nog geen VDI willen geven omdat ze nog CAD-applicaties gebruiken... Losstaand van de latency voor dat soort beeld door te sturen blijft het moeilijk voor een VDI om een GPU toe te kennen, dus wie weet dat VMware in de toekomst daar nog wel een antwoord op biedt...
Staatslot schreef op zaterdag 20 augustus 2011 @ 08:49:
@Hyperbart

Ik vind het eigenlijk vooral leuk om te lezen wat iemand voor vms heeft draaien, welke keuzes zijn gemaakt qua indeling van vms. Misschien kunnen mensen dat ook doorgeven zodat je het kunt meenemen in je overzicht..?
In België zeggen we dan wel eens: "curieuseneusemosterdpot" :) . Neen serieus even, dat vraag ik me soms ook wel af. Wat draai ik er bij mij op (is hier al eens voorbij gekomen denk ik)
3x W2K8R2 (DC, vCenter en VPN-bak) al wil ik die laatste misschien uitfaseren en overstappen naar OpenVPN alhoewel het leuk is dat ik met mijn iPhone via PPTP verbinding naar thuis kan maken...
1x Windows XP Professional als bak die ik altijd remote kan bedienen (handig als ik ooit filecopy's moet doen binnen mijn NAS of snel een desktop beschikbaar wil hebben, kan ik aan via SSH-tunnel of via PPTP sinds een tijdje)
1x Ubuntu 11.04 met Couch Potato, Sick Beard en Sabnzbd, maar dat ding drives me NUTS! Mijn Sabnzbd knalt er om de een of andere onbekende reden uit, ik heb die VM al voor de 3de keer opnieuw VOLLEDIG geherinstalleerd en toch blijft ie klote doen :( . Nu begin ik bijna mijn geheugen in ESXi te verdenken dat daar af en toe een bit omvalt en Sabnzbd doet crashen, alhoewel dat belachelijk lijkt...

Dat is het zowat :) , en ja dat draait allemaal op 1 SATA disk... Die had ik IO-wijs gezien nog graag vervangen door een SSD misschien...

[ Voor 63% gewijzigd door HyperBart op 20-08-2011 12:50 ]


Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 14-09 20:02

Priet

To boldly do what no one has..

HyperBart schreef op zaterdag 20 augustus 2011 @ 12:45:
1x Ubuntu 11.04 met Couch Potato, Sick Beard en Sabnzbd, maar dat ding drives me NUTS! Mijn Sabnzbd knalt er om de een of andere onbekende reden uit, ik heb die VM al voor de 3de keer opnieuw VOLLEDIG geherinstalleerd en toch blijft ie klote doen :( .
Moet je ook maar Arch Linux gebruiken :P. Draait als een zonnetje hier als VM :)

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!
Post eens een stappenplan hoe je die VM opbouwt, misschien zien we iets wat niet goed gaat ;)

EDIT:
WTF, ArchLinux??? Als je een kapotte distro wil hebben moet je die pakken :)
Als je iets stabiels wilt, neem dan CentOS, dat is tenminste een afgeleide van een echt OS ipv een meta-distro...

Even niets...


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Misschien moeten we dit topic voor discussie houden en een parallel topic openen waar uitsluitend specs van je systeem staan en welke VM's erop draaien. Het blijft dan klein en overzichtelijk en er hoeft niet telkens een startpost actueel gehouden te worden.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!
Iets van "Het grote Thuis Virtualisatie Topic"...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
On it :)

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Mooi, zet je in de TS een receptenlijstje wat er in de posts moet staan:
  • Welke hypervisor (bv VMware ESXi, Citrix XenServer or Microsoft Hyper-V, VMware Workstation)
  • Welke hardware (moederbord, CPU, geheugen, aanvullende controllers)
  • Datastore (NAS, SAN, DAS)
  • Actieve VM's
  • ...?
  • Algemeen: Hoe, wat, waar, waarom, hoeveel, hoe duur.
  • Pics?
En nog een link naar dit topic en een waarschuwing uitsluitend systemen te posten en geen vragen. Misschien een modje een waarschuwing bij het postscherm laten zetten?

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Okido, ik ben op dit moment de startpost wat aan het bijwerken, wie wil een DM sturen naar alle Tweakers waarvan ik nog niet zeker ben van hun post? Ze mogen antwoorden naar mij... Bij voorkeur of ze hun onboard NIC ook werkend hebben met een oem.tgz of niet...

Zolang ik geen bevestiging heb of een aanvraag tot verbetering (want bij de i5's staan er sommigen 3 dubbel) blijven ze op unverified staan...

Nextron, jij bent voorlopig mede-auteur in HyperBart in "Het grote thuis-virtualisatie topic"

[ Voor 34% gewijzigd door HyperBart op 20-08-2011 14:26 ]


Acties:
  • 0 Henk 'm!

  • Appel
  • Registratie: November 2007
  • Laatst online: 21-08 16:07
Op het bericht gereageerd. Ik zie mezelf ook in de start post staan. Ik sta er alleen wel 3x in :P
Vind het verder wel een slimme zet, maakt het heel duidelijk wat we nou werkend hebben gekregen en wat niet.

Ga zo door! :)

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 14-09 20:02

Priet

To boldly do what no one has..

FireDrunk schreef op zaterdag 20 augustus 2011 @ 13:03:
Post eens een stappenplan hoe je die VM opbouwt, misschien zien we iets wat niet goed gaat ;)

EDIT:
WTF, ArchLinux??? Als je een kapotte distro wil hebben moet je die pakken :)
Als je iets stabiels wilt, neem dan CentOS, dat is tenminste een afgeleide van een echt OS ipv een meta-distro...
Hoezo instabiel? Hoezo kapot? En daarbij, bij wie draait Sickbeard, Sabnzb en Spotweb wél stabiel? ;)

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!
ArchLinux heeft een beetje kromme dependencies die vaak verkeerd kunnen gaan...

Hier draait SabNZBd en Sickbeard al een jaar of wat stabiel... Eerst onder Ubuntu 10.10, en laatst geupgrade naar 11.04. (Niet dat Ubuntu zo heilig is hoor, maar Arch vind ik wel kak :P )

Even niets...


Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
Leuk idee! Heb mn set-up er zojuist neergezet! Ben erg benieuwd naar de invulling van anderen hier, dus mensen vul m ff in!

[ Voor 25% gewijzigd door Staatslot op 21-08-2011 08:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

zou zoiets kunnen werken met ESXi als je de usb poort pass through zet :?


Afbeeldingslocatie: http://media.conrad.com/xl/8000_8999/8700/8710/8715/871540_BB_00_FB.EPS.jpg

Acties:
  • 0 Henk 'm!

  • Xiphalon
  • Registratie: Juni 2001
  • Laatst online: 14-09 12:44
Vast wel, maar je krijgt er geen performance mee, en al helemaal geen BIOS/opstart schermen

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Ik heb ook gedacht over die USB video adapters, maar na weinig lovende verhalen te lezen toch verder gegaan met een echte videokaart. Nu dat niet lukt moet ik hier maar eens op terugkomen.

Bij deze Poolse dude lijkt het wel aardig te werken met 4 schermen, en met 8 schermen. Bij het verplaatsen van schermen gaat de schermovergang vloeiend, bij het resizen zie je duidelijk vertraging tussen de schermen, maar of dat nou aan de adapter of laptop ligt? Zijn adapter lijkt op deze, alleen claimt hij full HD resoluties te halen.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
HyperBart schreef op zaterdag 20 augustus 2011 @ 14:20:
Okido, ik ben op dit moment de startpost wat aan het bijwerken, wie wil een DM sturen naar alle Tweakers waarvan ik nog niet zeker ben van hun post? Ze mogen antwoorden naar mij... Bij voorkeur of ze hun onboard NIC ook werkend hebben met een oem.tgz of niet...

Zolang ik geen bevestiging heb of een aanvraag tot verbetering (want bij de i5's staan er sommigen 3 dubbel) blijven ze op unverified staan...

Nextron, jij bent voorlopig mede-auteur in HyperBart in "Het grote thuis-virtualisatie topic"
Mooi initiatief!

Is het de bedoeling dat je in dit topic vragen stelt over de systemen uit Het grote thuis-virtualisatie topic want dat was me niet duidelijk uit de TS.

Acties:
  • 0 Henk 'm!

Verwijderd

het staat er toch echt heel duidelijk :

Noot: Dit topic is uit interesse gegroeid vanuit Zuinige ESXi Server, ga voor vragen en discussie daar naar toe. Gebruik dit topic uitsluitend om je systeem te showen.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Tja, voorlopig is ESXi hier behoorlijk hot, het staat VirtualBox en KVM fans natuurlijk vrij om daar ook topics over te openen, dan verwijs ik er met alle plezier naar toe. Voorlopig heb ik het druk genoeg om alle systemen van ESXi in de startpost te gooien, het virtualisatietopic wil ik wel in de gaten houden, in de Diff zie ik dat Nextron al wat dingen heeft aangepast, van FireDrunk weet ik dat ie er ook nog wat tijd in wil steken, komt dus wel in orde... Ik ga me hier wat concentreren op de TS van ESXi...

Bedoeling is hier eigenlijk om over zuinige ESXi-systemen te praten. Je kan het moeilijk vermijden dat het hier dan een veredelde whitebox topic wordt, daar heb ik ook geen probleem mee, uiteindelijk doen we dat hier ook, maar ik wil voorkomen dat het hier een topic wordt waar de i7's je rond de oren vliegen, zuinigheid behoort met de compatibiliteit voor ESXi nog altijd tot de kern van het topic...

[ Voor 22% gewijzigd door HyperBart op 21-08-2011 13:45 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Duidelijk :)

Bij deze dan mijn vragen over de setups van Nextron en Zer0 die pfSense draaien op hun ESXi install.

Hoe precies ziet jullie netwerksetup er uit? Gebruiken jullie de VT-D ondersteuning om een of meerdere NIC's door te passen naar jullie pfSense VM?

Zelf wil ik een setup gaan bouwen zonder VT-D ondersteuning en door middel van 802.1Q (VLAN tagging) samen met een managed switch firewalling en routing doen voor zowel de andere VM's binnen ESXi, als alle fysieke hosts binnen mijn netwerk.

Eerste wat fout kan gaan is de ondersteuning van de NIC binnen ESXi. Die wordt namelijk niet ondersteunt, maar hier is een custom driver voor.
Wat ik me van HyperBart's setup kan herinneren is dat hij ook gebruikt maakt van een custom driver. Daar hoor ik echter ook ervaringen over zijn die minder positief zijn, zoals het wegvallen van de verbinding en dergelijke wat echt ontoelaatbaar voor me zou zijn.
Hoe zijn jullie ervaringen hiermee?
Begrijp ik het goed dat zo'n custom driver niet meer of minder is dan de officiële driver te integreren binnen ESXi, zodat je ook alle functies die bij de standaard driver (zoals 802.1Q, Jumboframes, ..) gewoon kan gebruiken?

Het tweede probleem heeft te maken met het gebrek aan VMDirectPath ondersteuning. Hierbij begrijp ik dat je dan zodra de NIC herkent wordt deze gaat virtualiseren zodat meerdere guests hier gebruik van kunnen maken.
Hoe zit het dan met de performance en de extra cpu belasting? Of is dit te verwaarlozen?
Of het dan de onboard is met een custom driver of een NIC die op de HCL staat maakt dan verder ook niet meer uit toch?

Zie ik verder nog iets over het hoofd?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
sloth schreef op zondag 21 augustus 2011 @ 14:41:
Duidelijk :)

Bij deze dan mijn vragen over de setups van Nextron en Zer0 die pfSense draaien op hun ESXi install.

Hoe precies ziet jullie netwerksetup er uit? Gebruiken jullie de VT-D ondersteuning om een of meerdere NIC's door te passen naar jullie pfSense VM?

Zelf wil ik een setup gaan bouwen zonder VT-D ondersteuning en door middel van 802.1Q (VLAN tagging) samen met een managed switch firewalling en routing doen voor zowel de andere VM's binnen ESXi, als alle fysieke hosts binnen mijn netwerk.
Die VT-D heb je in ieder geval niet nodig om het merendeel van de setups die bij jouw eisen passen te bouwen. In mijn optiek is het leuke van virtualisatie dat je ook je netwerk sterk kan virtualiseren (duh :+ ), dit houdt dus ook in dat je niet noodzakelijk je NIC's 1 op 1 moet doorgeven met VT-D.

In jouw geval zou ik NIC's gewoon niet doorgeven, maar ze aan vSwitches hangen en daar dan je VM's op, hier kan je dan ook zonder problemen VLAN tagging op enablen, dat gebeurt op ESXi niveau, niet op driver niveau (correct me if I'm wrong)
Eerste wat fout kan gaan is de ondersteuning van de NIC binnen ESXi. Die wordt namelijk niet ondersteunt, maar hier is een custom driver voor.
Wat ik me van HyperBart's setup kan herinneren is dat hij ook gebruikt maakt van een custom driver. Daar hoor ik echter ook ervaringen over zijn die minder positief zijn, zoals het wegvallen van de verbinding en dergelijke wat echt ontoelaatbaar voor me zou zijn.
Bij mij draait die NIC met vmxnet3 vnics perfect (even uitleggen, je hebt je fysieke NIC, die hang je aan een vSwitch en aan je vSwitch hang je VM's die met de vSwitch zijn "verbonden" via vNIC's, die vNIC kan je als twee modellen presenteren aan de VM's, als e1000 van Intel en als VMXNET3. De voorkeur geniet VMXNET3 en die bolt perfect bij mij op XP, de E1000 gaf wat problemen... als je wil kijk ik dat nog eens na...
Hoe zijn jullie ervaringen hiermee?
Begrijp ik het goed dat zo'n custom driver niet meer of minder is dan de officiële driver te integreren binnen ESXi, zodat je ook alle functies die bij de standaard driver (zoals 802.1Q, Jumboframes, ..) gewoon kan gebruiken?
Die custom driver is idd een driver zoals een andere, het enige verschil is dat die niet standaard bij ESXi meekomt...

Veiligheidshalve kies ik natuurlijk wel graag voor mijn Intel NIC, daar ben ik 100 % zeker van dat die werkt... Niettemin kan ik mijn onboard NIC ook nog altijd gebruiken en vertrouw ik dat ding ook...
Het tweede probleem heeft te maken met het gebrek aan VMDirectPath ondersteuning. Hierbij begrijp ik dat je dan zodra de NIC herkent wordt deze gaat virtualiseren zodat meerdere guests hier gebruik van kunnen maken.
Ik begrijp niet volledig watje hier mee wilt zeggen en het lijkt me alsof je dingen door mekaar aan het halen bent...
VMDirectPath = passtrough = VT-D nodig = 1 op 1 relatie van een I/O-device naar een VM
Dus neen, als je een NIC passtroughed naar een VM dan kan een andere VM die niet meer gebruiken, das logisch, toch? :) Je kan toch ook een USB-stick niet in twee machines tegelijk steken?
Hoe zit het dan met de performance en de extra cpu belasting?
Van wat? Van wie?
Of is dit te verwaarlozen?
Of het dan de onboard is met een custom driver of een NIC die op de HCL staat maakt dan verder ook niet meer uit toch?
Gemoedsrust :) . die Intel NIC's kan je op twee oren en je wanten op slapen dat het werkt...

Acties:
  • 0 Henk 'm!

  • sjaak
  • Registratie: Maart 2000
  • Laatst online: 07-09 17:05

sjaak

un giorno credi

Even het topic grotendeels doorgenomen, het begint me meteen te duizelen. Ik heb in het verleden diverse systemen in elkaar gezet, op de gok en dat ging eigenlijk altijd goed op de NIC na, daarvoor had ik dan ook een Intel kaartje liggen.

Nu begint het wel weer te kriebelen en ben ik aan het kijken wat ik allemaal nodig zou hebben en of dat in het budget van dit moment past. Mijn wensen zijn:

* VT-d (om mee te prutsen en te proberen)
* Goede performance
* Laag verbruik
* Veel geheugen, wil nog wel eens 8 tot 12 machines aan hebben. ;)
* Binnen budget van 500 euro.

Nu lijkt dat redelijk mogelijk te zijn. Voor zover ik begrijp is de Intel i5 2400 een goede keuze wat betreft performance. (Voorheen eigenlijk alleen AMD's gebruikt) I.c.m. een Intel DQ67SWB3 moederbord, 16GB GeiL geheugen, een Seagate ST31000528AS HD en een Aopen kast met 350 watt voeding kom ik op zo'n 470 euro. (Uitgaande van één bestelling bij Alternate)

Is dit een goede basis volgens jullie en hebben jullie nog op- of aanmerkingen?

Zit net ook te lezen over dat Intel KVm oid? Lijkt me ook weer erg handig maar dan moet alles weer op de schop en dan blijft er weer weinig budget waarschijnlijk over. :D

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
sjaak schreef op zondag 21 augustus 2011 @ 15:27:
Even het topic grotendeels doorgenomen, het begint me meteen te duizelen. Ik heb in het verleden diverse systemen in elkaar gezet, op de gok en dat ging eigenlijk altijd goed op de NIC na, daarvoor had ik dan ook een Intel kaartje liggen.

Nu begint het wel weer te kriebelen en ben ik aan het kijken wat ik allemaal nodig zou hebben en of dat in het budget van dit moment past. Mijn wensen zijn:

* VT-d (om mee te prutsen en te proberen)
* Goede performance
* Laag verbruik
* Veel geheugen, wil nog wel eens 8 tot 12 machines aan hebben. ;)
* Binnen budget van 500 euro.
Dan zit je zowieso al bij de i5, zoals je zelf al aangeeft is een 2400 meer als snel genoeg...
Laag verbruik lever je een stukje in door de eis van VT-d... Anders is een i3 een zeer waardig alternatief...
Nu lijkt dat redelijk mogelijk te zijn. Voor zover ik begrijp is de Intel i5 2400 een goede keuze wat betreft performance. (Voorheen eigenlijk alleen AMD's gebruikt) I.c.m. een Intel DQ67SWB3 moederbord, 16GB GeiL geheugen, een Seagate ST31000528AS HD en een Aopen kast met 350 watt voeding kom ik op zo'n 470 euro. (Uitgaande van één bestelling bij Alternate)
Niets op aan te merken, toffe bordjes op papier, al veel keer de revue hier zien passeren...
Waarom en voor welk GeiL geheugen? Ik heb gewoon het goedkoopste genomen (/me loopt even naar de PW en checkt: http://tweakers.net/price...x3lT1eiStWKexgvN8oax2VZPg)

Ik heb niks gezegd :+ .
Is dit een goede basis volgens jullie en hebben jullie nog op- of aanmerkingen?
Als je nog budget over hebt kan je nog altijd een extra NIC'je bestellen...
Zit net ook te lezen over dat Intel KVm oid? Lijkt me ook weer erg handig maar dan moet alles weer op de schop en dan blijft er weer weinig budget waarschijnlijk over. :D


Nog even een vraagje: zijn er hier eigenlijk mensen met bordjes die meer als 16GB ondersteunen? (met uitzondering van dat monsterbord van Tyan van FireDrunk :+ )

[ Voor 3% gewijzigd door HyperBart op 21-08-2011 15:41 ]


Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Je kan ook voor een Intel Entry serverbord gaan. Totaal kom je dan ook rond de 500 euro uit (afhankelijk van wat je er bij doet he) en dan heb je meteen echte server hardware.

Bijv: http://ark.intel.com/prod...el-Server-Board-S3420GPLX

[ Voor 17% gewijzigd door johnkeates op 21-08-2011 15:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd



Nog even een vraagje: zijn er hier eigenlijk mensen met bordjes die meer als 16GB ondersteunen? (met uitzondering van dat monsterbord van Tyan van FireDrunk :+ )
ja ik gebruik de supermicro X8sil-F en die kan ism xeon 3440 32GB aansturen ( eea ligt even stil ivm verbouwing)

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Verwijderd schreef op zondag 21 augustus 2011 @ 09:27:
zou zoiets kunnen werken met ESXi als je de usb poort pass through zet :?
[afbeelding]
Kijk nou wat je hebt gedaan... nu heb ik deze besteld:
Afbeeldingslocatie: http://i.ebayimg.com/00/$%28KGrHqYOKjIE3vOt%29gC9BOH6ktCLP!~~_12.JPG
Ik moet en zal beeld hebben :P Ik laat over een maand wel weten of het werkt.
sloth schreef op zondag 21 augustus 2011 @ 14:41:
Hoe precies ziet jullie netwerksetup er uit? Gebruiken jullie de VT-D ondersteuning om een of meerdere NIC's door te passen naar jullie pfSense VM?
Ik heb aan één NIC direct op het modem aangesloten, aan deze NIC is een (WAN) vSwitch gekoppeld met alleen pfSense. De andere NIC is aangesloten op een switch met VLAN-ondersteuning om gescheiden netwerken te gebruiken. Deze NIC is gekoppeld aan een andere (LAN) vSwitch, waar pfSense en andere VM aan hangen.
In feite kan zonder problemen de modem op de VLAN-switch zetten en heb je voldoende aan één NIC, maar dit is misschien veiliger.
Hoe zit het dan met de performance en de extra cpu belasting? Of is dit te verwaarlozen?
ESXi geeft voor al mijn VM's een hogere load weer dan de guests zelf doen. Geen idee waar dit vandaan komt en of het klopt. pfSense laat een load zien van <2% op een 3,1GHz core tijdens Bittorrent met ~1000 connecties op 25Mbps.
sjaak schreef op zondag 21 augustus 2011 @ 15:27:
(...)
* Veel geheugen, wil nog wel eens 8 tot 12 machines aan hebben. ;)
(...)
Seagate ST31000528AS HD
Wanneer ik met Workstation meerdere VM's gebruik op één HD gaat het erg traag door de gedeelde I/O. Ik zou een SSD overwegen of meerdere HD's.
Zit net ook te lezen over dat Intel KVm oid? Lijkt me ook weer erg handig maar dan moet alles weer op de schop en dan blijft er weer weinig budget waarschijnlijk over. :D
Wanneer ESXi stabiel draait beheer je het toch niet meer vanaf de console (geavanceerde opties daargelaten). Terugkijkend zou ik er geen extra geld aan uit hebben gegeven.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!
Zelfs de meeste geavanceerde opties kan je via SSH doen, en doe je dus ook niet met het muis en toetsenbord van je server...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
johnkeates schreef op zondag 21 augustus 2011 @ 15:43:
Je kan ook voor een Intel Entry serverbord gaan. Totaal kom je dan ook rond de 500 euro uit (afhankelijk van wat je er bij doet he) en dan heb je meteen echte server hardware.

Bijv: http://ark.intel.com/prod...el-Server-Board-S3420GPLX
Maar dan ben ik verplicht om voor ECC geheugen te gaan?

Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Is ECC zo verkeerd dan? ;) Zo veel duurder is het niet meer :)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Bwoah 1/3 meer, je hebt wel een argument, het zit wat op het kantel punt

http://tweakers.net/price...N7aJc7yhonhmrzx-qWS5dleQM

http://tweakers.net/price...x3lT1eiStWKexgvN8oax2VZPg

Even tussendoor, welke poort/PCI is dit eigenlijk en kan ik die in principe in eender welk slot steken?
ESXi en varia
4-port NIC 24-port NIC 1


En YES dat is een quadriple NIC... pricewatch: Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e)

Ik weet begot niet wat ik met het ding moet doen, blijkbaar is het een dikke 350 EUR waard...

Blijkbaar PCI-E (ik ben trouwens nooit meegeweest in dat verhaal van de PCI's), maar waarom kan ik dat dan niet in mijn P5D Deluxe van Asus steken?

[ Voor 51% gewijzigd door HyperBart op 21-08-2011 16:46 ]


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:02
PCIe 4x aansluiting.

Je moet dan dus een PCIe 4x slot op je moederbord hebben. Een PCIe 8x slot gaat ook werken en een PCIe 16x slot in principe ook. Echter, op veel consumentenbordjes wil het voorkomen dat in de PCIe 16x sloten alleen grafische kaarten werken. (Genoeg mensen in het DIY NAS topic die hun Intel SASUC8i PCIe 8x kaartje niet aan de praat kregen in zo'n PCIe 16x slot).

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

sloth schreef op zondag 21 augustus 2011 @ 14:41:
Hoe precies ziet jullie netwerksetup er uit? Gebruiken jullie de VT-D ondersteuning om een of meerdere NIC's door te passen naar jullie pfSense VM?
Beide nics van mijn server hangen aan een managed HP Procurve switch(je) in fail-over mode (één kaart wordt maar daadwerkelijk gebruikt) en alle verbindingen met mijn interne lan, externe lan en office-lans zijn met vlan's geregeld. Per vlan is er een netwerk binnen esxi aangemaakt waaraan de diverse vm's hangen. Daarnaast een extra vSwitch voor verkeer dat de esxi verlaat. Alle vm's gebruiken de e1000 vNIC voor communicatie met buiten, en VMXNET3 voor intern verkeer.
De pfSense vm doet alle routering.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Sleepie schreef op zondag 21 augustus 2011 @ 17:16:
PCIe 4x aansluiting.

Je moet dan dus een PCIe 4x slot op je moederbord hebben. Een PCIe 8x slot gaat ook werken en een PCIe 16x slot in principe ook. Echter, op veel consumentenbordjes wil het voorkomen dat in de PCIe 16x sloten alleen grafische kaarten werken. (Genoeg mensen in het DIY NAS topic die hun Intel SASUC8i PCIe 8x kaartje niet aan de praat kregen in zo'n PCIe 16x slot).
Dat kan dus bv ook de reden zijn dat die quadriple NIC niet werkt op mijn ESXi? Die stak in die blauwe poort...

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

HyperBart schreef op zondag 21 augustus 2011 @ 18:01:
[Dat kan dus bv ook de reden zijn dat die quadriple NIC niet werkt op mijn ESXi? Die stak in die blauwe poort...
w.t.f is een quadriple nic ? Een nic met 5 en een halfe poort ?
Hoe dan ook kan de meeste hardware prima op minder PCIe lanes werken echter kan dat dan natuurlijk wel de bottleneck zijn.

[ Voor 73% gewijzigd door DukeBox op 21-08-2011 18:14 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Zoals de naam al een beetje aangeeft is dat een quad port nic... 4 nics op een kaartje...

Als je wat terugscrollt in de posts dan zie je 'm. Zot dure shizzle maar je bezet maar een slot.. Wat wel leuk is een server...

[ Voor 42% gewijzigd door HyperBart op 21-08-2011 19:36 ]


Acties:
  • 0 Henk 'm!

  • Tomatoman
  • Registratie: November 2000
  • Laatst online: 14-09 16:56

Tomatoman

Fulltime prutser

Hé, zo'n ding heb ik ook in mijn server zitten. Naast de twee onboard poorten. Ik wist niet dat ze zo duur zijn :X .

Een goede grap mag vrienden kosten.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Die zijn SCHIJTE-duur...
Wat voor server heb jij? Ook een ESXi-based machine'tje?

Acties:
  • 0 Henk 'm!
Weet je wat het is... los zijn ze super duur, maar als je er 40 koopt in het kader van een heel cluster upgraden ofzo dan valt het erg mee hoor... zo heb ik wel eens P410 controller op de lijst gezien voor 92 euro inclusief bbwc...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
FireDrunk schreef op zondag 21 augustus 2011 @ 20:21:
Weet je wat het is... los zijn ze super duur, maar als je er 40 koopt in het kader van een heel cluster upgraden ofzo dan valt het erg mee hoor... zo heb ik wel eens P410 controller op de lijst gezien voor 92 euro inclusief bbwc...
Laat me dan maar even weten als je die ooit nog eens tegen die prijs tegenkomt!

Acties:
  • 0 Henk 'm!

  • Weiman
  • Registratie: September 2007
  • Laatst online: 09-09 09:20
Inkoopactie anyone? :P

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Of nog zoiets: PicoPSU's... Met alle setups die we hier draaien vind ik dat nog een onontgonnen gebied (buiten mux, die is daar specialist in _/-\o_ )

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

sjaak schreef op zondag 21 augustus 2011 @ 15:27:
Even het topic grotendeels doorgenomen, het begint me meteen te duizelen. Ik heb in het verleden diverse systemen in elkaar gezet, op de gok en dat ging eigenlijk altijd goed op de NIC na, daarvoor had ik dan ook een Intel kaartje liggen.

Nu begint het wel weer te kriebelen en ben ik aan het kijken wat ik allemaal nodig zou hebben en of dat in het budget van dit moment past. Mijn wensen zijn:

* VT-d (om mee te prutsen en te proberen)
* Goede performance
* Laag verbruik
* Veel geheugen, wil nog wel eens 8 tot 12 machines aan hebben. ;)
* Binnen budget van 500 euro.

Nu lijkt dat redelijk mogelijk te zijn. Voor zover ik begrijp is de Intel i5 2400 een goede keuze wat betreft performance. (Voorheen eigenlijk alleen AMD's gebruikt) I.c.m. een Intel DQ67SWB3 moederbord, 16GB GeiL geheugen, een Seagate ST31000528AS HD en een Aopen kast met 350 watt voeding kom ik op zo'n 470 euro. (Uitgaande van één bestelling bij Alternate)

Is dit een goede basis volgens jullie en hebben jullie nog op- of aanmerkingen?

Zit net ook te lezen over dat Intel KVm oid? Lijkt me ook weer erg handig maar dan moet alles weer op de schop en dan blijft er weer weinig budget waarschijnlijk over. :D
Klinkt goed, maar je gaat hierbij met 1 grote MAJOR bottleneck zitten. 1 HDD geeft je de performance van 1 normale fysieke machine. Wil je 8 tot 12 machines gaan draaien, dan moeten deze allemaal gebruik maken van dezelfde fysieke disk. Major major overload en hoewel je meer dan genoeg CPU en memory hebt, gaat heel je systeem bokken op HDD I/O/latency.

Als je dat echt wilt, en je wenst de machines bruikbaar hebben raad ik het heel erg aan om 1 of zelfs 2 SSD's te nemen. Ik heb dit zelf ook in mijn thuis situatie. Ik heb 8x2TB waar enkele test systemen op staan (los, geen RAID, VM per disk) en vervolgens 2 SSD's (vertex2) waar mijn 'productie' VM's op staan.

De HDD's zouden het grootste deel van de tijd uit kunnen, maar helaas support mijn huidige RAID controller dat niet vanuit de bios en ESXi heeft er al helemaal geen support meer voor.

Maar goed, disk I/O word veel vergeten bij VMware configuraties. Maar je hebt niets aan een quad-core + 16GB geheugen als je niet ook een disk subsysteem hebt wat iets voorstelt. Tuurlijk, er zijn speciale zaken waarbij je iets opstart en nooit meer Disk I/O doet, maar over het algemeen werkt het erg slecht.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Inmiddels ben ik met ESXi ook aan het spelen geslagen. Eerst nog een even om mee te spelen hoe het allemaal werkt en om er van te leren. Uiteindelijke doel is dat hij de huidige server gaat vervangen.

Het systeem wat ik nu heb zit nog geen definitieve storage. Ben daar nog niet helemaal wat ik daar mee wil. Of nog een losse bak voor de storage of dat samen met ESXi in 1 systeem.

Heb 2 vragen waar ik niet uit kom.
1.
Nu zit ik met het het volgende, de opslag wil gaan bouwen met een areca kaart een x aantal HDD's. Voor ESXi had ik als idee om iets van een RAID 10 te nemen. Voor opslag een RAID 6 maar kan ik dit volume nou wel of niet rechtstreek aan een VM door geven?
Ik weet dat ik de hele controller door kan geven maar volgens mij gaat dat niet lukken omdat er ook nog een RAID 10 voor ESXi op draait??
Ik weet ook dat je losse disk kan door geven maar dat is het dus ook niet.

2.
De huidige server die ik nu heb bezit heeft ook al functie storage nu zou ik om met ESXi te testen die willen mouten dmv NFS sharing, Probleem is alleen dat ik Windows 2003 x64 draai en ik daar dus de UNIX service niet aan de praat krijg. Het zit er niet standaard in en de UNIX 3.5 die je kan downloaden bij MS wil hij niet installeren omdat het OS niet wordt ondersteunt. Ik zit met het OS tussen wal en schip heb ik het idee. Bij 2003 x86 kun je dus UNIX 3.5 installeren en bij 2003 R2 is het ook mogelijk. Dus hoe krijg ik nou een NFS share?

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

HyperBart schreef op zondag 21 augustus 2011 @ 20:40:
Of nog zoiets: PicoPSU's... Met alle setups die we hier draaien vind ik dat nog een onontgonnen gebied (buiten mux, die is daar specialist in _/-\o_ )
De PicoPSU is zo'n moeilijker te verkopen product, net als SSDs. Toen SSDs nieuw waren hadden mensen zelden door dat de snelheid door de access time kwam, en was iedereen (wat nog steeds gebeurt) vooral naar sequentiële transferspeeds aan het kijken. Pico's net zo. Je moet ze wat meer begrijpen en vertrouwen hebben in de wiskunde erachter om ze te (kunnen) gebruiken. Daarmee bedoel ik:

- Een picopsu is enkel nuttig voor systemen die idle veel minder dan 20% van het vermogen van een kleine 80 plus voeding trekken, en full load minder dan zeg 100W. Momenteel is 300W het laagste dat je kunt krijgen, dus een systeem moet veel minder dan 60W idle trekken om interessant te worden voor picopsu's.
- PicoPSU's zijn enkel nuttig voor systemen die het grootste deel idle lopen. Wat bijna elke computer is, dus no problems here. Maar als je bijvoorbeeld een VM aan het werk zet als low-prio DPC client, is een picopsu niks voor jou.
- Een picopsu an sich is niet hetgene dat de besparing oplevert, dat is het feit dat je een kleinere voeding (de adapter) gebruikt. Voedingen werken alleen efficiënt tussen 20 en 100% belasting, daaronder zijn ze i.h.a. prut. Zelfs de lichtste ATX-voeding is 300W, en de enige lichtere voedingen zijn adapters, die tot minder dan een watt verkrijgbaar zijn. Echter, uit een adapter komt maar één spanning (12 of 19V, in dit geval) terwijl een computer 12, 5 en 3.3V nodig heeft. De picopsu bouwt van de adapterspanning die andere spanningen. Maar de efficiëntieslag wordt dus eigenlijk behaald door de lichte voeding, en niet door de picopsu zelf.
- de besparing is indirect: een picopsu+adapter gaat je in Nederland meer kosten dan een be quiet L7 of een van de andere eerstekeuze zuinige voedingen die in dit soort topics langskomen. De besparing die een pico oplevert is maar tussen de 5 en 10W, dus hij verdient zich meestal niet bijvoorbeeld in een jaar terug.
- Een picoPSU is niet universeel. Hij past weliswaar overal in, maar je kunt er geen videokaart mee poweren of zoiets. Het is dedicated voor dit project en later zul je hem waarschijnlijk niet kunnen hergebruiken voor een niet-server PC.
- Weinig mensen hebben er een liggen om mee te testen
- Je bent beperkt met je +5V lijn, waardoor systemen met een hoop harde schijven moeilijk of niet gebruik kunnen maken van PicoPSU's. Een harde schijf trekt namelijk best een hoge piekstroom bij het aangaan, ook op de 5V-lijn, en dat trekt een pico niet. Mijn devies: met 1 of 2 hdd's hoef je je nooit zorgen te maken, 3 gaat waarschijnlijk nog wel lukken maar vanaf 4 schijven is een pico niet aan te raden. Trouwens, vanaf 4 schijven heeft een picopsu ook niet zoveel zin meer voor het verbruik.

Haken en ogen dus. Elke andere moderne voeding is 350W+ en kan eigenlijk elk denkbare single GPU-systeem zonder problemen voeden (zelfs al denken sommige mensen meer wattjes nodig te hebben). Dat is redelijk foolproof. De beperkingen van een picoPSU komen helaas nou eenmaal voort uit het feit dat ze gemaakt zijn voor low-power computers.

Maar laat deze wall of text je niet afschrikken. Als je in dit topic rondwaart heb je waarschijnlijk niet al te zware hardware in de server zitten en is een pico een goede keuze qua verbruik, en zal hij prima werken. Je kunt dan profiteren van de duidelijke voordelen: fanless, klein, je haalt warmte uit de kast en al dat soort gein. Dan rest alleen nog de prijs. Als iemand eens lekker aan de slag gaat om bijvoorbeeld een goede 80 à 120W adapter en picopsu bij elkaar te zoeken en in enige hoeveelheden op samenkopen kan aanbieden voor minder dan 45 euro, denk ik dat het een no-brainer wordt.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:02
Nelisj schreef op zondag 21 augustus 2011 @ 22:09:
Inmiddels ben ik met ESXi ook aan het spelen geslagen. Eerst nog een even om mee te spelen hoe het allemaal werkt en om er van te leren. Uiteindelijke doel is dat hij de huidige server gaat vervangen.

Het systeem wat ik nu heb zit nog geen definitieve storage. Ben daar nog niet helemaal wat ik daar mee wil. Of nog een losse bak voor de storage of dat samen met ESXi in 1 systeem.

Heb 2 vragen waar ik niet uit kom.
1.
Nu zit ik met het het volgende, de opslag wil gaan bouwen met een areca kaart een x aantal HDD's. Voor ESXi had ik als idee om iets van een RAID 10 te nemen. Voor opslag een RAID 6 maar kan ik dit volume nou wel of niet rechtstreek aan een VM door geven?
Ik weet dat ik de hele controller door kan geven maar volgens mij gaat dat niet lukken omdat er ook nog een RAID 10 voor ESXi op draait??
Ik weet ook dat je losse disk kan door geven maar dat is het dus ook niet.
Een volume doorgeven gaat niet werken denk ik. Zoals je al zegt, het is of de controller doorgeven dmv VT-d, of losse disks doorgeven als RDMs.

Maar waarom zou je twee (dure) poorten van je RAID controller opofferen aan een RAID10 set om ESXi van te booten? Dat kan prima van een USB stickje, er wordt niet tot nauwelijks geschreven.
Of bedoel je dat je een RAID10 datastore wil maken om je VMs op te zetten, dan heb ik niks gezegd :+
2.
De huidige server die ik nu heb bezit heeft ook al functie storage nu zou ik om met ESXi te testen die willen mouten dmv NFS sharing, Probleem is alleen dat ik Windows 2003 x64 draai en ik daar dus de UNIX service niet aan de praat krijg. Het zit er niet standaard in en de UNIX 3.5 die je kan downloaden bij MS wil hij niet installeren omdat het OS niet wordt ondersteunt. Ik zit met het OS tussen wal en schip heb ik het idee. Bij 2003 x86 kun je dus UNIX 3.5 installeren en bij 2003 R2 is het ook mogelijk. Dus hoe krijg ik nou een NFS share?
Ik denk dat je beter eens naar ISCSI kunt kijken.

Acties:
  • 0 Henk 'm!
Met RDM kan je alleen disks doorgeven die direct gezien worden door je ESXi server.

Als jou door ESXi gesupporte controller volumes als losse disks weergeeft gaat het misschien wel werken.
Mijn P410 gaf volgens mij voor elk volume een device door.

Leuke test :) ben wel benieuwd.

Even niets...


Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Maar waarom zou je twee (dure) poorten van je RAID controller opofferen aan een RAID10 set om ESXi van te booten? Dat kan prima van een USB stickje, er wordt niet tot nauwelijks geschreven.
Of bedoel je dat je een RAID10 datastore wil maken om je VMs op te zetten, dan heb ik niks gezegd
Ik bedoelde inderdaad om daar een datastore op te zetten voor de VM's
Ik denk dat je beter eens naar ISCSI kunt kijken.
Daar had ik nog niet aan gedacht. Ga eens kijken of ik dat voor elkaar kan gaan krijgen.
Met RDM kan je alleen disks doorgeven die direct gezien worden door je ESXi server.

Als jou door ESXi gesupporte controller volumes als losse disks weergeeft gaat het misschien wel werken.
Mijn P410 gaf volgens mij voor elk volume een device door.

Leuke test ben wel benieuwd.
Als ik nu kijk naar mijn huidige server waar een Areca kaart in zit zie per RAID set een SCSI Disk Device in Device Manager staan. Op die kaart heb ik 3 RAID sets draaien en ik zie deze dus alle 3 terug in als device in Device Manager. Zou je z'n device toch door kunnen geven aan een VM lijkt mij.

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

Ja, dat kan. RDM is per logical volume.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

DukeBox schreef op zondag 21 augustus 2011 @ 23:20:
Ja, dat kan. RDM is per logical volume.
Waarom een RDM? Wat heeft dat voor voordeel? Performance is het iig niet voor nodig.

Daarnaast zal dat alleen werken als het als een block SCSI device bekend staat, welke RAID controllers niet doorgeven voor zover ik weet.

Dat is de reden dat moederbord poorten, etc. wel werken met RDM's, maar de rest niet. Het enige wat je dan nog kunt doen is via VT-d te werken. Maar dat is alles of niets.

Naar mijn mening hebben RDM's en VT-d voor je storage controller dan ook alleen maar nadelen en alleen voordelen in heel specifieke situaties. Nogmaals, voor performance maakt het weinig tot niets uit. En als je op de volume's wat ruimte over houd (paar honderd GB) kun je er met VM's op draaien en ook snapshots maken, etc.

Maar goed, het ligt helemaal aan je doel van de server, maar als je VMware ESXi hebt, dan moet je er ook gebruik van maken. ;)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!
RDM werkt niet alleen met Block SCSI, dat is alleen als je het via de GUI doet.
Als je via vmkfstools op de commandline werkt, kan je van elk volume een RDM aanmaken.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Nextron schreef op zondag 21 augustus 2011 @ 16:19:
[...]
Kijk nou wat je hebt gedaan... nu heb ik deze besteld:
Ik moet en zal beeld hebben :P Ik laat over een maand wel weten of het werkt.
kan dat niet wat sneller ;) ben benieuwd

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Guys, ik zit een beetje met een vraag... Waar trek je eigenlijk de grens van "zuinig"? Stellen we daar een harde grens op in (let's say 100W ABSOLUUT max) of berekenen we dat met natte vinger werk aan de hand van het aantal harde schijven, insteekkaarten enz...? Om dan ook maar even het probleem omtrent "onder load" of "idle" aan te kaarten...

Graag jullie reactie, want ik wil eigenlijk vermijden dat dit een whitebox topic komt, we kunnen nu een i7 ook niet bepaald "zuinig" noemen...

Acties:
  • 0 Henk 'm!
Zuinig is dat je je best doet om het zo laag 'mogelijk' te krijgen met bepaalde hardware...
Als jij een i7 op 20W idle krijgt, mag je hier in het topic...

Dat je een VIA Epia op 20W krijgt is vrij normaal, niet echt benoemenswaardig...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

HyperBart schreef op maandag 22 augustus 2011 @ 14:13:
Guys, ik zit een beetje met een vraag... Waar trek je eigenlijk de grens van "zuinig"?
en stel je die vraag aan een belg of ollander .. 8)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
FireDrunk schreef op maandag 22 augustus 2011 @ 14:20:
Zuinig is dat je je best doet om het zo laag 'mogelijk' te krijgen met bepaalde hardware...
Als jij een i7 op 20W idle krijgt, mag je hier in het topic...

Dat je een VIA Epia op 20W krijgt is vrij normaal, niet echt benoemenswaardig...
Ik volg je wel, maar met ESXi kan je nu ook niet bepaald veel meer zuinigheid er in tweaken buiten een zuiniger profiel kiezen, dan moet je al voor hardwarematige tweaks gaan eer je watts bespaart...

Plus, als we dan eens gaan vragen aan iedereen: wat heb jij gedaan voor zuinigheid, dan is het bij de meesten, mezelf incluis: "ik heb gelet op een zuinig moederbordje, heb de blog van mux gelezen en ik heb een efficiente voeding gekozen"...

Maar daar ga je natuurlijk een i7 ook niet mee op 20W krijgen...

Acties:
  • 0 Henk 'm!
Het is meer de 'spirit' waarmee je werkt denk ik... Zolang je er maar je best voor doet, is het voor mij genoeg...
Mensen die het verbruik niet boeit horen hier niet denk ik :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op maandag 22 augustus 2011 @ 14:48:
Mensen die het verbruik niet boeit horen hier niet denk ik :)
hokjesgeest.. daar gaan we aan kapot

Acties:
  • 0 Henk 'm!
True, maar je moet ergens een grens trekken wat HyperBart zegt, anders loopt het topic over :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

denk dat, in de geest van dit topic, je moet denken aan max 80W ..

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
OK, ik heb een idee:

60W wordt de grens van een simpel systeem (moederbord, geheugen, cpu/apu, 1 opslagdevice (zijnde SSD of HDD). Die grens wil ik hard maken (tenzij een i5 systeem hier al ruim over gaat, ter discussie, graag reactie). We hebben genoeg referentie-materiaal om mensen hun setup hier aan te toetsen lijkt me zo...

80W wordt de absolute grens van een server in dit topic, zo hebben mensen de ruimte om toch nog een all-in-one te bouwen (NAS + ESXi), toch?

80W is nog acceptabel qua verbruik...

Als er een meerderheid van sterk actieve posters binnen dit topic hiermee akkoord is contacteer ik een modje voor een topicwarning...

[ Voor 7% gewijzigd door HyperBart op 22-08-2011 16:13 ]


Acties:
  • 0 Henk 'm!
Idle of load? :+ anders val ik buiten de boot denk ik :D

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op maandag 22 augustus 2011 @ 16:23:
Idle of load? :+ anders val ik buiten de boot denk ik :D
Idle mag ik hopen, anders zal menig systeem afvallen omdat t tijdens de bootfase de 100W of meer toucheert.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

ga je toch gewoon naar het storage showoff topic ... ik mag hier ook niet meespelen :+

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Nu online

OMX2000

By any means necessary...

Vraag me af wat het zuinigste te maken is qua VM/Nas binnen ESXi. Ik draai nu Ubuntu 11.04 met mdadm, en dat mijn harde schijven niet down spinnen begint me behoorlijk te jeuken. Ook nu ik weet dat mijn server 24x7 draaien me ongeveer 170 euro kost p/j.

Is er een very lightweight Linux/mdadm OS die SMB/NFS/AFP aanbiedt en ik dus mijn huidige raidset in een keer naar kan overzetten? Of moet ik mijn Ubuntu heel erg gaan finetunen?

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!
Waarom kunnen je disks niet downspinnen?
Ubuntu Server is al heel kaal hoor...

[ Voor 32% gewijzigd door FireDrunk op 22-08-2011 17:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
Verwijderd schreef op maandag 22 augustus 2011 @ 16:35:
ga je toch gewoon naar het storage showoff topic ... ik mag hier ook niet meespelen :+
Voor jou hebben we het grote huilie topic :+

heb je trouwens je setup al doorgestuurd of heb ik die gemist? :P

En ja dat is idle...

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Nu online

OMX2000

By any means necessary...

FireDrunk schreef op maandag 22 augustus 2011 @ 17:27:
Waarom kunnen je disks niet downspinnen?
Ubuntu Server is al heel kaal hoor...
Kan het zijn dat de nfs daemon mijn ook via nfs gedeelde schijven de boel weerhoudt van downspinnen?

Ik moet het beter zeggen eigenlijk. Ik heb een nas vm die via nfs de schijven aanbiedt aan een download vm (couchpotato, sickbeard en sabnzbd). Ik vermoed dat die processen constant kijken of er wat verandert is op schijf en dat de disks in de lucht houdt.

Heeft iemand een soortgelijke opstelling qua NAS en download vm?

[ Voor 35% gewijzigd door OMX2000 op 23-08-2011 01:43 ]

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • Appel
  • Registratie: November 2007
  • Laatst online: 21-08 16:07
OMX2000 schreef op dinsdag 23 augustus 2011 @ 01:34:
[...]


Kan het zijn dat de nfs daemon mijn ook via nfs gedeelde schijven de boel weerhoudt van downspinnen?

Ik moet het beter zeggen eigenlijk. Ik heb een nas vm die via nfs de schijven aanbiedt aan een download vm (couchpotato, sickbeard en sabnzbd). Ik vermoed dat die processen constant kijken of er wat verandert is op schijf en dat de disks in de lucht houdt.

Heeft iemand een soortgelijke opstelling qua NAS en download vm?
Ik ben bezig om hetzelfde probleem te onderzoeken. Ik heb er helaas nog niks qua gevonden, maar ik wil nog alle check tijden op gaan hogen naar een uur of zo om te kijken of mijn disks dan wel down-spinnen.

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Nu online

OMX2000

By any means necessary...

HyperBart schreef op maandag 22 augustus 2011 @ 19:38:
[...]

Voor jou hebben we het grote huilie topic :+

heb je trouwens je setup al doorgestuurd of heb ik die gemist? :P

En ja dat is idle...
Heb je de mijn specs binnen? Ennneeeuh waarom staat ik er nog niet tussen? :9

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

FireDrunk schreef op maandag 22 augustus 2011 @ 15:53:
True, maar je moet ergens een grens trekken wat HyperBart zegt, anders loopt het topic over :)
Rly? gaan we mensen buitensluiten? Ik bedoel, het gros van de mensen op Tweakers heeft geen flauw idee van zuinig. Er is maar een handvol mensen, telkens dezelfde, die rondwaart in dit soort topics en daadwerkelijk getallen kan noemen als je het over zuinigheid kan noemen. Ik bedoel, er loopt nu een topic in OC van iemand die denkt met underclocken nog significante verbruikswinst op z'n computer te halen. En dan hebben we het over zo'n typische gamercomputer met veel te zware voeding, vorige-generatie videokaart met dito idleverbruik en een overclockersmoederbord.

Ik denk dat we eerst met z'n allen zoveel mogelijk mensen een idee moeten geven van de concepten die spelen bij energieverbruik, en pas als dit werkelijk hardlopende topics worden moeten we topics gaan uitsplitsen en mensen bij de deur tegenhouden.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:02
Ik lees eigenlijk alleen maar mee in dit topic (ook al omdat ik geen ESXi meer draai momenteel), maar ik deed dat vooral om ideeën op te doen.

Daarom denk ik juist dat je geen mensen zou moeten buitensluiten, zelfs als iemand een 'niet zuinig' systeem hier post, komen daar vast weer wel reacties op hoe het allemaal een stukje zuiniger zou kunnen.
En dat is dan juist weer leerzaam voor mensen zoals ik, dus heeft ook zo'n post wel waarde binnen het topic lijkt me.

Just my two cents :)

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Nu online

OMX2000

By any means necessary...

Weet iemand een tool of commandline command om te zien welk proces een device bezig houdt. Ik weet dat powertop dit doet, maar dan moet ik een uur naar een scherm staren om te zien welk proces mijn raid set bezig houdt.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Ik heb vanochtend mijn hardware besteld. Levertijd is ongeveer 3 werkdagen. Daarna zal ik gaan spelen met VMDirectPath en Mediacenter in een VM op ESXi :) Results schrijf ik wel een blogje over.

Ben het wel eens met Sleepie. Posts van mensen die niet een zuinige server hebben maar hier wel naar toe willen hebben natuurlijk wel meerwaarde.

[ Voor 27% gewijzigd door NetXtreme op 23-08-2011 10:02 . Reden: Reactie op sleepie toegevoegd ]


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Verwijderd schreef op maandag 22 augustus 2011 @ 12:29:
kan dat niet wat sneller ;) ben benieuwd
QFT. Alleen staat China Post niet bekend om zijn snelheid.
NetXtreme schreef op dinsdag 23 augustus 2011 @ 09:55:
Daarna zal ik gaan spelen met VMDirectPath en Mediacenter in een VM op ESXi :) Results schrijf ik wel een blogje over.
Nog meer waar in benieuwd naar ben. Begin het testen van die VM wel met minder dan 2816MB ram om extra problemen te voorkomen.


Over de zuinigheid: Wanneer je bijvoorbeeld 4 systemen consolideert naar ESXi op een LGA1155 die voorheen op 4 Pentium 4's draaiden ben je natuurlijk al goed zuinig bezig :+.

[ Voor 12% gewijzigd door Nextron op 23-08-2011 10:09 ]

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Nextron schreef op dinsdag 23 augustus 2011 @ 10:06:
[...]
QFT. Alleen staat China Post niet bekend om zijn snelheid.


[...]
Nog meer waar in benieuwd naar ben. Begin het testen van die VM wel met minder dan 2816MB ram om extra problemen te voorkomen.
Yep, daar had ik al de nodige issues over gelezen. Ik zal mijn mediacenter VM toch niet meer als 1 GB ram gaan geven denk ik. Heeft ie toch geen baad bij.

Verder werd mij gevraagd om een energiemeting te doen van het verbruik van mijn server als ie klaar is. Kan iemand een suggestie doen voor een meter of heeft iemand één te leen in de buurt van Groningen?

[ Voor 17% gewijzigd door NetXtreme op 23-08-2011 10:30 ]


Acties:
  • 0 Henk 'm!
mux schreef op dinsdag 23 augustus 2011 @ 09:09:
[...]


Rly? gaan we mensen buitensluiten? Ik bedoel, het gros van de mensen op Tweakers heeft geen flauw idee van zuinig. Er is maar een handvol mensen, telkens dezelfde, die rondwaart in dit soort topics en daadwerkelijk getallen kan noemen als je het over zuinigheid kan noemen. Ik bedoel, er loopt nu een topic in OC van iemand die denkt met underclocken nog significante verbruikswinst op z'n computer te halen. En dan hebben we het over zo'n typische gamercomputer met veel te zware voeding, vorige-generatie videokaart met dito idleverbruik en een overclockersmoederbord.

Ik denk dat we eerst met z'n allen zoveel mogelijk mensen een idee moeten geven van de concepten die spelen bij energieverbruik, en pas als dit werkelijk hardlopende topics worden moeten we topics gaan uitsplitsen en mensen bij de deur tegenhouden.
Je hebt helemaal gelijk, het is beter om meer mensen in het topic te hebben die ideeen opdoen, dan alleen maar die-hards te hebben. I retract my point of view :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
Iemand toevallig een idee wanneer Vsphere 5 wordt gereleased? Ik las veel geruchten over de 22e, maar dat is inmiddels al geweest :)

Acties:
  • 0 Henk 'm!
Ik verwacht heel eerlijk gezegd dat het nog wel een maand gaat duren... (niet echt based on hard facts, meer gut-feeling)

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 08:13
FireDrunk schreef op zaterdag 20 augustus 2011 @ 13:03:
Post eens een stappenplan hoe je die VM opbouwt, misschien zien we iets wat niet goed gaat ;)

EDIT:
WTF, ArchLinux??? Als je een kapotte distro wil hebben moet je die pakken :)
Als je iets stabiels wilt, neem dan CentOS, dat is tenminste een afgeleide van een echt OS ipv een meta-distro...
Ik ben maar weer aan de slag gegaan met Ubuntu 11.04, installatieproces doorlopen (hij vraagt me "tik deze keys in om je toetsenbordlayout te detecteren"), eerste wat ik moet intikken is "+" (shift en + indrukken dus) en dan detecteert hij "be", ik denk nou mooi... Ga ik verder moet ik mijn username intikken: "Bqrt", gvd nu neemt dat ding nog altijd niet mijn keyboard fatsoenlijk mee...

I'll keep you posted wat ik nog allemaal doe voor de installatie, voor de rest alles pretty basic, Ubuntu de indeling laten doen op 100GB, niks bijzonders...

Grub de MBR laten doen, timezone op brussel, fysieke locatie europe en brussels

Taal laat ik voorlopig maar staan om fuckups te vermijden, nu een sudo apt-get install openssh-server

verder werken via Putty:

sudo apt-get update en upgrade

snapshot genomen :)

offtopic:
fuuuuu, onweert het bij jullie ook zo?

[ Voor 12% gewijzigd door HyperBart op 23-08-2011 13:29 ]


Acties:
  • 0 Henk 'm!
apt-get dist-upgrade :)

Even niets...

Pagina: 1 ... 10 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.