• iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08 23:05
HyperBart schreef op zondag 07 augustus 2011 @ 23:33:
[...]

Je softraid gaat in ieder geval niet beperkt worden door het gebruik met RDM... En een i5 is ook al genoeg hoor, je hoeft geen kachel van een i7 neer te zetten om VT-D te doen...

Ik snap dit stukje ook niet:

[...]

Softraid kan je op twee manieren: via een VM of via een "mottig kaartje" dat eigenlijk niet meer is dan een HBA en waarbij de CPU toch nog gebruikt wordt voor RAID
OF
je gebruikt idd VT-D om een RAID-controller door te geven aan een VM...

http://www.virtualization...-for-performance-but.html

Zoals het er daar in staat bij de titel lijkt het alsof je best geen RDM gebruikt, maar hun gebruikte argumenten zijn bij ons niet van toepassing, ik quote:


[...]


Grof genomen (en dat is dan heel grof) verlies je MOGELIJK, afhankelijk van de situatie en manier van data wegschrijven of lezen maximaal 10% als je VMFS gebruikt ipv RDM...

Redenen om RDM niet te gebruiken...

[...]


Zowieso is een RAID-kaartje met eigen pariteitsberekening beter dan de RAID calculaties offloaden naar je CPU (ongeacht of die RAID in een VM wordt aangemaakt of in een fysieke machine).

Het probleem in mijn ogen is dat als je data gaat wegschrijven met een VM naar de RAID aangemaakt binnen een andere VM dat CPU-usage omhoog gaat (ik weet niet in welke mate), ik hoop dan dat er genoeg over schiet voor de andere VM's, maar dat is dan weer netjes te regelen met resource pools...

Mijn idee als je echt geen risico wilt lopen (zwaar overkill imho in een thuissituatie)? RAID-kaartje erin (ja ja, ik weet het, das duur) en dan heb je twee mogelijkheden:
volume aanmaken van 16TB of whatever je wil...
Dat volume als datastore gebruiken voor een VM die het via whatever protocol floats your boat aanbiedt aan je client...
OF
de RAID-kaart via VT-D doormappen naar je VM zodat je alle functies hebt van de kaart nog hebt en dan op dat niveau je RAID presenteren...

Wil je dat niet? Dan zal het RDM zijn met een softraid en volgens mij ben je dan nog altijd bloedsnel uit...

Bedenk ook dat een CPU bijna NOOIT de bottleneck is in een ESXi... Trouwens... een i5 met 4 cores, CPU-power zat lijkt me zo... een i3 krijg ik hier al niet echt "vol", maar ik moet wel zeggen dat mijn VM's alleen spike loads hebben (en dan nog is het er maar ééntje, mijn downloadbak voor unparren/rarren)
Nu ik deze post twee of drie doorlees begint het wel door te dringen dat ik weinig 'echt' van esxi begrijp. Maar de conclusie is wel duidelijk: softraid met rdm kan prima performance opleveren mits spike loads van andere vms niet in de weg zitten.

Het verschil tussen softraid en hardware raid en dat je hier beschrijft is erg duidelijk:

"Softraid kan je op twee manieren: via een VM of via een "mottig kaartje" dat eigenlijk niet meer is dan een HBA en waarbij de CPU toch nog gebruikt wordt voor RAID
OF
je gebruikt idd VT-D om een RAID-controller door te geven aan een VM.
.."

Chill.

Als je kijkt naar zer0's setup dan lijkt me dat super interessant. ZFS pool met open-indianna en 450Mbps _/-\o_. Haal ik die 450 Mbps ook met een Core i5 2400? Hij heeft dacht ik een Intel Xeon e3-1230 en server mobo in z'n setup staan.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Die is langzamer dan een i5-2400... Alleen kan die weer met ECC overweg...
En met MDADM haal je die snelheden ook wel hoor :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
Ik ben een beetje aan het rondkijken voor een aantal upgrades die ik wil gaan doen, waarbij ik een aantal stukjes hardware in de toekomst wil gaan gebruiken voor een server. Het draaien van esxi leek me hier bij uitstek voor geschikt, niet alleen omdat het in bepaalde gevallen handig/vereist is verschillende OSsen te draaien, maar ook gewoon omdat het kan.

Het lukt me echter niet om in de gewenste configuratie (die ik eerst wil gebruiken als main pc) vt-d te herbergen. Zeer waarschijnlijk haal ik binnenkort een i5 2500K in huis met z68 mini-ITX mobo. Mini-ITX is een vereiste en het enige moederbord dat vt-d ondersteund (Q67 chipset) heeft geen mogelijkheid tot onder- (danwel over-)klokken en/of volten. Voor servergebruik is die 2500 behoorlijk overkill en ondervolten biedt in dat geval wat extra en zeer welkome zuinigheid. Dan liever een moederbord wat iets meer kan, vandaar z68. Overvloed aan mini-itx is er echter niet echt en wat betreft z68 valt er vrijwel niets te kiezen. Er komt een asrock bord aan wat 'm waarschijnlijk gaat worden. Kans is dat die ondersteuning heeft voor vt-d, maar ik reken er niet op.

Nu vroeg ik me af, hoe erg heb ik vt-d nodig? Initieel dacht ik een esxi server meteen als nas te gebruiken, maar dat idee is nu overboord. Wat ik alleen nog wel wil in de toekomst is het gebruik van een tv-kaart/tuner waardoor ik o.a. via xbmc tv kan kijken. Is dit binnen een esxi server ook te realiseren zonder vt-d?

Inmiddels is vrijwel alles wat ik binnen een server wil als het goed is te doen via een enkele ubuntu server. Maar het zou toch leuk zijn als esxi ook mogelijk is met wat ik wil. Dus, kan dit?

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 01:55

OMX2000

By any means necessary...

Ik heb deze week dus kortsluiting in mijn voeding gehad, en gelukkig is mijn raid 5 array nog intact. Maar ik weet niet met zekerheid of mijn vms die op een SSD staan ook intact zijn. De vms staan op een ESXi datastore... Dus als iemand weet hoe je een esxi datastore kunt fsck-en..

Maar wat ik eigenlijk dus wilde weten is of hier iemand een UPS aan zijn ESXi bak heeft hangen, en hoe krijg je het voor elkaar om je systeem netjes af te sluiten als het stroom uitvalt. Ik heb al naar de APC Back UPS ES 700 gekeken, maar ik weet niet of ik daar wat mee kan. Ik heb en i3 540 dus geen VT-D, dus ik weet niet of ik dan in de vms een "stroomuitval signaal" kan opvangen.

Verder zie ik dat ik nu met een Be Quiet 300 voeding ik tussen de 50-55 Watt "idle" verbruik. Ik weet niet of dat een beetje normaal is voor een i3 540, 16GB Ram, 1x 96GB SSD, 4x 2TB Samsungs, en 1 Intel CT Nic.

Ik mis in deze topic ook een beetje de concrete tips voor van systemen die een NAS VM gebruiken, en wat dan te doen om de boel zuiniger te maken. Dus afgezien van de powermanagement instelling van ESXi, die bij mij niet al teveel uithaalt.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Morphix schreef op vrijdag 12 augustus 2011 @ 11:47:
Wat ik alleen nog wel wil in de toekomst is het gebruik van een tv-kaart/tuner waardoor ik o.a. via xbmc tv kan kijken. Is dit binnen een esxi server ook te realiseren zonder vt-d?
Nee, en zelfs met vt-d is er geen 100% garantie dat het werkt en erg afhankelijk van de tv-kaart/tuner en de software.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

iBurger schreef op donderdag 11 augustus 2011 @ 13:07:
[...]
Als je kijkt naar zer0's setup dan lijkt me dat super interessant. ZFS pool met open-indianna en 450Mbps _/-\o_. Haal ik die 450 Mbps ook met een Core i5 2400? Hij heeft dacht ik een Intel Xeon e3-1230 en server mobo in z'n setup staan.
Dat moet geen probleem zijn, de i5 heeft alleen wat minder threads maar wel een iets hoger snelheid, en mijn nas-vm heeft maar 1 core ter beschikking.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Morphix schreef op vrijdag 12 augustus 2011 @ 11:47:
Ik ben een beetje aan het rondkijken voor een aantal upgrades die ik wil gaan doen, waarbij ik een aantal stukjes hardware in de toekomst wil gaan gebruiken voor een server. Het draaien van esxi leek me hier bij uitstek voor geschikt, niet alleen omdat het in bepaalde gevallen handig/vereist is verschillende OSsen te draaien, maar ook gewoon omdat het kan.

Het lukt me echter niet om in de gewenste configuratie (die ik eerst wil gebruiken als main pc) vt-d te herbergen. Zeer waarschijnlijk haal ik binnenkort een i5 2500K in huis met z68 mini-ITX mobo. Mini-ITX is een vereiste en het enige moederbord dat vt-d ondersteund (Q67 chipset) heeft geen mogelijkheid tot onder- (danwel over-)klokken en/of volten. Voor servergebruik is die 2500 behoorlijk overkill en ondervolten biedt in dat geval wat extra en zeer welkome zuinigheid. Dan liever een moederbord wat iets meer kan, vandaar z68. Overvloed aan mini-itx is er echter niet echt en wat betreft z68 valt er vrijwel niets te kiezen. Er komt een asrock bord aan wat 'm waarschijnlijk gaat worden. Kans is dat die ondersteuning heeft voor vt-d, maar ik reken er niet op.

Nu vroeg ik me af, hoe erg heb ik vt-d nodig? Initieel dacht ik een esxi server meteen als nas te gebruiken, maar dat idee is nu overboord. Wat ik alleen nog wel wil in de toekomst is het gebruik van een tv-kaart/tuner waardoor ik o.a. via xbmc tv kan kijken. Is dit binnen een esxi server ook te realiseren zonder vt-d?

Inmiddels is vrijwel alles wat ik binnen een server wil als het goed is te doen via een enkele ubuntu server. Maar het zou toch leuk zijn als esxi ook mogelijk is met wat ik wil. Dus, kan dit?
Undervolting/underclocking op Sandy Bridge is praktisch overbodig, de idle standen van die CPU's zijn echt al super goed. Je wint er nog geen procent mee.

Daardoor is een Z68 chipset helemaal niet nodig, en kan je met een Q67 prima toe...

Even niets...


Acties:
  • 0 Henk 'm!

  • tweakict
  • Registratie: Februari 2010
  • Laatst online: 09-09 10:14
Ook ik ben aan het rond kijken voor een ESXi home server. Op dit moment heb ik de volgende hardware voor filesharing/downloading:

- Chenbro ES34069 mITX
- Jetway NC62K mITX, 1 x DDR2, 4 x SATA300
- Kingston 2GB PC6400 DDR2
- 4 x Samsung 1TB SATA300
- Dell Perc 5i RAID

Echter zou ik graag overstappen naar ESXi, kan ik elk gewenst mITX moederbord aanschaffen icm de Dell PERC raid kaart? ik neem aan dat ik minimaal pci-e 2.0 8x moet hebben?

Edit: Zou bijvoorbeeld de Biostar TH61 ITX schikken of dient ik perse een hogere chiptset als de H61 nodig hebben?


@ Firedrunk, een pci-e slot van minimaal 8x zou voldoende zijn?
Is er inmiddels al een mitx bord waarbij de onboard nic direct wordt ondersteund of is het aanpassen van die driver echt zo makkelijk?

Een Intel Core i3-2100 en het interne DDR3 geheugen is al aanwezig vanuit mijn oude pc.

[ Voor 47% gewijzigd door tweakict op 12-08-2011 14:57 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
PCIe 2.0 of 1.0 maakt niet zoveel uit, zolang het fysiek maar een x8 slot is.
Voor 4 disks kan je ook prima Software RAID gebruiken...
Alleen is dat onder ESXi iets moeilijker te realiseren...

[ Voor 12% gewijzigd door FireDrunk op 12-08-2011 14:48 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
Dank voor de antwoorden. Stel, ik laat de tv-tuner achterwege en NAS los ik ook buiten de server om op, in hoeverre heb ik dan baat bij vt-d? Disk performance ga ik amper/niet nodig hebben.

In eerste instantie zou ik zeggen dat ik beter wel voor vt-d kan kiezen dan niet, beter teveel, dan te weinig, nietwaar? Maar als ik er nu en in de toekomst niet echt veel aan ga hebben, kan ik het net zo goed achterwege laten.
Is er naast externe hardware als een raid kaart of genoemde tv tuner, etc. noemenswaardig voordeel aan het beschikken over vt-d?
FireDrunk schreef op vrijdag 12 augustus 2011 @ 14:14:
[...]


Undervolting/underclocking op Sandy Bridge is praktisch overbodig, de idle standen van die CPU's zijn echt al super goed. Je wint er nog geen procent mee.

Daardoor is een Z68 chipset helemaal niet nodig, en kan je met een Q67 prima toe...
Ah, ik had verwacht het verbruik met undervolten toch nog wel enigszins vermindert kon worden. Desalniettemin, Z68 heeft wel een aantal features die voor de desktop (waar ik de hardware eerst voor ga gebruiken) wel interessant zijn, alsook het overklokken wat met 2500k goed mogelijk is.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Morphix schreef op vrijdag 12 augustus 2011 @ 15:25:
Dank voor de antwoorden. Stel, ik laat de tv-tuner achterwege en NAS los ik ook buiten de server om op, in hoeverre heb ik dan baat bij vt-d? Disk performance ga ik amper/niet nodig hebben.

In eerste instantie zou ik zeggen dat ik beter wel voor vt-d kan kiezen dan niet, beter teveel, dan te weinig, nietwaar? Maar als ik er nu en in de toekomst niet echt veel aan ga hebben, kan ik het net zo goed achterwege laten.
Is er naast externe hardware als een raid kaart of genoemde tv tuner, etc. noemenswaardig voordeel aan het beschikken over vt-d?
Nee.
Ah, ik had verwacht het verbruik met undervolten toch nog wel enigszins vermindert kon worden. Desalniettemin, Z68 heeft wel een aantal features die voor de desktop (waar ik de hardware eerst voor ga gebruiken) wel interessant zijn, alsook het overklokken wat met 2500k goed mogelijk is.
Welke features heeft een Z68 bord welke een Q67 niet heeft?

Even niets...


Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
SSD caching. Switchen geintegreerde gpu / discrete gpu. Ik ga er waarschijnlijk niet echt veel aan hebben, maar er gewoon een stuk minder limiet op de beschikbare instelmogelijkheden.

Overigens weet ik niet of dit geldt voor de DQ67EP, maar ik ga af op de reviews van de H67 equivalenten (en aangezien q67 niet echt gericht is op enthusiasts kan je er van uit gaan dat het niet veel beter dan de h67 gaat zijn). Het komt neer op ofwel de 2500k + z68 met meer functies en instelmogelijkheden of 2500 + q67 met vt-d. Beiden zijn in principe niet per se nodig, maar het is de vraag welke van de twee het minst nodig is // waar ik het meest plezier aan ga beleven :)

[ Voor 10% gewijzigd door Morphix op 12-08-2011 15:41 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Beide windows only features volgens mij...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Ik dacht dat die SSD caching via een ingebouwde chip ging op het mobo...

Ten minste, las hier de SSD caching bedoeld wordt zoals ik 'm in mijn hoofd heb (als in: via een chip worden vaak geaccess'de blocks verplaatst naar de SSD)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Mjah, maar de driver is CPU based, net als dat de Intel RAID controller is... En dat lijkt me Windows only :)
Maar zeker weten doe ik het niet...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Ah, ok, dat wist ik niet, in dat geval...

Nu ja, losstaand van het moederbord zit er wel weer een leuke feature in de 5 met betrekking tot RAM en SSD-gebruik...

Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
FireDrunk schreef op vrijdag 12 augustus 2011 @ 15:49:
Beide windows only features volgens mij...
Wat ook meteen het OS is dat ik de komende tijd op mijn desktop ga draaien ;) Features van Z68 zijn dan ook enkel interessant voor wat ik er met de desktop mee wil gaan doen (afgezien van het evt. onderklokken, maar dat gaat dus neit echt helpen blijkbaar)

[ Voor 27% gewijzigd door Morphix op 12-08-2011 16:00 ]


Acties:
  • 0 Henk 'm!

  • Tomatoman
  • Registratie: November 2000
  • Laatst online: 14-09 16:56

Tomatoman

Fulltime prutser

Mijne heren specialisten, bij toeval liep ik tegen dit topic aan. Ik heb al het een en ander op de VMware website doorgespit, maar aangezien ik niet eerder met dit soort producten heb gewerkt vind ik het lastig om de juiste informatie te vinden. Eerst maar even mijn situatie schetsen.

Doel
Ik wil in mijn thuisnetwerk een server inrichten die fungeert als centrale fileserver met backupfunctionaliteit. Later kan daar mogelijk andere functionaliteit bijkomen, waarbij ik in eerste instantie denk aan een mailserver.

Harde waren
Om weer even vooruit te kunnen heb ik op Marktplaats onlangs een serieuze rackserver gekocht: een HP ML350 G5 met twee Xeon E5205 processors (met VT-x), 6 high-end SAS-disks, redundante voeding, een stuk of 8 netwerkaansluitingen en nog wat meer. Forse overkill voor een thuisservertje dus, maar mijn 19” rack kan niet eeuwig leeg blijven :P

Het rack staat in een afgesloten ruimte, dus beheer van de server zal (bijna) uitsluitend via het netwerk moeten gebeuren.

Zachte waren
Om de kosten beperkt te houden en omdat ik geen systeembeheerder ben (of wens te zijn), ga ik er in eerste instantie Windows Home Server 2011 op zetten. De installatiedisk met de licentie is een paar dagen geleden door de postbode afgeleverd.

Bij het booten zie ik dat er VMware ESXi server op heeft gestaan, maar zodra hij naar een of ander iSCSI device zoekt, blijft hij tot sint juttemis zoeken zonder dat er verder nog wat gebeurt. Met de vorige eigenaar heb ik afgesproken dat ik de disks leeg zal maken. De verkoper was de eigenaar van het bedrijf en weet inhoudelijk niets van de server die hij verkocht, hij kan mij dus niet verder helpen. Het bedrijf is inmiddels opgedoekt, vandaar dat de server werd aangeboden - waarschijnlijk wist de eigenaar dus ook onvoldoende van de aandelenhandel waarbij de server werd ingezet :+

Vragen
[list=1]
• Aangezien de server uit een serieuze business-omgeving komt, verwacht ik dat eventuele VMware licenties op de server nog aanwezig zijn. Kan/moet ik hier nog iets redden in de vorm van license files of iets dergelijks, voordat ik gewoon de hele disk array leegmaak voor een clean install?

• Dit is het juiste moment om te besluiten of ik ga virtualiseren, of simpelweg Windows Home Server ga installeren zonder vitualisatielaag eronder. Ik zie virtualisatie op dit moment alleen als een handige tool voor toekomstige extra functionaliteit, maar ben niet van plan dure licenties aan te schaffen. VMware vSphere Hypervisor lijkt een interessante uitvoering, omdat het gratis is. Wat is wijsheid? ESXi server als ik legaal de bestaande licenties kan redden, of vSphere Hypervisor, of helemaal niets?

Een goede grap mag vrienden kosten.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Morphix schreef op vrijdag 12 augustus 2011 @ 15:58:
[...]


Wat ook meteen het OS is dat ik de komende tijd op mijn desktop ga draaien ;) Features van Z68 zijn dan ook enkel interessant voor wat ik er met de desktop mee wil gaan doen (afgezien van het evt. onderklokken, maar dat gaat dus neit echt helpen blijkbaar)
Wat wil je nou maken, een NAS of een desktop? :+
tomatoman schreef op vrijdag 12 augustus 2011 @ 16:06:
Mijne heren specialisten, bij toeval liep ik tegen dit topic aan. Ik heb al het een en ander op de VMware website doorgespit, maar aangezien ik niet eerder met dit soort producten heb gewerkt vind ik het lastig om de juiste informatie te vinden. Eerst maar even mijn situatie schetsen.

Doel
Ik wil in mijn thuisnetwerk een server inrichten die fungeert als centrale fileserver met backupfunctionaliteit. Later kan daar mogelijk andere functionaliteit bijkomen, waarbij ik in eerste instantie denk aan een mailserver.
Fileserver en Backupserver in 1... Je bedoelt dat hij de backups gaat bewaren of gaat transporteren naar een ander medium, want je files en de backups van de files op 1 server is natuurlijk niet handig...
Harde waren
Om weer even vooruit te kunnen heb ik op Marktplaats onlangs een serieuze rackserver gekocht: een HP ML350 G5 met twee Xeon E5205 processors (met VT-x), 6 high-end SAS-disks, redundante voeding, een stuk of 8 netwerkaansluitingen en nog wat meer. Forse overkill voor een thuisservertje dus, maar mijn 19” rack kan niet eeuwig leeg blijven :P

Het rack staat in een afgesloten ruimte, dus beheer van de server zal (bijna) uitsluitend via het netwerk moeten gebeuren.
Er zit iLO op die bak, daarmee kan je een hoop remote doen (in het geval van problemen).
Zachte waren
Om de kosten beperkt te houden en omdat ik geen systeembeheerder ben (of wens te zijn), ga ik er in eerste instantie Windows Home Server 2011 op zetten. De installatiedisk met de licentie is een paar dagen geleden door de postbode afgeleverd.
Leuk, maar ik hoop dat alles werkt, een G5 is nou niet echt iets om WHS op te draaien... Ik zou liever iets met linux doen, dat werkt veel beter op zo'n bak... En hoef je niet bang te zijn dat drivers niet werken enzo...
Bij het booten zie ik dat er VMware ESXi server op heeft gestaan, maar zodra hij naar een of ander iSCSI device zoekt, blijft hij tot sint juttemis zoeken zonder dat er verder nog wat gebeurt. Met de vorige eigenaar heb ik afgesproken dat ik de disks leeg zal maken. De verkoper was de eigenaar van het bedrijf en weet inhoudelijk niets van de server die hij verkocht, hij kan mij dus niet verder helpen. Het bedrijf is inmiddels opgedoekt, vandaar dat de server werd aangeboden - waarschijnlijk wist de eigenaar dus ook onvoldoende van de aandelenhandel waarbij de server werd ingezet :+

Vragen
[list=1]
• Aangezien de server uit een serieuze business-omgeving komt, verwacht ik dat eventuele VMware licenties op de server nog aanwezig zijn. Kan/moet ik hier nog iets redden in de vorm van license files of iets dergelijks, voordat ik gewoon de hele disk array leegmaak voor een clean install?
Ja er staat vast nog een licentie op, of dat een betaalde of een gratis versie is weet je nooit.
Wil je hem er voor jezelf afhalen? Dan is het misschien leuk, maar diefstal.
Voor de vorige eigenaar hoef je het in ieder geval niet te doen, die licentie zit altijd in zijn/haar vmware portal.

[quote]
• Dit is het juiste moment om te besluiten of ik ga virtualiseren, of simpelweg Windows Home Server ga installeren zonder vitualisatielaag eronder. Ik zie virtualisatie op dit moment alleen als een handige tool voor toekomstige extra functionaliteit, maar ben niet van plan dure licenties aan te schaffen. VMware vSphere Hypervisor lijkt een interessante uitvoering, omdat het gratis is. Wat is wijsheid? ESXi server als ik legaal de bestaande licenties kan redden, of vSphere Hypervisor, of helemaal niets?


WHS kan je ook prima virtueel draaien, en voor ESXi is een gratis licentie beschikbaar...
ESXi met 1 VM waarin je WHS draait is natuurlijk overdreven, dan kan je beter WHS direct op de hardware installeren. Als het je niet trekt om 'systeembeheerder' te zijn, en dus niet graag 'speelt' met OS-en en software, dan is ESXi denk ik niets voor jou.

[ Voor 82% gewijzigd door FireDrunk op 12-08-2011 16:29 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
FireDrunk schreef op vrijdag 12 augustus 2011 @ 16:22:
[...]


Wat wil je nou maken, een NAS of een desktop? :+
Nas komt in oude systeem. Upgrade wordt desktop die ik later wil gaan gebruiken voor server, wellicht tegen die tijd gecombineerd met nas. Waarbij ik, realiseer ik me nu, dan wel degelijk vt-d nodig heb. Dat maakt de keuze misschien een stuk makkelijk :) Hoe zit het precies met de passthrough van HDD's? Moet ik dan de sata controllers (mobo heeft geloof ik maar 4 sata aansluitingen standaard, zou dus een extra kaartje worden) doorgeven of kan ik gewoon een zootje HDD's aanwijzen?

En ik begreep dat je vm's met passthrough hardware niet kunt uitzetten (althans, suspenden, betekent dat alleen standby)nvm, gaat alleen om slaapstand(?), klopt dat?

[ Voor 5% gewijzigd door Morphix op 12-08-2011 16:50 ]


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Morphix schreef op vrijdag 12 augustus 2011 @ 16:47:
Moet ik dan de sata controllers (mobo heeft geloof ik maar 4 sata aansluitingen standaard, zou dus een extra kaartje worden) doorgeven of kan ik gewoon een zootje HDD's aanwijzen?
Met PCI-passthrough kun je alleen de hele controller aan een vm geven (en hier is vt-d voor nodig)
Met Raw Device Mapping kun je losse disks aan een vm geven (en hier is geen vt-d voor nodig)
En ik begreep dat je vm's met passthrough hardware niet kunt uitzetten (althans, suspenden, betekent dat alleen standby)nvm, gaat alleen om slaapstand(?), klopt dat?
Uitzetten of suspenden is geen probleem afaik, je kunt alleen geen snapshots maken (en dus ook geen (ghetto)VCB backups). Slaapstand kent vmware niet, en dat moet je ook niet willen voor een vm.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Je wil een server gecombineerd met een NAS, en je roept gelijk dat je daarvoor VT-d nodig hebt...
Dat is natuurlijk niet waar... 1 VM met een disk die over het netwerk geshared word is ook al een NAS...

Bedenk wat je precies voor functionaliteiten wil voor de server en voor de NAS, bedenk daarna of deze persé in 1 box moeten (vanwege stroombesparing of iets dergelijks) of dat ze gescheiden moeten/kunnen.

Maak daarna een lijstje met basis hardware die je nodig hebt om te realiseren wat je nodig hebt.
Bedenk daarna op welke manier je alles aan elkaar wil knopen...

Even niets...


Acties:
  • 0 Henk 'm!

  • Tomatoman
  • Registratie: November 2000
  • Laatst online: 14-09 16:56

Tomatoman

Fulltime prutser

FireDrunk schreef op vrijdag 12 augustus 2011 @ 16:22:
[...]
Fileserver en Backupserver in 1... Je bedoelt dat hij de backups gaat bewaren of gaat transporteren naar een ander medium, want je files en de backups van de files op 1 server is natuurlijk niet handig...
Fileserver (met backups van belangrijke data op LTO2 tapes) en backup-server voor de overige computers in huis. Ik snap dat je bij brand of diefstal weinig aan de veiligheid van RAID-5 hebt :)
Er zit iLO op die bak, daarmee kan je een hoop remote doen (in het geval van problemen).
Ik weet dat het erop zit, maar ik heb er nog niet mee gespeeld.
Leuk, maar ik hoop dat alles werkt, een G5 is nou niet echt iets om WHS op te draaien... Ik zou liever iets met linux doen, dat werkt veel beter op zo'n bak... En hoef je niet bang te zijn dat drivers niet werken enzo...
WHS 2011 is gebouwd op de fundamenten van WinSrv 2008 R2 en deelt daarmee ook zijn drivers en kernel. Dat gaat dus wel goed komen. Ik heb nog even gedacht over SBS, maar dat is mij te duur voor thuis.
Ja er staat vast nog een licentie op, of dat een betaalde of een gratis versie is weet je nooit.
Wil je hem er voor jezelf afhalen? Dan is het misschien leuk, maar diefstal.
Voor de vorige eigenaar hoef je het in ieder geval niet te doen, die licentie zit altijd in zijn/haar vmware portal.
Dus een licentie is persoons- of eigenaargeboden en niet pc-gebonden? Dan heb ik er inderdaad niets aan :/
WHS kan je ook prima virtueel draaien, en voor ESXi is een gratis licentie beschikbaar...
Dat is vaag, op de website van VMware wordt wel aangegeven dat "VMware vSphere Hypervisor™ (ESXi)" gratis te downloaden is, maar op de pagina's over "VMware ESXi" wordt daar met geen woord over gerept. Ik vind het allemaal nogal verwarrend en kan niet vinden in hoeverre het twee verschillende producten betreft. :?
ESXi met 1 VM waarin je WHS draait is natuurlijk overdreven, dan kan je beter WHS direct op de hardware installeren. Als het je niet trekt om 'systeembeheerder' te zijn, en dus niet graag 'speelt' met OS-en en software, dan is ESXi denk ik niets voor jou.
Een paar jaar geleden heb ik diverse VM's ingericht met Microsoft Virtual PC, om daar eens mee te experimenteren en wat zelfgeschreven software op verschillende Windows-platforms te testen. Daar ben ik toen snel weer mee gestopt, omdat Virtual PC niet vooruit te branden was.

Wat ik bedoelde te zeggen is dat ik er geen enkel probleem mee heb om met software en hardware te experimenteren, maar ik zie het niet zitten noodgedwongen om een paar uur per week te besteden aan systeembeheer. Als het een beperkte inspanning kost om ESXi te installeren vind ik dat een leuk experiment, maar ik wil zometeen wel een fileserver-omgeving hebben die niet permanent under construction blijkt te zijn vanwege een lakse systeembeheerder :P. Mijn dilemma is dat ik nu niet kan inschatten wat ik me op mijn hals haal.

Een goede grap mag vrienden kosten.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
ESXi installeren is maar een beperkte inspanning, zeker met jouw hardware... En met die hardware (hoeveel geheugen trouwens?) kan je lekker een aantal VM's zonder problemen en met alle ondersteuning van ESXi draaien...

Eens ESXi geinstalleerd is heb je het alleen maar nodig voor dingen op infrastructuur te veranderen of nieuwe VM's aan te maken, en ik denk dat dat in je thuisomgeving heel goed meevalt :) .

Acties:
  • 0 Henk 'm!

  • Tomatoman
  • Registratie: November 2000
  • Laatst online: 14-09 16:56

Tomatoman

Fulltime prutser

8 GB geheugen. Da's niet al te veel, maar voor dit moment lijkt het me wel voldoende.

Een goede grap mag vrienden kosten.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Dat is een prima begin om ESX te draaien. WHS mag dan wel de kernel hebben van 2008(R2), ik geloof er geen zier van dat elke 2008R2 driver direct werkt :)

Maar, dat is zonder persoonlijke ervaring :)
Dingen als IPMI drivers enzo zie ik niet gaan werken onder WHS...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
tomatoman schreef op vrijdag 12 augustus 2011 @ 18:14:
8 GB geheugen. Da's niet al te veel, maar voor dit moment lijkt het me wel voldoende.
Euh 8)7 .

Ik heb een hele tijd met 8GB gedraaid en dat was meer als voldoende... Ik draaide daar dan 2x W2K8R2 Ent, 1x Windows XP Pro en een Ubuntu machine op...

Nu heb ik inderdaad 16GB ja, maar dan nog heb ik eigenlijk al mijn machines meer als voldoende geheugen gegeven terwijl (jezus, het is ook maar een thuissituatie) eigenlijk een DC en een vCenter thuis ook maar 1GB nodig hebben, 2GB tops... Een Ubuntu VM misschien 1GB of 2 ook, en dan nog een XP'tje met 1 à 2...

Do the math...

Als je nu al afkwam met "ik wil een VM met ZFS en een array uitbouwen van 8TB", waarbij de vuistregel is 1TB = 1GB RAM nodig, dan kan ik je nog volgen... Neem het van mij aan: 8GB is meer als voldoende en KMO's draaien daar zelfs nog net op...

Acties:
  • 0 Henk 'm!

  • Morphix
  • Registratie: Augustus 2007
  • Laatst online: 11-09 08:45
FireDrunk schreef op vrijdag 12 augustus 2011 @ 17:15:
Je wil een server gecombineerd met een NAS, en je roept gelijk dat je daarvoor VT-d nodig hebt...
Dat is natuurlijk niet waar... 1 VM met een disk die over het netwerk geshared word is ook al een NAS...

Bedenk wat je precies voor functionaliteiten wil voor de server en voor de NAS, bedenk daarna of deze persé in 1 box moeten (vanwege stroombesparing of iets dergelijks) of dat ze gescheiden moeten/kunnen.

Maak daarna een lijstje met basis hardware die je nodig hebt om te realiseren wat je nodig hebt.
Bedenk daarna op welke manier je alles aan elkaar wil knopen...
Heh :) Om dan wat vollediger te zijn, de NAS wordt een solaris/bsd gebaseerd ZFS systeem van ten minste 8 TB. Dit komt te draaien op mijn huidige setup. Bij een komende volgende upgrade, is er een kans dat ik die NAS op de dan gevormde esxi server wil gaan draaien. Hiervoor heb ik zviw vt-d nodig. RDM leidt tot performance verlies (?) wat ik liever vermijd als ik op dit moment de keuze heb daar iets aan te doen.

Maar, als ik het goed begrijp moet ik al mijn schijven op één sata controller aansluiten om ze op een geschikte manier te kunnen doorgeven aan een vm?

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Morphix schreef op vrijdag 12 augustus 2011 @ 22:50:
[...]


Heh :) Om dan wat vollediger te zijn, de NAS wordt een solaris/bsd gebaseerd ZFS systeem van ten minste 8 TB. Dit komt te draaien op mijn huidige setup. Bij een komende volgende upgrade, is er een kans dat ik die NAS op de dan gevormde esxi server wil gaan draaien. Hiervoor heb ik zviw vt-d nodig. RDM leidt tot performance verlies (?) wat ik liever vermijd als ik op dit moment de keuze heb daar iets aan te doen.
RDM heeft geen noemenswaardig performace verlies. Hyperbart verklaart eea daarover in een post een paar pagina's terug.
Maar, als ik het goed begrijp moet ik al mijn schijven op één sata controller aansluiten om ze op een geschikte manier te kunnen doorgeven aan een vm?
Het mogen ook meer controllers zijn, als je er maar rekening mee houd dat je alleen de hele controller door kan geven, en dus de schijven die er aan hangen niet direct als datastore voor vmware kunt gebruiken. Je hebt dus minimaal twee controllers nodig, één voor een disk met een datastore voor esxi, en één die je aan de vm kunt geven dmv pci-passthrough.

[ Voor 4% gewijzigd door Zer0 op 12-08-2011 23:03 ]

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

tomatoman schreef op vrijdag 12 augustus 2011 @ 16:06:
• Dit is het juiste moment om te besluiten of ik ga virtualiseren, of simpelweg Windows Home Server ga installeren zonder vitualisatielaag eronder. Ik zie virtualisatie op dit moment alleen als een handige tool voor toekomstige extra functionaliteit, maar ben niet van plan dure licenties aan te schaffen. VMware vSphere Hypervisor lijkt een interessante uitvoering, omdat het gratis is. Wat is wijsheid? ESXi server als ik legaal de bestaande licenties kan redden, of vSphere Hypervisor, of helemaal niets?
Tegenwoordig gebruik ik ESXi op elke server die ik installeer, tenzij er dringende redenen zijn om dit niet te doen, zelfs als er maar één gast OS op komt. Je bent gelijk een stuk onafhankelijker van de hardware, bij een defect kun je de vm met vrij weinig moeite op een andere ESXi server zetten en weer door draaien.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Maar de performance penalty suckt natuurlijk monkeyballs met 1VM...

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op vrijdag 12 augustus 2011 @ 23:23:
Maar de performance penalty suckt natuurlijk monkeyballs met 1VM...
Voor de meeste taken zijn de huidige generatie servers meestal al meer dan voldoende snel en is performace geen issue. Is dat wel zo dan zie ik dat als een dringende reden het niet te doen :)

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Duidelijk, i agree ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Tomatoman
  • Registratie: November 2000
  • Laatst online: 14-09 16:56

Tomatoman

Fulltime prutser

Windows Home Server 2011 heeft niet zulke hoge eisen, dus dat lijkt me geen beletsel. Ik denk dat ik ESXi maar eens ga proberen. Dank voor het advies tot zover :).

Een goede grap mag vrienden kosten.


Acties:
  • 0 Henk 'm!

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Zer0 schreef op vrijdag 12 augustus 2011 @ 17:00:
[...]

Met PCI-passthrough kun je alleen de hele controller aan een vm geven (en hier is vt-d voor nodig)
Met Raw Device Mapping kun je losse disks aan een vm geven (en hier is geen vt-d voor nodig)


[...]

Uitzetten of suspenden is geen probleem afaik, je kunt alleen geen snapshots maken (en dus ook geen (ghetto)VCB backups). Slaapstand kent vmware niet, en dat moet je ook niet willen voor een vm.
Kleine correctie slaapstand is wel bekend bij vmware maar werkt alleen met een cluster. je vm's worden dan aan de hand van de load samengevoegd en de host word in standby/ slaapstand gezet en pas weer aangezet wanneer resources nodig.

Acties:
  • 0 Henk 'm!

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op vrijdag 12 augustus 2011 @ 23:23:
Maar de performance penalty suckt natuurlijk monkeyballs met 1VM...
welke performance penalty? De enige reden die ik ooit tegen ben gekomen die performance problemen veroorzaakt op esxi. Is een onbekwame systeembeheerder die niet weet wat zijn machines doen en of een management die voor een knaak op de eerste rij wil zitten en verkeerd bezuinigd.

300000 iops per seconde. 8vcpu en 256gb ram per vm. VInd je een knappe vent als esx een performance penalty geeft. Denk dat het eerder op je storage te vinden is dan op je hypervisor

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Lol, ESXi geeft wel degelijk een performance penalty... De virtualisatie layer kost zelfs met VT-x/AMD-v nog minimaal een paar procent performance.

Simpel voorbeeld:
Ubuntu direct op mijn server levert 600MB/s doorvoersnelheid op mijn disk array op.
Ubuntu VM met de controller via VT-d aan de VM gegeven, levert 450MB/s op.

Do the math...

Natuurlijk is de vraag of je dat merkt... Het is veel belangrijker dat je systeem goed loopt en stabiel is.
En juist ESXi zorg inderdaad voor managebility, dus ik ben ook zeker voor ESXi, alleen moet je wel weten waar je over praat (vooral als systeembeheerder) voordat je ermee aan de slag gaat.

[ Voor 30% gewijzigd door FireDrunk op 14-08-2011 10:36 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

nasje is bijna klaar :9

Afbeeldingslocatie: http://img11.imageshack.us/img11/7210/esxinassie.jpg

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

FireDrunk schreef op zondag 14 augustus 2011 @ 10:35:
Lol, ESXi geeft wel degelijk een performance penalty... De virtualisatie layer kost zelfs met VT-x/AMD-v nog minimaal een paar procent performance.

Simpel voorbeeld:
Ubuntu direct op mijn server levert 600MB/s doorvoersnelheid op mijn disk array op.
Ubuntu VM met de controller via VT-d aan de VM gegeven, levert 450MB/s op.

Do the math...

Natuurlijk is de vraag of je dat merkt... Het is veel belangrijker dat je systeem goed loopt en stabiel is.
En juist ESXi zorg inderdaad voor managebility, dus ik ben ook zeker voor ESXi, alleen moet je wel weten waar je over praat (vooral als systeembeheerder) voordat je ermee aan de slag gaat.
Ben het met jullie eens hoor dat ESXi uiteindelijk een paar % van performance kost op alle vlakken.

Maar wat ik me afvroeg. Je hebt getest native op je machine en met VT-d met controller passthrough. Heb je ook wel eens met paravirtual SCSI getest? Hier heb ik zelf perfecte resultaten mee welke eigenlijk weinig tot geen vertraging of vermindering van performance veroorzaken.

Zo haalde ik op mijn adaptec 5805 netjes 1600MB/sec lezen vanuit de cache. Native of binnen ESXi.

Iig erg tevreden over de performance van ESXi, en iemand die je ooit verteld dat het daardoor traag word, die snapt het niet helemaal. Veel word er dan nog geen gebruik gemaakt van paravirt en VMXNET3 (veel bedrijven kennen/snappen dit niet, dikke arrays, maar geen idee wat ze er mee moeten doen en gebruiken het als 1 grote vergaarbak waardoor je I/O echt gruwelijk is, etc.). Maar, dat haalt niet weg dat het zeker wat performance zal kosten en native altijd sneller is. ESXi gaan draaien met 1 VM vind ik dan weer wat overkill.... managability, sure, maar is dat nou echt zo ingewikkeld? :S Maak gewoon goede backups, of consolideer meer machines.

[ Voor 3% gewijzigd door Quindor op 14-08-2011 17:49 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Mja, voordeel is dat je CPU niet zoveel hoeft te doen bij lezen uit het cache... Dat is de IOMMU die lekker staat te stampen. Ik had meer last van de XOR die langzamer was...

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Quindor schreef op zondag 14 augustus 2011 @ 17:47:
Maak gewoon goede backups, of consolideer meer machines.
Een van de redenen dat ik enkele servers direct virtualiseer is dat latere consolidatie een eitje is op die manier.
Daarnaast is het machine-onafhankelijk backupen van Windows-servers iets wat niet mogelijk is met de standaard software, dus moet er dan extra software aangeschaft worden. ESXi en ghettoVCB zijn gratis :P
Verder liggen voor de meeste besturingssystemen de VM's al klaar op de plank en kan ik de servers al inrichten voor de hardware aanwezig is.
Tot nu toe heb ik alleen nog maar gemak gehad van deze werkwijze.
Om een voorbeeld te geven. Ongeveer een jaar geleden voor een project een Windows server ingericht met een Oracle database. Na een half jaar was het project afgelopen, dus de vm op blurays gezet en gearchiveerd.
Nu bleek een paar weken geleden dat er nog wat data uit de database nodig was. VM op mn werkstation gezet, gestart en de data er af gehaald.
Met gewone backups was dit veel lastiger geweest.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Allemaal goede punten! En zeker als je de performance niet nodig hebt (alsin, het systeem werkt prima, maar zou misschien een fractie langzamer zijn) is ESXi echt een uitkomst.

Vooral MKB/SMB is hierin een goed voorbeeld, elke SBS server laat zich wel virtualiseren, en scheelt daarna een hoop gezeur.

Even niets...


Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
Zet me wel aan het denken, het zou niet bij me opgekomen zijn 1 machine en dan esxi pakken..
Maar met argumenten is de keuze nog best goed te verantwoorden!

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Een van de grote nadelen vind ik dat je je server niet kan benaderen met je normale toetsenbord en muis :)
Je moet altijd via de vSphere client werken :)

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
FireDrunk schreef op zondag 14 augustus 2011 @ 19:30:
Een van de grote nadelen vind ik dat je je server niet kan benaderen met je normale toetsenbord en muis :)
Je moet altijd via de vSphere client werken :)
Touché, een soort van virtual KVM zou nog leuk zijn, maar dan heb je nog altijd een aparte client... Wat zou jij dan als voorstel hebben om zoiets op te lossen (fantaseer er maar op los...)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Je KAN natuurlijk via VT-d de videokaart doorgeven, net als de USB devices, maar of dat ook goed werkt :+

Even niets...


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

^ ja, dat werkt prima echter niet als 'video kaart' wel als GPU.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Huh? Wat bedoel je?

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Ik denk als volgt:

Je kan het beeld niet laten outputten, maar de rekenkracht van de GPU wel aanwenden binnen de VM...

Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
FireDrunk schreef op zondag 14 augustus 2011 @ 19:30:
Een van de grote nadelen vind ik dat je je server niet kan benaderen met je normale toetsenbord en muis :)
Je moet altijd via de vSphere client werken :)
Ik zit eigenlijk nooit op de console van mn servers, windows via rdp en linux via putty..
Alleen de eerste keer na installatie even op de ipsettings goed te zetten :) en in een bedrijf zijn de servers meestal afgeschermd, wil je de console is dat eenvoudig via vsphere client, waar je bij traditionele server ilo drac etc nodig hebt om de console op afstand te benaderen.... Ik denk dat ik dit waar van toepassing wel ga inzetten in het vervolg :)

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

Precies. Erg handig om met render farms eenvoudig te wisselen van OS, kaart omhangen en booten maar.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Waarom zou je de GPU niet als monitor output kunnen gebruiken?

Even niets...


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

FireDrunk schreef op zondag 14 augustus 2011 @ 20:59:
Waarom zou je de GPU niet als monitor output kunnen gebruiken?
Zelf ook enkele malen geprobeerd (met nvidia 9400GT en onboard video (intel)) maar helaas krijg ik het niet werkend. Het is iig niet officieel supported maar er zijn berichten dat bepaalde combinaties van moederborden en kaarten en drivers KAN werken. Beetje tricky dus.

Ik zou het maar wat handig vinden om mijn ESXi server ook als mijn HTPC te gebruiken. Mijn server staat toch altijd aan, mijn HTPC erbij is weer een 100 watt (triple core AMD, al wat ouder) erbij die ook vele uren per dag aanstaat.

Inmiddels het al wel voor elkaar gekregen mijn webcam (HD-5000 van Microsoft) door te koppelen via USB passthrough naar een Windows 7 VM om als soort security cam test te dienen. Dat werkt prima. :) Geen vertraging of iets anders merkbaar tot nu toe.

[ Voor 15% gewijzigd door Quindor op 14-08-2011 21:23 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Quindor schreef op zondag 14 augustus 2011 @ 21:21:
[...]
Inmiddels het al wel voor elkaar gekregen mijn webcam (HD-5000 van Microsoft) door te koppelen via USB passthrough naar een Windows 7 VM om als soort security cam test te dienen. Dat werkt prima. :) Geen vertraging of iets anders merkbaar tot nu toe.
Dat is nu ook nog iets wat ik zou willen doen: een webcam thuis ophangen en die via het een of andere gebruiken als security cam... spijtig dat mijn CPU geen VT-D ondersteunt...

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Voor USB heb je geen VT-d nodig...

Even niets...


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:41

DukeBox

loves wheat smoothies

FireDrunk schreef op zondag 14 augustus 2011 @ 21:27:
Voor USB heb je geen VT-d nodig...
Alleen vanaf 4.1

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Euhm, ik heb gebruik gemaakt van het USB device via de USB bus door te zetten. Dus je maakt in een VM een USB poort aan, en vervolgens koppel je hier het USB device mee.

Voor zover ik weet heb je daar niet perse VT-d voor nodig. Als je een fysieke USB hub wenst door te passen (2 poorten op je mobo) dan heb je dat wel nodig. Maar dat was in mijn geval iig niet nodig.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
FireDrunk en Quindor hebben gelijk...

Dat had ik even over het hoofd gezien, voor USB heb je inderdaad geen VT-D nodig... Je moet eerst een virtual USB controller toevoegen en daarna het USB-device...

Net nog even geverified met een Kingston DataTraveller 2.0...

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

USB cameraatje is inderdaad een paar klikjes en het werkt. Om een videokaart met VT-d werkend te krijgen heb je veel tijd, geduld, hardware en geluk nodig. Zelfs als je een zeldzame hardwarecombinatie hebt waarop het werkt lijkt het erop dat je niet meer dan ~2800MB aan geheugen kan gebruiken. Een renderfarm gaat dan waarschijnlijk ook niet opschieten.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Ik zal het vandeweek eens proberen. Heb nog een 3870 liggen...

Even niets...


Acties:
  • 0 Henk 'm!

  • jeanj
  • Registratie: Augustus 2002
  • Niet online

jeanj

F5 keeps me alive

HyperBart schreef op zondag 14 augustus 2011 @ 19:41:
[...]

Touché, een soort van virtual KVM zou nog leuk zijn, maar dan heb je nog altijd een aparte client... Wat zou jij dan als voorstel hebben om zoiets op te lossen (fantaseer er maar op los...)
Intel heeft wel zo iets, het heet KVm en is volgens mij een uitbreiding van hun AMT optie die ze al een tijdje hebben. Ik heb zitten in mijn i5-2400 e Q67OW moederbord. Welke ander combinaties het ook hebben weet ik zo niet, volgens heet het vPro , dus dan zou het van de processor afhangen (met het juiste mobo).

Er zit een vnc server in die je via real vnc plus (volledige versie betaald 99 euro, ik heb een 20% korting coupon bij mijn mb of proc. Er is ook een gewone versie men minder features volgens dit artikel).

Je kan dus ook je bios benaderen op deze manier. Het loopt wel alleen via de onboard netwerkkaart, dus die moet je (ook) aansluiten. Tevens heb je er een een ip adres voor nodig. Er zijn wel wat videos op youtube hierover te vinden (inter kvm)

Everything is better with Bluetooth


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Die functie heb ik al in mijn bord... Ik heb een Tyan bord met Remote KVM... Gewoon een IP adresje instellen in je BIOS en je kan via je browser je server bedienen.

Probleem is meer dat je na boot gewoon een geel ESXi scherm krijgt, en niet de console van een VM :)

Even niets...


Acties:
  • 0 Henk 'm!

  • jeanj
  • Registratie: Augustus 2002
  • Niet online

jeanj

F5 keeps me alive

Yup dat heeft intel dus ook.
Maar voor de console heb je vsphere client software voor?

[ Voor 37% gewijzigd door jeanj op 15-08-2011 12:57 ]

Everything is better with Bluetooth


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Om ESXi te benaderen heb je een Windows machine nodig met de Vmware vSphere client geinstalleerd.
Deze maakt verbinding met je ESXi voor maintenance doeleinden, en om de consoles van VM's over te nemen.
Dat gaat via een ingebouwde VNC server.

Op de console zelf kan je alleen maar de management agents herstarten en je netwerk instellingen wijzigen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Of met een iPad app 8)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
True, i stand corrected :+

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
Guys, even jullie mening... Ben al een tijdje van plan om een SSD in mijn servertje te steken (config is al wel bekend ondertussen hier). Nu vroeg ik me af (aangezien ik twijfel tussen een M4 128GB of een Vertex 3 120GB afgaande op de review) hoe het eigenlijk zit met de comprimeerbaarheid van VMDK-files... Iemand daar bekend mee?

Indien de comprimeerbaarheid goed is, dan zou ik eventueel voor de Vertex kunnen gaan, zoniet wordt het de M4, maar aan de andere kant is de uitvoer van het trim-commando (wat zou dit betekenen voor garbage collection?) hier vertraagd...

Andere optie is zoals hier aangegeven: Philflow in "[BBG aanschaf] SSD" voor de V+ 100 en de V+ te gaan gezien de aggressieve garbage collection omdat ESXi geen trim ondersteunt...

Zeker naar de toekomst toe met vSphere 5 en de mogelijkheid om SSD als swap te gebruiken lijkt een SSD wel tof, zeker als je thuis gaat overcommitten qua geheugen (nu dat ligt nog wel even verderop, maar kom...), begin je dan ook weer te denken aan de VSA icm een nieuwe ESXi dan lijkt een SSD nog een stukje interessanter...

[ Voor 3% gewijzigd door HyperBart op 15-08-2011 17:42 ]


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

In mijn bak was keek ik ook naar die drie SSD's. De Vertex gaf me geen vertrouwd gevoel met allerlei uitvalverhalen. De M4 zag er goed uit voor systemen met trimondersteuning, maar heeft juist een erg makke garbage collection. Ik ben dan ook voor de V+100 gegaan.
Over de comprimeerbaarheid: er is vziw geen compressie binnen VMDK's. Compressie van de vmdk zelf zal dan erg afhangen van de data die het bevat.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Uh, je vergist je op veel punten volgens mij... De vraag of de data Comprimeerbaar is, gaat niet op, waar de vertex goed in is, is comprimeren van de data die daadwerkelijk over de sata bus gaat, niet wat al op de disk staat. VMDK's zijn alleen maar containers waar data in staat. Of jou vertex goed gaat presteren hangt dus vooral af, watvoor data er IN de vm zit.

Ik zou voor een SSD gaan die een goede Garbage Collector heeft (Kingston of Intel) omdat ESX geen TRIM ondersteund, en ik verwacht niet dat ESX5 daar verandering in brengt...

En waarom kan je nu niet een SSD voor swap gebruiken? Je kan toch gewoon een datastore op je SSD maken, en bij de settings van je VM zeggen waar de VM swap moet komen? Je kunt kiezen uit: Store with VM, or Store in designated Datastore.

Heel eerlijk: ik zou voor een Intel 320 gaan...

Even niets...


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Ik gebruik zelf sinds een jaar een OCZ Vertex 2 in de server en sinds een half jaar 2x Vertex 2 in mijn server. Juist vanwege de goede garbage collection en compression van de OCZ's. Tot nu toe nog geen enkel probleem mee gehad en 100% stabiel.

Heb nooit gecontroleerd hoe veel er nu wel of niet garbage collect word, maar het is wel een van de betere volgens mij. Die M4 is zeker niet de juiste daarvoor als ik me goed van anandtech herinner. Intel's zijn best goed met TRIM of GC.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
FireDrunk schreef op maandag 15 augustus 2011 @ 21:11:
Uh, je vergist je op veel punten volgens mij... De vraag of de data Comprimeerbaar is, gaat niet op, waar de vertex goed in is, is comprimeren van de data die daadwerkelijk over de sata bus gaat, niet wat al op de disk staat. VMDK's zijn alleen maar containers waar data in staat. Of jou vertex goed gaat presteren hangt dus vooral af, watvoor data er IN de vm zit.
OK, daar ben ik even in de mist gegaan, je hebt inderdaad gelijk dat data in de VMDK compressable moet zijn...
Ik zou voor een SSD gaan die een goede Garbage Collector heeft (Kingston of Intel) omdat ESX geen TRIM ondersteund, en ik verwacht niet dat ESX5 daar verandering in brengt...
I know, losstaand van de 5 interesseerde het me gewoon welke ik best nam...
En waarom kan je nu niet een SSD voor swap gebruiken? Je kan toch gewoon een datastore op je SSD maken, en bij de settings van je VM zeggen waar de VM swap moet komen? Je kunt kiezen uit: Store with VM, or Store in designated Datastore.
Akkoord, maar waarom doet VMware daar dan zo spectaculair over? Nu ik er bij stilsta kan je idd zoals je aangeeft je swap op hypervisor al verplaatsen naar een andere store... Dat het nu automatisch en over het netwerk ook kan gedetecteerd worden dat een datastore gebaseerd is op een SSD?
Heel eerlijk: ik zou voor een Intel 320 gaan...
En waarom dan niet voor de V+100?

[ Voor 3% gewijzigd door HyperBart op 15-08-2011 22:20 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Nieuwe generatie, betere random iops en power failure protection. Staar je niet blind op sequentiele doorvoersnelheid.

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
En qua garbage collection bij de pricewatch: Intel 320 SSDSA2CW120G310 120GB

[ Voor 73% gewijzigd door HyperBart op 16-08-2011 00:02 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Als je écht goede garbage collection wil, moet je gewoon een enterprise grade SSD nemen, die zijn gemaakt om zonder TRIM te werken. Maar die Kingston zal ook prima zijn, ik hoor alleen heel veel slechte verhalen over Vertexen. En power failure protection op een SSD in een ESX host vind ik toch wel handig.

Dan hoef je een stuk minder bang te zijn dat al je VM's kapot zijn... In een desktopje heb je gewoon 1 OS, maar op een ESX host heb je er misschien wel 5-10. Risico dat er 1 of 2 kapot gaan is dan ook groter.

Als je een UPS hebt maakt het natuurlijk niet meer uit :)

[ Voor 62% gewijzigd door FireDrunk op 16-08-2011 09:35 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • MisterH75
  • Registratie: Juli 2001
  • Laatst online: 14-09 16:27
Ik ben bezig met een nieuwe ESXi server om mijn huidige 2 servers te vervangen, daarnaast heb ik nu ook nog een aparte storage server die ik in de toekomst eigenlijk ook wil gaan integreren in mijn nieuwe esxi setup. In totaal heb ik momenteel 16 GB geheugen in de 2 servers, dit voldoet maar houd niet echt over. De nieuwe heeft dus ideaal gezien minimaal 16 GB maar liever de mogelijkheid om te upgraden naar 32 gb.

De CPU load is niet echt spannend de beide servers zijn nu intel Quadcores met een gemiddelde load van ergens rond de 10 a 15% met wat uitschieters naar boven als er iets uitgepakt moet worden of als er een backup job loopt.

Alleen nu heb ik wat advies nodig over welke set ik zal kiezen, ik heb inmiddels de keuze beperkt naar 3 sets, energiezuinigheid, uitbreidingsmogelijkheden en kosten (zowel aanschaf als running) zijn mijn belangrijkste eisen.

Set 1:
Intel I5 2500 Met een Intel DQ67SWB3 en 16 GB non-ecc geheugen Kost bijelkaar ongeveer 350

Set 2: Intel Xeon 1220 met een supermicro X9SCM-F bord en 16 GB ecc geheugen, 32 gb kan nu helaas nog niet want het is naar mijn weten niet betaalbaar beschikbaar.
Voordeel tenopzichte van Set 1: Lekker uitbreidbaar, ik kan mijn 2 quadpoort netwerkkaarten kwijt en in de toekomst kan ik nog 2 HBA's toevoegen. Het moederbord heeft IPMI ook ideaal en ECC is ook niet verkeerd. Deze set is ongeveer 500

Set 3:
AMD Opteron 4170HE met supermicro H8SCM-F bord en 16 GB ecc registerd in 2x 8 GB. Voordeel tenopzichte van set 2: 6 cores ipv 4, geheugen redelijk goedkoop uitbreidbaar naar 32 GB in de toekomst is zelfs 64 GB mogelijk. Ook weer redelijk lekker uitbreidbaar met 1x PCI-E 16x, 1x PCI-E 8x, 1x PCI-E 4x in een 8x slot en een oud PCI slot. Ook uiteraard weer met IPMI support. Nadeel is wel dat de 4170 HE nog niet echt leverbaar lijkt te zijn. Tevens denk dat het idle gebruik hoger licht dan bij de intel sets.
Prijs van dit lekkers ongeveer 550

Welke set zouden jullie kiezen, en heb ik ergens een mogelijkheid over het hoofd gezien?

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

In plaats van de Xeon 1220 zou ik de 1230 nemen. Voor twee tientjes krijg je naast de iets hogere kloksnelheid ook hyperthreading, wat de 1220 niet heeft.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

Verwijderd

Quindor schreef op maandag 15 augustus 2011 @ 22:06:
Ik gebruik zelf sinds een jaar een OCZ Vertex 2 in de server en sinds een half jaar 2x Vertex 2 in mijn server. Juist vanwege de goede garbage collection en compression van de OCZ's. Tot nu toe nog geen enkel probleem mee gehad en 100% stabiel.

Heb nooit gecontroleerd hoe veel er nu wel of niet garbage collect word, maar het is wel een van de betere volgens mij. Die M4 is zeker niet de juiste daarvoor als ik me goed van anandtech herinner. Intel's zijn best goed met TRIM of GC.
OCZ is idd goed ism ESXi .. heb er 3 (vertex2) inzitten tot volle tevredenheid.. 8)

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
aceke schreef op dinsdag 26 april 2011 @ 15:49:
[...]


82579v
een nieuwe intel nic die nog niet op esx(i) werkt
Ik weet niet of je er nog wat aan hebt, maar ik ben ook aan het kijken naar een ESXi setup met deze nic in.
Toen ik aan het zoeken was of deze nic ondersteund werd kwam ik dit topic tegen met een workaround, hopelijk heb je daar wat aan?

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Zer0 schreef op dinsdag 16 augustus 2011 @ 12:17:
In plaats van de Xeon 1220 zou ik de 1230 nemen. Voor twee tientjes krijg je naast de iets hogere kloksnelheid ook hyperthreading, wat de 1220 niet heeft.
Voor zover ik me herinner word sinds 4.0 of 4.1 aangeraden voor VMware om Hyperthreading op je CPU's uit te zetten (geeft zelfs een warning bij het opstarten) aangezien dit allemaal de scheduler van VMware in de weg zit en ze het zelf beter kunnen.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Quindor schreef op woensdag 17 augustus 2011 @ 22:00:
[...]

Voor zover ik me herinner word sinds 4.0 of 4.1 aangeraden voor VMware om Hyperthreading op je CPU's uit te zetten (geeft zelfs een warning bij het opstarten) aangezien dit allemaal de scheduler van VMware in de weg zit en ze het zelf beter kunnen.
Een waarschuwing verschijnt er zeker niet, en http://www.vmware.com/pdf/Perf_Best_Practices_vSphere4.0.pdf zegt gewoon aanzetten.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Dat lijkt mij ook ja.. HyperThreading is wel iets meer dan alleen maar een slimme scheduler...
Als je CPU heel veel basic Math aan het doen is, kost dat normaal gesproken wel CPU Cycles, maar kan je CPU dat offloaden naar een speciaal gedeelte van de CPU, terwijl de gewone circuits staan te niksen.
Om je CPU in die tijd toch bezig te houden krijg je een 2e virtuele core waar je weer een thread op kan schedulen die op de non-actieve onderdelen van je CPU uitgevoerd kan worden.

Ik geloof dat VMWare zelfs hyperthreading aware is op zo'n dusdanige manier dat ze weten welke threads ze het beste op een hyperthreading core kunnen assignen :)

Zeker een voordeel dus...

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Om het toch zeker te weten nog even wat verder gezocht. Het uitzetten van HT gebeurde juist op ESX(i) releases voor 4.0, en dan voormaleijk op CPU's gebaseerd op Intel's Netburst platform (P4-based Xeons)
In 4.0 heeft VMware de scheduler aangepast zodat deze goed met HT overweg kan, en de huidige Core-based CPU's hebben een nieuwere versie van HT, waardoor uitschakelen niet meer nodig is
Nog wat relevant leesvoer: http://vpivot.com/tag/hyper-threading/ https://sudrsn.wordpress....eading-on-vmware-vsphere/

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 01-09 18:46

Quindor

Switching the universe....

Zer0 schreef op woensdag 17 augustus 2011 @ 23:30:
Om het toch zeker te weten nog even wat verder gezocht. Het uitzetten van HT gebeurde juist op ESX(i) releases voor 4.0, en dan voormaleijk op CPU's gebaseerd op Intel's Netburst platform (P4-based Xeons)
In 4.0 heeft VMware de scheduler aangepast zodat deze goed met HT overweg kan, en de huidige Core-based CPU's hebben een nieuwere versie van HT, waardoor uitschakelen niet meer nodig is
Nog wat relevant leesvoer: http://vpivot.com/tag/hyper-threading/ https://sudrsn.wordpress....eading-on-vmware-vsphere/
Ja, heb zelf ook nog eventjes zitten zoeken maar daar lijkt het inderdaad wel op. Heb ik dat eventjes verkeerd gehoord/onthouden? Hmm, oh well. Any day is a good day to learn. :)

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • MisterH75
  • Registratie: Juli 2001
  • Laatst online: 14-09 16:27
Er is één echt reden om HT uit te schakelen, als je van FT (Fault tolerance) gebruik wilt maken moet je hyperthreading uitschakelen, echter aangezien FT alleen in de betaalde versie vanaf advanced of vanaf esxi 5 vanaf enterprise zit, zullen niet veel thuis gebruikers het officieel hebben ;)

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

MisterH75 schreef op donderdag 18 augustus 2011 @ 09:50:
Er is één echt reden om HT uit te schakelen, als je van FT (Fault tolerance) gebruik wilt maken moet je hyperthreading uitschakelen, echter aangezien FT alleen in de betaalde versie vanaf advanced of vanaf esxi 5 vanaf enterprise zit, zullen niet veel thuis gebruikers het officieel hebben ;)
Ook dat is ondertussen verouderd, alleen in de beta van vsphere moest voor FT HT uitgeschakeld worden.
http://www.yellow-bricks....rthreading-and-vmware-ft/
http://kb.vmware.com/self...playKC&externalId=1013428

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


  • sloth
  • Registratie: Januari 2010
  • Niet online
Ik heb zowel dit topic als the internets doorzocht, maar kan niet meteen een sluitend antwoord vinden.

Werkt het downspinnen van hdd's met ESXi als je disk en guest OS hier ondersteuning voor bieden, en je gebruik maakt van RDM?
SMART lijkt me sowieso te werken, of kan dat ook problemen opleveren?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-09 16:42
Naar mijn weten werkt dat gewoon...
Zolang ESX niets met de disk te maken heeft, laat hij deze ook met rust volgens mij.
Ook smart is geen probleem volgens mij.

Even niets...


  • sloth
  • Registratie: Januari 2010
  • Niet online
Duidelijk, bedankt :)

Ik heb het gelijk even in de V&A van de TS opgenomen. Mocht nog iemand bevestiging uit zijn eigen setup kunnen geven oid dan zal ik dit er ook in opnemen.

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Iemand ervaring met het combineren van VMDirectPath met een Videokaart? Zit er aan te denken om dit voor mijn mediacenter/virtualisatieserver te doen, alleen geen idee of het gaat werken en hoe de performance is...

En wat is een aan te raden moederbord (met oog op compatibility) om een core i5 2400 op te prikken? (VT-d support, onboard gpu)

[ Voor 23% gewijzigd door NetXtreme op 19-08-2011 15:47 ]


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

NetXtreme schreef op vrijdag 19 augustus 2011 @ 15:28:
Iemand ervaring met het combineren van VMDirectPath met een Videokaart?
Als je in dit topic daarop zoekt zie je denk ik dat je je er niet te veel op moet verheugen.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Nextron schreef op vrijdag 19 augustus 2011 @ 15:47:
[...]
Als je in dit topic daarop zoekt zie je denk ik dat je je er niet te veel op moet verheugen.
Guess i'll have to find out the hard way :)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
NetXtreme schreef op vrijdag 19 augustus 2011 @ 15:28:
Iemand ervaring met het combineren van VMDirectPath met een Videokaart? Zit er aan te denken om dit voor mijn mediacenter/virtualisatieserver te doen, alleen geen idee of het gaat werken en hoe de performance is...

En wat is een aan te raden moederbord (met oog op compatibility) om een core i5 2400 op te prikken? (VT-d support, onboard gpu)
Aha, hier is ie al ;) , welkom...

Even tussendoor: het combineren van je ESXi en mediacenter in één homogene bak gaat niet lukken...

Je gaat dus zowieso een setup moeten nemen met een server en een mediaspeler apart als je ESXi wilt draaien...

Is een desktop Ubuntu installatie met VirtualBox in jouw geval geen optie? De Ubuntu installatie gebruik je als mediacenter met een array aangemaakt met mdadm rechtstreeks (niets gevirtualiseerd, die draait rechtstreeks op de hardware) en alle servertjes en prulletjes draai je in een VirtualBox...

Genoeg geheugen aankopen en het komt wel in orde...

Of OpenVZ ofzoiets, is dat ook niet zo een middenweg tussen bare metal en non-baremetal hypervisoring?

[ Voor 20% gewijzigd door HyperBart op 19-08-2011 15:55 ]


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 15:54:
[...]

Aha, hier is ie al ;) , welkom...

Even tussendoor: het combineren van je ESXi en mediacenter in één homogene bak gaat niet lukken...

Je gaat dus zowieso een setup moeten nemen met een server en een mediaspeler apart als je ESXi wilt draaien...

Is een Ubuntu installatie met VirtualBox in jouw geval geen optie?
Nouja, mijn eerste plan was Windows Server 2008 R2 met Hyper-V... Toen kwam ik iets tegen over VMDirectPath en las op andere dergelijke sites dat mensen wel veel success hebben met ATI kaarten. Vandaar mijn vraag...

Maar indien dit niet gaat werken wil ik altijd terug kunnen vallen op Windows Server, maar moet dus wel een moederbord hebben welke VT-d support en ook gebruik kan maken van de GPU op de i5-2400

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
mijn MSI'tje kan dat dacht ik...

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
Jou MSI is alleen socket 1156 waar een 1155 niet op gaat passen :)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
En de 650 is geen mooi alternatief?

Hmm, is dualcore ipv 4

Nu ja, als dat geen harde eis is, kan je hier nog altijd mee verder gaan... Ik wist niet dat er geen i5's quad met HD graphics bestonden voor een 1156...

Nu ja, kijk, als je voor ESXi gaat is de kans dat je systeem CPU-bound wordt heel klein... Bij ESXi gaat het vooral om (thuis dan, tot op een bepaalde hoogte ook binnen bedrijven)

GEHEUGEN
GEHEUGEN
GEHEUGEN
DISK I/O
DISK I/O
NETWERK I/O

[ Voor 119% gewijzigd door HyperBart op 19-08-2011 16:10 ]


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 16:06:
En de 650 is geen mooi alternatief?

Hmm, is dualcore ipv 4

Nu ja, als dat geen harde eis is, kan je hier nog altijd mee verder gaan...
Nouja, ik zat te denken aan beetje laatste generatie hardware... Dus i5-2400 met Q67 of Z68 chipset... Alleen is er nog bar weinig te vinden over welke moederborden nou daadwerkelijk VT-d compatible zijn. Ook heb ik liever dat ze minimaal 5x SATA (300/600) hebben en HDMI...

Zijn genoeg moederborden te vinden, alleen bar weinig over VT-d

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
NetXtreme schreef op vrijdag 19 augustus 2011 @ 16:10:
[...]


Nouja, ik zat te denken aan beetje laatste generatie hardware... Dus i5-2400 met Q67 of Z68 chipset... Alleen is er nog bar weinig te vinden over welke moederborden nou daadwerkelijk VT-d compatible zijn. Ook heb ik liever dat ze minimaal 5x SATA (300/600) hebben en HDMI...

Zijn genoeg moederborden te vinden, alleen bar weinig over VT-d
Daar is idd weinig over te vinden...

Aan de andere kant: laatste generatie hardware... Ik heb mijn bak uiteindelijk in februari of maart denk ik samengesteld (als het al niet later was...) uiteindelijk laat je dat ding toch enkele jaren staan... Of het nu 4 maanden ouder is of niet... Kan je voor jezelf idd nog afwegen of je voor de Quad-core gaat of niet...

[ Voor 24% gewijzigd door HyperBart op 19-08-2011 16:16 ]


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
HyperBart schreef op vrijdag 19 augustus 2011 @ 16:15:
[...]

Daar is idd weinig over te vinden...

Aan de andere kant: laatste generatie hardware... Ik heb mijn bak uiteindelijk in februari of maart denk ik samengesteld (als het al niet later was...) uiteindelijk laat je dat ding toch enkele jaren staan... Of het nu 4 maanden ouder is of niet... Kan je voor jezelf idd nog afwegen of je voor de Quad-core gaat of niet...
Ik zit een beetje met het feit dat ik veel dingen met elkaar aan het combineren ben. Wat meer cores tegen weinig extra stroomverbruik is dan nooit weg. Maar ik zie je punt ook wel ja, maar de dual-core houd me een beetje tegen op het moment. Als achteraf blijkt dat ik die 2 extra cores wel kon gebruiken zou ik het ook jammer vinden.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 00:15
OK, mja, ik snap je punt wel...

Maar aan de andere kant, lijst nu eens echt voor jezelf deftig op wat je gaat draaien op je bak en doe eens een inschatting van de load... Het merendeel van de tijd staan je bakken toch te idlen tenzij je wat zit af te spelen op je TV... Ik veronderstel dat terwijl jij dev-werk (of wat was het dat je deed waardoor je VM's graag had?) doet dat het gebruik van de mediacenter beperkt is... Als is het dan al zo dat er media wordt afgespeeld moet je al sterk doen lijkt me om die bak vertragend dicht te trekken dat het merkbaar is... Genoeg geheugen blijft het belangrijkste punt imho...

Uiteindelijk ga je dan zien dat de CPU absoluut weinig belast wordt... OK, als je ESXi draait is 4 cores leuk, maar geloof me, je geheugen zal eerder aan de limiet zitten. Ik heb door hardwarebeperkingen maar 16GB er in steken... Mijn CPU zit bijna nooit tegen zijn grens aan (alhoewel mijn Ubuntu-machine die verantwoordelijk is voor downloads via Sabnzbd vaak met een load van 2.00+ zit merk ik daar nooit iets van op ESXi-niveau (nu, het feit dat alles meestal 's nachts gebeurt kan daar ook wat mee te maken hebben :+ ))

[ Voor 29% gewijzigd door HyperBart op 19-08-2011 16:27 ]

Pagina: 1 ... 9 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.