Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Zo inmiddels ook ESX 5 gedownload. Hiervoor had ik 4.1 op een SSD staan. Na dat er hier in dit topic mij gewezen werdt dat ESX ook op een USB kan dacht ik dat ga ik nu ook doen.

Heb er alleen een probleem mee. Systeem wil niet van af de USB booten. Installeren gaat gewoon goed. In de bios wordt de USB Stick herkent als zijnde een HDD. Uiteraard staat als boot volgorde dat hij als eerste van de stick moet starten. Dat doet ie dus mooi niet.

Als je het systeem aanzet heb ik ook de keuze om aan te geven waarvan ik wil booten (F10) kies ik daar voor de USB stick boot ie wel gewoon 8)7. Mis ik nou iets??

Systeem
MB : DQ67SW
CPU: i5 2400

en de stick is een scandisk cruzer micro 4GB of een scandisk cruzer micro 1GB

Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
sloth schreef op zaterdag 27 augustus 2011 @ 12:54:
Wat denken jullie van deze low-budget zuinige ESXi config?
DH67BL, 8GB Kingston 1333 en een G620 = 18W idle (volgens Neographikal)

Dat het MB zo goedkoop aangeboden werd, was een foutje ;)

[ Voor 11% gewijzigd door Pascal Saul op 27-08-2011 14:08 ]


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

sloth schreef op zaterdag 27 augustus 2011 @ 12:54:

Kingston ValueRAM KVR1333D3N9/4G: 1 x een 4GB DIMM om zo 3 slots voor upgrades vrij te houden. Verder komt dit geheugen erg vaak in configuraties terug, dus lijkt het me wel een veilige keuze.
Waarom voor 16 euro de memory performance castreren door single channel te gebruiken? Stop er gewoon een tweede in, 8 GB is in mijn opinie toch wel het minimale wat je in een ESXi doos wil hebben?

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Met ^^, ga gewoon echt voor minimaal 8GB geheugen... Ik heb nu 16GB en ik draai nu "OK", ik heb nog een paar GB.

8GB in deze tijd is echt het minimum... Hell, de verschuiving mag voor mij part al sneller naar 16GB gaan... Ik besef nu eens te meer dat ik het ooit klote ga vinden dat mijn moederbord beperkt is tot 16GB geheugen...
Nelisj schreef op zaterdag 27 augustus 2011 @ 12:56:
Zo inmiddels ook ESX 5 gedownload. Hiervoor had ik 4.1 op een SSD staan. Na dat er hier in dit topic mij gewezen werdt dat ESX ook op een USB kan dacht ik dat ga ik nu ook doen.

Heb er alleen een probleem mee. Systeem wil niet van af de USB booten. Installeren gaat gewoon goed. In de bios wordt de USB Stick herkent als zijnde een HDD. Uiteraard staat als boot volgorde dat hij als eerste van de stick moet starten. Dat doet ie dus mooi niet.

Als je het systeem aanzet heb ik ook de keuze om aan te geven waarvan ik wil booten (F10) kies ik daar voor de USB stick boot ie wel gewoon 8)7. Mis ik nou iets??

Systeem
MB : DQ67SW
CPU: i5 2400

en de stick is een scandisk cruzer micro 4GB of een scandisk cruzer micro 1GB
Ik veronderstel dat je ergens, desnoods van een vriend, nog wel een ander stickje hebt liggen van een ander merk... Want dit zijn beide SanDisk Cruzer Micro's (het is SanDisk trouwens, geen scandisk ;) )... Probeer eens met een ander merk...

[ Voor 62% gewijzigd door HyperBart op 27-08-2011 15:57 ]


Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Nelisj schreef op zaterdag 27 augustus 2011 @ 12:56:
Zo inmiddels ook ESX 5 gedownload. Hiervoor had ik 4.1 op een SSD staan. Na dat er hier in dit topic mij gewezen werdt dat ESX ook op een USB kan dacht ik dat ga ik nu ook doen.

Heb er alleen een probleem mee. Systeem wil niet van af de USB booten. Installeren gaat gewoon goed. In de bios wordt de USB Stick herkent als zijnde een HDD. Uiteraard staat als boot volgorde dat hij als eerste van de stick moet starten. Dat doet ie dus mooi niet.

Als je het systeem aanzet heb ik ook de keuze om aan te geven waarvan ik wil booten (F10) kies ik daar voor de USB stick boot ie wel gewoon 8)7. Mis ik nou iets??

Systeem
MB : DQ67SW
CPU: i5 2400

en de stick is een scandisk cruzer micro 4GB of een scandisk cruzer micro 1GB
ESX 5 wil ook geen eens van de SSD booten. Wederom wel weer als ik echt opgeef dat hij daar van moet booten als ik het bootmenu kies.

En een stapje terug naar ESXi 4.1 wil wel gewoon netjes van de USB stick starten.

Probleem lijkt dus te zitten met ESX 5. Meerdere met dit probleem?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Ik zal het eens testen ter zijner tijd wanneer ik een nieuw bakje (tijdelijk) binnen heb...

Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
HyperBart schreef op zaterdag 27 augustus 2011 @ 16:01:
Ik zal het eens testen ter zijner tijd wanneer ik een nieuw bakje (tijdelijk) binnen heb...
Ook een intel DQ67SW bordje?

Nu 4.1 op USB draaien. Porbeer nu weer de SSD als datastore toe te voegen echter ESXi 4.1 is er geloof ik niet echt blij mee dat er al iets van ESX 5 op staat.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Neen, het zal op basis van het OWB3-variantje zijn:

#ProductPrijsSubtotaal
1Western Digital Caviar Green WD20EARX, 2TB SATA-600, 64MB, 5400rpm€ 62,-€ 62,-
1LG GH22NS50 Zwart€ 16,99€ 16,99
1Antec New Solution VSK-2000-EC€ 38,72€ 38,72
1Intel Core i5 2400€ 149,95€ 149,95
1be quiet! Pure Power L7 300W€ 34,95€ 34,95
1Crucial m4 CT128M4SSD2 128GB€ 155,35€ 155,35
1Kingston ValueRAM KVR1333D3N9K2/8G€ 36,10€ 36,10
1Sapphire Radeon HD 6770 1GB GDDR5€ 89,90€ 89,90
1Intel Desktop Board DQ67OWB3€ 92,15€ 92,15
Bekijk collectie
Importeer producten
Totaal€ 676,11


Niettemin verwacht ik daar hetzelfde mee gezien de grote gelijkenis, trouwens wat zijn eigenlijk de verschillen tussen die 2 ?

Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Verschillen die ik toen gevonden heb is met name de aantal USB aansluitingen die er op zitten.

Die van jou heeft:
2x eSATA, 14x USB 2.0

En die ik heb heeft
2x eSATA, 2x Firewire 400, 12x USB 2.0, 2x USB 3.0

Ik heb toen bewust voor de USB 3 gekozen.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
goed punt

maar nu je het zo zegt, die usb indeling verschilt daar wel mee... al eens andere USB poorten geprobeerd?

Trouwens, kan ook aan het moederbord liggen hoor, mijn (weliswaar ouder) moederbordje waar een SSD aan hangt geeft bij het booten tijdens de marvell controller aan "no hard disk attached" en ik kan 'm safe removen vanuit windows :+

Acties:
  • 0 Henk 'm!

  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 11:38

Ultimation

Het is als Appels en peren

Nextron schreef op donderdag 25 augustus 2011 @ 13:04:
[...]
Ik zou me nog wat verder inlezen voor je gaat inkopen:
  • Dat geheugen gaat niet werken, een pagina terug komt dat ter sprake,
  • Je kiest nu voor een dure CPU voor de relatieve zuinigheid, niet de snelheid.
  • Voor de lokale datastore zou ik sowieso een SSD nemen, dus niet wachten.
  • Hoe wil je die SSD's in raid zetten?
Het geheugen vergeten, moet ECC zijn. Thanks voor de reminder.

Ik ga de SSD's direct op het moederbord aansluiten (SATA-600) zodat ik ze via de onboard controller in RAID1 kan zetten. Ik wil op de ESXi machine een FreeNAS VM gaan draaien die direct met een HighPoint RocketRAID 3520 en de aangesloten harde schijven kan communiceren.
Zer0 schreef op donderdag 25 augustus 2011 @ 13:06:
[...]

Waarom een E3-1260L? Een gewone E3-1230 bijvoorbeeld is 100 euro goedkoper, een stuk sneller en heeft evenveel cores, threads en cache. Natuurlijk verbruikt hij op vol vermogen meer, maar iddle zal het niet veel schelen.
Daarnaast heeft hij ook nog eens ingebouwde graphics, die je op het gekozen moederbord niet nodig hebt.
HyperBart schreef op donderdag 25 augustus 2011 @ 14:33:[...]

Ik ben het eens met Zer0 dat je beter voor de non-L variant gaat... Je CPU gaat slechts zelden op full load draaien, dat is hier in dit topic al meerdere malen (ja ik hamer daar nog al op...) voorbij gekomen... Ik wil je gerust nog eens een graph posten van mijn CPU-usage (of je kan even kijken in mijn foto-album), maar met een dual-core zit je sneller aan je memory-grens en disk I/O grens dan aan je cpu-grens...

Kijk ook even na of je SSD's zelf een aggressieve garbage collection hebben... Het SSD topic en Google helpen je daar wel een heel stuk in verder...
Ik vergeet dat de CPU nooit 100% zal gaan draaien. Ik zit telkens alleen naar de cores/cachen + verbruik te kijken terwijl dat niet realistisch is. 8)7

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


Acties:
  • 0 Henk 'm!

  • Appel
  • Registratie: November 2007
  • Laatst online: 21-08 16:07
Ultimation schreef op zaterdag 27 augustus 2011 @ 17:43:
[...]


Het geheugen vergeten, moet ECC zijn. Thanks voor de reminder.

Ik ga de SSD's direct op het moederbord aansluiten (SATA-600) zodat ik ze via de onboard controller in RAID1 kan zetten. Ik wil op de ESXi machine een FreeNAS VM gaan draaien die direct met een HighPoint RocketRAID 3520 en de aangesloten harde schijven kan communiceren.
Correct me if I'm wrong... Maar volgens mij gaat ESX je on-board RAID niet snappen.

Acties:
  • 0 Henk 'm!

  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 11:38

Ultimation

Het is als Appels en peren

Appel schreef op zaterdag 27 augustus 2011 @ 17:46:
[...]

Correct me if I'm wrong... Maar volgens mij gaat ESX je on-board RAID niet snappen.
Goed punt..
http://www.supermicro.com/support/resources/OS/C204.cfm

Software RAID was niets mis mee heb ik her en der gelezen.

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Ultimation schreef op zaterdag 27 augustus 2011 @ 18:02:
[...]


Goed punt..
http://www.supermicro.com/support/resources/OS/C204.cfm

Software RAID was niets mis mee heb ik her en der gelezen.
He? waar ga je dan die software raid aanmaken zodat je ESXi er op kan installeren? Of moet ik het lezen als "ik kan dan software raid maken in een VM"?

Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
HyperBart schreef op zaterdag 27 augustus 2011 @ 16:37:
goed punt

maar nu je het zo zegt, die usb indeling verschilt daar wel mee... al eens andere USB poorten geprobeerd?

Trouwens, kan ook aan het moederbord liggen hoor, mijn (weliswaar ouder) moederbordje waar een SSD aan hangt geeft bij het booten tijdens de marvell controller aan "no hard disk attached" en ik kan 'm safe removen vanuit windows :+
Daar heb je gelijk in die indeling zal anders zijn. Ik heb alle USB poorten gehad zelfs de 3.0 maar helaas ESX 5 wil er niet gewoon normaal van booten. Waar 4.1 nergens een probleem heeft weigert 5 aan alle kanten wat dat betreft.

Wat mij overigens opviel dat ik hier in het topic lees dat zelfs een realtec NIC worden herkend door ESX 5 en de onbard Intel NIC die op het bord zit welke ik gebruik dus niet standaard wordt herkend.

Owja als iemand nog een sugestie heeft hoe ik heel makkelijk de MBR van mijn SSD kan verwijderen graag! Dit schijnt ESX tegen te houden om hem als datastore te gebruiken volgens Google. Dacht het de toen met een Ubntu live CD echter heb de verkeerde gedownload want veel doet ie helaas niet. Daarnaast ben ik ook absolute geen Linux kenner. Nog maar even verder Googlen of VMware daar niet een functie heeft verzonnen ergens.

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Ultimation schreef op zaterdag 27 augustus 2011 @ 18:02:
[...]


Goed punt..
http://www.supermicro.com/support/resources/OS/C204.cfm

Software RAID was niets mis mee heb ik her en der gelezen.
Daar is inderdaad niks mis mee, maar het gaat onder ESXi 4.x of 5 niet werken. De aangeduide comp[atibiliteit betreft alleen de controller functie, niet de raid functie.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 11:38

Ultimation

Het is als Appels en peren

HyperBart schreef op zaterdag 27 augustus 2011 @ 18:38:
[...]

He? waar ga je dan die software raid aanmaken zodat je ESXi er op kan installeren? Of moet ik het lezen als "ik kan dan software raid maken in een VM"?
Ik ga 1 SSD gebruiken of ik ga kijken voor een ander bordje. Moet ik nog even overwegen.
Zer0 schreef op zaterdag 27 augustus 2011 @ 18:48:
[...]

Daar is inderdaad niks mis mee, maar het gaat onder ESXi 4.x of 5 niet werken. De aangeduide comp[atibiliteit betreft alleen de controller functie, niet de raid functie.
M. SATA (without RAID, AHCI mode)???

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

offtopic:
Voor de Supermicro moederbordgebruikers: Duurt het booten ook zo lang bij jullie? Mijn X9SCA-F heeft soms <10 seconde maar ook soms 20 seconde nodig voordat ik beeld heb. Ik dacht dat UEFI juist sneller was dan POST.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

Verwijderd

Ultimation schreef op zaterdag 27 augustus 2011 @ 19:06:

M. SATA (without RAID, AHCI mode)???
als je een raid1 boot/data store opstelling wil kan je het oplossen (zoals ik) met een klein printje :
Dawicontrol DC-5200 Hardware Raid 1 sata

je sluit 1 ssd aan en install er op wat je wilt, wanneer alles ok werkt sluit je de 2e ssd aan en druk je op een klein knopje op printje, op dat moment word er een kopie gemaakt en is de raid 1 wanneer groen ledje brand ready.
enige wat dan nog rest is de bootsequence aanpassen want de raid1 heeft een andere naam.

werkt dus prima met ESXi.

[ Voor 3% gewijzigd door Verwijderd op 27-08-2011 20:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nextron schreef op zaterdag 27 augustus 2011 @ 19:17:
offtopic:
Voor de Supermicro moederbordgebruikers: Duurt het booten ook zo lang bij jullie? Mijn X9SCA-F heeft soms <10 seconde maar ook soms 20 seconde nodig voordat ik beeld heb. Ik dacht dat UEFI juist sneller was dan POST.
dhcp ? ipmi ?

Acties:
  • 0 Henk 'm!

  • Navi
  • Registratie: Maart 2007
  • Niet online
sloth schreef op zaterdag 27 augustus 2011 @ 12:54:
Wat denken jullie van deze low-budget zuinige ESXi config?

#ProductPrijsSubtotaal
1Intel Pentium G620€ 53,90€ 53,90
1Western Digital Scorpio Black WD1600BEKT, 160GB SATA-300, 16MB, 7200rpm€ 36,83€ 36,83
1Kingston ValueRAM KVR1333D3N9/4G€ 18,49€ 18,49
1Intel Desktop Board DH67BL (B3)€ 79,37€ 79,37
Bekijk collectie
Importeer producten
Totaal€ 188,59


Motivatie:

Intel Pentium G620: goedkoop, zuinig in idle, en IIRC op het ontbreken van HT gelijk aan een i3 2100 die het in veel builds goed doet.
Western Digital Scorpio Black WD1600BEKT: hier twijfel ik aan. Op deze disk komen de VMFS' te staan en zal dus haast 24/7 in werking zijn. Daarom hecht ik er waarde aan dat ie wat zuinig is, en ook betrouwbaar. In deze post heb ik mijn motivatie voor deze hdd al eens neergeschreven, feedback hierop zou erg welkom zijn :)
Kingston ValueRAM KVR1333D3N9/4G: 1 x een 4GB DIMM om zo 3 slots voor upgrades vrij te houden. Verder komt dit geheugen erg vaak in configuraties terug, dus lijkt het me wel een veilige keuze.
Intel Desktop Board DH67BL (B3):zuinig getest, heeft 6*sata (waarvan 1x esata), een intel nic, usb 3.0,en sata 600 op 2 ports wat me handig lijkt voor een toekomstige upgrade naar een SSD.
De NIC is wel niet out of the box compatible met ESXi 4.1 (en 5.0 helaas) maar voor 4.1 bestaat een custom driver, en ik heb hier nog een netwerkkaartje liggen dat wél ondersteunt wordt.
Jammer genoeg stond dit boardje een tijdje terug voor 60 EUR in de pricewatch, mocht iemand een goedkoper alternatief vinden is dat ook altijd welkom.

Wat wil ik er mee doen?

ESXi (duh :P ) met daarop 2 "productie" VM's in een kleine thuisomgeving.
Een daarvan doet routing/firewalling dmv pfSense, wat haast geen resources vergt. De andere is een Debian NAS / download machine met nog wat daemons waaraan ik via RDM de datadisks wil geven.

Mijn verwachting is dan ook dat de machine veel idle zal draaien, wat de keuze van bovenstaande config hopelijk kan verklaren.

Ook nog belangrijk: mijn doel is idle onder de 30 watt uit te komen. jeroen__online haalt met bijna dezelfde config en een PicoPSU 16 watt (!) idle wat me hoop geeft mijn doel icm een ATX voeding en ESXi als host OS te halen.

Jullie zijn alvast bedankt voor het lezen en tips zijn altijd welkom _/-\o_
36 euro voor een 160gb disk? Voor een paar euro meer heb je een 1TB disk.

160gb kan je bijna niets op kwijt?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
En ja hoor :(

Mijn Sabnzbd is er blijkbaar deze nacht weer uitgeknald!

Wat heb ik gisterenavond verandert aan de VM: crontab ingesteld dat hij iedere nacht om

# m h  dom mon dow   command
#Moven van alle films en series
0 4  * * * /home/bart/remove_and_move_to_nas.sh

#Scannen voor subtitles
#0 6 * * * sh /home/bart/.periscope/scanPath.sh


Dat heb ik toegevoegd... Maar om dat remove and move script te kunnen laten runnen moet ik een samba share hebben gemount... En dat is gisteren ook gebeurd... Voor de rest niks veranderd aan de VM...

Ik ga die samba share unmounten en sab terug aanzwieren, kijken wat er deze nacht gebeurt...

Zo is ie gemapt in fstab:

//192.168.8.254/Video/00000Temp/SubsToBeFound   /home/bart/video_nas_temp       smbfs   auto,credentials=/root/.credentials,uid=1000,umask=000,user   0 0


En in die /root/.credentials file staat het volgende

username=bart
password=datgaatjullienietsaan;)


Heb die lijn nu uit mijn fstab gehaald, en een sudo umount video_nas_temp gedaan...

[ Voor 22% gewijzigd door HyperBart op 27-08-2011 21:50 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Enige wat ik weet is dat Sab het niet leuk vind als je files verplaatst die nog een lock hebben, weet je zeker dat Sab alle locks heeft losgelaten van de files die je probeert te verplaatsen?

thijs@ZEUS:~$ sudo lsof /home/thijs/.sabnzbd/logs/sabnzbd.log
COMMAND    PID  USER   FD   TYPE DEVICE SIZE/OFF    NODE NAME
sabnzbdpl 2495 thijs    4w   REG    8,1  3227989 3670029 /home/thijs/.sabnzbd/logs/sabnzbd.log


Tip: gebruik lsof om te weten of sab nog een filelock heeft...

Even niets...


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
http://www.xbitlabs.com/a...play/core-i5-2400s_6.html

Blijkbaar kan je beter een i5 2400 nemen i.p.v. de i5 2400S volgens deze review. Desnoods klok je deze zelf nog naar beneden zodat deze zich gedraagt als een 2400S.

Nu ben ik alleen aan het twijfelen waar ik vanuit moet gaan qua voeding bij een gelijk waardige configuratie.

JC-110 Serie
100W DC-DC Power Converter
60W External AC-DC Power Adapter (optie is 80W)

JC-120 Series
120W Internal DC-DC Power Board with a 4-pin ATX12V connector +
120W External AC-DC Power Adapter

Moet ik nu wel of niet uitgaan wat maximaal haalbaar (CPU+GPU) is of alleen kijken naar de cpu. Het kan natuurlijk altijd zo zijn dat het in de toekomst weer een 'normale' PC gaat worden.

Ik denk dat de kleine variant het gemiddeld gezien prima zou moeten redden maar je hebt altijd situaties wanneer je toch gaat pieken.

[ Voor 7% gewijzigd door Pascal Saul op 28-08-2011 15:05 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Pascal Saul schreef op zaterdag 27 augustus 2011 @ 14:00:
[...]


DH67BL, 8GB Kingston 1333 en een G620 = 18W idle (volgens Neographikal)

Dat het MB zo goedkoop aangeboden werd, was een foutje ;)
Bedankt, nogmaals een bevestiging dat deze combo (erg) zuinig is :)
Zer0 schreef op zaterdag 27 augustus 2011 @ 15:22:
[...]

Waarom voor 16 euro de memory performance castreren door single channel te gebruiken? Stop er gewoon een tweede in, 8 GB is in mijn opinie toch wel het minimale wat je in een ESXi doos wil hebben?
Maakt het verschil tussen single en dual channel zoveel uit dan? Ik dacht dat dit bij DDR2 in een real world benchmark dat het verschil slechts maximaal zo'n 3% bedroeg?
Verder verwacht ik eigenlijk niet meer dan 4GB geheugengebruik. Indien het toch een merkbaar snelheidsverschil geeft en omdat RAM erg goedkoop is momenteel kan ik wel nog een reepje bijplaatsen.
Navi schreef op zaterdag 27 augustus 2011 @ 20:51:
[...]


36 euro voor een 160gb disk? Voor een paar euro meer heb je een 1TB disk.

160gb kan je bijna niets op kwijt?
160GB is genoeg voor die paar kleine VM's. pfSense heeft ook slechts 1GB oid nodig. Waar het mij om gaat is dat het zuinig moet zijn vermits de disk 24/7 in read/seak modus zal zijn.
Als ik even door de pricewatch blader kom ik 1TB 3,5" hdd's tegen die dan zo'n 6-7watt doen, dat is me net wat teveel van het goede.

Bedankt voor de reacties zover! Hebben jullie eventueel nog opmerkingen?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Leuke cases! Kan je bv esxi op CF installeren en daarvan booten :)

@hierboven: ga je gezien je beperkte nood aan ruimte dan niet beter voor een ssd?

[ Voor 39% gewijzigd door HyperBart op 28-08-2011 17:46 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Hier heb ik een tijdje geleden ook al gedacht, maar het lijkt me voor mijn doeleinden geen goede keus:

-Heeft zichzelf nog niet bewezen wat betrouwbaarheid betreft
-Duurder
-Veel minder opslagcapaciteit
-Low end SSD's zijn niet zuiniger dan een 2,5" hdd
-Diverse problemen ivm performance degradatie en TRIM

In mijn setup komen een aantal 3,5" disks die ik zoveel mogelijk in slaapstand wil houden. De bedoeling is dan ook downloads en dergelijke op de 2,5" disk op te slaan, en 1x om de paar dagen deze naar een van de 3,5" hdd's weg te schrijven.
Met een SSD heb je hiervoor simpelweg te weinig plaats en bovendien lijkt het me ook niet bevorderlijk voor het (beperkte) aantal write cycli..

Acties:
  • 0 Henk 'm!

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 10:35
Ik zie dat er veel mensen zijn die ook een routertje virtualiseren, bvb met pfsense.
Doet deze dan ook DHCP? Kom je dan niet in de problemen met je management interface?
Bvb bij onderhoud of reboot ESX.

Ik heb deze config ergens gevonden op internet:
Afbeeldingslocatie: http://www.bogolinux.net/EsxiNetwork.jpg

[ Voor 5% gewijzigd door BlackShadow op 29-08-2011 17:09 ]


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Zie: http://www.pfsense.org/in...task=view&id=40&Itemid=43

DHCP Server and Relay
pfSense includes both DHCP Server and Relay functionality

Verder krijg je geen problemen met het beheer.

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

BlackShadow schreef op maandag 29 augustus 2011 @ 17:08:
Doet deze dan ook DHCP? Kom je dan niet in de problemen met je management interface?
Een management interface geef je sowieso een vast adres zodat je er ook zonder dhcp op kunt komen. Hetzelfde geld voor essentiële servers, switches, AP's etc.
Indien de dhcp server down is kun je dan nog altijd bij je infrastructuur door je werkstation (tijdelijk) een vast ip adres te geven.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 08:56

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Topicstarter
Nelisj schreef op zaterdag 27 augustus 2011 @ 15:58:
[...]


ESX 5 wil ook geen eens van de SSD booten. Wederom wel weer als ik echt opgeef dat hij daar van moet booten als ik het bootmenu kies.

En een stapje terug naar ESXi 4.1 wil wel gewoon netjes van de USB stick starten.

Probleem lijkt dus te zitten met ESX 5. Meerdere met dit probleem?
Zelfde probleem hier. Heb een server met een Intel DQ45CB mobo. Draait al 2 jaar vrolijk ESXi 4.1. Nu een USB stickje met ESXI 5.0 erin gefrot. Start niet op, komt niet verder dan een knipperende cursor. Lijkt toch dat het mobo te oud geworden is. Ik ben bang dat ik een nieuw mobo moet aanschaffen. Gelukkig is dit topic er, kan ik meteen zoeken naar een goedkoop en zuinig setje :) (DH67BL + I5 2400S)

BTW: mijn andere PC met een Rampage III Gene werkt perfect met ESXi 5.0 vanaf een stickje :)

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Je kan de licentie voor 5 nu krijgen. Ondanks dat ik was ingelogd en aangemeld kreeg ik spontaan een optie "register" en daarna kwam een license key eruit rollen.

https://www.vmware.com/tr...p?p=free-esxi5&lp=default

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Microkid schreef op maandag 29 augustus 2011 @ 20:00:
Start niet op, komt niet verder dan een knipperende cursor.
Boot ESXi wel wanneer je handmatig de stick kiest zoals bij Nelisj?

Ik heb net een Radeon 3450 vervangen voor een paar jaar oudere GeForce 6200 voor de passthrough-configuratie. Helaas weinig verbetering: Van een melding [This device cannot start. (Code 10)] met de radeon naar een melding [Windows has stopped this device because it has reported problems. (Code 43)] gegaan.

Ik heb ook de onboard USB-controller op passthrough gezet omdat sommige apparaten niet herkend werden (zoals toetsenbord en muis |:(). De twee controllers waren zowel gezamenlijk als individueel te passthroughen en in beide configuraties werken ze, in tegenstelling tot de SATA-controllers.
Nu heb ik dus één controller voor één specifieke VM waar alle soorten USB-apparaten op zouden moeten werken (zoals een USB video adapter), en de andere controller voor ESXi en de rest van de VM's, voor bijvoorbeeld de printers.

Uiteindelijk duurde het allemaal erg lang omdat de USB-poorten van de tweede controller alleen als interne header beschikbaar waren en de bracket die ik nog had liggen niet de standaard pin-configuratie had maar een oudere standaard. Na de moederborddocumentatie doorgenomen te hebben bleek die een nog andere niet-standaard pin-configuratie te hebben. Half uur bezig geweest met pinnetjes te veranderen en nog steeds werkte het niet. Dan maar de goede standaard geprobeerd en toen werkte het wel: blijkt de documentatie van het moederbord dus niet te kloppen!

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 08:56

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Topicstarter
Nextron schreef op dinsdag 30 augustus 2011 @ 01:44:
[...]
Boot ESXi wel wanneer je handmatig de stick kiest zoals bij Nelisj?
hij boot netjes van USB, aangezien esx 4.1 ook van USB start. Ik zie wel even iets verschijnen, meer niet.

edit: mogelijke oorzaak kan zijn dat het mobo de GPT usb stick niet (goed) herkent.
Zie ook http://communities.intel.com/thread/20158

[ Voor 19% gewijzigd door Microkid op 30-08-2011 09:08 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Van GPT booten kan alleen met EFI toch?

Even niets...


Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
Ivm mijn Xeon proefopstelling en de daaropvolgende conversatie of dat nog "zuinig" is: tuurlijk is zuinig voor mij belangrijk. De oudjes zien de rekening van Electrabel liever nog lager ;).

Het probleem schuilt een beetje in de subtiele balans tussen kracht en stroomverbruik. Ik weet niet of een i3 wel voldoende is om een hele rits virtul appliances te draaien. Om dan meteen een cluster te maken met 2 ESXi servers is duurder en verbruikt prolly meer.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Mijn CPU-verbruik over een hele week:
CPU Usage Weekly ESXi HyperBart

En daar draai ik dan een DC, een vCenter, een Ubuntu met CouchPotato/Sick Beard/Sabnzbd (CPU intensief!!), een XP machine, nog een Ubuntu voor Newznab op en tot slot nog een VPN-bak...

CPU Usage Weekly ESXi HyperBart


Mensen moeten ECHT eens van het idee gaan afstappen dat een i3 zo "traag" is, het is heus geen Atom en gaat echt wel SNEL genoeg (ok ja, dat kan weer subjectief zijn). Kijk eerder maar de IOPS die je storage gaat moeten trekken, ik vind je post niet zo snel terug welke disks en hoeveel spindles je er aan gaat hangen, maar als ik nu opnieuw mijn bak moest samenstellen stak ik er ONMIDDELLIJK een SSD in...

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 08:56

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Topicstarter
FireDrunk schreef op dinsdag 30 augustus 2011 @ 09:38:
Van GPT booten kan alleen met EFI toch?
Opgelost !
M'n Intel mobo boot niet goed vanaf een GPT usb stick. Ook al staat UEFI boot aan in de bios. Als ik F10 druk tijdens het booten en dan handmatig de USB stick kies werkt het wel goed.
Nu dus Intel even zover krijgen dat ze dit oplossen in een nieuwe bios versie ;)

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 11:38

Ultimation

Het is als Appels en peren

Bart je hebt zo een gemiddelde load van 10-15%? Weet je zo wat jou setup daarbij verstookt?

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Microkid schreef op maandag 29 augustus 2011 @ 20:00:
[...]
... Lijkt toch dat het mobo te oud geworden is. Ik ben bang dat ik een nieuw mobo moet aanschaffen. ...
Bordje te oud, dat zal toch niet. Daarnaast heb ik de mijne net 3 weken.
Microkid schreef op dinsdag 30 augustus 2011 @ 12:34:
[...]

Opgelost !
M'n Intel mobo boot niet goed vanaf een GPT usb stick. Ook al staat UEFI boot aan in de bios. Als ik F10 druk tijdens het booten en dan handmatig de USB stick kies werkt het wel goed.
Nu dus Intel even zover krijgen dat ze dit oplossen in een nieuwe bios versie ;)
Kijk dat klinkt bekend. De site van intel in de gaten gaan houden voor een nieuwe bios versie ;)

Acties:
  • 0 Henk 'm!

  • 3DDude
  • Registratie: November 2005
  • Laatst online: 01:05

3DDude

I void warranty's

Ik zal mijn Esxi 5 server is posten.

HP Microserver (1.3 ghz dual core AMD Neo K325 uit m´n hoofd'
8GB 1333mhz ram.
4*2Tb WD Green.
HP P410 (met 512mb ram en 512mb batterij)

Draait nu vrolijk esx, (vorige versie 4 lukte niet want dan kan vmfs niet boven de 2TiB (2.2TB) kan dat kloppen?

Hoe dan ook nu VMFS van 5.45 GB (de schijven zitten in Raid-5).

Benchmarkje gedaan storage doet 500MB/s met minimum op 280MB/s geloof ik en uitschieters naar 600MB/s

Draait momenteel 3 VM's ik ga nog testen hoeveel die aan kon

Zo'n Microserver koste mij 199 euro.
8 Gb ram was 40 euro
de hdds waren 240 euro
de p410 raid controller 230

totaal kom ik dan ongeveer op de 750 euro uit.

Enige is dat de processor een dual core 1.3 ghz is, niet de meest krachtige maar alles draait prima (2008R2 DC momenteel - dcpromo ging imo gewoon normale snelheid en die vm had 1 vCore)

En uiteraard is deze bak zeer zuinig :D ik ben voorlopig tevreden ^^

Oh nog iets, vanaf mijn MBP vanaf school naar huis kan ik op esx (jeej :D) en heb ik remote in een kwartiertje een ubuntu vm geinstalleerd (iso van ubuntu stond op me mbp) en via wifi dit alles gedaan :)

wel heb ik af en toe dat hij connectie verliest op school.. maar dat kan ook de wifi of het netwerk daar zijn.. moet ik nog uitzoeken

[ Voor 15% gewijzigd door 3DDude op 30-08-2011 17:48 . Reden: remote install ]

Be nice, You Assholes :)


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Vanmiddag is deze bezorgd :D :
Afbeeldingslocatie: http://i51.tinypic.com/2lwvl6r.jpg
USB 2.0 Display Adapter WS-UG171D

Op een normale PC speelt zelfs video fatsoenlijk af :9. Ik heb daarna in ESXi de adapter op een USB controller aangesloten die op passthrough staat. De controller is vervolgens aan een Windows 7 VM toegewezen. Daar werd de adapter herkend en de monitor ontving een signaal maar meer dan zwart beeld kreeg ik niet. Waarschijnlijk was dit een driver probleem; Windows 7 kan voor grafische apparaten WDDM drivers gebruiken, maar die werken niet samen met niet-WDDM drivers, zoals deze adapter heeft. In plaats van andere drivers te installeren ben ik naar een Windows XP VM geswitcht.

Windows downloadt zelf de DisplayLink-drivers en meteen had ik beeld :*). Uitgebreid bureaublad met de adapter in combinatie met de vSphere console zorgt voor een verkeerde cursorpositieweergave en met mirroring loopt alles erg schokkerig. Uitsluitend beeld op de adapter met een eigen afstandsbediening voor de VM werkt wel goed en video speelt dan ook vloeiend af *O* (hoewel voor 720p/1080p materiaal twee cores nodig waren).

Nu XBMC nog werkend krijgen...

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 08:41

OMX2000

By any means necessary...

Weten we ook al wat er technisch aan voordelen aan ESXi 5 voor ons thuis hobbyisten is? Behalve ondersteuning van onboard realtek nics.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Nextron schreef op dinsdag 30 augustus 2011 @ 19:10:
Vanmiddag is deze bezorgd :D :
[afbeelding]
USB 2.0 Display Adapter WS-UG171D

Op een normale PC speelt zelfs video fatsoenlijk af :9. Ik heb daarna in ESXi de adapter op een USB controller aangesloten die op passthrough staat. De controller is vervolgens aan een Windows 7 VM toegewezen. Daar werd de adapter herkend en de monitor ontving een signaal maar meer dan zwart beeld kreeg ik niet. Waarschijnlijk was dit een driver probleem; Windows 7 kan voor grafische apparaten WDDM drivers gebruiken, maar die werken niet samen met niet-WDDM drivers, zoals deze adapter heeft. In plaats van andere drivers te installeren ben ik naar een Windows XP VM geswitcht.

Windows downloadt zelf de DisplayLink-drivers en meteen had ik beeld :*). Uitgebreid bureaublad met de adapter in combinatie met de vSphere console zorgt voor een verkeerde cursorpositieweergave en met mirroring loopt alles erg schokkerig. Uitsluitend beeld op de adapter met een eigen afstandsbediening voor de VM werkt wel goed en video speelt dan ook vloeiend af *O* (hoewel voor 720p/1080p materiaal twee cores nodig waren).

Nu XBMC nog werkend krijgen...
Held! _/-\o_ *O* *O* *O*

Ondertussen ben ik hier al een stapje verder met de crashende Sabnzbd... Als laatste, voor ie crasht geeft ie de volgende fout:
Segmentation Fault
Sommige mensen geven aan dat dit aan kaduuk RAM geheugen kan liggen, ik weet niet hoe dit zich uit binnen een ESXi, maar het lijkt me sterk, niettemin begin ik daar toch sterk aan te denken en vooral of een server met ECC geheugen dit niet zou hebben...

[ Voor 13% gewijzigd door HyperBart op 30-08-2011 21:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
@HyperBart,

Nah, denk niet dat ECC dit op zal lossen... Ofwel er is iets vreemds aan de hand binnen je VM, of je hebt echt iets kapot... En met ECC is kapot ook kapot hoor...

Even niets...


Acties:
  • 0 Henk 'm!

  • jeanj
  • Registratie: Augustus 2002
  • Niet online

jeanj

F5 keeps me alive

Nelisj schreef op zaterdag 27 augustus 2011 @ 16:34:
Verschillen die ik toen gevonden heb is met name de aantal USB aansluitingen die er op zitten.

Die van jou heeft:
2x eSATA, 14x USB 2.0

En die ik heb heeft
2x eSATA, 2x Firewire 400, 12x USB 2.0, 2x USB 3.0

Ik heb toen bewust voor de USB 3 gekozen.
@Hyperbart, over de keuze ow/sw

Houd er rekening mee dat de OW versie geen externe sata poorten heeft maar gewoon 6 sata aansluitingen op het mobo intern. Er zit geen bracket bij. de SW versie heeft 2 externe sata poorten op het mobo zitten op de backplane en 4 op het mobo intern. He tis maar hoeveel schijven je (intern) wilt aansluiten....

Ergens in dit topic staat wel een link naar het layout plaatje te vinden op de intel site....

[ Voor 6% gewijzigd door jeanj op 31-08-2011 08:53 ]

Everything is better with Bluetooth


Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
HyperBart schreef op dinsdag 30 augustus 2011 @ 12:00:
Mensen moeten ECHT eens van het idee gaan afstappen dat een i3 zo "traag" is, het is heus geen Atom en gaat echt wel SNEL genoeg (ok ja, dat kan weer subjectief zijn). Kijk eerder maar de IOPS die je storage gaat moeten trekken, ik vind je post niet zo snel terug welke disks en hoeveel spindles je er aan gaat hangen, maar als ik nu opnieuw mijn bak moest samenstellen stak ik er ONMIDDELLIJK een SSD in...
Je hoeft me niet te overtuigen dat een i3 snel is want ik heb m ook in men desktop steken.
De appliances voeren alleen een verplichte performance check uit bij de configuratie dus ik moet die check halen of die dingen weigeren.

Er komt geen disk in maar de datastores zullen over NFS gaan vanop mijn NAS.Met minimale eisen van 0.5T is een SSD buiten de scope. We'll see wat ervan komt :)

Acties:
  • 0 Henk 'm!

  • Nelisj
  • Registratie: Februari 2005
  • Laatst online: 13-09 20:13
Gister gezien hoe ESXi4.1 zich zelf ophangt.
Een van de datastore's staat op een 500GB HDD. Hier staan geen VM's op maar staan een aantal ISO's op en ik heb nog Virtuele HDD op gemaakt welke wordt aan geboden aan een VM als 2de HDD.
Nu wist ik dat die 500GB niet helemaal tof meer was gezien hij uit mijn server komt waar hij niet echt meer vriendjes was met de Areca controller. Blijkbaar is de schijf toch slechter dan ik dacht.

Maar dat ESXI zich daardoor ophangt. De VM waar hij bij hoort gaat behoorlijk hangen (lochich) een 2de VM kan ik nog gewoon via RDP benaderen als of er niks aan de hand is. Maar het beheren van ESXi is een gewoon niet meer mogelijk. VM's gewoon een power off geven vergeet het maar. Gewoon via de console een reboot doen blijft gewoon vrolijk 30min staan die ie bezich is met afsluiten, meer geduld had ik niet dus dan meer helemaal power off en de 500GB los. Gelukkig nog wel een log melding kunnen lezen dat het daarvandaan kwam.
jeanj schreef op woensdag 31 augustus 2011 @ 08:51:
[...]

@Hyperbart, over de keuze ow/sw

Houd er rekening mee dat de OW versie geen externe sata poorten heeft maar gewoon 6 sata aansluitingen op het mobo intern. Er zit geen bracket bij. de SW versie heeft 2 externe sata poorten op het mobo zitten op de backplane en 4 op het mobo intern. He tis maar hoeveel schijven je (intern) wilt aansluiten....

Ergens in dit topic staat wel een link naar het layout plaatje te vinden op de intel site....
Dat klopt inderdaad. Daarmee ben ik zelf de fout in gegaan. Ik heb dus wel 6 Sata aansluitingen waarvan er dus 2 eSata. Te snel gelezen want ik dacht namelijk 6 Sata + 2 eSata ;(

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 10:35
Ik zit met een praktisch dilemma.
Ik gebruik een moederbord met 2 onboard controllers, nu kan ik die beide aanduide voor passthrough.
Maar natuurlijk hangt er aan 1 van de 2 controllers mijn datastore.
Hoe lossen jullie kenners dit op? Wat zijn de mogelijkheden?
Gezien het verschil in performance en de onafhankelijkheid tov ESXi als ik passthrough gebruik, zou ik deze voordelen graag blijven behouden.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Waarom hangt er 'natuurlijk' een datastore aan 1 van de twee?

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 10:35
FireDrunk schreef op donderdag 01 september 2011 @ 16:52:
Waarom hangt er 'natuurlijk' een datastore aan 1 van de twee?
Omdat er geen andere onboard poorten vrij zijn?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Omdat je dat ook via NFS met een VM zou kunnen doen...

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 10:35
FireDrunk schreef op donderdag 01 september 2011 @ 16:58:
Omdat je dat ook via NFS met een VM zou kunnen doen...
Zie ik het goed dat ik dan een 2e pc aan moet hebben staan hiervoor?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Nope.

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Waarom zou je een tweede PC aanzetten als je een VM kan aanmaken, disks daar aan kan geven en die via NFS exporteren en terug importeren in je ESXi ? :+

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Enige waarmee dat kan is FreeNAS. Op zich heeft hij wel een klein puntje, dat je altijd 1 datastore moet hebben bij iets anders dan FreeNAS :)

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Via andere BSD varianten kan je toch ook perfect booten van USB? Of wat wil je zeggen dat dat alleen kan met FreeNAS?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Booten van USB is niet het probleem, je wil dus je root op je array leggen, dat vind ik dan weer wat minder...

Even niets...


  • HyperBart
  • Registratie: Maart 2006
  • Nu online
FireDrunk schreef op donderdag 01 september 2011 @ 19:54:
Booten van USB is niet het probleem, je wil dus je root op je array leggen, dat vind ik dan weer wat minder...
Je root? Je bedoelt het OS zelf of hoe? Ik volg je even niet :+

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 10:35
FireDrunk schreef op donderdag 01 september 2011 @ 19:28:
Enige waarmee dat kan is FreeNAS. Op zich heeft hij wel een klein puntje, dat je altijd 1 datastore moet hebben bij iets anders dan FreeNAS :)
Inderdaad, dat bedoel ik, als ik mijn 2 onboard controllers reserveer voor passthrough en geen datastores kan aanmaken op USB stick, dan vrees ik dat ik nergens storage heb... :)
Tenzij ik iets mis natuurlijk!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op donderdag 01 september 2011 @ 19:28:
Enige waarmee dat kan is FreeNAS. Op zich heeft hij wel een klein puntje, dat je altijd 1 datastore moet hebben bij iets anders dan FreeNAS :)
Booten van USB is iig met ESXi 4.1 onmogelijk voor VM's, het bios van de vm's ondersteunt het simpel weg niet.
Daarnaast kun je afaik geen vm's aanmaken zolang je geen datastore hebt, dus je krijgt een kip-ei verhaal :)

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 13-09 14:46
VMDirectPath niet aan de gang kunnen krijgen in ESXi 5 met een HD5450... Krijg de bekende atikmpag.sys BSOD. Misschien binnenkort eens proberen met een HD5670, welke ook wel goede verhalen lijkt te geven.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Zer0 schreef op donderdag 01 september 2011 @ 22:07:
[...]

Booten van USB is iig met ESXi 4.1 onmogelijk voor VM's, het bios van de vm's ondersteunt het simpel weg niet.
Daarnaast kun je afaik geen vm's aanmaken zolang je geen datastore hebt, dus je krijgt een kip-ei verhaal :)
Daarom is een USB Stick met FreeNAS erop doorgeven aan een VM de enige manier waarop je van USB kan draaien. In FreeNAS geef je dan weer een NFS (of iSCSI) volume terug aan je ESX host, waarom je eventuele andere VM's draait.

Met een volwaardige FreeBSD distro is dat wat lastiger.

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

FireDrunk schreef op zondag 04 september 2011 @ 22:17:
[...]


Daarom is een USB Stick met FreeNAS erop doorgeven aan een VM de enige manier waarop je van USB kan draaien.
Zoals ik al zei, dat werkt niet omdat het VM-bios niet van USB kan booten. Als je me een werkende handleiding voor ESXi 4.1 of 5 kunt geven zou ik het graag doen, maar afaik is het niet mogelijk.
Ik heb veel posts gezien waarin deze methode voorgesteld werd, en het altijd voor mogelijk gehouden, tot ik het werkelijk wou gaan doen.

[ Voor 13% gewijzigd door Zer0 op 05-09-2011 01:19 ]

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Controller en stick juist doorgemapped (niet dat je daar veel fout kan doen, maar toch...)? Zie je 'm als je in de VM een OS hebt geïnstalleerd?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Hmm, ik heb het zelf inderdaad nooit geprobeerd, maar was ook altijd in de veronderstelling dat dat kon...
Ik zal het eens proberen wanneer ik tijd heb.

Even niets...


Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

HyperBart schreef op maandag 05 september 2011 @ 08:49:
Controller en stick juist doorgemapped (niet dat je daar veel fout kan doen, maar toch...)? Zie je 'm als je in de VM een OS hebt geïnstalleerd?
Als je hem mapt zul je hem inderdaad zien in een VM, en je kunt er ook Freenas op installeren (of elk willekeurig ander OS wat op stick kan)....... maar, zoals ik eerder zei, je kunt in het bios van de vm het usb device niet als boot device instellen, dus zal hij er nooit van opstarten.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Daar kun je ook weer omheen werken. Booten van een ISO met een bootloader die vervolgens van USB boot. Het probleem blijft dat je een datastore moet hebben om een VM aan te maken. Er moet ergens een .vmx staan die een naam van de machine aan de stick koppelt. vSphere laat alleen datastores zien. Via de CLI moet je een volledig pad opgeven, maar ik weer niet of je een ext3 partitie kan gebruiken ipv vmfs.

Die ISO kan zeker op de ESXi partitie staan en heb je dus geen datastore voor nodig.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Heb je toevallig een NAS staan? Dan zou je die als beperkte SAN kunnen gebruiken..., één VM er op gooien en zo een VM aanmaken die storage presenteert aan je bak...

Kan je niet op basis van een CF-kaartje werken dat je aansluit op je moederbord via een IDE-aansluiting?


Dat heeft je bak niet, spijtig...

Mja, zonder SAN moet je een lokale disk hebben...

Wat ik nu wel aan het denken ben :+ , ESXi booten van USB, Storage-VM aanmaken, storage presenteren aan ESXi, Storage-VM vMotionen naar zichzelf, wil wel eens weten wat dat geeft :+

[ Voor 87% gewijzigd door HyperBart op 05-09-2011 16:39 ]


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Heeft iemand van jullie ervaring met ESXi icm een USB DVB-S tuner om tv op te nemen?

Gezien de ervaringen van Nextron met USB en ESXi is de kans erg klein dat dit goed zou werken lijkt me?

[ Voor 4% gewijzigd door sloth op 06-09-2011 01:12 ]


Acties:
  • 0 Henk 'm!

  • odelay
  • Registratie: Oktober 2000
  • Laatst online: 14-09 11:43
Ik heb een DVB-C usb stick middels passthrough aan een VM gegeven en dat werkt uitstekend!

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Ik lees net dat jouw setup VT-D ondersteuning heeft en het zonder VT-D niet lekker werkte.
Mijn build heeft dit niet, bummer.. -O-

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
HyperBart schreef op maandag 05 september 2011 @ 16:33:
Heb je toevallig een NAS staan? Dan zou je die als beperkte SAN kunnen gebruiken..., één VM er op gooien en zo een VM aanmaken die storage presenteert aan je bak...

Kan je niet op basis van een CF-kaartje werken dat je aansluit op je moederbord via een IDE-aansluiting?


Dat heeft je bak niet, spijtig...

Mja, zonder SAN moet je een lokale disk hebben...

Wat ik nu wel aan het denken ben :+ , ESXi booten van USB, Storage-VM aanmaken, storage presenteren aan ESXi, Storage-VM vMotionen naar zichzelf, wil wel eens weten wat dat geeft :+
Misschien als je HEEL lucky bent goed, maar zodra je reboot doet hij het niet meer, want de storage om de NFS mount te starten is niet beschikbaar, omdat die op de NFS mount staat :)

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
FireDrunk schreef op dinsdag 06 september 2011 @ 13:35:
[...]


Misschien als je HEEL lucky bent goed, maar zodra je reboot doet hij het niet meer, want de storage om de NFS mount te starten is niet beschikbaar, omdat die op de NFS mount staat :)
Jeah I know, bij een reboot kan je het vergeten...
Yow dawg, we heard you like virtualisation so we put a VM on a VM
:+
sloth schreef op dinsdag 06 september 2011 @ 10:32:
Ik lees net dat jouw setup VT-D ondersteuning heeft en het zonder VT-D niet lekker werkte.
Mijn build heeft dit niet, bummer.. -O-
Updateplan I hear coming :*)

Hmmm, mijn bestelling bij Zercom is eindelijk geaccepteerd, beetje een fuckup gebeurd daar omdat een familielied die ook stukken in bestelling had staan het onder een fout ordernummer had overgeschreven...
Soit, bestelling wordt geplaatst, al kennende komt dat volgende week aan (grote bestelling, PC + UPS).

Dus tegen dan kunnen we weer experimenteren :) . UPS er op hangen gaat ook wel leuk worden, de ESXi en de NAS worden hiermee beschermd, geeft mij weer een "ease of mind" als het bliksemt en het beschermt mijn apparatuur...

Voor de geïnteresseerden heb ik dit ook nog gevonden: http://www.techhead.co.uk...-failure-using-an-apc-ups

Ik zit alleen nog met één probleem, namelijk mijn NAS, die is eigenlijk van primair belang in het veilig shutdown'en wegens RAID5 en belangrijke data daar op (nu ik heb wel een backup, maar niet van mijn media). Nu wil ik iets uitdenken waarbij ik de UPS via USB aansluit op de NAS en deze op de een of andere manier (desnoods indirect (bv via VM)) een commando stuurt naar ESXi dat hij moet afsluiten...

Tips iemand?

[ Voor 68% gewijzigd door HyperBart op 06-09-2011 16:10 ]


Acties:
  • 0 Henk 'm!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 02-09 09:58
Root access via ssh op je esxi open zetten dan kun je toch over ssh shutdown geven en sluiten de vms netjes af?

Acties:
  • 0 Henk 'm!

  • MrOizo2005
  • Registratie: September 2003
  • Laatst online: 13-09 15:58
Staatslot schreef op dinsdag 06 september 2011 @ 16:36:
Root access via ssh op je esxi open zetten dan kun je toch over ssh shutdown geven en sluiten de vms netjes af?
Ja klopt, zou alleen wel in je router een ip allow list aan gooien op de betreffende poort.
gewoon commando "reboot" werkt prima. alleen bedenk ik me net moeten de VM's wel netjes de VM-tools hebben.

Also known as Oizopower | When Life Gives You Questions, Google has Answers


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Shutdown via SSH werkt niet altijd even goed heb ik gemerkt, als je host vind dat je VM's er te lang over doen gaattie gewoon uit...

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Hmmm, * HyperBart is weer in doubt...

Heb de kans om via via een servertje aan te kopen...
Intel machinetje, een SSD bootdrive, hotswap drivebays... en absoluut niet duur :)

Wel geen ***** zuinigheid meer, maar boy oh boy wat een bakje :9

Leuk om ooit wat naar te vMotionen of binnenkort met VSA te rommelen :)

[ Voor 79% gewijzigd door HyperBart op 09-09-2011 16:40 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
VSA op 1 machine is natuurlijk kul... En tussen 2 verschillende systemen lijkt het me ook niet echt wenselijk, maar het kan.

Wel een vette bak :)

Denk wel dat het ding een T***** herrie maakt....

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
FireDrunk schreef op vrijdag 09 september 2011 @ 15:56:
Denk wel dat het ding een T***** herrie maakt....
Je moet toch met iets het ongedierte in de kelder wegjagen eh :+

Dat ding vol met disks proppen en je hebt een zalige backup array :o

Ik koop 'm, dat staat vast :P

[ Voor 55% gewijzigd door HyperBart op 09-09-2011 16:43 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
300 eu? Dan wil ik hem wel :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
HyperBart schreef op vrijdag 09 september 2011 @ 15:56:
[...]

Je moet toch met iets het ongedierte in de kelder wegjagen eh :+

Dat ding vol met disks proppen en je hebt een zalige backup array :o

Ik koop 'm, dat staat vast :P
Ik 'hoor' een nieuw topic opkomen: het grote slurp en herrie topic :P

Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Mijn bestelling komt morgen ook binnen maar is wel met een iets andere invalshoek.

Het is bij mij nog even de vraag of mijn combinatie van een ESXi/HTPC gaat werken.

#ProductPrijsSubtotaal
1Intel Core i5 2400€ 149,95€ 149,95
1Crucial m4 CT064M4SSD2 64GB€ 86,85€ 86,85
1Kingston KHX1600C9D3X2K2/8GX€ 42,-€ 42,-
1Asrock Z68M-ITX/HT€ 97,-€ 97,-
Bekijk collectie
Importeer producten
Totaal€ 375,80


Een iets andere combinatie dan doorgaans hier in het topic. Het is de bedoeling om ESXi te draaien vanaf CF/USB met daarop een HTPC VM. Zoals bij zovelen levert het VGA verhaal met VT-d problemen op dus plan B is Windows 7 + VMware Workstation.

Gezien de i5 2400 het instapmodel is voor VT-d, heb ik die gekozen. De bedoeling is om deze wel te undervolten/underclocken maar dat lijkt doorgaans helemaal niet veel uit te maken volgens een aantal reviews.

Compatibel geheugen genomen welke ook op de HCL van het moederbord staat. Vanwege de prijs een 8GB kit welke ik later kan vervangen voor 16GB wanneer dit rendabel is. Voor die paar euro extra DDR3-1600 gekozen.

De Crucial M4 lijkt de beste koop op dit moment volgens 'Het Grote SSD topic'. Van de 64GB houd ik 56GB over voor de Virtual Machines (~8GB stuk).

Het moederbord is natuurlijk wel erg spectaculair qua features in verhouding maar aan de andere kant ook wel erg handig. Ik blijf in elk geval flexibel met de inzet als ESXi of HTPC. Betreft de power consumption is het niet heel anders dan andere configuraties.

Dit alles in een Viako ML Self-I case met een DC-DC PSU :)

Overigens heb ik al een data schijf.

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

HyperBart schreef op maandag 22 augustus 2011 @ 14:13:
ik wil eigenlijk vermijden dat dit een whitebox topic komt, we kunnen nu een i7 ook niet bepaald "zuinig" noemen...
HyperBart schreef op vrijdag 09 september 2011 @ 15:54:
Wel geen ***** zuinigheid meer, maar boy oh boy wat een bakje :9
LOL The shroud of the dark side has fallen. :P
Pascal Saul schreef op vrijdag 09 september 2011 @ 16:44:
De Crucial M4 lijkt de beste koop op dit moment volgens 'Het Grote SSD topic'. Van de 64GB houd ik 56GB over voor de Virtual Machines (~8GB stuk).
Daar gaan ze er waarschijnlijk van uit dat er trim-ondersteuning is?

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Nextron schreef op zaterdag 10 september 2011 @ 00:37:
[...]


[...]
LOL The shroud of the dark side has fallen. :P

[...]
Daar gaan ze er waarschijnlijk van uit dat er trim-ondersteuning is?
Zie review hier (128GB): reviews: Crucial m4: koning onder de ssd's

of: http://www.tomshardware.c...city-comparison,2957.html
of: http://www.tomshardware.c...d-reliability,2998-3.html
of: Het grote SSD topic ~ Deel 9

[ Voor 20% gewijzigd door Pascal Saul op 10-09-2011 12:21 ]


  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Nextron schreef op zaterdag 10 september 2011 @ 00:37:
[...]


[...]
LOL The shroud of the dark side has fallen. :P
* HyperBart gaat in een hoekje zitten en zich dikke man schamen...

Ja ja, pot heeft net gebeld om te zeggen dat ik zwart ben... :+

Wordt hier wel gezellig volgende week, 3 ESXi bakken :+, ik heb dus HEEL dringend die VSA nodig ;)

[ Voor 12% gewijzigd door HyperBart op 10-09-2011 13:25 ]


Verwijderd

Dit moet zowat het meest informatieve topic zijn dat ik tot hiertoe gevonden heb voor wat betreft het gebruik van ESXi buiten datacenters. In ieder geval interessant genoeg om me ertoe te bewegen te registreren zodat ik hier ook kon posten ;)

Even voor wat betreft het "zuinig" stuk: daar heb ik blijkbaar niet helemaal dezelfde invulling voor als vele anderen hier. Voor mij betekent dit niet het minimaliseren van het verbruikte vermogen, maar het maximaliseren van de prestaties per verbruikt vermogen. Uiteraard moet je ook even kijken naar hoeveel prestatie je eigenlijk nodig hebt, want teveel is ook weggegooid geld. Ik heb bijvoorbeeld waarschijnlijk geen i7 2600 nodig, maar die lijkt me verder anders best zuinig als je kijkt naar wat die aan prestaties levert.

Er zijn meerdere redenen waarom ik een ESXi server wil opzetten, maar bezuiniging van energie is zeker een belangrijke. Op dit ogenblik draai ik 24/7 een ipcop firewall op een oude pentium 2 en af en toe een Fedora 12 met KVM op een phenom am2+ X4. De eerste begint erg oud te worden en hoewel de tweede min of meer werkt, zoek ik toch iets gebruiksvriendelijker.

Waar ik naar toe wil voor VMs op mijn ESXi:
1. Raid Z2 NAS/SAN server: OpenIndiana/Napp-it
2. goede firewall/router/VPN: pfSense lijkt toch meer mogelijkheden te hebben dan IPcop op dit gebied
3. Zimbra mailserver: draai ik onder KVM nu reeds op Ubuntu
4. Webserver: nog geen keuze voor gemaakt, maar wordt waarschijnlijk Apache onder Fedora of Ubuntu
5. scanpc: Windows 2000 Pro voor gebruik met HP OfficeJet G85 op JetDirect. Dit is het enige OS waarvoor ik de volledige mogelijkheden van het toestel werkend heb gekregen. Geen 24/7 gebruik nodig hiervoor, al vraag ik me af of ik wel iets zou bezuinigen door die tussendoor uit te schakelen.
6. VOCP pc: kan mogelijk toegevoegd worden op de webserver.
7. windows remote werkstation: de scanpc kan dit zeker deels opvangen, maar een modernere windows zou voor sommige zaken toch wenselijker zijn. Adobe Flash houdt niet meer van Windows 2000 om maar iets te noemen.
8. domain controller: kan in theorie door samba, maar wenselijker om dit over te laten aan een m$ OS. Als ik de scanpc verander in een 2000 server, zijn die twee functies ook weer te combineren :)
9. wat ik ook kan bedenken in de toekomst....

Dit is de installatie die ik gepland had:
- ESXi (4.1 of 5.0, nog niet over uit) op 300GB HD aangesloten op een SATA-II van het moederbord. Data store "HDstore" op deze disk. Ik zie niet echt een goede reden om ESXi op een USB-stick te willen hebben.
- Data store "SSDstore" op SSD aangesloten op een SATA-III van het moederbord
- VM OpenIndiana op "SSDstore" (backup op HD)
- Data store "NASstore" als NFS export van OpenIndiana
- alle andere servers op "NASstore" met swap op "SSDstore". Backup van firewall op HD want die is te belangrijk en moet nog kunnen werken als de NAS server besluit even moeilijk te doen. Proxy cache kan op "HDstore" want die is niet belangrijk genoeg om raid aan te verspillen.

Kwestie van hardware zijn er al een aantal zaken die ik reeds heb en wens te hergebruiken:
- 7x 7200RPM SATA-II 1.5TB HD
- 2 Chieftec SATA backplanes (4x SATA HD in de ene, 3x SATA HD in de andere)
- Chieftec full tower case
- 300GB SATA-II HD

Voor wat betreft nieuwe hardware:
- CPU: i5 2400 komt in zowat alle reviews uit de bus als de beste keuze voor performance/price (beter dan i5 2400S en veel beter dan i3). Bovendien ondersteunt die VT-d wat ik "nodig" heb voor de OI/Napp-it NAS en de WAN interface voor de firewall
- moederbord: niet veel keuze als je VT-d wil gebruiken: Intel DQ67SWB3
- DDR3 geheugen: 4x8GB is veel te duur, dus 4x4GB van wat het goedkoopst is op het ogenblik van de aankoop
- NIC: Intel EXPI9301CT is goedkoop en werkt blijkbaar voor ESXi. Ik zou liever een multi-port kaart gebruiken en die in het x4 slot steken, maar die zijn ook waanzinnig duur. Misschien dat de prijs ervan ooit zakt of ik ergens voor een redelijkere prijs zo'n 4-poorts kaart kan vinden. Afgaande op wat ik las, is het echter ook niet zo evident om ESXi te doen werken met zo'n kaart.
- SSD: de OCZ Agility3 60G lijkt een prima keuze.

Resten enkele zaken waarover ik nog erg twijfel:

1) de voeding: ik heb op dit ogenblik een be-quiet 700W voeding in gebruik in het systeem met de 7 schijven en dat is een beetje overkill. Maar de 300W die hier aanbevolen wordt, lijkt me nogal zuinigjes genomen. Mij is steeds verteld dat je voeding niet te slap mag zijn als je geen problemen met de stabiliteit van je PC wil krijgen, dus wat is volgens jullie voldoende ? Is het verlies bij gebruik van een wat zwaardere voeding trouwens de moeite om over wakker te liggen of is dat maar marginaal ?

2) de extra SATA controller: de Intel SASUC8I is een goedkope 8 poorts kaart, maar ik begrijp dat die geen disken van 3TB ondersteunt. Op dit ogenblik zijn mijn disken niet zo groot, maar vroeg of laat swap ik ze toch uit voor beter en dan wil ik liever niet op problemen botsen. Iemand een aanbeveling voor iets dat werkt om via VT-d door te geven aan OpenIndiana ? SATA-II is voor mij genoeg want ik zie harde schijven nog niet snel de extra snelheid van SATA-III benutten. Ook vraag ik me af of zo'n kaart kan gebruikt worden in het x16 slot van het moederbord.

3) Voor de 32GB limiet van ESXi 5.0 is me nog niet geheel duidelijk hoe die geteld wordt. Is dat de som van het geheugen toegewezen aan alle geïnstalleerde VMs ? Of enkel van degenen die tegelijk gestart zijn ? Of is het toch fysiek geheugen in welk geval ik me die limiet zeker niet moet aantrekken. Voorlopig ben ik me nog ernstig aan het afvragen of ESXi 5.0 me iets biedt dat de moeite is om ESXi 4.1 voor te laten.

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Verwijderd schreef op zaterdag 10 september 2011 @ 15:19:
Dit moet zowat het meest informatieve topic zijn dat ik tot hiertoe gevonden heb voor wat betreft het gebruik van ESXi buiten datacenters. In ieder geval interessant genoeg om me ertoe te bewegen te registreren zodat ik hier ook kon posten ;)
Glad to hear, welkom alvast :)
Even voor wat betreft het "zuinig" stuk: daar heb ik blijkbaar niet helemaal dezelfde invulling voor als vele anderen hier. Voor mij betekent dit niet het minimaliseren van het verbruikte vermogen, maar het maximaliseren van de prestaties per verbruikt vermogen. Uiteraard moet je ook even kijken naar hoeveel prestatie je eigenlijk nodig hebt, want teveel is ook weggegooid geld. Ik heb bijvoorbeeld waarschijnlijk geen i7 2600 nodig, maar die lijkt me verder anders best zuinig als je kijkt naar wat die aan prestaties levert.
Zuinig is een relatief begrip... Als jij 1000VM's kan draaien op een host en die host trekt 1kW uit het stopcontact dan ben je VM/W gezien heel zuinig, absoluut gezien niet... We proberen daar een gulden middenweg tussen te vinden, enkele pagina's geleden was er daar nog een geanimeerde discussie daarover tussen enkele Tweakers... We hebben wel enkele grenzen daaromtrent ingesteld... Maar stel nu dat je hier af komt met een i7 machine en dat is de enige onzuinige component, dan gaan we je daarvoor niet scheef aankijken :) . Let je bv al wat op de gebruikte HDD's (Green series bv en onderbouwing daaromtrent), doe je al moeite om disks te laten downspinnen enz, dat maakt het natuurlijk allemaal wat aannemelijker... :) . Kijk eens even in de vorige posts omtrent die grens en probeer daar naar te werken... ;)
Er zijn meerdere redenen waarom ik een ESXi server wil opzetten, maar bezuiniging van energie is zeker een belangrijke. Op dit ogenblik draai ik 24/7 een ipcop firewall op een oude pentium 2 en af en toe een Fedora 12 met KVM op een phenom am2+ X4. De eerste begint erg oud te worden en hoewel de tweede min of meer werkt, zoek ik toch iets gebruiksvriendelijker.

Waar ik naar toe wil voor VMs op mijn ESXi:
1. Raid Z2 NAS/SAN server: OpenIndiana/Napp-it
2. goede firewall/router/VPN: pfSense lijkt toch meer mogelijkheden te hebben dan IPcop op dit gebied
3. Zimbra mailserver: draai ik onder KVM nu reeds op Ubuntu
4. Webserver: nog geen keuze voor gemaakt, maar wordt waarschijnlijk Apache onder Fedora of Ubuntu
5. scanpc: Windows 2000 Pro voor gebruik met HP OfficeJet G85 op JetDirect. Dit is het enige OS waarvoor ik de volledige mogelijkheden van het toestel werkend heb gekregen. Geen 24/7 gebruik nodig hiervoor, al vraag ik me af of ik wel iets zou bezuinigen door die tussendoor uit te schakelen.
6. VOCP pc: kan mogelijk toegevoegd worden op de webserver.
Wat is een VOCP PC?
7. windows remote werkstation: de scanpc kan dit zeker deels opvangen, maar een modernere windows zou voor sommige zaken toch wenselijker zijn. Adobe Flash houdt niet meer van Windows 2000 om maar iets te noemen.
8. domain controller: kan in theorie door samba, maar wenselijker om dit over te laten aan een m$ OS. Als ik de scanpc verander in een 2000 server, zijn die twee functies ook weer te combineren :)
Draai dan ineens de W2K8R2, veel leukere functies en je kan dan als je het echt wil die W2K8R2 als remote machine gebruiken... Spaar je weer een VM uit, alhoewel ik VM's deploy naar eigen zin... Binnenkort is het gedaan met XP, voorlopig voldoet dat nog als remote machine of "hulp-machine" op het werk zelfs, maar ooit moet ik ook overstappen op W7...
9. wat ik ook kan bedenken in de toekomst....
Met virtualisatie zit je flexibel :)
Dit is de installatie die ik gepland had:
- ESXi (4.1 of 5.0, nog niet over uit) op 300GB HD aangesloten op een SATA-II van het moederbord. Data store "HDstore" op deze disk. Ik zie niet echt een goede reden om ESXi op een USB-stick te willen hebben.
Makkelijker te updaten, ik zit altijd te kl*ten om 'm juist te formatteren en zorgen dat ie geen foutmeldingen geeft omdat hij al een ESXi installatie vind enz... Een USB stick sluit je makkelijk aan op een ander laptop of desktop, formatteren en huppa...
- Data store "SSDstore" op SSD aangesloten op een SATA-III van het moederbord
Als je ESXi 5 gebruikt kan hij die automatisch als "swap-drive" op hypervisor niveau gebruiken, je kan dat ook handmatig bewerkstelligen in de 4 door je swap files naar de SSD te moven, maar dat vind ik minder clean...
- VM OpenIndiana op "SSDstore" (backup op HD)
Hoe wil je dat doen? RDM's? Dan kreeg je problemen met ZFS als ik het goed begreep...
- Data store "NASstore" als NFS export van OpenIndiana
- alle andere servers op "NASstore" met swap op "SSDstore". Backup van firewall op HD want die is te belangrijk en moet nog kunnen werken als de NAS server besluit even moeilijk te doen. Proxy cache kan op "HDstore" want die is niet belangrijk genoeg om raid aan te verspillen.
Lijkt me een goed plan... Cfr mijn vorige comment ivm versie 5
Kwestie van hardware zijn er al een aantal zaken die ik reeds heb en wens te hergebruiken:
- 7x 7200RPM SATA-II 1.5TB HD
Hergebruiken van materiaal is niet bepaald altijd zuinig omdat die niet met die insteek origineel is gekocht, welke type's en merk betreft het?
- 2 Chieftec SATA backplanes (4x SATA HD in de ene, 3x SATA HD in de andere)
- Chieftec full tower case
- 300GB SATA-II HD
Merk en serie?
Voor wat betreft nieuwe hardware:
- CPU: i5 2400 komt in zowat alle reviews uit de bus als de beste keuze voor performance/price (beter dan i5 2400S en veel beter dan i3). Bovendien ondersteunt die VT-d wat ik "nodig" heb voor de OI/Napp-it NAS en de WAN interface voor de firewall
- moederbord: niet veel keuze als je VT-d wil gebruiken: Intel DQ67SWB3
OWB3 is ook nog een optie :+
- DDR3 geheugen: 4x8GB is veel te duur, dus 4x4GB van wat het goedkoopst is op het ogenblik van de aankoop
Idem, ik heb het ook zo gedaan, maar als het aan mij lag had ik er onmiddellijk 4x4GB ingestoken ipv 2x4 en daarna nog eens, nu zit ik met twee verschillende setjes...
- NIC: Intel EXPI9301CT is goedkoop en werkt blijkbaar voor ESXi. Ik zou liever een multi-port kaart gebruiken en die in het x4 slot steken, maar die zijn ook waanzinnig duur. Misschien dat de prijs ervan ooit zakt of ik ergens voor een redelijkere prijs zo'n 4-poorts kaart kan vinden. Afgaande op wat ik las, is het echter ook niet zo evident om ESXi te doen werken met zo'n kaart.
Neem eens even contact met me op per mail aub, ik heb nog iets liggen voor jou...
- SSD: de OCZ Agility3 60G lijkt een prima keuze.
Bedenk wel dat de ESXi geen trim support biedt, is de OCZ agility echt een goede keus? Had die niet mindere Garbage collection (wat eigenlijk automatische trim is buiten het OS om...). Kijk even binnen het SSD-topic, ik ben daar ook wat vragen gaan stellen en op zoek geweest naar een SSD voor in mijn ESXi...
Resten enkele zaken waarover ik nog erg twijfel:

1) de voeding: ik heb op dit ogenblik een be-quiet 700W voeding in gebruik in het systeem met de 7 schijven en dat is een beetje overkill. Maar de 300W die hier aanbevolen wordt, lijkt me nogal zuinigjes genomen. Mij is steeds verteld dat je voeding niet te slap mag zijn als je geen problemen met de stabiliteit van je PC wil krijgen, dus wat is volgens jullie voldoende? Is het verlies bij gebruik van een wat zwaardere voeding trouwens de moeite om over wakker te liggen of is dat maar marginaal ?
Wat ik geleerd heb bij de blogs van mux is dat een voeding net het meest renderend is als hij goed belast wordt... Ik zou eens even gaan uitrekenen en navragen bij specialisten in deze materie of je toekomt met deze voeding...
2) de extra SATA controller: de Intel SASUC8I is een goedkope 8 poorts kaart, maar ik begrijp dat die geen disken van 3TB ondersteunt.
Prima kaartje van wat ik er van lees, maar dan moet je idd met die limiet kunnen leven... Nu ja, als je ooit wilt overstappen is dat nu ook niet het grote geld, kaartjes met +2TB ondersteuning zijn dun gezaaid, althans de goedkope als ik het goed lees...
Op dit ogenblik zijn mijn disken niet zo groot, maar vroeg of laat swap ik ze toch uit voor beter en dan wil ik liever niet op problemen botsen. Iemand een aanbeveling voor iets dat werkt om via VT-d door te geven aan OpenIndiana ? SATA-II is voor mij genoeg want ik zie harde schijven nog niet snel de extra snelheid van SATA-III benutten. Ook vraag ik me af of zo'n kaart kan gebruikt worden in het x16 slot van het moederbord.
Niet bekend mee...
3) Voor de 32GB limiet van ESXi 5.0 is me nog niet geheel duidelijk hoe die geteld wordt. Is dat de som van het geheugen toegewezen aan alle geïnstalleerde VMs ? Of enkel van degenen die tegelijk gestart zijn ? Of is het toch fysiek geheugen in welk geval ik me die limiet zeker niet moet aantrekken. Voorlopig ben ik me nog ernstig aan het afvragen of ESXi 5.0 me iets biedt dat de moeite is om ESXi 4.1 voor te laten.
Het is gebaseerd op de entitlement, dus het zogenaamde toegewezen geheugen... Dus als je de free draait kan je maar 32GB toekennen aan VM's...

VMware had met de prijzen van servers en geheugen gemerkt dat ze daar nogal wat lieten liggen, dus hebben ze het nu op vRAM gebaseerd, zeker als je naar Cisco-bakjes keek van 1U waar dan 128GB in stak, tja... Dan waren ze veel minder licenties kwijt, begin nu maar eens te tellen hoeveel het in de v5 licentiepolitiek kan kosten dan... :+

http://www.vmware.com/files/pdf/vsphere_pricing.pdf

  • Dragor
  • Registratie: Juni 2003
  • Laatst online: 08-02 11:04
Grappig dat nauba een aantal vragen stelde die ik ook had. :P

Het enige wat ik nog niet echt goed begrijp is hoe ESXi omgaat met de images van VM's. Als ik het goed begrijp wil nauba een SSD gebruiken om zijn NAS VM image op te zetten en te draaien, met een normale HDD als backup (mocht de SSD doodgaan) en dan alle andere images op een NFS share van de NAS zetten?

Betekent dat als je NAS VM doodgaat om wat voor reden dan ook, dat de rest van je VM's niet meer kunnen draaien?

Verwijderd

Een linux antwoordapparaat om het simpel te stellen. Nogal oud wel.
Zie http://www.vocpsystem.com/
Draai dan ineens de W2K8R2, veel leukere functies en je kan dan als je het echt wil die W2K8R2 als remote machine gebruiken... Spaar je weer een VM uit, alhoewel ik VM's deploy naar eigen zin... Binnenkort is het gedaan met XP, voorlopig voldoet dat nog als remote machine of "hulp-machine" op het werk zelfs, maar ooit moet ik ook overstappen op W7...
Ah, ik ben nog niet zo lang geleden overgestapt van 2000 naar XP :P
Om eerlijk te zijn ben ik niet zo'n voorstander van het gebruik van servers als werkstation. Je wil tenslotte liever niet je domeincontroller onderuit halen omdat je iets dom deed. De scanpc daareentegen zou maar dienen voor één welbepaald en goed gekend programma, dus daar is het risico laag. Verder zit ik ook met het punt dat ik niet zo direct een W2K8R2 DVD-tje in de kast heb liggen en die dingen zijn ook niet echt goedkoop.
Met virtualisatie zit je flexibel :)
Inderdaad :) Ik gebruik nu al KVM onder Fedora en VMware player op mijn windows PC. ESXi lijkt me echter toch net iets interessanter voor de 24/7 dingen.
Als je ESXi 5 gebruikt kan hij die automatisch als "swap-drive" op hypervisor niveau gebruiken, je kan dat ook handmatig bewerkstelligen in de 4 door je swap files naar de SSD te moven, maar dat vind ik minder clean...
Ik heb er wat tekstjes van gelezen, maar ik ben er toch nog niet achter waarom dat nieuwe systeem beter is. Extra mogelijkheden zijn altijd welkom natuurlijk, maar ik krijg niet de indruk dat dit me veel biedt.
Hoe wil je dat doen? RDM's? Dan kreeg je problemen met ZFS als ik het goed begreep...
Ik dacht dat ik toch vrij duidelijk gemaakt had dat ik met VT-d een 8-poort SATA controller aan OpenIndiana wilde geven. Geen RDM maar VT-d dus.
Hergebruiken van materiaal is niet bepaald altijd zuinig omdat die niet met die insteek origineel is gekocht, welke type's en merk betreft het?
Alle harde schijven zijn Seagate Baracuda, zowel de ene 300GB (7200.10) als de zeven 1.5TB (7200.11)
Bedenk wel dat de ESXi geen trim support biedt, is de OCZ agility echt een goede keus? Had die niet mindere Garbage collection (wat eigenlijk automatische trim is buiten het OS om...). Kijk even binnen het SSD-topic, ik ben daar ook wat vragen gaan stellen en op zoek geweest naar een SSD voor in mijn ESXi...
Ik zal het lokale topic eens raadplegen, maar de reviews die ik tot hiertoe vond, zeggen dat de OCZ Agility 3 zeer goede garbage collection heeft. Daarbij werd natuurlijk gewoonlijk wel vergeleken met Vertex 2 of Agility 2.
Wat ik geleerd heb bij de blogs van mux is dat een voeding net het meest renderend is als hij goed belast wordt...
Goed belast zal die waarschijnlijk het grootste deel van de tijd niet zijn denk ik wegens korte periodes van grote vraag en lange periodes van weinig gebruik. Helaas moet je voeding rekening houden met piekverbruik.
Prima kaartje van wat ik er van lees, maar dan moet je idd met die limiet kunnen leven... Nu ja, als je ooit wilt overstappen is dat nu ook niet het grote geld, kaartjes met +2TB ondersteuning zijn dun gezaaid, althans de goedkope als ik het goed lees...
Dan zal het waarschijnlijk moeten dienen. 7x 1.5TB in raid Z2 geeft me een goede 7TB, dus daar kom ik hopelijk wel even verder mee. Maar ik laat me niet verleiden toch uitspraken dat dit voor iedereen toch genoeg moet zijn O-)
Het is gebaseerd op de entitlement, dus het zogenaamde toegewezen geheugen... Dus als je de free draait kan je maar 32GB toekennen aan VM's...
Maar is dat effectief in gebruik zijnde VM's of worden degenen die uit staan meegeteld ? In dat laatste geval zet ik beter geen VM's op die ik maar af en toe opzet. Ik zou deze natuurlijk wel in een geneste ESXi kunnen plaatsen :*)

Verwijderd

Dragor schreef op zaterdag 10 september 2011 @ 16:27:
Betekent dat als je NAS VM doodgaat om wat voor reden dan ook, dat de rest van je VM's niet meer kunnen draaien?
Dat betekent inderdaad dat de NAS VM beter niet doodgaat, maar OpenIndiana zou toch vrij stabiel moeten zijn.

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Verwijderd schreef op zaterdag 10 september 2011 @ 17:06:
Ik heb er wat tekstjes van gelezen, maar ik ben er toch nog niet achter waarom dat nieuwe systeem beter is. Extra mogelijkheden zijn altijd welkom natuurlijk, maar ik krijg niet de indruk dat dit me veel biedt.
Goh ja, ik stap altijd redelijk snel over naar nieuwere versies als ik tot het besef kom dat er geen noemenswaardige veranderingen komen of ik er alleen maar op vooruit ga, ondersteuning voor bepaalde OS'en wordt weer beter, hardware matig wordt er wat meer ondersteund, bugs zijn geplet enz...
Ik dacht dat ik toch vrij duidelijk gemaakt had dat ik met VT-d een 8-poort SATA controller aan OpenIndiana wilde geven. Geen RDM maar VT-d dus.
True, maar dat stond wat verderop in de post, dit had ik niet aangepast :)
Alle harde schijven zijn Seagate Baracuda, zowel de ene 300GB (7200.10) als de zeven 1.5TB (7200.11)

Goed belast zal die waarschijnlijk het grootste deel van de tijd niet zijn denk ik wegens korte periodes van grote vraag en lange periodes van weinig gebruik. Helaas moet je voeding rekening houden met piekverbruik.
Met goed belast wil ik zeggen: als alle apparaten spinnen, natuurlijk moet je dan nog ruimte over hebben om je CPU op full speed te kunnen draaien om pieken te kunnen opvangen... Maar ik heb het vooral op de HDD's omdat die nogal wat pieken kunnen trekken...
[...]

Dan zal het waarschijnlijk moeten dienen. 7x 1.5TB in raid Z2 geeft me een goede 7TB, dus daar kom ik hopelijk wel even verder mee. Maar ik laat me niet verleiden toch uitspraken dat dit voor iedereen toch genoeg moet zijn O-)


[...]

Maar is dat effectief in gebruik zijnde VM's of worden degenen die uit staan meegeteld ? In dat laatste geval zet ik beter geen VM's op die ik maar af en toe opzet. Ik zou deze natuurlijk wel in een geneste ESXi kunnen plaatsen :*)
Lees die PDF nu eens door :P en dan vooral:
vRAM per VM
Hoeveel denk je met deze bak maximaal uit het stopcontact te trekken?

Verwijderd

HyperBart schreef op zaterdag 10 september 2011 @ 20:33:
Met goed belast wil ik zeggen: als alle apparaten spinnen, natuurlijk moet je dan nog ruimte over hebben om je CPU op full speed te kunnen draaien om pieken te kunnen opvangen... Maar ik heb het vooral op de HDD's omdat die nogal wat pieken kunnen trekken...
Hoeveel denk je met deze bak maximaal uit het stopcontact te trekken?
Volgens wat ik in allerlei artikels terugvindt, is het piekverbruik van een harde schijf bij het opstarten. Acht harde schijven maal 30W geschat maximaal startverbruik brengt me op 240W (ok, dat is het slechts denkbare geval, maar ik ben geen optimist ;)). Voeg er dan 95W bij van de i5 en ik zit aan 335W. Al de rest samen (onboard video, netwerk, SSD, USB devices, ...) zal ik moeten schatten, maar die zouden denk ik zo toch moeten toekomen met 100W samen. Dat brengt me dus op een 450W voeding of 500W als je het een beetje veiliger wil doen.

Aangezien 7 van de harde schijven in een raid Z2 geplaatst worden waarvan van alle kanten gelezen en geschreven wordt, zal ik er van mogen uitgaan dat die eigenlijk nooit down zullen spinnen en in het beste geval slechts lichtjes belast worden. De CPU daarentegen zie ik voornamelijk op laag niveau werken met slechts af en toe een piek. Werkende harde schijven horen toe te komen met 10W en een half slapende i5 2400 met 20W wat me aan 100W brengt. Laat ons zeggen dat de rest uitkomt op de helft van mijn geschat piekverbruik, dan zit ik met 150W totaal voor normaal gebruik aan 30% van een 500W voeding.

Dit is wel "natte vinger werk" en aan de hand van wat jullie zelf gemeten hebben, verwacht ik dat het dalverbruik flink lager zal uitkomen.
Lees die PDF nu eens door :P en dan vooral:
[...]
Als ik ervan uitga dat de gratis hypervisor dezelfde regeltjes volgt als de betalende vSphere, dat moet ik dus enkel het geheugen tellen van de gestarte VM's.

O-) Ik vraag me wel af of het volgende werkt zoals ik me voorstel:
Stel, je hebt een PC met 32GB RAM. Hierop installeer je de 5.0, maak je 2 VM's aan die je elk 16GB toewijst en waarop je telkens opnieuw de 5.0 installeert. Dan heb je nu twee "virtuele" Hypervisors die 16GB echt geheugen hebben toegewezen gekregen maar die 32GB vRAM aan hun eigen VM's mogen geven.
Volgens mij kan je zo aan het einde van de rit voor 64GB aan VM's installeren voor de kost van een extra hypervisor layer. Niet geschikt voor een productie natuurlijk, maar een thuisgebruiker zou zo kunnen werken om binnen de regels te blijven.
Aangezien ikzelf slechts 16GB in mijn PC heb zitten en ik denk dat 100% overcommitting wel genoeg is, ga ik het zelf niet gebruiken 8)

Acties:
  • 0 Henk 'm!

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 00:24

Nextron

Ik weet dat ik niets weet

Om de piekspanning van de HD's te spreiden kan je kijken naar staggered spinup.
Je overige schattingen zijn ook behoorlijk hoog. Bij HD's moet er nou eenmaal die spindel op 5400RPM gebracht worden, wat de piek verklaart. Als de overige componenten zo een hoog verbruik zouden hebben zou er ook wel een fan of koelblok op zitten om de warmte die dat produceert af te voeren.
Mijn systeem met 6 HD's verbruikt tijdens het booten 150W.

Met betrekking tot de geneste ESXi; zodra (v)VM's op één van de (v)ESXi's meer dan 16GB vRAM gebruiken zal (v)ESXi de swap gaan gebruiken ook al is er nog 16GB RAM vrij. Je kan op die manier dus wel 2x32GB (v)vRAM toewijzen maar wel met een flinke beperking... of je moet de (v)ESXi's in trial onderling laten (v)vMotionen en elke twee maanden een snapshot terugzetten, maar dan nog geven drie (v)VM's van 10GB bezette (v)vRAM op 32GB RAM een allocatieprobleem.
* Nextron telt alle v-tjes na.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


Acties:
  • 0 Henk 'm!

Verwijderd

Nextron schreef op zondag 11 september 2011 @ 00:41:
Om de piekspanning van de HD's te spreiden kan je kijken naar staggered spinup.
Ik heb dat hier al een paar keer vermeld gezien, maar heb geen idee hoe je dat aanpakt. Is dat een eigenschap van de SATA controller ? En geeft dat geen problemen als het OS opgestart is (wegens geïnstalleerd op SSD) maar de harde schijven van de storage nog niet allemaal opgespind zijn ? Ik zou niet graag zien dat OpenIndiana één of meer van de HD's in mijn raid Z2 defect verklaart eenvoudig omdat die nog niet opgespind is.

Aangezien ik niet echt veel ervaring heb met ESXi, weet ik niet of ik een delay voor het opstarten kan instellen. Wel ben ik ergens tegengekomen dat je een opstartvolgorde kan instellen en dat is maar goed ook omdat mijn OI de datastorage voor de rest zal moeten aanbieden. In het slechtste geval blijft er natuurlijk manuele startup over. Het is niet mijn bedoeling die server dikwijls uit te schakelen, dus dat hoeft niet echt een probleem te zijn.
Je overige schattingen zijn ook behoorlijk hoog. Bij HD's moet er nou eenmaal die spindel op 5400RPM gebracht worden, wat de piek verklaart.
Ik ben me ervan bewust dat ik hoog ingeschat heb. Noem het maar jarenlang voorzichtig zijn dat ik niet met een te slappe voeding kwam te zitten. Overigens zijn al mijn harde schijven 7200RPM, geen 5400 en ik vermoed dat dit in de startstroom ook wel zal meespelen. Tot slot zitten ze ingebouwd in twee SATA hotswap bays die elk eigen koeling hebben. Veel extra verbruik zal dat wellicht niet geven.
Als de overige componenten zo een hoog verbruik zouden hebben zou er ook wel een fan of koelblok op zitten om de warmte die dat produceert af te voeren.
Mijn systeem met 6 HD's verbruikt tijdens het booten 150W.
Dat is veel minder dan ik verwachtte voor een systeem met 6 schijven :o Maar ik neem aan dat die dus staggered opstarten en 5400RPM zijn. Niettemin kan ik dan misschien toch wel een 350W voeding riskeren. Zo duur zijn die nu ook weer niet. Een be quiet! Pure Power 350W kost hier € 45,- en dan moet ik alleen eens kijken of ik geen extra splitters moet kopen om alles aan te sluiten.
Met betrekking tot de geneste ESXi; zodra (v)VM's op één van de (v)ESXi's meer dan 16GB vRAM gebruiken zal (v)ESXi de swap gaan gebruiken ook al is er nog 16GB RAM vrij.
Correct, maar ik zou wel verwachten als je voor zo'n opstelling kiest dat je je VM's probeert min of meer gelijk te verdelen over de twee virtuele (v)ESXi's.
Je kan op die manier dus wel 2x32GB (v)vRAM toewijzen maar wel met een flinke beperking... of je moet de (v)ESXi's in trial onderling laten (v)vMotionen en elke twee maanden een snapshot terugzetten,
Dat lijkt me niet erg handig werken.
maar dan nog geven drie (v)VM's van 10GB bezette (v)vRAM op 32GB RAM een allocatieprobleem.
4 GB overallocation op 16 is waarschijnlijk geen ramp. Als je VM's van een type zijn dat effectief geheugen verbruikt tegen de limiet, hoef je natuurlijk geen moeite te doen en kan je ze ineens op je ESXi installeren zondere (v)ESXI servers op te zetten.

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Verwijderd schreef op zondag 11 september 2011 @ 09:47:
[...]

Ik heb dat hier al een paar keer vermeld gezien, maar heb geen idee hoe je dat aanpakt. Is dat een eigenschap van de SATA controller ? En geeft dat geen problemen als het OS opgestart is (wegens geïnstalleerd op SSD) maar de harde schijven van de storage nog niet allemaal opgespind zijn ? Ik zou niet graag zien dat OpenIndiana één of meer van de HD's in mijn raid Z2 defect verklaart eenvoudig omdat die nog niet opgespind is.
Staggered spinup is een functie die je op sommige moederborden/controllers vind.
Aangezien ik niet echt veel ervaring heb met ESXi, weet ik niet of ik een delay voor het opstarten kan instellen. Wel ben ik ergens tegengekomen dat je een opstartvolgorde kan instellen en dat is maar goed ook omdat mijn OI de datastorage voor de rest zal moeten aanbieden. In het slechtste geval blijft er natuurlijk manuele startup over. Het is niet mijn bedoeling die server dikwijls uit te schakelen, dus dat hoeft niet echt een probleem te zijn.
Je kunt de volgorde en de wachttijd tot het opstarten van de volgende VM aanpassen. Daarnaast kun je (in de advanced instellingen) de het aantal poging en de wachttijd tussen die pogingen dat de kernel NFS Datastores probeert te mounten instellen.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • Pascal Saul
  • Registratie: Augustus 2001
  • Laatst online: 07-07 17:03
Deze set-up doet 30W idle onder ESXi (profiel: Low Power) en in Windows 7 hetzelfde. Spelen met de CPU multiplier of het aantal cores geeft helaas een negatief effect op het verbruik. ESXi 5 werkt trouwens out-of-the box. Het doorgeven van een Geforce 9300SE werkt niet, code 43, net zoals de IGP zelf :( Het hele gebeuren blijft verder ook erg cool. De Intel stock koeler heb ik nog niet gehoord tenzij ik met me oor ernaast lig.

Denk er 7 harde schijven bij en jij bent er bijna.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Nu online
Verwijderd schreef op zaterdag 10 september 2011 @ 23:12:
Als ik ervan uitga dat de gratis hypervisor dezelfde regeltjes volgt als de betalende vSphere, dat moet ik dus enkel het geheugen tellen van de gestarte VM's.
OK, dan ga ik je maar voor problemen behoeden: dat is dus niet het geval, effectief het aantal uitgedeelde MB/GB's aan vRAM telt... Ongeacht of ze powered on of off zijn...
O-) Ik vraag me wel af of het volgende werkt zoals ik me voorstel:
Stel, je hebt een PC met 32GB RAM. Hierop installeer je de 5.0, maak je 2 VM's aan die je elk 16GB toewijst en waarop je telkens opnieuw de 5.0 installeert. Dan heb je nu twee "virtuele" Hypervisors die 16GB echt geheugen hebben toegewezen gekregen maar die 32GB vRAM aan hun eigen VM's mogen geven.
Volgens mij kan je zo aan het einde van de rit voor 64GB aan VM's installeren voor de kost van een extra hypervisor layer. Niet geschikt voor een productie natuurlijk, maar een thuisgebruiker zou zo kunnen werken om binnen de regels te blijven.
Aangezien ikzelf slechts 16GB in mijn PC heb zitten en ik denk dat 100% overcommitting wel genoeg is, ga ik het zelf niet gebruiken 8)
Dat werkt, maar je performance gaat echt RUK zijn...

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 10:49
Je mist je VT-x extensie in de tweede layer, dus inderdaad, dat word takke traag...

Even niets...

Pagina: 1 ... 12 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.