Even niets...
Het grootste nadeel is dat je voor RealVNC moet betalen. En aangezien ik ESXi draai, dat het uiteindelijk niet heel veel voor me toevoegt. Ik ga er dus ook niet voor betalen, RAdmin werkt minder goed vind ik en ondersteund ook niet het mounten van CD's, booten rechtstreeks naar bios, etc.
Dus tjah, wat moet ik er van zeggen. Moet je voor een Q chipset gaan? Ja, vt-D werkt prima en het remote gedeelte is leuk. Maar in combinatie met ESXi is het nut beperkt (remote).
Yep, t intel bordje kost zo'n €115,- en een s1155 van Supermicro (X9SCM-F bijv) kost al gauw € 185,-FireDrunk schreef op dinsdag 20 september 2011 @ 17:03:
Neem dan gewoon een Tyan of Supermicro bord met Remote KVM los van het chipset. Dat werkt volgens mij veel betrouwbaarder. Kost wel wat meer...
Tja, dat is een optie, maar zo'n rib uit je lijf is VNC entreprise nu ook weer niet (single user license €38).HyperBart schreef op woensdag 21 september 2011 @ 09:01:
Je kan het ook met Enterprise versie van VNC en die vind je nogal rondslingeren op het internet
Ik kan enkel zeggen dat mij de iKVM van de Supermicro X9SCM-F zeer goed bevalt, vanaf de browser je bak aan/uitzetten/resetten en allerlei parameters uitlezen. De optie om een iso te mounten en als usb boot device voor te schotelen is meesterlijk, heb je niet eens een tijdelijke CD/DVD speler nodig om je OS te installeren. Maar zoals FireDrunk zegt, voor dat gemak betaal je dan ook iets meer.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Je bedoelt de plus licentie dan?Pantagruel schreef op woensdag 21 september 2011 @ 09:59:
Tja, dat is een optie, maar zo'n rib uit je lijf is VNC entreprise nu ook weer niet (single user license €38).
Ben trouwens nog iets interessants tegengekomen ivm mensen die toch hun ESXi scherm willen tevoorschijn toveren:
http://www.virtuallyghett...h-of-remote-color-to.html
OK OK, het is geen KVM en als ie in de shit zit kan je geen scherm overnemen, maar voor mij voldoet dit toch al... Enige wat ik zou missen bij KVM is het remote booten en off poweren...
En voor diegenen die ESXi een beetje persoonlijk willen maken of de DCUI meer info willen laten tonen: http://www.virtuallyghett...f-color-to-esxi-dcui.html
[ Voor 12% gewijzigd door HyperBart op 21-09-2011 11:07 ]
VNC Entreprise windows en dan bij quantity 1 invullen.HyperBart schreef op woensdag 21 september 2011 @ 11:02:
[...]
Je bedoelt de plus licentie dan?
Ben trouwens nog iets interessants tegengekomen ivm mensen die toch hun ESXi scherm willen tevoorschijn toveren:
http://www.virtuallyghett...h-of-remote-color-to.html
OK OK, het is geen KVM en als ie in de shit zit kan je geen scherm overnemen, maar voor mij voldoet dit toch al... Enige wat ik zou missen bij KVM is het remote booten en off poweren...
En voor diegenen die ESXi een beetje persoonlijk willen maken of de DCUI meer info willen laten tonen: http://www.virtuallyghett...f-color-to-esxi-dcui.html
Die splash of color is wel gein.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
FireDrunk, waarom raad je de AMT optie af? Ik vind die Tyan of Supermicro echt hele mooie bordjes, maar daar betaal je dan ook weer voor..
Voor een extra 100 euro tov de G620 waar ik eerder voor zou gaan heb je naast de remote kvm optie ook nog eens een quad-core op 3,1ghz én VT-D ondersteuning. Dat is heel wat interessanter voor me dan een duurder mobo.
Quindor, super dat je even jouw ervaringen met AMT deelt
Een custom white box ESXi server die ook dienst doet als firewall / router. Bij calamiteiten zou ik hier remote aan willen kunnen, ongeacht wat de state van de nics is. Ook remote even een reboot of shutdown doen lijkt me erg handig, en ook tijd en geldbesparend vermits ik veel afwezig ben en een ritje naar de locatie waar het ding staat me ook geld kost.
Anders gezegd, ik wil er niet dagelijks gebruik van kunnen maken maar wél er altijd remote aankunnen via een OpenVPN tunnel op een router in het netwerk.
Dan nog over die (Real)VNC licenties, die Enterprise edition kan je toch niet voor alle out of band opties gebruiken of zie ik dat verkeerd?
Daar heb je de Plus edition voor nodig en die is helaas 2 keer zo duur
1
2
3
4
5
6
7
8
| Quantity List price Purchase VNC Viewer Plus for Windows (License Key) (1 unit) USD 99.00 GBP 65.50 EUR 75.27 |
Indien er nog iemand wat kan aanmerken om al dan niet voor een Q67 systeem icm een Intel processor die vPro ondersteuning heeft (zoals de i5 2400), shoot! En alvast bedankt hiervoor
Even niets...
Net lekker esxi 5 installed, draait gezellig op zijn usb stickje. Performance bevalt me gigantisch voor die simpele i3 540! Nu nog een mooie behuizing (http://www.salland.eu/pro...voeding-zwart-4u-500.html op het oog) en 2x2 TB kopen voor het einde van het jaar... Ben eens benieuwd wanneer ik het geld bij elkaar kan toveren
Even niets...
Even niets...
zoiets? V&A aangeboden: Supermicro SC833T-550B (3U rackmount, 550W, 8x SAS/SATA backplane)elnaeth schreef op woensdag 21 september 2011 @ 22:16:
Ik sta helemaal open voor suggesties, vond het zelf nogal handig dat er behoorlijk wat harddisks in konden. Hoeft niet mooi te zijn, als het maar functioneel zwaar in orde is
pricewatch: Sharkoon Rebel 9 Economic
Of een maatje groter:
pricewatch: Sharkoon Rebel12 Value Black
Even niets...
De case is de CoolerMaster RC-600-KKN1-GP Gladiator geworden.
Zal van de week eens wat screenshots en foto's nemen zodra ik mijn esxi bak compleet af en ingericht heb. Tot nu toe vind ik hem helemaal te gek en heb ik alles voor elkaar kunnen krijgen dat ik voor ogen had (onder andere mijn volledige netwerk door een virtuele pfSense te beheren, zonder VT-d).
Super topic dit, echt zo vreselijk veel informatie en behulpzame mensen
Even niets...
Sowieso zal ik waarschijnlijk die VM opnieuw moeten installeren als ik dat nu nog wil doen, of zit ik hier fout?
Cpu belasting viel wel mee op de WAN interface. LAN nog niet kunnen testen, misschien kom ik nog wel terug op mijn woorden dan
Onder Ubuntu werkt VMXNET3 direct out of the box, dus het is niet Windows only
Even niets...
Het kan wel, maar je levert wel VLAN en QOS functionaliteit in, deze zijn (nog) niet mogelijk met de VMXNET3 driver. VLAN functionaliteit is natuurlijk op te vangen is ESXi zelf, je kunt de VLAN's daar omzetten naar meerdere virtuele interfaces, maar voor QOS is geen workaround mogelijk.FireDrunk schreef op donderdag 22 september 2011 @ 12:23:
Ah, pFsense draait op FreeBSD, das wel een lastig OS om VMXNET3 op aan de praat te krijgen, maar het schijnt te kunnen. Persoonlijk nog nooit gedaan.
Onder Ubuntu werkt VMXNET3 direct out of the box, dus het is niet Windows only
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Even niets...
Daar bemoeit ESXi zich ook niet mee, dat doet het betreffende OS, in dit geval FreeBSD, en die heeft daar ALTQ (https://secure.wikimedia.org/wikipedia/en/wiki/ALTQ) ondersteuning in de netwerkkaart driver nodig. En deze zit niet in de VMXNET3 driver.FireDrunk schreef op donderdag 22 september 2011 @ 12:40:
Vreemd? Ik dacht dat QOS layer 3 was? Dan zou ESX zich daar toch niet mee moeten bemoeien?
Meer info: http://forum.pfsense.org/index.php?topic=34043.0
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Voor mij is die snelheid iig meer dan genoeg vergeleken bij de 20-30MB/s die ik voorheen wel eens haalde naar mijn storage server
Laat wel meer weten zodra ik 5TB heb om mee te spelen
Dat valt inderdaad wel mee
Even niets...
Freenas installed op een 10GB vmdisk op de 500GB fysieke disk, en dan op de 1TB fysieke disk een vmdisk aangemaakt, en die aan freenas gehangen.
Die 1TB vmdisk heb ik vervolgens in freenas als ZFS geformatteerd, en daarna via CIFS als windows share op mijn desktop gemount. Overdracht snelheid tussen 85 en 90 MB/s, pieken naar de 100.
Ik zal eens proberen meer over te zetten dan het RAM geheugen van de freenas vm groot is, het zou kunnen dat alles gewoon tijdelijk in het geheugen gebufferd werd voordat het naar disk geschreven werd, al lijkt me dit extreem onwaarschijnlijk.
Thuis die intel-server ESXi er uit trekken, iets OpenIndiana achtig er op en met die SSD en 2 HDD's eens een vdev'je aanmaken
[ Voor 56% gewijzigd door HyperBart op 23-09-2011 11:18 ]
Heb je wel gelet op de verhalen over disk flushing onder ESXi?elnaeth schreef op vrijdag 23 september 2011 @ 09:59:
Heb op dit moment 2 datastores. Een oudere 500GB disk puur voor de vmdisks waar de OS'en op draaien (dat gaat me later nog opbreken zodra ik meer vm's draai ivm seektimes), en een 1TB opslag disk.
Freenas installed op een 10GB vmdisk op de 500GB fysieke disk, en dan op de 1TB fysieke disk een vmdisk aangemaakt, en die aan freenas gehangen.
Die 1TB vmdisk heb ik vervolgens in freenas als ZFS geformatteerd, en daarna via CIFS als windows share op mijn desktop gemount. Overdracht snelheid tussen 85 en 90 MB/s, pieken naar de 100.
Ik zal eens proberen meer over te zetten dan het RAM geheugen van de freenas vm groot is, het zou kunnen dat alles gewoon tijdelijk in het geheugen gebufferd werd voordat het naar disk geschreven werd, al lijkt me dit extreem onwaarschijnlijk.
Even niets...
Net al even de eerste disk als RDM toegevoegd, is nog best makkelijk ook als je de goede guide hebt gevonden! Performance nog niet getest, maar ik vermoed dat ik het leuk ga vinden
Even niets...
Rond de kerst wil ik er nog eens 2x2 TB bij proppen, kun je daar al beter mee leven, 9TB totaal?
Even niets...
Vziw zijn er ook h67 borden met vt-d support (asrock dacht ik), maar correct me if i'm wrong. Ik heb nog nietn echt naar H67 alternatieven gekeken en ben vooral benieuwd of er buiten vt-d functies op de Q67 chipset zitten die meerwaarde bieden voor een esxi systeem.
edit: Hmm, heb even zitten zoeken naar H67 (of z68) borden met vt-d, maar het is _behoorlijk_ onduidelijk of er wel support is of niet. Het lijkt puur aan het bios te liggen of er ondersteuning is of niet, maar zeker ben ik niet. Zijn er tweakers die hier meer van weten/ervaring mee hebben?
[ Voor 15% gewijzigd door Morphix op 24-09-2011 19:06 ]
Kan het zijn dat ik dus echt gewoon betere performance had toen ik ze netjes als vmfs eraan had gehangen? Snap hier vrij weinig van, had echt verwacht betere doorvoer te hebben, maar mijn freenas verstookt nu bergen CPU, en ik denk ook dat daar de bottleneck nu zit, waar dat eerst dus niet was
Verwijderd
Er zijn geen H67 moederborden met VT-d ondersteuning. Zelfs niet alle Q67moederborden schijnen te werken. Alleen die van Intel zelf vormen blijkbaar geen probleem.Morphix schreef op zaterdag 24 september 2011 @ 18:39:
Is er reden om een Q67 moederbord te verkiezen boven een H67 mobo met vt-d ondersteuning?
Ik plan net hetzelfde en anderen deden het ons al voorWil een esxi systeem in elkaar gaan zetten om te gebruiken voor server en nas. De nas ga ik regelen met ZFS dus is vt-d een vereiste.
Dat bord is er ééntje dat echt lijkt te werken met VT-d.Het wringt 'm echter een beetje in de aansluitingen van de Q67 bordjes, ik zou het namelijk fijn vinden als ik mijn audio set (logitech z5500) direct kan aansluiten. Dit kan optisch of analoog (groen, oranje, zwart). Het, voor mijn geval, meest optimale bord is de Intel DQ67SW, maar deze heeft geen van beiden.
Er zijn H67, P67en Z68 moederborden die beweren VT-d te ondersteunen. Voor zover ik hoor, werkt er niet één van.Vziw zijn er ook h67 borden met vt-d support (asrock dacht ik), maar correct me if i'm wrong.
De intel Q67moederborden hebben vga on board wat ik altijd een goed punt vind voor een server (en dat is een ESXi)Ik heb nog nietn echt naar H67 alternatieven gekeken en ben vooral benieuwd of er buiten vt-d functies op de Q67 chipset zitten die meerwaarde bieden voor een esxi systeem.
Onboard graphics dus? Betekent dat dat ik een Xeon kan kopen? Want dat is meer performance voor minder geld.Verwijderd schreef op zaterdag 24 september 2011 @ 19:03:
[...]
De intel Q67moederborden hebben vga on board wat ik altijd een goed punt vind voor een server (en dat is een ESXi)
Uit de officiele specs:
Er wordt dan toch gewoon gebruik gemaakt van de integrated graphics in de cpu, of heb ik het dan mis?Over graphics:
Requires a Processor with Intel Graphics Technology: Yes
Verwijderd
Met Xeon heb ik geen ervaring, dus op die vraag moet ik je het antwoord schuldig blijven al lijkt dat wel de logische conclusie. Ik plan zelf om een i5 2400 te gebruiken.Morphix schreef op zaterdag 24 september 2011 @ 19:14:
Onboard graphics dus? Betekent dat dat ik een Xeon kan kopen? Want dat is meer performance voor minder geld.
Er wordt dan toch gewoon gebruik gemaakt van de integrated graphics in de cpu, of heb ik het dan mis?
Je zou nog steeds een Xeon kunnen gebruiken, de E-12x5 modellen hebben een GPU aan boord (Wikipedia: List of Intel Xeon microprocessors)Morphix schreef op zaterdag 24 september 2011 @ 19:14:
[...]
Onboard graphics dus? Betekent dat dat ik een Xeon kan kopen? Want dat is meer performance voor minder geld.
Uit de officiele specs:
[...]
Er wordt dan toch gewoon gebruik gemaakt van de integrated graphics in de cpu, of heb ik het dan mis?
Het moederbord moet die CPU's natuurlijk wel ondersteunen, en ze zijn duurder dan gewone Sandy Bridge CPU's
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Verwijderd
Je kan even op de console kijken, ik had bij freenas problemen met interrupt storms nadat ik vt-d ingeschakeld had om me controller aan freenas toe te kennen. Dit kon overigens opgelost worden door maar 1 cpu met 1 core toe te wijzen aan de freenas vm.elnaeth schreef op zaterdag 24 september 2011 @ 18:41:
Nou snap ik er niets meer van. Heb nu echt best belabberd slechte doorvoersnelheden, terwijl ik alle disks via RDM heb gehangen aan mijn freenas vm.
Kan het zijn dat ik dus echt gewoon betere performance had toen ik ze netjes als vmfs eraan had gehangen? Snap hier vrij weinig van, had echt verwacht betere doorvoer te hebben, maar mijn freenas verstookt nu bergen CPU, en ik denk ook dat daar de bottleneck nu zit, waar dat eerst dus niet was
Zelf heb ik alleen freenas gebruikt om de zfs pool aan te maken met ashift 12, toen kon ik die niet koppelen in openindiana, dus heb ik het opnieuw moeten doen in zfsguru (of zelf zfs patchen in openindiana, maar leek het me makkelijker om even met de zfsguru life cd te doen). In zfsguru had ik ook last van interrupt storms bij het gebruik van meer dan 1 cpu/core, leek dus bij op freebsd gebaseerde OS te liggen. In openindiana 1 cpu met 4 cores toegewezen en geen problemen ondervonden.
Maar een interrupt storm zou dus wel een reden kunnen zijn van je hogere cpu gebruik. Als je via de vsphere client even de console in de gaten houdt zou je error messages voorbij moeten zien komen als je daar last van hebt.
Heb zelf nu dus 6x2TB (samsung) met ashift 12 in een zfspool met zraid2 openindiana en krijg de volgende benchmark resultaten:
dd:
10.24 GB in 27.6s = 371.01 MB/s Write
10.24 GB in 19.3s = 530.57 MB/s Read
bonnie ++ bench mark: Seq-Write 434 MB/s, Seq-Read 491 MB/s
In zfsguru met dezelfde pool:
128GB:
Read throughput : 425.4 MB/s
Read throughput : 405.7 MiB/s
Write throughput: 276.3 MB/s
Write throughput: 263.5 MiB/s
64GB:
Read throughput : 439.9 MB/s
Read throughput : 419.6 MiB/s
Write throughput: 267.7 MB/s
Write throughput: 255.3 MiB/s
16GB:
Read throughput : 378.9 MB/s
Read throughput : 361.4 MiB/s
Write throughput: 394.5 MB/s
Write throughput: 376.2 MiB/s
Antwoord: nee het werkt niet, ik ben nog zoekende naar een workaround, tot op heden niks gevonden.. ik wil 4.1 gaan installeren, maar ik kom de pagina op vmware.com niet meer op, hij blijft vragen om een inlog terwijl ik al ingelogd ben. Heeft iemand een idee waar ik esxi 4.1 met license legaal vandaan zou kunnen halen?sloth schreef op dinsdag 23 augustus 2011 @ 22:32:
Mooi om te zien dat de Realtek 8111DL nu out of the box ondersteuning in ESXi 5 heeft
Is er misschien iemand die kan testen of dit ook het geval is bij de Intel 82579V?
[ Voor 22% gewijzigd door neographikal op 26-09-2011 17:21 ]
Even niets...
Verwijderd
ESXi 4.1 heeft toch een gratis/free license?Heeft iemand een idee waar ik esxi 4.1 met license legaal vandaan zou kunnen halen?
reg je toch met een ander mailadres?
Even niets...
Verwijderd
ik ben me eigen ook aan het verdiepen in ESXI. heb thuis al een oude server met ESXI 4 erop. nu wil ik een nieuwe server pc kopen die ik tevens wil gebruiken als mediacenter. Dit kan als ik het goed gelezen heb met vt-d (intel) of amd-v (amd). zodat ik de pc zelf als mediacenter kan gebruiken.
Nu zag ik dat binnenkort de FX 6100 uitkomt van amd. Dat lijkt me op dit moment de beste keuze? Weet niet of jullie die ook aanraden of zouden jullie zeggen ga voor ene i5? of juist een X6?
ik wil de volgende vm's draaien
xp
server 2008
server 2008
cent OS
ubuntu
alvast bedankt!
VT-d icm videokaarten werken nog niet/nauwelijks van wat ik begrijp. Maar over de rest van je post... Wat heb je zelf al uitgezocht? Waarom denk jij dat de nieuwe AMD de beste keuze is?Verwijderd schreef op dinsdag 27 september 2011 @ 08:30:
Heee
ik ben me eigen ook aan het verdiepen in ESXI. heb thuis al een oude server met ESXI 4 erop. nu wil ik een nieuwe server pc kopen die ik tevens wil gebruiken als mediacenter. Dit kan als ik het goed gelezen heb met vt-d (intel) of amd-v (amd). zodat ik de pc zelf als mediacenter kan gebruiken.
Nu zag ik dat binnenkort de FX 6100 uitkomt van amd. Dat lijkt me op dit moment de beste keuze? Weet niet of jullie die ook aanraden of zouden jullie zeggen ga voor ene i5? of juist een X6?
ik wil de volgende vm's draaien
xp
server 2008
server 2008
cent OS
ubuntu
alvast bedankt!
En wat wil je er voor een VM's op gaan draaien? Een lijstje met OS'en zegt weinig als we niet weten wat die dingen gaan doen.
Dat kost je alleen wel veel tijd om te bouwen, en is niet gemakkelijk... (mijns inziens...)
Even niets...
Verwijderd
xp VPN
server 2008 Sharepoint Testen
server 2008 Sharepoint Test uitproberen
cent OS Verschillende linux varianten bekijken
ubuntu of xp Xbmc sickbeard spotweb enz
Xen is misschien ook een goed idee. Ik wil het alleen eerst met ESXI proberen dit omdat ze dit bij mij op het werk gebruiken en ik dat wil leren.
Reden waarom ik voor de nieuwe amd (FX6100)keek, was omdat voor zover ik kon vinden tegenwoordig alle AMD cpu over amd-v ondersteunen. Verder heeft deze cpu 6 cores. Dus dat is beter ivm met meerdere os'en. De prijs vind ik ook erg gunstig. Ik ga er ook 16 gb geheugen in doen. verder 2 tb hdd. En als ik na de revieuws kijk wat nu op internet staat over de FX CPU's wat weinig is, is dat het wel een goede cpu is. op het gebied van snelheid. Ik wilde eindelijk vorige week een neiuwe server bestellen maar zag nu de FX langskomen dus ik wilde is vragen wat jullie de beste keuze lijkt, een I5 de FX of een Phenom II X6 1090T
Wederom, en als je even zoekt op mijn naam in dit topic vind je daar wat meer over terug. 6 cores is echt al wel redelijk veel voor thuis... Ga eerst eens kijken naar een dual-core, want je systeem zal eerder memory bound dan CPU bound zijn... Bedenk ook dat die CPU daardoor in verhouding tot een i3 bv minder energiezuinig is, en stel je dan ook de vraag eens of je al die cores nodig hebt... Met ESXi en virtualisatie moet je even een andere gedachtegang gaan volgen... In principe geef je een VM maar één vCPU (quasi gelijk aan een core), meer hebben je OS'en echt niet nodig en zo is je hele systeem schaalbaar...Verwijderd schreef op dinsdag 27 september 2011 @ 10:12:
Reden waarom ik voor de nieuwe amd (FX6100)keek, was omdat voor zover ik kon vinden tegenwoordig alle AMD cpu over amd-v ondersteunen. Verder heeft deze cpu 6 cores. Dus dat is beter ivm met meerdere os'en
Ik blijf er op hameren in dit topic dat mensen die hier een server in mekaar willen steken echt van dat "meer cores is beter" af moeten stappen... Je moet niet gaan rekenen: "ik draai X VM's dus ik wil Y cores waarbij Y zo dicht mogelijk bij X ligt...) het CPU scheduling mechanisme van ESXi gecombineerd met HyperThreading maakt een dualcore voor thuis al meer als voldoende, met als sidenote dat je geen CPU intensieve taken gaat uitvoeren... Als jij 4 machines hebt die dag en nacht staan te unrarren en parren, dan kan ik je volgen... Zoniet, blijf maar bij de dual of quadcores
Verwijderd
Tevens heb je in je intro post staan:
denk maar aan een TV-kaart of bv een PCI Wifi-kaartje met VT-D is pas ondersteund bij de i5-series en op voorwaarde dat je moederbordje natuurlijk het ondersteunt
Dat VT-D pas wordt ondersteund vanaf de I5?
op internet las ik weer dat dit tegenwoordig ook de bij nieuwe i3 ook het geval is ? maar weet niet of dit klopt
En voor zover ik het nu begrijp:
VT-X kan OS direct CPU aanspreken
VT-D kan OS direct hardware aanspreken
[ Voor 31% gewijzigd door Verwijderd op 27-09-2011 11:07 ]
Ik ken de processor (nog) niet, dus ik weet ook niet wat hij verbruikt en dergelijke, en gezien die topictitel is dat wel een leuke insteek natuurlijkVerwijderd schreef op dinsdag 27 september 2011 @ 11:02:
Maar jij vind het dus een beter plan om ipv een fx 6100 een i3
Als je de kans hebt zou ik er à volonté geheugen in steken... Ondersteunt je moederbord zoveel? Zo ja, met de huidige prijs van geheugen: VOLFROTTENte nemen en dan van de 16 gb ram 24 te nemen ?
Als ik moet kiezen tussen een i3 met 24GB of een i5 met 16GB (en ik heb geen VT-d nodig die de keus voor een i5 rechtvaardigt imho) dan kies ik onmiddellijk voor de i3
Op het moment van schrijven is/was dat het geval... (ik ga bij de volgende quote verder hierover)Tevens heb je in je intro post staan:
denk maar aan een TV-kaart of bv een PCI Wifi-kaartje met VT-D is pas ondersteund bij de i5-series en op voorwaarde dat je moederbordje natuurlijk het ondersteunt
Dat VT-D pas wordt ondersteund vanaf de I5?
Zo ja, dan is de TS fout en moet iemand 'm aanpassen. Ik zoek dit even uit...op internet las ik weer dat dit tegenwoordig ook de bij nieuwe i3 ook het geval is ? maar weet niet of dit klopt
Ja... VT-x druk je een beetje raar uit, maar het klopt min of meer watEn voor zover ik het nu begrijp:
VT-X kan OS direct CPU aanspreken
VT-D kan OS direct hardware aanspreken
Excusé, maar waar haal je die 24GB vandaan?HyperBart schreef op dinsdag 27 september 2011 @ 11:28:
[...]
Als je de kans hebt zou ik er à volonté geheugen in steken... Ondersteunt je moederbord zoveel? Zo ja, met de huidige prijs van geheugen: VOLFROTTEN
Als ik moet kiezen tussen een i3 met 24GB of een i5 met 16GB (en ik heb geen VT-d nodig die de keus voor een i5 rechtvaardigt imho) dan kies ik onmiddellijk voor de i3
Verwijderd
pricewatch: Kingston ValueRAM KVR1333D3D4R9S/8GI
Ik had verkeerd verkeken.
Btw nog een vraag aan hyperbard hoeveel os'en heb jij draaien op je servertje dat heb ik niet kunnen ontdekken.
[ Voor 31% gewijzigd door Verwijderd op 30-09-2011 14:48 ]
Even niets...
Anders moet je naar AMD SR chipsets, die kunnen veel verder.
http://tyan.com/product_S...=MB&pid=694&SKU=600000231
Deze bijvoorbeeld, kan tot 64GB.
[ Voor 63% gewijzigd door FireDrunk op 27-09-2011 12:50 ]
Even niets...
Even niets...

Ik heb deze tweaks gedaan:FireDrunk schreef op dinsdag 27 september 2011 @ 15:17:
Nog geen ESXi tweaks in Advance Config? Ik heb daar namelijk ook wat over gepost een poos terug.
http://blog.peacon.co.uk/wiki/ESXi_Custom_Power_Management
Verder niks
Even niets...
Heeft iemand zoiets al eens eerder gebouwd of ben ik nu hele rare dingen aan het doen?
Op zich kan ik een paar vm's ook wel op de 2.5" 160GB disk laten draaien die ook in de machine zit (daar staat ook de freenas-installatie op). Het leek me alleen wel mooi om gelijk te profiteren van de voordelen van ZFS.
[ Voor 18% gewijzigd door neographikal op 27-09-2011 21:05 ]
Default werkt NFS met 4k reads dacht ik, maar 32k is vaak sneller voor thuissituaties.
Even niets...
51272BB1339
en aangezien er 24GB inzit veronderstel ik die kit van 3x 4GB en dat dan 2x...
Dat wil dan toch zeggen dat ik eender welk geheugen van deze lijst:
http://tweakers.net/price...kHsmHb8IdrJZ2T-1HthiG7bAw
Er in kan steken, correct? Maar waar zitten die prijsverschillen dan? Ze hebben allemaal dezelfde spec's, alleen de grootte of de kits verschilt...
Even niets...
Met wat voor config is dit? Dit zijn leuke waarden, ik ben benieuwdneographikal schreef op dinsdag 27 september 2011 @ 15:06:
Na wat tweaks zit ik op 21.4w idle met alleen esxi geboot, boot ik dan een FreeBSD guest, dan kom ik rond de 23w uit. Helemaal niet slecht! Dit is slechts 3watt meer dan met een getweakte Ubuntu
Verwijderd
Zo afgaand op de titel van het topic zou ik gokken dat dit vanwege de limiet van 32GB voor gratis ESXi 5 is.FireDrunk schreef op donderdag 29 september 2011 @ 21:12:
Waarom 4G modules? Als je registered kan, ga dan gelijk voor 8G modules
Ik liep tegen soortgelijke problemen op, VM's op de NFS datastore gehost op FreeNAS-vm hebben last van een heel hoge disk latency, en waren in sommige situaties in staat de totale performance van de server omlaag te brengen. Voorlopig heb ik de vm's op een lokale disk gezet, volgende stap wordt uitvogelen waar het probleem zit.neographikal schreef op dinsdag 27 september 2011 @ 20:52:
Misschien heb ik een wat aparte oplossing bedacht (...) maar ik loop tegen een performanceprobleempje aan: ik heb 3 disks via rdm aan een freenas installatie gehangen, dat werkt als een zonnetje. Vervolgens heb ik een vswitch aangemaakt en de freenas guest aan die vswitch gehangen, samen met esxi via een vmkernel adapter. esxi ziet de freenas nfs store, kan daar schrijven, helemaal okay. Maar nu merk ik dat de schrijfsnelheid naar die nfs store erg laag ligt, terwijl samba vanaf mijn desktop vrolijk doorkachelt. Ook de cpuload op de freenasmachine is bij tijden behoorlijk hoog door nfsd. In de vsphere client zie ik ook dat de write latency een volle seconde is..
Heeft iemand zoiets al eens eerder gebouwd of ben ik nu hele rare dingen aan het doen?
Op zich kan ik een paar vm's ook wel op de 2.5" 160GB disk laten draaien die ook in de machine zit (daar staat ook de freenas-installatie op). Het leek me alleen wel mooi om gelijk te profiteren van de voordelen van ZFS.
Ik heb wat meer posts op oa het FreeNAS forum gevonden die dezelfde problemen omschrijven. Daarin wordt oa het gebruiken van iscsi aanbevolen.
Overigens hebben NFS mounts naar dezelfde server vanuit de vm's (met oa een mysql-db) geen last van hoge latencies.
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Een ander probleempje met Freenas is dat m'n grotere transfers er af en toe uit klappen vanaf een Win7 64bit. Ook dat schijnt vaker voor te komen.
DH67BLsloth schreef op donderdag 29 september 2011 @ 22:36:
[...]
Met wat voor config is dit? Dit zijn leuke waarden, ik ben benieuwd
G620
2x4GB Kingston ddr3 1333
2.5" 5400rpm disk
USB boot voor esxi
Picopsu 120w wide range, maar met een brakke adapter
[ Voor 15% gewijzigd door neographikal op 29-09-2011 23:43 ]
Euh neenVerwijderd schreef op donderdag 29 september 2011 @ 23:01:
[...]
Zo afgaand op de titel van het topic zou ik gokken dat dit vanwege de limiet van 32GB voor gratis ESXi 5 is.

En hij heeft gelijk, ik neem die 8GB modules
[ Voor 7% gewijzigd door HyperBart op 30-09-2011 08:50 ]
Het heeft te maken met dubbele commits. NFS kent het COMMIT commando en ZFS heeft ook zijn commits om data naar disk te schrijven. Het komt (volgens het artikel) regelmatig voor dat die niet helemaal synchroon lopen en daarom sommige commits eerder uitgevoerd worden dan andere. Dit nekt de performance.
Je kan het commit/flush commando van NFS uitzetten, maar dan loop je wel wat meer risico.
Hoe je dit kan doen onder FreeNAS weet ik niet.
Even niets...
Wat ik nu heb en dus een mogelijke configuratie is
m4a870td/usb3 + x6 1090t
Wat ik zou kopen indien het toch een nieuw systeem zou worden
DQ67OWB3 + i5
Gezien de prijzen ga ik sowieso voor 16gb ram
Waar ik me zorgen om maak, het amd moederbord heeft geen ondersteunde netwerkcontroller, is het zo eenvoudig als een intelcontroller er in prikken en meteen esxi volledig ondersteunt te hebben?
Frag_Zero
En zou met een custom oem.tar.gz ook wel onder 4.1 aan de praat moeten zijn te krijgen.
Maar er zijn nog geen duidelijke redenen om niet voor 5 te gaan.
Even niets...
Oh ik had 4.1 geprobeerd en daar werkte het zo niet mee, vanavond eens 5 booten. Dit was wel een erg domme vraag nuFireDrunk schreef op vrijdag 30 september 2011 @ 09:53:
De Realtek® 8111E die op het bord zit werkt volgens mij wel onder ESXi5...
En zou met een custom oem.tar.gz ook wel onder 4.1 aan de praat moeten zijn te krijgen.
Maar er zijn nog geen duidelijke redenen om niet voor 5 te gaan.

Zijn er redenen om voor intel te gaan ipv amd? Zowat iedereen heeft een intel machine maar een x6 lijkt me toch best tof voor een esxi machine
Frag_Zero
Frag_Zero schreef op vrijdag 30 september 2011 @ 10:19:
[...]
Zijn er redenen om voor intel te gaan ipv amd? Zowat iedereen heeft een intel machine maar een x6 lijkt me toch best tof voor een esxi machine
Afijn, dit pricewatch: Kingston 8GB 1333MHz DDR3 Registered ECC with Parity CL9 DIMM Quad Rank, x8 LV zou dus mooi passen bij dat Crucial geheugen?HyperBart schreef op dinsdag 27 september 2011 @ 10:46:
[...]
Wederom, en als je even zoekt op mijn naam in dit topic vind je daar wat meer over terug. 6 cores is echt al wel redelijk veel voor thuis... Ga eerst eens kijken naar een dual-core, want je systeem zal eerder memory bound dan CPU bound zijn... Bedenk ook dat die CPU daardoor in verhouding tot een i3 bv minder energiezuinig is, en stel je dan ook de vraag eens of je al die cores nodig hebt... Met ESXi en virtualisatie moet je even een andere gedachtegang gaan volgen... In principe geef je een VM maar één vCPU (quasi gelijk aan een core), meer hebben je OS'en echt niet nodig en zo is je hele systeem schaalbaar...
Ik blijf er op hameren in dit topic dat mensen die hier een server in mekaar willen steken echt van dat "meer cores is beter" af moeten stappen... Je moet niet gaan rekenen: "ik draai X VM's dus ik wil Y cores waarbij Y zo dicht mogelijk bij X ligt...) het CPU scheduling mechanisme van ESXi gecombineerd met HyperThreading maakt een dualcore voor thuis al meer als voldoende, met als sidenote dat je geen CPU intensieve taken gaat uitvoeren... Als jij 4 machines hebt die dag en nacht staan te unrarren en parren, dan kan ik je volgen... Zoniet, blijf maar bij de dual of quadcores
Maar wat wil die x8 LV zeggen?
[ Voor 8% gewijzigd door HyperBart op 30-09-2011 11:59 ]
Moet vooral voor mezelf uitmaken of ik voor de dure oplossing ga en mijn x6 verhuis naar een esx rig en een 2500k aanschaf of voor de goedkopere oplossing van een i3/i5 ga.
Frag_Zero
x2 = single rank, x4 dual rank, en x8 quad rank volgens mij
LV = Low Voltage, 1.35v ipv 1.5
Even niets...
pricewatch: Asus E35M1-I
pricewatch: Kingston ValueRAM KVR1066D3N7K2/8G
Dit trekt in combinatie met ( nu nog ) 1 samsung 320gb schrijfje rond de 28 á 30 Watt.
[ Voor 17% gewijzigd door Petuhr op 30-09-2011 13:31 ]

[ Voor 39% gewijzigd door HyperBart op 30-09-2011 14:07 ]
Kan aan mij liggen, maar een limiet van 8GB geheugen maximaal vind ik toch best een domper genoeg om vooral niet voor ESXi 5 te gaan.FireDrunk schreef op vrijdag 30 september 2011 @ 09:53:
Maar er zijn nog geen duidelijke redenen om niet voor 5 te gaan.
Scratch this, ik zie dat het opgeschroefd is naar 32GB, dan wordt het wel weer interessant om even te kijken naar ESXi 5 (ik draai nu nog 4.1).
[ Voor 19% gewijzigd door CH4OS op 13-10-2011 00:42 ]
Ben nu nog aan het spelen met ESXi 4.1 (5.0 krijg ik nog niet werkend) maar als hij straks echt "live" gaat komt hij ook op de UPS te hangen. Nu is mijn UPS niet zo luxe dat die kan samen werken met ESX(i??). Wel kan ik met met USB uit lezen en instellen. Zo kan ik ook op een bepaalde nivo's van de accu's diverse script starten. Nu was mijn idee dus ook via de vSphere CLI de ESX host het command shutdown te geven. Nu begin ik steeds meer te twijfelen of het lukt met een ESXI versie. Met google kom ik tegen dat het eigenlijk niet kan maar sommige is het wel gelukt allen hoe ze het dan gedaan hebben kom ik niet verder mee of staat er niet.
Wel kom ik veel tegen dat het met een hostops.pl moet kunnen. Dus ook dat heb ik geprobeerd maar wil ook niet.
Bij de volgende 2 commando's
hostops.pl --target_host ESXi.******.** --operation enter_maintenance --url https://192.168.0.4/sdk/vimService.wsdl
hostops.pl --target_host ESXi.*****.** --operation shutdown --url https://192.168.0.4/sdk/vimService.wsdl
Krijg ik de melding dat hij dit niet wil doen omdat er nog VM guest in de lucht zijn. Die moet de schijnbaar eerst uit.
Exaxte melding is --> This operation is not allowed as one or more Virtual machines is currently power
ed On.
Om toch eens verder te testen heb ik zelf alle Guest's compleet afgesloten (dus geen suspend echt uit) als ik dan het commando afvuur om shutdown te gaan krijg ik dit -->
Can't shutdown host
SOAP Fault:
-----------
Fault string: fault.RestrictedVersion.summary
Fault detail: RestrictedVersionFault
Kan dus ook niet maar waarom?
Zal waarschijnlijk iets helemaal verkeerd doen maar wat ben ik nog niet achter.
Mocht iemand een veel beter idee hebben om de ESXi host netjes down te laten gaan, sta er altijd voor open
Heb ESXi wel al zo geconfigureerd dat als ik via de Console een shutdown geef dat hij eerst netje alles Guest afsluit en dan down gaat. En met opstarten kom ook de Guest weer netjes op. Nu nog zorgen dat de UPS mijn plaats over neemt voor het shutdown commando
Je kan toch gewoon vmware-cmd gebruiken?
http://pubs.vmware.com/vs...ef.doc_50/vmware-cmd.html
vmware-cmd "pad naar vmx" stop soft
nadat al deze commando's klaar zijn loop je door de getstate heen en als ze allemaal off returnen, doe je gewoon shutdown (of reboot)
[ Voor 18% gewijzigd door FireDrunk op 13-10-2011 19:07 ]
Even niets...
Dat kwam ik inderdaad ook tegen,Je mag de SDK niet gebruiken in de free versie naar mijn weten. Je moet dan Essentials of hoger hebben volgens mij.
http://kb.vmware.com/self...playKC&externalId=1013193
Daar hebben ze het toch echt over ESXi 4.x dus lijkt mij dat het zou moeten werken.
vmware-cmd mee gestoeid en dat gaat me wel lukken. Test gedaan met 1 guest en die gaat in iedergeval down.
En hoe doe ik dat dan gewoon? Ziet het niet in de documentatie van vmware-cmd staan hoe ik de host een shutdown geef. Sugestie? Of mis ik iets wat ik nog niet weet?nadat al deze commando's klaar zijn loop je door de getstate heen en als ze allemaal off returnen, doe je gewoon shutdown (of reboot)
Ja die waarmee? Welke opdracht? vmware-cmd - Shutdown ofzoiets?
Ben al aan het google maar kan het nog niet vinden. Dus een zetje in de goede richting is zeer welkom.
Dat is een beperking van de gratis versie van ESXi, op een non-free versie werkt het wel.Nelisj schreef op donderdag 13 oktober 2011 @ 17:38:
Can't shutdown host
SOAP Fault:
-----------
Fault string: fault.RestrictedVersion.summary
Fault detail: RestrictedVersionFault
Kan dus ook niet maar waarom?
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Zal toch wel een beetje jammer zijn als je hem niet gewoon down kunt krijgen via CLI of iets dergelijks. Daar gaat de functie van de UPS

Ik heb nu net ESXi 4.1 Update 1 geinstalleerd op deze hardware (gebaseerd op de i5 setups in de startup):
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 2500 Boxed | € 171,50 | € 171,50 |
1 | XFX Pro 450W | € 49,90 | € 49,90 |
1 | Crucial m4 CT064M4SSD2 64GB | € 86,90 | € 86,90 |
2 | Transcend 8GB DDR3 Dual/Triple Channel Kit | € 40,70 | € 81,40 |
1 | Intel Desktop Board DQ67SWB3 | € 103,26 | € 103,26 |
Bekijk collectie Importeer producten | Totaal | € 492,96 |
Ik heb eerst even Windows 7 geinstalleerd om te kijken naar het energieverbruik en dat kwam uit op +/- 28W idle (komt overeen met Black_Adder's setup in de startpost).
Daarna probeerde ik ESXi 5 te installeren, maar dat lukte me niet omdat hij de NIC niet herkende. Google leverde eigenlijk niets op om dit op te lossen, dus besloot ik maar 4.1 te installeren. Ik heb gebruik gemaakt van ESXi Customizer v2.5 om de juiste oem.tgz (dezelfde als de i5 setups in de startpost) in de ESXi iso te krijgen. Deze iso op een cd gebrand en toen op een usbstick geinstalleerd.
ESXi draait nu met een verbruik van +/- 37W idle (nog geen VM's en datastores aangemaakt).
Wat moet ik nog doen:
- afmaken setup ESXi (data store aanmaken, vm draaien etc)
- MDADM setup van mijn oude linux server verhuizen naar een vm op deze server
- andere VM's opzetten
Met een usb stick? Gewoon de iso op je usb zetten met Unetbootin werkt primaCptChaos schreef op zondag 16 oktober 2011 @ 13:38:
Ik wil graag mijn ESXi 4.1.0 (build 260247) upgraden naar 5.0, ik heb echter geen CD/DVD drive in de machine zitten. Is er een mogelijkheid om zónder een optical drive in de server te upgraden naar 5? Ik heb wel een filmpje gezien meen ik, maar dat is voor vCenter, die ik niet heb en ook (nog) niet gedownload krijg?
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.