Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
PisPix schreef op donderdag 21 januari 2010 @ 09:40:
[...]


Is de PCI-X bus niet veel te traag voor dual Gigabit? Kan je niet beter voor PCI-e gaan dan?
Nee hoor...

Wikipedia: PCI-X
Width in bits: 64
Number of devices: 1 per slot
Capacity 1064 MB/s
Style: Parallel
Hotplugging? yes
De prijs van een dualport PCI-e kaart is nog te overzien (pricewatch: Intel PRO/1000 PT Dual Port Server Adapter (2x1000Mbps, PCI-e 4x)). Maar ik hou dan maar een PCIe slot over (video kaart pakt er ook een), en dan moet je al naar een quad port PCIe (pricewatch: Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e) je ESXi wil inzetten zoals ik dat hier doe. En dat vind ik verrekte duur, als je daarbij op telt dat ik zat PCI-X dualport nics heb liggen, dan is het geen gek idee om het op deze manier op te lossen.
uppie8374 schreef op donderdag 21 januari 2010 @ 11:30:
Ik heb de volgende hardware in mijn zelfbouwserver hangen:

Moederboard: Tyan 500V Tempest
CPU: 2 x Intel Xeon E-5310
Geheugen: 4 GB ECC-FB Dimm

Ik kan echter niet vinden in de hardware compatibility list van vSphere of dit gaat werken. Iemand hier die dit wel weet?
Ik ken het bord niet, maar ik denk dat je hier even moet gaan zoeken:
http://www.vm-help.com/esx40i/esx40_whitebox_HCL.php#MB

[ Voor 17% gewijzigd door UltraSub op 21-01-2010 11:48 ]


Acties:
  • 0 Henk 'm!

  • Saab
  • Registratie: Augustus 2003
  • Laatst online: 04-09 15:13
UltraSub schreef op donderdag 21 januari 2010 @ 09:25:
En weer een nieuwe lijst.. Deze is net besteld, hoop dat ik hem dit weekend in elkaar kan zetten.

#ProductPrijsSubtotaal
1Asus P6T WS Professional€ 243,80€ 243,80
1Intel Core i7 920€ 224,40€ 224,40
2Kingston ValueRAM KVR1333D3N9K3/6G€ 133,-€ 266,-
ImporterenTotaal€ 734,20

Mobo en cpu besteld bij Komplett.nl en ram bij Informatique. Wordt je lijstje wel een stuk duurder, maar daar was tenminste alles uit eigen voorraad. Ik kan niet te lang meer wachten, want ESXi blijft hier maar random crashen. Ik heb zoals gezegd alles al vervangen, nu doen we nog eens alles, en dan goed.
Denk dat het wel een bommetje is voor een thuis ESXi server :)
De onboard nics zullen (uiteraard) disabled worden, en omdat dit mobo 2x een PCI-X slot heeft, kom ik mooi weg met een rits "HP NC7170 Dual Port PCI-X Gigabit Server Adapter" die ik hier heb liggen. Die heb ik er nu ook in draaien, alleen draaien ze nu in een normaal PCI slot, dus ze zijn gecapped.
Sorry maar waarom ga je dan niet voor deze oplossing? Weet je zeker dat alles werkt.
Even serieus, waarom schaf je voor dat bedrag niet een entry server aan van Dell of HP?
Je hoeft dan alleen maar te weten of het werkt met ESX en daarna heb je geen hardware issues meer. Zelf was ik rond de 550 euro kwijt voor een HP Proliant ML115 met 8 GB geheugen, 3 schijven met in totaal 1,5 TB en een hardware RAID kaart (Dell Perc 5i). Hiervoor had ik een Dell PowerEdge 830, waar ik ook geen problemen mee had.

https://www.discogs.com/user/jurgen1973/collection


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Saab schreef op donderdag 21 januari 2010 @ 11:59:
[...]

Sorry maar waarom ga je dan niet voor deze oplossing? Weet je zeker dat alles werkt.

[...]
Nogmaals, zoek maar eens een "entry" server met die specs. Dus een core i7 quadcore, 4x 1Gb NIC, en 12GB DDR3 ram. En kijk je eens wat die kost.
Ik blijf er bij, de problemen die ik nu heb gehad zijn niet te relateren aan ESX(i). Is gewoon instabiele hardware. En dat zou ik in Windows ook hebben gehad. (Ga ik later nog wel eens testen). Naar mijn mening, als ESX(i) eenmaal loopt (en dat zou een eitje moeten zijn met deze combo), dan blijft het gewoon draaien. Dit was niet mijn eerste thuis server die gebaseerd was op het principe van commodity hardware. En ik kan je vertellen, commodity hardware heeft heel veel voordelen! Snel, stil, zuinig en spare parts heel makkelijk verkrijgbaar, en dat voor relatief weinig geld....

Acties:
  • 0 Henk 'm!

  • PisPix
  • Registratie: Oktober 2003
  • Laatst online: 16-09 21:44
UltraSub schreef op donderdag 21 januari 2010 @ 12:14:
[...]

Nogmaals, zoek maar eens een "entry" server met die specs. Dus een core i7 quadcore, 4x 1Gb NIC, en 12GB DDR3 ram. En kijk je eens wat die kost.
Ik blijf er bij, de problemen die ik nu heb gehad zijn niet te relateren aan ESX(i). Is gewoon instabiele hardware. En dat zou ik in Windows ook hebben gehad. (Ga ik later nog wel eens testen). Naar mijn mening, als ESX(i) eenmaal loopt (en dat zou een eitje moeten zijn met deze combo), dan blijft het gewoon draaien. Dit was niet mijn eerste thuis server die gebaseerd was op het principe van commodity hardware. En ik kan je vertellen, commodity hardware heeft heel veel voordelen! Snel, stil, zuinig en spare parts heel makkelijk verkrijgbaar, en dat voor relatief weinig geld....
Ik heb de server van HP gekocht met de CPU die ik wilde. Verder heb ik de netwerkkaarten, Raid-adapter, schijven en geheugen los gekocht. Dat scheelde al zo'n 900 euro. Bij Kingston kan je gewoon opgeven welke server je hebt en dan geven zij het juiste geheugen aan wat erin past (max). Ook qua schijven maakt het natuurlijk niets uit, die zijn bij HP/Dell best duur, terwijl je ze los voor soms de helft kan kopen.
Ik draai nu een HP ML150 G5 met Dell Perc 5/i raid adapter.

Over die PCI-X bus.... je hebt toch een dual-poort kaart? Dan is 1065 toch te weinig als je beide kaarten vol zou willen trekken (in theorie). Ik ben voor 2x een PCI-e dual kaart gegaan, die zijn een stuk betaalbaarder dan een quad-kaart.

Over de spare parts heb je zeker wel gelijk, die zijn van een HP/Dell server gewoon duurder.

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
PisPix schreef op donderdag 21 januari 2010 @ 12:53:
[...]
Over die PCI-X bus.... je hebt toch een dual-poort kaart? Dan is 1065 toch te weinig als je beide kaarten vol zou willen trekken (in theorie). Ik ben voor 2x een PCI-e dual kaart gegaan, die zijn een stuk betaalbaarder dan een quad-kaart.
Huh :?
Dan moet je toch al alle 4 de poorten full-duplex vol trekken.. En dan nog red je het niet.
4x 2048 Mbps = 8192 Mbps
8192 / 8 = 1024 MB/sec. En verder zit er niets op diezelfde bus. En meer kan er ook niet bij :)
Kom ik dan toch nog tekort, kan ik altijd nog een PCIe kaartje er bij zetten.

Acties:
  • 0 Henk 'm!

  • PisPix
  • Registratie: Oktober 2003
  • Laatst online: 16-09 21:44
UltraSub schreef op donderdag 21 januari 2010 @ 14:05:
[...]

Huh :?
Dan moet je toch al alle 4 de poorten full-duplex vol trekken.. En dan nog red je het niet.
4x 2048 Mbps = 8192 Mbps
8192 / 8 = 1024 MB/sec. En verder zit er niets op diezelfde bus. En meer kan er ook niet bij :)
Kom ik dan toch nog tekort, kan ik altijd nog een PCIe kaartje er bij zetten.
Over de hoofdletter B heen gelezen in je eerdere post...:-)

Acties:
  • 0 Henk 'm!

  • Saab
  • Registratie: Augustus 2003
  • Laatst online: 04-09 15:13
UltraSub schreef op donderdag 21 januari 2010 @ 12:14:
[...]

Nogmaals, zoek maar eens een "entry" server met die specs. Dus een core i7 quadcore, 4x 1Gb NIC, en 12GB DDR3 ram. En kijk je eens wat die kost.
Ik blijf er bij, de problemen die ik nu heb gehad zijn niet te relateren aan ESX(i). Is gewoon instabiele hardware. En dat zou ik in Windows ook hebben gehad. (Ga ik later nog wel eens testen). Naar mijn mening, als ESX(i) eenmaal loopt (en dat zou een eitje moeten zijn met deze combo), dan blijft het gewoon draaien. Dit was niet mijn eerste thuis server die gebaseerd was op het principe van commodity hardware. En ik kan je vertellen, commodity hardware heeft heel veel voordelen! Snel, stil, zuinig en spare parts heel makkelijk verkrijgbaar, en dat voor relatief weinig geld....
Ik vraag me echt af hoe zo'n onboard RAID controller gaat performen. Ik ben bang slecht.

Wij hebben hier een DL160G5 of 6 met een onboard SATA controller en het draait als dikke str*nt door een trechter. 1 machine gaat ok, de tweede machine maakt de hele boel traag.

Stabiliteit en snelheid zijn twee verschillende zaken.

https://www.discogs.com/user/jurgen1973/collection


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Saab schreef op vrijdag 22 januari 2010 @ 17:24:
[...]


Ik vraag me echt af hoe zo'n onboard RAID controller gaat performen. Ik ben bang slecht.

Wij hebben hier een DL160G5 of 6 met een onboard SATA controller en het draait als dikke str*nt door een trechter. 1 machine gaat ok, de tweede machine maakt de hele boel traag.

Stabiliteit en snelheid zijn twee verschillende zaken.
Zucht.. Of je leest ff ;)
Ik draai disk-less. En daarvoor had ik een hardware raid controller (een dell perc5/i).
Die onboard crap heb ik nooit gebruikt, voor geen enkel systeem.

Maar goed, hij draait inmiddels. Installatie was een eitje. Moederbord/cpu/ram swap, usb stick er in, power/on, wat netwerk settings en presto. Draait als een tierelier, en is retesnel. Nu maar hopen dat het ook zo blijft :P

Acties:
  • 0 Henk 'm!

  • Saab
  • Registratie: Augustus 2003
  • Laatst online: 04-09 15:13
UltraSub schreef op zaterdag 23 januari 2010 @ 20:54:
[...]

Zucht.. Of je leest ff ;)
Ik draai disk-less. En daarvoor had ik een hardware raid controller (een dell perc5/i).
Die onboard crap heb ik nooit gebruikt, voor geen enkel systeem.

Maar goed, hij draait inmiddels. Installatie was een eitje. Moederbord/cpu/ram swap, usb stick er in, power/on, wat netwerk settings en presto. Draait als een tierelier, en is retesnel. Nu maar hopen dat het ook zo blijft :P
Oh, ok, ik weet niet waar je dat dan zegt maar goed..Ok, twee pagina's terug... 8)

Overigens had ik het nou juist over de virtuele machines, die draaien hier ook vanaf een SAN, maar ik zie dat het niet echt productie is bij jou.

[ Voor 13% gewijzigd door Saab op 24-01-2010 19:18 ]

https://www.discogs.com/user/jurgen1973/collection


Acties:
  • 0 Henk 'm!

  • Tomsworld
  • Registratie: Maart 2001
  • Niet online

Tomsworld

officieel ele fan :*

Iemand een tip voor een zo goedkoop mogelijk ondersteunde raid controller:

- low profile
- pci-e
- raid1 is voldoende 2 disks
- status uitleesbaar op afstand (via vmware console, binary, cim ...)

"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"


Acties:
  • 0 Henk 'm!

  • spone
  • Registratie: Mei 2002
  • Niet online
IDE, SATA, SAS, SCSI?

[ Voor 66% gewijzigd door spone op 25-01-2010 00:16 ]

i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik verveelde me dus heb ik een ESXi4 whitebox samengesteld : hieronder de configuratie voor degene de mogelijk iets zoeken :

#ProductPrijsSubtotaal
1AMD Phenom II X4 905E€ 148,-€ 148,-
1Antec Earthwatts EA 380D Green€ 38,67€ 38,67
1Antec New Solution NSK4000€ 42,01€ 42,01
1Emtec USB Stick C250 8GB Zwart€ 13,90€ 13,90
1Gigabyte GA-MA785GT-UD3H€ 76,70€ 76,70
1Intel Gigabit CT Desktop Adapter€ 22,87€ 22,87
1Kingston ValueRAM KVR1333D3N9K2/4G€ 89,90€ 89,90
ImporterenTotaal€ 432,05


Een AMD quadcore was een eenvoudige keuze omdat deze allen AMD-V ondersteunen en een AMD moederbord nu eenmaal ook goedkoper uitkomt (meestal). Tevens is specifiek deze processor gekozen vanwege het lage TDP (65watt). Het moederbord is gebaseerd op een report van ultimatewhitebox.com. Dit bevestigt dat de sata poorten werken wat dus mogelijkheden opent voor VM met raw device configuraties en software raid. De intel kaart is vereist alhouwel het mogelijk kan zijn dat je met een kleine hack de onboard netwerkkaart aan de praat kan krijgen. Ik heb gekozen voor 4G ram, interessant kan zijn om dit te verdubbelen. Beyond dat lijkt met nutteloos en een tweede box kopen interessanter. Booten kan vanaf de USB stick voor minder verbruik of je zou kunnen kiezen voor 2.5" disks (zuinig), 3.5" (goedkoop) of SSD's (duur,zuinig,snel). De kast en voeding is puur indicatief wat zo'n systeem zou kosten. De prijs met twee intel kaarten en 8G ram zou € 544,82 kosten.

Acties:
  • 0 Henk 'm!

  • Pingelmonster
  • Registratie: Juli 2005
  • Niet online
Intussen draai ik al ruim een jaar op ESXi, begonnen met3.5 U2, nu ESXi 4.0.
Mijn setup ziet er zo uit:

- Intel Core 2 Duo E6550
- Asus P5N-E SLI
- 4x 2GB Kingston PC5300 CL3
- 2x Seagate 7200.10 250GB SATA (RAID1)
- 6x Seagate 7200.11 320GB SATA (RAID5)
- 3Ware 9650SE 8port RAID-controller

ESXi staat op een USB-stick. De opslagcapaciteit is dus geheel voor VM's.
Ik heb de opslagruimte opgehakt in twee datastores; één van 250GB voor de OS'en van de VM's en één van 1.45TB groot. Op de laatste staan belangrijke data, muziek en films.

In de zomervakantie ben ik een hoop data kwijt geraakt (was wat aan het stoeien met policies..., eigen schuld dus) gehad waardoor veel data verloren is gegaan. Dat wil ik eigenlijk heel graag voorkomen.

De VM's staan allen in VMDK-bestanden opgeslagen op de RAID-arrays in de server. Ik heb er eigenlijk geen fijn gevoel bij. Er is geen monitoringssoftware voor ESXi beschikbaar waarmee ik de RAID-controller kan bewaken en het voelt alsof al mijn bestanden versleuteld staan in die VMDK's..(het zijn niet effe .rar-pakketjes die ik kan uitpakken ofzo).
Mocht het ding crashen om wat voor reden dan ook, dan is een hoop data verloren.

Ik zit naar een andere oplossing te zoeken en kom op een NAS uit. In het bijzonder de Iomega StorCenter ix2-200 met 2TB opslag. Er zit een Gbit-aansluiting op en volgens de reviews die ik heb gezien presteert het ding vrij aardig. Hij beschikt over NFS-mogelijkheden wat inhoudt dat ik 'm aan ESXi kan knopen..dat bied ook weer nieuwe mogelijkheden.

Nu lees ik hier en overal op het internet heel smeuïge verhalen over het streamen van VM's vanaf zon NAS in ESXi. Echter vraag ik mij af of dit wel haalbaar is met 6 VM's (waaronder één fileserver) en 1x 1Gbit....
Bovendien zou ik, als ik dit zou doen, geen toegevoegde waarde zien bovenop mijn huidige setup. Ik sla immers alle data op de NAS op ipv op de lokale schijven. Die NAS heeft weliswaar RAID1 aanboord, mijn server heeft RAID5.

Wanneer ik mijn StorCenter enkel als backupvoorziening inricht voor ESX (elke nacht backups laten maken) heb ik wél toegevoegde waarde omdat ik mijn VM's dan dubbel opsla.

Bovendien vraag ik me af of het slim is om selectief te backuppen, daarmee bedoel ik eigenlijk enkel de OS'sen en belangrijke data die absoluut niet verloren mogen gaan. Ik heb op dit moment zowaar 600-700Gbyte aan data die ik dan elke nacht zou moeten backuppen...dat is nogal veel 8)7

Wat is jullie ervaring hiermee en wellicht kan iemand me hierin wat adviseren?

Acties:
  • 0 Henk 'm!

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 13:24
Mr.SiS schreef op maandag 25 januari 2010 @ 01:10:
Dit bevestigt dat de sata poorten werken wat dus mogelijkheden opent voor VM met raw device configuraties en software raid.
Het feit dat je ESXi de onboard Sata poort ziet is 1 ding, software raid en ESXi is geen gelukkig huwelijk over het algemeen..!!

Member of the Ukraine IT Army


Acties:
  • 0 Henk 'm!

Verwijderd

NIK0 schreef op woensdag 27 januari 2010 @ 09:58:
[...]

Het feit dat je ESXi de onboard Sata poort ziet is 1 ding, software raid en ESXi is geen gelukkig huwelijk over het algemeen..!!
Gok dat ik dit kan beamen. Draai ESXi 4 Update 1 op een Foxconn G31MX-K mobo en in 'single' modus (vmdk op de schijf) gaat het relatief snel kwa data transfers, vanaf dat ik er een FreeNas of OpenFiler op zet en de disks in RAID 5 zet is het om te huilen..

(Niemand een oplossing voor dit 'probleem'?)

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Pingelmonster schreef op dinsdag 26 januari 2010 @ 21:24:
De VM's staan allen in VMDK-bestanden opgeslagen op de RAID-arrays in de server. Ik heb er eigenlijk geen fijn gevoel bij. Er is geen monitoringssoftware voor ESXi beschikbaar waarmee ik de RAID-controller kan bewaken en het voelt alsof al mijn bestanden versleuteld staan in die VMDK's..(het zijn niet effe .rar-pakketjes die ik kan uitpakken ofzo).
Je kan de vmdk files gewoon mounten met vmdk mounter. Daarnaast kun je arrays ook als RDM mounten, dan blijft het filesystem altijd leesbaar, ook met een boot cd-tje bijv.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
offtopic:
Voor een bedrijf van een vriend van me, ga ik de boel van VMware Server 2.x omsleutelen naar ESXi 4.
Zal sowieso een whitebox worden, hardware staat er al voor 90%.
Omdat er hier heel veel ESXi installs draaien, heb ik een vraagje. Hoe backuppen jullie de VM's? Voor mijn eigen install gebruik ik vMA met GhettoVCB.pl. Maar dat zal bij hem niet gaan, je moet write access hebben, en das een aardige licentie. :X
Oplossingen om toch geautomatiseerd te kunnen backuppen?

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Als het je niet gaat om de vm's en de config van vmware kun je natuurlijk de guests gewoon met diverse gratis backuptools backuppen.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Sinds gisteren met succes een (low-budget) ESX4 bak ingericht:

- Asus M4A78-EM, AM2+, 780G, 4xDDR2
- AMD Athlon II X2 235e, 2.7GHz, 2MB, AM3, 45W
- Kingston ValueRam 4GB(2x2) DDR2 800MHz C6
- Intel PRO/1000 GT Desktop Adapter, PCI
- Intel PRO/1000 CT Desktop Adapter, PCIe x1

Er zit nu even een tijdelijke PATA schijf in, dit wordt straks een SATA 2,5" model (energiezuinig). Op deze harde schijf draait uitsluitend ESX. De bedoeling is dat er uiteindelijk een iSCSI QNAP NAS aan komt te hangen, waar de virtual machines op komen te staan. Ik moet nog even kijken of ik dit via het algemene gigabit netwerk hier ga doen of dat ik een dedicated NIC erbij doe voor de verbinding tussen ESX server en virtual machines op de QNAP. Het algemene gigabit netwerk gebruik ik dan nog om vanuit de virtuele Windows servers dataschijven via iSCSI toe te voegen. De laatste netwerkkaart is voor internet, omdat er ook een virtuele router op gaat draaien.

De grap is dat ik een identieke server heb staan, maar dan met een:

- Asus M3A78-EM, AM2+, AMD780G, 4xDDR2 en
- AMD Athlon 64 X2 5050e, 2.6GHz, 1MB, AM2, 45W

De bedoeling is dat deze op precies dezelfde manier gaat werken (nu nog tijdelijk winxp64 met daarop VMWare Server). Ook hier wil ik een aparte NAS aan hangen. Eén van de twee computers komt bij mijn ouders te staan en tussen deze twee netwerken komt een VPN.

Waar ik eigenlijk ontzettend benieuwd naar ben is of ESX4 de Promise Fasttrak SX4000 RAID controller ondersteunt. Deze kan 4 IDE schijven ontsluiten en heb ik nu bij mijn ouders in een oude server zitten. Het is een hardware RAID kaart dus zou echt mooi zijn als hij werkt. Op internet is er niets over te vinden, misschien hier iemand die er toevallig iets over weet? :).

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

[b][message=33545410,noline]De laatste netwerkkaart is voor internet, omdat er ook een virtuele router op gaat draaien.
Heb je er ook Gbit internet aan hangen dan ? Zo nee, kun je ook met VLAN's werken.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
DukeBox schreef op zaterdag 27 februari 2010 @ 11:21:
Heb je er ook Gbit internet aan hangen dan ? Zo nee, kun je ook met VLAN's werken.
Bedoel je Gbit internet? Nee, dat niet. Wel voor het interne netwerk.

Ik kan inderdaad meerdere virtuele netwerkkaarten koppelen aan 1 fysieke, maar houd het liever gescheiden uit veiligheidsoverwegingen. Tenslotte komt die ESX met de Windows Router toch rechtstreeks aan het internet te hangen. Of denk je dat dat niet nodig is?

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

De meningen zijn daar nogal over verdeeld.. VLAN tagging is niet ontwikkeld voor security, het is een management oplossing. Echter als je bedenkt dat ieder 'secure' MPLS uiteindelijk ook gewoon gebruik maakt van dezelfde technieken en dat loopt via internet de hele wereld door.. Dat wordt middels diverse ISO en (J)SOX rapporten 100% veilig geacht dus dan vind ik het ook veilig genoeg.
Uiteindelijk loopt het in je server ook over dezelfde PCI bus, zelfde geheugen en de zelfde CPU (in grote lijnen ;)). Daarnaast is de kans dat iemand een fysieke fout maakt vaak groter dan een in software (tagging) aangezien dat veel makkelijker te monitoren is.

[ Voor 32% gewijzigd door DukeBox op 27-02-2010 14:03 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Sonic
  • Registratie: Februari 2000
  • Laatst online: 16:18
Hallo allemaal,

Erg interessant topic dit! Ik ben zelf ook bezig om een nieuwe server samen te stellen. Het is voor mij erg belangrijk dat deze energie zuinig wordt. Nu heb ik het volgende systeem in gedachten:

#ProductPrijsSubtotaal
1Intel Core i3 530€ 89,90€ 89,90
1Kingston ValueRAM KVR1333D3D4R9S/4G€ 122,50€ 122,50
1Mini-box PicoPSU 150€ 47,30€ 47,30
1MSI H57M-ED65€ 145,60€ 145,60
1Nexus Edge€ 123,-€ 123,-
Bekijk collectieTotaal€ 528,30


Ik weet echter niet of dit moederbord gaat werken met VMWare ESX. Indien nodig heb ik nog een Areca ARC-1210 controller liggen als de raid functie van het moederbord niet wordt ondersteund.

Iemand misschien ervaringen met dit moederbord of de Intel H57 chipset?

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Er is geen enkele softraid/raid assisted controller die werkt met ESX, daarnaast geven alleen controllers met (BBU) write-back cache enige performance voor lokale storage.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
DukeBox schreef op vrijdag 26 februari 2010 @ 23:05:
Als het je niet gaat om de vm's en de config van vmware kun je natuurlijk de guests gewoon met diverse gratis backuptools backuppen.
Heb je een aanbeveling voor me?

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Wat zijn je eisen en gebruikte hardware ? (TBU?)

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Nog even twee vraagjes hier, na het doorspitten van het gehele topic.

Om energiezuinigheids- en geluidsredenen wilde ik 2,5" SATA schijven in mijn ESX servers hangen, maar ik zie nu dat een hoop mensen hier USB sticks gebruiken. Zijn daar nog bezwaren aan verbonden? De VM's zelf komen bij mij toch op een NAS, dus het gaat puur om ESX. Lijkt mij dat zo'n stick inderdaad nog zuiniger is, en hij maakt geen enkel geluid!

Daarnaast nog wat dingen over UPS apparatuur. Ik zou op zich best een UPS willen, maar hoe werkt het met het waarschuwen van de VM's? En hoe werkt ESX daarmee? Moet ik dan zo'n UPS met netwerkmogelijkheden hebben? Want die zijn wel duur (bijvoorbeeld APC SmartSlot ding). Ik wil het liefst dat, bijvoorbeeld, eerst na 10 minuten de VM's uit gaan, daarna de host server en tenslotte moet mijn NAS afsluiten. Bij elkaar zullen die apparaten minder dan 100 watt gebruiken, dus met een 200 watt UPS zit ik gebakken Afbeeldingslocatie: http://i.fokzine.net/s/vork.gif.

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
DukeBox schreef op zaterdag 27 februari 2010 @ 23:17:
Wat zijn je eisen en gebruikte hardware ? (TBU?)
Als het even kan, moeten backups live plaats kunnen vinden, a la ghettovcb. Dus snapshot maken (en daar heb je dus write access voor nodig (toch?), en dan de vmdk's en vmx files backuppen naar een NAS, dan snap weer deleten. Geen TBU inplace. Gewoon een keer per week een full dump van een machine, maar wel gescheduled, zonder user interactie, anders wordt het toch weer vergeten is mijn ervaring. Liefst de backup aftrappen vanaf een freeware product, anders kost het weer een extra licentie.

Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
Heeft er trouwens iemand een vergelijkende review tussen CPU's met en CPU's zonder vanderpool/AMD-V? Ik ben aan het uitkijken voor een servertje om wat ervaring en kennis van zowel virtualisatie als serveromgevingen op te doen. Ik heb al wat rondgezocht maar kan niet meteen iets vinden.

Acties:
  • 0 Henk 'm!

  • Dromer
  • Registratie: Juni 2000
  • Laatst online: 19:10
Ik vraag me af of er ook mensen zijn die het op een Synology nas hebben draaien icm iscsi.
Is natuurlijk wel een mooi oplossing om je vm's op een nas te parkeren, alleen heb ik meer ervaringen met Synology en dus heeft dat mijn voorkeur.

Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Dromer schreef op maandag 01 maart 2010 @ 22:44:
Ik vraag me af of er ook mensen zijn die het op een Synology nas hebben draaien icm iscsi.
Is natuurlijk wel een mooi oplossing om je vm's op een nas te parkeren, alleen heb ik meer ervaringen met Synology en dus heeft dat mijn voorkeur.
Ik ga over een paar weken een QNAP aanschaffen, en dan inderdaad door middel van iSCSI de VM's laden. Lijkt me helemaal top.

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Ik heb ze hier draaien op een QNAP TS509 Pro. Allemaal over NFS. No way dat ik over iscsi zal gaan draaien. Performancetechnisch zit er nagenoeg geen verschil in, nfs kan zelfs sneller zijn wijzen de benchmarks uit. Maar het grootste nadeel van iscsi thuis: je reservereert ruimte op je nas voor een iscsi lun. Die ruimte ben je kwijt op de rest van je nas. Terwijl een hoop ruimte wellicht leeg is op het gereserveerde lun. Draai je dit over nfs, dan is het niet meer dan een share, en grows as needed. Daarnaast kun je gewoon via CIFS bij vmdks voor eventuele kopieeracties (of rsync naar andere locatie). Draai je dit via iscsi, dan kan dat niet, en heb je altijd een ESX doos nodig om je iscsi lun uit te lezen..
Ik zeg, thuis situatie; lekker kiezen voor NFS. Draait bij mij nu al 2 maanden vlekkeloos.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:08
UltraSub schreef op dinsdag 02 maart 2010 @ 13:01:
Ik heb ze hier draaien op een QNAP TS509 Pro. Allemaal over NFS. No way dat ik over iscsi zal gaan draaien. Performancetechnisch zit er nagenoeg geen verschil in, nfs kan zelfs sneller zijn wijzen de benchmarks uit. Maar het grootste nadeel van iscsi thuis: je reservereert ruimte op je nas voor een iscsi lun. Die ruimte ben je kwijt op de rest van je nas. Terwijl een hoop ruimte wellicht leeg is op het gereserveerde lun. Draai je dit over nfs, dan is het niet meer dan een share, en grows as needed. Daarnaast kun je gewoon via CIFS bij vmdks voor eventuele kopieeracties (of rsync naar andere locatie). Draai je dit via iscsi, dan kan dat niet, en heb je altijd een ESX doos nodig om je iscsi lun uit te lezen..
Ik zeg, thuis situatie; lekker kiezen voor NFS. Draait bij mij nu al 2 maanden vlekkeloos.
maar uhm, dat kan je toch 'oplossen' door thinprovisioning :? (weet even de correcte vmware term niet uit mijn hoofd) :? dat werkt ook over iscsi vziw

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

Verwijderd

Powershell schreef op dinsdag 02 maart 2010 @ 13:08:
[...]


maar uhm, dat kan je toch 'oplossen' door thinprovisioning :? (weet even de correcte vmware term niet uit mijn hoofd) :? dat werkt ook over iscsi vziw
Niet echt, je moet bij het aanmaken van het iscsi lun kiezen hoeveel ruimte je pakt van het SAN. Dus zeg 500GB. Die ben je dan in ieder geval kwijt. Met NFS kun je het volume laten groeien, nog even los van ESX. Als je de komende maanden nog maar 200GB aan VM's hebt, kun je de rest nog gebruiken voor andere zaken. Als je meer VM's krijgt kun je andere ruimte gebruiken om het NFS volume groter te maken. Het iscsi volume is niet zo dynamisch. Verder is de snelheid overigens redelijk gelijk, en bij nieuwere firmwares is iscsi iets sneller.

Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Hmmm, maar je weet toch op een gegeven moment ongeveer hoe groot je VM''s zijn? En kun je je LUN niet zelf inkrimpen of uitbreiden wanneer nodig? Dus niet geheel dynamisch, maar wel dat je het onder controle hebt? Zo vaak zal het ook weer niet van toepassing zijn. En dan ben ik benieuwd of je daarvoor je iSCSI moet disconnecten (en dus je VM's uitschakelen) of niet...

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Verwijderd schreef op dinsdag 02 maart 2010 @ 14:35:
...bij het aanmaken van het iscsi lun kiezen hoeveel ruimte je pakt van het SAN. Dus zeg 500GB. Die ben je dan in ieder geval kwijt. Met NFS kun je het volume laten groeien, nog even los van ESX.
Dat kan met iSCSI ook.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
DukeBox schreef op maandag 22 februari 2010 @ 20:10:
[...]

Je kan de vmdk files gewoon mounten met vmdk mounter. Daarnaast kun je arrays ook als RDM mounten, dan blijft het filesystem altijd leesbaar, ook met een boot cd-tje bijv.
Het klopt dat het VMDK formaat nog te openen valt met andere software zoals onder andere virtualbox echter kan je een VMFS partitie ook mounten met een non-vmware product, want het gaat me erom dat wanneer het telaat is je VMFS ook corrupt is, en dat ik meer vertrouwen heb in een filesystem waarvoor recovery tools bestaan. Ik ben dus zoals je zelf zegt meer overtuigt van esxi, rdm en daarop een software raid die je later gewoon gemakkelijk kan recoveren. Performantie is hier ook niet ideaal (was 90MB/sec met linux als OS) maar de 50MB/sec haal ik nog wel op een dual core pentium d (met ESXi4 en RDM).
UltraSub schreef op dinsdag 02 maart 2010 @ 13:01:
Ik heb ze hier draaien op een QNAP TS509 Pro. Allemaal over NFS. No way dat ik over iscsi zal gaan draaien. Performancetechnisch zit er nagenoeg geen verschil in, nfs kan zelfs sneller zijn wijzen de benchmarks uit. Maar het grootste nadeel van iscsi thuis: je reservereert ruimte op je nas voor een iscsi lun. Die ruimte ben je kwijt op de rest van je nas. Terwijl een hoop ruimte wellicht leeg is op het gereserveerde lun. Draai je dit over nfs, dan is het niet meer dan een share, en grows as needed. Daarnaast kun je gewoon via CIFS bij vmdks voor eventuele kopieeracties (of rsync naar andere locatie). Draai je dit via iscsi, dan kan dat niet, en heb je altijd een ESX doos nodig om je iscsi lun uit te lezen..
Ik zeg, thuis situatie; lekker kiezen voor NFS. Draait bij mij nu al 2 maanden vlekkeloos.
Wat is de configuratie op je NFS machine om VMware toe te laten ? Want het is me nog niet gelukt om een connectie op te zetten. Zover ik begreep gebruikt ESXi de root user om te verbinden ?

[ Voor 40% gewijzigd door analog_ op 02-03-2010 18:20 ]


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Mr.SiS schreef op dinsdag 02 maart 2010 @ 18:13:
...want het gaat me erom dat wanneer het telaat is je VMFS ook corrupt is, en dat ik meer vertrouwen heb in een filesystem waarvoor recovery tools bestaan..
Dezelfde tools als voor een fysieke hdd.. net als dat ook een fysieke hdd corrupt kan raken. Er is geen verschil.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Verwijderd schreef op dinsdag 02 maart 2010 @ 14:35:
[...]
Niet echt, je moet bij het aanmaken van het iscsi lun kiezen hoeveel ruimte je pakt van het SAN. Dus zeg 500GB. Die ben je dan in ieder geval kwijt.
Precies...
Met NFS kun je het volume laten groeien, nog even los van ESX. Als je de komende maanden nog maar 200GB aan VM's hebt, kun je de rest nog gebruiken voor andere zaken. Als je meer VM's krijgt kun je andere ruimte gebruiken om het NFS volume groter te maken. Het iscsi volume is niet zo dynamisch.
Sterker nog. Je maakt een NFS volume niet groter, want er is geen volume. ESX ziet het als een datastore, maar op de NAS is het in feite gewoon een directory. Stel de volgende situatie. NAS met een 5TB filesystem. Daar maak je shares op aan. Een van die shares is bijvoorbeeld /vmware waar je vmdk's in staan. Andere share is bijvoorbeeld /data waar al je normale data in staat. Beide shares zullen (als ze beide leeg zijn) aangeven voor de buitenwereld dat ze 5TB groot zijn. Zodra je 1TB in /data zet zullen beide shares aangeven nog 4TB vrij te hebben. Zet je daarna nog 500GB aan vmdks in /vmware, laten beide shares zien dat ze nog 3,5TB vrij hebben. Besluit je een nieuwe guest aan te maken met nog eens 500GB aan vmdk's, dan rapporteren beide shares nog 3TB vrij. Mik je een guest van 500GB weer weg, rapporteren ze beide weer 3,5TB vrij.
Je ziet, dynamischer en efficienter kun je je thuis storage niet gebruiken. Ruimte gaat en komt als je het nodig hebt (of niet meer nodig hebt). Niks vergroten/verkleinen. Enige waar je tegenaan loopt is als die 5TB van het voorbeeld vol zitten. Maar goed, dikkere schijven in je NAS, raid laten rebuilden, filesystem vergroten, en je hebt 8TB (ik zeg maar wat), en je datastore in ESX gaat gewoon mee :)
Verder is de snelheid overigens redelijk gelijk, en bij nieuwere firmwares is iscsi iets sneller.
Mja, niet helemaal waar. iscsi is cpu gevoelig, nog een van de nadelen die NFS niet heeft. Het inpakken van de scsi commando's in tcpip frames kost simpelweg cpu. En die cpu belasting haal je alleen weg door een nic te nemen met iscsi offloading (dus de nic doet het werk en niet de cpu), maar die zijn prijzig. Maar je hebt wel gelijk, betere software maakt het geheel iets efficienter. Maar in the end is je netwerk limiterend (en zeer waarschijnlijk je NAS).
Ik heb met een oud collega vmware guru nfs en iscsi getest, ik op mijn QNAP en hij op zijn IX4, en NFS was bij hem sneller (en niet zo zuinig ook). Ik heb geen iscsi getest.
Dennis schreef op dinsdag 02 maart 2010 @ 14:52:
[...]

Hmmm, maar je weet toch op een gegeven moment ongeveer hoe groot je VM''s zijn? En kun je je LUN niet zelf inkrimpen of uitbreiden wanneer nodig? Dus niet geheel dynamisch, maar wel dat je het onder controle hebt? Zo vaak zal het ook weer niet van toepassing zijn. En dan ben ik benieuwd of je daarvoor je iSCSI moet disconnecten (en dus je VM's uitschakelen) of niet...
Ja ik weet hoe groot mijn vm's zijn. Maar groei is niet zo gemakkelijk te voorspellen en wat dacht je van even snel een paar test vm'tjes clonen? Dat kan ruimte vreten. Lullig als je dan te klein gesized hebt en moet uitbreiden. Nog lulliger als je te groot gesized hebt en 300GB weg hebt gegooid.
Ja, je kunt een iscsi lun dynamisc en inflight (als je nas het ondersteunt) uitbreiden, maar shrinken is een heel ander verhaal, dat snapt het filesystem wat er op staat niet. (het zóu kunnen dat dat in ESXi 4 is veranderd, weet ik even niet).
Mr.SiS schreef op dinsdag 02 maart 2010 @ 18:13:
[...]

Wat is de configuratie op je NFS machine om VMware toe te laten ? Want het is me nog niet gelukt om een connectie op te zetten. Zover ik begreep gebruikt ESXi de root user om te verbinden ?
Oh zo simpel :)
2 dingen. De eerste was makkelijk de tweede heb ik een dag naar gezocht.
- Alles volle bak open op de QNAP. NFS export met everyone read/write. De enigen die NFS doen in mijn netwerk, zijn een Debian gateway, en die moet alles mogen in de shares, geen gedonder, en ESX, en die moet ook alles kunnen. Verder doet niemand NFS, en de NAS staat achter een firewall, waar de NFS poorten (natuurlijk) dicht staan. En inderdaad, ESX gebruikt de root user. (Maar daar heb je het wachtwoord toch van? Anders gewoon alles open ;)
- Het tweede punt was irritant. Ik kreeg timeouts bij het opzetten van verbinding. Uiteindelijk bleek dat te liggen dat de NAS in zijn hosts file (of in DNS, maar das bij mij kip/ei verhaal, draait op een guest) het ip van ESX moest kunnen resolven naar een hostname. Doh. Dat heeft me een dag gekost.

Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Dit noem ik nou eens mega waardevolle informatie!

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Graag gedaan :P

Acties:
  • 0 Henk 'm!

  • Dromer
  • Registratie: Juni 2000
  • Laatst online: 19:10
Thx ultrasub...keuzes worden vanzelf makkelijk op deze manier :)

Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Is er nog iemand die onderstaande vraag van mij kan beantwoorden?
Dennis schreef op zondag 28 februari 2010 @ 08:46:
Ik zou op zich best een UPS willen, maar hoe werkt het met het waarschuwen van de VM's? En hoe werkt ESX daarmee? Moet ik dan zo'n UPS met netwerkmogelijkheden hebben? Want die zijn wel duur (bijvoorbeeld APC SmartSlot ding). Ik wil het liefst dat, bijvoorbeeld, eerst na 10 minuten de VM's uit gaan, daarna de host server en tenslotte moet mijn NAS afsluiten. Bij elkaar zullen die apparaten minder dan 100 watt gebruiken, dus met een 200 watt UPS zit ik gebakken [afbeelding].

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Er zijn maar 2 ondersteunde merken op dit moment, APC en MG waarvoor agents zijn. Het installeren van een agent onder ESXi is hoe dan ook niet supported. Gebruikelijker is om het guest based (bijv. vanuit je virtual center) te regelen. Deze geeft dan opdracht aan alle guests een shutdown te doen en vervolgens een shutdown van je host.

[ Voor 36% gewijzigd door DukeBox op 04-03-2010 15:45 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Hoe kan een guest dan een shutdown van de host forceren??

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:08
Dennis schreef op vrijdag 05 maart 2010 @ 08:50:
Hoe kan een guest dan een shutdown van de host forceren??
als je nog 3.5 draait dan kan je met deze exploit de host crashen (en dus shutdownen) :P

http://www.vmware.com/sec...ories/VMSA-2009-0005.html

A vulnerability in a guest virtual device driver, could allow a guest operating system to crash the host and consequently any virtual machines on that host.
:+

guest to host communication... the worst kind wat je kan hebben in een VM omgeving :X

ach ja tis vrijdag en het is vroeg :>

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Powershell schreef op vrijdag 05 maart 2010 @ 09:00:
guest to host communication... the worst kind wat je kan hebben in een VM omgeving :X
Ja dat leek mij ook, maar misschien zag ik iets over het hoofd :P.

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Dennis schreef op vrijdag 05 maart 2010 @ 08:50:
Hoe kan een guest dan een shutdown van de host forceren??
Met de vi cli tools.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 26-07 00:33
ik heb esxi 4.0 succesvol op een 780i chipset van nvidia kunnen zetten ism E8400.

Alleen vraag ik me af hoe je uw sata's in uw vm(dus in bv uw win 2003 machine) kan zien? is dat alleen mogelijk door datastores te maken van die schijven? dit uw data eerst backuppen dan datastroe maken en dan terugzetten?

groetjes

[ Voor 5% gewijzigd door BitchCrew op 06-03-2010 18:56 ]


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
BitchCrew schreef op zaterdag 06 maart 2010 @ 18:50:
ik heb esxi 4.0 succesvol op een 780i chipset van nvidia kunnen zetten ism E8400.

Alleen vraag ik me af hoe je uw sata's in uw vm(dus in bv uw win 2003 machine) kan zien? is dat alleen mogelijk door datastores te maken van die schijven? dit uw data eerst backuppen dan datastroe maken en dan terugzetten?

groetjes
RDM (raw device map).
Eventueel op deze manier: DukeBox in "[ESX 3i] RawDeviceMapping met lokale sto..."

/edit
Er is overigens iets veranderd in de naamgeving van de disks in ESXi 4. Maar bovenstaande methode werkt wel nog. Alleen de disks anders aanspreken, weet even niet meer precies hoe en wat, maar ik heb het werkend gehad. (naa device?)

[ Voor 17% gewijzigd door UltraSub op 06-03-2010 19:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ik weet niet of deze vraag hier thuishoortt maar ik heb vmware verwijdert omdat ik dacht dat we het niet meer zouden gebruiken op school maar het ging verkeerd ofso? en een deel was verwijderd en de server van vmwaree die was nog gebleven op me pc dus kon ik die niet meer verwijderen uiteindelijk na lang googlen kunnen verwijderen maar als ik vmware player opnieuw wil installeren krijg ik de melding dat hij eerst " version 1.06.89891 ? of iets in die richting moet verwijderen en vervolgens als ik op uninstall klik krijg ik de melding invalid character 1324.. the msi" failed .... ? iemand een idee hoe dit te verhelpen is (misschien door alle registerbestanden te verwijderen van vmware maar dit zal volgens mij echt lang kunnen duren .. iemand die een bat file voor me in elkaar kan flansen :P ( ben zelf niet echt goed in )

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:08
Use the Windows Installer CleanUp Utility to remove Office 2000, Office XP, or Office 2003

ok er staat 'office 2000' maar hij ruimt in principe elk restant van een achtergebleven msi package op :)

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Is er eigenlijk een Atom moederbord met een werkende onboard nic controller. Al dan niet via custom driver oplossingen ? Want ik kan wel reports vinden maar die zijn allemaal met een intel e1000 netwerk kaart in een pci slot. Ik wil echter graag daarin wat extra s-ata poorten prikken want in een lian li q08 zouden 6 hd's kunnen. Zover ik weet zijn er geen atom moederbordjes die zoveel sata poorten hebben.

Acties:
  • 0 Henk 'm!

  • raven22
  • Registratie: Januari 2004
  • Laatst online: 17:32
Mr.SiS schreef op woensdag 10 maart 2010 @ 02:46:
Is er eigenlijk een Atom moederbord met een werkende onboard nic controller. Al dan niet via custom driver oplossingen ? Want ik kan wel reports vinden maar die zijn allemaal met een intel e1000 netwerk kaart in een pci slot. Ik wil echter graag daarin wat extra s-ata poorten prikken want in een lian li q08 zouden 6 hd's kunnen. Zover ik weet zijn er geen atom moederbordjes die zoveel sata poorten hebben.
Kijk hier maar eens, er staan zeer interessante bordjes tussen, ook met intel nic's. Ik ben ook zeer benieuwd of iemand esxi4 heeft draaien op zo'n bordje met een atom 510.
http://www.linuxtech.net/...otherboards_overview.html

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
raven22 schreef op woensdag 10 maart 2010 @ 07:31:
[...]


Kijk hier maar eens, er staan zeer interessante bordjes tussen, ook met intel nic's. Ik ben ook zeer benieuwd of iemand esxi4 heeft draaien op zo'n bordje met een atom 510.
http://www.linuxtech.net/...otherboards_overview.html
Bedankt, echter beperkt die lijst zich wel tot de nieuwere NM10 modelletjes. Zover ik zie zou er geen enkel probleem om bv. ESXi te draaien op zotac nm10be. Weet iemand of er een Intel 945gc chipset is met intel nic. Die Zotac bijvoorbeeld wordt uitgebracht in het mini-DTX en ik ben onzeker hoe dit past inverband met m-itx kasten (en dan met name die q08 en q07 van lianli)

[ Voor 10% gewijzigd door analog_ op 10-03-2010 11:53 ]


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

#ProductPrijsSubtotaal
1AMD Athlon X2 7850€ 0,-€ 0,-
1Asus M4A78 PRO€ 72,95€ 72,95
1Intel Gigabit CT Desktop Adapter€ 23,73€ 23,73
2Kingston HyperX KHX8500D2K2/4G€ 89,-€ 178,-
Bekijk collectie
Importeer producten
Totaal€ 713,03


Voor de rest is er 2x250GB boot RAID1. Hardware RAID. Storage gebruikt iscsi, op mijn fileservertje.

Ik wil Esxi gaan draaien, boot wil ik wel zo houden, maar heb gehoord dat je ook heel goed met 1x16GB usb stick kan booten, misschien wil ik dat ook gaan doen.

Is deze hardware compatibel, dat is de grootste vraag heb al gezocht, ik weet dat mijn M4A78 PRO compatibel is.

Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
Ik heb op me werk nu nieuw speelgoed mogen inzetten:
Dell M1000E Bladeenclosure
Dell M805 Dual AMD Opteron QuadCore 2.5Ghz
16GB intern geheugen
2x 72GB SAS op een SAS/6i RAIDcontroller

Op 1 van de Bladeservers heb ik ESXI4 geïnstalleerd om bepaalde simpele servers te virtualiseren, maar dit werkt echt als een trein.
De datastore is gekoppeld via ISCSI naar een Dell (Equalogic) xxxxx met 16x250GB SATA HDD's in RAID10.
Een verse Windows 2003 R2 64Bits herstart in maximaal 20 seconden op.

Leuke sidenote, ESXI staat geinstalleerd op een SDkaart van 8GB die in de Bladeserver is geplaatst,

Acties:
  • 0 Henk 'm!

  • Thijs B
  • Registratie: Augustus 1999
  • Niet online
Een ML115 gekocht, nu moet ik nog disks kopen en een controller.

Dat vind ik lastig kiezen.
Tegenwoordig zijn ook de sata3 / sata 6gb disks betaalbaar.
Maar welke controller moet je dan weer keizen ? Als ik het goed begrijp is de perc 5i alleen geschikt voor sata2.

Een WD Caviar Black 1TB, 7200rpm, 64MB, SATA 6Gb/s is momenteel 100euro.

Of is dit onzin en kan ik net zo goed 4 sata II disks aanschaffen met een perc 5i ?

Ik wil 4 of 5 disks aanschaffen voor vm's en tevens opslag met als het ff kan goede performance.

Acties:
  • 0 Henk 'm!

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 16:21

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Vorkie schreef op donderdag 11 maart 2010 @ 21:17:
Ik heb op me werk nu nieuw speelgoed mogen inzetten:
Dell M1000E Bladeenclosure
Dell M805 Dual AMD Opteron QuadCore 2.5Ghz
Mag ik vragen waarom je voor een Opteron platform gekozen hebt, en niet voor Intel's Nehalem?

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
DJ-Visto schreef op woensdag 10 maart 2010 @ 21:52:
#ProductPrijsSubtotaal
1AMD Athlon X2 7850€ 0,-€ 0,-
1Asus M4A78 PRO€ 72,95€ 72,95
1Intel Gigabit CT Desktop Adapter€ 23,73€ 23,73
2Kingston HyperX KHX8500D2K2/4G€ 89,-€ 178,-
Bekijk collectie
Importeer producten
Totaal€ 713,03


Voor de rest is er 2x250GB boot RAID1. Hardware RAID. Storage gebruikt iscsi, op mijn fileservertje.

Ik wil Esxi gaan draaien, boot wil ik wel zo houden, maar heb gehoord dat je ook heel goed met 1x16GB usb stick kan booten, misschien wil ik dat ook gaan doen.

Is deze hardware compatibel, dat is de grootste vraag heb al gezocht, ik weet dat mijn M4A78 PRO compatibel is.
Antwoord is ja, ik heb vrijwel dezelfde configuratie. Werkt perfect. USB stick gebruik ik ook (4 GB), dat werkt óók perfect!

Acties:
  • 0 Henk 'm!

Verwijderd

Is het een vereiste om RAID te hebben voor VMWare ESXi? Ik wil namelijk binnenkort een server ophangen, maar Dell vraagt enorm veel voor harde schijven*1 en het is nog maar voor test-doeleinden. Tegen de tijd dat ik serieuzer ga worden, dan zal ik sowieso gaan voor een oplossing met raid-1 of raid-5 en sowieso in combinatie met een hardware raid-controller.

Maar het doeleinde is initieel eigen sites hosten, eigen voip hosten en heel veel trainingsdoeleinden. Back-ups moet ik nog iets voor verzinnen, misschien toch maar een extra 80GB schijf inbouwen die ik hier heb liggen. Ik had het liefst dat Dell alles voor mij bouwde, maar ik moet veel meer betalen vanaf het moment dat ik die super-promotie combineer met raid en leuke schijven, betaal ik meer dan normaal.

*1, €399,- voor 1TB, €798,- voor 2x1TB. Bron: http://configure2.euro.de...&s=bsd&sbc=poweredge-r210

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:08
Verwijderd schreef op zaterdag 27 maart 2010 @ 15:15:
Is het een vereiste om RAID te hebben voor VMWare ESXi? Ik wil namelijk binnenkort een server ophangen, maar Dell vraagt enorm veel voor harde schijven*1 en het is nog maar voor test-doeleinden. Tegen de tijd dat ik serieuzer ga worden, dan zal ik sowieso gaan voor een oplossing met raid-1 of raid-5 en sowieso in combinatie met een hardware raid-controller.

Maar het doeleinde is initieel eigen sites hosten, eigen voip hosten en heel veel trainingsdoeleinden. Back-ups moet ik nog iets voor verzinnen, misschien toch maar een extra 80GB schijf inbouwen die ik hier heb liggen. Ik had het liefst dat Dell alles voor mij bouwde, maar ik moet veel meer betalen vanaf het moment dat ik die super-promotie combineer met raid en leuke schijven, betaal ik meer dan normaal.

*1, €399,- voor 1TB, €798,- voor 2x1TB. Bron: http://configure2.euro.de...&s=bsd&sbc=poweredge-r210
ESXi werkt niet met die software raid controllers nee, hij ziet de disken als induviduele disken en niet als array

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Voor raid 0/1/10 heb je wel goedkope controllers. De Dell 6iR heb je al voor ~100€

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

Verwijderd

Powershell schreef op zaterdag 27 maart 2010 @ 15:40:
[...]
ESXi werkt niet met die software raid controllers nee, hij ziet de disken als induviduele disken en niet als array
Ik bedoelde eigenlijk RAID-loos, dus ook geen software RAID. Maar na zoekwerk ben ik er inmiddels achter dat VMWare ESXi geen RAID nodig heeft en ook op 1x250GB SATA zal draaien, maar dat ESXi veel voor grootschalige productie oplossingen wordt gebruikt, dus dat het meestal gecombineerd wordt met stevige hardware.

Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Ik heb vandaag mijn NAS binnen gekregen en heb nu de eerste virtuele machines geconverteerd van VMWare Workstation naar VMWare ESXi. Werkt perfect :). De verbinding loopt via NFS.

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Zo. Ik heb een Synology DS1010+ NAS hier draaien. Natuurlijk de VM's gemigreerd van de lokale storage naar de NAS, alles via NFS, werkt prima. De ESX server is nu lekker stil: zit nu alleen nog een fan in voor de processor en voeding. Boot van USB stick, dus feitelijk een lege kast :)

Mocht iemand nog interesse hebben in m'n overbodige Dell Perc 5/i, Icy Dock sata bays en 6 stuks WD10EADS schijven, zie http://tweakers.net/aanbod/list_ads/user/10111. ;) Werkt geheid met ESXi :)

[ Voor 3% gewijzigd door Microkid op 05-04-2010 16:25 ]

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Nog even een vraagje wat wel redelijk aansluit bij dit topic:

Ik wil een bestaande server migreren naar mijn ESXi, maar de server bevat een IDE schijf. Dit werkt dus niet in ESXi. Kan ik eerst een migratie doen naar Workstation, vervolgens een nieuwe virtuele schijf aanmaken, de bestaande schijf klonen naar deze nieuwe m.b.v. TrueImage en dan daarna, met de nieuwe virtuele SCSI schijf, alsnog migreren naar ESXi of is er een andere/betere weg?

Acties:
  • 0 Henk 'm!

  • Turdie
  • Registratie: Maart 2006
  • Laatst online: 20-08-2024
Ik draait mijn ESXi 4 op een HP ProLiant ML330G6,omdat ik nog de juiste RAID controller heb, is het met gelukt ESXi zelf op een USB-drive te zetten en vanaf daar start ik ESXi, opzich werkt het prima zo. Ik heb een software raid controller, maar ik vind een Smart-Array nog even wat te duur. ESXi is wel erg fijn t.o.v Hyper-V, die hebben nog een lange weg te gaan heb ik het idee.

Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Dennis schreef op dinsdag 06 april 2010 @ 22:04:
Nog even een vraagje wat wel redelijk aansluit bij dit topic:

Ik wil een bestaande server migreren naar mijn ESXi, maar de server bevat een IDE schijf. Dit werkt dus niet in ESXi. Kan ik eerst een migratie doen naar Workstation, vervolgens een nieuwe virtuele schijf aanmaken, de bestaande schijf klonen naar deze nieuwe m.b.v. TrueImage en dan daarna, met de nieuwe virtuele SCSI schijf, alsnog migreren naar ESXi of is er een andere/betere weg?
Gewoon de bestaand server P2V'en naar je ESX bak toch? Of is dat te simpel gedacht?

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • Turdie
  • Registratie: Maart 2006
  • Laatst online: 20-08-2024
Ethirty schreef op dinsdag 06 april 2010 @ 23:01:
[...]

Gewoon de bestaand server P2V'en naar je ESX bak toch? Of is dat te simpel gedacht?
Ja, een P2V zou inderdaad de oplossing zijn. De P2V Converter is gewoon vanaf internet te downloaden. Ik heb geen idee hoe de P2V converter omgaat het IDE schijven, maar dat zou je even moet testen.

[ Voor 13% gewijzigd door Turdie op 07-04-2010 07:12 ]


Acties:
  • 0 Henk 'm!

  • alt-92
  • Registratie: Maart 2000
  • Niet online

alt-92

ye olde farte

Kun je gewoon retargeten. IDE naar virtueel is zelfs makkelijker dan van SCSI/SATA raid naar virtual SCSI

ik heb een 864 GB floppydrive! - certified prutser - the social skills of a thermonuclear device


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Ik heb het uiteraard al gedaan en het lijkt dan allemaal te werken, maar ik kreeg een
a disk read error occurred press ctrl+alt+del to restart
foutmelding.

Op basis van Google had ik toen wat sites gevonden waar stond hoe je een vmdx zelf kunt aanpassen voor SCSI, maar het leek mij beter om het via mijn hierboven beschreven manier te doen :).

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Ik wil een 1-wire systeem dat werkt met een USB adapter, en nu draait op een NSLU ook virtualiseren. Mijn ESXi 4 installatie kan werken met direct passthrough. Het moederbord ondersteunt dat. Als ik dit wil configureren, moet ik een van de usb poorten aanvinken voor passthrough. Het probleem is echter dat ik al boot van USB, en als ik die per ongeluk doorgeef, boot het systeem natuurlijk niet meer. Aanpassen is dan niet meer zo gemakkelijk, daar de config op die usb staat. Ik wil dus uitzoeken welke USB poort op dit moment wordt gebruikt voor het bootvolume. Ik krijg dat er met geen mogelijkheid uit, en wellicht zie ik iets over het hoofd dus vraag ik het hier eens. Googlen is zo goed als nutteloos, alles wat ik vind gaat over hoe je een unknown controller in ESX herkent krijgt, en dat boeit me niet :)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
~ # lspci
no class entries in /usr/share/hwdata/pci.ids
Perhaps, corrupted file?
00:00.00 :   
00:01.00 :   
00:03.00 :   
00:07.00 :   
00:20.00 :   
00:20.01 :   
00:20.02 :   
00:20.03 :   
00:26.00 :   
00:26.01 :   
00:26.02 :   
00:26.07 :   
00:29.00 :   
00:29.01 :   
00:29.02 :   
00:29.07 :   
00:30.00 :   
00:31.00 :   
00:31.02 :   [vmhba0]
00:31.03 :   
01:00.00 :   
01:00.01 :   
03:01.00 :   [vmnic0]
03:01.01 :   [vmnic1]
03:02.00 :   [vmnic2]
03:02.01 :   [vmnic3]
05:00.00 :   
255:00.00 :   
255:00.01 :   
255:02.00 :   
255:02.01 :   
255:03.00 :   
255:03.01 :   
255:03.04 :   
255:04.00 :   
255:04.01 :   
255:04.02 :   
255:04.03 :   
255:05.00 :   
255:05.01 :   
255:05.02 :   
255:05.03 :   
255:06.00 :   
255:06.01 :   
255:06.02 :   
255:06.03 :


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
         \==+LUN : 
            |----Name...............................................mpx.vmhba38:C0:T0:L0
            |----External Id........................................mpx.vmhba38:C0:T0:L0
            |----Type...............................................Direct-Access 
            |----Vendor.............................................USB2.0  
            |----Model..............................................FlashDisk       
            |----Revision...........................................0.00
            |----Display Name.......................................Local USB Direct-Access (mpx.vmhba38:C0:T0:L0)
            |----Path Plugin........................................NMP
            |----Console Device...................................../vmfs/devices/disks/mpx.vmhba38:C0:T0:L0
            |----Devfs Path........................................./vmfs/devices/disks/mpx.vmhba38:C0:T0:L0
            |----Size...............................................1023409664 
            |----Block Size.........................................512 
            |----Number of Blocks...................................1998847 
            |----SCSI Level.........................................2 
            |----Queue Depth........................................216335252 
            |----Is Pseudo..........................................false
            |----Is Reserved........................................false
            |----Is Local...........................................true
            |----Pending Reservations...............................0 
            |----LUN Status.........................................0
            |----Device Online......................................false
            \==+NMP Device Configuration : 
               |----Device..........................................mpx.vmhba38:C0:T0:L0
               |----SATP Config.....................................
               |----Path Selection Policy...........................VMW_PSP_FIXED
               |----Storage Array Type..............................VMW_SATP_LOCAL
               \==+Selected Paths : 
               \==+Fixed Path Selection Policy : 
                  |----Preferred Path Uid...........................usb.vmhba38-usb.0:0-mpx.vmhba38:C0:T0:L0
                  |----Preferred Path Runtime.......................vmhba38:C0:T0:L0
                  \==+Path Selection Policy Device Config : 
                     |----Path Selection Policy.....................VMW_PSP_FIXED
                     |----Configuration String......................{preferred=vmhba38:C0:T0:L0;current=none}
            \==+Device UIDs : 
               \==+Device UID : 
                  |----UID..........................................mpx.vmhba38:C0:T0:L0
                  |----Is Globally Unique...........................false
                  |----Is Correlatable..............................No
                  |----Is Persistable...............................false


vmhba38 is dus mijn boot-usb, maar in lspci output zie ik een vmhba0 staan. Verder is er geen enkele disk in het systeem aanwezig (nfs mounts), dus ik ga er stiekem vanuit dat vmhba0 het boot volume is. 00:31.02 : [vmhba0] zegt dus dat het pci-id op 00:31:02 is. Helaas kan ik dit nummertje niet matchen met de output die ik zie in advanced config:

Afbeeldingslocatie: http://ultrasub.sytes.net/temp/pics/passthrough.jpg

Hier is wel te zien dat de output van lspci wel te matchen is vwb de nics, maar dus niet voor usb devices. Heb te weinig kaas gegeten van de structuur van ESX om dit op te lossen. :(

Iemand die mij kan helpen?
Ik zou dit echt graag aan de gang hebben. Ik weet dat velen zeggen dat het niet werkt, maar ik kan mezelf niet aankijken zonder dat ik dit getest heb. :)

/edit
HAH!
Kwam ik in mijn rommeldoos nog een oude el-cheapo USB2.0 PCI controller tegen uit het tijdperk dat er wel al USB2 was, maar dat nog niet standaard was op de meeste moederborden. Heb ik gelukkig nooit weg gegooid, maar in een doos gedonderd. En die kwam dus nu van pas. Ik dacht, als ik die standaard usb connectors van het mobo niet uit elkaar kan houden, moet ik er voor zorgen dat ik het verschil kan zien. Die kaart er in, komt mooi naar boven als een NEC USB2 controller, die in vmdirectpath gezet, reboot, toen aan een Debian guest gegeven, welke hem met een lspci netjes zag. Steek een usb stick van een gieg in die controller, heeeej zegt de Debian guest, removable device gevonden, /dev/sde. Verder niet getest, maar het feit dat dat werkt zou al veel moeten zeggen.

Ik ga verder stoeien. Vraagje blijft voor mij open staan, vind het raar dat ik niet kan uitvogelen hoe die connectors van het mobo uit elkaar te houden zijn.

[ Voor 8% gewijzigd door UltraSub op 10-04-2010 14:39 ]


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 20:17
Maar kortom, het kán dus wel werken begrijp ik hieruit?

Ik heb gisteren mijn fysieke server gemigreerd naar virtueel. Zoals gezegd eerst naar Workstation, toen de virtuele IDE disk gekloond naar een nieuwe virtuele SCSI disk en vervolgens verder gemigreerd naar ESXi. Nu even kijken of het geheel stabiel draait en daarna de oude fysieke server ontmantelen! De snelheid is al stukken beter tot nu toe, ik kwam van een Pentium III 700MHz en zit nu op een Athlon II X2. Geheugen ook nog even verdubbeld dus... :9.

Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Ik ben voor het eerst met PCI pass-through aan het klooien omdat een collega heeft verzonnen om een tapedrive in een ESXi server mee aan te bieden als backup oplossing voor een kleinschalige omgeving.

Het gaat om een HP ML370 G6 met een Ultrium 448 SAS drive op een P212 controller en voor zover ik ontdekt heb zou ik geen enkel probleem met de HCL moeten hebben.

Na wat puzzelen (stekkertje bleek niet goed vast te zitten, doh) zie ik in VMware netjes de controller en de herkende tapedrive en ik kan deze aan een virtuele server toevoegen als SCSI device.

Maar er is nog een 2e optie: ik kan de P212 controller als pass-through instellen en dan vervolgens de hele controller incl tapedrive aan een virtuele server toekennen.

Zijn er argumenten waarom je voor optie 1 of optie 2 zou moeten kiezen? Of het überhaupt handig is vraag ik bewust niet, de keuze is al gemaakt ;)

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Als je andere divices aan de controller nodig hebt op andere vm's kan het handig zijn alleen het tape device aan te bieden.. als je tapeunit ook een changer is is het vaak wel gewenst de hele controller aan te bieden.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Het is een enkele drive en er komt niks anders aan de controller te hangen. De enige interne SAS poort zit nu alleen de tape-unit aan.

Wel bijzonder dat het toevoegen van de P212 controller er voor zorgt dat de fans van 5% naar 50% gaan. Takkeherrie :X

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Geen snapshotting meer mogelijk, of andere functionaliteiten zoals vMotion. En dat zuigt natuurlijk.
Hier net een spontane reboot. Heeftie al heel lang niet gedaan, eigenlijk niet meer vanaf dat ik mijn nieuwe hardware opgestart heb. Was retestabiel. Enige wijziging: vmdirectpath en die pci sata controller ;)
Er gebeurde niks op, de guest waaraan de controller door was gegeven stond uit. Zou betekenen dat ESX die controller misschien niet zo leuk vind, of het feit dat die in passthrough staat. Als hij het nog eens doet, gaattie er uit.

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

UltraSub schreef op dinsdag 13 april 2010 @ 10:17:
Was retestabiel. Enige wijziging: vmdirectpath en die pci sata controller ;)
Er gebeurde niks op, de guest waaraan de controller door was gegeven stond uit. Zou betekenen dat ESX die controller misschien niet zo leuk vind, of het feit dat die in passthrough staat. Als hij het nog eens doet, gaattie er uit.
Let er op dat passthrough alleen maar supported is voor een klein aantal netwerk- en storagekaarten.
Supported devices include the Intel 82598 10 Gigabit Ethernet controller and Broadcom
57710 and 57711 10 Gigabit Ethernet controllers. VMDirectPath is experimentally supported for storage I/O
devices with QLogic QLA25xx 8Gb Fibre Channel, Emulex LPe12000 8Gb Fibre Channel, and LSI 3442e‐R and
3801e (1068 chip based) 3Gb SAS adapters.
Het kan zijn dat je andere devices ook op passthrough kan zetten, maar dit wordt dus niet ondersteund. Als het werkt heb je mazzel, maar vaak gaat het ook fout, mede omdat je chipset of bios niet meewerken. Ik had het geprobeerd met een Dell Perc 5i controller. Het leek te werken, maar de raid set raakte steeds corrupt. Wees dus heel voorzichtig met passthrough.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 01-09 22:45
Hmm.. Had ik niet bij stil gestaan. Ik dacht heel simpel: ESX geeft de guest volledige toegang tot de hardware, zeg maar een RDM, en omdat de guest ook de driver doet, had ik er niet bij stil gestaan dat er toch instabiliteit op zou kunnen treden bij ESX.

Ik hou het ff in de gaten, misschien was het een stuiptrekking, maar ik heb er een hard hoofd in. Als ESX 1x crashed zonder aanwijsbare reden, zal het vaker gaan voorkomen is mijn ervaring.

Acties:
  • 0 Henk 'm!

  • citruspers
  • Registratie: December 2009
  • Laatst online: 16-09 16:05
Urgh. Ik ben nu al het hele weekend bezig met het werkend krijgen van ESXi op mijn laptop (Dell Inspiron 1545). Ik ben nu op het punt aangekomen dat de boel "sort of" werkt met een gehackte driver (marvell yukon E8040), maar het systeem heeft de neiging om de haverklap te crashen bij netwerkverkeer. (volgens de log TCP segfaults en daarna een hardfault). Ik boot van USB.

Tips/ervaring is zeer welkom, kritiek dat ik het op mijn laptop wil draaien heb ik weinig aan, ik heb mijn redenen ;)

I'm a photographer, not a terrorist


Acties:
  • 0 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
De volgende configuratie staan niet bij de VMWare ESXi Compatibility, maar er zijn ook zoveel Supermicro moederborden, dat ze er ook vast niet allemaal in staan?

Zou de volgende hardware configuratie geschikt zijn?
code:
1
2
3
4
5
6
7
8
9
10
11
·         Supermicro ServerCase CSE-811TQ-280
·         Supermicro ServerBoard X8SIL
·         CPU X3440 2.53 GHZ Quad Core
·         4GB DDR 3
·         WD 1TB HDD
·         IPMI
·         1U Heatsink
·         Incl railkit
·         Incl assemblage
·         Incl. 3 jaar garantie
Totaal: 699.00 euro        (excl. btw.)
Ik weet dat Dell nu nog scherper is geprijsd, behalve dan met kleine harde schijf, upgrade naar 1TB is €399,00. Heb alleen slechte ervaringen met administratie en wil geen zaken met Dell meer doen.

Acties:
  • 0 Henk 'm!

  • skoers
  • Registratie: September 2001
  • Laatst online: 27-08 20:40
Ik heb een beetje algemene vraag over Hyper V en de lokatie van files mbt performance. Het is geen Vmware maar in dit geval maakt het niet uit denk ik;

Voor een thuis-server wil ik Server 2008 R2 Standard installeren en met Hyper-V aan de slag. Experimenteren en indien stabiel en snel, een Guest OS draaien als volledig werkstation.


Ik heb een snelle 80GB Intel SSD harddisk gekocht en heb nog enkele Terrabyte WD Green schijven ter ondersteuning (films,backup etc).

Het komt in een mATX kast met zuinige voeding en AMD 4850 64bit processor ( ondersteund HyperV) en 4 tot 8GB geheugen.

Om een zuinige en toch snelle setup te krijgen weet ik niet goed of ik het HOST OS (Server2008) op de SSD moet zetten, of juist de meest gebruikte virtualisatie

(Hyper V Guest OS; ik denk aan XP 32/64bit en Windows7 voor het HTPC OS)

Meest logisch lijkt mij om de GuestOS-en, die meer harddisk gebruik vragen, op de SSD te zetten. En wellicht tempfiles van Server2008 ? Of de swapfile van Server2008 ? Dit laatste weer rekening houdend met degradatie..

Moet ik nog letten op tempfiles van de Hyper-V role, of ben ik feitelijk al klaar bij het plaatsen van het Guest-OS Hyper-V bestand (.VHD) bestand, op de SSD ?

happy 2023 !


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

skoers schreef op maandag 19 april 2010 @ 23:39:
Ik heb een beetje algemene vraag over Hyper V en de lokatie van files mbt performance. Het is geen Vmware maar in dit geval maakt het niet uit denk ik;
Dit is het ESXi topic, da's toch significant anders dan Hyper-V en Windows 2008 hoor ;) Je zou je vraag beter in een Microsoft topic kunnen plaatsen.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Klein tussendoortje : Ik sta op het punt een socket AM3 processor te kopen. Ik zat een beetje te twijfelen tussen de Athlon 605e (45w, quad, geen l3 cache) of een Phenom II 905e (65w, quad, wel l3). Gaat die level 3 cache veel verschil maken in ESXi of is dit voor de prijs (ongeveer 40e, en zuiniger vs zuinig) niet interessant.

Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

L3 cache is toch wel aan te bevelen. Gewoon voor die Phenom gaan, zit je altijd goed,

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Heeft er iemand cijfers van want ik kon er niet zo 1-2-3 data over vinden. Het feit dat hij 20w zuiniger is, krijg ik ook wat beter verkocht aan degene die m'n energie rekening betalen namelijk. Ik neig dus naar de athlon.

Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 16-09 09:46
Vorige week een whitebox geknutseld die ook wel zuinig moet zijn:

- MSI H55-E33
- Intel i3 530
- Goedkoopste ram 4x 2GB DDR3
- Kingston SSD
- 2,5" 640GB schijfje
- 2GB USB stick
- Intel Pro 1000 GT PCI

Hij doet het zoals ik hoopte voordat ik er aan begon: de SATA controller wordt herkend door ESXi 4. De onboard Realtek NIC doet het (nog?) niet. De langzame storage is voor ISO's en passieve data, de SSD voor de OS schijven en de shared storage.

Tot nu toe draaien er een handvol VM's op: 2x ESX 4, 1x W2008 32bit met vSphere, W2008 64bit met Starwind SAN. Op het vSphere clustertje draaien een tweetal VM's en het geheel reageert als ik ergens op klik!

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Wellicht heeft iemand een idee over hetvolgende:
Ik draai een aantal HP DL380G6 servers met ESXi. Doorgaans is de performance meer dan toereikend, maar in enkele gevallen van hoge CPU load op 1 VM lijkt het hele systeem tot stilstand te komen.

- Windows update op een VM met 2 cores op een single socket X5504 machine, met nog 1 andere VM met 1 core. Windows geeft beide cores op ~50% aan. In de vSphere client krijgt de VM slechts ~2GHZ met nog zo'n 6GHz vrij. Het lijkt wel of beide vCores op 1 fysieke core zitten en er geen 2e bijgeschakeld wordt. Disk en netwerk zijn niet noemenswaardig
- Online backup van de Exchange store op een VM moet een delta file berekenen. Als dit op de dag gebeurt dan ervaren de gebruikers een enorme vertraging. Ook in dit geval zou de server meer dan ruim bemeten genoeg moeten zijn voor wat er op draait.

Ik heb ook een gemiddeld veel zwaarder belastte DL380 G5 in beheer, maar daarmee ik heb dit nog niet meegemaakt. Kan het te maken hebben met de X5504 cpu die slecht omgaat met heavy load? Ik had ook liever X5520's ingezet, maar die worden budget-technisch nog wel eens afgewezen :/

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • Dothan
  • Registratie: Mei 2004
  • Laatst online: 13-12-2021
hans_lenze schreef op donderdag 22 april 2010 @ 20:14:
Vorige week een whitebox geknutseld die ook wel zuinig moet zijn:

- MSI H55-E33
- Intel i3 530
- Goedkoopste ram 4x 2GB DDR3
- Kingston SSD
- 2,5" 640GB schijfje
- 2GB USB stick
- Intel Pro 1000 GT PCI

Hij doet het zoals ik hoopte voordat ik er aan begon: de SATA controller wordt herkend door ESXi 4. De onboard Realtek NIC doet het (nog?) niet. De langzame storage is voor ISO's en passieve data, de SSD voor de OS schijven en de shared storage.

Tot nu toe draaien er een handvol VM's op: 2x ESX 4, 1x W2008 32bit met vSphere, W2008 64bit met Starwind SAN. Op het vSphere clustertje draaien een tweetal VM's en het geheel reageert als ik ergens op klik!
Als ik ESX 4 probeer te installeren met een intel pro 1000 GT pci netwerkkaart, ziet hij deze niet. Deze zou het dus wel moeten doen? ESX 3.5 installeert wel

┏━━┓┏━━┓┏━━┓┏━━┓┏━━┓┏━━┓┏━━┓


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Ik denk dat het aan hje CPU scheduling ligt. Ik begrijp uit je verhaal dat je 1 quadcore hebt maar verschillende vCPU confguraties voor je guests hebt ? Zij het totaal 2 guests of heb je er meer ?
Het is hoe dan ook nooit verstandig om guests met 1 vCPU te mixen met 2 of 4 vCPU's als je maar 1 fysieke cpu hebt.

[ Voor 5% gewijzigd door DukeBox op 03-05-2010 23:09 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

DukeBox schreef op maandag 03 mei 2010 @ 23:08:
[...]

Ik denk dat het aan hje CPU scheduling ligt. Ik begrijp uit je verhaal dat je 1 quadcore hebt maar verschillende vCPU confguraties voor je guests hebt ? Zij het totaal 2 guests of heb je er meer ?
Het is hoe dan ook nooit verstandig om guests met 1 vCPU te mixen met 2 of 4 vCPU's als je maar 1 fysieke cpu hebt.
2 tot 5 guests, de meeste met 1 vCPU, maar soms met 2 vCPU's. Maar nooit meer dan 2. Ik begrijp dus dat dat niet werkt? Ik dacht dat je makkelijk 1 vCPU per core kon nemen? Ze promoten toch de enorme CPU consolidatie. 1 HP G6 was sneller dan 10 G4 servers :-(

Is er iets om dat aan te passen/tweaken of zit je dan aan een extra quadcore + geheugen vast? 1 specifieke guest heeft in ieder geval niet genoeg aan 1 vCPU, enkele processen zorgen er anders voor dat deze soms blijft hangen. Met 2 vCPU's was dat al veel minder merkbaar.

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

DukeBox schreef op maandag 03 mei 2010 @ 23:08:
[...]
Het is hoe dan ook nooit verstandig om guests met 1 vCPU te mixen met 2 of 4 vCPU's als je maar 1 fysieke cpu hebt.
Maakt niks uit, dat kan juist prima met ESX. Mits je maar geen guest maakt met net zoveel vCPU's als je echte cores hebt, Dus een VM met 4 vCPU's op een quad core is onverstandig, aangezien die VM pas CPU resources krijgt als alle fysieke cores tegelijk vrij zijn. Mengen is geen probleem: een aantal VM's met 1 vCPU en een paar met 2 vCPU's moet prima werken. (heb ik hier ook, en nooit problemen mee gehad). De gemiddelde stelregel is 4 vCPU's per core. Dus op een quadcore zou je ong 16 vCPU's kunnen uitdelen.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Microkid schreef op dinsdag 04 mei 2010 @ 05:21:
Maakt niks uit, dat kan juist prima met ESX.
Het maakt wel degelijk uit..
Ethirty schreef op maandag 03 mei 2010 @ 23:31:
2 tot 5 guests, de meeste met 1 vCPU, maar soms met 2 vCPU's. Maar nooit meer dan 2. Ik begrijp dus dat dat niet werkt?
Het werkt wel, maar het 'kan' performance problemen opleveren.

Zoek maar eens op coscheduling, dit kun je overigens in esxtop ook zien.

simpel samengevat, op een host met 1 quardcore kan een guest met 1 vCPU kan ervoor zorgen dat een systeem met 4 vCPU's moet wachten.. hoe meer 1vCPU's je hebt des te meer kans een multi vCPU moet wachten.

[ Voor 15% gewijzigd door DukeBox op 04-05-2010 11:29 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Ik heb net de vSphere CPU Scheduler white paper doorgenomen. 21 pagina's hogere abacadabra, maar wat ik opmaak is dat zolang vCPU < pCPU dan zou er geen probleem mogen zijn door de intelligente scheduling. Ik ga er dan even vanuit dat pCPU staat voor het aantal cores, ik maak niet op dat dat niet mag.

Als ik dus 3 vCPU's heb op een enkele quadcore, dan heeft elke vCPU áltijd een core vrij. Als 1 core op 100% draait en 3 cores niks doen, dan gaat er naar mijn idee iets goed mis in de scheduler.

ESX4 zou trouwens een relaxter co-scheduling systeem hebben, voor efficienter gebruik van de cores. Maar daar merk ik dan weinig van als 2 vCPU's samen 1 pCPU 100% belasten.

Dus als je specifieke materie voor me hebt om door te nemen, zou ik dat wel op prijs stellen. Zomaar een extra CPU en mem lospeuteren krijg ik niet voor elkaar. Zeker niet voor een machine die niks lijkt te doen, maar wel hangt.

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 17:22

DukeBox

loves wheat smoothies

Ethirty schreef op dinsdag 04 mei 2010 @ 14:07:
Ik ga er dan even vanuit dat pCPU staat voor het aantal cores, ik maak niet op dat dat niet mag.

Als ik dus 3 vCPU's heb op een enkele quadcore, dan heeft elke vCPU áltijd een core vrij. Als 1 core op
Denk wel aan HT op de nieuwere intel cpu's, die orden door coop gebruikt als core maar intern is dat natuurlijk geen echte core. Daarnaast loop je met core (i.t.s.t.) sockets ook tegen dingen aan als shared cache scrubs.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Kleine update in mijn hardware config. Ik ben inmiddels de trotse ESXi gebruiker op een ASUS M4A785G HTPC met 4x2GB DDR2 en een Athlon X2 250. Ik had eerder al een setup op een BTX gebaseerd medion bord met een pentium D. De upgrade was vooral wegens betere upgrade mogelijkheden later (quad, six cores) en dat ik meer dan 4GB ram erin kon prikken. Zoals al bekend is werken de s-ata poorten in AHCI op het nieuwe bord en moet je dus een ondersteunde netwerk kaart toevoegen. Verder schijn je C1E te moeten disablen maar dat was by default.

Ik zou eigenlijk een goedkope ondersteunde hardware raid controller nodig hebben zodat ik mijn data store op een raid 1,5 of 10 setup van 4x raptors zetten. Suggesties naast de PERC en HP P400 oplossingen?

Het alternatief is dat ik een dedicated storage machien maak met software raid met bovengenoemde raptors en deze via NFS doorgeef aan ESXi.

[ Voor 8% gewijzigd door analog_ op 05-05-2010 02:22 ]


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 19:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

De Dell Perc en HP400 zijn de meest gebruikte oplossingen voor ESX whiteboxes, dus een echt alternatief weet ik zo 1-2-3 ook niet. Anders zou je, wat je zelf al voorsteld, bijv een NAS met NFS functionaliteit moeten nemen, zoals de QNAP's en Synology NAS'sen. Ik heb zelf een Synology DS1010 en dat werkt prima met ESXi over NFS.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

  • Ethirty
  • Registratie: September 2007
  • Laatst online: 17:02

Ethirty

Who...me?

Die QNAP's en Synology's kunnen zelfs iSCSI aan, al weet ik niet hoe de performance daarvan is. Er is in ieder geval 1 (hele dure) QNAP die VMware certified is.
DukeBox schreef op dinsdag 04 mei 2010 @ 16:59:
Denk wel aan HT op de nieuwere intel cpu's, die orden door coop gebruikt als core maar intern is dat natuurlijk geen echte core. Daarnaast loop je met core (i.t.s.t.) sockets ook tegen dingen aan als shared cache scrubs.
De X5504 heeft geen HT: 4 cores zijn 4 cores, dus met 3 vCPU's zou ik toch echt verwachten dat ik permanent 1 échte core heb idlen.

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB


Acties:
  • 0 Henk 'm!

  • Zerobase
  • Registratie: Februari 2007
  • Niet online
Ik heb de volgende configuratie bedacht om ESXi op te gaan draaien:

#ProductPrijsSubtotaal
1Asus P6T SE€ 163,26€ 163,26
1Intel Core i7 930€ 242,-€ 242,-
2Kingston ValueRAM KVR1333D3N9K2/4G€ 99,-€ 198,-
Bekijk collectie
Importeer producten
Totaal€ 603,26

Redenen om hier voor te kiezen:

- Het Asus motherboard komt voor op de Whitebox HCL
- Zowel motherboard als CPU ondersteunen Intel VT-D. Mijn huidige motherboard ondersteunt dit niet (Gigabyte GA-P965-DS4 met Core 2 Duo E6600 CPU) en ik wil juist hardware direct kunnen aanbieden aan verschillende VM's. De melding 'Host does not support passthrough configuration' moet hiermee eindelijk verleden tijd zijn.
- De i7 heeft 4 cores (met HT 8 ). Dat moet voldoende zijn om een aantal VM's tegelijk te draaien.
- Als ik ooit besluit om te stoppen met virtualiseren heb ik een snelle desktop om Windows 7 op te draaien 8) . Ik doe gemiddeld 3 jaar met een configuratie en mijn huidige systeem is inmiddels 3 jaar oud.

Het geheugen wil ik binnenkort nog naar 12GB uitbreiden. 24GB zou mooi zijn, maar 6x 4GB kost een klein vermogen en dat wil ik er (nog) niet aan uitgeven. Een SSD om de VM bootdisks op te zetten staat ook nog op het verlanglijstje, maar ik wacht nog even tot de grotere SSD's (> 100GB) betaalbaarder worden. Naast één disk voor de VMm store wil ik de rest van mijn schijven passthrough aanbieden aan een gevirtualiseerd nas.

Een vraag over het Asus bord:
In de manual die ik gedownload heb staat dat het bord virtualisatietechnieken ondersteunt en in de bios is een optie om VT-D aan te zetten. Is er iemand die ESXi op dit bord draait en die kan bevestigen dat je ook daadwerkelijk randapparatuur passthrough kunt aanbieden aan een VM?

Wat mij nog niet helemaal duidelijk is welke soorten randapparatuur je wel/niet passthrough kunt aanbieden aan een VM. Ik ben bekend met de manier waarop het werkt bij IBM (Power 5 / 6), maar hoe gaat ESXi hier mee om (Losse disken, seriele poorten enz)?

Vwb SSD's en ESXi:
Hoe zit het eigenlijk met TRIM support en andere (In Windows 7 native aanwezige) functies? Ik kan op de SSD een minimale Windows 7 installatie aanbrengen die ik af en toe boot om 'housekeeping' te doen op de SSD. Of moet ik dit anders regelen?
Pagina: 1 ... 7 ... 9 Laatste