ik heb twee HP 4GB 2Rx4 PC3-10600R (partnumber 500203-561) deze zouden samen met een 2GB module een 10 gb moeten vormen. 2x 4gb in de 1a 3b slot, 1x 2gb in het 2c slot, slot 4d blijft leeg)
Interessant. Ik heb een Geil 8GB DDR3 kit gekocht en hem er zonder nadenken in geprikt. Doen de modules het wel afzonderlijk? (Dus één module insteken, opstarten en testen. Afsluiten en volgende inprikken en testen.)
while (! ( succeed = try ()));
Ik heb een vraag, gewoon een check vraag, gaat dit goed werken?
Samen met (is er al, zit nu op DDR2 bordje, en 8GB mem)
Nog eventjes sparen, maar dan is het weer zover,een dikke upgrade! Heb niks negatiefs kunnen vinden over de combinatie met ESXi.
Met nog een klein vraagje, werkt usb passthrough? Dat is een must (virtueel mijn printer, en ups word uitgelezen)
# | Product | Prijs | Subtotaal |
2 | Kingston ValueRAM KVR1333D3E9SK2/8G | € 129,- | € 258,- |
1 | Asus M4A88TD-V EVO | € 78,87 | € 78,87 |
Bekijk collectie Importeer producten | Totaal | € 336,87 |
Samen met (is er al, zit nu op DDR2 bordje, en 8GB mem)
# | Product | Prijs | Subtotaal |
1 | Intel PRO/1000 PT Dual Port Server Adapter (2x1000Mbps, PCI-e 4x) | € 150,54 | € 150,54 |
1 | AMD Phenom II X4 810 | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 150,54 |
Nog eventjes sparen, maar dan is het weer zover,een dikke upgrade! Heb niks negatiefs kunnen vinden over de combinatie met ESXi.
Met nog een klein vraagje, werkt usb passthrough? Dat is een must (virtueel mijn printer, en ups word uitgelezen)
Weet iemand toevallig desktop cpu/mobo combinaties welke werken met vmdirectpath naar een dell perc 6/i? Ik heb een topic gestart maar dacht post hier ook gezien het over ervaringen in hardware voor esxi gaat.
Out of order...
Ik ben ook nieuwsgierig naar een goede RAID (1, 5) controller voor deze server die door zowel de HP als VMware wordt ondersteund.Verwijderd schreef op zondag 31 oktober 2010 @ 19:10:
Vrijdag een ML110 G6 ontvangen, ...
Vraag is, de software RAID wordt niet herkend door XenServer of ESXI. Welke RAID controller (met sata ondersteuning) voor de beide WD's raden jullie mij aan?
HP P400 geloof ik.Goed en goedkoop.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
ik weet wel zeker dat die werktMicrokid schreef op woensdag 29 december 2010 @ 23:14:
HP P400 geloof ik.Goed en goedkoop.
A wise man's life is based around fuck you
Draait als een trein hier. Zorg wel dat je de bbwc erbij koopt. Anders is hij met raid5 niet vooruit te branden en heb je geen raid6 ondersteuning.
Buiten dat draait hij hier al een jaar met 8 schijven eraan. Zit er aan te denken om hem te vervangen met een p410 controller. zodat ik een extender kan gebruiken.
Buiten dat draait hij hier al een jaar met 8 schijven eraan. Zit er aan te denken om hem te vervangen met een p410 controller. zodat ik een extender kan gebruiken.
Even een vraagje:
Hoe belangrijk zijn 2 NIC's in een standalone ESXi installatie?
De bedoeling zou zijn om een thuislabo te maken van 1 standalone machine om Microsoft-testscenario's op te zetten. Een 2e ESXi machine of VMotion komen dus niet van pas. Die ESXi & standalone machines zou ik dan remote beheren via mijn reguliere desktop. De datastore & images van de VM's zou ik laten draaien op een NAS (ala Iomega ix2 / QNAP), ESXi zou ik zelf laten booten vanop een SD of USB stick.
Kan ik me dan redden met 1 NIC? Een Dual port NIC van Intel is nogal prijzig
Hoe belangrijk zijn 2 NIC's in een standalone ESXi installatie?
De bedoeling zou zijn om een thuislabo te maken van 1 standalone machine om Microsoft-testscenario's op te zetten. Een 2e ESXi machine of VMotion komen dus niet van pas. Die ESXi & standalone machines zou ik dan remote beheren via mijn reguliere desktop. De datastore & images van de VM's zou ik laten draaien op een NAS (ala Iomega ix2 / QNAP), ESXi zou ik zelf laten booten vanop een SD of USB stick.
Kan ik me dan redden met 1 NIC? Een Dual port NIC van Intel is nogal prijzig
[ Voor 14% gewijzigd door flanger op 22-01-2011 11:08 ]
Just because I rock, doesn't mean im made of stone
Voor een dergelijk home-lab is 1 nic echt voldoende. Ik heb hier hetzelfde draaien als wat jij beschrijft en dat werkt uitstekend. Als je echt wilt zou je 1 nic kunnen toewijzen aan je NAS verkeer en de andere aan VM verkeer.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Net het antwoord dat ik nodig had :-)
Volgende vraag ik me ook af: zou het niet interessanter zijn om een ingebouwde harddisk te gebruiken ipv een NAS? Aangezien dit toch een home labo wordt wat eerder zal dienen voor Microsoft environments op te zetten dan VMware zelf te studeren. Ik zou dan een SATA 300 schijfje nemen met 32 MB RAM (geen SSD aangezien dit wat teveel kost voor een deftige hoeveelheid).
Volgende vraag ik me ook af: zou het niet interessanter zijn om een ingebouwde harddisk te gebruiken ipv een NAS? Aangezien dit toch een home labo wordt wat eerder zal dienen voor Microsoft environments op te zetten dan VMware zelf te studeren. Ik zou dan een SATA 300 schijfje nemen met 32 MB RAM (geen SSD aangezien dit wat teveel kost voor een deftige hoeveelheid).
Just because I rock, doesn't mean im made of stone
Ook dat heb ik: ik heb er een WD Caviar Black RE4 500GB in hangen. Had er eerst een normale SATA disk in, maar die begon kuren te vertonen. De datastore was soms 's morgens weg. Na een herstart deed ie het weer. Blijkbaar vond de schijf het 24x7 gebruik niet leuk. Daarom vervangen door de RE4. Dit is een enterprise disk bedoeld voor 24x7. Sinds die tijd geen problemen meer gehad.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Locale schijven zijn prima te gebruiken.
Heb zelf 4 hitachi deskstar schijven van 1Tb erin in combinatie met een p400 controller met 512mb bbwc.
Als de server uit gaat moet ik eerst een custom linux installatie laden. Deze zorgt ervoor dat Tler weer word aangezet. Deze overleeft namelijk geen cold boot. Kleine handeling veel plezier.
De storage in de esx bak bied ik aan middels de VSA van EMC deze heeft alle functionaliteiten die je maar kan wensen. Clonen repliceren enz enz.
Nadeel met 1 host is dat als hij down gaat alles down gaat maar he een goede backup doet wonderen. Middels WIndows home server en Crashplan. Gaat het bij mij niet meer stuk. Ben nu aan het kijken of ik een replica van me server buitenhuis kan zetten.
De volgende server word denk zo'n een als dat ze bij backblaze hebben Custom met een gigantische hoeveelheid aan storage.
Heb zelf 4 hitachi deskstar schijven van 1Tb erin in combinatie met een p400 controller met 512mb bbwc.
Als de server uit gaat moet ik eerst een custom linux installatie laden. Deze zorgt ervoor dat Tler weer word aangezet. Deze overleeft namelijk geen cold boot. Kleine handeling veel plezier.
De storage in de esx bak bied ik aan middels de VSA van EMC deze heeft alle functionaliteiten die je maar kan wensen. Clonen repliceren enz enz.
Nadeel met 1 host is dat als hij down gaat alles down gaat maar he een goede backup doet wonderen. Middels WIndows home server en Crashplan. Gaat het bij mij niet meer stuk. Ben nu aan het kijken of ik een replica van me server buitenhuis kan zetten.
De volgende server word denk zo'n een als dat ze bij backblaze hebben Custom met een gigantische hoeveelheid aan storage.
Eventjes een opstelling in elkaar geknutseld:
Ik denk dat dit wel vrij compleet is voor hetgeen ik voor ogen heb?
Enige waar ik wel aan twijfel is of de 300 Watt voeding in de Shuttle het geheel wel gaat kunnen trekken.
Ook qua performantie naar 1 enkele disk toe twijfel ik wat. Zou dit vlot genoeg werken om bvb een 5 tot 8-tal machines tegelijkertijd te laten draaien? Dit allemaal puur naar testscenario's (opzetten Exchange, Sharepoint, ...) gezien en zeker niet in productie.
# | Product | Prijs | Subtotaal |
1 | Transcend SDHC 4GB Class 10 | € 8,- | € 8,- |
1 | Intel PRO/1000 GT | € 23,76 | € 23,76 |
1 | Western Digital RE4 WD5003ABYX, 500GB | € 65,- | € 65,- |
1 | Shuttle XPC SH55J2 | € 222,60 | € 222,60 |
1 | Intel Core i7 870 Boxed | € 242,- | € 242,- |
1 | Asus EN8400GS SILENT/P/512M | € 27,- | € 27,- |
2 | Transcend 8GB DDR3 Dual/Triple Channel Kit | € 66,43 | € 132,86 |
Bekijk collectie Importeer producten | Totaal | € 721,22 |
Ik denk dat dit wel vrij compleet is voor hetgeen ik voor ogen heb?
Enige waar ik wel aan twijfel is of de 300 Watt voeding in de Shuttle het geheel wel gaat kunnen trekken.
Ook qua performantie naar 1 enkele disk toe twijfel ik wat. Zou dit vlot genoeg werken om bvb een 5 tot 8-tal machines tegelijkertijd te laten draaien? Dit allemaal puur naar testscenario's (opzetten Exchange, Sharepoint, ...) gezien en zeker niet in productie.
[ Voor 4% gewijzigd door flanger op 22-01-2011 15:18 ]
Just because I rock, doesn't mean im made of stone
1 disk met 8 vm's zonder een goede controller (lees: met wb cache) zal slecht performen als je enigzins io vraag van je vm's (alleen al een geschedulede virusscan kan je hele omgeving extreem traag maken).
Om te compenseren heb je veel geheugen nodig.. dan is 16GB misschien wat krap voor 5 tot 8 vm's met exchange, sharepoint e.d.
Ik zou eerder gaan voor een (kleine) SSD voor de vm's met eventueel een grote HDD voor storage.
Om te compenseren heb je veel geheugen nodig.. dan is 16GB misschien wat krap voor 5 tot 8 vm's met exchange, sharepoint e.d.
Ik zou eerder gaan voor een (kleine) SSD voor de vm's met eventueel een grote HDD voor storage.
Duct tape can't fix stupid, but it can muffle the sound.
16 GB is sowieso het maximum (en nog betaalbaar), dus daar zal niet veel wijzigingen in komen :-)DukeBox schreef op zaterdag 22 januari 2011 @ 18:35:
1 disk met 8 vm's zonder een goede controller (lees: met wb cache) zal slecht performen als je enigzins io vraag van je vm's (alleen al een geschedulede virusscan kan je hele omgeving extreem traag maken).
Om te compenseren heb je veel geheugen nodig.. dan is 16GB misschien wat krap voor 5 tot 8 vm's met exchange, sharepoint e.d.
Ik zou eerder gaan voor een (kleine) SSD voor de vm's met eventueel een grote HDD voor storage.
Als ik met een SSD (van 96 GB bvb) & een normale SATA-schijf neem, kan ik dan in ESXi alle VM's "parkeren" op de SATA-schijf en wanneer ik ze gebruik, laten overfailen en opstarten op de SSD-schijf?
Just because I rock, doesn't mean im made of stone
Nee, en waarom zou je dat willen ? Houd gewoon een kleine (thin provisioned) OS disk op je SSD.. en de data disk (niet thin, om defragmentatie te voorkomen) op je HDD.
Duct tape can't fix stupid, but it can muffle the sound.
Voor de gene die het interesseert,
Ik heb ondertussen ESXi draaiende op socket 1155 hardware, namelijk:
Gigabyte GA-H67MA-UD2H (micro-ATX)
Intel i5 2500
Werkt als een trein alleen de onboard nic werd niet ondersteunt dus die heb ik vervangen door een Intel CT.
Draait bij mij als thuisserver o.a. openvpn server, lamp server, media server, freenas etc. Ik draai ESXi vanaf een USB stick en de HDDs als datastore/vm's.
Ik heb ondertussen ESXi draaiende op socket 1155 hardware, namelijk:
Gigabyte GA-H67MA-UD2H (micro-ATX)
Intel i5 2500
Werkt als een trein alleen de onboard nic werd niet ondersteunt dus die heb ik vervangen door een Intel CT.
Draait bij mij als thuisserver o.a. openvpn server, lamp server, media server, freenas etc. Ik draai ESXi vanaf een USB stick en de HDDs als datastore/vm's.
Verwijderd
Hi allen!
Ik heb een sabertooth x58 gekocht maar krijg esxi 4.1 niet aan de praat.
(vmkctl.HostCtlException Unable to load module /usr/lib/vmware/vkmod/vmfs3: Failure)
Is er iemand die dit moederbord werkende heeft gekregen met esxi?
Ik heb een sabertooth x58 gekocht maar krijg esxi 4.1 niet aan de praat.
(vmkctl.HostCtlException Unable to load module /usr/lib/vmware/vkmod/vmfs3: Failure)
Is er iemand die dit moederbord werkende heeft gekregen met esxi?
Niet met dat mobo maar ik had eerst wel dezelfde fout. Ik heb toen met vmware player ESXi op mijn USB stick geinstalleerd en hier vervolgens mee geboot.Verwijderd schreef op woensdag 02 februari 2011 @ 13:34:
Hi allen!
Ik heb een sabertooth x58 gekocht maar krijg esxi 4.1 niet aan de praat.
(vmkctl.HostCtlException Unable to load module /usr/lib/vmware/vkmod/vmfs3: Failure)
Is er iemand die dit moederbord werkende heeft gekregen met esxi?
Beste tweakers,
Heb hier ook esxi op P8h67-m evo + i7 2600 + intel PRO/1000 GT draaien. Het enige probleem is dat ik nergens temperatuur van de proc kan uitlezen, in vClient(Health status) staan er geen waardes bij.
Is er enige workaround te bedenken om tijdens het draaien van VM's de temp van proc te achterhalen?
Heb hier ook esxi op P8h67-m evo + i7 2600 + intel PRO/1000 GT draaien. Het enige probleem is dat ik nergens temperatuur van de proc kan uitlezen, in vClient(Health status) staan er geen waardes bij.
Is er enige workaround te bedenken om tijdens het draaien van VM's de temp van proc te achterhalen?
Nederlands is niet mijn moedertaal!
Nee, de censors worden dan niet ondersteund door de vmkernel.
Duct tape can't fix stupid, but it can muffle the sound.
Heeft iemand van jullie (ooit) een esxi server met PCI videokaart draaiende gekregen ?
Ik probeer al tijden een vervanger te zoeken voor mijn slurpende PCIe kaart, maar alle kaarten die ik tot nu toe heb geprobeerd geven een PSOD zowel in ESXi 3.5u5 als 4.1.
Ik de volgende chipsets al getest:
2 verschillende S3 Virge kaarten
Ati Rage XL
Ati Mach64
Ik heb ook al van iemand een DM gehad dat ESXi perse een PCIe kaart wil hebben; kan iemand dat bevestigen want ik kan daar verder geen bewijs voor vinden op internet.
Ik probeer al tijden een vervanger te zoeken voor mijn slurpende PCIe kaart, maar alle kaarten die ik tot nu toe heb geprobeerd geven een PSOD zowel in ESXi 3.5u5 als 4.1.
Ik de volgende chipsets al getest:
2 verschillende S3 Virge kaarten
Ati Rage XL
Ati Mach64
Ik heb ook al van iemand een DM gehad dat ESXi perse een PCIe kaart wil hebben; kan iemand dat bevestigen want ik kan daar verder geen bewijs voor vinden op internet.
Just because I'm paranoid, doesn't mean they're not watching me
Weet iemand een AM3 desktop bord met DDR3 die ondersteund wordt door esxi?
Of een 775 bord, als het maar AM3 heeft.
Of een 775 bord, als het maar AM3 heeft.
[ Voor 3% gewijzigd door detim op 09-02-2011 20:25 ]
Je hebt helemaal geen videokaart nodig, via serial kan je het boot proces volgens als dat nodig is.Chemist schreef op dinsdag 08 februari 2011 @ 22:49:
Heeft iemand van jullie (ooit) een esxi server met PCI videokaart draaiende gekregen ?
Duct tape can't fix stupid, but it can muffle the sound.
ESXi misschien wel, maar volgens mij kom ik dan nooit meer in de BIOS van mijn RAID controller ?DukeBox schreef op donderdag 10 februari 2011 @ 16:52:
[...]
Je hebt helemaal geen videokaart nodig, via serial kan je het boot proces volgens als dat nodig is.
Als dat wel kan, heb je dan een link naar een howto, want ik kan via google alleen maar dezelfde vraag vinden op andere fora
Just because I'm paranoid, doesn't mean they're not watching me
Verwijderd
YEP! Heb sinds kort een nieuwe ESXi server gebouwd... Kosten € 860,00 maar dan heb je ook wel power
Inderdaad een asus bordje: sabertooth met 8 sata's on board. Werkt wel goed bij mij, alleen moet ik het moederbord tunen... want na een harde reset... moest ik alles opnieuw inregelen.
Ik heb de volgende config:
Nexus Technology Clodius Zwart, Geen Voeding
Cooler Master Real Power M 520 Watt, 24 Pins
ASUS SABERTOOTH X58
Cooler Master CPU Cooler V8
Kingston HyperX Triple Channel 12 GB, PC3-12800, 1600 MHz, 9, Non-ECC, Kit Of 3
Club3D Radeon HD 5450 1024 MB
Sony NEC Optiarc AD-7261S-0B S-ATA, OEM, Zwart
Intel Core I7 930 2.80 GHz, Tray, Excl. Videochip, Quad Core
Intel PRO/1000 GT
Dus... nog vragen... oja ik draai op ESXi 4.1 inmiddels
Inderdaad een asus bordje: sabertooth met 8 sata's on board. Werkt wel goed bij mij, alleen moet ik het moederbord tunen... want na een harde reset... moest ik alles opnieuw inregelen.
Ik heb de volgende config:
Nexus Technology Clodius Zwart, Geen Voeding
Cooler Master Real Power M 520 Watt, 24 Pins
ASUS SABERTOOTH X58
Cooler Master CPU Cooler V8
Kingston HyperX Triple Channel 12 GB, PC3-12800, 1600 MHz, 9, Non-ECC, Kit Of 3
Club3D Radeon HD 5450 1024 MB
Sony NEC Optiarc AD-7261S-0B S-ATA, OEM, Zwart
Intel Core I7 930 2.80 GHz, Tray, Excl. Videochip, Quad Core
Intel PRO/1000 GT
Dus... nog vragen... oja ik draai op ESXi 4.1 inmiddels
Tokolosh schreef op vrijdag 04 februari 2011 @ 11:12:
[...]
Niet met dat mobo maar ik had eerst wel dezelfde fout. Ik heb toen met vmware player ESXi op mijn USB stick geinstalleerd en hier vervolgens mee geboot.
Iemand een USB webcam via usb passthrough werkend gekregen? Ik wou proberen een zoneminder/motion virtuele (CCTV) server te maken om mijn huis in de gaten te houden de webcam word wel herkend maar beeld ho maar.
Ik weet dat er veel usb dingen niet erg goed werken in ESXi en vreesde al dat dit niet ging werken. Ik heb dus de goedkoopste uber shitty
webcam gekocht om te testen.
Iemand dit geprobeerd met andere hardware of tips en trucs om USB hardware werkende te krijgen?
Ik weet dat er veel usb dingen niet erg goed werken in ESXi en vreesde al dat dit niet ging werken. Ik heb dus de goedkoopste uber shitty
Iemand dit geprobeerd met andere hardware of tips en trucs om USB hardware werkende te krijgen?
Verwijderd
Ik kan een leuke Xeon (Single Core) 3 Ghz 64Bits S604 server kopen enkel heeft deze cpu geen Virtualization tech. ingebakken is dit een probleem voor ESXi 4.1 ?
en wat doet Virtualization tech. precies ?
en wat doet Virtualization tech. precies ?
ESXi 4.1 draait prima op een bak zonder virtualisation technology (zolang je maar 64 bit support aan boord hebt). Wel mis je dan USB passthrough, en heb je theoretisch meer overhead wat betreft CPU gebruik (al was dit in mijn test vrij verwaarloosbaar).
Wij hebben op het werk VMware View/Citrix XenDesktop getest via een HP Thin Client i.c.m. een usb webcam. Ik zal eens vragen hoe dat is afgelopen.Tokolosh schreef op donderdag 03 maart 2011 @ 15:20:
Iemand een USB webcam via usb passthrough werkend gekregen?
Doosje.
storage doen we local op meerdere disken, want het gaat toch maar om wat simpel testwerk.
USB webcams:
Ik heb Ruben Spruijt tijdens de Intrack VDI het met zowel RDS/RemoteFX als met XenDesktop/HDI zien gebruiken.
storage doen we local op meerdere disken, want het gaat toch maar om wat simpel testwerk.
# | Product | Prijs | Subtotaal |
1 | Intel Pro/1000 PT Dual Port | € 121,34 | € 121,34 |
1 | Asus V6-P7H55E | € 117,57 | € 117,57 |
1 | Intel Core i5 650 Boxed | € 146,41 | € 146,41 |
2 | Kingston ValueRAM KVR1333D3N9K2/8G | € 74,22 | € 148,44 |
Bekijk collectie Importeer producten | Totaal | € 533,76 |
USB webcams:
Ik heb Ruben Spruijt tijdens de Intrack VDI het met zowel RDS/RemoteFX als met XenDesktop/HDI zien gebruiken.
ik heb een 864 GB floppydrive! - certified prutser - the social skills of a thermonuclear device
Verwijderd
ik begreep van iemand anders als je geen Virtualization technology aan boord hebt dat je dan geen 64 bits VM machines kan aanmakencitruspers schreef op zaterdag 26 maart 2011 @ 14:09:
ESXi 4.1 draait prima op een bak zonder virtualisation technology (zolang je maar 64 bit support aan boord hebt). Wel mis je dan USB passthrough, en heb je theoretisch meer overhead wat betreft CPU gebruik (al was dit in mijn test vrij verwaarloosbaar).
Ah correct, die had ik inderdaad nog gemist.
Ik heb hier zelf ESXi 4.1 gedraaid op een bak die wel 64 bit support had, maar geen VT. Cpu overhead was dus marginaal, USB passthrough niet beschikbaar, en inderdaad dus geen 64 bit guest ondersteuning.
Daarnaast was de support voor mijn raid kaart echt waardeloos (HP Smart Array 641, 64 MB cache), onder windows met propere stuurprogramma's benchmarkte de boel zo'n 3 a 4x zo snel...
Ik heb hier zelf ESXi 4.1 gedraaid op een bak die wel 64 bit support had, maar geen VT. Cpu overhead was dus marginaal, USB passthrough niet beschikbaar, en inderdaad dus geen 64 bit guest ondersteuning.
Daarnaast was de support voor mijn raid kaart echt waardeloos (HP Smart Array 641, 64 MB cache), onder windows met propere stuurprogramma's benchmarkte de boel zo'n 3 a 4x zo snel...
[ Voor 81% gewijzigd door citruspers op 26-03-2011 19:10 ]
Ik heb ook maar besloten om ESXi 4.1 te gaan draaien op mijn server. Mijn onboard nic wordt alleen niet ondersteunt (Realtek RTL8111DL). Ik zoek daarom een vervangende pci of pci-e netwerkkaart. Ik wil wel graag zeker weten dat ik in een keer een goede netwerkkaart te pakken heb
Intel lijkt vaak wel ondersteunt te worden. De Intel Gigabit CT Desktop Adapter is een mooi gigabit kaartje voor niet al teveel geld, zijn er mensen met ervaringen met deze nic? Andere suggesties zijn natuurlijk ook welkom.
De rest van de hardware wordt wel goed ondersteunt. Tenminste, ESXi start vanaf usb stick en herkent mijn processor en memory. Ik krijg in het beginscherm van ESXi alleen de melding dat er geen compatible network adapter gevonden is.
De rest bestaat uit:
AMD Athlon II X2 240
MSI 740GTM P25
2GB ddr2
De rest van de hardware wordt wel goed ondersteunt. Tenminste, ESXi start vanaf usb stick en herkent mijn processor en memory. Ik krijg in het beginscherm van ESXi alleen de melding dat er geen compatible network adapter gevonden is.
De rest bestaat uit:
AMD Athlon II X2 240
MSI 740GTM P25
2GB ddr2
[ Voor 23% gewijzigd door Stefanovic45 op 05-04-2011 18:13 ]
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Iemand hier al ervaring met VT-d op het nieuwe socket 1155 platform?
Zit momenteel naar te kijken voor esxi servertje.
Maar wil wel die vt-d hebben voor het doorpassen van mijn raidkaartje in HBA mode voor NAS gebruik.
Linkje naar mijn geplande config (moederbord word een Q67 van intel bordje weet nog niet precies welke)
Zit momenteel naar te kijken voor esxi servertje.
Maar wil wel die vt-d hebben voor het doorpassen van mijn raidkaartje in HBA mode voor NAS gebruik.
Linkje naar mijn geplande config (moederbord word een Q67 van intel bordje weet nog niet precies welke)
Oh, de volgende keer iets verder kijken dan mijn neus lang isErikCornelissen schreef op dinsdag 05 april 2011 @ 20:38:
http://www.vm-help.com/esx40i/esx40_whitebox_HCL.php#NICs
Hier heb je een hele lijst met NICs

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Of gewoon op de officiële site: http://www.vmware.com/resources/compatibility/search.php 
Realtek staat er niet op bij de NIC's.
Realtek staat er niet op bij de NIC's.
[ Voor 18% gewijzigd door PcDealer op 06-04-2011 09:29 ]
Waarom heb je een ssd erin?MadMike261 schreef op dinsdag 05 april 2011 @ 23:01:
Iemand hier al ervaring met VT-d op het nieuwe socket 1155 platform?
Zit momenteel naar te kijken voor esxi servertje.
Maar wil wel die vt-d hebben voor het doorpassen van mijn raidkaartje in HBA mode voor NAS gebruik.
Linkje naar mijn geplande config (moederbord word een Q67 van intel bordje weet nog niet precies welke)
Wil je high performance servers laten lopen?
Als je niet veel reboots geeft aan je guests zou ik dat geld sparen en een dikker mobo kopen.
Mijn config die werkt (met uitzondering van USB passthrough, volgens mij moet ik VT weer aanzetten, als ik die te grote gtx260 nog de kast in krijg..)
Q6600
6 GB verzamelt geheugen (GEIL 800mhz, 1 kingston, en 1 kapot slot... -.- )
P5Q (Raid en ACHI modus lijken allebei te werken)
Intel 1000 kaartje
En geen onboard/dedicated videokaart erin xD
P5Q werkt alleen je moet een andere netwerk kaart erin zetten. De onboard kan je aan de gang krijgen via tweaks maar dat heb ik niet geprobeerd.
Ik heb de SSD gekozen omdat ik voor school nogal eens met meerdere VM's tegelijk bezig ben (rond de 4-6 meestal, Windows Server 2008r2).
En dan merk ik gewoon heel erg dat mn HD de bottleneck is voor de performance.
Heb het vergeleken met klasgenootje die er 1tje in zn machine had draaien.
Misschien zit het alleen maar tussen mn oren, maar ik heb momenteel het geld en dan ben ik er liever klaar mee. Dat ik niet een ander keertje nog moet / wil upgraden. Daarnaast is het ook wel prettig als ik gewoon kan kutten zonder dat eventuele streaming / nas Vm's er hinder van ondervinden.
De SSD die erbij staat is gewoon "een" SSD, weet nog niet welk merk of welke groote. Ben nog bezig met bedenken wat de services zijn die ik precies ga draaien. En wat mn ouders er eventueel op willen ivm streaming e.d.
En dan merk ik gewoon heel erg dat mn HD de bottleneck is voor de performance.
Heb het vergeleken met klasgenootje die er 1tje in zn machine had draaien.
Misschien zit het alleen maar tussen mn oren, maar ik heb momenteel het geld en dan ben ik er liever klaar mee. Dat ik niet een ander keertje nog moet / wil upgraden. Daarnaast is het ook wel prettig als ik gewoon kan kutten zonder dat eventuele streaming / nas Vm's er hinder van ondervinden.
De SSD die erbij staat is gewoon "een" SSD, weet nog niet welk merk of welke groote. Ben nog bezig met bedenken wat de services zijn die ik precies ga draaien. En wat mn ouders er eventueel op willen ivm streaming e.d.
Op zich is dat wel vreemd dat je dan zoveel disk i/o hebt.MadMike261 schreef op woensdag 06 april 2011 @ 16:53:
Ik heb de SSD gekozen omdat ik voor school nogal eens met meerdere VM's tegelijk bezig ben (rond de 4-6 meestal, Windows Server 2008r2).
En dan merk ik gewoon heel erg dat mn HD de bottleneck is voor de performance.
Heb het vergeleken met klasgenootje die er 1tje in zn machine had draaien.
Ik zou het prijsverschil tussen ssd en sata stoppen in wat extra geheugen. Dat is namelijk waar ik altijd tegenaan loop. En nooit processor of disk.
The best thing about UDP jokes is that I don't care if you get them or not.
Hangt er gewoon vanaf wat je doet.. een beetje database trekt je hele performance weg. Ik heb naast mijn raid5 (4x2TB) ook een SSD voor een kleine datastore met alleen wat databases.
Duct tape can't fix stupid, but it can muffle the sound.
Ik ga al voor 16 gig 
Kan wel naar 32 gig, maar heb nu 16 (4x4) voor 130 euro en anders moet ik of:
- 150 euro voor 1x 8gig stickje
- 250 euro voor 2x 16 gig dual channel kitje
Dus ga liever richting ssd
Daarnaast lijkt 16 gig bij mijn eisen voldoende (ben bezig met lijstje
). En heb ik geen zin om 8 gig sticks te betalen of naar een triple channel chipset te switchen.
Kan wel naar 32 gig, maar heb nu 16 (4x4) voor 130 euro en anders moet ik of:
- 150 euro voor 1x 8gig stickje
- 250 euro voor 2x 16 gig dual channel kitje
Dus ga liever richting ssd
Daarnaast lijkt 16 gig bij mijn eisen voldoende (ben bezig met lijstje
Justified.MadMike261 schreef op woensdag 06 april 2011 @ 16:53:
Ik heb de SSD gekozen omdat ik voor school nogal eens met meerdere VM's tegelijk bezig ben (rond de 4-6 meestal, Windows Server 2008r2).
En dan merk ik gewoon heel erg dat mn HD de bottleneck is voor de performance.
Heb het vergeleken met klasgenootje die er 1tje in zn machine had draaien.
Misschien zit het alleen maar tussen mn oren, maar ik heb momenteel het geld en dan ben ik er liever klaar mee. Dat ik niet een ander keertje nog moet / wil upgraden. Daarnaast is het ook wel prettig als ik gewoon kan kutten zonder dat eventuele streaming / nas Vm's er hinder van ondervinden.
De SSD die erbij staat is gewoon "een" SSD, weet nog niet welk merk of welke groote. Ben nog bezig met bedenken wat de services zijn die ik precies ga draaien. En wat mn ouders er eventueel op willen ivm streaming e.d.
HDD is inderdaad bottleneck voor veel OS-en, met name windows. Je moet hier ook kijken dat er nog eens een beetje performance vanaf gaat door de tussen lagen van ESX zelf.
Zelf los ik dit op door data en type OS op verschillende schijven te plaatsen. Maar ik heb dan ook 5 schijven erin. ^^
Je zou deze toch middels een hack kunnen gebruiken. HyperBart gaat hier nog een blogpost over schrijven.StefanvanGelder schreef op dinsdag 05 april 2011 @ 18:09:
Ik heb ook maar besloten om ESXi 4.1 te gaan draaien op mijn server. Mijn onboard nic wordt alleen niet ondersteunt (Realtek RTL8111DL). Ik zoek daarom een vervangende pci of pci-e netwerkkaart.
Meer informatie kan je o.a. hier en hier vinden.
Zelf wil ik een ESXi build maken op basis van een i3 540 en MSI H55M-E33 met diezelfde onboard Realtek RTL8111DL nic, vandaar.
Ik heb zelf een keer ESXi gedraaid met "gehackte" drivers (op mijn laptop nota bene
), maar dat crashte echt aan alle kanten. Ik zou dus wel even stabiliteitstests doen voor je permanent gaat draaien

Verwijderd
ik heb een sh55j2+875K i7+16GB kingston VE xpc shuttle als host esxi 4.1 met een S3 trio 64 videokaart werkt perfect en een quad poort PCI-e netwerk adapter. voor de echte freak zoek naar een 82 576 chipset ivm vmdq en netqueueu
Verwijderd
ik heb de onboard gigabit kaart ook aan de gang zie vmhelp forum voor de juiste .tgz file. die op internet staat beschreven is niet de goede deze schakelt naar 100MB op het forum vind je meer info ;-)
wat koste mijn hostje:
(2de hands)
SH55J2 Barebone --160 (usa)
Intel E1G44ETBLK quad port netwerkkaart --185 (usa)
16gb --142 (NL)
CPU 875k i7 --200 (DE)
S3 trio64 2m --10 (DE)
nu dezelfde tweede aantbouwen ;-)
wat koste mijn hostje:
(2de hands)
SH55J2 Barebone --160 (usa)
Intel E1G44ETBLK quad port netwerkkaart --185 (usa)
16gb --142 (NL)
CPU 875k i7 --200 (DE)
S3 trio64 2m --10 (DE)
nu dezelfde tweede aantbouwen ;-)
Ik had volgens bericht gepost in het DIY Raid NAS topic gepost
Ik ben van plan een nieuwe homeserver te gaan plaatsen.
Hierop zou ik graag ESXI gaan draaien. Waarin ik dan verschillende virtuele machines wil gaan draaien.
1 van de machines zal bedoeld zijn om een eigen development server op te installeren
Hieronder versta ik SVN en dergelijke.
1 van de machines zal bedoeld zijn om Video te op te nemen ( via tuner kaart , is dit mogelijk onder ESXI??) + streamen over het netwerk.
Onder het streamen kan je vanalles verstaan. Zoals Foto's, Video's, Muziek, ....
Er zullen verschillende virtuele machines volgen , hetzij individueel of gecombineerd.
Maar de voorgaande zijn momenteel de belangrijkste.
Ook zou ik dit alles onder RAID6 willen draaien.
Ik ben momenteel niet echt gekent in het server wereldje alsook niet met ESXI.
Iemand die mij wat kan helpen met het bouwen van dergelijk systeempje?
Welke case? Norco, Coolemaster, ....
Moederbord ?
Voor raid? Controller?
Welke soort harde schijven ( merk, green disks )
....
Ik wil dan ook hoogwaardig materiaal. En niet zomaar wat vanalles gaan selecteren.
Maar mijn belangrijkste vraag is nu of esxi kan werken met een tv tuner kaart. Omdat dit toch belangrijk is voor mij.
Ik ben van plan een nieuwe homeserver te gaan plaatsen.
Hierop zou ik graag ESXI gaan draaien. Waarin ik dan verschillende virtuele machines wil gaan draaien.
1 van de machines zal bedoeld zijn om een eigen development server op te installeren
Hieronder versta ik SVN en dergelijke.
1 van de machines zal bedoeld zijn om Video te op te nemen ( via tuner kaart , is dit mogelijk onder ESXI??) + streamen over het netwerk.
Onder het streamen kan je vanalles verstaan. Zoals Foto's, Video's, Muziek, ....
Er zullen verschillende virtuele machines volgen , hetzij individueel of gecombineerd.
Maar de voorgaande zijn momenteel de belangrijkste.
Ook zou ik dit alles onder RAID6 willen draaien.
Ik ben momenteel niet echt gekent in het server wereldje alsook niet met ESXI.
Iemand die mij wat kan helpen met het bouwen van dergelijk systeempje?
Welke case? Norco, Coolemaster, ....
Moederbord ?
Voor raid? Controller?
Welke soort harde schijven ( merk, green disks )
....
Ik wil dan ook hoogwaardig materiaal. En niet zomaar wat vanalles gaan selecteren.
Maar mijn belangrijkste vraag is nu of esxi kan werken met een tv tuner kaart. Omdat dit toch belangrijk is voor mij.
Mits je systeem (mainboard en cpu) directIO ondersteund en de tuner kaart ook (PCIe 2.2+) zou dat moeten kunnen. USB tuners zijn over het algemeen makklijker (omdat USB al snel werkt met directIO), maar vragen ook meer CPU resources.
Overigens, waarom raid6 ?
Overigens, waarom raid6 ?
Duct tape can't fix stupid, but it can muffle the sound.
Uitvallen van 2 disks. Of zou je dit niet aanraden?DukeBox schreef op zondag 03 juli 2011 @ 22:28:
Mits je systeem (mainboard en cpu) directIO ondersteund en de tuner kaart ook (PCIe 2.2+) zou dat moeten kunnen. USB tuners zijn over het algemeen makklijker (omdat USB al snel werkt met directIO), maar vragen ook meer CPU resources.
Overigens, waarom raid6 ?
Met hoeveel disks maak je de raid 6 array dan ? Ik zou eerder investeren in backup dan raid6. Het is statistisch bewezen dat bij grote arrays tijdens een power-up de kans groter is dat er >2 hdd's uitvallen dan 2 er vanuitgaande dat alle hdd's gelijk zijn (model, type, serie).
[ Voor 70% gewijzigd door DukeBox op 03-07-2011 23:28 ]
Duct tape can't fix stupid, but it can muffle the sound.
Ik zou gewoon een case willen aankopen. Waarin de harde schijven makkelijk uitbreidbaar zijn.DukeBox schreef op zondag 03 juli 2011 @ 23:24:
Met hoeveel disks maak je de raid 6 array dan ? Ik zou eerder investeren in backup dan raid6. Het is statistisch bewezen dat bij grote arrays tijdens een power-up de kans groter is dat er >2 hdd's uitvallen dan 2 er vanuitgaande dat alle hdd's gelijk zijn (model, type, serie).
Ik ben mij wel bewust dat RAID geen backup is. Maar het is nog altijd een extra "backup" buiten een echte backup naar een andere fysieke schijf ( die ook zal gebeuren ).
En wat zou jij dan gebruiken? De tuner kaart voor PCI of USB?
Verwijderd
let er op dat je een mobo/cpu combinatie gaat gebruiken die (naast VT-x) ook VT-D ondersteund.Sven_Vdb schreef op maandag 04 juli 2011 @ 08:17:
[...]
Ik zou gewoon een case willen aankopen. Waarin de harde schijven makkelijk uitbreidbaar zijn.
Ik ben mij wel bewust dat RAID geen backup is. Maar het is nog altijd een extra "backup" buiten een echte backup naar een andere fysieke schijf ( die ook zal gebeuren ).
En wat zou jij dan gebruiken? De tuner kaart voor PCI of USB?
(meestal xeon processors)
Dan kan je aangesloten hardware, zowel via USB maar ook PCI-e 'passthrough maken naar je VM onder ESXi.
* mooi : " De migratie van ESX 4.x naar ESXi 5.0 daarentegen is in place, waarbij alle oude settings behouden blijven. " .. ( ESXi 5.0 12 juli ?)
[ Voor 13% gewijzigd door Verwijderd op 04-07-2011 12:42 ]
Ik heb de Intel PRO 1000 GT kaart er in zitten, werkt perfect. Wordt ook direct door ESXi herkent. Heb er zelfs 2 ingedaan
voor de kosten hoef je het niet te laten. pricewatch: Intel PRO/1000 GT
StefanvanGelder schreef op dinsdag 05 april 2011 @ 18:09:
Ik heb ook maar besloten om ESXi 4.1 te gaan draaien op mijn server. Mijn onboard nic wordt alleen niet ondersteunt (Realtek RTL8111DL). Ik zoek daarom een vervangende pci of pci-e netwerkkaart. Ik wil wel graag zeker weten dat ik in een keer een goede netwerkkaart te pakken hebIntel lijkt vaak wel ondersteunt te worden. De Intel Gigabit CT Desktop Adapter is een mooi gigabit kaartje voor niet al teveel geld, zijn er mensen met ervaringen met deze nic? Andere suggesties zijn natuurlijk ook welkom.
De rest van de hardware wordt wel goed ondersteunt. Tenminste, ESXi start vanaf usb stick en herkent mijn processor en memory. Ik krijg in het beginscherm van ESXi alleen de melding dat er geen compatible network adapter gevonden is.
De rest bestaat uit:
AMD Athlon II X2 240
MSI 740GTM P25
2GB ddr2
Mijn hardware die ik onlangs heb vervangen voor me ESXi 4.1 server thuis:
AMD Phenom II X6 1090T Black Edition
Asus M4A78LT-M
16 GB Corsair DDR3
INTEL PRO 1000GT netwerkcard
1TB Western Digital HD
Synology Disk Station DS210J
Ik draai hier en Server 2008 en Astaro Secure Gateway op
AMD Phenom II X6 1090T Black Edition
Asus M4A78LT-M
16 GB Corsair DDR3
INTEL PRO 1000GT netwerkcard
1TB Western Digital HD
Synology Disk Station DS210J
Ik draai hier en Server 2008 en Astaro Secure Gateway op
Hallo,
Een tijd geleden heb ik een klein servertje gemaakt met volgende hardware:
Nu heb ik ondertussen meer leren kennen van virtualiseren met ESXi en ik wil dat nu ook graag met deze hardware gaan doen. Mijn vraag is nu, kan ik ESXi op deze hardware gebruiken?
Alvast Bedankt!
Een tijd geleden heb ik een klein servertje gemaakt met volgende hardware:
# | Product | Prijs | Subtotaal |
3 | Samsung Spinpoint F3 HD103SJ, 1TB | € 54,- | € 162,- |
1 | Samsung Spinpoint F4 HD322GJ, 320GB | € 31,99 | € 31,99 |
1 | Antec Three Hundred | € 47,95 | € 47,95 |
1 | Cooler Master Hyper TX3 | € 13,95 | € 13,95 |
1 | Scythe Kaze Master Pro 5.25 | € 32,95 | € 32,95 |
1 | AMD Athlon II X2 245e | € 53,- | € 53,- |
1 | be quiet! Pure Power L7 350W | € 36,90 | € 36,90 |
1 | Kingston ValueRAM KVR1333D3N9K2/4G | € 23,53 | € 23,53 |
1 | Asrock 890GM PRO3 | € 64,50 | € 64,50 |
Bekijk collectie Importeer producten | Totaal | € 466,77 |
Nu heb ik ondertussen meer leren kennen van virtualiseren met ESXi en ik wil dat nu ook graag met deze hardware gaan doen. Mijn vraag is nu, kan ik ESXi op deze hardware gebruiken?
Alvast Bedankt!
Een ander moederbord met dezelfde chipset staat op de wHCL. De onboard NIC zal standaard niet werken, waardoor ESXi niet zal installeren. Je moet dus een ondersteunde NIC aan je systeem toevoegen of een installatie-ISO maken met de extra drivers voor de onboard NIC.
De 4GB geheugen zal waarschijnlijk je eerste beperking zijn in de prestatie en aantal VM's die je kan draaien.
De 4GB geheugen zal waarschijnlijk je eerste beperking zijn in de prestatie en aantal VM's die je kan draaien.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Eens ^^^ koop voor die paar tientjes alsjeblieft minimaal 8 GB, want je gaat je lopen ergerenNextron schreef op dinsdag 05 juli 2011 @ 15:53:
Een ander moederbord met dezelfde chipset staat op de wHCL. De onboard NIC zal standaard niet werken, waardoor ESXi niet zal installeren. Je moet dus een ondersteunde NIC aan je systeem toevoegen of een installatie-ISO maken met de extra drivers voor de onboard NIC.
De 4GB geheugen zal waarschijnlijk je eerste beperking zijn in de prestatie en aantal VM's die je kan draaien.
Gezocht: netwerkbeheerder
Als je het niet aan een 6-jarige kan uitleggen, snap je er zelf ook niks van! - A. Einstein
Bedankt,
Extra geheugen was de bedoeling. wordt minimaal 8GB.
Een andere NIC is geen probleem.
Nog een vraag. hoeveel virtuele pc's kan ik "ongeveer" draaien met 8GB?
Extra geheugen was de bedoeling. wordt minimaal 8GB.
Een andere NIC is geen probleem.
Nog een vraag. hoeveel virtuele pc's kan ik "ongeveer" draaien met 8GB?
Theoretisch ~820 die ~10MB gebruiken.. of 1 die ~8GB gebruikt..
Dat is natuurlijk alleen een vraag die je zelf kan beantwoorden zonder dat we ook maar iets weten wat je wilt gaan draaien.
Dat is natuurlijk alleen een vraag die je zelf kan beantwoorden zonder dat we ook maar iets weten wat je wilt gaan draaien.
Duct tape can't fix stupid, but it can muffle the sound.
ESXi 4 heeft volgens de specificaties 2GB nodig. Voor de gratis hypervisor kan je beter van de helft uit gaan. Dan houd je nog 7GB over voor je VM's. Verder is over-provisioning mogelijk; je kan dus meer dan die 7GB toewijzen aan VM's die ook actief zijn. Wanneer die VM's ook daadwerkelijk meer dan die 7GB gaan gebruiken zal ESXi gaan swappen, wat de VM's langzaam maakt.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
De bedoeling is om 2x Ubuntu server te draaien, 1x Windows server 2008, 1x windows home server en 1x Windows 7. Af en toe zal er ook eens een extra OS bijkomen voor wat te prutsen enz. Maar deze 5 wil ik zeker tegelijk kunnen draaien. Hoeveel NIC's kan ik trouwens het beste gebruiken?
Bedankt.
Bedankt.
Sommige functies vereisen een dedicated NIC en voor sommige functies wordt het aangeraden. Er wordt bijvoorbeeld aangeraden ESXi management over een aparte NIC te configureren, maar je kan met een enkele NIC uit te voeten.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Zelfs in dat nieuwsbericht staat weer een veelgemaakte fout:Verwijderd schreef op maandag 04 juli 2011 @ 09:55:
[...]
* mooi : " De migratie van ESX 4.x naar ESXi 5.0 daarentegen is in place, waarbij alle oude settings behouden blijven. " .. ( ESXi 5.0 12 juli ?)
ESX heeft geen Linux kernel. ESX is gewoon een hypervisor. De Linux gebaseerde console die je ziet is in feite gewoon een VM die als eerste wordt opgestart. Maakt dus geen deel uit van de kernel. Sterker nog: de hypervisor van ESX en ESXi zijn bijna gelijk.De belangrijkste reden voor VMware om voor ESXi te kiezen, is dat het daarmee afscheid kan nemen van de Linux-kernel die in ESX zit.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Volgens mij kun je dat ook perfect oplossen met vlanning: management, netwerkverkeer, vmotion en ha/ft.Nextron schreef op woensdag 06 juli 2011 @ 02:39:
Sommige functies vereisen een dedicated NIC en voor sommige functies wordt het aangeraden. Er wordt bijvoorbeeld aangeraden ESXi management over een aparte NIC te configureren, maar je kan met een enkele NIC uit te voeten.
Maar zal een mijn processor makkelijk 4 à 5 virtuele machines kunnen draaien (met 16gb ram)?
pricewatch: AMD Athlon II X2 245e
pricewatch: AMD Athlon II X2 245e
Ik draai (nog even) op een Athlon64-3200 windows XP en Vmware Workstation met een router en een 2e XP. Die VM's doen bijna niets maar de CPU idle't op ~30% en piekt regelmatig naar 100%.
Jouw CPU ondersteunt AMD-V, wat gunstig is, en heeft 2 cores ipv 1 die tevens hoger geclockt zijn.
Dus draaien zal het wel, of het bruikbaar is hangt compleet af van de gelijktijdige belasting van de VM's op de CPU.
Jouw CPU ondersteunt AMD-V, wat gunstig is, en heeft 2 cores ipv 1 die tevens hoger geclockt zijn.
Dus draaien zal het wel, of het bruikbaar is hangt compleet af van de gelijktijdige belasting van de VM's op de CPU.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Verwijderd
het is te hopen dat er nu eindelijk een vSphere Client voor linux komt ..Microkid schreef op woensdag 06 juli 2011 @ 06:26:
[...]
Zelfs in dat nieuwsbericht staat weer een veelgemaakte fout:
[...]
ESX heeft geen Linux kernel. ESX is gewoon een hypervisor. De Linux gebaseerde console die je ziet is in feite gewoon een VM die als eerste wordt opgestart. Maakt dus geen deel uit van de kernel. Sterker nog: de hypervisor van ESX en ESXi zijn bijna gelijk.
Ja, en dat ze van de Java zooi afstappen, en dat er een vSphere App komt voor de iPadVerwijderd schreef op donderdag 07 juli 2011 @ 11:13:
[...]
het is te hopen dat er nu eindelijk een vSphere Client voor linux komt ..
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
http://itunes.apple.com/u...ient-for/id417323354?mt=8Microkid schreef op donderdag 07 juli 2011 @ 17:55:
[...]
Ja, en dat ze van de Java zooi afstappen, en dat er een vSphere App komt voor de iPad
Oe, cool. Die had ik nog niet gezien
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
RAID 6 is RAID 5 met dubbele pariteit, dus 4 disks minimaal.DukeBox schreef op zondag 03 juli 2011 @ 23:24:
Met hoeveel disks maak je de raid 6 array dan ?
Ik zou voor beiden gaan, mits het budget het toelaat natuurlijk.Ik zou eerder investeren in backup dan raid6.
[ Voor 66% gewijzigd door CH4OS op 16-07-2011 16:10 ]
RAID is geen Back-up*.
* Sowieso niet voor servers.RAID guards against one kind of hardware failure. There's lots of failure modes that it doesn't guard against.
• File corruption
• Human error (deleting files by mistake)
• Catastrophic damage (someone dumps water onto the server)
• Virus'
• Software bugs that wipe out data ..

[ Voor 25% gewijzigd door chronoz op 16-07-2011 18:12 ]
RAID 6 is met 4 HDD's enorm traag. Ga dan gewoon voor raid 10, dan heb je tenminste nog baat bij hogere schrijf snelheden. Ook kan je dan een eenvoudigere controller kopen.CptChaos schreef op zaterdag 16 juli 2011 @ 10:13:
RAID 6 is RAID 5 met dubbele pariteit, dus 4 disks minimaal.
Duct tape can't fix stupid, but it can muffle the sound.
Ik ga ervan uit dat het kan,maar ik wil het toch even zeker weten, is het mogelijk (ik heb het hier over een simpel systeempje) om m.b.v. VT-d het eene os (in dit geval mythbuntu(ja, dat htpc os)) op de een (goeie) videokaart te laten werken en via de andere(heb ik hier nog liggen) videokaart een ander beeldscherm aan een ander os(bijv windows) te koppelen
( Dus: [TV+1e gpu+htpc os] & [(ander)beeldscherm+2e gpu+windows] ) ?
En welke mobo is geschikt voor vt-d (met een i5 2500), en heeft genoeg pci-lanes(2 videokaarten+tv tuner)?
Kan ik ook van de onboard gpu gebruikmaken(i.p.v 2e gpu)?
( Dus: [TV+1e gpu+htpc os] & [(ander)beeldscherm+2e gpu+windows] ) ?
En welke mobo is geschikt voor vt-d (met een i5 2500), en heeft genoeg pci-lanes(2 videokaarten+tv tuner)?
Kan ik ook van de onboard gpu gebruikmaken(i.p.v 2e gpu)?
[ Voor 10% gewijzigd door Achilles op 17-07-2011 16:58 ]
| Cowsmology | Met een hamer past alles, met ducktape plakt alles |
Ga er maar van uit dat het niet (stabiel) werkt. Het aantal officieel ondersteunde devices vanuit VMware voor VT-d is redelijk beperkt. Gebruik van andere devices is geheel voor eigen risico. Ik heb er in elk geval geen goede ervaringen mee.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Kom ik gisteren thuis blijkt de ESXI server niet meer te starten (E8400 op een Asus Formula II bordje).
Heb de voeding die een pieptoon gaf vervangen maar helaas post het systeem helemaal niet meer dus ben ik bang dat het mobo defect is.
Heeft iemand hier ervaring met een nieuw mobo (1155 socket) die meteen met ESXI 4.1 U1 werkt.
http://www.vm-help.com//esx40i/esx40_whitebox_HCL.php#MB
Bovenstaande link heb ik doorgenomen daar staan echter alleen oudere types op.
Heb de voeding die een pieptoon gaf vervangen maar helaas post het systeem helemaal niet meer dus ben ik bang dat het mobo defect is.
Heeft iemand hier ervaring met een nieuw mobo (1155 socket) die meteen met ESXI 4.1 U1 werkt.
http://www.vm-help.com//esx40i/esx40_whitebox_HCL.php#MB
Bovenstaande link heb ik doorgenomen daar staan echter alleen oudere types op.
Hmmm, * HyperBart is weer in doubt...
Heb de kans om van een collega volgende bak aan te kopen:
http://www.intel.com/prod...5ur/sr1625ur-overview.htm
2 x Xeon X5570 2.93GHz CPU's in,
24GB DDR3 ram
160GB SATA disk (Solid state Enterprise grade)
En 8 hotswappable bays
en dat allemaal voor de schappelijke prijs van 750 EUR...
Heb de kans om van een collega volgende bak aan te kopen:
http://www.intel.com/prod...5ur/sr1625ur-overview.htm
2 x Xeon X5570 2.93GHz CPU's in,
24GB DDR3 ram
160GB SATA disk (Solid state Enterprise grade)
En 8 hotswappable bays
[ Voor 8% gewijzigd door HyperBart op 09-09-2011 15:35 ]
Ik hoop dat HyperBart geluidsisolatie heeft..volgens mij produceert deze badboy wel wat DB's
Member of the Ukraine IT Army
No worries, komt in de kelder terecht of op een archiefkamertje... Geen last van
Ik mag toch aannemen dat die fans terug throttlen? HP DL380 G5 en hoger zijn best stil voor een server. Maar die zijn 2U. De 1U DL360 kom ik weinig tegen, maar volgens mij zijn die ook niet echt lawaaierig. Dus deze Intel moet dat ook niet zijn?
Ik veronderstel van wel, maar frankly I don't give a ***** , dat ding blijft voorlopig in de archiefkamer staan, maakt ie daar te veel herrie gaat ie naar de kelder...
Maakt ie daar te veel herrie begin ik te denken om 'm met het oud ijzer mee te geven...
Hoezo economische crisis en terugval van koopkracht....
Maakt ie daar te veel herrie begin ik te denken om 'm met het oud ijzer mee te geven...
[ Voor 30% gewijzigd door HyperBart op 11-09-2011 22:50 ]
Hierbij wilde ik even melden dat ik de volgende configuratie draaiend heb gekregen
Gigabyte G41MT-S2 moederbord
Intel Core2Quad Q6600 processor
Corsair XMS3 4GB DDR3-1600 geheugen
80GB SATA-HDD
Intel Pro 1000 server netwerkkaart.
Deze config draaide niet onder 4.1 deze ziet de sata controller niet, en dat resulteerd in een dumpfile.
Vervolgens het geprobeerd met 5.0 en deze pakt het in een keer.
Ben erg blij dat het systeem het aan kan.
Nu nog even configureren en kijken wat deze machine aan kan.
Voordat ik een nieuwe ga samen stellen. Dit is hardware die ik nog had staan.
Gigabyte G41MT-S2 moederbord
Intel Core2Quad Q6600 processor
Corsair XMS3 4GB DDR3-1600 geheugen
80GB SATA-HDD
Intel Pro 1000 server netwerkkaart.
Deze config draaide niet onder 4.1 deze ziet de sata controller niet, en dat resulteerd in een dumpfile.
Vervolgens het geprobeerd met 5.0 en deze pakt het in een keer.
Ben erg blij dat het systeem het aan kan.
Nu nog even configureren en kijken wat deze machine aan kan.
Voordat ik een nieuwe ga samen stellen. Dit is hardware die ik nog had staan.
Zouden jullie mij kunnen helpen met het samenstellen van een nieuwe esxi machine?
Ik zal deze in het begin gaan gebruiken voor het testen van esxi, een paar 2003, 2008, windows 7 en XP clients.
Daarna wil ik een paar definitieve machines erop gaan draaien zoals Windows server 2008 (DHCP, Fileserver, ISA, VPN) en daarnaast ook nog test machines.
Er moeten dus wel 5a6 machines vloeiend op kunnen draaien.
Tevens ben ik nog op zoek naar een paar handige links die ik kan gebruiken bij het configureren van esxi en de virtual machines. Ik heb zelf wel al wat dingen gevonden maar je kunt nooit genoeg informatie hebben.
Alvast bedankt voor jullie hulp.
Ik zal deze in het begin gaan gebruiken voor het testen van esxi, een paar 2003, 2008, windows 7 en XP clients.
Daarna wil ik een paar definitieve machines erop gaan draaien zoals Windows server 2008 (DHCP, Fileserver, ISA, VPN) en daarnaast ook nog test machines.
Er moeten dus wel 5a6 machines vloeiend op kunnen draaien.
Tevens ben ik nog op zoek naar een paar handige links die ik kan gebruiken bij het configureren van esxi en de virtual machines. Ik heb zelf wel al wat dingen gevonden maar je kunt nooit genoeg informatie hebben.
Alvast bedankt voor jullie hulp.
De Dell PowerEdge R710 reeks is een zeer goede voor ESXi omgevingen.
Wat is je vraag exact? Je geeft niet aan:Bumperke schreef op donderdag 02 februari 2012 @ 12:03:
Zouden jullie mij kunnen helpen met het samenstellen van een nieuwe esxi machine?
- Wat je budget is
- In welke mate je redudantie wil
- Hoe "zwaar" de vm's zijn (hoeveel cpu-usage, benodigde IOPS, etc).
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Mijn excuses. Ik dacht dat ik het budget erbij gezet had.Question Mark schreef op donderdag 02 februari 2012 @ 14:19:
[...]
Wat is je vraag exact? Je geeft niet aan:Nu gaat iedereen maar een werkende config opnoemen zonder te weten of die wel matched aan jouw specifieke eisen en wensen (die je kennelijk nog niet gekwantificeerd hebt).
- Wat je budget is
- In welke mate je redudantie wil
- Hoe "zwaar" de vm's zijn (hoeveel cpu-usage, benodigde IOPS, etc).
Ik wil niet meer dan 1000euro uitgeven, mij lijkt dat je dan een redelijk goede hebt..
Wat raad je aan qua redundantie? Raid 10?
Hoe zwaar ze zijn weet ik niet precies. Het word namelijk mijn eerste server.. Maar ik wil alles een keer testen dus er komt een keer exchange op, een SQL server enz. Of ik deze daadwerkelijk ga gebruiken weet ik nog niet zeker.
Ook MOET het een tower model zijn/worden.
€800? Dan zou ik kijken naar een pc op de onofficiele whitebox hcl's die op internet te vinden zijn. Voor dat geld stel je volgens mij geen echte server samen die op de VMware hcl staat.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Aangepast naar max 1000euro (incl btw)Ethirty schreef op donderdag 02 februari 2012 @ 21:36:
€800? Dan zou ik kijken naar een pc op de onofficiele whitebox hcl's die op internet te vinden zijn. Voor dat geld stel je volgens mij geen echte server samen die op de VMware hcl staat.
Wat raad je aan?
Tja, blijft vreselijk moeilijk om je zo wat te adviseren. Als je nog helemaal geen ervaring hebt met esxi of servers zou ik gewoon gaan voor een zware pc met 8 of 16 GB geheugen, een SSD en VMware workstation.
Als je daarna inzicht hebt in wat je wil draaien en hoeveel performance dat kost, kan je veel beter bepalen wat voor esxi server je zoekt. Ik heb alleen ervaring met HP DL3xx servers, maar die vallen ver buiten je budget.
Misschien is een Shuttle barebone wat. Er zijn op internet een aantal verhalen te vinden die daarme een heel lab hebben gebouwd.
Als je daarna inzicht hebt in wat je wil draaien en hoeveel performance dat kost, kan je veel beter bepalen wat voor esxi server je zoekt. Ik heb alleen ervaring met HP DL3xx servers, maar die vallen ver buiten je budget.
Misschien is een Shuttle barebone wat. Er zijn op internet een aantal verhalen te vinden die daarme een heel lab hebben gebouwd.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Welke opties heb je zelf al gevonden? Het is natuurlijk wel de bedoeling dat je zelf initiatief toont...Bumperke schreef op vrijdag 03 februari 2012 @ 00:10:
[...]
Aangepast naar max 1000euro (incl btw)
Wat raad je aan?
Er is een HCL van VMWare waarop supported systemen/hardware componenten staan. Bovendien staan er meer dan genoeg werkende configuraties in dit topic genoemd. Luikt me dan niet zo heel lastig om met wat inzet een werkende configuratie uit te kunnen zoeken.
[ Voor 31% gewijzigd door Question Mark op 03-02-2012 08:50 ]
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Heb onlangs een Dell Poweredge T100 II gekocht met quadcore Xeon voor 600 euro. Draait ESXi prima op.Bumperke schreef op donderdag 02 februari 2012 @ 14:50:
Ook MOET het een tower model zijn/worden.
Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC
Ik ben op dit moment naar een DELL™ PowerEdge™ T410 aan het kijken.
PowerEdge T410 Tower Chassis, Up to 6x 3.5" Hot Plug HDDs, LCD Diagnostics
Intel Xeon E5620, 4C, 2.40GHz, 12M Cache, 5.86GT/s, 80W TDP, Turbo, HT, DDR3-1066MHz
16GB Memory for 1CPU, DD3, 1333MHz (4x4GB Dual Ranked LV UDIMMs)
PERC H700A RAID Controller, 512MB Cache, for Hot Plug HDD Chassis
Prijs 1034 excl. BTW (Duurder dan gehoopt, maar misschien is deze hardware ook te snel voor wat ik wil?)
Er zitten dan nog geen HDD's bij want volgens mij zijn deze best duur daar..
PowerEdge T410 Tower Chassis, Up to 6x 3.5" Hot Plug HDDs, LCD Diagnostics
Intel Xeon E5620, 4C, 2.40GHz, 12M Cache, 5.86GT/s, 80W TDP, Turbo, HT, DDR3-1066MHz
16GB Memory for 1CPU, DD3, 1333MHz (4x4GB Dual Ranked LV UDIMMs)
PERC H700A RAID Controller, 512MB Cache, for Hot Plug HDD Chassis
Prijs 1034 excl. BTW (Duurder dan gehoopt, maar misschien is deze hardware ook te snel voor wat ik wil?)
Er zitten dan nog geen HDD's bij want volgens mij zijn deze best duur daar..
Kan je zonder HDD bestellen dan? Bij de T100 was dat helaas niet mogelijk.
Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC
@Gunner, nee is inderdaad niet mogelijk. 
Ik heb nu zelf een systeem samengesteld, namelijk:
Intel Desktop Board DX79TO
Intel Core i7 3930K Boxed
Scythe Mugen 3 Rev. B
Kingston HyperX KHX1600C9D3K8/32GX
Cooler Master CM Stacker (2e hands)
Cooler Master Silent Pro M700
Ik moet alleen nog een RAID controller kaart.. Ik wil hem in RAID5 gaan draaien. Welke kaart raden jullie mij aan? (5 SATA600 schijven)
Zelf heb ik onderstaande kaarten al gevonden:
3ware SAS 9750-4i
Intel RS2WC080
HP Smart Array P410/512 BBWC 2 Int ports
Wat ik alleen heel moeilijk gevonden krijg is welke van deze kaarten de beste is voor SATA-600 schijven (en uberhaupt ondersteund worden)
Ik heb nu zelf een systeem samengesteld, namelijk:
Intel Desktop Board DX79TO
Intel Core i7 3930K Boxed
Scythe Mugen 3 Rev. B
Kingston HyperX KHX1600C9D3K8/32GX
Cooler Master CM Stacker (2e hands)
Cooler Master Silent Pro M700
Ik moet alleen nog een RAID controller kaart.. Ik wil hem in RAID5 gaan draaien. Welke kaart raden jullie mij aan? (5 SATA600 schijven)
Zelf heb ik onderstaande kaarten al gevonden:
3ware SAS 9750-4i
Intel RS2WC080
HP Smart Array P410/512 BBWC 2 Int ports
Wat ik alleen heel moeilijk gevonden krijg is welke van deze kaarten de beste is voor SATA-600 schijven (en uberhaupt ondersteund worden)
[ Voor 26% gewijzigd door Bumperke op 17-02-2012 14:54 ]
Het is de 3ware SAS 9750-4i met BBU gewordenBumperke schreef op donderdag 16 februari 2012 @ 19:10:
@Gunner, nee is inderdaad niet mogelijk.
Ik heb nu zelf een systeem samengesteld, namelijk:
Intel Desktop Board DX79TO
Intel Core i7 3930K Boxed
Scythe Mugen 3 Rev. B
Kingston HyperX KHX1600C9D3K8/32GX
Cooler Master CM Stacker (2e hands)
Cooler Master Silent Pro M700
Ik moet alleen nog een RAID controller kaart.. Ik wil hem in RAID5 gaan draaien. Welke kaart raden jullie mij aan? (5 SATA600 schijven)
Zelf heb ik onderstaande kaarten al gevonden:
3ware SAS 9750-4i
Intel RS2WC080
HP Smart Array P410/512 BBWC 2 Int ports
Wat ik alleen heel moeilijk gevonden krijg is welke van deze kaarten de beste is voor SATA-600 schijven (en uberhaupt ondersteund worden)
Ik ben op zoek naar een goedkope 2-port SATA raid kaart (PCI-Express) die wordt ondersteund in ESXi 5.1.
Op dit moment heb ik een mobo met de Intel (software/fake) raid functie die helaas niet werkt met ESXi (5.1).
Ik heb 2 schijven die ik in RAID 1 wil laten draaien. Met welk kaartje gaat dat lukken?
Performance is natuurlijk belangrijk maar het is en blijft een thuis/test server. Dus wil het zo goedkoop mogelijk houden.
Iemand ideeen?
Op dit moment heb ik een mobo met de Intel (software/fake) raid functie die helaas niet werkt met ESXi (5.1).
Ik heb 2 schijven die ik in RAID 1 wil laten draaien. Met welk kaartje gaat dat lukken?
Performance is natuurlijk belangrijk maar het is en blijft een thuis/test server. Dus wil het zo goedkoop mogelijk houden.
Iemand ideeen?