Even niets...
Als dat zou kunnen
Hoe ga ik nu het volgende voor elkaar krijgen?
Mijn hardware:
pricewatch: Intel Desktop Board DQ67OWB3
4x pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB
pricewatch: Asrock SATA3 Card
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB
Software:
ESXi 4.1
FreeNAS VM
Ik wil de 4x 2TB schijven direct aan FreeNAS toewijzen. Nu kan ik de onboard SATA controller op passthrough zetten (mobo ondersteunt VT-d).
Maar dan moet de FreeNAS VM nog op een bestaande datastore gezet worden. Als je ESXi vanaf USB stick boot dan bestaat er in ESXi geen datastore om die op te zetten. Vandaar mijn keuze voor de losse SSD + ASRock SATA3 controller.
Die ASRock kan dus bij het grofvuil
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
freenas vanaf usb?Priet schreef op woensdag 27 juli 2011 @ 12:06:
[...]
Als dat zou kunnenIk heb dat andere topic niet gezien helaas
Hoe ga ik nu het volgende voor elkaar krijgen?
Mijn hardware:
pricewatch: Intel Desktop Board DQ67OWB3
4x pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB
pricewatch: Asrock SATA3 Card
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB
Software:
ESXi 4.1
FreeNAS VM
Ik wil de 4x 2TB schijven direct aan FreeNAS toewijzen. Nu kan ik de onboard SATA controller op passthrough zetten (mobo ondersteunt VT-d).
Maar dan moet de FreeNAS VM nog op een bestaande datastore gezet worden. Als je ESXi vanaf USB stick boot dan bestaat er in ESXi geen datastore om die op te zetten. Vandaar mijn keuze voor de losse SSD + ASRock SATA3 controller.
Die ASRock kan dus bij het grofvuilMaar hoe ga ik dan mijn SSD aansluiten? Of beter: hoe en waar ga ik die FreeNAS VM opslaan?
Niet mogelijk. ESXi 4.1u1 kan geen datastore op usb aanmaken, en het bios van VM's kan niet van usb booten.
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
http://www.delock.com/pro...ss_Card_2_Port_70137.htmlPriet schreef op woensdag 27 juli 2011 @ 12:06:
Die ASRock kan dus bij het grofvuilMaar hoe ga ik dan mijn SSD aansluiten? Of beter: hoe en waar ga ik die FreeNAS VM opslaan?
Van deze kan ik bevestigen dat hij werkt met een aangepaste oem.tgz (http://www.vm-help.com/fo...?f=12&t=2096&p=6489#p6489)
Waarschijnlijk zijn er wel meer controllers gebaseerd op de Sil3132 te koop
pricewatch unsorted: DeLOCK SATA II PCI Express Card, 2 Port | 70137
[ Voor 14% gewijzigd door Zer0 op 27-07-2011 12:35 ]
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Even niets...
Sinds 4.1 niet met usb sticks/drives voor zover ik weet.FireDrunk schreef op woensdag 27 juli 2011 @ 13:56:
Je kan toch gewoon RDM gebruiken?
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Even niets...
Verwijderd
UPS is binnenFireDrunk schreef op vrijdag 22 juli 2011 @ 22:26:
UPS heb je (meestal) geen drivers voor nodig, upsd van Linux kan er meestal wel mee overweg tenzij het *echt* een hokkiewokkie merk is...

en kan gelijk met de qnap 439 'kletsen' via usb

maar er 'knettert' iets als ik achter een output kabel beweeg .. dus die UPS gaat retour
Bekend probleem bij APC, ze willen dat het MUUR vast zit
Even niets...
Verwijderd
idd moest ik gewoon echt kracht gebruiken en die stekker doordrukken.
nu hangt mijn ESXi server eraan en hij geeft aan : 19% load.. power zat dus
heb je met van dat 'goedkope' spul ..
ook dat nog :
'From ESXi 3.5 Update 4 onwards VMWare restricts RCLI (remote command line interface) administration access for the free version of ESXi (no write access). ESXi 3.5.u3 contained a bug which unlocked API features and allowed for RCLI Access. (Previously APC stated that PCNS 2.2.3 supported 3.5u2, please note that this is not supported).
To make PCNS (PowerChute Network Shutdown) work properly you will need to purchase a license for ESXi. APC is completely dependant on the RCLI/VIFP to carry out the shutdown of the ESXi OS. '
* maar dat werkt wellicht toch ZO
[ Voor 71% gewijzigd door Verwijderd op 28-07-2011 10:51 ]
Verwijderd
ik had overigens een hele goede tip gehad van 'Zware unit' mbt UPS kabeltjes.
APC kabeltjes zijn idioot duur... HIER vind je de betere tweakers prijzen
[ Voor 5% gewijzigd door Verwijderd op 27-07-2011 16:11 ]
Het intel desktop board welke Priet gebruikt heeft maar 4 sata aanslutingen, aangezien hij 4 hdd's wil gebruiken voor FreeNAS blijft er geen aansluiting over voor de SSDFireDrunk schreef op woensdag 27 juli 2011 @ 15:18:
Dat bedoel ik niet.. je kan toch gewoon je SSD en disks allemaal onboard aansluiten en via RDM de disks aan de VM geven... Dus geen VT-d...
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Even niets...
http://ark.intel.com/prod...ntel-Desktop-Board-DQ67OWFireDrunk schreef op woensdag 27 juli 2011 @ 16:56:
* FireDrunk ziet op het fototje anders 6 sata poortjes...
Tenzij Intel haar eigen borden niet kent zijn het er vier... de foto zal een ander model uit dezelfde serie zijn.
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Verwijderd
eSata is ook sata .. dus 6Zer0 schreef op woensdag 27 juli 2011 @ 18:48:
[...]
http://ark.intel.com/prod...ntel-Desktop-Board-DQ67OW
Tenzij Intel haar eigen borden niet kent zijn het er vier... de foto zal een ander model uit dezelfde serie zijn.
Vreemd verhaal, hij vind die rode eSata, maar wat dat dan betekend... Waarschijnlijk dat ze gedeeld zijn...
[ Voor 43% gewijzigd door FireDrunk op 27-07-2011 19:21 ]
Even niets...
Hier staat "Impacted SATA port" wat dat ook mag beteken. Nergens staat iets over delen....
Nog even de Intel Desktop Board DQ67OW Technical Product Specification (pdf) er op na geslagen
Ik lees dit als 6 connectoren, elke connector 1 schijf == 6 schijvenThe board provides six SATA connectors through the PCH, which support one device
per connector:
• Two internal SATA 6 Gb/s ports (blue)
• Two internal SATA 3 Gb/s ports (black)
• Two internal eSATA 3 Gb/s ports for external connectivity (red)
The PCH provides independent SATA ports with a theoretical maximum transfer rate of
6 Gb/s for two ports and 3 Gb/s for four ports. A point-to-point interface is used for
host to device connections.
Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten
[ Voor 56% gewijzigd door jeanj op 27-07-2011 20:08 ]
Everything is better with Bluetooth
Impacted betekend dat ze getroffen zijn door de befaamde intel bug, als je een eerdere revisie van de chipset hebt.jeanj schreef op woensdag 27 juli 2011 @ 20:01:
Ik denk niet dat ze gedeeld zijn, op dat dq67sw bordje zitten er ook 4 onboard en 2 esata op de achterkant, maar echt duidelijk is het niet, het zou zomaar kunnen van wel.
Hier staat "Impacted SATA port" wat dat ook mag beteken. Nergens staat iets over delen....
Nog even de Intel Desktop Board DQ67OW Technical Product Specification (pdf) er op na geslagen
[...]
Ik lees dit als 6 connectoren, elke connector 1 schijf == 6 schijven
Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten
http://www.intel.com/support/chipsets/6/sb/CS-032521.htm
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
De pricewatch: Intel Desktop Board DQ67OWB3 heeft 6 interne SATA aansluitingen. Waarom Intel dat eSATA noemt is mij een raadsel. Hoe dan ook, ik heb inmiddels 4 schijven en 1 DVD-speler op het moederbord aangesloten.Zer0 schreef op woensdag 27 juli 2011 @ 16:22:
[...]
Het intel desktop board welke Priet gebruikt heeft maar 4 sata aanslutingen, aangezien hij 4 hdd's wil gebruiken voor FreeNAS blijft er geen aansluiting over voor de SSD
Thx! Die heb ik meteen besteld.Voor die paar euro is het het proberen waard in ieder gevalZer0 schreef op woensdag 27 juli 2011 @ 12:34:
[...]
http://www.delock.com/pro...ss_Card_2_Port_70137.html
Van deze kan ik bevestigen dat hij werkt met een aangepaste oem.tgz (http://www.vm-help.com/fo...?f=12&t=2096&p=6489#p6489)
Waarschijnlijk zijn er wel meer controllers gebaseerd op de Sil3132 te koop
pricewatch unsorted: DeLOCK SATA II PCI Express Card, 2 Port | 70137
Als ik de stappen die hier beschreven staan vergelijk met de stappen die nodig zijn om een device op passthrough te zetten dan schaf ik daar graag een extra kaartje voor aanFireDrunk schreef op woensdag 27 juli 2011 @ 15:18:
Dat bedoel ik niet.. je kan toch gewoon je SSD en disks allemaal onboard aansluiten en via RDM de disks aan de VM geven... Dus geen VT-d...
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
De handleiding is enger dan het daadwerkelijk is
Even niets...
Mijn pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB is nu ook binnen
Yup, er gaan gewoon normale SATA kabels injeanj schreef op woensdag 27 juli 2011 @ 20:01:
Ik wel graag nog weten of op die rode esata aansluitingen, gewone sata kabels passen, om 6 interne schijven aan te sluiten
[ Voor 11% gewijzigd door Priet op 28-07-2011 10:49 ]
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Misschien dat ik je zondagavond even zou kunnen helpen.
Even niets...
Die heb ik ook gebruikt en werkt echt als een zonnetjeFireDrunk schreef op donderdag 28 juli 2011 @ 10:42:
Hahaha, zal ik je anders een keer helpen, het is echt 2 minuten werk
De handleiding is enger dan het daadwerkelijk is
HP ProLiant N36L 1.30GHz 2-core 1P 1GB-U Int SATA Cold Plug SATA 250GB 200W PS EU MicroServer Kingston Valueram memory 8GB 1333MHz DDR3 ECC CL9 DIMM (Kit of 2) with Thermal Sensor
HD Caviar Green 2TB SATA III 7200rpm 64MB IntelliPower
Kingston Flash SSD 96GB SSDNow V-Series V+ SATA2
2.5" to 3.5" Brackets and Screws
Mijn bedoeling is om ESXi én de Virtuele machines op de SSD (single disk) te laten draaien
Voor data wil ik 2x 2TB in RAID 1 gaan draaien
Ga ik merken dat de Virtuele Machines op SSD draaien of kan ik net zo goed een normale HD hiervoor pakken? Edit: Ik lees dat ik beter een Intel postville kan pakken i.v.m. garbage collector?
[ Voor 14% gewijzigd door Hoicks op 28-07-2011 13:53 ]
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
RAID gaat niet werken in ESXi met deze server behalve als je een ondersteunde RAID kaart gebruikt.Hoicks schreef op donderdag 28 juli 2011 @ 13:02:
Op dit moment heb ik de volgende configuratie in gedachten:
HP ProLiant N36L 1.30GHz 2-core 1P 1GB-U Int SATA Cold Plug SATA 250GB 200W PS EU MicroServer Kingston Valueram memory 8GB 1333MHz DDR3 ECC CL9 DIMM (Kit of 2) with Thermal Sensor
HD Caviar Green 2TB SATA III 7200rpm 64MB IntelliPower
Kingston Flash SSD 96GB SSDNow V-Series V+ SATA2
2.5" to 3.5" Brackets and Screws
Mijn bedoeling is om ESXi én de Virtuele machines op de SSD (single disk) te laten draaien
Voor data wil ik 2x 2TB in RAID 1 gaan draaien
Ga ik merken dat de Virtuele Machines op SSD draaien of kan ik net zo goed een normale HD hiervoor pakken? Edit: Ik lees dat ik beter een Intel postville kan pakken i.v.m. garbage collector?
Het leven is als een medaille, het heeft een glimmende en een donkere kant.
Ik weet dat RAID niet gaat werken, daarom wil ik de datastores ook op de SSD zetten. Ik kan dan uiteindelijk wel de twee HD's die in RAID 1 staan aanspreken voor gewoon data?Mentox schreef op donderdag 28 juli 2011 @ 14:16:
[...]
RAID gaat niet werken in ESXi met deze server behalve als je een ondersteunde RAID kaart gebruikt.
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
Als ESXi ze ziet dan worden ze als twee aparte schijven gezien.Hoicks schreef op donderdag 28 juli 2011 @ 14:18:
[...]
Ik weet dat RAID niet gaat werken, daarom wil ik de datastores ook op de SSD zetten. Ik kan dan uiteindelijk wel de twee HD's die in RAID 1 staan aanspreken voor gewoon data?
Het leven is als een medaille, het heeft een glimmende en een donkere kant.
ESX op SSD is dus geen probleem. Het probleem zit hem dus in het feit dat de RAID1 set niet door ESXi kan worden geinterpreteerd en daardoor niet bruikbaar is.Mentox schreef op donderdag 28 juli 2011 @ 14:21:
[...]
Als ESXi ze ziet dan worden ze als twee aparte schijven gezien.
Hmm dat zou jammer zijn. Of ik zou geen RAID moeten gebruiken? Of een losse RAID Kaart aanschaffen. Ik neem daan dat single disken wel gewoon in ESXi te koppelen zijn?
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
Dat is geen enkel probleem, ik heb deze setup ook en de harde schijven zijn allemaal te benaderen.Hoicks schreef op donderdag 28 juli 2011 @ 14:23:
[...]
ESX op SSD is dus geen probleem. Het probleem zit hem dus in het feit dat de RAID1 set niet door ESXi kan worden geinterpreteerd en daardoor niet bruikbaar is.
Hmm dat zou jammer zijn. Of ik zou geen RAID moeten gebruiken? Of een losse RAID Kaart aanschaffen. Ik neem daan dat single disken wel gewoon in ESXi te koppelen zijn?
Het leven is als een medaille, het heeft een glimmende en een donkere kant.
Even niets...
Okay; dan krijg je dus de volgende setup:FireDrunk schreef op donderdag 28 juli 2011 @ 14:31:
Je kan wel de disks aan een VM geven die er weer RAID1 van maakt en via NFS benaderbaar maakt...
1x SSD voor ESXi met daarop 2 virtuele servers
2x HDD in single disk modus
1x Windows 2008 fileserver waarmee je de 2 single disken koppelt, softraid 1 van maakt en deze vervolgens via NFS shared?
1x Windows 2008 terminal server
Heb je dan nog wel de voordelen qua snelheid die je haalt en RAID1 safety als er 1 schijf klapt?
[ Voor 5% gewijzigd door Hoicks op 28-07-2011 14:35 ]
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
Maak op elke schijf een VMDK aan en onder Openfiler voeg je ze samen in RAID. Vervolgens maak je een iSCSI target met LUN. In ESXi gebruik je de iSCSI target als een nieuwe VMFS datastore.
En dan installeer je je VMs op deze datastore.
[ Voor 80% gewijzigd door Mentox op 28-07-2011 14:40 ]
Het leven is als een medaille, het heeft een glimmende en een donkere kant.
Windows snapt (bijna) geen NFS, en als het het al ondersteund is het houtje touwtje...
Ik zou voor Ubuntu gaan... (of OpenFiler inderdaad)
Even niets...
Aangezien ik tot op heden alleen gebruik heb gemaakt van HCL hardware voor ESX is deze thread voor thuis interessant
In elk geval wil ik af en toe thuis wel eens wat dingen uittesten en geen al te zware machine neer zetten. Daarom dacht ik aan de combi van HTCP + ESXi. Echter heb ik deze combinatie hier nog niet voorbij zien komen als ik het goed heb.
Ik kan voor de simpele oplossing gaan en dat is gewoon een HostOS + XBMC met op de achtergrond VMware Workstation draaien waarin ik virtuele ESXi-servers kan draaien. Prima combinatie ansich maar ik wil het flexibeler.
Waarom niet ESXi draaien op een SSD van 16/32GB (ESXi + swap guests). Ik maak een Guest met Windows 7 + XBMC aan en ik ben klaar
Als ik nu vanaf de Tech Support Mode een VNC cliënt sessie naar de HTPC guest maak heb ik beeld! Ik ben bang dat de performance van VNC te laag zal zijn voor 1080P. Heeft iemand ervaring met deze set-up? Op het internet heb ik wisselende verhalen gelezen namelijk.
Hardware matig heb ik genoeg aan een miniITX bordje + 8/16GB ram + kleine SSD 16/32GB + 2xHD in (software)RAID1 + HTPC kast en ik ben klaar, niet waar? Qua CPU ben ik daar nog niet helemaal uit, wellicht wachten op de nieuwe Ivy Bridge.
Ik dacht zelf aan de nieuwe Z68M-ITX/HT als basis.
Je enige opties zijn: VMware Workstation gebruiken op een Windows 7 host (2008 wil je niet ivm codec/driver en bepaalde architecturele verschillen op het gebied van multimedia drivers).
Of een VT-d compatible oplossing vinden en de gehele GPU aan een VM geven, maar dat schijnt niet altijd even goed te werken... Bovendien moet je nog maar hopen dat GPU acceleratie van video werkt via een met VT-d doorgezette GPU.
Even niets...
Verwijderd
sterkte kerelFireDrunk schreef op donderdag 28 juli 2011 @ 11:54:
Vant weekend ben ik erg afwezig, dus kan ik je niet helpen helaas ,vriending komt terug van vakantie
Ik heb/had dezelfde idee, maar passthrough met mijn GPU werkt nog niet. In m'n vorige post staat een linkje naar het VMware forum waar mensen het wel werkend hebben met hardware acceleratie.Pascal Saul schreef op donderdag 28 juli 2011 @ 16:29:
In elk geval wil ik af en toe thuis wel eens wat dingen uittesten en geen al te zware machine neer zetten. Daarom dacht ik aan de combi van HTCP + ESXi. Echter heb ik deze combinatie hier nog niet voorbij zien komen als ik het goed heb.
Onboard raid is zelden "hardware raid" maar vaak "fake raid". Zonder de juiste drivers zijn ze dan als losse disks zichtbaar.HyperBart schreef op donderdag 28 juli 2011 @ 18:18:
Kan je eigenlijk via de built-in RAID-capabiliteit van een moederbordje een RAID-set presenteren als datastore voor ESXi, ja toch? OK, performance-gewijs niet hetjedat omdat dat ding CPU gaat gebruik, maar als ik er nu 2 disks bijsteek en daar een RAID-volume van maak dan moet dat toch werken, right?
Mijn IBM ServerraidBr10i is binnen.
Controller: €29,42
Verzendkosten: €26,50
TNT inklaring: €26,40
Totaal: €82.32
Zoals beschreven zat er geen bracket bij. Was al van plan het vast te lijmen op een van de afdekbrackets, maar de schroefgat-afmetingen kwamen overeen met m'n overbodige Asrock SATA3 kaartje, dus die maar even overgezet.
Ingebouwd, passthrough geconfigureerd en toegewezen aan VM zonder problemen of foutmeldingen.
Firmware naar IT flashen was wat meer werk: De .bat bestanden van het upgradepakketje hadden wat problemen met de dos 8.3 bestandlengte. Na dat aangepast te hebben gaf sasflash de melding "Failed to initialize PAL". Dat geeft blijkbaar aan het het mobo te weinig optionrom heeft om te flashen. De controller dus snel in mijn desktop gezet en een paar minuten later stond de IT firmware erop.
Om HD's aan te sluiten moet ik alleen nog op de breakoutkabels wachten...
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Verwijderd
En idd ESXi moet wel over de juiste drivers voor dat mobo beschikken voor een raid anders ziet hij ze als losse disks en moet je een softraid maken met een VM.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G620 | € 56,70 | € 56,70 |
| 1 | Intel Gigabit CT Desktop Adapter | € 23,15 | € 23,15 |
| 2 | Western Digital Caviar Green WD30EZRX, 3TB | € 117,81 | € 235,62 |
| 1 | Western Digital Scorpio Blue, 320GB SATA-300, 8MB, 5400rpm | € 35,84 | € 35,84 |
| 1 | be quiet! Pure Power L7 300W | € 35,50 | € 35,50 |
| 2 | Kingston ValueRAM KVR1333D3N9K2/8G | € 37,75 | € 75,50 |
| 1 | Gigabyte GA-H67MA-UD2H-B3 (1.1) | € 76,90 | € 76,90 |
| Bekijk collectie Importeer producten | Totaal | € 539,21 | |
De 2 3TB schijven worden als RDM's aan een windows server gekoppeld, ik ben er van op de hoogte dat VMware hier niet mee overweg kan
De virtuele machines worden:
- Ubuntu server als webserver en spamfilter
- Windows SBS 2011 voor filesharing, mail en wat zich al niet voordoet (MSDN licentie)
- Een virtuele firewall
- Windows XP client als download computer
En dan hoop ik nog wat geheugen over te hebben om af en toe een testje te kunnen draaien.
Ongeloofelijk hoe snel dat gaat, nog geen anderhalf jaar geleden upgrade ik mijn PC naar 8GB geheugen en dat was toen echt gigantisch. Ik was me een beetje aan het uittellen hoeveel ik nu nodig had, als ik alleen al de requirements van SBS 2011 doorneem...
Performance van de Scorpio Blue zal niet denderend zijn maar ik maak me er ook niet zo'n zorgen over. De virtuele firewall zal niets op hd doen, de Ubuntu server weinig en de 2 windows machines moeten dan de performance maar delen. In mijn PC en laptop heb ik een SSD maar daar valt de performance me ook op. Heb wel een SSD overwogen voor de server maar de kosten/baten vind ik behoorlijk slecht uitvallen.
Image Builder
vSphere 5.0 introduces the VMware ESXi Image Builder. The Image Builder is a PowerShell CLI command set
that enables customers to customize their VMware ESXi images. With Image Builder, you can create VMware ESXi installation images with a customized set of updates, patches and drivers.
Virtual Machine Scalability and Added Device Support
In vSphere 5.0 it is now possible to run practically any workload inside a virtual machine. In addition to its
providing support for larger virtual machines, each virtual machine now supports additional capabilities and
devices not previously available, including the following:
• Up to 32 virtual CPUs (vCPUs) and up to 1TB of RAM
• Enhanced graphics capabilities, including 3D graphics support that enables a richer desktop experience
• Broader device coverage, including support for 3.0 USB devices, smart card readers and EFI BIOS
• New user interface support for configuring multicore vCPUs
• Support for new guest operating systems including Mac OS X Server v10.6 (“Snow Leopard”)
http://www.vmware.com/fil...-Technical-Whitepaper.pdf
vSphere 5.0 introduces a new version of vSphere VMFS (VMFS), VMFS-5, which contains many important
architectural changes that enable greater scalability and performance while reducing complexity. Although
numerous fundamental changes have been made, the following enhancements are significant from operational
and architectural aspects:
• 64TB device support
• Unified block size
• Improved subblock mechanism
Verwijderd
erg jammer dat de free versie absoluut niet meer bruikbaar is ivm mem limit .. en dat aanschaffen voor hobbie/studie onbetaalbaar is.. conclusie.. hello M$Pascal Saul schreef op donderdag 28 juli 2011 @ 19:43:
http://www.vmware.com/fil...-Technical-Whitepaper.pdf
Image Builder
vSphere 5.0 introduces the VMware ESXi Image Builder. The Image Builder is a PowerShell CLI command set
that enables customers to customize their VMware ESXi images. With Image Builder, you can create VMware ESXi installation images with a customized set of updates, patches and drivers.
Virtual Machine Scalability and Added Device Support
In vSphere 5.0 it is now possible to run practically any workload inside a virtual machine. In addition to its
providing support for larger virtual machines, each virtual machine now supports additional capabilities and
devices not previously available, including the following:
• Up to 32 virtual CPUs (vCPUs) and up to 1TB of RAM
• Enhanced graphics capabilities, including 3D graphics support that enables a richer desktop experience
• Broader device coverage, including support for 3.0 USB devices, smart card readers and EFI BIOS
• New user interface support for configuring multicore vCPUs
• Support for new guest operating systems including Mac OS X Server v10.6 (“Snow Leopard”)
http://www.vmware.com/fil...-Technical-Whitepaper.pdf
vSphere 5.0 introduces a new version of vSphere VMFS (VMFS), VMFS-5, which contains many important
architectural changes that enable greater scalability and performance while reducing complexity. Although
numerous fundamental changes have been made, the following enhancements are significant from operational
and architectural aspects:
• 64TB device support
• Unified block size
• Improved subblock mechanism
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Even niets...
Verwijderd
Even niets...
Ik dacht vanavond ook even een poging te wagen, maar na 2 minuten loop ik al vastFireDrunk schreef op donderdag 28 juli 2011 @ 10:42:
Hahaha, zal ik je anders een keer helpen, het is echt 2 minuten werk
De handleiding is enger dan het daadwerkelijk is
/vmfs/volumes/4e311d(...)4a0/RDMs # ls /dev/disks/ -l -rw------- 1 root root 2000398934016 Jul 29 11:30 t10.ATA_____SAMSUNG_HD204UI_________________________S2H7J9FB201184______ /vmfs/volumes/4e311d(...)4a0/RDMs # vmkfstools -z /vmfs/devices/disks/vm1.0100000000533248374a39464232303131383420202020202053414d53554e RDM1P.vmdk -a lsilogic Failed to create virtual disk: The destination file system does not support large files (12).
Een screenshot van m'n datastore:

Daar heb ik verder niks aan veranderd, dit is direct na de installatie.
Ehm... hoe nu verder?
/Edit: blijkbaar ligt het aan de block size van de datastore. Deze heb ik daarom verwijderd en opnieuw aangemaakt met een blocksize van 8MB. Maar de foutmelding blijft. Hmmm... misschien een reboot proberen?
/Edit2: Argh! Een reboot helpt ook niet
[ Voor 10% gewijzigd door Priet op 29-07-2011 21:05 ]
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Even niets...
Dit is dan het juiste commando:
vmkfstools -z /vmfs/devices/disks/vml.010000000053324(...)202020202053414d53554e /vmfs/volumes/datastore1/RDMs/RDM1P.vmdk -a lsilogic
De aan te maken .vmdk heeft een volledig path nodig.
Nu FreeNAS installeren en de disk performance testen...
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Even niets...
Ik heb nu de vier SATA schijven via Physical RDM aan FreeNAS gegeven en daar een RAIDZ1 pool gemaakt. Vervolgens heb ik de machine uitgezet en de SSD met daarop ESXi uit het systeem gehaald. Daarna heb ik een USB stick erin gestopt en hierop FreeNAS geïnstalleerd. En tada: via een eenvoudige 'zpool import -f volume1' is de volledige pool weer in FreeNAS beschikbaar inclusief bestanden
Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking. Zijn dit waardes die je mag verwachten? De schrijfsnelheden vallen me eerlijk gezegd wat tegen. Gebruiker PRDM de VT-d extensies van de processor/mobo?
Als ik volgende week dat DeLOCK kaartje binnen heb wil ik eigenlijk nog eens testen om de volledige controller via passthrough door te geven. Zou dat de snelheden mogelijk verhogen?
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Verwijderd
voor wat het waard is natuurlijk .. toevallig gisteren mee zitten prutsen :Priet schreef op zondag 31 juli 2011 @ 13:46:
Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking.

ESX4.1 / FreeNAS 8 / sasuc8i in passthrough - 8 disk 2TB RZ2 / 16 GB ECC / freenasVM & ESXi op een OCZ SSD 60GB / xeon3440 / intel pro/1000 adapter / supermicroX8SIL-F / freenasVM 12 GB ram
[ Voor 5% gewijzigd door Verwijderd op 31-07-2011 14:26 ]
Ik heb een i5 2500, 6GB ram naar FreeNas en 4x 2TB in de RAIDZ1 staan. Ik haal dezelfde snelheden. Maar die lijken wel afhankelijk van de stand van de maan. Nu haal ik bijvoorbeeld maar 15 MB/s write en 19MB/s read......Priet schreef op zondag 31 juli 2011 @ 13:46:
Maakt dat nog (veel) verschil? Ik heb de tutorial letterlijk gevolgd, in sommige gevallen (zoals deze) had ik geen flauw idee wat of waarom...
Ik heb nu de vier SATA schijven via Physical RDM aan FreeNAS gegeven en daar een RAIDZ1 pool gemaakt. Vervolgens heb ik de machine uitgezet en de SSD met daarop ESXi uit het systeem gehaald. Daarna heb ik een USB stick erin gestopt en hierop FreeNAS geïnstalleerd. En tada: via een eenvoudige 'zpool import -f volume1' is de volledige pool weer in FreeNAS beschikbaar inclusief bestandenDat is toch leuk om te weten als ESXi (of de SSD) het laat afweten
Een snelle test laat zien dat de snelheden via samba liggen op ongeveer 70MB/s lezen en 30MB/s schrijven. Machine is een Intel Core i5 2400 en FreeNAS heeft 8 GB (van de 16GB) tot zijn beschikking. Zijn dit waardes die je mag verwachten? De schrijfsnelheden vallen me eerlijk gezegd wat tegen. Gebruiker PRDM de VT-d extensies van de processor/mobo?
Als ik volgende week dat DeLOCK kaartje binnen heb wil ik eigenlijk nog eens testen om de volledige controller via passthrough door te geven. Zou dat de snelheden mogelijk verhogen?
Hier gebeuren ook rare dingen met de snelheden: ik heb nu FreeNAS zonder ESXi draaien (vanaf USB stick) maar nu zijn de snelheden omgedraaid: 70MB/s schrijven, 30-40MB lezen
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Verwijderd
snelheid hangt van meerdere factoren af, al heb je nog zo'n snelle processor, als je een rotte netwerkkabel gebruikt.. bij wijze van.Priet schreef op zondag 31 juli 2011 @ 15:13:
@borroz: dat zijn mooie snelhedenMaar is RaidZ2 niet flink sneller dan RaidZ1?
Hier gebeuren ook rare dingen met de snelheden: ik heb nu FreeNAS zonder ESXi draaien (vanaf USB stick) maar nu zijn de snelheden omgedraaid: 70MB/s schrijven, 30-40MB lezen
als je toch bezig ben..probeer dit eens : http://www.napp-it.org/doc/downloads/all-in-one.pdf
Even niets...
Ik heb nu nog een test gedraaid en het schrijven gaat nu beduidend sneller: het kopiëren vanaf de PC naar de NAS gaat nu met strak 102MB/s. Waarschijnlijk zal de gigabit verbinding de bottleneck zijn.
Lezen (vanaf NAS naar PC) schommelt rond de 40MB/s met uitschieters naar 50. Daar valt vast nog wel iets aan te tweaken?
Dit alles is nog even zonder ESXi. Die zal ik na de snelheidstesten weer aanzetten. Ben benieuwd wat het verschil in snelheid zal zijn.
[ Voor 4% gewijzigd door Priet op 31-07-2011 17:20 ]
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Grootste voordeel boven FreeNAS: de ACL kun je direct vanuit Windows beheren en, nog beter: ZFS snapshots zijn onder Windows als 'Vorige versies' te benaderen
write 10.24 GB via dd, please wait... time dd if=/dev/zero of=/mypool/dd.tst bs=1024000 count=10000 10000+0 records in 10000+0 records out real 33.1 user 0.0 sys 3.7 10.24 GB in 33.1s = 309.37 MB/s Write read 10.24 GB via dd, please wait... time dd if=/mypool/dd.tst of=/dev/null bs=1024000 10000+0 records in 10000+0 records out real 30.7 user 0.0 sys 1.9 10.24 GB in 30.7s = 333.55 MB/s Read
Dat is met 4 schijven in RAIDZ.Via samba gaf 70MB/s schrijven en 50MB/s lezen.
Over die schijven gesproken
pool: mypool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: none requested
config:
NAME STATE READ WRITE CKSUM
mypool DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 8
c2t1d0 DEGRADED 0 0 0 too many errors
c2t2d0 DEGRADED 0 0 0 too many errors
c2t3d0 DEGRADED 0 0 0 too many errors
c2t4d0 DEGRADED 0 0 0 too many errors
errors: Permanent errors have been detected in the following files:
/mypool/data/GRMCULXFRER_EN_DVD.ISOZijn mijn schijven niet goed? Is het een verkeerde instelling in ESXi? Dit kan toch niet zomaar gebeuren?
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Verwijderd
laat hem is even draaien.. kan een bad sector probleem zijn, ZFS is 'self healing' en probeer later nogmaals die speed/samba test .. of er ligt echt 1 disk uit, kan ook natuurlijkPriet schreef op maandag 01 augustus 2011 @ 20:01:
Ik heb OpenIndiana Server en Napp-it geïnstalleerd onder ESXi 4.1. Dat gaat snel en makkelijk, geen centje pijn.
Grootste voordeel boven FreeNAS: de ACL kun je direct vanuit Windows beheren en, nog beter: ZFS snapshots zijn onder Windows als 'Vorige versies' te benaderen![]()
write 10.24 GB via dd, please wait... time dd if=/dev/zero of=/mypool/dd.tst bs=1024000 count=10000 10000+0 records in 10000+0 records out real 33.1 user 0.0 sys 3.7 10.24 GB in 33.1s = 309.37 MB/s Write read 10.24 GB via dd, please wait... time dd if=/mypool/dd.tst of=/dev/null bs=1024000 10000+0 records in 10000+0 records out real 30.7 user 0.0 sys 1.9 10.24 GB in 30.7s = 333.55 MB/s Read
Dat is met 4 schijven in RAIDZ.Via samba gaf 70MB/s schrijven en 50MB/s lezen.
Over die schijven gesprokenTijdens het wegschrijven en kopiëren van bestanden via samba kreeg ik opeens een IO error van Windows te zien. In de console spuugde OpenIndiana foutmeldingen uit over schijffouten. De pool is nu degraded:
pool: mypool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scan: none requested config: NAME STATE READ WRITE CKSUM mypool DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 8 c2t1d0 DEGRADED 0 0 0 too many errors c2t2d0 DEGRADED 0 0 0 too many errors c2t3d0 DEGRADED 0 0 0 too many errors c2t4d0 DEGRADED 0 0 0 too many errors errors: Permanent errors have been detected in the following files: /mypool/data/GRMCULXFRER_EN_DVD.ISO
Zijn mijn schijven niet goed? Is het een verkeerde instelling in ESXi? Dit kan toch niet zomaar gebeuren?
sleepy had gisteren een vergelijkbaar probleem dat zich later 'vanzelf' oploste
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Verwijderd
ik heb de OI151gui VM 12 GB ram gegeven en eea staat op een vDisk van 20 GB.Priet schreef op maandag 01 augustus 2011 @ 21:09:
Toch ben ik er niet gerust op. Dit is gloednieuwe hardware en de SMART info geeft nu al read errors aan. Het geheugen zal ik ook meteen testen, al loopt memtest86 (+ en de normale) direct vast16GB is misschien wat veel voor die programma's
wat dat betreft is dit wetenswaardig
aan je benchmark is wel te zien dat die 'degraded is.
[ Voor 15% gewijzigd door Verwijderd op 01-08-2011 22:14 ]
Met tests welke direct in de cache van mijn RAID controller draaiden, via een VMFS volume, haal ik net zo goed 1600MB/sec binnen of buiten een VM. Het maximale wat de betreffende controller aan kan.
Wat belangrijk is bij configuratie van je VM is dat je of de paravirtual SCSI adapter gebruikt of RDM of passthrough voor je SCSI kaart. Waarbij paravirtual en passthrough het meeste aan te raden is, RDM is een beetje brak mechanisme nog steeds.
Er zijn vele tests te vinden welke de vertraging van VMFS tegenover direct hardware testen en het verschil hierbij is maximaal 5% van wat ik me herinner. Mits paravirtual gebruikt word, de LSI adapters kosten veel meer performance.
Verder moet je voor je netwerk kaart ten alle tijden wanneer mogelijk de VMXnet 3 adapter gebruiken. Niet de e1000.
Voor beide storage en netwerk geld dat de standaard LSI kaart en e1000 software emulaties zijn en dat de paravirtual en VMXnet 3 via de hardware bediend worden (cpu extensies, etc.). Dit maakt ze vele vele malen sneller.
Zelf heb ik vele tests gedaan (thuis en op lanparties) en weinig tot geen performance belemmeringen bemerkt met de nieuwere VMware's. 300MB/sec tot 400MB/sec was prima haalbaar binnen een VM middels de paravirtual en VMXnet 3 drivers.
LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.
Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien dit vooral afhankelijk is van de implementatie daarvan. Windows 2008 R2 --> Windows 7 = 110MB/sec, altijd, als je storage dat trekt. Maar dat haalt 1 disk tegenwoordig wel met grote file.
Overigens is dat te danken aan SMB2. Win2k3 -> Win XP = Max 60MB/sec en vaak maar 30MB/sec.... maar dat is inmiddels ook echt oud.
Overigens heb ik ESTool van Samsung aangeslingerd om de schijven op fouten te testen. De full surface scan zit na één uur op 10%, die is dus nog wel even bezig. En dan dan de overige drie schijven nog...
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Verwijderd
4 NIC's in een trunk .. lekker 'huis tuin en keuken'Quindor schreef op maandag 01 augustus 2011 @ 22:51:
- LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.
- Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien ...
LSI + e1000 draait hier op 92 mb/s maar idd de VMXnet3 adapter is sneller.. ben um alleen na herinstallatie ESXi/VM's even 'kwijt' .
€200,= per stuk is te doen:TrailBlazer schreef op maandag 01 augustus 2011 @ 22:33:
Nu ik mijn nas aan de praat heb wil ik weer verder gaan met mijn Esxi testcluster. Ik zit nu te denken om twee keer een celeron e3400 te kopen en een msi moederbord waar ik 8 gb geheugen in kan proppen. Het gaat me niet om het draaien van prduktie vms enkel voor het spelen met vmware. Als ik zo snel kijk moet ik voor 200 euro klaar zijn per server.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i3 2100 | € 88,10 | € 88,10 |
| 1 | Kingston ValueRAM KVR1066D3N7K2/8G | € 37,99 | € 37,99 |
| 1 | Intel Desktop Board DH61WWB3 | € 52,29 | € 52,29 |
| Bekijk collectie Importeer producten | Totaal | € 178,38 | |
De NIC op t bordje doet het met een uit de doos esxi niet, maar dat zal te verhelpen zijn met een aangepaste oem.tgz (vm-help.com is je vriend).
En anders ga je voor dit moederbordje, wederom oem.tgz aanpassen voor de nic ondersteuning, maar dit is goed beschreven.
| # | Product | Prijs | Subtotaal |
| 1 | Asus P8H61 PLUS (B3) | € 54,99 | € 54,99 |
| Bekijk collectie Importeer producten | Totaal | € 54,99 | |
[ Voor 21% gewijzigd door Pantagruel op 02-08-2011 09:57 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
RDM is niet brak, het is anders... In theorie is het net zo snel als paravirtual, omdat de ATA commando's direct doorgegeven worden.Quindor schreef op maandag 01 augustus 2011 @ 22:51:
Eventjes als opmerking tussendoor naar alle mensen welke met SMB/CIFS aan het testen zijn, je VM is hoe dan ook je vertraging niet. Althans, zo lang je in ieder geval enige config zaken goed regelt, maar toch.
Met tests welke direct in de cache van mijn RAID controller draaiden, via een VMFS volume, haal ik net zo goed 1600MB/sec binnen of buiten een VM. Het maximale wat de betreffende controller aan kan.
Wat belangrijk is bij configuratie van je VM is dat je of de paravirtual SCSI adapter gebruikt of RDM of passthrough voor je SCSI kaart. Waarbij paravirtual en passthrough het meeste aan te raden is, RDM is een beetje brak mechanisme nog steeds.
Wat is veel? Heb je hier een bron van? De performance zal wel lager zijn, maar dat komt vooral omdat je meer CPU verbruikt.Er zijn vele tests te vinden welke de vertraging van VMFS tegenover direct hardware testen en het verschil hierbij is maximaal 5% van wat ik me herinner. Mits paravirtual gebruikt word, de LSI adapters kosten veel meer performance.
Agreed, maar veel FreeBSD gebaseerde distro's ondersteunen nog geen VMXNET3.Verder moet je voor je netwerk kaart ten alle tijden wanneer mogelijk de VMXnet 3 adapter gebruiken. Niet de e1000.
Klopt als een bus.Voor beide storage en netwerk geld dat de standaard LSI kaart en e1000 software emulaties zijn en dat de paravirtual en VMXnet 3 via de hardware bediend worden (cpu extensies, etc.). Dit maakt ze vele vele malen sneller.
Das ook niet gek, de e1000 controller is maar een gigabit controller...Zelf heb ik vele tests gedaan (thuis en op lanparties) en weinig tot geen performance belemmeringen bemerkt met de nieuwere VMware's. 300MB/sec tot 400MB/sec was prima haalbaar binnen een VM middels de paravirtual en VMXnet 3 drivers.
Dat is dan alleen bij jou zo, wij gebruiken hier op het werk nog vaak zat LSI Logic + e1000 (of zelfs AMD PCnet voor de guru's) en dat werkt prima, daar halen wij hier ook gewoon 100MB/s mee over CIFS/SMB.LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.
De beperkende factor is VEEL vaker de SMB server.
Wat is jou definitie van realistisch? Dat je zo hoog mogelijke 'theoretische' snelheden haalt?Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien dit vooral afhankelijk is van de implementatie daarvan. Windows 2008 R2 --> Windows 7 = 110MB/sec, altijd, als je storage dat trekt. Maar dat haalt 1 disk tegenwoordig wel met grote file.
Feit blijft dat 90% van de tweakers hier Windows 7 draait en SMB tests tussen OI en Win7 dus juist WEL realistisch zijn...
Ook hier geld weer voor, het is afhankelijk van de SMB server... Zelfs een Windows 2003 SMB server kan je snel maken met wat tuning...Overigens is dat te danken aan SMB2. Win2k3 -> Win XP = Max 60MB/sec en vaak maar 30MB/sec.... maar dat is inmiddels ook echt oud.In linux samba moet je het vaak apart aanzetten (SMB2).
Realistisch testen is het moeilijkste wat er is. Elke implementatie op elke hardware is anders, en is nooit te vergelijken met anderen.
Belangrijk is wel dat je bijvoorbeeld niet verwacht dat een paravirtual controller op een realtek chipje goed gaat performen onder ESXi. Dan heb je de verkeerde verwachtingen.
Wel kan je er redelijkerwijs vanuit gaan dat een echte Intel PRO controller 110MB/s haalt als je VMXNET3 gebruikt.
Even niets...
is er nog veel verschil tussen die i3 en de celeron e3200Pantagruel schreef op dinsdag 02 augustus 2011 @ 09:41:
[...]
€200,= per stuk is te doen:
# Product Prijs Subtotaal 1 Intel Core i3 2100 € 88,10 € 88,10 1 Kingston ValueRAM KVR1066D3N7K2/8G € 37,99 € 37,99 1 Intel Desktop Board DH61WWB3 € 52,29 € 52,29 Bekijk collectie
Importeer productenTotaal € 178,38
De NIC op t bordje doet het met een uit de doos esxi niet, maar dat zal te verhelpen zijn met een aangepaste oem.tgz (vm-help.com is je vriend).
En anders ga je voor dit moederbordje, wederom oem.tgz aanpassen voor de nic ondersteuning, maar dit is goed beschreven.
# Product Prijs Subtotaal 1 Asus P8H61 PLUS (B3) € 54,99 € 54,99 Bekijk collectie
Importeer productenTotaal € 54,99
Daartussenin zit nog de G620.
[ Voor 10% gewijzigd door FireDrunk op 02-08-2011 15:07 ]
Even niets...
Socket 775 moederborden zijn schaars aan het worden en de esxi ondersteuning is ook niet briljant (de p5n7a-vm in mijn .sig staat wel in de 'ultimate white box' lijst. Bij het gros van de vermelde s775 bordjes loop je er ook tegenaan dat de onboard NIC niet werkt en je een insteek kaart zult moeten plaatsen. De kans dat daar iemand een oem.tgz voor gaat prutsen is min of meer uitgesloten. Je zet dus in op verouderde techniek (socket 775 en DDR2) die je ook nog circa €150,= a €175,= gaat kosten.FireDrunk schreef op dinsdag 02 augustus 2011 @ 15:07:
3.1Ghz vs 2.4Ghz, i3 heeft meer cache en een GPU.
Daartussenin zit nog de G620.
Een i3 setup is in vergelijking marginaal duurder, maar wel sneller wat nooit slecht is voor esxi.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Ik wil er minimaal 2 servers op draaien (2x Windows 2008 R2, waarvan 1DC en 1 Terminal Server.
Nu ben ik me aan het inlezen op ESX en zie ik dat er ook ESX5 is. Deze ondersteunt echter maximaal configuraties per hypervisor van 8GB. (De gratis versie althans).
Ik vraag mij af of ESX5 beter geoptimaliseerd is voor SSD's en ik derhalve beter voor deze hypervisor kan kiezen t.o.v. ESXi 4.1 die wel meer geheugen per hypervisor ondersteunt. Kan iemand mij hier iets meer over vertellen?
(De Proliant Microserver ondersteunt toch niet meer dan 8GB dus dat hoeft de keuze niet te beperken).
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
Even niets...
Kan zelfs op de website van VMware weinig info vinden.
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
Nikon D7200 & D5000 / SB-700, 2x Yongnuo YN-560 III / Sigma EX 10-20 f4-f5.6 HSM, Sigma EX 17-50mm f2.8 OS HSM, EX 70-200mm f2.8 HSM II Macro / EX 105 f2.8 HSM OS Macro / Nikon AF-S DX 35mm f1.8 / Sigma EX DC 30mm f1.4 HSM
http://derek858.blogspot....e-vsphere-50-license.html
TBC deze week...
Verwijderd
( kijken we FF niet naar 'hollands glorie' TomTom )
[ Voor 28% gewijzigd door Verwijderd op 03-08-2011 13:18 ]
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Even niets...
Verwijderd
iemand een idee ..heb alle nics al geprobeerd en de datastore staat op andere ssd dan ESXi ?
Verwijderd
bedenk me ineens dat toen het nog wel werkte ik die 4.1.1 update eroverheen had gegooid
[ Voor 20% gewijzigd door Verwijderd op 03-08-2011 15:32 ]
Even niets...
Verwijderd
genoeg toch
• 1MB block size – 256GB maximum file size
• 2MB block size – 512GB maximum file size
• 4MB block size – 1024GB maximum file size
• 8MB block size – 2048GB maximum file size
Even niets...
Verwijderd
probleem is dat mijn client win 7 64 bits is.. schijnt niet lekker te werkenFireDrunk schreef op woensdag 03 augustus 2011 @ 16:22:
Mjah, zou moeten werken idd... WinSCP al eens geprobeerd?
Even niets...
Verwijderd
he grappig.. welke versie ?? (434 werkt hier niet)FireDrunk schreef op woensdag 03 augustus 2011 @ 16:33:
Werkt hier anders prima... vaak zat gedaan... (ook W7x64)
Wat werkt er precies niet?
Even niets...
Verwijderd
wel een k*t snelheid dus iets zit/gaat er niet goed.
aan de client kant is firewall ect. uit.
er staat verder nog geen VM geinstalled.. voorheen had ik een ubuntu VM met vmxnet 3
die zal ik eerst weer is installen.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
