Owk dat is inderdaad ook wel handig om even te weten. Ik heb idd ECC geheugen. Non ECC werkt niet met dit moederbord.
Heb op basis van de nieuwe generatie Xeon's een ESXi server samengesteld. De CPU is gisteren door Intel geintroduceerd dus ik kan nog geen euro prijs achterhalen.
Mijn idee is om de VM's op de SSD te plaatsen en de storage via de 4 Hitachi's te laten lopen. Heb bewust gekozen om geen RAID toe te passen of een andere vorm van softraid (zfs). Ik maak met een Qnap dagelijks backup's van deze server dus de data heb ik veilig gesteld. Het is alleen even jammer als er een disk crasht, dan ben ik wat meer tijd kwijt om het weer te restoren.
Volgens mij is al deze hardware supported door ESXi dus dat zou geen problemen moeten opleveren. Het Supermicro bord beschikt over 4x Intel 82574L gigabit NIC's, dat is wel lekker. Verder zit er ook IPMI/iKVM op. Nadeel is dat er het duurdere UDIMM ECC in moet.
De nieuwe Xeon ivy bridge is een low-voltage model. Het TDP is 45 watt.
De Hitachi's heb ik gekozen omdat deze vrij zuinig zijn (4,5 watt idle) en omdat ik graag 3TB disken wil gebruiken gezien het bord over 6 sata aansluitingen beschikt. De Samsung SSD is vrij groot maar dit doe ik omdat ik dan niet met ruimte gebrek kom te zitten voor de VM's. Een doorsnee Win2k8 R2 VM pakt al snel 20 - 40GB.
Mijn idee is om de VM's op de SSD te plaatsen en de storage via de 4 Hitachi's te laten lopen. Heb bewust gekozen om geen RAID toe te passen of een andere vorm van softraid (zfs). Ik maak met een Qnap dagelijks backup's van deze server dus de data heb ik veilig gesteld. Het is alleen even jammer als er een disk crasht, dan ben ik wat meer tijd kwijt om het weer te restoren.
Volgens mij is al deze hardware supported door ESXi dus dat zou geen problemen moeten opleveren. Het Supermicro bord beschikt over 4x Intel 82574L gigabit NIC's, dat is wel lekker. Verder zit er ook IPMI/iKVM op. Nadeel is dat er het duurdere UDIMM ECC in moet.
De nieuwe Xeon ivy bridge is een low-voltage model. Het TDP is 45 watt.
De Hitachi's heb ik gekozen omdat deze vrij zuinig zijn (4,5 watt idle) en omdat ik graag 3TB disken wil gebruiken gezien het bord over 6 sata aansluitingen beschikt. De Samsung SSD is vrij groot maar dit doe ik omdat ik dan niet met ruimte gebrek kom te zitten voor de VM's. Een doorsnee Win2k8 R2 VM pakt al snel 20 - 40GB.
# | Product | Prijs | Subtotaal |
4 | Hitachi Deskstar 5K3000, 3TB | € 162,45 | € 649,80 |
4 | Kingston KVR1333D3E9S/8G | € 84,80 | € 339,20 |
1 | Samsung 830 series Desktop Upgrade Kit 512GB | € 529,45 | € 529,45 |
1 | Supermicro X9SCI-LN4F | € 224,91 | € 224,91 |
1 | Intel Xeon E3-1265L v2 | € n.n.b. | € n.n.b. |
Bekijk collectie Importeer producten | Totaal | € 1.743,36 |
[ Voor 6% gewijzigd door C00KW4US op 15-05-2012 15:21 ]
Mooi machientje en goed onderbouwde keuzes! Chapeau!
Even niets...
Wat als je SSD datastore crasht?
Any job you can do in your pajamas is not the hardest job in the world.
Die kan hij toch ook backuppen naar zijn QNAP?
Even niets...
Ja dat kan natuurlijk ook
Ik nam aan dat die qnap was voor die dataschijven in die bak, my bad.
Daar op doorgaand, hoe kan je wel met ssd's je datastore redundant maken? RAID1 op je moederboard?
Daar op doorgaand, hoe kan je wel met ssd's je datastore redundant maken? RAID1 op je moederboard?
Any job you can do in your pajamas is not the hardest job in the world.
TrueFireDrunk schreef op dinsdag 15 mei 2012 @ 15:49:
Die kan hij toch ook backuppen naar zijn QNAP?
De voorloper (E3-1260L) had eenzelfde TDP maar deze nieuwe (1265L v2) zou tot 39% meer per watt moeten kunnen doen. Als ik echter op ark.intel.com naar de specs kijk valt me op dat de 1260L nog aan ECC doet maar de 1265L juist niet meer. Aangezien die site niet altijd de juiste data bevat is dat wel even een puntje om na te kijken. Voor de rest zijn de verschillen minimaal waardoor de 1260L wellicht nog wel een goed alternatief kan zijn als die 1265L te duur/te lastig te vinden wordt. Qua prijs zag ik bij Intel hetzelfde moet kosten als de 1260L (wat nu wel anders zal zijn).C00KW4US schreef op dinsdag 15 mei 2012 @ 15:15:
De nieuwe Xeon ivy bridge is een low-voltage model. Het TDP is 45 watt.
Wel jammer dat er maar 1 PCI-e 3.0 slot op zit maar die is dan weer wel x16. Dat maakt passthrough van een highend videokaart een stuk eenvoudiger.
Scherp! Dit was me niet opgevallen. Vreemd dat ze een Xeon hebben die geen ECC support. Dat wordt dus een andere Xeon uitzoeken omdat het me ook niet duidelijk is of non-ECC geheugen supported is op de Intel C20x chipset.ppl schreef op dinsdag 15 mei 2012 @ 23:09:
[...]
Als ik echter op ark.intel.com naar de specs kijk valt me op dat de 1260L nog aan ECC doet maar de 1265L juist niet meer.
Ondertussen ook maar mijn 4 x 80 GB via vmksftools -z en met 4 gemaakte VMDK's maar mooi doorgegeven aan een OpenIndiana VM met napp-it... Napp-it vind ik niet zo leuk om mee te werken, rommelige en trage interface, maar het doet wat het moet...
Binnenkort eens doorgeven per NFS aan mijn ESXi...
Performance testen lopen niet goed, in die zin dat ik nog geen resultaten terugkrijg, meer daarover in: HyperBart in "Het grote ZFS topic"
Binnenkort eens doorgeven per NFS aan mijn ESXi...
Performance testen lopen niet goed, in die zin dat ik nog geen resultaten terugkrijg, meer daarover in: HyperBart in "Het grote ZFS topic"
Een Xeon zonder ECC, is als een nerd zonder [random technisch artikel].
Ik kan me dat heel slecht voorstellen, maar misschien moet 1 keer de eerste keer zijn.
Ik kan me dat heel slecht voorstellen, maar misschien moet 1 keer de eerste keer zijn.
Even niets...
Bwah... Ik ben wat rond aan het kijken naar een ECC UDIMM upgrade. Kingston ValueRAM KVR1333D3E9SK2/8G is al wat in prijs gezakt, maar de 8GB modules zijn nog steeds nauwelijks verkrijgbaar en in verhouding ruim twee keer zo duur. Dat wordt dus toch maar een 2x4GB upgrade naar maximaal 16GB en dan een HDD erbij als tweede datastore naast de kleine SSD.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Tja, die 1260L en die 1265L zijn ook de enige Xeons met een ingebouwde gpu. Ik verwacht zelf dat het een foutje op de website is. Die Xeons worden toch vaak op moederbordjes gestopt met server chipsets zoals de C204 en die vereisen ECC waardoor een Xeon die niet aan ECC doet ook vrij onwaarschijnlijk is. Althans dat denk ik.FireDrunk schreef op woensdag 16 mei 2012 @ 10:04:
Een Xeon zonder ECC, is als een nerd zonder [random technisch artikel].
Ik kan me dat heel slecht voorstellen, maar misschien moet 1 keer de eerste keer zijn.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Dat is niet waar. De Xeon E3-1225, E3-1235, E3-1245, E3-1275, E3-1225 v2, E3-1245 v2 en E3-1275 v2 hebben allemaal een GPU.ppl schreef op woensdag 16 mei 2012 @ 21:17:
[...]
Tja, die 1260L en die 1265L zijn ook de enige Xeons met een ingebouwde gpu.
Wat als je storage controller corupte data wegschrijft ?Rooke schreef op dinsdag 15 mei 2012 @ 15:48:
Wat als je SSD datastore crasht?
Duct tape can't fix stupid, but it can muffle the sound.
Ah dan hebben ze dat ook gelijk aangepast met de introductie van Ivy Bridge. In de vorige serie was alleen de 1260L dat.C00KW4US schreef op donderdag 17 mei 2012 @ 20:48:
[...]
Dat is niet waar. De Xeon E3-1225, E3-1235, E3-1245, E3-1275, E3-1225 v2, E3-1245 v2 en E3-1275 v2 hebben allemaal een GPU.
Alle versies die eindigen met een 5 hebben een GPU, de anderen niet. Is zowel bij Ivy Bridge als bij Sandy Bridge het geval als ik mij goed herinner. De V2 is de Ivy-generatie, de niet-V2 de Sandy.ppl schreef op vrijdag 18 mei 2012 @ 01:05:
[...]
Ah dan hebben ze dat ook gelijk aangepast met de introductie van Ivy Bridge. In de vorige serie was alleen de 1260L dat.
Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]
Dat was het plan ja, blijkbaar heeft niet iedereen bij Intel die memo gekregen.thof schreef op vrijdag 18 mei 2012 @ 18:50:
Alle versies die eindigen met een 5 hebben een GPU, de anderen niet.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Vandaag eindelijk de bestelling de deur uit gedaan... 
Wist heel lang niet of ik nu zelf iets wilde bouwen of toch voor een standaard NAS zou gaan.
Tot ik afgelopen woensdag een oud-collega tegen het lijf liep op een huwelijksfeest van vrienden, waar een feest al niet goed voor is...
Mede n.a.v. zijn ervaringen mijn wensenlijstjes compleet overboord gegooid en het is het volgende geworden:
De NAS:
De host:
De host (ESX 5) zal in ieder geval de volgende VM's gaan hosten:
- vCenter
- DC/Exchange
- SQL2008/12 + TFS
Volgens mij kan ik hier wel even mee vooruit....
EJ Thanks!
Wist heel lang niet of ik nu zelf iets wilde bouwen of toch voor een standaard NAS zou gaan.
Tot ik afgelopen woensdag een oud-collega tegen het lijf liep op een huwelijksfeest van vrienden, waar een feest al niet goed voor is...
Mede n.a.v. zijn ervaringen mijn wensenlijstjes compleet overboord gegooid en het is het volgende geworden:
De NAS:
# | Product | Prijs | Subtotaal |
4 | Western Digital Caviar Green WD20EARX, 2TB | € 102,- | € 408,- |
1 | Thecus N4200ECO | € 309,- | € 309,- |
Bekijk collectie Importeer producten | Totaal | € 717,- |
De host:
# | Product | Prijs | Subtotaal |
1 | HP NC382T PCI Express Dual Port Multifunction Gigabit Server Adapter | € 90,85 | € 90,85 |
1 | Asus ASUS BB V7-P877E LGA1155 (V7-P8H77E) | € 156,87 | € 156,87 |
1 | Intel Core i5 3550 Boxed | € 182,03 | € 182,03 |
2 | Corsair Vengeance CMZ8GX3M1A1600C10 | € 54,- | € 108,- |
Bekijk collectie Importeer producten | Totaal | € 537,75 |
De host (ESX 5) zal in ieder geval de volgende VM's gaan hosten:
- vCenter
- DC/Exchange
- SQL2008/12 + TFS
Volgens mij kan ik hier wel even mee vooruit....
EJ Thanks!
Ben ook nog aan het orienteren of ik voor mn nieuwe thuis project ga voor een dedicated nas[qnap/thecus] of een nas in VM vorm. (beetje wat SaturN hierboven beschreef)HeSitated schreef op zaterdag 19 mei 2012 @ 11:46:
Vandaag eindelijk de bestelling de deur uit gedaan...
Wist heel lang niet of ik nu zelf iets wilde bouwen of toch voor een standaard NAS zou gaan.
Tot ik afgelopen woensdag een oud-collega tegen het lijf liep op een huwelijksfeest van vrienden, waar een feest al niet goed voor is...
Mede n.a.v. zijn ervaringen mijn wensenlijstjes compleet overboord gegooid en het is het volgende geworden:
De NAS:
# Product Prijs Subtotaal 4 Western Digital Caviar Green WD20EARX, 2TB € 102,- € 408,- 1 Thecus N4200ECO € 309,- € 309,- Bekijk collectie
Importeer productenTotaal € 717,-
De host:
# Product Prijs Subtotaal 1 HP NC382T PCI Express Dual Port Multifunction Gigabit Server Adapter € 90,85 € 90,85 1 Asus ASUS BB V7-P877E LGA1155 (V7-P8H77E) € 156,87 € 156,87 1 Intel Core i5 3550 Boxed € 182,03 € 182,03 2 Corsair Vengeance CMZ8GX3M1A1600C10 € 54,- € 108,- Bekijk collectie
Importeer productenTotaal € 537,75
De host (ESX 5) zal in ieder geval de volgende VM's gaan hosten:
- vCenter
- DC/Exchange
- SQL2008/12 + TFS
- Hoe ga je de storage in die thecus verdelen..? (alle disken los aanbieden via NFS, in RAID vorm opzetten op de thecus en dan als vmfs aanbieden aan je esxi machine etc..?)
- Wordt de thecus dedicated voor VMWare of ga je 'm ook nog "los" gebruiken..?
Member of the Ukraine IT Army
Dit topic gaat toch over ESXi? Of mis ik nu wat?ppl schreef op donderdag 17 mei 2012 @ 16:15:
Compatibiliteit met wat?
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Toen ik het zag draaien bij mijn oud-collega, was ik meteen overtuigd.NIK0 schreef op zaterdag 19 mei 2012 @ 16:09:
Ben ook nog aan het orienteren of ik voor mn nieuwe thuis project ga voor een dedicated nas of een nas in VM vorm.
Vooral ik de Thecus daadwerkelijk in gebruik ga nemen, ga ik eerst de diverse opties even testen... Ik zit nu te denken aan ZFS, maar vraag me af of dan 1 gigabyte aan geheugen niet te weinig is... (Geheugenuitbreiding kan maar tot 4 gigabyte, want os is 32-bits)NIK0 schreef op zaterdag 19 mei 2012 @ 16:09:
- Hoe ga je de storage in die thecus verdelen..? (alle disken los aanbieden via NFS, in RAID vorm opzetten op de thecus en dan als vmfs aanbieden aan je esxi machine etc..?)
Waarschijnlijk dedicated in een apart vlan met beide poorten teamed, maar dat ligt ook aan de tests. Als blijkt dat een VM fileserver een aanzienlijk drop in performance geeft, dan probeer ik er waarschijnlijk een netwerkkaartje bij in te drukken en die voor samba/cifs filesharing te gebruiken.NIK0 schreef op zaterdag 19 mei 2012 @ 16:09:
- Wordt de thecus dedicated voor VMWare of ga je 'm ook nog "los" gebruiken..?
[quote]HeSitated schreef op zaterdag 19 mei 2012 @ 16:44:
[...]
Bedankt voor je vlugge reply..!
Ga me binnenkort 'ns verder verdiepen in de uiteindelijke oplossing.
Een Thecus/Qnap klinkt aantrekkelijk maar moet nog ns goed kijken wat nou precies de meerwaarde is tov bijv een IBM BR10i flashen naar een domme LSI kaart (die ik nog heb liggen) en die HBA vervolgens via VT-D doorgeven aan bijv een NexentaStor VM en die VM als storage gebruiken voor je VM's...(mits dit net zo goed werkt als een NFS/ISCSI thecus natuurlijk) ik zou niet willen dat 1 HD crash gelijk het einde van m'n VM's betekent.
Ik heb nu 2 HP's staan (1 dedicated als NAS/NZB/ITUNES/MEZZMO) en 1 dedicated als ESXi machine. (heeft ook nog een zakelijk aspect maar dat is niet voor dit topic).
Wat ik tot nu toe heb gelezen is wanneer het op ZFS aankomt is meer memory altijd beter.Vooral ik de Thecus daadwerkelijk in gebruik ga nemen, ga ik eerst de diverse opties even testen... Ik zit nu te denken aan ZFS, maar vraag me af of dan 1 gigabyte aan geheugen niet te weinig is... (Geheugenuitbreiding kan maar tot 4 gigabyte, want os is 32-bits)
[...]
Wanneer je 'm dedicated gaat gebruiken zou je 'm ook nog rechtstreeks aan je esxi machine kunnen hangen zonder switch ertussen...?Waarschijnlijk dedicated in een apart vlan met beide poorten teamed, maar dat ligt ook aan de tests. Als blijkt dat een VM fileserver een aanzienlijk drop in performance geeft, dan probeer ik er waarschijnlijk een netwerkkaartje bij in te drukken en die voor samba/cifs filesharing te gebruiken.
Bedankt voor je vlugge reply..!
Ga me binnenkort 'ns verder verdiepen in de uiteindelijke oplossing.
Een Thecus/Qnap klinkt aantrekkelijk maar moet nog ns goed kijken wat nou precies de meerwaarde is tov bijv een IBM BR10i flashen naar een domme LSI kaart (die ik nog heb liggen) en die HBA vervolgens via VT-D doorgeven aan bijv een NexentaStor VM en die VM als storage gebruiken voor je VM's...(mits dit net zo goed werkt als een NFS/ISCSI thecus natuurlijk) ik zou niet willen dat 1 HD crash gelijk het einde van m'n VM's betekent.
Ik heb nu 2 HP's staan (1 dedicated als NAS/NZB/ITUNES/MEZZMO) en 1 dedicated als ESXi machine. (heeft ook nog een zakelijk aspect maar dat is niet voor dit topic).
[ Voor 14% gewijzigd door NIK0 op 19-05-2012 17:03 ]
Member of the Ukraine IT Army
Maar als het besturingssysteem er niet meer ziet dan die 3 GB....Wat ik tot nu toe heb gelezen is wanneer het op ZFS aankomt is meer memory altijd beter.
Dat zou kunnen, maar doe ik niet want ik wil de backups vanuit de Thecus naar mijn backup kunnen sturen, zonder tussenkomst van de host.Wanneer je 'm dedicated gaat gebruiken zou je 'm ook nog rechtstreeks aan je esxi machine kunnen hangen zonder switch ertussen...?
Vooral de Asus backbone heeft mij tot bovengenoemd besluit gevoerd, voor € 160 kan ik geen pc bouwen, zelfs zonder geheugen en CPU... Alleen het moederbord wat ik had uitgezocht koste al bijna zoveel...Een Thecus/Qnap klinkt aantrekkelijk maar moet nog ns goed kijken wat nou precies de meerwaarde is tov bijv een IBM BR10i flashen naar een domme LSI kaart (die ik nog heb liggen) en die HBA vervolgens via VT-D doorgeven aan bijv een NexentaStor VM en die VM als storage gebruiken voor je VM's...(mits dit net zo goed werkt als een NFS/ISCSI thecus natuurlijk) ik zou niet willen dat 1 HD crash gelijk het einde van m'n VM's betekent.
Ik kom van een HP ML330 (2x 5504/18GB).... De hitte kon hem niet in de kast houden, de herrie niet in de studeerkamer.... Als ik een keer echt power nodig heb of nog meer VM's dan gaat ie naar de logeerkamer...Ik heb nu 2 HP's staan (1 dedicated als NAS/NZB/ITUNES/MEZZMO) en 1 dedicated als ESXi machine. (heeft ook nog een zakelijk aspect maar dat is niet voor dit topic).
NIK0 schreef op zaterdag 19 mei 2012 @ 16:57:
Ga me binnenkort 'ns verder verdiepen in de uiteindelijke oplossing.
Een Thecus/Qnap klinkt aantrekkelijk maar moet nog ns goed kijken wat nou precies de meerwaarde is tov bijv een IBM BR10i flashen naar een domme LSI kaart (die ik nog heb liggen) en die HBA vervolgens via VT-D doorgeven aan bijv een NexentaStor VM en die VM als storage gebruiken voor je VM's...(mits dit net zo goed werkt als een NFS/ISCSI thecus natuurlijk) ik zou niet willen dat 1 HD crash gelijk het einde van m'n VM's betekent.
Je moet natuurlijk wel meetellen dat je er een €300 NAS naast hebt staan. Bij mij viel de kostenvergelijking juist voordeliger uit bij NAS-in-ESXi. Met een BR10i kan je 8 HDD's aansluiten. Kaartje erbij en het worden er 16. Als je gaat zoeken naar NAS'en voor 8 of meer schijven die voldoende krachtige hardware heeft om de data op een acceptabele snelheid beschikbaar te maken, moet je evenveel geld neerleggen als je non-low-budget ESXi-machine.HeSitated schreef op zaterdag 19 mei 2012 @ 19:30:
Vooral de Asus backbone heeft mij tot bovengenoemd besluit gevoerd, voor € 160 kan ik geen pc bouwen, zelfs zonder geheugen en CPU... Alleen het moederbord wat ik had uitgezocht koste al bijna zoveel...
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Ik heb nog even een vraag, mijn moederbord (Supermicro X8SIL-F) heeft een +12V 8-pin CPU power connector. Mijn voeding BeQuit L7 voeding heeft alleen een 4-pin's, gaat dit problemen geven met een Xeon 3440?
Je hebt volkomen gelijk, maar ik heb echter altijd naar twee systemen zitten kijken, dus dat is een heel ander vertrekpunt.Nextron schreef op zondag 20 mei 2012 @ 00:24:
Je moet natuurlijk wel meetellen dat je er een €300 NAS naast hebt staan. Bij mij viel de kostenvergelijking juist voordeliger uit bij NAS-in-ESXi. Met een BR10i kan je 8 HDD's aansluiten. Kaartje erbij en het worden er 16. Als je gaat zoeken naar NAS'en voor 8 of meer schijven die voldoende krachtige hardware heeft om de data op een acceptabele snelheid beschikbaar te maken, moet je evenveel geld neerleggen als je non-low-budget ESXi-machine.
Ik kan nu naar behoefte in- en uitschakelen... (als ik dat zou willen
Zowel je NAS als je ESXi machine zullen zo toch dedicated 24x7 zijn..? (zonder je NAS kan je ESXi doos toch niet leven en v.v. ..? misschien snap ik het niet helemaal ben ook duf van het zonnetjeHeSitated schreef op zondag 20 mei 2012 @ 11:45:
[...]
Je hebt volkomen gelijk, maar ik heb echter altijd naar twee systemen zitten kijken, dus dat is een heel ander vertrekpunt.
Ik kan nu naar behoefte in- en uitschakelen... (als ik dat zou willen)

[ Voor 7% gewijzigd door NIK0 op 20-05-2012 14:42 ]
Member of the Ukraine IT Army
De Core i3 is vervangen door de Xeon.
Passthrough is ingesteld.
Enige probleem is nu dat me SSD ook op die controller zit (6xSATA) samen met de 5x2TB. Het is de bedoeling dat de OSen van me virtual machines op de SSD komen.
Moederbord: Supermicro X8SIL-F
Passthrough is ingesteld.
Enige probleem is nu dat me SSD ook op die controller zit (6xSATA) samen met de 5x2TB. Het is de bedoeling dat de OSen van me virtual machines op de SSD komen.
Moederbord: Supermicro X8SIL-F
[ Voor 83% gewijzigd door Phasis op 20-05-2012 17:42 ]
Nee daar gaat dit topic niet over (zie ook de waarschuwing als je replied). Dit gaat over een zuinige ESXi server waarbij dingen als hardware een rol spelen maar ook bepaalde tweaks (zie topicstart). Als je vraagt of een moederbord compatible is dan is dat een veel te algemene vraag. Bedoel je daarmee ESXi 4, ESXi 4.1, ESXi 5, een bepaalde cpu, bepaald soort geheugen (bij 8GB modules van groot belang), bepaalde uitbreidingskaart, enz.? Je vraag stelde je net na een stukje over cpu's en geheugen dus dan is er al snel een associatie gemaakt met cpu en geheugen, niet met ESXi. Je mist dus een beetje duidelijke communicatie in je post. Vandaar de vraag.Ultimation schreef op zaterdag 19 mei 2012 @ 16:39:
[...]
Dit topic gaat toch over ESXi? Of mis ik nu wat?
Anyway, als je wil weten of je moederbord compatible is met ESXi kun je daar natuurlijk de whitebox sites gebruiken en de HCL van VMware zelf (zie ook topicstart). Als je dit topic doorzoekt op X8SI dan vindt je vaak de X8SIL-F die door een aantal mensen gebruikt wordt. Het verschil tussen dat bord en de X8SI6-F-O die jij zoekt is niet zo erg groot. Dat zit 'm meer in de uitbreidingssloten. Dan mag je er eigenlijk wel vanuit gaan dat dat wel goed gaat. Een korte zoekactie op internet lijkt het te bevestigen. De SAS controller schijnt wat problemen te geven maar daar heb ik verder niet naar gekeken.
Selecteer de relevante (uitgeschakelde) VM > Edit Settings > Add... > PCI Device > Next > SATA-controller > Next > Finish >>> Profit
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Ik zit zelf te denken aan de volgende set-up. Ik wil hem gebruiken als volgt:
daarbij moet dan nog:
Nu vraag ik me het volgende af:
- ZFS fileserver via passthrough op de intel SASUC8I (ik weet dat het niet de voorkeur geniet maar nog een aparte nas / aparte fileserver zie ik niet zitten) het OS weet ik nog niet. De 4 disks wil ik opzetten in raidz2 en de 2x 1.5tb gemirrored) met daarbij de 750gb als store voor de vm's (esxi vanaf usb stick)
- Ubuntu server voor sickbeard/couchpotato/sabnzbd/
- Ubuntu lamp
- Crashplan backup (via linux of windows)
- In de toekomst nog een vpn server en firewall (pfsense)
- en het hobby projectje van de week
# | Product | Prijs | Subtotaal |
1 | Intel PRO/1000 GT | € 23,28 | € 23,28 |
2 | Samsung EcoGreen F2 EG HD154UI, 1.5TB | € 94,30 | € 188,60 |
1 | Samsung Spinpoint F1 DT HD753LJ, 750GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 211,88 |
daarbij moet dan nog:
# | Product | Prijs | Subtotaal |
4 | Samsung EcoGreen F4EG HD204UI, 2TB | € 100,50 | € 402,- |
1 | Cooler Master Elite 371 | € 33,90 | € 33,90 |
1 | Intel RAID Controller SASUC8I | € 140,98 | € 140,98 |
1 | Intel Core i5 2500K Boxed | € 184,20 | € 184,20 |
1 | be quiet! Pure Power L7 300W | € 36,40 | € 36,40 |
1 | Kingston KVR1333D3N9K4/16G | € 86,12 | € 86,12 |
1 | Intel Desktop Board DQ67OWB3 | € 101,25 | € 101,25 |
Bekijk collectie Importeer producten | Totaal | € 984,85 |
Nu vraag ik me het volgende af:
- Heb ik de i5 nodig of ga ik dit ook makkelijk redden met een i3?
- Is de voeding voldoende voor het aantal harddisks?
- Welk os zouden jullie aanraden voor zfs (kon nog geen vergelijking vinden m.b.t. verbruik t.o.v. de verschillende distributies
Bedankt voor je antwoord. Alleen ik heb na de passthrough herstart.Nextron schreef op zondag 20 mei 2012 @ 17:49:
Selecteer de relevante (uitgeschakelde) VM > Edit Settings > Add... > PCI Device > Next > SATA-controller > Next > Finish >>> Profit
Als ik nu vm aanmaak dan moet ik een storage aangeven voor me virtual machine files. En daar staat nu me SSD niet meer.
Ik kan wel proberen om eerst de vm aan te maken en dan de passthrough te doen. Heb dit nog niet geprobeerd.
Daarom heb je perse twee controllers nodig. Eén voor passthrough en één voor je datastore. Wanneer je de controller waar je datastore instelt als passthrough kan je nog aardig moeite moeten doen om die instelling ongedaan te maken, aangezien zodra ESXi opgestart is het geen toegang meer heeft tot de datastore en het ook de nieuwe instellingen niet kan wegschrijven.Phasis schreef op zondag 20 mei 2012 @ 17:17:
Passthrough is ingesteld.
Enige probleem is nu dat me SSD ook op die controller zit (6xSATA) samen met de 5x2TB. Het is de bedoeling dat de OSen van me virtual machines op de SSD komen.
Die i3 heeft de helft van de cores en geen VT-D, dus geen pasthrough. Dat kan toch erg belangrijk zijn.DaydreamBelieve schreef op zondag 20 mei 2012 @ 17:52:
Nu vraag ik me het volgende af:
- Heb ik de i5 nodig of ga ik dit ook makkelijk redden met een i3?
- Is de voeding voldoende voor het aantal harddisks?
De voeding is ruim voldoende voor die paar schijfjes, ondanks dat het twee rails zijn.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Owk bedankt. Wat voor controller adviseren jullie mij hiervoor?
Is het verstandiger om me 5x2TB storage aan de controller te hangen of alleen de SSD ivm prestatie verschil.
Is het verstandiger om me 5x2TB storage aan de controller te hangen of alleen de SSD ivm prestatie verschil.
Er zijn niet echt kleine goedkope controllers beschikbaar die ondersteund worden, buiten wat PCI spul. Dat is traag en daar wil je je SSD niet aan hangen. Eerste goedkope PCI-E model is zover ik weet de Br10i, waar je 8 poorten op 3Gb/s hebt.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Owk thx. En zoiets als de Intel RAID Controller SASUC8I die komt hier in topic ook veel voorbij lees ik.Nextron schreef op zondag 20 mei 2012 @ 20:03:
Er zijn niet echt kleine goedkope controllers beschikbaar die ondersteund worden, buiten wat PCI spul. Dat is traag en daar wil je je SSD niet aan hangen. Eerste goedkope PCI-E model is zover ik weet de Br10i, waar je 8 poorten op 3Gb/s hebt.
Dit is die Br10i die jij heb zeker.
[ Voor 16% gewijzigd door Phasis op 20-05-2012 20:42 ]
Dat is dezelfde chip. De indeling op het PCB is wat anders en hij is wat duurder. Verder zijn de specs hetzelfde.
Ik heb hem inderdaad ook van eBay. €25 in de VS zonder bracket. Met verzendkosten inklaring en BTW ook ongeveer €85
.
Ik heb hem inderdaad ook van eBay. €25 in de VS zonder bracket. Met verzendkosten inklaring en BTW ook ongeveer €85
[ Voor 35% gewijzigd door Nextron op 20-05-2012 20:47 ]
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Owk idd, vond net artikeltje op servethehome over beide. Thx.
Hmm zie net die link naar die BR10i is een gebruikte, nieuw zijn ze duurder als die SASUC8I
Owk nice. Is dat beetje snel en makkelijk uit VS?
Hmm zie net die link naar die BR10i is een gebruikte, nieuw zijn ze duurder als die SASUC8I
Owk nice. Is dat beetje snel en makkelijk uit VS?
[ Voor 57% gewijzigd door Phasis op 20-05-2012 21:00 ]
NIK0 schreef op zondag 20 mei 2012 @ 14:36:
Zowel je NAS als je ESXi machine zullen zo toch dedicated 24x7 zijn..? (zonder je NAS kan je ESXi doos toch niet leven en v.v. ..? misschien snap ik het niet helemaal ben ook duf van het zonnetje)
offtopic:
De ESXi kan niet zonder NAS, maar waarom zou de NAS niet zonder ESXi kunnen?
Waar ik aan zit te denken, is `s nachts, als ik zelf
ben, de ESXi-server down brengen middels scripting en de NAS in alle rust de backups laten verzorgen...
De ESXi kan niet zonder NAS, maar waarom zou de NAS niet zonder ESXi kunnen?
Waar ik aan zit te denken, is `s nachts, als ik zelf

Hij lag bij mij binnen 3 weken op de matPhasis schreef op zondag 20 mei 2012 @ 20:55:
Owk idd, vond net artikeltje op servethehome over beide. Thx.
Hmm zie net die link naar die BR10i is een gebruikte, nieuw zijn ze duurder als die SASUC8I
Owk nice. Is dat beetje snel en makkelijk uit VS?
Any job you can do in your pajamas is not the hardest job in the world.
Owk, dan denk ik dat het toch een intel wordt. Wel ff duurder maar dan heb ik 'm sneller in huis.
Ik zie ook dat zon bracket op ebay de helft van die prijs van die controller is.
En in NL betaal je er rond 200 voor dat is een +100% prijs verschil.
Ik zie ook dat zon bracket op ebay de helft van die prijs van die controller is.
En in NL betaal je er rond 200 voor dat is een +100% prijs verschil.
[ Voor 16% gewijzigd door Phasis op 20-05-2012 21:31 ]
Dat is een idee maar je hebt dan wel je gewone data (de vm's) en je backups op hetzelfde apparaat staan. Of je dat nou zou willen...HeSitated schreef op zondag 20 mei 2012 @ 21:13:
[...]
offtopic:
De ESXi kan niet zonder NAS, maar waarom zou de NAS niet zonder ESXi kunnen?
Waar ik aan zit te denken, is `s nachts, als ik zelfben, de ESXi-server down brengen middels scripting en de NAS in alle rust de backups laten verzorgen...
Ik heb hier nog een Bubba (verbruik 12w, 4 verdiepingen lager middels powerline (Devolo dLan 500) bereikbaar) staan met 3 TB en nog een oude pc die via WOL op te starten is met ook 3TB....ppl schreef op zondag 20 mei 2012 @ 21:35:
Dat is een idee maar je hebt dan wel je gewone data (de vm's) en je backups op hetzelfde apparaat staan. Of je dat nou zou willen...
En eventueel nog 25GB (SkyDrive), 5GB DropBox.....
Ishet niet zo dat de I5 2500K geen vt-d doet wat nodig is voor de passthrought en dat de I5 2500 (zonder K dit wel doet ?)Nextron schreef op zondag 20 mei 2012 @ 19:10:
[...]
Die i3 heeft de helft van de cores en geen VT-D, dus geen pasthrough. Dat kan toch erg belangrijk zijn.
De voeding is ruim voldoende voor die paar schijfjes, ondanks dat het twee rails zijn.
http://tweakers.net/pricewatch/compare/612/274632;273449
[ Voor 7% gewijzigd door Marmotje op 21-05-2012 14:02 ]
apt-get moo
@Marmotje, dat klopt helemaal.
Even niets...
Klopt, niet gezien dat het om de K-variant ging. Dat vind ik ook een onlogische keuze (K vs non-K): Duurder, geen VT-D, geen vPro en als enig 'voordeel' betere GFX bji een console-OS.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
K-modellen hebben een unlocked multiplier, een Overclock CPU dus...
Even niets...
Ik zie het nu ook dat wordt dus de 2500Marmotje schreef op maandag 21 mei 2012 @ 14:02:
[...]
Ishet niet zo dat de I5 2500K geen vt-d doet wat nodig is voor de passthrought en dat de I5 2500 (zonder K dit wel doet ?)
http://tweakers.net/pricewatch/compare/612/274632;273449
2500
2500k
Is het met een virtueel NAS met ZFS nog van belang dat hij ECC ram gebruikt..? (dacht gezien te hebben dat de 2500 hier geen support voor heeft)DaydreamBelieve schreef op zondag 20 mei 2012 @ 17:52:
Ik zit zelf te denken aan de volgende set-up. Ik wil hem gebruiken als volgt:• Heb ik de i5 nodig of ga ik dit ook makkelijk redden met een i3?
- ZFS fileserver via passthrough op de intel SASUC8I (ik weet dat het niet de voorkeur geniet maar nog een aparte nas / aparte fileserver zie ik niet zitten) het OS weet ik nog niet. De 4 disks wil ik opzetten in raidz2 en de 2x 1.5tb gemirrored) met daarbij de 750gb als store voor de vm's (esxi vanaf usb stick)
- Ubuntu server voor sickbeard/couchpotato/sabnzbd/
- Ubuntu lamp
- Crashplan backup (via linux of windows)
- In de toekomst nog een vpn server en firewall (pfsense)
- en het hobby projectje van de week
• Is de voeding voldoende voor het aantal harddisks?
• Welk os zouden jullie aanraden voor zfs (kon nog geen vergelijking vinden m.b.t. verbruik t.o.v. de verschillende distributies
[/list]
Misschien kun je 'ns kijken naar nexentastor.org is kant en klaar OS voor ZFS NAS en gratis tot 18 TB. (ben me ook nog aan het inlezen maar ziet er goed uit wat ik tot nu toe gezien heb,
best practices icm esxi
(de keuze tussen een passtrough VM NAS of dedicated NAS (qnap/thecus) moet ik nog maken)
3 vraagjes over je setup:
- Hoe ga je je VM's veilig stellen? wanneer je 750GB disk eruit knalt ben je toch al je VM's kwijt?
-Waar ga je die 750GB disk op aansluiten, bied je die aan vanuit je NAS als datastore of ga je die op de sata port van je mobo aansluiten..?
-Mooi moederbord van Intel qua prijs jammer dat er zo weinig PCI-E sloten op zitten,slechts 1x 16 slot dus max 1 HBA kaartje en dan is het op..geen angst dat je in de toekomst nog een 2e controller erbij wil prikken..?
[ Voor 5% gewijzigd door NIK0 op 21-05-2012 15:20 . Reden: van 2, 3 vraagjes gemaakt :) ]
Member of the Ukraine IT Army
De VM's wilde ik kopieren naar mijn desktop als backup (verwacht niet dat de vm's heel groot worden). Dan is het risico dat er brand / blikseminslag is dat ik het kwijt ben maar de aller belangrijkste data staat sowieso in mijn Crashplan backup / google drive.NIK0 schreef op maandag 21 mei 2012 @ 15:13:
[...]
2 vraagjes over je setup:
Hoe ga je je VM's veilig stellen? wanneer je 750GB disk eruit knalt ben je toch al je VM's kwijt?
Waar ga je die 750GB disk op aansluiten, bied je die aan vanuit je NAS als datastore of ga je die op de sata port van je mobo aansluiten..?
De 750GB hd wilde ik aansluiten op mijn mobo, en direct aan ESXI aanbieden. Een alternatief zou mogelijk zijn om bijvoorbeeld freenas ook op een USB stick te installeren en dan wel de 750GB vanuit de NAS als datastore aan te bieden (wordt wel erg exotisch denk ik).
Sorry had er nog een 3e vraagje bijgepriktDaydreamBelieve schreef op maandag 21 mei 2012 @ 15:20:
[...]
De VM's wilde ik kopieren naar mijn desktop als backup (verwacht niet dat de vm's heel groot worden). Dan is het risico dat er brand / blikseminslag is dat ik het kwijt ben maar de aller belangrijkste data staat sowieso in mijn Crashplan backup / google drive.
De 750GB hd wilde ik aansluiten op mijn mobo, en direct aan ESXI aanbieden. Een alternatief zou mogelijk zijn om bijvoorbeeld freenas ook op een USB stick te installeren en dan wel de 750GB vanuit de NAS als datastore aan te bieden (wordt wel erg exotisch denk ik).
Let wel op als je met thin-prov. disks aan de gang gaat en dan je vm's wilt gaan backuppen.
Als je een 80GB disk geeft aan je VM hoeftie op je VM datastore slechts 10GB te zijn maar na het kopieren naar je desktop heb je wel opeens een bestand van 80GB..
Vind je setup wel goed uitgedacht alleen die single disk voor het belangrijkste: (je VM's) is een zwak punt.
Ik zit met hetzelfde dillema, je kunt aan de slag met een hardware RAID (simpele raid 1 bijv) voor je VM Datastore maar dan loop je weer het risico dat wanneer je geen peperdure enterprise disken gebruikt je weer problemen kunt krijgen met TLER en disken die je RAID set gegooid worden omdat ze niet snel genoeg reageren.
kortom, ik ben hier ook nog niet over uit..mocht iemand hier al iets slims op hebben gevonden,linkje is very appreciated.. !
[ Voor 24% gewijzigd door NIK0 op 21-05-2012 15:31 ]
Member of the Ukraine IT Army
Dat is in ESXi niet mogelijk. VM's staan op een datastore en datastore's via USB zijn niet mogelijk. Het is met wat omwegen mogelijk een VM van USB te laten booten (boot van CD-iso, die iso bevat een loader die van USB boot). De VM configuratie moet echter al wel ergens staan, namelijk op een datastore.DaydreamBelieve schreef op maandag 21 mei 2012 @ 15:20:
Een alternatief zou mogelijk zijn om bijvoorbeeld freenas ook op een USB stick te installeren en dan wel de 750GB vanuit de NAS als datastore aan te bieden.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
De tot nog toe meest "all in one" oplossing met een minimaal verlies aan disks en onnodige disks en flexibiliteit/minimaal risico op verlies is de volgende:NIK0 schreef op maandag 21 mei 2012 @ 15:24:
[...]
Sorry had er nog een 3e vraagje bijgeprikt
Let wel op als je met thin-prov. disks aan de gang gaat en dan je vm's wilt gaan backuppen.
Als je een 80GB disk geeft aan je VM hoeftie op je VM datastore slechts 10GB te zijn maar na het kopieren naar je desktop heb je wel opeens een bestand van 80GB..
Vind je setup wel goed uitgedacht alleen die single disk voor het belangrijkste: (je VM's) is een zwak punt.
Ik zit met hetzelfde dillema, je kunt aan de slag met een hardware RAID (simpele raid 1 bijv) voor je VM Datastore maar dan loop je weer het risico dat wanneer je geen peperdure enterprise disken gebruikt je weer problemen kunt krijgen met TLER en disken die je RAID set gegooid worden omdat ze niet snel genoeg reageren.
kortom, ik ben hier ook nog niet over uit..mocht iemand hier al iets slims op hebben gevonden,linkje is very appreciated.. !
Ik ga even uit van een setup MET VT-d, 4 disks en een SSD (bv 80GB)
SSD als datastore, hier stockeer je één VM (=VMX-files, uiteindelijk is een VM niet meer dan wat bestanden waar de configuratie voor je VIRTUELE machine in staat)op voor ZFS, je maakt hierop een VMDK aan van X aantal tientallen GB's.
4 disks aan een controller, controller doorgeven aan een VM voor ZFS. VMDK die op de SSD staat koppelen aan de VM. VM voor ZFS niet installeren op disks maar op USB en laten starten via die doorgemapte USB-stick.
VM met ZFS configgen, volume via NFS presenteren via een vSwitch naar je eigen ESXi, op deze vSwitch moet je geen pNIC's hangen, gewoon intern verkeer allemaal. No biggie...
VM's stockeren op je ZFS pool...
Crasht je SSD? Jammer, maar je ZFS pool na versie 19 kan daar tegen, je VM van ZFS kwijt? Geen probleem, dat is 10 minuten werk om een nieuwe SSD er in te frotten, VM aan te maken, nieuwe VMDK aanmaken, controller door te mappen, rebooten, en een commando uit te voeren waarin je je nieuwe VMDK terug als LOG voor je ZFS machine gebruikt...
Tadaa...
Ik ga de topicstart weer eens aanpassen
Nee niet echt, je kan tot acht disken koppelen meer zal ik er niet nodig hebben denk ik. Dan zal ik eerder disken gaan vervanger voor grotere.NIK0 schreef op maandag 21 mei 2012 @ 15:13:
[...]
-Mooi moederbord van Intel qua prijs jammer dat er zo weinig PCI-E sloten op zitten,slechts 1x 16 slot dus max 1 HBA kaartje en dan is het op..geen angst dat je in de toekomst nog een 2e controller erbij wil prikken..?
Ik ben heel benieuwd naar die topicstartHyperBart schreef op maandag 21 mei 2012 @ 15:56:
[...]
4 disks aan een controller, controller doorgeven aan een VM voor ZFS. VMDK die op de SSD staat koppelen aan de VM. VM voor ZFS niet installeren op disks maar op USB en laten starten via die doorgemapte USB-stick.
Ik ga de topicstart weer eens aanpassendie vraag van "ik wil via USB dit en dat stockeren en booten" is me iets te vaak voorbij gekomen
[ Voor 0% gewijzigd door DaydreamBelieve op 21-05-2012 16:09 . Reden: interpunctie ]
Wow... thanks hyperbart, dat moet ik ns even doorlezen met een kopje thee erbij..een plaatje zegt waarschijnlijk meer dan 1000 woorden maar ik ga het vanaaf nog ns doorlezen om zeker te zijn dat ik het nog snapHyperBart schreef op maandag 21 mei 2012 @ 15:56:
[...]
De tot nog toe meest "all in one" oplossing met een minimaal verlies aan disks en onnodige disks en flexibiliteit/minimaal risico op verlies is de volgende:
Ik ga even uit van een setup MET VT-d, 4 disks en een SSD (bv 80GB)
SSD als datastore, hier stockeer je één VM (=VMX-files, uiteindelijk is een VM niet meer dan wat bestanden waar de configuratie voor je VIRTUELE machine in staat)op voor ZFS, je maakt hierop een VMDK aan van X aantal tientallen GB's.
4 disks aan een controller, controller doorgeven aan een VM voor ZFS. VMDK die op de SSD staat koppelen aan de VM. VM voor ZFS niet installeren op disks maar op USB en laten starten via die doorgemapte USB-stick.
VM met ZFS configgen, volume via NFS presenteren via een vSwitch naar je eigen ESXi, op deze vSwitch moet je geen pNIC's hangen, gewoon intern verkeer allemaal. No biggie...
VM's stockeren op je ZFS pool...
Crasht je SSD? Jammer, maar je ZFS pool na versie 19 kan daar tegen, je VM van ZFS kwijt? Geen probleem, dat is 10 minuten werk om een nieuwe SSD er in te frotten, VM aan te maken, nieuwe VMDK aanmaken, controller door te mappen, rebooten, en een commando uit te voeren waarin je je nieuwe VMDK terug als LOG voor je ZFS machine gebruikt...
Tadaa...
Ik ga de topicstart weer eens aanpassendie vraag van "ik wil via USB dit en dat stockeren en booten" is me iets te vaak voorbij gekomen

(ZFS pool na versie 19 is dat icm met een specifiek OS of geldt dit verhaal ook voor Nexenta..?)
Moeten die USB poorten allemaal nog "onboard" zitten op het mobo, (die naast je sata poorten) of kun je ook USB poorten doorgeven via VT-D die "aan de achterkant" zitten van je Mobo..?
[ Voor 6% gewijzigd door NIK0 op 21-05-2012 16:13 ]
Member of the Ukraine IT Army
Weet iemand wat de achterliggende gedachte is van VMware om geen datastore vanaf usb storage mogelijk te maken?
Deze vraag komt idd veel voorbij, en zelf erger ik er me ook mateloos aan dat je dit niet kan.
Zou het nut hebben een petitie op te starten of een feature request topic aan te maken op hun forums oid? Uiteindelijk zijn ze ook gezwicht voor de massale druk om de sourcecode vrij te geven van de drivers, toch?
Deze vraag komt idd veel voorbij, en zelf erger ik er me ook mateloos aan dat je dit niet kan.
Zou het nut hebben een petitie op te starten of een feature request topic aan te maken op hun forums oid? Uiteindelijk zijn ze ook gezwicht voor de massale druk om de sourcecode vrij te geven van de drivers, toch?
Het is me niet helemaal duidelijk.HyperBart schreef op maandag 21 mei 2012 @ 15:56:
De tot nog toe meest "all in one" oplossing met een minimaal verlies aan disks en onnodige disks en flexibiliteit/minimaal risico op verlies is de volgende:
- Ik zie het voordeel van de ZFS-VM op USB niet in.
- Hoe boot je van USB?
- Wat doet de VMDK?
- Je hebt nog steeds een tweede HBA nodig.
Veel USB-apparaten die door ESXi worden herkend kunnen individueel worden gepassthrought zonder VT-D. Met VT-D kan je een complete USB-controller passthroughen waardoor elk USB-apparaat beschikbaar kan worden gemaakt voor de VM.NIK0 schreef op maandag 21 mei 2012 @ 16:08:
Moeten die USB poorten allemaal nog "onboard" zitten op het mobo, (die naast je sata poorten) of kun je ook USB poorten doorgeven via VT-D die "aan de achterkant" zitten van je Mobo..?
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Je combineert de snelheid van de SSD samen met die van de ruwe capaciteit van de HDD's, je combineert SAN/NAS in één VM. Je SSD gaat niet volledig verloren en je neemt een middenweg, je SSD gaat niet verloren omdat je 'm wil gebruiken voor VM's, maar je kan omwille van het feit dat je je SSD icm ZFS gebruikt maximaal genieten van het gedeelde gebruik van je SSDNextron schreef op maandag 21 mei 2012 @ 16:25:
[...]
Het is me niet helemaal duidelijk.
[list]
• Ik zie het voordeel van de ZFS-VM op USB niet in.
Je mapt een USB-stick door aan een VM, installeert daar een ZFS-compatible OS op...• Hoe boot je van USB?
De VMDK geef je aan de ZFS machine, de VMDK staat op een SSD dus geniet van de snelle I/O die een SSD kan leveren, weliswaar vertraagd door de VMDK-laag• Wat doet de VMDK?
Dat klopt...• Je hebt nog steeds een tweede HBA nodig.
[/list]
Dat dus... Dat vertel ik toch ivm het booten van USB voor de VM...? Je zou natuurlijk ook de SSD kunnen gebruiken om een 2de vmdk er op te zetten en daar een ZFS OS op te zetten, maar als dan je SSD er uit vliegt ben je het haasje...[...]
Veel USB-apparaten die door ESXi worden herkend kunnen individueel worden gepassthrought zonder VT-D. Met VT-D kan je een complete USB-controller passthroughen waardoor elk USB-apparaat beschikbaar kan worden gemaakt voor de VM.
Makkelijk gezegd, laat maar eens bewijs zien van een werkende VM draaiende vanaf USB stick.HyperBart schreef op maandag 21 mei 2012 @ 16:32:
[...]
Je mapt een USB-stick door aan een VM, installeert daar een ZFS-compatible OS op...
(Hint, het VM bios van ESXi kan niet van USB booten)
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Met PLOP!Zer0 schreef op maandag 21 mei 2012 @ 16:46:
[...]
Makkelijk gezegd, laat maar eens bewijs zien van een werkende VM draaiende vanaf USB stick.
(Hint, het VM bios van ESXi kan niet van USB booten)
En neen, niet deze:

Maar deze:
http://www.plop.at/en/bootmanager/index.html
http://communities.vmware.com/thread/249902
to boot from USB-disks or sticks inside a VM I use the plop bootmanager. Works nice for Windows PE, Linux USB-livesystems and ESXi-sticksHyperBart schreef op maandag 21 mei 2012 @ 17:04:
[...]
Met PLOP!
En neen, niet deze:
[afbeelding]
Maar deze:
http://www.plop.at/en/bootmanager/index.html
http://communities.vmware.com/thread/249902
The plop-bootmanager first boots from floppy-image or iso and then passes control to the USB-device which must be connected directly after boot.
Works like a charm.
http://download.plop.at/files/bootmngr/plpbt-5.0.7.zip
that contains both the floppy-image and the iso
Best of this approach: no imaging is necessary at all - you can use the USB-boot-device as it is - no changes required
En drie keer raden waar je die floppy image of iso parkeert? Op een datastore. Dus ja, je kunt via een omweg van USB "booten", maar je hebt nog steeds een datastore, floppy-drive of CD-Rom speler nodig om werkelijk van te booten. Als je dan toch al een datastore hebt kun je het OS net zo goed daar op zetten als VM, en als je een CD-Rom speler gebruikt kun je net zo goed het OS daarvan booten en de USB alleen voor settings gebruiken. OVer een floppy gebruiken wil ik het niet eens hebben....
[ Voor 10% gewijzigd door Zer0 op 21-05-2012 19:54 ]
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
Niet helemaal waar... de iso kan je ook op de installatiepartitie van ESXi zetten (wat wel een USB-stick kan zijn). De VM-tools ISO's staan daar ook.
Het configuratiebestand van de VM wil dat alleen niet, waardoor uiteindelijk het probleem blijft: je hebt een datastore nodig. Alleen die VMX moet dus op een datastore, een lullig tekstbestandje, dat zou ik nog best durven van (virtuele-) floppy... als floppydatastores mogelijk waren (en dat heb ik serieus nagekeken
)
Het configuratiebestand van de VM wil dat alleen niet, waardoor uiteindelijk het probleem blijft: je hebt een datastore nodig. Alleen die VMX moet dus op een datastore, een lullig tekstbestandje, dat zou ik nog best durven van (virtuele-) floppy... als floppydatastores mogelijk waren (en dat heb ik serieus nagekeken
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Je kunt het nog leuker maken
Je kunt een vm aanmaken in bijv. Player, Workstation of Fusion waarin je Windows installeert met de vSphere client. Kun je aan deze vm de iso koppelen en dan in je vSphere client zeggen dat ie de local cd speler (=host device) moet gebruiken voor de vm in ESXi. Zo heb ik in den beginne even snel een vm opgezet om mijn fris gebouwde ESXi bak te testen (nadat ik al een andere had gebouwd door de iso via de IPMI van het moederbord aan ESXi te presenteren...werkte ook super). Dit soort dingen zijn handig voor eenmalige acties. Als dit wat vaker voorkomt is het handiger om iets te gaan doen met imaging, clonen van vm's, provisioning (en daarmee bedoel ik niet de vmdk's maar dingen als Puppet) en het opslaan van de iso files in een aparte map op een datastore (of zelfs op een aparte datastore zoals ik heb gedaan; bespaart diskspace op de ssd).
De plannen tot mijn zuinige ESXi nemen met de komst van vakantiegeld concretere plannen aan.
Aanschaf word in 2 stappen opgedeeld. Eerst schaf ik de ESXi server aan en als de prijzen wat gezakt zijn komt er nog een br10i oid. met een 2 of 4 talschijven via ZFS en nog een keer 16GB.
De vmdks wil ik op een SSD zetten en alle data straks op de ZFS datastore (dit draait nu nog op mijn mediacenter/nas).
Vragen:
Aanschaf word in 2 stappen opgedeeld. Eerst schaf ik de ESXi server aan en als de prijzen wat gezakt zijn komt er nog een br10i oid. met een 2 of 4 talschijven via ZFS en nog een keer 16GB.
De vmdks wil ik op een SSD zetten en alle data straks op de ZFS datastore (dit draait nu nog op mijn mediacenter/nas).
# | Product | Prijs | Subtotaal |
1 | Intel Gigabit CT Desktop Adapter | € 23,15 | € 23,15 |
1 | Antec Three Hundred Two | € 57,75 | € 57,75 |
1 | Intel Core i5 2500 Boxed | € 177,31 | € 177,31 |
1 | be quiet! Pure Power L7 300W | € 36,40 | € 36,40 |
1 | Crucial m4 CT128M4SSD2 128GB | € 106,06 | € 106,06 |
1 | Corsair CMV16GX3M2A1333C9 | € 87,60 | € 87,60 |
1 | Intel Desktop Board DQ67SWB3 | € 111,11 | € 111,11 |
Bekijk collectie Importeer producten | Totaal | € 599,38 |
Vragen:
- Iemand een idee of dit geheugen compatibel is ? Uberhaupt niet over 8GB bankjes wat zou moeten werken tegen redelijke prijs
- Zijn er zuinigheidstechnisch gezien nog belangrijke wijzigingen te doen die verschil maken ?
[ Voor 10% gewijzigd door Marmotje op 22-05-2012 20:36 . Reden: toch maar Corsair geheugen ivm clocksnelheid ]
apt-get moo
Zojuist mijn systeem uitgebreid naar 16GB: V&A aangeboden: Kingston ValueRAM KVR1333D3E9SK2/8G. Alle geheugensloten zijn vol en €160 voor een 8GB UDIMM'etje vind ik toch net te veel.
Na een reboot weet ik dat ik FlexRAID opnieuw moet installeren, de previews blijven maar 3 maanden werken, en er zit meer tijd tussen mijn reboots. Ik ga dus naar de website, blijkt alleen nog een betaalde versie beschikbaar te zijn
... dat is vrij ***. Snel op zoek naar een oplossing dus.
Na een reboot weet ik dat ik FlexRAID opnieuw moet installeren, de previews blijven maar 3 maanden werken, en er zit meer tijd tussen mijn reboots. Ik ga dus naar de website, blijkt alleen nog een betaalde versie beschikbaar te zijn
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
De techniek van flexraid spreekt me meer aan dan die van het traditionele raid. De software die het implementeert is echter baggerslecht. Verder snap ik dat de ontwikkelaar na jaren ook eens geld wil zien, maar zonder aankondiging software onbeschikbaar maken waarvan gebruikers afhankelijk zijn geworden siert hem niet en wekt weinig vertrouwen.
Betalen overweeg ik daarom pas als ik echt geen alternatief vind.
Betalen overweeg ik daarom pas als ik echt geen alternatief vind.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
is een beetje kort door de bocht is een topic ruim van te voren opgezet met de plannen en verschillende versies welke te vekrijgen zouden zijn. ik gebruik de snapshot raid versie voor mn mediaserver en dat kost echt een appel en een ei (ook nog ns 1malig ipv jaarlijks) heb sinds de release al diverse updates gehad dus er wordt flink aan gewerkt. (ook het verhaal vd installatiesoftware herken ik zelf niet, er komt een update uit, je stopt je flexraid service, uninstall, install new version, reboot klaar! althans zo is het tot nu toe altijd bij mij gegaan)Nextron schreef op woensdag 23 mei 2012 @ 16:06:
De techniek van flexraid spreekt me meer aan dan die van het traditionele raid. De software die het implementeert is echter baggerslecht. Verder snap ik dat de ontwikkelaar na jaren ook eens geld wil zien, maar zonder aankondiging software onbeschikbaar maken waarvan gebruikers afhankelijk zijn geworden siert hem niet en wekt weinig vertrouwen.
Betalen overweeg ik daarom pas als ik echt geen alternatief vind.
[ Voor 10% gewijzigd door NIK0 op 23-05-2012 20:48 ]
Member of the Ukraine IT Army
Ik heb mn oog laten vallen op het SuperMicro X8DTI-F moederbord. Volgens deze whitelist zou het moederbord moeten werken, maar volgens mij gaat dan om versie 4 van esx(i).
Kan iemand me met enige zekerheid zeggen of dit moederbord het gaat doen met vSphere 5?
Ik zoek namelijk een moederbord met een 1366 socket die minimaal 48GB ram aankan, maar ook compatibel is met vSphere 5.. De bedoeling is een Xeon E5504 te plaatsen met een SSDtje om de boel nog een beetje zuinig te houden voor dit performance niveau..
Iedere andere tip is meer dan welkom, moeilijke zoektocht dit!
Kan iemand me met enige zekerheid zeggen of dit moederbord het gaat doen met vSphere 5?
Ik zoek namelijk een moederbord met een 1366 socket die minimaal 48GB ram aankan, maar ook compatibel is met vSphere 5.. De bedoeling is een Xeon E5504 te plaatsen met een SSDtje om de boel nog een beetje zuinig te houden voor dit performance niveau..
Deze post gaat totaal niet zinnig zijn...
Prijsje gewonnen?
Jemig zeg, "Up to 192GB DDR3 1333/ 1066/ 800MHz ECC Registered DIMM". Mochten de 16GB modules enigszins betaalbaar zijn dan zit jij in ieder geval goed.
Prijsje gewonnen?
Zal ik het je nog sterker vertellen, ik ga (als ik het budget vrij krijg) twee hosts aanschaffen 
Maar dan moet ik dus wel heel zeker weten dat ik een moederbord te pakken heb die het doet met esxi 5
Maar dan moet ik dus wel heel zeker weten dat ik een moederbord te pakken heb die het doet met esxi 5
En als je zoekt op compatibiliteit van de chipset en NIC? Dat zullen toch de grootste struikelblokken zijn?
Wat ga je met de twee hosts doen
?
Wat ga je met de twee hosts doen
NIK0 schreef op woensdag 23 mei 2012 @ 20:45:
Flexraid (...) plannen (...) installatiesoftware
offtopic:
Ik had ook niet verwacht dat dit project nog had bestaan als iedereen de moeite ervoor moest doen, die ik heb gedaan. Mijn ervaring:
Na een server reboot: geen foutmelding maar flexraid start niet. Handmatig starten geeft melding 1067. Volgens de maker 'zal dat wel' een verlopen versie betekenen. Oude versie uninstalleren en nieuwe installeren zorgt ervoor dat alle instellingen verloren zijn, in tegenstelling tot wat in de release notes staat. Ik plaats een backup van de instellingen terug, zonder resultaat. Blijkbaar worden de instellingen in de nieuwe versie ergens anders opgeslagen. Ik vul in de crashende webgui handmatig de werkende tekstconfiguratie in en klik op preview en alles lijkt te kloppen. Zodra ik op save&apply klik werkt het toch niet. Server reboot en opnieuw save&apply en het werkt nog niet. Nog een paar reboots en save&apply en het werkt wel, zonder de configuratie aan te passen.
Dit herhaalde zich elke paar maanden, op een verse Windows 2008R2 zonder andere software.
Wat betreft de aankondiging van de overstap naar een betaalversie, die heb ik nu ook gevonden, na specifiek zoeken, op het forum. Op de downloadpagina staat niets en je kan alleen downloaden na registratie. Zulke ingrijpende wijzigingen was wel een mailtje waard geweest.
Ik had ook niet verwacht dat dit project nog had bestaan als iedereen de moeite ervoor moest doen, die ik heb gedaan. Mijn ervaring:
Na een server reboot: geen foutmelding maar flexraid start niet. Handmatig starten geeft melding 1067. Volgens de maker 'zal dat wel' een verlopen versie betekenen. Oude versie uninstalleren en nieuwe installeren zorgt ervoor dat alle instellingen verloren zijn, in tegenstelling tot wat in de release notes staat. Ik plaats een backup van de instellingen terug, zonder resultaat. Blijkbaar worden de instellingen in de nieuwe versie ergens anders opgeslagen. Ik vul in de crashende webgui handmatig de werkende tekstconfiguratie in en klik op preview en alles lijkt te kloppen. Zodra ik op save&apply klik werkt het toch niet. Server reboot en opnieuw save&apply en het werkt nog niet. Nog een paar reboots en save&apply en het werkt wel, zonder de configuratie aan te passen.
Dit herhaalde zich elke paar maanden, op een verse Windows 2008R2 zonder andere software.
Wat betreft de aankondiging van de overstap naar een betaalversie, die heb ik nu ook gevonden, na specifiek zoeken, op het forum. Op de downloadpagina staat niets en je kan alleen downloaden na registratie. Zulke ingrijpende wijzigingen was wel een mailtje waard geweest.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Plan is als volgt: (staat ook in diy raid nas, kan er geen goed topic voor vinden al mn vragen moet ik eigenlijk verdelen over de bekende topics
)
rack aanschaffen, huidige esxi bak met 16GB ram en tevens NAS ombouwen in Norco case en inzetten als storage. Dan twee hosts erbij hangen en een managed switch, zodat ik flink kan experimenteren met alle virtualisatie technieken (hyper-v, vmware, citrix). Ook HA wil ik over die twee hosts kunnen testen en het hele zwikkie moet over meerdere VLANS gaan draaien. Het budget komt waarschijnlijk zakelijk vrij, omdat ik het echt inzet om mezelf deze kennis bij te brengen, vandaar dat ik voor het hele project eerst alle kosten goed verzamel en dan de knoop doorhak. Maar dan moet ik wel eerst heel goed weten wat ik wil aanschaffen en of het werkt
Dat blijkt voor het moederbord in combinatie met ESX nog knap lastig te zijn, kost me al een aantal avonden zoeken, komt vooral door mijn eis dat de host minimaal 48GB moet aankunnen..
rack aanschaffen, huidige esxi bak met 16GB ram en tevens NAS ombouwen in Norco case en inzetten als storage. Dan twee hosts erbij hangen en een managed switch, zodat ik flink kan experimenteren met alle virtualisatie technieken (hyper-v, vmware, citrix). Ook HA wil ik over die twee hosts kunnen testen en het hele zwikkie moet over meerdere VLANS gaan draaien. Het budget komt waarschijnlijk zakelijk vrij, omdat ik het echt inzet om mezelf deze kennis bij te brengen, vandaar dat ik voor het hele project eerst alle kosten goed verzamel en dan de knoop doorhak. Maar dan moet ik wel eerst heel goed weten wat ik wil aanschaffen en of het werkt
[ Voor 3% gewijzigd door Staatslot op 23-05-2012 23:07 ]
Je gaat toch wel ECC registered geheugen gebruiken?Staatslot schreef op woensdag 23 mei 2012 @ 22:11:
Ik heb mn oog laten vallen op het SuperMicro X8DTI-F moederbord. Volgens deze whitelist zou het moederbord moeten werken, maar volgens mij gaat dan om versie 4 van esx(i).
Kan iemand me met enige zekerheid zeggen of dit moederbord het gaat doen met vSphere 5?
Ik zoek namelijk een moederbord met een 1366 socket die minimaal 48GB ram aankan, maar ook compatibel is met vSphere 5.. De bedoeling is een Xeon E5504 te plaatsen met een SSDtje om de boel nog een beetje zuinig te houden voor dit performance niveau..Iedere andere tip is meer dan welkom, moeilijke zoektocht dit!
Ik zou een bordje uit de X9 reeks nemen met een E5-2603/9 processor. Dat is nieuwer, zuiniger bij dezelfde prestaties als de X8 reeks en de pci-e controller zit in de cpu, dus insteekkaarten en onboard meuk hebben geen gedeelde bus meer tussen CPU/chipset.
Klopt, ecc registered geheugen stond op mn lijstje..
Het lastige van de nieuwe x9 serie is dat ik nog weinig kan vinden over compatabiliteit met esxi 5 i.c.m. De x9 serie met meer geheugen...
Het lastige van de nieuwe x9 serie is dat ik nog weinig kan vinden over compatabiliteit met esxi 5 i.c.m. De x9 serie met meer geheugen...
Houd je rekening met de licentie van ESXi welke het niet toestaat meer geheugen toe te wijzen dan 32gb? Of blijven je avonturen gelimiteerd tot de 60 dagen trial?Staatslot schreef op donderdag 24 mei 2012 @ 00:34:
Klopt, ecc registered geheugen stond op mn lijstje..
Het lastige van de nieuwe x9 serie is dat ik nog weinig kan vinden over compatabiliteit met esxi 5 i.c.m. De x9 serie met meer geheugen...
Verder groot gelijk met ECC reg. Het verschil in kosten tussen reg en unbuffered is naast de I/O optimalisaties het enige wat mij meer beweegt richting het s2011 platform.
Net iemand gevonden met een werkende configuratieMarmotje schreef op dinsdag 22 mei 2012 @ 10:49:
[...]
# Product Prijs Subtotaal 1 Intel Gigabit CT Desktop Adapter € 23,15 € 23,15 1 Antec Three Hundred Two € 57,75 € 57,75 1 Intel Core i5 2500 Boxed € 177,31 € 177,31 1 be quiet! Pure Power L7 300W € 36,40 € 36,40 1 Crucial m4 CT128M4SSD2 128GB € 106,06 € 106,06 1 Corsair CMV16GX3M2A1333C9 € 87,60 € 87,60 1 Intel Desktop Board DQ67SWB3 € 111,11 € 111,11 Bekijk collectie
Importeer productenTotaal € 599,38
[...]
http://www.vm-help.com/fo....php?f=13&t=2975&start=10
apt-get moo
Ik heb zelf de Intel S5520HC. Zelfde chipset en zelfde bord layout ongeveer. En die werkt prima met vSphere 5. Van dit niveau borden mag je gewoon verwachten dat het met vSphere 5 werkt zonder horten of stoten.Staatslot schreef op woensdag 23 mei 2012 @ 23:07:
Plan is als volgt: (staat ook in diy raid nas, kan er geen goed topic voor vinden al mn vragen moet ik eigenlijk verdelen over de bekende topics)
rack aanschaffen, huidige esxi bak met 16GB ram en tevens NAS ombouwen in Norco case en inzetten als storage. Dan twee hosts erbij hangen en een managed switch, zodat ik flink kan experimenteren met alle virtualisatie technieken (hyper-v, vmware, citrix). Ook HA wil ik over die twee hosts kunnen testen en het hele zwikkie moet over meerdere VLANS gaan draaien. Het budget komt waarschijnlijk zakelijk vrij, omdat ik het echt inzet om mezelf deze kennis bij te brengen, vandaar dat ik voor het hele project eerst alle kosten goed verzamel en dan de knoop doorhak. Maar dan moet ik wel eerst heel goed weten wat ik wil aanschaffen en of het werktDat blijkt voor het moederbord in combinatie met ESX nog knap lastig te zijn, kost me al een aantal avonden zoeken, komt vooral door mijn eis dat de host minimaal 48GB moet aankunnen..
Jadjong, dat verhaal over die PCIe lanes, waar heb je dat vandaan? Want volgens mij heeft hebben de 56xx series dat ook allang... (S5520 chipset is gewoon een server variant van het X58 chipset van Intel)
Even niets...
Dat werkt, kijk maar naar de vele reviews die begin maart uitgekomen zijn met daarin testen van esxi/hyper-v met 64 of 128GB geheugen. Zelf heb ik vorige week een X9DRi-f kunnen proberen met vt-d.Staatslot schreef op donderdag 24 mei 2012 @ 00:34:
Klopt, ecc registered geheugen stond op mn lijstje..
Het lastige van de nieuwe x9 serie is dat ik nog weinig kan vinden over compatabiliteit met esxi 5 i.c.m. De x9 serie met meer geheugen...
Die komen uit de I/O hub, niet de cpu zelf.FireDrunk schreef op donderdag 24 mei 2012 @ 07:37:
[...]
Jadjong, dat verhaal over die PCIe lanes, waar heb je dat vandaan? Want volgens mij heeft hebben de 56xx series dat ook allang... (S5520 chipset is gewoon een server variant van het X58 chipset van Intel)

[ Voor 4% gewijzigd door jadjong op 24-05-2012 09:38 ]
Verwijderd
hi all,
ik heb mijn oude stroomvretende esxi server verkocht en heb nu een lekker energiezuinig esxi 5 testlabje gebouwd.
ik was eerst van plan om voor een kant en klare HP N40L microserver te gaan,
maar heb toch gekozen voor meer krachtigere 'mobile hardware'.
het esxi 5 testlabje bestaat nu uit:
- Commell LV-67b mini-itx moederboard incl. cpu-koeler en dc kabeltje (100 euro ebay)
- mobile Intel Core 2 Duo Mobile - P8400 - 2,26 GHz Dual-Core - 25w TPD (20 euro ebay)
- 2x 4096MB Corsair SO-DIMM DDR3 1066MHz (44 euro)
- OCZ-Vertex Turbo 30GB SSD voor ESXi 5 en de datastore (op deze datastore komt alleen de ZFS-OS VM, de rest van de VM's komen op de ZFS datapool via NFS, zie verder)
- Streacom F7C mini-itx behuizing (79 euro)
- HP SAS3442E-HP sas controller kaartje in IT-mode (uit mijn oude esx server)
- 120 watt ac/dc externe stroomadapter (had ik nog liggen)
------------
- Lindy SAS / SATA 4-bay hot-swap Drive Enclosure.
- 4x 2TB 3.5" sata HDD's
------------
De chipset, cpu en bios ondersteunen vt-d :-) dit maakt het volgende mogelijk:
4x 2TB sata HDD's in de Lindy -> HP SAS3442E en via ESXi 5 PCI-passthrough -> Freenas 8.2.0-Beta3 Virtuele Machine (ZFS-OS autostart first in esxi).
ik heb mijn oude stroomvretende esxi server verkocht en heb nu een lekker energiezuinig esxi 5 testlabje gebouwd.
ik was eerst van plan om voor een kant en klare HP N40L microserver te gaan,
maar heb toch gekozen voor meer krachtigere 'mobile hardware'.
het esxi 5 testlabje bestaat nu uit:
- Commell LV-67b mini-itx moederboard incl. cpu-koeler en dc kabeltje (100 euro ebay)
- mobile Intel Core 2 Duo Mobile - P8400 - 2,26 GHz Dual-Core - 25w TPD (20 euro ebay)
- 2x 4096MB Corsair SO-DIMM DDR3 1066MHz (44 euro)
- OCZ-Vertex Turbo 30GB SSD voor ESXi 5 en de datastore (op deze datastore komt alleen de ZFS-OS VM, de rest van de VM's komen op de ZFS datapool via NFS, zie verder)
- Streacom F7C mini-itx behuizing (79 euro)
- HP SAS3442E-HP sas controller kaartje in IT-mode (uit mijn oude esx server)
- 120 watt ac/dc externe stroomadapter (had ik nog liggen)
------------
- Lindy SAS / SATA 4-bay hot-swap Drive Enclosure.
- 4x 2TB 3.5" sata HDD's
------------
De chipset, cpu en bios ondersteunen vt-d :-) dit maakt het volgende mogelijk:
4x 2TB sata HDD's in de Lindy -> HP SAS3442E en via ESXi 5 PCI-passthrough -> Freenas 8.2.0-Beta3 Virtuele Machine (ZFS-OS autostart first in esxi).
Mooi systeempje! Zeker de kast ziet er mooi uit!Verwijderd schreef op zaterdag 26 mei 2012 @ 13:57:
hi all,
ik heb mijn oude stroomvretende esxi server verkocht en heb nu een lekker energiezuinig esxi 5 testlabje gebouwd.
ik was eerst van plan om voor een kant en klare HP N40L microserver te gaan,
maar heb toch gekozen voor meer krachtigere 'mobile hardware'.
het esxi 5 testlabje bestaat nu uit:
- Commell LV-67b mini-itx moederboard incl. cpu-koeler en dc kabeltje (100 euro ebay)
- mobile Intel Core 2 Duo Mobile - P8400 - 2,26 GHz Dual-Core - 25w TPD (20 euro ebay)
- 2x 4096MB Corsair SO-DIMM DDR3 1066MHz (44 euro)
- OCZ-Vertex Turbo 30GB SSD voor ESXi 5 en de datastore (op deze datastore komt alleen de ZFS-OS VM, de rest van de VM's komen op de ZFS datapool via NFS, zie verder)
- Streacom F7C mini-itx behuizing (79 euro)
- HP SAS3442E-HP sas controller kaartje in IT-mode (uit mijn oude esx server)
------------
- Lindy SAS / SATA 4-bay hot-swap Drive Enclosure.
- 4x 2TB 3.5" sata HDD's
------------
De chipset, cpu en bios ondersteunen vt-d :-) dit maakt het volgende mogelijk:
4x 2TB sata HDD's in de Lindy -> HP SAS3442E en via ESXi 5 PCI-passthrough -> Freenas 8.2.0-Beta3 Virtuele Machine (ZFS-OS autostart first in esxi).
Maar op de Intel website staat niet vermeld dat de CPU Vt-d ondersteuning heeft, dus ik zou het nog een keer nalopen als ik jou was.
Ben zeer benieuwd naar het verbruik, zeker met zo een mobile cpu erin.
Ik heb hier een P9500, daar staat het ook niet bij maar kan prima VT-d. Eigenlijk is de 'vPro' optie al een teken dat deze VT-d aangezien vPro daar ook gebruik van maakt. Dat geld voor de P8400 ook.
[ Voor 7% gewijzigd door DukeBox op 26-05-2012 20:00 ]
Duct tape can't fix stupid, but it can muffle the sound.
Ok, nooit geweten!DukeBox schreef op zaterdag 26 mei 2012 @ 19:57:
Ik heb hier een P9500, daar staat het ook niet bij maar kan prima VT-d. Eigenlijk is de 'vPro' optie al een teken dat deze VT-d aangezien vPro daar ook gebruik van maakt. Dat geld voor de P8400 ook.
Als ik intel was zou ik er gewoon neerzetten dat het VT-d heeft, dan verkopen ze het toch eerder dan dat het zonder staat lijkt mij...
Verwijderd
ik zal volgende week eens het verbruik gaan meten en hier melden. ik ben zelf ook eens benieuwd ;-)
misschien beetje offtopic: wie gebruikt nog meer ZFS-raidz(2) (freebsd, opensolaris, openindiana) binnen een VM? wat zijn jullie disk read/write/access waardes?
misschien beetje offtopic: wie gebruikt nog meer ZFS-raidz(2) (freebsd, opensolaris, openindiana) binnen een VM? wat zijn jullie disk read/write/access waardes?
[ Voor 129% gewijzigd door Verwijderd op 27-05-2012 02:03 ]
VT-d is op de oudere generaties volledig chipset afhankelijk, vandaar dat het niet bij de cpu's is vermeld.jackorobot schreef op zaterdag 26 mei 2012 @ 21:43:
[...]
Ok, nooit geweten!
Als ik intel was zou ik er gewoon neerzetten dat het VT-d heeft, dan verkopen ze het toch eerder dan dat het zonder staat lijkt mij...
Ik heb mijn I/O's nog niet gemeten, maar voorlopig haal ik volgende waardes met 4 x 80GB (HP branded spul, een pull uit een andere server), HP Modelnummer: FB080C4080Verwijderd schreef op zondag 27 mei 2012 @ 00:16:
ik zal volgende week eens het verbruik gaan meten en hier melden. ik ben zelf ook eens benieuwd ;-)
misschien beetje offtopic: wie gebruikt nog meer ZFS-raidz(2) (freebsd, opensolaris, openindiana) binnen een VM? wat zijn jullie disk read/write/access waardes?
bart@OpenIndianaVirtual:/tank/test1$ dd if=/dev/zero of=zero.file bs=1M count=10 240 10240+0 records in 10240+0 records out 10737418240 bytes (11 GB) copied, 63.0561 s, 170 MB/s bart@OpenIndianaVirtual:/tank/test1$ dd if=zero.file of=/dev/null bs=1M 10240+0 records in 10240+0 records out 10737418240 bytes (11 GB) copied, 48.6626 s, 221 MB/s
Dat is met mijn M1015 doorgeven aan een OpenIndiana VM met 2 cores dacht ik en dan 1 of 2GB RAM...
Een collega van mij die haalt iets sexy'ere speeds met wenslijst: Server Matthias deze setup...
Hij heeft zijn M1015 nog niet, maar RDM's gebruikt en trekt even los mijn array erdoor:
290MB/s write
332MB/read
Ik hoop vandaag die Patriot SSD van die collega die in dezelfde wenslijst staat aan te kunnen koppelen aan mijn M1015 om eens te zien hoe dit nu mijn performance gaat beïnvloeden... Eerst config ik 'm als ZIL en daarna eens kijken hoe hij het doet als L2ARC...
[ Voor 9% gewijzigd door HyperBart op 27-05-2012 11:36 ]
Verwijderd
Ik wil zelf ook een nieuw systeem gaan samenstellen. Upgrade huidig systeem V4.0 naar V 5.0
Oftewel, thuis pc omtoveren naar ESXI Bak en nieuw systeem kopen.
Huidig systeem draai nu al even weer wat jaren...
ik zou graag een PXI-E RAID controller gaan gebruiken i.c.m.diverse SATA disks.
Wat kunnen jullie mij adviseren? Dit natuurlijk i.v.m. V5
Controller moet wel betaalbaar blijven
Ik wil het gaan gebruiken i.c.m. mijn huidige moederbord en processor.
Dit is een Asrock Extreme 870 en een Phenom II X6 1090T.
Alvast bedankt voor jullie reactie.
Groet,
Mike
Oftewel, thuis pc omtoveren naar ESXI Bak en nieuw systeem kopen.
Huidig systeem draai nu al even weer wat jaren...
ik zou graag een PXI-E RAID controller gaan gebruiken i.c.m.diverse SATA disks.
Wat kunnen jullie mij adviseren? Dit natuurlijk i.v.m. V5
Controller moet wel betaalbaar blijven
Ik wil het gaan gebruiken i.c.m. mijn huidige moederbord en processor.
Dit is een Asrock Extreme 870 en een Phenom II X6 1090T.
Alvast bedankt voor jullie reactie.
Groet,
Mike
Ik zou zeggen, zoek zelf al eens een beetje op, Google'en op esxi raid compatible zou wel in orde moeten komen, denk je van niet?
Heb je zelf al eens gekeken of je moederbord compatibel is? Zou je dat eerst eens niet checken met een bootable USB stickje met ESXi 5 er op?
Wat noem je betaalbaar voor een controller?
Kortom, ik merk weinig input, informatie en inzet van jouw kant (nofi). Begin zelf al eens dingen uit te zoeken, trek er eens een avondje voor uit en ga op tocht...
Heb je zelf al eens gekeken of je moederbord compatibel is? Zou je dat eerst eens niet checken met een bootable USB stickje met ESXi 5 er op?
Wat noem je betaalbaar voor een controller?
Kortom, ik merk weinig input, informatie en inzet van jouw kant (nofi). Begin zelf al eens dingen uit te zoeken, trek er eens een avondje voor uit en ga op tocht...
[ Voor 28% gewijzigd door HyperBart op 27-05-2012 13:40 ]
Verwijderd
Hallo HyperBart, en medelezers
Het is zeer zeker niet de bedoeling geweest om een ander voor "Mijn karretje" te spannen!
Alleen het vinden van antwoorden omtrent de nieuwe versie 5 laat te wensen over op Internet.
Zeker als je het wilt maken van niet klasse A materiaal, lees HP, Dell etc.
Dit heb ik inderdaad niet verwoord in mijn vraag, sorry daarvoor :-)
Systeem thuis getest (AsRock Extreme 870 met Phenom II X6 1090T en het het op dit moment aanwezige 8 GB aan RAM. Systeem met Bootalble USB installer ESXi V5.0.0(623860) gestart en geïnstalleerd.
Systeem start op en is benaderbaar via onboard netwerkkaart! (Realtek RTL8111E)
Huidig ESxi V4.0 systeem heeft 2x Intel Pro 1000 GT, deze worden dan omgezet.
Wat betreft die RAID Controller, ik wil niet al te veel hier aan uit geven (max. €250), is dat mogelijk.
Zeker gezien de reacties op Internet dat vele goedkope controllers in de V5 versie niet meer worden ondersteund....
Tot nu toe gevonden, dit n.a.v. terugkoppeling leverancier.
LSI Logic MegaRAID SAS 9240-4i SGL OEM . (+/- €200)
In eerste instantie met 2 disks RAID 1, later disks uitbreiden (2x raid 1 of naar raid 5...)
Weet iemand of HiPoint (RocketRaid e.d.) ondersteund wordt? Zeer veel negatieve verhalen op Internet dat het niet meer mogelijk is sinds V5!
Alvast bedankt,
Groet,
Mike
Het is zeer zeker niet de bedoeling geweest om een ander voor "Mijn karretje" te spannen!
Alleen het vinden van antwoorden omtrent de nieuwe versie 5 laat te wensen over op Internet.
Zeker als je het wilt maken van niet klasse A materiaal, lees HP, Dell etc.
Dit heb ik inderdaad niet verwoord in mijn vraag, sorry daarvoor :-)
Systeem thuis getest (AsRock Extreme 870 met Phenom II X6 1090T en het het op dit moment aanwezige 8 GB aan RAM. Systeem met Bootalble USB installer ESXi V5.0.0(623860) gestart en geïnstalleerd.
Systeem start op en is benaderbaar via onboard netwerkkaart! (Realtek RTL8111E)
Huidig ESxi V4.0 systeem heeft 2x Intel Pro 1000 GT, deze worden dan omgezet.
Wat betreft die RAID Controller, ik wil niet al te veel hier aan uit geven (max. €250), is dat mogelijk.
Zeker gezien de reacties op Internet dat vele goedkope controllers in de V5 versie niet meer worden ondersteund....
Tot nu toe gevonden, dit n.a.v. terugkoppeling leverancier.
LSI Logic MegaRAID SAS 9240-4i SGL OEM . (+/- €200)
In eerste instantie met 2 disks RAID 1, later disks uitbreiden (2x raid 1 of naar raid 5...)
Weet iemand of HiPoint (RocketRaid e.d.) ondersteund wordt? Zeer veel negatieve verhalen op Internet dat het niet meer mogelijk is sinds V5!
Alvast bedankt,
Groet,
Mike
Gewoon even op de Vmware HCL kijken
Any job you can do in your pajamas is not the hardest job in the world.
Verwijderd
Rooke,
Deze site bezocht, de LSI hier gevonden. (raidcontroller)
Moederbord staat er niet tussen, maar werkt wel....
Wat ik bedoel te vragen is, wie heeft er met zijn RAID controller binnen versie 5 goede ervaringen en is een betaalbare oplossing.
Voor welk model ga je dan, een Dell 5i of de LSI waar ikzelf naar verwijs?
Groet,
Mike
Deze site bezocht, de LSI hier gevonden. (raidcontroller)
Moederbord staat er niet tussen, maar werkt wel....
Wat ik bedoel te vragen is, wie heeft er met zijn RAID controller binnen versie 5 goede ervaringen en is een betaalbare oplossing.
Voor welk model ga je dan, een Dell 5i of de LSI waar ikzelf naar verwijs?
Groet,
Mike
Wat wil je ermee kunnen? Wat is je beoogde setup? Vt-d ja of nee? Software raid of persé hardware raid?
Any job you can do in your pajamas is not the hardest job in the world.
Verwijderd
Rooke,
Phenom II X6 supports AMD-V or VT-x. No support for AMD-Vi or VT-d.
Bovenstaande is wat ik kan terug vinden op Internet!
In eerste instantie ook niet nodig. vandaar ook de optie tot RAID om wat veiligheid in te bouwen w.b.t. data.
Vandaar ook eerst de optie om hardware her te gebruiken van huidig Windows 7 systeem....
T.z.t. misschien deze optie gaan benutten, dan moet de hardware echt op de schop.
Beoogde omgeving:
Servers van diverse aard Linux en Windows based, w.o. veel testwerk
Je hebt het over software raid, dit wordt toch niet ondersteund binnen VMware?
Nogmaals, bedankt voor je reactie.
Groet,
Mike
Phenom II X6 supports AMD-V or VT-x. No support for AMD-Vi or VT-d.
Bovenstaande is wat ik kan terug vinden op Internet!
In eerste instantie ook niet nodig. vandaar ook de optie tot RAID om wat veiligheid in te bouwen w.b.t. data.
Vandaar ook eerst de optie om hardware her te gebruiken van huidig Windows 7 systeem....
T.z.t. misschien deze optie gaan benutten, dan moet de hardware echt op de schop.
Beoogde omgeving:
Servers van diverse aard Linux en Windows based, w.o. veel testwerk
Je hebt het over software raid, dit wordt toch niet ondersteund binnen VMware?
Nogmaals, bedankt voor je reactie.
Groet,
Mike
Je kan wel software RAID gebruiken, maar dat doe je dan inderdaad via een VM die onder VMware draait.
De manieren waarop dat kan zijn al best vaak in dit topic langs gekomen, en ik geloof dat HyperBart gister de startpost nog heeft aangepast en een NAS-in-a-box stuk heeft toegevoegd. Mocht je dat niet veel zeggen, kan je zijn blog lezen, daar staat ook veel informatie in.
Als je geen zin hebt om het hele topic te lezen, kan je filteren op mijn posts, ik weet zeker dat ik het hier (of in Het Grote ZFS Topic) wel uitgelegd hebt hoe je een NAS onder ESX kan maken.
De manieren waarop dat kan zijn al best vaak in dit topic langs gekomen, en ik geloof dat HyperBart gister de startpost nog heeft aangepast en een NAS-in-a-box stuk heeft toegevoegd. Mocht je dat niet veel zeggen, kan je zijn blog lezen, daar staat ook veel informatie in.
Als je geen zin hebt om het hele topic te lezen, kan je filteren op mijn posts, ik weet zeker dat ik het hier (of in Het Grote ZFS Topic) wel uitgelegd hebt hoe je een NAS onder ESX kan maken.
Even niets...
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.