Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Compizfox schreef op dinsdag 19 februari 2013 @ 00:29:
Fuck....

Ik heb mijn ASM1061-controller binnengekregen en hij wordt correct herkend door ESXi.

Echter, zodra ik mijn on-board controller enable voor PCI-e passtrough, klapt mijn losse controller (met de datastore eraan) eruit!

WTF!

Ik ga nu een paar andere PCI-e sloten proberen, maar dit valt me zwaar tegen :(
Dat komt zeer waarschijnlijk omdat de vmhba nummer volgorde veranderd.
Probeer eens ESXi op een USB stick te installeren, daarna met een gedisablede onboard controller die asmedia in gebruik te nemen, daarna de controller aan te zetten, gelijk in passthrough mode zetten en dan rebooten.

Even niets...


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 22:13
Compizfox schreef op dinsdag 19 februari 2013 @ 02:16:
[...]

ESXi ondersteunt geen software-RAID.
Dat weet ik... Vandaar ook mijn vraag welke 2 ports RAID kaart wordt er wel ondersteund en is goed betaalbaar. :P

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
RAID 1? Dan is een LSI 1068e met IR firmware denk ik het goedkoopst.
RAID 5 word een ander verhaal... Ik denk een tweedehands P400 of P410.

Even niets...


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 22:13
Dank voor je antwoord!
Ja, raid kaartje om 2 sata schijven aan te sturen in raid 1.
Hoeft niet fancy te zijn. Zolang ie maar raid 1 aan kan en ondersteund wordt door ESXi (5.1).
En lekker goedkoop is. ;-)

Acties:
  • 0 Henk 'm!

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

xelnaha schreef op maandag 18 februari 2013 @ 14:41:
[...]

Hoeveel vm's ga je draaien? Zou wel eens I/O bottleneck kunnen worden
FireDrunk schreef op maandag 18 februari 2013 @ 15:16:
[...]

Waar komt je ZFS VM zelf op te staan?
Ik heb me fout uitgedrukt. De ZFS VM wordt geïnstalleerd op 1 van de 2,5" sata drives.
De ZFS boodisk wordt ook gemirrord.
Zie: http://forums.servethehom...n-mirrorred-ZFS-bootdisks

Alle overige VM's staan op de ZFS NFS share.

ESXi op een USB stick.

Zal I/O de bottleneck zijn?
jadjong schreef op maandag 18 februari 2013 @ 16:21:
[...]

Begin van het einde. >:) Veel plezier. :P
Bedankt, zal er niet aan mankeren. :+
Marcel_EA schreef op dinsdag 19 februari 2013 @ 10:04:
Dank voor je antwoord!
Ja, raid kaartje om 2 sata schijven aan te sturen in raid 1.
Hoeft niet fancy te zijn. Zolang ie maar raid 1 aan kan en ondersteund wordt door ESXi (5.1).
En lekker goedkoop is. ;-)
Dit is mogelijk ook een oplossing: Raidsonic SR2760-2S-S2B
Hardware raid1 enclosure voor 2 * 2,5" disks, werkt met ESXi.
Had ik plaats in mijn kast kwam dit er ook in.

[ Voor 21% gewijzigd door Obscurax op 19-02-2013 11:52 ]


Acties:
  • 0 Henk 'm!

  • xelnaha
  • Registratie: November 2008
  • Laatst online: 25-05 00:46
Obscurax schreef op dinsdag 19 februari 2013 @ 11:49:
[...]


[...]


Ik heb me fout uitgedrukt. De ZFS VM wordt geïnstalleerd op 1 van de 2,5" sata drives.
De ZFS boodisk wordt ook gemirrord.
Zie: http://forums.servethehom...n-mirrorred-ZFS-bootdisks

Alle overige VM's staan op de ZFS NFS share.

ESXi op een USB stick.

Zal I/O de bottleneck zijn?


[...]


Bedankt, zal er niet aan mankeren. :+


[...]


Dit is mogelijk ook een oplossing: Raidsonic SR2760-2S-S2B
Hardware raid1 enclosure voor 2 * 2,5" disks, werkt met ESXi.
Had ik plaats in mijn kast kwam dit er ook in.
2xmirror is op zich ok, maar ligt aan hoeveelheid vm's je wilt draaien. CPU is nagenoeg nooit bottleneck, maar mem en disc I/O wel. Dus als je dan veel vm's op een 2x mirror draait kun je wel eens bottleneckje hebben.

Uiteraard heb je disc caching wat helpt, en mirror helpt ook al, maar goed, veel vm's == veel io

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

FireDrunk schreef op dinsdag 19 februari 2013 @ 08:00:
[...]

Dat komt zeer waarschijnlijk omdat de vmhba nummer volgorde veranderd.
Probeer eens ESXi op een USB stick te installeren
ESXi staat op op een USB-stick :)
daarna met een gedisablede onboard controller die asmedia in gebruik te nemen, daarna de controller aan te zetten, gelijk in passthrough mode zetten en dan rebooten.
Ik denk niet dat dat gaat helpen, omdat het niet aan een nummer ligt. Zodra ik mijn onboard SATA-controller "mark for passthrough" en reboot, zijn beide controllers verdwenen uit "Storage Adapters".

EDIT: Heb nu trouwens een alternatief bedacht: Ik prik een USB-stick in mijn router (OpenWRT) en share die met NFS.
Die kan ik dan gebruiken als datastore. De rest van de VM's zet ik via iSCSI op de ZFS pool.
Dan moet ik alleen wel zorgen dat ZFSGuru zélf ook op de pool staat. Ik moet dan alleen de bootloader installeren op de datastore, want een ESXi VM schijnt niet te kunnen booten vanaf een HDD op een doorgegeven HBA.

Waarschijnlijk wel poepietraag, maar het wordt enkel gebruikt voor de bootloader van de ZFSGuru-VM en de settings van ESXi.

[ Voor 34% gewijzigd door Compizfox op 19-02-2013 12:26 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 22:13
Bedankt voor je antwoord Obscurax
Alleen heb ik 2 3,5 inch schijven in mijn 1U server en dat wil ik zo houden.
Ben alleen op zoek naar een 2 (of 4) ports PCI-e raid 1 kaartje. Goedkoop en compatible met ESXi 5.1

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Ik heb nu alle PCI-e sloten geprobeerd. Het lijkt niet daarvan afhankelijk te zijn. Andere kaarten op de PCI-e sloten (zoals mijn videokaart) blijven wel gewoon werken. Het is dus niet zo dat hij alle PCI-e bridges 'meepassthrought'.

Blijkbaar is die ASM1061 toch afhankelijk van een onboard SATA-controller om te functioneren of zo.

Wat ik nu heb gedaan: (fear my Paint skillz)
Afbeeldingslocatie: http://tweakers.net/ext/f/VlSTfCNAcbWtR49l4aHpneBa/full.png

Dat "Unkown Unknown" staat er trouwens ook als ik de onboard HBA niet heb doorgeven, maar dan werkt hij gewoon.

EDIT: Als ik mijn onboard SATA-controller disable in de BIOS, werkt mijn ASM1061 ook niet in ESXi! Ik vermoed dus dat het probleem 'breder' ligt dan ESXi.

[ Voor 28% gewijzigd door Compizfox op 19-02-2013 13:59 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
devastator83 schreef op vrijdag 15 februari 2013 @ 08:20:
Ik heb de C-Status bij bij op automatic staan geloof ik.
Moet er eens mee spelen om te kijken wat het effect is
Inmiddels bijgewerkt, is auto voldoende of hebben jullie ze op enabled staan. (h77, bios rev 1.7). Want ik krijg nog niet de indruk dat het veel doet eerlijk gezegd (met openindiana).

Los ervan: spindown ingesteld voor vmkfstools -z RDM'ed disks via virtuele linux (hdparm -B enzo, APM/AAM). Ik kan ze onder linux ook met hdparm -Y in spindown brengen, echter weigeren ze nog onder NexentaStor helaas.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Pantagruel schreef op donderdag 14 februari 2013 @ 22:46:
[...]
Yep, de 'oefening' was ook vooral om de onduidelijkheid die her en der leek te ontstaan uit de wereld te helpen.

Redelijke kans dat een PCIe Asm insteekkaartje gaat werken, gezien t feit dat ESX 5.1 een disk aan de Asm controller gewoon kan gebruiken als datastore. Als dat goed gaat is de weg vrij om de hele on-board zwik door te steken mbv Vt-d.
Edd schreef op donderdag 14 februari 2013 @ 23:53:
[...]

Dat ligt aan je moederbord... Zelf heb ik het geprobeerd met een MSI H77MA-G43 mobo icm een ICIDU Sata kaartje (JMicron). Wanneer ik niets doe, gaat het goed en herkent ESXi beide.
Het doorgeven van het ICIDU-kaartje via VT-d werkte ook prima, echter het doorgeven van de onboard Sata Controllers naar een VM (met VT-d) en de datastore hangend aan de ICIDU-kaart was een no-go..
ESXi kon de datastore niet meer vinden en herkende de kaart en hdd niet meer..

Dus dat het werkt, geldt niet voor ieder moederbord..
Heb nu dus maar voor weinig een Dell PERC H200 erin gezet.
Nou, het werkt dus inderdaad niet met een losse kaart. :(

Waarschuwing dus voor anderen: Passthrough van de onboard SATA-controller zorgt in veel gevallen dat een losse SATA-controller ook onbruikbaar wordt.
Dit geldt voor een PCI-e kaart.


Ik krijg binnenkort nog een sil3114 (PCI) binnen, daarmee ga ik ook testen.

[ Voor 3% gewijzigd door Compizfox op 19-02-2013 23:21 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Valkyre
  • Registratie: April 2002
  • Laatst online: 07:53

Valkyre

Kitesurf FTW!

Compizfox schreef op dinsdag 19 februari 2013 @ 23:06:
[...]

[...]

Nou, het werkt dus inderdaad niet met een losse kaart. :(

Waarschuwing dus voor anderen: Passthrough van de onboard SATA-controller zorgt in veel gevallen dat een losse SATA-controller ook onbruikbaar wordt.
Dit geldt voor een PCI-e kaart.


Ik krijg binnenkort nog een sil3114 (PCI) binnen, daarmee ga ik ook testen.
Maar als je alleen de PCI-e kaart doorzet gaat het dan wel goed? ik zit er nog aan te denken om dus de onboard controllers gewoon te laten voor wat ze zijn, kun je mooi vm's op aansluiten.
En dan een losse PCI-e raid kaart M1015 oid. die doorzetten naar een VM om freenas oid te draaien.
Dat zou volgens mij moeten werken?

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 15-09 20:48
Is het een idee om een soort van "default, budget" systeem in de startpost te plaatsen met een lijstje van hardware die out-of-the-box werkt onder ESX, inclusief twee NICS en snel genoeg om een stuk of 3 a 4 VMs te draaien? Ik ben wel benieuwd naar zo'n lijstje en ik denk dat ik niet de enige ben.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Er staan al tig systemen in de startpost? Daaruit kan je toch wel afleiden wat wel en niet werkt?

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Gohan-san schreef op woensdag 20 februari 2013 @ 11:31:
[...]


Maar als je alleen de PCI-e kaart doorzet gaat het dan wel goed? ik zit er nog aan te denken om dus de onboard controllers gewoon te laten voor wat ze zijn, kun je mooi vm's op aansluiten.
En dan een losse PCI-e raid kaart M1015 oid. die doorzetten naar een VM om freenas oid te draaien.
Dat zou volgens mij moeten werken?
Ik heb dat met mijn ASM1061 nog niet getest, maar ik ga ervan uit dat dat wel werkt (Pantagruel lukte het ook).

Een M1015 werkt sowieso wel, velen gebruiken die hier geloof ik :)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • mkool89
  • Registratie: December 2008
  • Laatst online: 02-08-2021
smeerbartje schreef op woensdag 20 februari 2013 @ 12:09:
Is het een idee om een soort van "default, budget" systeem in de startpost te plaatsen met een lijstje van hardware die out-of-the-box werkt onder ESX, inclusief twee NICS en snel genoeg om een stuk of 3 a 4 VMs te draaien? Ik ben wel benieuwd naar zo'n lijstje en ik denk dat ik niet de enige ben.
Lijkt mij ook een goed idee. Zelf heb ik net weer een nieuw systeem aangeschaft:
Asrock Z77 Pro4-M
Be-Quiet System Power 7 -300w
Western Digital Caviar Blue sata 3 1tb x2
Geil 32GB DDR3-1866mhz EVO Leggera
Sharkoon MS120
Intel I5-3330

Op de wenslijst staat nog een raidkaart, maar daar heb ik voor nu nog even van afgezien.
Denk dat dit wel een redelijk start systeem is. Systeem zoals hierboven beschreven kost 573,- euro bij Afuture.

Er kan natuurlijk bezuinigd worden op de CPU,persoonlijk denk ik echter dat dit toch wel de minimum specs zijn als je het systeem langer dan een jaar wil draaien. Dit hangt natuurlijk wel af waarvoor je hem gaat gebruiken.

[ Voor 1% gewijzigd door mkool89 op 20-02-2013 14:45 . Reden: Zin aangepast voor verduidelijking ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Waarom een RAID kaart van 570,- :|

Even niets...


Acties:
  • 0 Henk 'm!

  • mkool89
  • Registratie: December 2008
  • Laatst online: 02-08-2021
Systeem koste 573,-. Excuus voor de onduidelijkheid is aangepast!
Qua raidkaart zit ik te denken aan een Highpoint RocketRAID 640L.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Om onder ESXi te gebruiken?

Even niets...


Acties:
  • 0 Henk 'm!

  • mkool89
  • Registratie: December 2008
  • Laatst online: 02-08-2021
Ja, maar dat zal wel niet doorgaan bij gebrek aan een VIB file. ik het het heel raid + ondersteuning verhaal nog niet uitgebreid bestudeerd.

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Mmm, alles draait dus perfect. Met 1SSD en 1HDD (niet in standby) verbruikt het systeem 33W.

Wat me wel zorgen baart, is dat ZFSguru geen alerting heeft wanneer iets mis gaat met de pool (bijv disk crasht). Hebben jullie hier zelf iets voor gemaakt, of heeft niemand waarschuwingen ?

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 15-09 20:48
mkool89 schreef op woensdag 20 februari 2013 @ 14:24:
[...]


Lijkt mij ook een goed idee. Zelf heb ik net weer een nieuw systeem aangeschaft:
Asrock Z77 Pro4-M
Be-Quiet System Power 7 -300w
Western Digital Caviar Blue sata 3 1tb x2
Geil 32GB DDR3-1866mhz EVO Leggera
Sharkoon MS120
Intel I5-3330

Op de wenslijst staat nog een raidkaart, maar daar heb ik voor nu nog even van afgezien.
Denk dat dit wel een redelijk start systeem is. Systeem zoals hierboven beschreven kost 573,- euro bij Afuture.

Er kan natuurlijk bezuinigd worden op de CPU,persoonlijk denk ik echter dat dit toch wel de minimum specs zijn als je het systeem langer dan een jaar wil draaien. Dit hangt natuurlijk wel af waarvoor je hem gaat gebruiken.
Cool, en wat is zo'n beetje het verbruik van het ding?

  • mkool89
  • Registratie: December 2008
  • Laatst online: 02-08-2021
Volgens berekeningen pakt hij ong. 80 Watt, Ik heb helaas nog geen goede wattage meter. Deze hoop ik dit weekend aan te schaffen. Dan kan ik pas definitief wat zeggen.

Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
devastator83 schreef op maandag 18 februari 2013 @ 22:06:
Iemand jumbo frames aan de praat gekregen op een H77 Pro4-M ?
Niemand ?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
devastator83 schreef op donderdag 21 februari 2013 @ 07:44:
Mmm, alles draait dus perfect. Met 1SSD en 1HDD (niet in standby) verbruikt het systeem 33W.

Wat me wel zorgen baart, is dat ZFSguru geen alerting heeft wanneer iets mis gaat met de pool (bijv disk crasht). Hebben jullie hier zelf iets voor gemaakt, of heeft niemand waarschuwingen ?
Er is wel eens iemand geweest die en mail scriptje heeft geschreven, staat vast wel ergens in het Grote ZFS topic. Check ff de search.

Over jumbo frames, waarom zou het niet werken?

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Omdat de NIC (of driver voor de NIC) het niet support. Ik heb zoiets met de Gbit NIC in mijn MacBook Pro. De router en nog een andere device op het netwerk ondersteunen het ook niet. Erg? Nee, ik zie geen verschil tussen wel of geen jumbo frames op mijn netwerk (uiteraard heb ik getest door de devices die jumbo frames niet ondersteunen even af te koppelen).

Acties:
  • 0 Henk 'm!

  • Cabrinii
  • Registratie: Juni 2010
  • Laatst online: 13-09 10:33
Ik heb thuis een ESXi Server met de onderstaande specificaties:

Intel Core i5-2500, 3.30GHz, 6MB, HD2000, S1155
Intel DQ67SWB3 S1155 Q67 4xDDR3 mATX
Kingston ValueRam 8GB(2x4GB) DDR3 1333MHz CL9
Kingston DataTraveler G3, 4GB, wit/grijs
igmatek Asgard II, ATX, Zwart/Zwart
Be Quiet! Straight Power E9 500W

Hierin zitten momenteel 3 diverse hardeschijven die ik nog over had.
Ik ben nu van plan om hierop een VM te maken met WHS 2011. Hiervoor wil ik 4-5x 2tb disken gaan plaatsen. Echter ondersteun mijn Intel moederbord maar 4 sata poorten. Ik heb gekeken naar PCIe kaarten, alleen zie ik dat veel mensen hier problemen mee hebben.

Ik heb de B75 Pro3-M met daarop 8 sata aansluitingen gezien. Nou zou ik graag willen weten of ESXi 5.0 succesvol en stabiel gedraaid kan worden op dit Mobo. Het is namelijk een kleine investering om het moederbord te vervangen. Mijn CPU en geheugen zouden compatible moeten zijn.

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:19
De pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x zijn volgens mij maar weinig kuren mee anders :?

Acties:
  • 0 Henk 'm!

  • Cabrinii
  • Registratie: Juni 2010
  • Laatst online: 13-09 10:33
Ik dacht dat hierbij je maar 2 extra schijven kan aansluiten. Maar het zijn er 8? Kan ik alleen niet duidelijk uit de afbeelding halen..

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:19
Dat weet ik ook niet precies, zoek anders even in dit topic. Ik ken de kaart alleen van reacties hier. Heb er zelf geen, dus zou niet weten hoe dat verder werkt.



Weet iemand trouwens een goede tutorial om ghettoVCB + mksbackup in te stellen? Heb m'n ESXi host nu een week of 2 draaien, maar nogsteeds niks aan backups gedaan omdat ik er niet wijs uit kan worden hoe het werkt. Heb wel aantal handleidingen gevonden, maar dat is allemaal zo onduidelijk dat ik er niet wijs uit kan worden :X

Acties:
  • 0 Henk 'm!

  • Cabrinii
  • Registratie: Juni 2010
  • Laatst online: 13-09 10:33
Ben er al achter. Hij heeft 2x Mini-SAS aansluitingen. Voor Mini-SAS zijn er kabels van Mini_SAS naar 4 SATA aansluitingen. Daardoor kan je in het totaal dus 8 disken aansluiten via de controller. Echter wel duurder dan het moederbord.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Frankvdhoek schreef op zondag 24 februari 2013 @ 12:44:
Ik heb thuis een ESXi Server met de onderstaande specificaties:

Intel Core i5-2500, 3.30GHz, 6MB, HD2000, S1155
Intel DQ67SWB3 S1155 Q67 4xDDR3 mATX
Kingston ValueRam 8GB(2x4GB) DDR3 1333MHz CL9
Kingston DataTraveler G3, 4GB, wit/grijs
igmatek Asgard II, ATX, Zwart/Zwart
Be Quiet! Straight Power E9 500W

Hierin zitten momenteel 3 diverse hardeschijven die ik nog over had.
Ik ben nu van plan om hierop een VM te maken met WHS 2011. Hiervoor wil ik 4-5x 2tb disken gaan plaatsen. Echter ondersteun mijn Intel moederbord maar 4 sata poorten. Ik heb gekeken naar PCIe kaarten, alleen zie ik dat veel mensen hier problemen mee hebben.

Ik heb de B75 Pro3-M met daarop 8 sata aansluitingen gezien. Nou zou ik graag willen weten of ESXi 5.0 succesvol en stabiel gedraaid kan worden op dit Mobo. Het is namelijk een kleine investering om het moederbord te vervangen. Mijn CPU en geheugen zouden compatible moeten zijn.
De Asrock B75 Pro3-M doet t prima in combinatie met ESXi, ik heb wel een hickup gehad met de onboard nic maar die ging ook weer automagisch over.

Het enige wat je niet kunt doen is het doorgeven van de on-board Intel SATA controller via Vt-d omdat dan de Asmedia controller meegegeven wordt. Andersom kun je de Asmedia controller wel doorgeven middels Vt-d zonder de datastore die aan de intel SATA controller hangt te verliezen, zie hier.
Betekend dat je dus aan een extra controller moet, qua ondersteuning is de M1015 (naar IT mode geflashed) een fijn kaartje, jammer genoeg wel duurder dan je bordje. Andere bruikbare HBA's staan hier.

[ Voor 8% gewijzigd door Pantagruel op 24-02-2013 13:55 . Reden: HBA's ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • bassiexp
  • Registratie: Oktober 2007
  • Laatst online: 21:04
Frankvdhoek schreef op zondag 24 februari 2013 @ 13:15:
[...]


Ik dacht dat hierbij je maar 2 extra schijven kan aansluiten. Maar het zijn er 8? Kan ik alleen niet duidelijk uit de afbeelding halen..
Er zitten op de m1015 2 aansluitingen waar forward breakout kabels van 2 sas multilane kabels naar 8x sata connectoren.

Zelf heb ik deze in gebruik
pricewatch: 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M

Als mijn omschrijving niet klopt hoor ik het graag ben maar een hobby-ist

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Frankvdhoek schreef op zondag 24 februari 2013 @ 13:20:
Ben er al achter. Hij heeft 2x Mini-SAS aansluitingen. Voor Mini-SAS zijn er kabels van Mini_SAS naar 4 SATA aansluitingen. Daardoor kan je in het totaal dus 8 disken aansluiten via de controller. Echter wel duurder dan het moederbord.
Bij ESXi wordt de kaart met een alternatieve firmware geflasht en daarna ingezet als HBA: gewoon een controller voor het aansluiten van schijven. Dat doet men zodat ze de gehele controller kunnen doorgeven aan een vm. Vaak wordt er dan een NAS gemaakt en ZFS gebruikt. Kijkend naar de concurrentie is de M1015 wel de goedkoopste oplossing hiervoor. Onboard controllers doorgeven aan vm's moet je niet doen want dat levert veel problemen op omdat men vaak ook de schijf waarop de vm's staat daaraan heeft hangen. Dat kun je dus eigenlijk alleen doen als je 'm verder niet gebruikt (je vm's staan bijv. op een NAS/SAN).

Acties:
  • 0 Henk 'm!

  • ravenstein
  • Registratie: September 2008
  • Laatst online: 16-09 16:24
Zojuist het volgende testsysteem besteld voor thuis:

Antec Midi Tower One ATX, No PSU (zwart)
ASRock H77 Pro4-M iH77, SATA600, USB3.0
Corsair 2x8GB, DDR3, PC12800, CL10, Vengeance, LP (blauw)
Corsair Voeding VS350 350W
Intel Core i5 3330 3.00GHz 6MB Box
Kingston 8GB, USB2.0, DataTraveler SE9 (zilver)
Lite-On DVD Brander IHAS124-04 24x, SATA (zwart)
Samsung SSD 2.5", 250GB, SATA600, 840 Series

Weet iemand of die NIC van de ASRock H77 Pro4-M iH77, out of the box herkend word door Esxi?
Welke versie is nu aan te raden, 5, of de laatste?

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 20:47
Volgens Pantagruel doet die nic het out of the box.

Weet iemand of de intel nic vanuit de community beetje stabiel is? Die van 'chilly'. Ben bezig om een nieuwe setup samen te stellen.

[ Voor 57% gewijzigd door FDMK op 24-02-2013 19:38 ]

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 22:59
Ik ben stiekem ook een systeem aan het overwegen om een systeem samen te stellen om te spelen met ESXI. De bedoeling met het systeem met in iedergeval de volgende virtual machines:

- Fileserver (die een standaard 1000mbit netwerk dicht trekt)
- Windows machine tbv domotica/plugwise
- Download bak
- testserver

Ik verwacht geen erg zware belasting van de VM's.

De eisen die ik heb zijn in volgorde van belangrijkheid voor mij:
- Laag energie verbruik
- vt-d (of AMD variant)
- Mogenlijkheid tot het plaatsen van minimaal 4 hd's met eventueel nog uitbreidingsmogelijkheden
- Aanschafprijs

Uit de info van dit topic denk ik nu aan iets als:

#ProductPrijsSubtotaal
1Intel Core i5 3330 Boxed€ 154,95€ 154,95
1MSI P45€ 52,95€ 52,95
1Fractal Design ARC MINI€ 69,90€ 69,90
1Corsair Vengeance CML16GX3M2A1600C10€ 81,80€ 81,80
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
Bekijk collectie
Importeer producten
Totaal€ 397,55


Maar ik twijfel nog over het moederbord en kast.
- Moederbord: is er een betere/energie zuiniger model, ik zie veel asrock modelen genoemd worden.
- Kast, ik heb geen specifieke eisen, zijn er hier voorstellen voor een andere/betere/goedkoper model?
- Harde schijven zoek ik nog uit/heb ik al worden energie zuinige modellen voor de file server 1 disk voor de vm's

- Laatste en meer technische vraag:
Hoe geef ik de schijven door naar de VM file server? Heel de controler via vd-t aan de fileserver toewijzen, of per schijf en via de fileserver een raid opstelling aan maken?

Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
ppl schreef op zondag 24 februari 2013 @ 16:27:
[...]

...
Dat kun je dus eigenlijk alleen doen als je 'm verder niet gebruikt (je vm's staan bijv. op een NAS/SAN).
Zijn er mensen die hun VM's opslaan op een NAS ? Hoe zit het dan met de snelheid van die VM's ?

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

lithoijen schreef op zondag 24 februari 2013 @ 21:45:
..snipz...

Maar ik twijfel nog over het moederbord en kast.
- Moederbord: is er een betere/energie zuiniger model, ik zie veel asrock modelen genoemd worden.
- Kast, ik heb geen specifieke eisen, zijn er hier voorstellen voor een andere/betere/goedkoper model?
- Harde schijven zoek ik nog uit/heb ik al worden energie zuinige modellen voor de file server 1 disk voor de vm's
Moederbord is op zich ok, mocht je een tweede netwerkkaart willen om management en file-serveing deel te scheiden is de Intel DQ77MK een optie, wel een stuk duurder.

Gezien de evt. uitbredingswens kun je voor ca . €10 meer beter de Arc midi nemen, heb je meteen 8x 3,5"
- Laatste en meer technische vraag:
Hoe geef ik de schijven door naar de VM file server? Heel de controler via vd-t aan de fileserver toewijzen, of per schijf en via de fileserver een raid opstelling aan maken?
Je zult voor een extra SATA controller moeten gaan, op t moment dat je de onboard door zou geven middels Vt-d verliest ESXi de toegang tot zijn lokale datastore en starten de vm's niet meer op.
Zie mijn post een stukje terug, daar staat ook een link naar een lijstje met geliefde HBA's.
Wat ik verder mis is wel OS je wilt gaan gebruiken voor je fileserver (windows/ZFSguru/OI/linux/etc) en of je iets van RAID (hardware/software/zfs) wilt gaan draaien.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

devastator83 schreef op maandag 25 februari 2013 @ 07:46:
[...]


Zijn er mensen die hun VM's opslaan op een NAS ? Hoe zit het dan met de snelheid van die VM's ?
Heb zelf een aantal VM's draaien op een Qnap nas via 1Gb internet. Installeren van windows 2008 R2 duurde 3 uur, maar als het eenmaal loopt, loopt het vrij aardig voor hobby projecten.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
devastator83 schreef op maandag 25 februari 2013 @ 07:46:
[...]


Zijn er mensen die hun VM's opslaan op een NAS ? Hoe zit het dan met de snelheid van die VM's ?
Wat bedoel je met NAS? Zo een kant en klare QNAP of Synology? Of bedoel je algemeen eender welke NAS?

Ik kan je wel al vertellen dat ik ook een QNAP'je vroeger had (in die tijd best een pittiger modelletje 4-bay). TS 439 Pro II met 4 x 5900rpm schijven van 2TB en ik kan je vertellen dat dat echt pokketraag gaat. Een Atom kon de IO niet aan die ik er op afstuurde, en dat was dan nog maar met 2 VM's. Nu met ZFSguru en een setje schijven met een SSD er bij gaat het allemaal prima vooruit!
Verwijderd schreef op maandag 25 februari 2013 @ 11:26:
[...]


Heb zelf een aantal VM's draaien op een Qnap nas via 1Gb internet. Installeren van windows 2008 R2 duurde 3 uur, maar als het eenmaal loopt, loopt het vrij aardig voor hobby projecten.
Dat dus ^^ . Als die machines staan the idle'en: geen probleem (duh, moet niks naar of van disk), maar vanaf het moment dat je wat dingen er op gaat plaatsen zakt de performance gigantisch hard in.

Neen, ga dan liever voor een "converged" ESXi om het zo maar te noemen: SAN/NAS en ESXi ineens... Met mij doen heel wat tweakers dat: disks aan een controller, dat in een ESXi-server, controller via VT-d doorgeven aan een VM en dan met ZFS een pool aanmaken. Kan natuurlijk ook prima met een ander OS/systeem.

[ Voor 36% gewijzigd door HyperBart op 25-02-2013 11:29 ]


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
HyperBart schreef op maandag 25 februari 2013 @ 11:27:
[...]

Wat bedoel je met NAS? Zo een kant en klare QNAP of Synology? Of bedoel je algemeen eender welke NAS?

[...]
Idd een Synology, want die heb ik nu 'over'.
Zo een IBM raid kaartje kost ook direct 120 euro :-/

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:19
Verwijderd schreef op maandag 25 februari 2013 @ 11:26:
[...]


Heb zelf een aantal VM's draaien op een Qnap nas via 1Gb internet. Installeren van windows 2008 R2 duurde 3 uur, maar als het eenmaal loopt, loopt het vrij aardig voor hobby projecten.
Pfff dat schiet toch niet op... Heb m'n datastore hier op een standaard 5400rpm 2.5" laptop disk draaien, en dan is 2008 R2 in 20min geinstalleerd...

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 22:57

DukeBox

loves wheat smoothies

devastator83 schreef op maandag 25 februari 2013 @ 07:46:
Zijn er mensen die hun VM's opslaan op een NAS ? Hoe zit het dan met de snelheid van die VM's ?
Op de Synology DS1512+. Werkt als een zonnetje mits je array maar genoeg IO's aankan.
Wel gekoppeld middels iSCSI (dus dan een SAN, en geen NAS) om optimaal gebruik te maken van VAAI en MPIO. Sustained write/read trek ik met gemak de 210MB/s en met 10x7200RPM in raid 10 haal ik zo'n 1280 IOp/s read en 1170 IOp/s write.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
DukeBox schreef op maandag 25 februari 2013 @ 11:53:
[...]

Op de Synology DS1512+. Werkt als een zonnetje mits je array maar genoeg IO's aankan.
Wel gekoppeld middels iSCSI (dus dan een SAN, en geen NAS) om optimaal gebruik te maken van VAAI en MPIO. Sustained write/read trek ik met gemak de 210MB/s en met 10x7200RPM in raid 10 haal ik zo'n 1280 IOp/s read en 1170 IOp/s write.
Tis een DS211, dus wel wat minder performant :-)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
ThinkPadd schreef op maandag 25 februari 2013 @ 11:46:
[...]

Pfff dat schiet toch niet op... Heb m'n datastore hier op een standaard 5400rpm 2.5" laptop disk draaien, en dan is 2008 R2 in 20min geinstalleerd...
20min :z :z

* FireDrunk doet dat op een ZFS Pool met SLOG in ~5 :+

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
DukeBox schreef op maandag 25 februari 2013 @ 11:53:
[...]

Op de Synology DS1512+. Werkt als een zonnetje mits je array maar genoeg IO's aankan.
Wel gekoppeld middels iSCSI (dus dan een SAN, en geen NAS) om optimaal gebruik te maken van VAAI en MPIO. Sustained write/read trek ik met gemak de 210MB/s en met 10x7200RPM in raid 10 haal ik zo'n 1280 IOp/s read en 1170 IOp/s write.
Dat mag ook wel met 10 disks 8)7 . Om je even een beeld te geven: een eerste generatie Crucial M4 samen met 5 x 3TB Hitachi's @ 7200RPM, IOPS liggen rond de 5K met ZFS...

Een install van W2K8R2 is op 6,5 min gedaan bij mij. ISO van SSD.

[ Voor 5% gewijzigd door HyperBart op 25-02-2013 12:56 ]


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 22:59
@ Pantagruel

Bedankt voor de tips en antwoorden!!
-De kast kom ik wel uit, bedankt voor de tip
-Moederbord, ik denk niet dat ik een extra netwerk kaart nodig heb, bovendien kan ik de altijd nog toevoegen, wel wil ik een goed ondersteund/energie zuinig bord dus ik twijfel nog tussen de MSI en de Asrock bordjes (hier hoor ik graag jullie ervaringen en eventueel zelf verbruik cijfers over).

-Ik ben inderdaad op de hoogte dat ik een extra SATA controller moeten hebben wil ik hem door willen kunnen geven via Vt-d, mijn vraag is meer is dit performance technisch gezien een groot voordeel heeft tov het per schijf doorgeven aan de VM file server. Een extra SATA controller kost toch ook geld en voor mij belangrijker elektra.

Als antwoord op je vraag welk OS voor de file server:
Hij moet een Synology nas vervangen (twee apparaten is zonde van de stroom) daarom dacht ik te gaan experimenteren met een van de volgende opties:

-Xpenology (een versie van het synology os voor pc's)
-Een OS dat werkt met het ZFS file systeem zoals ZFSguru (lijkt me ook leuk om eens uit te puzzelen, met mogelijk een snel robuust resultaat.
-Een Linux os met samba of Windows

Ik hoop dat ik optie 1 of 2 voor elkaar krijg.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
4x crucial in raidz via iscsi op openindiana doorgegeven over gigabit (wordt IB) naar ESXi. Draait een tiental VMs (*nix) met weinig activiteit. Qua iops zat het nog redelijk goed herinner ik me desondanks Gbe.
schaamteloze zelfpromotie, maar relevant voor het topic, mocht iemand het gemist hebben. Aankoopgids: storage en virtualisatie servers

[ Voor 38% gewijzigd door analog_ op 25-02-2013 14:28 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

lithoijen schreef op maandag 25 februari 2013 @ 13:55:
-Ik ben inderdaad op de hoogte dat ik een extra SATA controller moeten hebben wil ik hem door willen kunnen geven via Vt-d, mijn vraag is meer is dit performance technisch gezien een groot voordeel heeft tov het per schijf doorgeven aan de VM file server. Een extra SATA controller kost toch ook geld en voor mij belangrijker elektra.
Performance-wise niet, maar vergeet niet dat RDMs voor SATA unsuported zijn en soms rare quirks heeft.

- Met virtual RDMs geef je je schijven als block devices (met SCSI-emulatielaag) door aan ZFS. Qua 'niveau' is dat te vergelijken met iSCSI eigenlijk. ZFS vind dat niet leuk omdat hij niet direct bij de schijf zelf kan: ZFS kan niet te weten komen waar er bad sectors zitten, kan niet bij SMART-data, kan schijven niet downspinnen en ga zo maar door. Niet gebruiken dus.

- Met physical RDMs heb je dat probleem niet, maar alsnog zit er een vertaalslag van AHCI naar SCSI tussen. De geemuleerde SAS-controller heeft oude (virtuele) firmware waardoor dit niet werkt in o.a. FreeBSD 9.1 (ZFSGuru, Nas4Free)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Compizfox schreef op maandag 25 februari 2013 @ 15:24:
[...]

Performance-wise niet, maar vergeet niet dat RDMs voor SATA unsuported zijn en soms rare quirks heeft.

- Met virtual RDMs geef je je schijven als block devices (met SCSI-emulatielaag) door aan ZFS. Qua 'niveau' is dat te vergelijken met iSCSI eigenlijk. ZFS vind dat niet leuk omdat hij niet direct bij de schijf zelf kan: ZFS kan niet te weten komen waar er bad sectors zitten, kan niet bij SMART-data, kan schijven niet downspinnen en ga zo maar door. Niet gebruiken dus.

- Met physical RDMs heb je dat probleem niet, maar alsnog zit er een vertaalslag van AHCI naar SCSI tussen. De geemuleerde SAS-controller heeft oude (virtuele) firmware waardoor dit niet werkt in o.a. FreeBSD 9.1 (ZFSGuru, Nas4Free)
Second that, physical rdm werkt goed. Ik heb sinds december 2012 een OI VM draaien met 2 physical RDM-d drives en die heeft tot op heden nog geen steek laten vallen (link).

Met virtual RDM heb ik al wel problemen gehad. Ubuntu mekkerde bij een reboot over de omvang van de RDM'd disk en ging over zijn nek. Aangezien t een test was ging er gaan data verloren, maar 't was wel voldoende 'schrikken ' om 't gebruik van virt RDM uit te sluiten.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 22:59
Wederom bedankt voor de nuttige info!

ZFS valt dus af icm block devices, maar heeft ook zijn problemen met een extra controller die via vD-t wordt doorgegeven aan de VM ivm oude virtuele firmware (voor sommige OS'en dan tenminste).

Dan neig ik erna om te gaan werken zonder extra controller en de disks via raw device mapping door te geven aan een linux host (of Xpenology). Dan kan ik in de toekomst altijd nog een controller kaart toevoegen indien gewenst.

edit:
Blijkbaar is dat ook geen ideale oplossing:
Met virtual RDM heb ik al wel problemen gehad. Ubuntu mekkerde bij een reboot over de omvang van de RDM'd disk en ging over zijn nek. Aangezien t een test was ging er gaan data verloren, maar 't was wel voldoende 'schrikken ' om 't gebruik van virt RDM uit te sluiten.

Valt me toch een beetje tegen van een dergelijke "professionele oplossing"als ESXI.
Ik lees me eerst even nog wat verder in in de materie voordat ik een aankoop beslissing neem :)

[ Voor 36% gewijzigd door lithoijen op 25-02-2013 15:56 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
lithoijen schreef op maandag 25 februari 2013 @ 15:53:
Wederom bedankt voor de nuttige info!

ZFS valt dus af icm block devices, maar heeft ook zijn problemen met een extra controller die via vD-t wordt doorgegeven aan de VM ivm oude virtuele firmware (voor sommige OS'en dan tenminste).
Nee, nou haal je 2 dingen door elkaar... Als je RDM gebruikt (dus iets anders dan VT-d), DAN heb je mogelijk problemen met de virtuele controller onder ESXi.
Met gewoon VT-d werkt dat allemaal prima.
Dan neig ik erna om te gaan werken zonder extra controller en de disks via raw device mapping door te geven aan een linux host (of Xpenology). Dan kan ik in de toekomst altijd nog een controller kaart toevoegen indien gewenst.
Dat is inderdaad een optie.
edit:
Blijkbaar is dat ook geen ideale oplossing:
Met virtual RDM heb ik al wel problemen gehad. Ubuntu mekkerde bij een reboot over de omvang van de RDM'd disk en ging over zijn nek. Aangezien t een test was ging er gaan data verloren, maar 't was wel voldoende 'schrikken ' om 't gebruik van virt RDM uit te sluiten.

Valt me toch een beetje tegen van een dergelijke "professionele oplossing"als ESXI.
Ik lees me eerst even nog wat verder in in de materie voordat ik een aankoop beslissing neem :)
Dat mekkeren over de disk size is ongeveer hetzelfde probleem als FreeBSD heeft, RDM's die niet goed werken op die virtuele controller geven namelijk size 0 aan.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

lithoijen schreef op maandag 25 februari 2013 @ 15:53:
Wederom bedankt voor de nuttige info!

ZFS valt dus af icm block devices,
Que? :?

Ik zei dat virtual RDMs afvallen met ZFS ;)

Met physical RDMs kan het wel, maar dat heeft problemen als je FreeBSD 9.1 als guest OS gebruikt.
maar heeft ook zijn problemen met een extra controller die via vD-t wordt doorgegeven aan de VM ivm oude virtuele firmware (voor sommige OS'en dan tenminste).
Ook dat heb ik niet gezegd. PCI-e passthrough van een complete HBA (waarvoor je VT-d / AMD-Vi nodig hebt), werkt juist WEL altijd zonder problemen.
Maar dat is wel de duurste oplossing door de aanschaf van een losse HBA.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 22:59
Ach ik denk dat ik hem nu volg!
Best lastig nog dat virtualiseren :)

- Virtual RDM is geen optie icm ZFS ivm firmware issues.
- Controller doorgeven via vD-t gaat prima, maar vereist een extra controller met als nadeel stroomverbruik en aanschafkosten (over wat voor extra verbruik hebben we het eigenlijk?).
- RDM is een leuke oplossing in combinatie met bijvoorbeeld linux (scheelt het nog veel performance/processor belasting of valt het binnen de marge?)

Ik vind het nu al een leuke puzzel :P
Al heeft hij best wel veel stukjes, bedankt voor het mee puzelen, ik denk dat ik alle hoekstukjes nu wel heb gevonden, dan wordt de rest van de puzzel vanzelf steeds makkelijker.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

lithoijen schreef op maandag 25 februari 2013 @ 15:53:
snip

Valt me toch een beetje tegen van een dergelijke "professionele oplossing"als ESXI.
Ik lees me eerst even nog wat verder in in de materie voordat ik een aankoop beslissing neem :)
In zoverre professioneel dat ze duidelijk aangeven dat RDM-en van lokale SATA disks geen ondersteuning geniet en dat je dus op jezelf bent aangewezen.
FireDrunk schreef op maandag 25 februari 2013 @ 15:59:
Dat mekkeren over de disk size is ongeveer hetzelfde probleem als FreeBSD heeft, RDM's die niet goed werken op die virtuele controller geven namelijk size 0 aan.
Klopt, Ubuntu gaf eerst aan dat de RDM-d disks groter was dan de opgegeven omvang en bij de tweede (en de daarop volgende) reboot vol hield dat de disk een omvang van 0 had. Physical RDM-en heeft dat probleem verholpen.
Compizfox schreef op maandag 25 februari 2013 @ 16:01:
[...]
Que? :?

Ik zei dat virtual RDMs afvallen met ZFS ;)

Met physical RDMs kan het wel, maar dat heeft problemen als je FreeBSD 9.1 als guest OS gebruikt.

[...]

Ook dat heb ik niet gezegd. PCI-e passthrough van een complete HBA (waarvoor je VT-d / AMD-Vi nodig hebt), werkt juist WEL altijd zonder problemen.
Maar dat is wel de duurste oplossing door de aanschaf van een losse HBA.
Passthrough heeft tevens t voordeel dat je 3TiB drives zonder problemen kan gebruiken. RDM en vmdk is beperkt tot 2 TiB in omvang.
lithoijen schreef op maandag 25 februari 2013 @ 16:15:
Ach ik denk dat ik hem nu volg!
Best lastig nog dat virtualiseren :)

- Virtual RDM is geen optie icm ZFS ivm firmware issues.
- Controller doorgeven via vD-t gaat prima, maar vereist een extra controller met als nadeel stroomverbruik en aanschafkosten (over wat voor extra verbruik hebben we het eigenlijk?).
- RDM is een leuke oplossing in combinatie met bijvoorbeeld linux (scheelt het nog veel performance/processor belasting of valt het binnen de marge?)

Ik vind het nu al een leuke puzzel :P
Al heeft hij best wel veel stukjes, bedankt voor het mee puzelen, ik denk dat ik alle hoekstukjes nu wel heb gevonden, dan wordt de rest van de puzzel vanzelf steeds makkelijker.
De geliefde IBM M1015 verbruikt ca. 10 Watt en deze kost rondom de €100.= excl. kabels.
Ik heb eerlijk gezegd nooit gekeken wat de 'performance impact' is van RDM vs Vt-d passthrough. Met 3 disks middels RDM doorgegeven aan 2 VM's is het geen dermate wilde opstelling dat een SATA HBA nodig was.

Niemand zei dat het gemakkelijk was ;)

[ Voor 26% gewijzigd door Pantagruel op 25-02-2013 16:24 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 22:59
Mooi, dank voor alle inhoudelijke reacties!

Ik begin denk ik maar eens eenvoudig met mijn eerder genoemde setup.
Kan ik er een beetje mee spelen en leren, proberen het verbruik een beetje in toom te krijgen.

Als ik er dan wat handigheid in krijg kan ik altijd nog uitbreiden met een extra controller kaart.

Blijft 1 vraag staan:
Welk energie zuinig moederbord kies ik:
-MSI P45
-Een asrock variant

Ik neig naar MSI gezien de goede staat van dienst wat dit merk heeft mbt energie verbruik.

Acties:
  • 0 Henk 'm!

  • mkool89
  • Registratie: December 2008
  • Laatst online: 02-08-2021
Ik heb hetzelfde bord alleen nog geen poging tot Jumbo frames gedaan, maar waar loop je op stuk dan?

Onder ESXI zou dit een fluitje van een cent moeten zijn: MTU omhoogschroeven onder Networking -> VSwitch properties.
Onder Windows kan het een gedoe met registry keys zijn als je een beetje pech hebt met je driver versie/ondersteuning. Ik het hier eventueel nog wel een zelf-getimmerde handleiding voor als je interesse hebt.

[ Voor 2% gewijzigd door mkool89 op 25-02-2013 17:00 . Reden: Taalfoutje ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

lithoijen schreef op maandag 25 februari 2013 @ 16:15:
Ach ik denk dat ik hem nu volg!
Best lastig nog dat virtualiseren :)
Bijna :P
- Virtual RDM is geen optie icm ZFS ivm firmware issues.
- Virtual RDM is geen optie icm ZFS omdat virtual RDM betekent dat je een schijf als block device doorgeeft. ZFS wil (om eerdergenoemde redenen) graag een echte schijf zien.

- Physical RDM geeft een schijf wél door 'als echte schijf' maar FreeBSD 9.1 heeft daar en probleem mee.
Als je het in detail wilt weten: In FreeBSD 9.1 zit een nieuwe driver voor de geemuleerde LSI MPT controller. Deze driver heeft dus een bug met oudere firmwareversies.
ESXi heeft zo'n oude firmwareversie in die geemuleerde controller zitten.

Enerzijds is het dus een probleem van die driver (de bug zit immers daarin), anderzijds is het niet netjes van VMWare dat ze hun virtuele firmware niet up-to-date houden.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
mkool89 schreef op maandag 25 februari 2013 @ 16:59:
[...]


Ik heb hetzelfde bord alleen nog geen poging tot Jumbo frames gedaan, maar waar loop je op stuk dan?

Onder ESXI zou dit een fluitje van een cent moeten zijn: MTU omhoogschroeven onder Networking -> VSwitch properties.
Onder Windows kan het een gedoe met registry keys zijn als je een beetje pech hebt met je driver versie/ondersteuning. Ik het hier eventueel nog wel een zelf-getimmerde handleiding voor als je interesse hebt.
Inderdaad, maar ESXi neemt die waarde bij mij niet :-/

Acties:
  • 0 Henk 'm!

  • Tha_Butcha
  • Registratie: November 2000
  • Laatst online: 20-01 18:05
Even een update over het Asmedia controller verhaal i.c.m. VT-d passthrough, net een mailtje gekregen van Asrock:
I am sorry for late reply.

I test on ASRock B75 Pro3-M, ASUS P8Z77V-Pro and Gigabyte Z77A-GD65.

If I enable passthrough Intel AHCI SATA port, both of Intel SATA port and 3rd-party SATA port will be passthrough.

I had tried to contact VMware for help, but they said that we don’t have licensing so they can’t help us.

If the user had licensing of VMware, please recommend this user to ask VMware for help.
Dus het is niet alleen de Asrock volgens die jongens. Dat wordt toch maar een extra sata kaart aanschaffen dan.

Compromises are for the weak


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Tha_Butcha schreef op dinsdag 26 februari 2013 @ 17:55:
Even een update over het Asmedia controller verhaal i.c.m. VT-d passthrough, net een mailtje gekregen van Asrock:


[...]


Dus het is niet alleen de Asrock volgens die jongens. Dat wordt toch maar een extra sata kaart aanschaffen dan.
Njah, hoeft niet: esxi van usb stick, nas vm op andere stick, disks doorgeven aan nas vm. Vervolgens via nfs/iscsi terug naar ESXi datastore, vies maar werkend (lees: zoals VMware VMA).

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Tha_Butcha schreef op dinsdag 26 februari 2013 @ 17:55:
Even een update over het Asmedia controller verhaal i.c.m. VT-d passthrough, net een mailtje gekregen van Asrock:
[...]
Dus het is niet alleen de Asrock volgens die jongens. Dat wordt toch maar een extra sata kaart aanschaffen dan.
Ja klopt, dat hebben Pantagruel en ikzelf toch ook al ondervonden met een losse PCI-e-kaart op basis van de ASM1061-chipset?
analog_ schreef op dinsdag 26 februari 2013 @ 18:12:
[...]

Njah, hoeft niet: esxi van usb stick, nas vm op andere stick, disks doorgeven aan nas vm. Vervolgens via nfs/iscsi terug naar ESXi datastore, vies maar werkend (lees: zoals VMware VMA).
Moet de datastore dan niet al beschikbaar zijn voordat de VM is geboot?
En kan een VM dan wel booten vanaf een USB-stick die is doorgegeven?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
De ene stick bevat je ESXi install, de andere is een bv. een 32GB usb stick met VMFS erop als datastore. Daarop staat je NAS VM met iscsi/nfs share naar ESXi terug. Als je vervolgens je ESXi boot zal hij een flinke tijd erover doen (een van zijn datastores is immers niet beschikbaar op dat moment). Vervolgens start hij je NAS vm en je datastore komt vanzelf beschikbaar. Hoe je vervolgens automagisch de andere machines (op nfs/iscsi) automagisch laat booten is een ander verhaal.

Dacht eerst aan raw usb passthrough maar dat grapje gaat natuurlijk niet.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

analog_ schreef op dinsdag 26 februari 2013 @ 18:17:
De ene stick bevat je ESXi install, de andere is een bv. een 32GB usb stick met VMFS erop als datastore.
Kan niet.
Het is onmogelijk een USB-stick te gebruiken als datastore, helaas.

Wat wel kan (heb ik geprobeerd), is een USB-stick in bv. je router drukken en die via NFS beschikbaar maken als datastore. Maar dat is wel een erg vieze, trage oplossing.

Via iSCSI of NFS een datastore 'teruggeven' aan ESXi vanuit een VM kan wel (en is ook niets mis mee), maar daar schiet je niets mee op omdat je eenmaal een datastore moet hebben om je VM vanaf te booten.

Dat is eigenlijk een beetje 'het grote probleem'. Als ESXi nou gewoon kon booten vanaf schijven die je via PCI-e passthrough hebt doorgegeven...

[ Voor 27% gewijzigd door Compizfox op 26-02-2013 18:29 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Compizfox schreef op dinsdag 26 februari 2013 @ 18:27:
[...]
Kan niet.
Het is onmogelijk een USB-stick te gebruiken als datastore, helaas.

Wat wel kan (heb ik geprobeerd), is een USB-stick in bv. je router drukken en die via NFS beschikbaar maken als datastore. Maar dat is wel een erg vieze, trage oplossing.

Via iSCSI of NFS een datastore 'teruggeven' aan ESXi vanuit een VM kan wel (en is ook niets mis mee), maar daar schiet je niets mee op omdat je eenmaal een datastore moet hebben om je VM vanaf te booten.

Dat is eigenlijk een beetje 'het grote probleem'. Als ESXi nou gewoon kon booten vanaf schijven die je via PCI-e passthrough hebt doorgegeven...
Ah, daar was ik niet van op de hoogte, ik dacht dat het wel zou herkend worden als storage device. Erg jammer, gelukkig zit ik zelf niet meer in die situatie door aparte fileserver.

Acties:
  • 0 Henk 'm!

  • Tha_Butcha
  • Registratie: November 2000
  • Laatst online: 20-01 18:05
Compizfox schreef op dinsdag 26 februari 2013 @ 18:14:
[...]

Ja klopt, dat hebben Pantagruel en ikzelf toch ook al ondervonden met een losse PCI-e-kaart op basis van de ASM1061-chipset?
Klopt en ik zwerf zelf ook nog ergens rond in dit topic.

Had gewoon gemaild met die jongens van de support (zonder enige verwachtingen) met de stille hoop dat ze iets zouden zeggen in de trant van "verrek, da's waar. Met een biosupdate o.i.d. is het te fixen" of dat ze meer gedaan zouden krijgen bij VMWare (iemand van Asrock heeft imho meer invloed daar dan een random nerd van een Nederlandse forum).

Compromises are for the weak


Acties:
  • 0 Henk 'm!

  • Valkyre
  • Registratie: April 2002
  • Laatst online: 07:53

Valkyre

Kitesurf FTW!

Compizfox schreef op dinsdag 26 februari 2013 @ 18:27:
[...]
Kan niet.
Het is onmogelijk een USB-stick te gebruiken als datastore, helaas.

Wat wel kan (heb ik geprobeerd), is een USB-stick in bv. je router drukken en die via NFS beschikbaar maken als datastore. Maar dat is wel een erg vieze, trage oplossing.

Via iSCSI of NFS een datastore 'teruggeven' aan ESXi vanuit een VM kan wel (en is ook niets mis mee), maar daar schiet je niets mee op omdat je eenmaal een datastore moet hebben om je VM vanaf te booten.

Dat is eigenlijk een beetje 'het grote probleem'. Als ESXi nou gewoon kon booten vanaf schijven die je via PCI-e passthrough hebt doorgegeven...
Je kunt natuurlijk ook een 2.5 inch schijfje erin drukken voor je datastore en daar je NAS vm opdraaien

ik schrijf dit en denk oops dat kan niet omdat je beide controllers meegaan met vt-d... meh
Extra kaartje dan inderdaad :)

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Extra kaartje werkt zelfs niet. Tenminste, een los kaartje met een ASM1061 werkt niet, ook die gaat mee als je de onboard controller passthrought.

Dit heb ik getest op een Asrock 970 Extreme3 dus het lijkt een algemeen probleem te zijn wat verder niet afhangt van het moederbord.

Ik krijg binnenkort nog een sil3114 binnen, dat is PCI, dus iets meer kans dat dat wel gaat werken.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Theoretisch gezien kan het niets met de ASMedia controller te maken hebben. Het heeft zeer waarschijnlijk eerder te maken met gedeelde PCIe lanes...

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Nope.

Zelfs als ik in de BIOS m'n onboard SATA gewoon uitschakel, herkent ESXi de ASM1061 niet meer. En dan heb ik dus nog niet eens passthrough of zo gebruikt, ik heb de onboard-controller gewoon in de BIOS uitgeschakeld.

Daarnaast maakt het verder totaal niet uit in welk PCI-slot ik hem plaats. Andere PCI-e kaarten in diezelfde sloten hebben verder geen last van dat ze meegaan.

Het lijkt er gewoon op dat de ASM1061 afhankelijk is van de onboard controller of zo... :P

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
En dat kan dus niet... Ze kunnen hoogstens op een of andere bizarre wijze een IRQ delen ofzo.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

Nee ik kan het ook niet verklaren :P

Feit is wel dat meerdere mensen, met verschillende moederborden precies ditzelfde hebben ervaren.
Daarbij maakt het ook niet uit of het om een ASM1061 gaat die on-board is geplaatst (als 2e onboard controller) of op een los PCI-e kaartje.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FreshMaker
  • Registratie: December 2003
  • Niet online
Is het mogelijk om datastores via RDM te delen in meerdere VM's ?

Ik zou willen dat ( minimaal ) 2 VM's toegang gaan krijgen tot 1 HDD, maar kan niet terugvinden of het (zomaar) kan

Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Compizfox schreef op dinsdag 26 februari 2013 @ 23:46:
Nee ik kan het ook niet verklaren :P

Feit is wel dat meerdere mensen, met verschillende moederborden precies ditzelfde hebben ervaren.
Daarbij maakt het ook niet uit of het om een ASM1061 gaat die on-board is geplaatst (als 2e onboard controller) of op een los PCI-e kaartje.
Dus dat probleem treedt niet op als je een IBM ServeRAID M1015 doorgeeft ?
Helaas zijn die kaarten wel wat aan de dure kant :-(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
FreshMaker schreef op woensdag 27 februari 2013 @ 07:44:
Is het mogelijk om datastores via RDM te delen in meerdere VM's ?

Ik zou willen dat ( minimaal ) 2 VM's toegang gaan krijgen tot 1 HDD, maar kan niet terugvinden of het (zomaar) kan
Ja dat kan, dat word ondersteund zodat Microsoft Clustering werkt.
Je kan een hele kleine vorm van een Microsoft cluster opzetten met die gedeelde disk, maar dannog kunnen ze er nooit tegelijk bij.

Als je concurrent access wil, heb je helaas pech.

Overigens zijn disks hotpluggable in VMware dus hot adden is zo gedaan.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

FreshMaker schreef op woensdag 27 februari 2013 @ 07:44:
Is het mogelijk om datastores via RDM te delen in meerdere VM's ?

Ik zou willen dat ( minimaal ) 2 VM's toegang gaan krijgen tot 1 HDD, maar kan niet terugvinden of het (zomaar) kan
Hoe bedoel je dat met die datastores en RDMs?

Een datastore maak je aan op een HDD en daar kun je dan virtuele disks (.vmdk) op aanmaken.

RDMs is een manier om schijven door te geven aan een VM. Maar zelfs met virtual RDM ben ik bang dat dat niet gaat werken. Ongeveer hetzelfde als met iSCSI, het is allebei block based en dat betekent dat je idd geen concurrent access kunt hebben.
devastator83 schreef op woensdag 27 februari 2013 @ 07:56:
[...]
Dus dat probleem treedt niet op als je een IBM ServeRAID M1015 doorgeeft ?
Helaas zijn die kaarten wel wat aan de dure kant :-(
Nee.

Het probleem lijkt vooral op te treden als je de onboard SATA-controller doorgeeft.

Maar omdat de ASM1061 maar 2 poorten heeft is dit meestal niet geschikt om door te geven en te gebruiken voor de storage.
Of je moet er 2 van inpleuren of zo...

[ Voor 40% gewijzigd door Compizfox op 27-02-2013 10:57 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Helaas kan mijn mobo maar 1 dergelijke kaart huisvesten ...

Als ik nu bijv de Conceptronic PCI Express Card SATA 600 er insteek (en doorgeef), en de onboard Asmedia controller ook, dan heb ik in totaal 4 poorten.

Of de HighPoint RocketRAID 640L ?

Hardware RAID is voor mij niet belangrijk, ik ga unraid gebruiken.

Zou dat kunnen werken ?

[ Voor 18% gewijzigd door devastator83 op 27-02-2013 12:34 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

devastator83 schreef op woensdag 27 februari 2013 @ 11:06:
Helaas kan mijn mobo maar 1 dergelijke kaart huisvesten ...

Als ik nu bijv de Conceptronic PCI Express Card SATA 600 er insteek (en doorgeef), en de onboard Asmedia controller ook, dan heb ik in totaal 4 poorten.

Of de HighPoint RocketRAID 640L ?

Hardware RAID is voor mij niet belangrijk, ik ga unraid gebruiken.

Zou dat kunnen werken ?
Ja, dat zou heel goed kunnen gaan werken! (Ik heb het zelf niet geprobeerd omdat ik niet zo'n bord heb)




Ik heb vandaag mijn PCI HBA met sil3114 binnengekregen en ik kan bevestigen dat deze wordt herkend in ESXi 5.1!

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • basprofessional
  • Registratie: Januari 2005
  • Laatst online: 15-09 06:32
Compizfox schreef op woensdag 27 februari 2013 @ 14:52:
[...]

Ja, dat zou heel goed kunnen gaan werken! (Ik heb het zelf niet geprobeerd omdat ik niet zo'n bord heb)




Ik heb vandaag mijn PCI HBA met sil3114 binnengekregen en ik kan bevestigen dat deze wordt herkend in ESXi 5.1!
Ik heb hetzelf ook geprobeerd op basis van de SIL3114, werd er inderdaad wel herkend in ESXi maar kreeg een PSOD bij de passtrough. Heb je dit ook al geprobeerd?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Die Sil3114 is volgens mij altijd PCI, dus passthrough is nooit echt goed te doen. De PCIe to PCI converter moet dan zelf DMA implementeren geloof ik. En dat doen er maar weinig...

Even niets...


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Dus, het is met andere woorden niet aan te raden om die kaart te gaan gebruiken voor NAS-doeleinden ?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
devastator83 schreef op woensdag 27 februari 2013 @ 15:54:
Dus, het is met andere woorden niet aan te raden om die kaart te gaan gebruiken voor NAS-doeleinden ?
Oh jawel, maar niet in ESXi :+
devastator83 schreef op woensdag 27 februari 2013 @ 07:56:
[...]


Dus dat probleem treedt niet op als je een IBM ServeRAID M1015 doorgeeft ?
Helaas zijn die kaarten wel wat aan de dure kant :-(
Overdrijver :P , ze kosten wat, maar je krijgt ook wel 8 x SATA terug.

Plus ze zijn gewoon populair omdat ZFS ook populairder wordt en dat kostenfuncties gewijs een geweldige deal is. Vraag stijgt, dus prijs bij gelijk aanbood ook :)

[ Voor 49% gewijzigd door HyperBart op 27-02-2013 16:05 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

basprofessional schreef op woensdag 27 februari 2013 @ 15:21:
[...]


Ik heb hetzelf ook geprobeerd op basis van de SIL3114, werd er inderdaad wel herkend in ESXi maar kreeg een PSOD bij de passtrough. Heb je dit ook al geprobeerd?
Nee. Ik heb ook niet het doel hem te passthroughen, hij is immers veel te traag om als HBA voor de storage te gebruiken.

Ik ga hem gebruiken als HBA voor de datastore zodat ik mijn onboard controller gaan doorgeven.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
Ik wil een upgrade gaan doen en wil meer serieuzer bezig gaan zijn met virtualisatie. ESXi lijkt me erg interessant. Ik heb na lang onderzoek het volgende board + cpu uitgezocht wat volgens mij het beste moet zijn:

Gigabyte GA-Q77M-D2H + I7 3770. neem er 2x8 gb ram bij en later mss meer. Ik ben ook een hackintosh fan. Kan ik nu een VM machine maken die hackintosh is en de interne IGP gebruikt EN een windows 8 machine maken die via VT-D mijn Ati Radeon 6850 direct pakt? Of gaat dat niet zo makkelijk tegenwoordig?

Ik heb nu triple screen, kan ik dan bv. dual screen koppelen aan windows 8 en 1 aan de hackintosh?

Of moet ik dan meer kijken naar parallels extreme in de hackintosh zelf en dan een virtuele windows 8 vak maken?

Of moet ik zowieso dit moederbord helemaal niet nemen en kan ik net zo goed een Z77 board pakken? (wat volgens mij niet zo is, want ik wil ook de Vpro opties hebben van intel, remote desktop op bios niveau etc).

Erg lastig allemaal

[ Voor 5% gewijzigd door Tennisbal op 27-02-2013 18:17 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16-09 16:09
Waarom de Gigabyte en niet de Intel of Asrock Q77 borden? Want de Intel en Asrock zijn haast gegarandeerd zuiniger...

GPU's doorgeven onder ESXi moet je niet willen, het is echt te hardware specifiek en ESXi is er simpelweg niet voor gemaakt. Xen kan dat veel beter (en KVM tegenwoordig ook).

Triple Screen en dat soort taferelen icm ESXi zou ik gewoon niet willen proberen.

Conclusie: Je moet gewoon simpelweg je desktop niet willen verenigen met je ESXi machine.

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
FireDrunk schreef op woensdag 27 februari 2013 @ 19:25:
Conclusie: Je moet gewoon simpelweg je desktop niet willen verenigen met je ESXi machine.
Nou ja, het is niet eenvoudig, maar het is wel te doen. Getuige die setup van mijn collega (2 grafische kaarten, eentje per VM, 2 VM's), ok, hij heeft wel wat truuken moeten uithalen en er is een klein dingetje (Flash acceleratie) wat niet werkt, maar het kan... De opstap naar KVM is ook al weer een hoger dan bij ESXi natuurlijk...

Ik zou het graag eens proberen, maar durf er nog niet mijn "home productie" omgeving op te zetten (qua beheer en troubleshooting) en zeker nog niet mijn NAS, maar dat heeft misschien met een lack of confidence te maken ;) .

Acties:
  • 0 Henk 'm!

  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
FireDrunk schreef op woensdag 27 februari 2013 @ 19:25:
Waarom de Gigabyte en niet de Intel of Asrock Q77 borden? Want de Intel en Asrock zijn haast gegarandeerd zuiniger...

GPU's doorgeven onder ESXi moet je niet willen, het is echt te hardware specifiek en ESXi is er simpelweg niet voor gemaakt. Xen kan dat veel beter (en KVM tegenwoordig ook).

Triple Screen en dat soort taferelen icm ESXi zou ik gewoon niet willen proberen.

Conclusie: Je moet gewoon simpelweg je desktop niet willen verenigen met je ESXi machine.
om 2 redenen wil ik de chaintech. 1 native hackintosh support, maar vooral de 3e displayport (DVI, HDMI, DP). Hebben de andere Q77 boarden niet :(

Ok even verdiepen in XEN, maar iets zegt me dat dit veel complexer is...

[ Voor 4% gewijzigd door Tennisbal op 27-02-2013 19:37 ]


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Compizfox schreef op woensdag 27 februari 2013 @ 16:25:
[...]

Nee. Ik heb ook niet het doel hem te passthroughen, hij is immers veel te traag om als HBA voor de storage te gebruiken.

Ik ga hem gebruiken als HBA voor de datastore zodat ik mijn onboard controller gaan doorgeven.
Over welke kaart gaat het precies ?
Welk is je mobo ?

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
devastator83 schreef op woensdag 27 februari 2013 @ 21:51:
[...]


Over welke kaart gaat het precies ?
Welk is je mobo ?
sil3114 chipjes kon je tien jaar geleden ook kopen dus die vragen zijn allemaal irrelevant. Die kaart gaat niet verder dan 150MB verdeeld over alle s-ata poorten ofzo. Ik heb ooit benchmarks of zelf data erover gepost in een van de opslag/virt topics.

[ Voor 10% gewijzigd door analog_ op 27-02-2013 22:07 ]


Acties:
  • 0 Henk 'm!

  • devastator83
  • Registratie: Januari 2012
  • Laatst online: 17-08 22:11
Als ik die kaart dus kon gebruiken voor mijn datastore, en de 8 onboard doorgeven aan unRaid, dan ben ik al een heel end en moet ik niet de M1015 kopen ...

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:49

Compizfox

Bait for wenchmarks

devastator83 schreef op woensdag 27 februari 2013 @ 21:51:
[...]
Over welke kaart gaat het precies ?
Welk is je mobo ?
Tussen verschillende kaartjes met dezelfde chipset zitten eigenlijk geen verschillen. Ik heb deze:
http://www.ebay.com/itm/1..._trksid=p3984.m1439.l2649

sil3112 is bijna hetzelfde, maar dan met 2 SATA-poorten ipv 4. Maar ik zag dat de sil3114-kaartjes goedkoper waren, dus tja :P

Mijn moederbord is een Asrock 970 Extreme3.
analog_ schreef op woensdag 27 februari 2013 @ 22:06:
[...]

sil3114 chipjes kon je tien jaar geleden ook kopen dus die vragen zijn allemaal irrelevant. Die kaart gaat niet verder dan 150MB verdeeld over alle s-ata poorten ofzo. Ik heb ooit benchmarks of zelf data erover gepost in een van de opslag/virt topics.
Ja klopt, vandaar dat je hier ook niet de HDDs voor in je ZFS array aan wilt hebben hangen.

Ik heb er maar 1 HDD aan hangen, en het enige wat daar op komt is eigenlijk de datastore voor ESXi met mijn ZFSGuru install. De rest van de VMs zet ik op een 2e datastore op de ZFS array die door die ZFSGuru-VM gehost wordt en via iSCSI 'teruggegeven' wordt aan ESXi.
Al begin ik eigenlijk wel een beetje te twijfelen of dat een goede oplossing is, want dat betekent volgens mij dat de HDDs bijna nooit kunnen downspinnen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
Heeft de Intel Q77MK Lucid MVP ondersteuning? ik wil misschien toch dit board omdat meer opties heeft en goed werkt met ESXi en andere virtualisatie of is de chaintech Q77 toch beter?

  • analog_
  • Registratie: Januari 2004
  • Niet online
devastator83 schreef op woensdag 27 februari 2013 @ 22:43:
Als ik die kaart dus kon gebruiken voor mijn datastore, en de 8 onboard doorgeven aan unRaid, dan ben ik al een heel end en moet ik niet de M1015 kopen ...
Ik heb de 'ik zoek iets goedkopers'-weg bewandeld wat betreft HBAs en ik kan je enkel vertellen dat als je hem nu niet koopt, het wel over een jaar is als je dan meer aansluitingen nodig hebt. Uiteindelijk kom je er dan goedkoper uit en zie het als 'treat-yo-self'. Per poort zijn ze ook niet zoveel duurder dan de alternatieven, goedkoper dan €10/poort wordt het toch niet of zoek anders een tweedehands OEM LSI 1068 kaarjte van HP ofzo.

[ Voor 12% gewijzigd door analog_ op 28-02-2013 01:09 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

analog_ schreef op donderdag 28 februari 2013 @ 01:06:
[...]

Ik heb de 'ik zoek iets goedkopers'-weg bewandeld wat betreft HBAs en ik kan je enkel vertellen dat als je hem nu niet koopt, het wel over een jaar is als je dan meer aansluitingen nodig hebt. Uiteindelijk kom je er dan goedkoper uit en zie het als 'treat-yo-self'. Per poort zijn ze ook niet zoveel duurder dan de alternatieven, goedkoper dan €10/poort wordt het toch niet of zoek anders een tweedehands OEM LSI 1068 kaarjte van HP ofzo.
Kan ik me eigenlijk alleen maar bij aansluiten. Heb ook vaak genoeg de goedkoopste optie getest, aanvankelijk lijken ze goed te werken, maar meestal eindigt het in onbeschaafd taalgebruik en enkele vlucht richting de doos met onbruikbare hardware meuk |:( . De ca 100 euro voor de M1015 was voor mij in ieder geval een 'goede' investering. De kaart werkte vrijwel meteen (reflash nodig) en doet het nu al ca. 1 1/2 jaar vlekkeloos. Dat laatste is op zich ook wel wat waard.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
Ik las net een artikel over Hyper-v-guest-os-machine-virtualisation. Kan dat ook in ESXi? Lijkt me wel erg handig. http://www.extremetech.co...os-machine-virtualization

en is er een mogelijkheid om een desktop oplossing van virtualisatie te hebben waar ik wel zowel server als guest OS tegelijk kan draaien EN vt-d (videokaart koppeling) kan realiseren?

voor zover ik weet kunnen de desktop mogelijhheden dit niet, ook de mac versies niet, hoewel parallels extreme dit wel zou moeten kunnen. Hyper-V weet ik niet. Hoe heet deze oplossing eigenlijk? Lastig zoeken zo.

Zag net dit filmpje op youtube: YouTube: 8 Computers to Virtualize them, 1 Hardware machine to bind them (Power of XEN VD-T)
XEN machine met 8 virtuele machines en 2x2 werkstations. Hiermee kan ik dus wel met 1 hardware oplossing 2 pc's "maken"? Gaat mij erom dat ik een "server" heb die tegelijk client kan spelen.

[ Voor 23% gewijzigd door Tennisbal op 28-02-2013 22:08 ]


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
tennisbal schreef op donderdag 28 februari 2013 @ 21:55:
Ik las net een artikel over Hyper-v-guest-os-machine-virtualisation. Kan dat ook in ESXi? Lijkt me wel erg handig. http://www.extremetech.co...os-machine-virtualization
Je moet je eens even inlezen (heel interessant) in het ESXi vs Hyper-V (en bijgevolg Windows). ESXi en HyperV zijn beide bare metal hypervisors met wat ik graag een "parent partition" of "beheers-OS" noem. Bij ESXi is dat bijzonder klein en is dat een versie van UNIX/Linux, bij Hyper-V kan dat in Core versie een gedownslimmede versie van Windows zijn of de full version...

Wat jij nu eigenlijk aan het beschrijven bent is een voordeel wat je bij ESXi niet (zo makkelijk) kan halen, tenzij jij genoeg hebt met een heel summiere Linux-shell. Snap je? Het OS wat de hypervisor kan aanspreken en beheren is bij Hyper-V gewoon Windows, bij ESXi is dat een afgeslankte versie van Linux. Wat die man met zijn afschuwelijk Engels accent :+ uitlegt, is wat ik voor een collega een tijdje geleden in mekaar heb gezet met ESXi : http://nexentastor.org/boards/12/topics/7912#message-8260

Het is trouwens ook absoluut niet best practices om je parent partition/beheer OS te gebruiken in een productie omgeving om er apps en alles op te installeren. Hypervisor is hypervisor. Als je parentpartition er uit knalt knalt je hypervisor mee er uit. Voor test is het natuurlijk heel leuk. Zeker op je laptop en met Windows 8.
en is er een mogelijkheid om een desktop oplossing van virtualisatie te hebben waar ik wel zowel server als guest OS tegelijk kan draaien EN vt-d (videokaart koppeling) kan realiseren?
Je gebruikt heel rare termen, maar je kan met Hyper-V geen videokaarten "koppelen"/passtroughen. Voor zover ik weet zijn ESXi, KVM en Xen daar het beste voor. Die twee laatste zijn zelfs superieur ten opzichte van ESXi omdat ESXi daar eeeigenlijk niet voor bedoeld is.
voor zover ik weet kunnen de desktop mogelijhheden dit niet, ook de mac versies niet, hoewel parallels extreme dit wel zou moeten kunnen.
Nu heb je het weer over iets anders en heb je het niet over bare metal hypervisors maar over virtualisatie op de programma-laag.
Hyper-V weet ik niet. Hoe heet deze oplossing eigenlijk? Lastig zoeken zo.

Zag net dit filmpje op youtube: YouTube: 8 Computers to Virtualize them, 1 Hardware machine to bind them (Power of XEN VD-T)
XEN machine met 8 virtuele machines en 2x2 werkstations. Hiermee kan ik dus wel met 1 hardware oplossing 2 pc's "maken"? Gaat mij erom dat ik een "server" heb die tegelijk client kan spelen.

[ Voor 8% gewijzigd door HyperBart op 28-02-2013 22:29 ]


  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
HyperBart schreef op donderdag 28 februari 2013 @ 22:20:
[...]

Je moet je eens even inlezen (heel interessant) in het ESXi vs Hyper-V (en bijgevolg Windows). ESXi en HyperV zijn beide bare metal hypervisors met wat ik graag een "parent partition" of "beheers-OS" noem. Bij ESXi is dat bijzonder klein en is dat een versie van UNIX/Linux, bij Hyper-V kan dat in Core versie een gedownslimmede versie van Windows zijn of de full version...

Wat jij nu eigenlijk aan het beschrijven bent is een voordeel wat je bij ESXi niet (zo makkelijk) kan halen, tenzij jij genoeg hebt met een heel summiere Linux-shell. Snap je? Het OS wat de hypervisor kan aanspreken en beheren is bij Hyper-V gewoon Windows, bij ESXi is dat een afgeslankte versie van Linux. Wat die man met zijn afschuwelijk Engels accent :+ uitlegt, is wat ik voor een collega een tijdje geleden in mekaar heb gezet met ESXi : http://nexentastor.org/boards/12/topics/7912#message-8260

Het is trouwens ook absoluut niet best practices om je parent partition/beheer OS te gebruiken in een productie omgeving om er apps en alles op te installeren. Hypervisor is hypervisor. Als je parentpartition er uit knalt knalt je hypervisor mee er uit. Voor test is het natuurlijk heel leuk. Zeker op je laptop en met Windows 8.

[...]

Je gebruikt heel rare termen, maar je kan met Hyper-V geen videokaarten "koppelen"/passtroughen. Voor zover ik weet zijn ESXi, KVM en Xen daar het beste voor. Die twee laatste zijn zelfs superieur ten opzichte van ESXi omdat ESXi daar eeeigenlijk niet voor bedoeld is.

[...]

Nu heb je het weer over iets anders en heb je het niet over bare metal hypervisors maar over virtualisatie op de programma-laag.


[...]
dank voor je reply, wat ik eigenlijk gewoon wil is de beste oplossing voor een systeem waarmee ik een windows 8 machine kan koppelen via VT-D aan mijn radeon kaart EN een hackintosh machine kan maken zodat ik deze tegelijk kan draaien en onafhankelijk van elkaar videokaarten kan toewijzen via VT-D.

Via XEN moet dit mogelijk zijn en ik denk dat ik daarmee door moet gaan. Ik wil geen thuisserver maar een Workstation/Server ineen.

Geen zin om 2 pc's aan te moeten hebben want ik wil juist 1 pc met de beste 2 guest OS oplossing.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:18
tennisbal schreef op donderdag 28 februari 2013 @ 22:33:
[...]


dank voor je reply, wat ik eigenlijk gewoon wil is de beste oplossing voor een systeem waarmee ik een windows 8 machine kan koppelen via VT-D aan mijn radeon kaart EN een hackintosh machine kan maken zodat ik deze tegelijk kan draaien en onafhankelijk van elkaar videokaarten kan toewijzen via VT-D.

Via XEN moet dit mogelijk zijn en ik denk dat ik daarmee door moet gaan. Ik wil geen thuisserver maar een Workstation/Server ineen.

Geen zin om 2 pc's aan te moeten hebben want ik wil juist 1 pc met de beste 2 guest OS oplossing.
Xen of KVM is the way to go. Mits je heel toevallig de juiste hardware combo hebt is het ook te doen met ESXi. Op VMware communities is daar een gigantische thread van te vinden. (tip: best viewable in print view).

  • Tennisbal
  • Registratie: Januari 2003
  • Laatst online: 21-04-2018
HyperBart schreef op donderdag 28 februari 2013 @ 22:34:
[...]

Xen of KVM is the way to go. Mits je heel toevallig de juiste hardware combo hebt is het ook te doen met ESXi. Op VMware communities is daar een gigantische thread van te vinden. (tip: best viewable in print view).
Hackintosh bedoel je? topic ken ik idd en heb de juiste hardware, probleem is alleen dat ik niet zoals XEN alles op 1 pc kan realiseren, of is dat ondertussen veranderd/gaat dat veranderen? Sorry ben pas sinds 2 dagen aan het inlezen moet nog veel leren :)
Pagina: 1 ... 44 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.