Sorry voor de (extreem) late reactie, maar m'n machine (wat hierboven staat) draait nu al tijdje en doet na installatie van VMware 26 Watt. Wel grappig dat als je de Linux vcenter appliance gaat gebruiken, die doorgaat naar 30 Watt en als je zelf een Windows 2008 virtual gaat installeren met vcenter erop, dat die gewoon op 26 watt blijft.dj-wasabi schreef op donderdag 20 december 2012 @ 08:43:
Ik heb mijn configuratie besteld, wel op advies van mux andere voeding genomen. Na wat reviews gelezen te hebben, denk ik zeker wel dat het de juiste beslissing was.
Dit is hem dan nu:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 159,- € 159,- 1 Intel Desktop Board DQ77MK € 123,50 € 123,50 1 Western Digital Scorpio Blue WD7500BPVT, 750GB SATA-300, 8MB, 5400rpm € 56,45 € 56,45 1 Fractal Design ARC MINI € 74,70 € 74,70 2 Corsair Vengeance CML16GX3M2A1600C10 € 67,99 € 135,98 1 Seasonic G-Serie 360Watt € 59,- € 59,- 1 Samsung 840 series SSD 250GB € 151,50 € 151,50 Bekijk collectie
Importeer productenTotaal € 760,13
Gelukkig ben ik zo 3 weken vrij..
Nee, dat is niet wat ik wil. Idee is om ESXi en VM's op de Raid1 te zetten, en dan de 'bulk' opslag via de NAS. de laatste dan toe te wijzen aan de VM's. Gedachte bij Raid1 is dat dat iets veiliger/betrouwbaarder is dan op basis van 1 disk of usb stick. Aardige van de door mij gevonden kaartjes is dat deze ca. 30 euro kosten, en verder geen extra software/drivers nodig hebben. Raid1 dus eigenlijk 'onzichtbaar' voor het systeem: het 'ziet' gewoon 1 SATA disk, maar in feite dus een Raid1 array via de kaartjes.Compizfox schreef op zondag 10 maart 2013 @ 20:15:
[...]
Wil je die RAID-array door ESXi laten gebruiken? Dat zal niet gaan werken, want ESXi ondersteunt geen RAID.
Wat je wel kunt doen is software-RAID uitvoeren door een VM. Pak dan meteen maar ZFS
[ Voor 9% gewijzigd door Der Rudi op 11-03-2013 15:36 ]
Die kaartjes werken inderdaad wel met ESXi 
Nadeel is dan weer dat je alleen geen melding krijgt als er 1 disk sterft...
Nadeel is dan weer dat je alleen geen melding krijgt als er 1 disk sterft...
[ Voor 46% gewijzigd door FireDrunk op 11-03-2013 15:57 ]
Even niets...
Dan spreek je jezelf tegen?Der Rudi schreef op maandag 11 maart 2013 @ 15:33:
[...]
Nee, dat is niet wat ik wil. Idee is om ESXi en VM's op de Raid1 te zetten, en dan de 'bulk' opslag via de NAS. de laatste dan toe te wijzen aan de VM's.
Als je de VMs op RAID wilt zetten, maakt ESXi toch gebruik van de RAID-array?
Trouwens, je kunt ESXi en je datastore (met de VMs erop) niet op dezelfde HDD/USB/RAID-array zetten. Wat de meesten hier doen is ESXi op een USB-stick, en de datastore op een HDD.
Je kunt eigenlijk geen RAID-array gebruiken als datastore omdat ESXi bijna geen RAID-controllers ondersteund. (zie Analog's post voor nuance)
Volgens mij is het probleem juist altijd dat die kaartjes drivers nodig hebben, die ESXi niet heeft. Er zijn sowieso maar erg weinig SATA controller die door ESXi wordeon ondersteund.Gedachte bij Raid1 is dat dat iets veiliger/betrouwbaarder is dan op basis van 1 disk of usb stick. Aardige van de door mij gevonden kaartjes is dat deze ca. 30 euro kosten, en verder geen extra software/drivers nodig hebben.
Oh, dat wist ik niet. Ik dacht juist dat ESXi niet overweg kon met RAID-kaartjes?FireDrunk schreef op maandag 11 maart 2013 @ 15:57:
Die kaartjes werken inderdaad wel met ESXi
Nadeel is dan weer dat je alleen geen melding krijgt als er 1 disk sterft...
Wat voor een kaartjes zijn dat dan? Als ik het goed begrijp kaartjes van deze categorie toch? Hebben die niet juist wel drivers nodig?
Alleen hardware-RAID heeft (volgens Wikipedia) geen drivers nodig omdat de RAID native op het kaartje zelf wordt uitgevoerd. Maar die kaartjes zijn er volgens mij weer niet voor maar €30.
Kan het ook verkeerd hebben hoor, zoveel verstand van RAID heb ik nou ook weer niet. (Ben meer van ZFS)
[ Voor 30% gewijzigd door Compizfox op 11-03-2013 16:04 ]
Gewoon een heel grote verzameling snoertjes
Dat kan wel. Na installatie van ESX is er +/- 3GB gepartitioneerd. De rest van de schijf is leeg. Als je bij het aanmaken van de datastore aangeeft dat je de huidige partities/filesystems wilt behouden kan je de overige ruimte als datastore gebruiken.Compizfox schreef op maandag 11 maart 2013 @ 15:58:
[...]
Trouwens, je kunt ESXi en je datastore (met de VMs erop) niet op dezelfde HDD/USB/RAID-array zetten. Wat de meesten hier doen is ESXi op een USB-stick, en de datastore op een HDD.
Nee, dat zijn dus eigenlijk true software loze kaartjes, die presenteren gewoon 1 schijf aan je OS en leveren dan zelf de data af bij 2 schijven. Vaak zit er ofwel een ledje of een zoemer op zo'n kaartje om nog enigzins erachter te kunnen komen of er een disk kapot is. Verder is het compleet transparant voor je OS.Compizfox schreef op maandag 11 maart 2013 @ 15:58:
Oh, dat wist ik niet. Ik dacht juist dat ESXi niet overweg kon met RAID-kaartjes?
Wat voor een kaartjes zijn dat dan? Als ik het goed begrijp kaartjes van deze categorie toch? Hebben die niet juist wel drivers nodig?
Alleen hardware-RAID heeft (volgens Wikipedia) geen drivers nodig omdat de RAID native op het kaartje zelf wordt uitgevoerd. Maar die kaartjes zijn er volgens mij weer niet voor maar €30.
Kan het ook verkeerd hebben hoor, zoveel verstand van RAID heb ik nou ook weer niet. (Ben meer van ZFS)
Er zijn er maar een paar die dat doen, er was al eerder iemand die dit had draaien, maar ik weet niet meer wie.
Even niets...
Ik heb een Adaptec RAID 2405 kaartje draaien in RAID1 met 2 schijven erop.
ESXi 5.1 draait op een USB stick en de datastore staat op de RAID1 array.
ESXi 5.1 draait op een USB stick en de datastore staat op de RAID1 array.
Sommige controllers geven wel degelijk een disk status door hoor met extra te installeren MIBs in ESXi. Ik gebruik bij een klant bijvoorbeeld meerdere LSI 9266-8i kaarten. Dat kost je dan wel wat maar dat is ook een ander verhaal in bedrijven. De andere goedkope oplossing met MIB support is de ibm m5014/5015 (laatste heeft meer ram). Kost je rond de 200$ op ebay met raid 5 (eventueel 6) support.
[ Voor 5% gewijzigd door analog_ op 11-03-2013 21:26 ]
Ik had het over die cheapass RAID1 kaartjes, niet over de fullblown LSI / Adaptec kaartjes, daar kan je inderdaad gewoon de status van zien...
Even niets...
Dat is idd wat het zijn: volledige hardware RAID1, transparant naar het OS (ESXi in dit geval), geen drivers nodig. Ze kunnen meestal Raid0, 1, jbod en bieden ook automagische rebuild als er 1 drive defect zou gaan. Als dat het geval is kan er via een ledje of zoemertje alarm geslagen worden. Daar het Sata is, zijn de drives volgens mij ook automatisch hot swap, maar weet dat niet zeker.FireDrunk schreef op maandag 11 maart 2013 @ 16:21:
[...]
Nee, dat zijn dus eigenlijk true software loze kaartjes, die presenteren gewoon 1 schijf aan je OS en leveren dan zelf de data af bij 2 schijven. Vaak zit er ofwel een ledje of een zoemer op zo'n kaartje om nog enigzins erachter te kunnen komen of er een disk kapot is. Verder is het compleet transparant voor je OS.
Er zijn er maar een paar die dat doen, er was al eerder iemand die dit had draaien, maar ik weet niet meer wie.
Enfin, alle reakties overzient lijkt het me een geval van 'learning by doing' waarbij de vooruitzichten positief zijn. Heeft iemand voorkeuren of ervaringen met een bepaalt kaartje?
Misschien beetje off topic maar waar kan ik de status zien van mijn adaptec kaartje?FireDrunk schreef op dinsdag 12 maart 2013 @ 07:45:
Ik had het over die cheapass RAID1 kaartjes, niet over de fullblown LSI / Adaptec kaartjes, daar kan je inderdaad gewoon de status van zien...
Heb het namelijk nog niet kunnen vinden...
Kaart zelf werkt prima. RAID1 wordt gezien en de datastore staat erop.
Status van de schijven kan ik alleen niet vinden. Zou erg handig zijn om te kunnen zien of er een schijf het heeft begeven...
Nieuwste MIB en Adaptec driver installeren, dan zie je het bij Hardware Status.
Even niets...
Zat te kijken naar dit
Waarom 32GB? Waarom zo veel schijven? Schijven komen in RAID5 wat zo'n 11TB netto overhoud. En 32gb omdat er toch al bijna 1500 euro in gaat zitten, dan maakt die 80 extra niet zo veel meer uit. En bovenal, kan ik hem wegzetten en nooit meer naar om kijken.
Komt een active directory op, WDS, VPN, SQL server en een flinke data server. Vroeg me alleen af of het handig is om er meerdere gigabit poorten in te zetten en hier Link aggregation aan te linken. Of iets van een load balancer. Moet aankunnen dat er 10 mensen HD films op kijken terwijl hij nieuwe aan het downloaden is.
Adaptec 5805 | 150 |
Core i5 3350P | 150 |
ASRock B75 Pro3-M | 60 |
Corsair XMS3 CMX32GX3M4A1333C9 | 160 |
Seasonic Platinum Series 400 Watt Fanless | 110 |
Stille CPU koeler | 40 |
5x Western Digital Red WD30EFRX, 3TB | 650 |
4x Scythe Slip Stream SY1225SL12L, 120mm | 30 |
Fractal Design Define Mini | 80 |
PCI-e NIC | - |
Totaal | 1450 euro |
Waarom 32GB? Waarom zo veel schijven? Schijven komen in RAID5 wat zo'n 11TB netto overhoud. En 32gb omdat er toch al bijna 1500 euro in gaat zitten, dan maakt die 80 extra niet zo veel meer uit. En bovenal, kan ik hem wegzetten en nooit meer naar om kijken.
Komt een active directory op, WDS, VPN, SQL server en een flinke data server. Vroeg me alleen af of het handig is om er meerdere gigabit poorten in te zetten en hier Link aggregation aan te linken. Of iets van een load balancer. Moet aankunnen dat er 10 mensen HD films op kijken terwijl hij nieuwe aan het downloaden is.
Zou je kunnen doen, maar dan heb je ook een switch nodig die 802.3ad doet.
ESXi ondersteunt het volgens mij wel goed, iig
ESXi ondersteunt het volgens mij wel goed, iig
Gewoon een heel grote verzameling snoertjes
Ik heb een x8sil-f motherboard. Dacht hier ff 32GB in te stoppen.
Helaas werkt mijn geheugen niet: ct2kit102472BB1339 (2x)
Iemand enig idee waarom het niet zou werken?
Helaas werkt mijn geheugen niet: ct2kit102472BB1339 (2x)
Iemand enig idee waarom het niet zou werken?
Captain obvious here, omdat je mem niet expliciet op de hcl staat.
Any job you can do in your pajamas is not the hardest job in the world.
Is het niet zo dat RAID5 met zoveel data niet zo heel verstandig is?DDC schreef op woensdag 13 maart 2013 @ 22:05:
Zat te kijken naar dit
Adaptec 5805 150 Core i5 3350P 150 ASRock B75 Pro3-M 60 Corsair XMS3 CMX32GX3M4A1333C9 160 Seasonic Platinum Series 400 Watt Fanless 110 Stille CPU koeler 40 5x Western Digital Red WD30EFRX, 3TB 650 4x Scythe Slip Stream SY1225SL12L, 120mm 30 Fractal Design Define Mini 80 PCI-e NIC - Totaal 1450 euro
Waarom 32GB? Waarom zo veel schijven? Schijven komen in RAID5 wat zo'n 11TB netto overhoud. En 32gb omdat er toch al bijna 1500 euro in gaat zitten, dan maakt die 80 extra niet zo veel meer uit. En bovenal, kan ik hem wegzetten en nooit meer naar om kijken.
Komt een active directory op, WDS, VPN, SQL server en een flinke data server. Vroeg me alleen af of het handig is om er meerdere gigabit poorten in te zetten en hier Link aggregation aan te linken. Of iets van een load balancer. Moet aankunnen dat er 10 mensen HD films op kijken terwijl hij nieuwe aan het downloaden is.
Ja, dat is wel erg makkelijk natuurlijk...Rooke schreef op woensdag 13 maart 2013 @ 22:26:
Captain obvious here, omdat je mem niet expliciet op de hcl staat.
Maar goed. Dat zal niet het probleem zijn lijkt me.
Het geheugen op de HCL is getest en goed gekeurd door de fabrikant.
Daar is de HCL voor in mijn ogen.
Dat wil niet betekenen dat andere merken die er niet op staan dan ook niet werken...
[ Voor 25% gewijzigd door WRT54G op 13-03-2013 22:32 ]
RAID5 is tegenwoordig überhaupt niet verstandig, ongeacht hoeveel data.PatrickH89 schreef op woensdag 13 maart 2013 @ 22:26:
[...]
Is het niet zo dat RAID5 met zoveel data niet zo heel verstandig is?
Gewoon een heel grote verzameling snoertjes
Wat bedoel je hier precies mee? ESXi kan natuurlijk zelf geen ZFS 'doen', maar het is de bedoeling dat je dat laat afhandelen door een VM.DDC schreef op woensdag 13 maart 2013 @ 22:50:
Ondersteund ESXi ZFS dan? Want anders ga ik daar even 40 a4tjes over lezen.
Je geeft dan een hele HBA door met PCI-e passthrough (aanbevolen) of losse schijven dmv RDM (doe maar niet, eigenlijk).
Toevallig hebben best wel veel Tweakers in dit topic en Het grote ZFS topic ESXi + ZFS draaien, waaronder ik
Check als je geinteresseerd bent in ZFS ook zeker even de topicstart van bovenstaand topic, erg duidelijk beschreven imho
[ Voor 9% gewijzigd door Compizfox op 13-03-2013 23:03 ]
Gewoon een heel grote verzameling snoertjes
Het is maar net welk risico je wilt nemen, als je vertrouwt dat je schijven niet met bosjes eruit vallen. Je kan dit wat versnellen door zelf regelmatig te scrubben/resilveren/... zodat je zeker bent dat je disks relatief gezond zijn. Als je niet verder gaat dan een vijf disk raid 5 volumes (wat verstandig is) is je rebuilt veelal in een half dag klaar.Compizfox schreef op woensdag 13 maart 2013 @ 22:37:
[...]
RAID5 is tegenwoordig überhaupt niet verstandig, ongeacht hoeveel data.
Als je dat risico bekijkt met SSDs wordt dat window nog kleiner namelijk veelal minder dan één uur (het gaat hier dus uiteindelijk om de storage-size/rebuilt-speed en daarin zijn SSDs veel sterker in). Het rare is namelijk dat als dat hele verhaal effectief waar was we dit veel vaker ook zouden waarnemen in praktijk nu, dat is echter niet zo.
Dat is niet zozeer het probleem. Het probleem is UREs (unrecoverable read errors) die nu met grotere datadichtheden steeds meer voorkomen.analog_ schreef op woensdag 13 maart 2013 @ 23:24:
[...]
Het is maar net welk risico je wilt nemen, als je vertrouwt dat je schijven niet met bosjes eruit vallen.
Hierdoor krijg je wat ze noemen "silent corrruption".
Zou ik juist niet doen. Het grote probleem is juist, dat als je een URE krijgt tijdens het resilveren, je RAID-controller zeer waarschijnlijk die betreffende disk uit de array tieft. En dan ben je ver van huis, als je al een degraded array hebt...Je kan dit wat versnellen door zelf regelmatig te scrubben/resilveren/... zodat je zeker bent dat je disks relatief gezond zijn. Als je niet verder gaat dan een vijf disk raid 5 volumes (wat verstandig is) is je rebuilt veelal in een half dag klaar.
Met ZFS heb je hier trouwens allemaal geen last van
[ Voor 3% gewijzigd door Compizfox op 13-03-2013 23:30 ]
Gewoon een heel grote verzameling snoertjes
Wat ook zou gebeuren als je het niet doet omdat het dan bij de volgende read gebeurt. Met andere worden uitstel van executie zonder enig voordeel.Compizfox schreef op woensdag 13 maart 2013 @ 23:29:
[...]
Dat is niet zozeer het probleem. Het probleem is UREs (unrecoverable read errors) die nu met grotere datadichtheden steeds meer voorkomen.
Hierdoor krijg je wat ze noemen "silent corrruption".
[...]
Zou ik juist niet doen. Het grote probleem is juist, dat als je een URE krijgt tijdens het resilveren, je RAID-controller zeer waarschijnlijk die betreffende disk uit de array tieft. En dan ben je ver van huis, als je al een degraded array hebt...
Met ZFS heb je hier trouwens allemaal geen last van
OK, als je het over een resilver hebt terwijl je array nog online is, heb je gelijk.
Maar het gevaar is juist dat je een grote kans hebt een URE tegen te komen bij het resilveren als je array degraged is. En dat risico is groter dan je zou denken.
Maar het gevaar is juist dat je een grote kans hebt een URE tegen te komen bij het resilveren als je array degraged is. En dat risico is groter dan je zou denken.
Gewoon een heel grote verzameling snoertjes
Even gelezen, maar op ZFS kun je geen Windows installeren? Of gaat dit via ESXi weer wel (is me niet duidelijk).
Maar een idee zou dan zijn om bijvoorbeeld 2x1TB in Raid 0 te zetten voor de servers en de 6x3tb in ZFS?
Dit kan wel dus
. Heeft iemand misschien een praktijk voorbeeld?
Maar een idee zou dan zijn om bijvoorbeeld 2x1TB in Raid 0 te zetten voor de servers en de 6x3tb in ZFS?
Dit kan wel dus
[ Voor 15% gewijzigd door DDC op 14-03-2013 00:37 ]
ZFS is een filesystem wat je gebruikt in een OS zoals FreeBSD, Linux of Solaris.DDC schreef op woensdag 13 maart 2013 @ 23:59:
Even gelezen, maar op ZFS kun je geen Windows installeren? Of gaat dit via ESXi weer wel (is me niet duidelijk).
Als je Windows op ZFS wil installeren, zou je in je storage-VM (die de ZFS verzorgt) een iSCSI-target kunnen aanmaken die je weer 'terug'-mount als datastore in ESXi.
Dan kan je in ESXi er een VM op zetten, bijvoorbeeld met Windows.
Zou ook kunnen. Je hebt sowieso een datastore nodig om die storage-VM op te zetten.Maar een idee zou dan zijn om bijvoorbeeld 2x1TB in Raid 0 te zetten voor de servers en de 6x3tb in ZFS?
Dit kan wel dus. Heeft iemand misschien een praktijk voorbeeld?
Gewoon een heel grote verzameling snoertjes
Heb je dit nog aan de praat gekregen ? Zou ideaal zijn als dit zou werken, dan kan ik de 8 poorten van mn ASRock H77 Pro4-M doorgeven, en de SIL3114 gebruiken voor datastore.Compizfox schreef op woensdag 27 februari 2013 @ 16:25:
... SIL3114 ...
[...]
Nee. Ik heb ook niet het doel hem te passthroughen, hij is immers veel te traag om als HBA voor de storage te gebruiken.
Ik ga hem gebruiken als HBA voor de datastore zodat ik mijn onboard controller gaan doorgeven.
Wou eerst een kaart op basis van ASM1061, maar had hier gelezen dat die ook zou doorgegeven worden als ik de onbaord controllers zou doorgeve ...
Werkt out-of-the-box met ESXi 5.1.devastator83 schreef op vrijdag 15 maart 2013 @ 12:07:
[...]
Heb je dit nog aan de praat gekregen ? Zou ideaal zijn als dit zou werken, dan kan ik de 8 poorten van mn ASRock H77 Pro4-M doorgeven, en de SIL3114 gebruiken voor datastore.
Dat klopt.Wou eerst een kaart op basis van ASM1061, maar had hier gelezen dat die ook zou doorgegeven worden als ik de onbaord controllers zou doorgeve ...
Gewoon een heel grote verzameling snoertjes
thanks !
Even kijken waar ik zo een kaartje (PCI-e) het best kan aanschaffen.
Betreffende de ASM1061, misschien dat het toch werkt ?
link
Even kijken waar ik zo een kaartje (PCI-e) het best kan aanschaffen.
Betreffende de ASM1061, misschien dat het toch werkt ?
link
[ Voor 55% gewijzigd door devastator83 op 15-03-2013 12:50 ]
sil3114 en sil3112 zijn enkel PCI. Op eBay kun je ze wel redelijk goedkoop krijgen.devastator83 schreef op vrijdag 15 maart 2013 @ 12:35:
thanks !
Even kijken waar ik zo een kaartje (PCI-e) het best kan aanschaffen.
Ik kan zo 1,2,3 niet vinden waar in dat topic staat dat het wel zou werken...Betreffende de ASM1061, misschien dat het toch werkt ?
link
Ik weet wel uit eigen ervaring en uit die van Pantagruel (en nog iemand dacht ik) dat ASM1061-controllers, los op PCI-e-kaartje of on-board, op de één of andere manier 'afhankelijk' zijn van de onboard SATA-controller om te functioneren.
Dit heb ik ook getest door de onboard SATA-controller gewoon in de BIOS uit te schakelen. Ook dan werd de ASM1061 niet herkend door ESXi. (Daarbij was er dus niet eens sprake van passthrough)
Gewoon een heel grote verzameling snoertjes
mmm, helaas heeft mijn mobo geen normale PCI sloten 
Uit die link uit mn vorige post bedoelde ik volgende post:
Uit die link uit mn vorige post bedoelde ik volgende post:
ESXi 5.1 will PSOD on you when trying to use passthru on the Intel Panther Point controller responsible for the six SATA ports labeled SATA2_2, SATA2_3, SATA2_4, SATA2_5, SATA3_0, and SATA3_1. Passthru for the controller managing SATA3_A1 and SATA3_A2, which ESXi calls "unknown", works fine.
ESXi 5.0U does not have this problem. All onboard SATA ports work with passthru under ESXi 5.0U.
Met KVM hier kan ik ook gewoon de onboard doorgeven, werkt prima.
Even niets...
Ja, maar daar zegt ie toch ook niet dat je de Panterpoint door kunt geven zonder dat de ASM1061 meegaat?devastator83 schreef op vrijdag 15 maart 2013 @ 13:26:
mmm, helaas heeft mijn mobo geen normale PCI sloten
Uit die link uit mn vorige post bedoelde ik volgende post:
[...]
Je kunt de ASM1061 zelf wel doorgeven, maar 2 poorten is in de meeste gevallen te weinig.
Gewoon een heel grote verzameling snoertjes
Daar zal ik het voorlopig mee moeten doen dan. Ik kan de 2 onboard ASM1061 ook doorgeven, dan komt het totaal op 4 ...Compizfox schreef op vrijdag 15 maart 2013 @ 14:46:
[...]
Ja, maar daar zegt ie toch ook niet dat je de Panterpoint door kunt geven zonder dat de ASM1061 meegaat?
Je kunt de ASM1061 zelf wel doorgeven, maar 2 poorten is in de meeste gevallen te weinig.
Is het mogelijk om PfSense 2 (in VMware ESXi 5) als wireless access point te laten functioneren met een USB of PCI Express card (bijv. D-LINK DWA-556), zodat er geen aparte bedrade wlan router als access point gebruikt hoeft te worden?
Zo ja, graag vermelden welke wifi kaart functioneert. Is het ook mogelijk om 2 SSID's aan te maken? Tevens motherboard vermelden.
Zo ja, graag vermelden welke wifi kaart functioneert. Is het ook mogelijk om 2 SSID's aan te maken? Tevens motherboard vermelden.
Je kan met VT-d elke PCIe WiFi kaart doorgeven. Met USB weet ik het niet. Vaak ondersteunen WiFi USB sticks geen AP mode (wat je nodig hebt om als Wifi Access Point te fungeren..)
Even niets...
Dat zou je kunnen doen inderdaad.devastator83 schreef op vrijdag 15 maart 2013 @ 15:01:
[...]
Daar zal ik het voorlopig mee moeten doen dan. Ik kan de 2 onboard ASM1061 ook doorgeven, dan komt het totaal op 4 ...
Veel mensen willen RAID-Z1 draaien (3 schijven minimaal) of zelf nog meer schijven. Dan zijn 2 SATA-poorten te weinig.
Gewoon een heel grote verzameling snoertjes
Vraagje, welke versie van ZFS guru draai je en heb je problemen met je ibm m1015 kaart?alter88 schreef op donderdag 14 februari 2013 @ 19:55:
Nog even een update van het verbruik van mijn server:
Setup:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 156,- € 156,- 1 MSI B75MA-P45 € 52,95 € 52,95 2 Western Digital Green WD20EARX, 2TB € 82,- € 164,- 1 Fractal Design ARC MINI € 72,20 € 72,20 1 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M € 15,99 € 15,99 1 Corsair Vengeance CML16GX3M2A1600C10 € 76,48 € 76,48 1 IBM ServeRAID M1015 SAS/SATA Controller for System x € 118,50 € 118,50 1 be quiet! Pure Power L7 300W € 37,95 € 37,95 1 Kingston SSDNow V Series V300 120GB € 81,90 € 81,90 Bekijk collectie
Importeer productenTotaal € 775,97
Met 4 VM's idle en de 2 schijven up is het verbruik 38 Watt, met de 2 schijven downspinned daalt het naar 34 Watt.
Ik heb alleen in vSphere client de settings voor power management op Low power gezet. Met wat tweaks in de bios moet het nog zuiniger kunnen denk ik.
De VMs:
- ZFSGuru
- Ubuntu webserver
- Ubuntu download (sabnzbd, couchpotato)
- Ubuntu backup met CrashPlan
Ik lees her en der nog al wat problemen met firmware versies die botsen met de driver van bepaalde versies van zfsguru. Ik wil een soortgelijke setup gaan maken als jij hebt en ben me nu aan het inlezen over de do en dont's
Die firmware mismatch heeft alleen te maken met de virtuele controller van VMware zelf (die gebruikt intern een LSI1068 welke nogal slecht virtueel geimplementeerd is.)
De M1015 is zelf een LSI2008 chip, en als je die via VT-d doorgeeft, heb je helemaal niets met ESXi (qua drivers) te maken.
(Die problemen waar je veel over leest, komen overigens bijna alleen voor icm RDM)
De M1015 is zelf een LSI2008 chip, en als je die via VT-d doorgeeft, heb je helemaal niets met ESXi (qua drivers) te maken.
(Die problemen waar je veel over leest, komen overigens bijna alleen voor icm RDM)
[ Voor 13% gewijzigd door FireDrunk op 16-03-2013 22:25 ]
Even niets...
Duidelijk, dan ben ik wel uit. Bedankt
Ondertussen een moederbord, cpu en geheugen besteld.
Nu op ebay/marktplaats en de prijswatch op zoek naar een betaalbare ibm m1015.
Valt nog een beetje tegen, maar ook dat komt goed.
Ondertussen een moederbord, cpu en geheugen besteld.
Nu op ebay/marktplaats en de prijswatch op zoek naar een betaalbare ibm m1015.
Valt nog een beetje tegen, maar ook dat komt goed.
[ Voor 71% gewijzigd door lithoijen op 17-03-2013 21:34 ]
Heb even gekeken maar kwam er niet helemaal uit.FireDrunk schreef op dinsdag 12 maart 2013 @ 11:47:
Nieuwste MIB en Adaptec driver installeren, dan zie je het bij Hardware Status.
Kan je me vertellen wat ik precies moet doen voor mijn Adaptec 2405 kaartje?
Ik draai ESXi 5.1 build 1021289
http://download.adaptec.c...controller_iug_5_2012.pdf
Flinke handleiding, maar het kan wel. En ik verwar MIB met CIM (MIB is voor SMTP).
---
Omdat ik de beroerdste niet ben
http://www.adaptec.com/en...mware_v7_31_18856_zip.htm
installeren, en gaan waarschijnlijk
Flinke handleiding, maar het kan wel. En ik verwar MIB met CIM (MIB is voor SMTP).
---
Omdat ik de beroerdste niet ben
http://www.adaptec.com/en...mware_v7_31_18856_zip.htm
installeren, en gaan waarschijnlijk
[ Voor 34% gewijzigd door FireDrunk op 19-03-2013 10:41 ]
Even niets...
iemand ervaring met RocketRaid PCI-e SATA controllers (VT-D)?
Fixed that for yaFireDrunk schreef op dinsdag 19 maart 2013 @ 10:34:
http://download.adaptec.c...controller_iug_5_2012.pdf
Flinke handleiding, maar het kan wel. En ik verwar MIB met CIM (MIB is voor SMTP SNMP).
---
Omdat ik de beroerdste niet ben
http://www.adaptec.com/en...mware_v7_31_18856_zip.htm
installeren, en gaan waarschijnlijk
wat is de prestaties van DV-T GPU ?? jammer dat USB forwarding niet goed werkt onder 5.1.x
Onder mijn Xen setup is 2x VD-T GPU (dual monitor) voor 2 machines = multiseat VM server(8 Vm's totaal) echt super .. ik zet mijn USB hubs als "passthrough" voor elke machine 1.. daarop ramplank,muis en usb-soundcard..
De reden dat ik liever ESX(i) kies is dat de setup wat makkelijker is dan een Linux doos (oftewel minder downtime bij rebuild) ook is mijn power consumption denk ik nog mogelijk down te brengen (was 400+ Watt, nu 300W Busy en 230 average 180W idle) .. i7-6core zit erin
daarnaast nu 2x striped HDD vervangen door USB stick .. is ook aantrekkelijk ..(heb nu 8 disks erin zitten) maar goed toen ik met
VD-T probeerde op ESX werkte het niet (2x een ATI radeaon HD 6350 geloof ik)
O kan je met VD-T een virtuele netwerk kaart gebruiken? onder Xen "klappert" de verbinding met een Vnetwerk kaart en moet ik dus ook een hw(pcie/USB) netwerkaart hardware matig doorzetten, het werkt wel maar ideaal is het natuurlijk niet.
over performance onder Xen heb ik nada te klagen ..
ZFS is aantrekkelijk, hoewel ik jaren draai met (software)raid5 en nimmer disk stuk is gegaan. Is ZFS zeker een idee. wil je beetje performance dan is het wel verstandig 1 GBRAM per TB en SSD (zie ZFS topic voor meer informatie) erbij te zetten de SSD (bv 32GB) is voor caching .. duurt wel tijdje voordat dit actief werkt maar je performance gaat wel omhoog
Gezien dat ik een Thecus Nas wellicht krijg, ga ik kijken of ik dit dusdanig kan enable-en. de SSD op externe ESata aansluiting/behuizing.
Onder mijn Xen setup is 2x VD-T GPU (dual monitor) voor 2 machines = multiseat VM server(8 Vm's totaal) echt super .. ik zet mijn USB hubs als "passthrough" voor elke machine 1.. daarop ramplank,muis en usb-soundcard..
De reden dat ik liever ESX(i) kies is dat de setup wat makkelijker is dan een Linux doos (oftewel minder downtime bij rebuild) ook is mijn power consumption denk ik nog mogelijk down te brengen (was 400+ Watt, nu 300W Busy en 230 average 180W idle) .. i7-6core zit erin
daarnaast nu 2x striped HDD vervangen door USB stick .. is ook aantrekkelijk ..(heb nu 8 disks erin zitten) maar goed toen ik met
VD-T probeerde op ESX werkte het niet (2x een ATI radeaon HD 6350 geloof ik)
O kan je met VD-T een virtuele netwerk kaart gebruiken? onder Xen "klappert" de verbinding met een Vnetwerk kaart en moet ik dus ook een hw(pcie/USB) netwerkaart hardware matig doorzetten, het werkt wel maar ideaal is het natuurlijk niet.
over performance onder Xen heb ik nada te klagen ..
ZFS is aantrekkelijk, hoewel ik jaren draai met (software)raid5 en nimmer disk stuk is gegaan. Is ZFS zeker een idee. wil je beetje performance dan is het wel verstandig 1 GBRAM per TB en SSD (zie ZFS topic voor meer informatie) erbij te zetten de SSD (bv 32GB) is voor caching .. duurt wel tijdje voordat dit actief werkt maar je performance gaat wel omhoog
Gezien dat ik een Thecus Nas wellicht krijg, ga ik kijken of ik dit dusdanig kan enable-en. de SSD op externe ESata aansluiting/behuizing.
Tja vanalles
ESXi gaat er niet voor zorgen dat het geheel minder verbruikt. Bovendien is de Setup ook niet veel simpeler, denk ik. XEN is toch niet zo ingewikkeld?
Een virtueel netwerk onder Xen zou gewoon moeten werken, en niet instabiel moeten zijn, ik zou daar nog even op proberen te troubleshooten...
Een virtueel netwerk onder Xen zou gewoon moeten werken, en niet instabiel moeten zijn, ik zou daar nog even op proberen te troubleshooten...
[ Voor 32% gewijzigd door FireDrunk op 19-03-2013 12:22 ]
Even niets...
Het is VT-dvso schreef op dinsdag 19 maart 2013 @ 12:20:
DV-T [...] VD-T
Werkt prima hier.jammer dat USB forwarding niet goed werkt onder 5.1.x
Gewoon een heel grote verzameling snoertjes
Ik heb inmiddels de CIM geinstalleerd op mijn ESXi bak. Installatie was succesvol.
Waar kan ik nu precies zien hoe het met mijn schijven gaat?
Waar en hoe krijg ik een alert als er wat mis is?
Waar kan ik nu precies zien hoe het met mijn schijven gaat?
Waar en hoe krijg ik een alert als er wat mis is?
(sowieso eerst rebooten
)
Eigenschappen server (in VMWare Client), hardware status tabje, en in die lijst zou je iets van Adaptec moeten zien volgens mij.
Daar zie je een hoop Assert / Deassert meldingen.
Eigenschappen server (in VMWare Client), hardware status tabje, en in die lijst zou je iets van Adaptec moeten zien volgens mij.
Daar zie je een hoop Assert / Deassert meldingen.
[ Voor 14% gewijzigd door FireDrunk op 19-03-2013 20:05 ]
Even niets...
Bedoel je hier?

Vind de informatie hier namelijk wat summier...
Kan b.v. niet zien hoeveel schijven eraan hangen. Wat de status is van de schijven.
Of zit ik gewoon verkeerd te kijken?

Vind de informatie hier namelijk wat summier...
Kan b.v. niet zien hoeveel schijven eraan hangen. Wat de status is van de schijven.
Of zit ik gewoon verkeerd te kijken?
[ Voor 47% gewijzigd door WRT54G op 19-03-2013 20:47 ]
Nee, er zou (in mijn beleving) een nieuw item bij moeten komen.
Software Components is alleen de driver VIB die 'werkt'...
Voorbeeldje:
Software Components is alleen de driver VIB die 'werkt'...
Voorbeeldje:

[ Voor 30% gewijzigd door FireDrunk op 19-03-2013 21:17 ]
Even niets...
http://download.adaptec.c...allation_guide_3_2011.pdf
Je kan ook hier even proberen of het verhaaltje met een Windows VM wel werkt, dan weet je iig of je CIM werkt denk ik.
Je kan ook hier even proberen of het verhaaltje met een Windows VM wel werkt, dan weet je iig of je CIM werkt denk ik.
Even niets...
Heb de remote arcconfig tool geinstalleerd in een Server 2008 VM.
Maar zodra ik bv: "arcconf getconfig" doe dan staat er:
Controllers found: 0
Lijkt dus niet helemaal goed te gaan...
Overigens zag ik zojuist dat de CIM ook bedoeld is voor ESXi 4.1 & 5.0
Ik draai 5.1 build 1021289 (laatste build zover ik weet).
Zou dat het euvel kunnen zijn?
Maar zodra ik bv: "arcconf getconfig" doe dan staat er:
Controllers found: 0
Lijkt dus niet helemaal goed te gaan...
Overigens zag ik zojuist dat de CIM ook bedoeld is voor ESXi 4.1 & 5.0
Ik draai 5.1 build 1021289 (laatste build zover ik weet).
Zou dat het euvel kunnen zijn?
[ Voor 3% gewijzigd door WRT54G op 19-03-2013 22:44 ]
Theoretisch gezien wel, maar als hij installeert lijkt mij dat het goed is (anders zal je vast een foutmelding krijgen...)
Adaptec Support ff mailen?
Check overigens ook ff of je de nieuwste driver hebt.
Deze dus: https://my.vmware.com/gro...id-52129800&productId=285
Adaptec Support ff mailen?
Check overigens ook ff of je de nieuwste driver hebt.
Deze dus: https://my.vmware.com/gro...id-52129800&productId=285
[ Voor 37% gewijzigd door FireDrunk op 19-03-2013 22:48 ]
Even niets...
Ja dat was ook mijn ingeving.
Installatie liep zonder problemen. Enige melding die ik kreeg was:
"acceptance level is unsigned, which is not compliant with the ImageProfile acceptance level partner
To change the host acceptance level, use the 'esxcli software acceptance set' command.
Please refer to the log file for more details."
Acceptance level veranderd van Partner Support naar Community Supported
Toen ging de installatie vlekkenloos.
Denk idd dat ik adaptec maar moet mailen...
Waarschijnlijk loopt het daar dan dood. haha
Installatie liep zonder problemen. Enige melding die ik kreeg was:
"acceptance level is unsigned, which is not compliant with the ImageProfile acceptance level partner
To change the host acceptance level, use the 'esxcli software acceptance set' command.
Please refer to the log file for more details."
Acceptance level veranderd van Partner Support naar Community Supported
Toen ging de installatie vlekkenloos.
Denk idd dat ik adaptec maar moet mailen...
Waarschijnlijk loopt het daar dan dood. haha
Als het met die driver ook niet werkt, inderdaad even support raadplegen, doen meestal niet zo moeilijk.
Liefst een Chat heb ik wel gemerkt, dat gaat echt het snelst (in het geval van Intel zeker
)
Liefst een Chat heb ik wel gemerkt, dat gaat echt het snelst (in het geval van Intel zeker
Even niets...
Ik ben de driver nu ff aan het checken. Hopelijk gaat dat het verschil maken.
Anders idd even Adaptec contacten.
iig bedankt voor je snelle hulp en tips!
Anders idd even Adaptec contacten.
iig bedankt voor je snelle hulp en tips!
Ook de driver installatie was succesvol. Alleen na de (verplichte) reboot was ik mijn datastore kwijt.
Opnieuw aangemaakt. Maar helaas zie ik verder geen veranderingen...
Vraag inmiddels bij Adaptec neergelegd.
Via mail, geen chat aanwezig.
Opnieuw aangemaakt. Maar helaas zie ik verder geen veranderingen...
Vraag inmiddels bij Adaptec neergelegd.
Via mail, geen chat aanwezig.
[ Voor 20% gewijzigd door WRT54G op 19-03-2013 23:51 ]
Helaas een niet bevredigend antwoord van Adaptec terug:
Hello Marcel,
To be able to manage your RAID controller in ESXi you have to install the CIM provider and the Remote Arcconf utility, which is located in the same package as the CIM provider.
For instructions on how to install Remote Arcconf, please, refer to this User's Guide (page 11 to 14): http://download.adaptec.c..._31_18856_users_guide.pdf
Kind regards,
Adaptec by PMC
Technical Support
Uit dit antwoord blijkt dus dat het niet mogelijk is om de Adaptec raid 2405 te monitoren vanuit ESXI.
Aangezien je aan de slag moet met een Windows of Linux Guest OS om het werkend te krijgen
(overigens werkt dat bij mij ook niet
)
Balen!!
Hello Marcel,
To be able to manage your RAID controller in ESXi you have to install the CIM provider and the Remote Arcconf utility, which is located in the same package as the CIM provider.
For instructions on how to install Remote Arcconf, please, refer to this User's Guide (page 11 to 14): http://download.adaptec.c..._31_18856_users_guide.pdf
Kind regards,
Adaptec by PMC
Technical Support
Uit dit antwoord blijkt dus dat het niet mogelijk is om de Adaptec raid 2405 te monitoren vanuit ESXI.
Aangezien je aan de slag moet met een Windows of Linux Guest OS om het werkend te krijgen
(overigens werkt dat bij mij ook niet
Balen!!

Volgens mij kan je die arcconf wel op esxi installeren... misschien dat je dat eens moet proberen...
Even niets...
In het pakket (CIM provider zip file) zit een arcconf Windows installatie bestand en een Linux installatie bestand. That's it...
setup_remote_arcconf_x32.exe
remote-arcconf-7.31-18856.i386.bin
remote-arcconf-7.31-18856.x86_64.bin
setup_remote_arcconf_x32.exe
remote-arcconf-7.31-18856.i386.bin
remote-arcconf-7.31-18856.x86_64.bin
[ Voor 29% gewijzigd door WRT54G op 20-03-2013 18:04 ]
Na een beetje googlen lees ik vooral berichten dat Adaptec helaas niet als LSI werkt.
Dus niet vanuit ESXI hardware status tab maar een remote arcconf nodig heeft. Linux of Windows bak...
Dus niet vanuit ESXI hardware status tab maar een remote arcconf nodig heeft. Linux of Windows bak...
Nu merk ik dat 1 hdd bij mij stuk begint te gaan.
Deze staat niet in raid en is gekoppeld aan een virtuele bak.
Als ik die stukke hdd nu kopieer naar mijn lokale datastore,
en dan een nieuwe hdd inhang en dan daar de data weer op terug kopieer krijg ik dan problemen?
of herkend hij dan de schijf zoals het moet zijn?
Deze staat niet in raid en is gekoppeld aan een virtuele bak.
Als ik die stukke hdd nu kopieer naar mijn lokale datastore,
en dan een nieuwe hdd inhang en dan daar de data weer op terug kopieer krijg ik dan problemen?
of herkend hij dan de schijf zoals het moet zijn?
PSN: McMillan0984
ach vd-t of VT-d
en USB werkt prima onder ?? welke versie
wat is dan het probleem dat men niet altijd even lekker werkt met USB devices passthrough naar VM ?
Tja vanalles
Ik meen mij te herrinneren dat voor USB passthrough niet persé VT-d nodig was. Een individueel device schijn je door te kunnen geven zonder. Als je de hele controller door wil geven is wel weer VT-d nodig omdat dan de VM de controle krijgt over de controller en daarop aangesloten devices.vso schreef op vrijdag 22 maart 2013 @ 13:05:
[...]
ach vd-t of VT-dje wist wat ik bedoelde ..
en USB werkt prima onder ?? welke versie
wat is dan het probleem dat men niet altijd even lekker werkt met USB devices passthrough naar VM ?
@VSO: de link in je signature is dood...
Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]
Onder ESXi 5.1.x. Daar had je het toch over?
Geen idee. Jij beweerde dat, ik nietwat is dan het probleem dat men niet altijd even lekker werkt met USB devices passthrough naar VM ?
Klopt helemaal.thof schreef op vrijdag 22 maart 2013 @ 14:06:
[...]
Ik meen mij te herrinneren dat voor USB passthrough niet persé VT-d nodig was. Een individueel device schijn je door te kunnen geven zonder. Als je de hele controller door wil geven is wel weer VT-d nodig omdat dan de VM de controle krijgt over de controller en daarop aangesloten devices.
[ Voor 37% gewijzigd door Compizfox op 22-03-2013 14:42 ]
Gewoon een heel grote verzameling snoertjes
THx voor sig update .. (wat was het ook alweer?)thof schreef op vrijdag 22 maart 2013 @ 14:06:
[...]
Ik meen mij te herrinneren dat voor USB passthrough niet persé VT-d nodig was. Een individueel device schijn je door te kunnen geven zonder. Als je de hele controller door wil geven is wel weer VT-d nodig omdat dan de VM de controle krijgt over de controller en daarop aangesloten devices.
@VSO: de link in je signature is dood...
Ik wil de USB hub(s) btw doorzetten
Tja vanalles
Dat kan niet. Je kunt 2 dingen doen:
- De USB-devices doorgeven (geen VT-d nodig)
- De USB-controller in zijn geheel doorgeven (VT-d nodig)
Houdt er rekening mee dat als je de 2e optie kiest, je wss ESXi zelf niet meer vanaf USB kunt booten (weet ik niet zeker, kan iemand dit bevestigen? Aangezien het ook mogelijk zou zijn dat ESXi zichzelf in het RAM laadt voordat hij PCI-e passthrough doet)
- De USB-devices doorgeven (geen VT-d nodig)
- De USB-controller in zijn geheel doorgeven (VT-d nodig)
Houdt er rekening mee dat als je de 2e optie kiest, je wss ESXi zelf niet meer vanaf USB kunt booten (weet ik niet zeker, kan iemand dit bevestigen? Aangezien het ook mogelijk zou zijn dat ESXi zichzelf in het RAM laadt voordat hij PCI-e passthrough doet)
Gewoon een heel grote verzameling snoertjes
even terug op komend, las hier in het topic dat 5.1.x niet goed USB deed ..
Wou je beweren dat een USB hub geen USB device is? FYI ik heb op deze manier mijn XEN oplossing wel draaien dus ipv de controller direct aan een virtuele machine door te zetten zet ik de hub's door. dus de Hub promoot/degradeer ik naar een "controller" hierdoor kan ik een USB key,stick,muis, ramplank in 1 van de 3 hub's steken en het USB device gebruiken in die VM/host met gekoppelde hub.Compizfox schreef op vrijdag 22 maart 2013 @ 14:58:
Dat kan niet.
Het zou kunnen dat VMware heeft besloten hub's niet te tonen ? "lspci' of 'lsusb" kan je in iedergeval de hub identificeren ..
Tja vanalles
Ik heb problemen met esxi 5.1.0 & een controller doorgeven, na het vinkje aangezet te hebben, staat die na een reboot weer uit. Dit doorgeven was noodzakelijk om een toetsenbord door te kunnen geven.thof schreef op vrijdag 22 maart 2013 @ 14:06:
[...]
Ik meen mij te herrinneren dat voor USB passthrough niet persé VT-d nodig was. Een individueel device schijn je door te kunnen geven zonder. Als je de hele controller door wil geven is wel weer VT-d nodig omdat dan de VM de controle krijgt over de controller en daarop aangesloten devices.
@VSO: de link in je signature is dood...
Onder esxi 5.0u2 werkt dit zonder problemen.
Ik heb intern 2 usb controllers, blijkbaar, de ene helft vd poorten blijven beschikbaar voor het "bare metal" OS: esxi dus, en de andere helft vd poorten gaan door naar de VM.Compizfox schreef op vrijdag 22 maart 2013 @ 14:58:
Dat kan niet. Je kunt 2 dingen doen:
- De USB-devices doorgeven (geen VT-d nodig)
- De USB-controller in zijn geheel doorgeven (VT-d nodig)
Houdt er rekening mee dat als je de 2e optie kiest, je wss ESXi zelf niet meer vanaf USB kunt booten (weet ik niet zeker, kan iemand dit bevestigen? Aangezien het ook mogelijk zou zijn dat ESXi zichzelf in het RAM laadt voordat hij PCI-e passthrough doet)
<faceplant mode on>
Ik heb een fuckup gemaakt door de verkeerde controller door te geven, en het dan raar te vinden dat wijzigingen die ik maakte en vm's die ik aanmaakte niet opgeslagen werden

Dit komt overeen met keihard de usb stick waarop esxi staat eruit te trekken terwijl die draait.
<faceplant mode off>
Je hebt een interne Root-hub en een externe van sweexvso schreef op vrijdag 22 maart 2013 @ 15:12:
[...]
even terug op komend, las hier in het topic dat 5.1.x niet goed USB deed ..
[...]
Wou je beweren dat een USB hub geen USB device is? FYI ik heb op deze manier mijn XEN oplossing wel draaien dus ipv de controller direct aan een virtuele machine door te zetten zet ik de hub's door. dus de Hub promoot/degradeer ik naar een "controller" hierdoor kan ik een USB key,stick,muis, ramplank in 1 van de 3 hub's steken en het USB device gebruiken in die VM/host met gekoppelde hub.
Het zou kunnen dat VMware heeft besloten hub's niet te tonen ? "lspci' of 'lsusb" kan je in iedergeval de hub identificeren ..
Ik denk dat je hubs verwart met USB-controllers. Een USB-controller is een PCI-e-device die je idd met Xen of ESXi kunt doorgeven.vso schreef op vrijdag 22 maart 2013 @ 15:12:
[...]
even terug op komend, las hier in het topic dat 5.1.x niet goed USB deed ..
[...]
Wou je beweren dat een USB hub geen USB device is? FYI ik heb op deze manier mijn XEN oplossing wel draaien dus ipv de controller direct aan een virtuele machine door te zetten zet ik de hub's door. dus de Hub promoot/degradeer ik naar een "controller" hierdoor kan ik een USB key,stick,muis, ramplank in 1 van de 3 hub's steken en het USB device gebruiken in die VM/host met gekoppelde hub.
Het zou kunnen dat VMware heeft besloten hub's niet te tonen ? "lspci' of 'lsusb" kan je in iedergeval de hub identificeren ..
Een hub is een 'domme' splitter daarachter, intern of extern.
Een USB-device is een apparaat zoals een printer, USB-stick of WLAN-stick die dmv USB is aangesloten.
In ESXi kun je controllers dmv PCI-e passthrough (VT-d) doorgeven, en USB-devices dmv USB-passthrough. Voor USB-passthrough is dus geen VT-d nodig.
Dat is dus géén USB-passthrough, maar PCI-e-passthrough. Dit kan om verschillende redenen met sommige apparaten niet werken, dat komt vaker voor. Sommige combinaties van systemen (moederbord, BIOS, apparaat dat je wilt doorgeven) veroorzaken soms problemen.ravenstein schreef op vrijdag 22 maart 2013 @ 15:15:
[...]
Ik heb problemen met esxi 5.1.0 & een controller doorgeven, na het vinkje aangezet te hebben, staat die na een reboot weer uit. Dit doorgeven was noodzakelijk om een toetsenbord door te kunnen geven.
Onder esxi 5.0u2 werkt dit zonder problemen.
Aha, zo zit het dusravenstein schreef op vrijdag 22 maart 2013 @ 15:17:
[...]
Ik heb intern 2 usb controllers, blijkbaar, de ene helft vd poorten blijven beschikbaar voor het "bare metal" OS: esxi dus, en de andere helft vd poorten gaan door naar de VM.
Als je meerdere USB-controllers hebt kun je daar uiteraard 1 van doorgeven.
[ Voor 48% gewijzigd door Compizfox op 22-03-2013 15:58 ]
Gewoon een heel grote verzameling snoertjes
Klopt, PCI-e passtrough van een hele controller. Dit was nodig om een toetsenbord + muis werkend te krijgen. Tenzij iemand mij nog verteld hoe dat kan dmv USB Passtrough, wat voor zover ik weet niet kan omdat ESXI die niet als Passtrough usb apparaat beschikbaar stelt om door te geven.Compizfox schreef op vrijdag 22 maart 2013 @ 15:55:
[...]
Dat is dus géén USB-passthrough, maar PCI-e-passthrough. Dit kan om verschillende redenen met sommige apparaten niet werken, dat komt vaker voor. Sommige combinaties van systemen (moederbord, BIOS, apparaat dat je wilt doorgeven) veroorzaken soms problemen.
Nu heb ik zojuist W8 X64 UK opnieuw geinstalleerd, GEEN ati driver geinstalleerd.
Ati kaart + usb + hdmi poort opnieuw doorgegeven, XBMC geinstalleerd:
Aanpassingen
systeem-video-afspelen: rendermethode:pixelshaders, Hardwareversnellingdxva2:uit
systeem-videohardware: gemaximaliseerd venster: uit
systeem-geluidshardware: digitaal, 5.1 DTS, output: hdmi
Na deze aanpassing speelt een Blueray rip van Avatar van 32Gb, vanaf mijn NAS zonder enige haperingen
Uh, wait, je zet DXVA uit en je kan vloeiend Blu Ray kijken? Dan zal die VM wel druk zijn
Even niets...
DXVA2 staat uit, als ik die aan zet, heb ik groen beeld.FireDrunk schreef op vrijdag 22 maart 2013 @ 21:59:
Uh, wait, je zet DXVA uit en je kan vloeiend Blu Ray kijken? Dan zal die VM wel druk zijn
Render option zelf staat op auto
Voor de geinteresseerde:
De Adaptec Raid series 2 & 5 (dus ook mijn kaart de 2405) hebben alleen een command line utility (remote arcconf) die draait op een VM guest (Windows of Linux) op de VMware host.
Er is geen enkele manier om in vmware bij hardware status een overzicht te krijgen van deze kaarten.
De series 6 & 7 hebben ook geen overzicht in het hardware status overzicht op de VMware host.
Maar deze hebben wel een Web GUI versie naast de command line utility. Deze is genaamd: maxView Storage Manager. Welke (natuurlijk) ook geinstalleerd moet zijn op een Windows of Linux VM guest.
Ik was geadviseerd door een technician van Adaptec om de maxView Storage Manager software gewoon te proberen met mijn 2405 (series 2) kaart. Hij kon niet garanderen dat het goed zou werken maar het was het proberen waard.
Geinstalleerd op een Server 2008 R2 x64 VM guest en zover ik tot nu toe heb kunnen testen werkt deze Web GUI ook met mijn 2405 kaart!
Het is niet helemaal wat ik wilde (in VMware host hardware status overzicht) maar iig stukken beter dan een command line tool.
De Adaptec Raid series 2 & 5 (dus ook mijn kaart de 2405) hebben alleen een command line utility (remote arcconf) die draait op een VM guest (Windows of Linux) op de VMware host.
Er is geen enkele manier om in vmware bij hardware status een overzicht te krijgen van deze kaarten.
De series 6 & 7 hebben ook geen overzicht in het hardware status overzicht op de VMware host.
Maar deze hebben wel een Web GUI versie naast de command line utility. Deze is genaamd: maxView Storage Manager. Welke (natuurlijk) ook geinstalleerd moet zijn op een Windows of Linux VM guest.
Ik was geadviseerd door een technician van Adaptec om de maxView Storage Manager software gewoon te proberen met mijn 2405 (series 2) kaart. Hij kon niet garanderen dat het goed zou werken maar het was het proberen waard.
Geinstalleerd op een Server 2008 R2 x64 VM guest en zover ik tot nu toe heb kunnen testen werkt deze Web GUI ook met mijn 2405 kaart!
Het is niet helemaal wat ik wilde (in VMware host hardware status overzicht) maar iig stukken beter dan een command line tool.
Jammer, maar op zich een werkende oplossing!
Even niets...
Idd, niet helemaal wat ik had gewild.
Maar goed. Dit werkt zeker ook! Moet nog even de SMTP setting testen.
Maar zoals het er nu uit ziet moet je via mail op de hoogte kunnen worden gehouden als er warnings zijn.
Dat is een hele vooruitgang tov de command line utility!
Maar goed. Dit werkt zeker ook! Moet nog even de SMTP setting testen.
Maar zoals het er nu uit ziet moet je via mail op de hoogte kunnen worden gehouden als er warnings zijn.
Dat is een hele vooruitgang tov de command line utility!
Ik heb net een disk toegevoegd, en zie de disk terug bij de storage adapters.
Hoe krijg ik deze nu als RDM voor een VM ?
De optie is grayed out als ik een disk wil toevoegen aan de VM ...
Hoe krijg ik deze nu als RDM voor een VM ?
De optie is grayed out als ik een disk wil toevoegen aan de VM ...
Dat komt doordat het een SATA-disk is, en daar is RDM niet voor gemaakt. Met een kleine hack kan het toch: http://vm-help.com/esx40i/SATA_RDMs.php
Gewoon een heel grote verzameling snoertjes
Mmm, dat heb ik inderdaad gevolgd, maar het is nog steeds niet 'ungrayed'
Dat word hij ook niet, zodra je die RDM file aangemaakt hebt, krijg je er een VMDK bij. Die VMDK moet je als een gewone disk aan een VM geven.
SATA RDM doe je nooit via de grafische interface van ESXi, daar kan je alleen iSCSI of Fibre Channel RDM's maken.
SATA RDM doe je nooit via de grafische interface van ESXi, daar kan je alleen iSCSI of Fibre Channel RDM's maken.
Even niets...
Zou een PCI-e-to-PCI-kaartje zoals deze werken om door te geven middels VT-D/AMD-Vi?
Gewoon een heel grote verzameling snoertjes
Zolang het PCIe slot wat ervoor zit fatsoenlijk VT-d ondersteund, verwacht ik wel dat dat werkt.
Maar zeker weten doe ik het niet.
Ik ga ervan uit dat de chip die daarop zit de DMA troep van de PCI kaart opvangt en omzet in PCIe DMA requests. Als dat fatsoenlijk gebeurt worden de DMA requests in je VM afgeleverd. Word dat niet goed gedaan, krijg je memory leaks, en dus een PSOD.
Maar zeker weten doe ik het niet.
Ik ga ervan uit dat de chip die daarop zit de DMA troep van de PCI kaart opvangt en omzet in PCIe DMA requests. Als dat fatsoenlijk gebeurt worden de DMA requests in je VM afgeleverd. Word dat niet goed gedaan, krijg je memory leaks, en dus een PSOD.
Even niets...
Hmm, ik wil het gaan gebruiken voor een PCI-kaartje waarmee het direct in een normaal PCI-slot niet lukt om hem door te geven (PSODs)
Denk je dat het wel zou werken als ik hem dus via dat kaartje op PCI-e zou aansluiten? Er zit een PLX pex8112 in.
Wel een succesverhaal gevonden: http://hardforum.com/showthread.php?t=1698336
Denk je dat het wel zou werken als ik hem dus via dat kaartje op PCI-e zou aansluiten? Er zit een PLX pex8112 in.
Wel een succesverhaal gevonden: http://hardforum.com/showthread.php?t=1698336
Gewoon een heel grote verzameling snoertjes
Klinkt heel goed! Ik denk dat dat inderdaad wel gaat werken ja. 
Bedenk je wel dat dat ook wat meer verbruik met zich meebrengt.
PCIe heeft een hoop power saving features die PCI niet kent.
Bedenk je wel dat dat ook wat meer verbruik met zich meebrengt.
PCIe heeft een hoop power saving features die PCI niet kent.
[ Voor 49% gewijzigd door FireDrunk op 26-03-2013 17:15 ]
Even niets...
Gebruik je 5.1 en is die geüpdate of niet? In de builds vóór 914609 zit er namelijk een bug waardoor je ESXi PSOD als je een VM aanzet waar een PCI passtrough device aanhangt (VMware KB)Compizfox schreef op dinsdag 26 maart 2013 @ 17:02:
Hmm, ik wil het gaan gebruiken voor een PCI-kaartje waarmee het direct in een normaal PCI-slot niet lukt om hem door te geven (PSODs)
Vorige week zelf nog meegemaakt met passtrough van een oud Realtek PCI kaartje. Na installeren van de ESXi patches werkte alles zoals het hoort
En ff terzijde voor de geïnteresseerden, de build waarop die passtrough werkte is een IOMMU-enabled AMD APU build (m'n nieuwe HTPC, tussendoor even ESXi op getest):
# | Product | Prijs | Subtotaal |
1 | AMD A8-5500 Boxed | € 92,45 | € 92,45 |
1 | Gigabyte GA-F2A75M-D3H | € 60,50 | € 60,50 |
1 | Corsair Vengeance CML4GX3M2A1600C9 Low Profile | € 32,50 | € 32,50 |
1 | Samsung 840 series SSD 120GB | € 83,90 | € 83,90 |
Bekijk collectie Importeer producten | Totaal | € 269,35 |
Ik heb er niets speciaals voor moeten doen om alles aan de praat te krijgen, IOMMU staat standaard enabled in de EFI. Veel onboard is er wel niet om door te geven. Slechts één device (herinner me niet meer wat precies), maar dat device heeft ESXi zelf nodig. Qua verbruik heb ik helaas ook geen idee. Het systeem is vast relatief zuinig, maar ik heb geen meter om het in detail na te gaan.
Blabla Boemboem
Zo, dat is wel een cheap VT-d setupje dan!
Even niets...
Ja, maar bij mij lost die patch niets op. Hij PSOD nog steeds bij het aanzetten van een VM met PCI-passthrough, maar nu wel met een andere error code.Doetje schreef op vrijdag 29 maart 2013 @ 07:26:
[...]
Gebruik je 5.1 en is die geüpdate of niet? In de builds vóór 914609 zit er namelijk een bug waardoor je ESXi PSOD als je een VM aanzet waar een PCI passtrough device aanhangt (VMware KB)
Vorige week zelf nog meegemaakt met passtrough van een oud Realtek PCI kaartje. Na installeren van de ESXi patches werkte alles zoals het hoort
Gewoon een heel grote verzameling snoertjes
Idle zal wel een prima verbruik zijn, maar ik ben eigenlijk wel benieuwd wat dit onder load zou kunnen verbruiken eigenlijk. Iemand ervaringen?Doetje schreef op vrijdag 29 maart 2013 @ 07:26:
[...]
Gebruik je 5.1 en is die geüpdate of niet? In de builds vóór 914609 zit er namelijk een bug waardoor je ESXi PSOD als je een VM aanzet waar een PCI passtrough device aanhangt (VMware KB)
Vorige week zelf nog meegemaakt met passtrough van een oud Realtek PCI kaartje. Na installeren van de ESXi patches werkte alles zoals het hoort
En ff terzijde voor de geïnteresseerden, de build waarop die passtrough werkte is een IOMMU-enabled AMD APU build (m'n nieuwe HTPC, tussendoor even ESXi op getest):
# Product Prijs Subtotaal 1 AMD A8-5500 Boxed € 92,45 € 92,45 1 Gigabyte GA-F2A75M-D3H € 60,50 € 60,50 1 Corsair Vengeance CML4GX3M2A1600C9 Low Profile € 32,50 € 32,50 1 Samsung 840 series SSD 120GB € 83,90 € 83,90 Bekijk collectie
Importeer productenTotaal € 269,35
Ik heb er niets speciaals voor moeten doen om alles aan de praat te krijgen, IOMMU staat standaard enabled in de EFI. Veel onboard is er wel niet om door te geven. Slechts één device (herinner me niet meer wat precies), maar dat device heeft ESXi zelf nodig. Qua verbruik heb ik helaas ook geen idee. Het systeem is vast relatief zuinig, maar ik heb geen meter om het in detail na te gaan.
Ik zou daar niet zomaar vanuit gaan... AMD is echt nog niet zo goed als Intel...
Bovendien staat Gigabyte niet echt bekend om zijn zuinigheid...
Bovendien staat Gigabyte niet echt bekend om zijn zuinigheid...
[ Voor 28% gewijzigd door FireDrunk op 29-03-2013 12:17 ]
Even niets...
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.