Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Pr0n of TV series
Even niets...
Heb al maar een mailtje bij Afuture gedropt ivm het retourneren van het geheugen, is wel uit de verpakking, maar voor zover ik begreep mocht dat geen probleem zijn volgens A. Engelfriet...
Bah, wel even buiten budget gerekend
[ Voor 92% gewijzigd door HyperBart op 01-05-2012 22:15 ]
Dat hangt hij al... net als de backup NAS in huis, de offsite backup server in de serverruimte een paar panden verder, en het tweede werkstation op kantoor waar ik alle configuraties naar snapshot. Alleen als het hele industrie-terrein hier afbrand heb ik een probleempje.asing schreef op dinsdag 01 mei 2012 @ 19:39:
[...]
Begin eens met je ESX host achter een UPS te hangen. Stroomuitval en blikseminslag heb je dan al afgevinkt. Vervolgens installeer je ook een NAS (of die heb je al) en daar sla je je backup op. Als laatste zoek je een kennis die ook een NAS heeft en zet je een RBAC sync op om je backup weg te zetten.
Geen van beide, daar staat vast al een "backup" van op internet.FireDrunk schreef op dinsdag 01 mei 2012 @ 19:44:
Ik weet nooit welke data ik echt belangrijk zou vinden
Pr0n of TV series
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
2x Dell Optiplex 755 HE, E6850, 8GB, 80GB SSD (voornamelijk guest swap en host cache). 43 Watt idle, 72 Watt full, 47 Watt avg.
1x Synology DS1512+ met 4xST3000DM001 (3TB 7k2) 31 Watt idle, 48 Watt full, 39 Watt avg.
Standaard gaat 1 Optiplex powerdown (vSphere Standby)
Alle hardware wordt gezien door vSphere, ook support voor VTD en met vPro kan ik zelfs remote de console overnemen.
M'n 2 Dell 2716 switches wil ik ook nog vervangen voor 2 Procurve 1810's (een 8 en een 24 poorts). Hiermee ga ik van 23 Watt avg. per stuk naar ~16 en ~9 Watt.
Uiteindelijk hoop ik van 216 Watt, naar 111 te gaan (24/7, met 1 host op standby).
Het enige nadeel is de beperkte 8GB, maar door de host cache kan ik nog wat over committen. M'n server houd ik er gewoon naast wanneer ik wat meer nodig heb voor testjes e.d. Daarnaast heb ik door mijn NAS ook geen fileserver meer nodig.
[ Voor 57% gewijzigd door DukeBox op 01-05-2012 23:24 ]
Duct tape can't fix stupid, but it can muffle the sound.
hoe heb jij de 1512+ aan je vsphere gekoppeld? NFS of iscsi? en wat is de performance. ik heb ook zoiets op de planning staan wat jij hebt. ik heb de 1812+ dan en wil ik met dezelfde schijven gaan vullen beetje bij beetje.DukeBox schreef op dinsdag 01 mei 2012 @ 23:11:
Heb ook mijn projectje afgerond.. mijn server (kleine 170 Watt avg) vervangen voor 2 desktopjes met vmotion en een san/nas.
2x Dell Optiplex 755 HE, E6850, 8GB, 80GB SSD (voornamelijk guest swap en host cache). 43 Watt idle, 72 Watt full, 47 Watt avg.
1x Synology DS1512+ met 4xST3000DM001 (3TB 7k2) 31 Watt idle, 48 Watt full, 39 Watt avg.
Standaard gaat 1 Optiplex powerdown (vSphere Standby)
Alle hardware wordt gezien door vSphere, ook support voor VTD en met vPro kan ik zelfs remote de console overnemen.
M'n 2 Dell 2716 switches wil ik ook nog vervangen voor 2 Procurve 1810's (een 8 en een 24 poorts). Hiermee ga ik van 23 Watt avg. per stuk naar ~16 en ~9 Watt.
Uiteindelijk hoop ik van 216 Watt, naar 111 te gaan (24/7, met 1 host op standby).
Het enige nadeel is de beperkte 8GB, maar door de host cache kan ik nog wat over committen. M'n server houd ik er gewoon naast wanneer ik wat meer nodig heb voor testjes e.d. Daarnaast heb ik door mijn NAS ook geen fileserver meer nodig.
Daarnaast heb je met iSCSI (beperkt) VAAI support.
Heb ook zitten twijfelen tussen de 18 en de 15.. maar als ik die (fysieke) ruimte echt nodig heb koop ik wel een expansion. Die is dan net zo breed als de 15, staat ff mooier denk ik.
[ Voor 28% gewijzigd door DukeBox op 01-05-2012 23:49 ]
Duct tape can't fix stupid, but it can muffle the sound.
ik neem aan dat je dan de LAG ook gebruikt op de NAS want 210mb/s vind ik nogal wat. weet niet hoeveel vm's jij draait maar tis genoeg voor wat testdoeleinden lijkt mij. ik ga denk ik gebruik maken van de SHR van synology. aangezien ik niet de nas in 1 keer kan vullen wegens de beperkte portomoneeDukeBox schreef op dinsdag 01 mei 2012 @ 23:46:
Middels iSCSI (MPIO) aangezien NFS niet over de 1Gbit schaalt. De desktopjes hebben maar 1 interface waar zowel storage als normale netwerk IO door gaat, dus daar gaal ik nooit het max mee maar met mijn oude server trek ik er gemakkelijk de volle 210MByte/s read en write door. (heb de 4 HDD's in raid 5 overigens)
Daarnaast heb je met iSCSI (beperkt) VAAI support.
Heb ook zitten twijfelen tussen de 18 en de 15.. maar als ik die (fysieke) ruimte echt nodig heb koop ik wel een expansion. Die is dan net zo breed als de 15, staat ff mooier denk ik.
maar waarom zou NFS geen 1gbit kunnen voltrekken dan? link is link lijkt mij?
iSCSI is inderdaad beter met Multipathing.
Even niets...
Voor iSCSI gebruik ik (zoals ik al schreef) MPIO, daarmee trek ik 98% door beide interfaces.
Ik draai er 4 VM's op,
Bij NFS zit load balancing niet in het protocol, dit moet je op hardware niveau oplossen. Bij iSCSI zit MPIO er wel standaard in, waardoor je ook op eenvoudige hardware kan loadbalancen.
Oftewel, bij NFS zit je gelimiteerd aan de snelste verbinding tussen je storage en host. Bij iSCSI kan dat de som van alle beschikbare verbindingen zijn (voor balancing moeten deze wel gelijkwaardig zijn, voor active/passive niet).
n.b. Als je HDD's even groot zijn kan je ook voor normaal raid gaan, SHR kan wel impact hebben als er 1 groote HDD in zit en verder kleintjes. De grote HDD krijgt dan alle mirror pages van de kleine hdd's en is dus bij iedere read/write actie betrokken.
@hierboven, ieder protocol (NFS (NAS) of iSCSI (SAN) of FCoE (SAN)) heeft zo zijn voordelen en welke oplossing het beste is hangt af van de omgeving.
NFS heeft o.a. als voordeel dat de data 'leesbaar' is voor de storage oplossing. Hier kunnen dus leuke truukjes mee gedaan worden (deduplicatie op meta data, versie beheer op fileniveau etc). Maar NFS heeft vanaf de SAN kant geen awareness van mogelijkheden als Data Center Bridging (DCB)
iSCSI is wat robuster qua implementatie. Het kan wat meer hebben qua timeouts (bijv. herstart van je synology) en biedt offload op vrijwel alle 'server' NIC's.
FCoE geeft over het algemeen de beste performance maar kan daarentegen niet tegen frameloss e.d.
Ook zijn non-blocking ethernet switches een vereiste voor betouwbare werking.
@hieronder, ik bedoel het totaal aan CIFS verkeer van/naar meerdere hosts over 1 (LAG) ip-adres.
iSCSI is wel gemeten vanaf 1 host met 2 iSCSI sessies naar het LAG ip-adres. Vooralsnog lijkt het erop dat de 2 iSCSI sessies netjes verdeeld worden over de 2 NIC's in de synology.
[ Voor 37% gewijzigd door DukeBox op 02-05-2012 09:52 ]
Duct tape can't fix stupid, but it can muffle the sound.
Even niets...
compatibel met gewoon geheugen en moet 32GB ondersteunen
ondersteuning voor een grafische kaart door te geven aan een VM (en welke dat is laten we nog in het midden, daar hebben we keuze in)
Dit ziet er voorlopig al leuk uit
http://www.gigabyte.com/p...uct-page.aspx?pid=4001#sp
In combinatie met een Phenom'metje...
Bron: http://hardforum.com/archive/index.php/t-1646706.html
[ Voor 28% gewijzigd door HyperBart op 03-05-2012 13:54 ]
Any job you can do in your pajamas is not the hardest job in the world.
Mja, het doorgeven van die graka is wel een harde eis...Rooke schreef op donderdag 03 mei 2012 @ 13:54:
Die gpu weet ik niet maar het Q67 bordje doet prima 32gb normaal geheugen.
Dat ben ik tenminste wel van plan om te gaan doen.
En prijsverschil met een phenom of bulldozer is het punt ook niet!
Verwijderd
Zou je tzt eens de stroommeter aan die 24poorts switch willen hangen? Ik ben ook op zoek naar een energiezuinige 16poorts switch maar cijfers zijn verdomd lastig op te duikelen...DukeBox schreef op dinsdag 01 mei 2012 @ 23:11:
M'n 2 Dell 2716 switches wil ik ook nog vervangen voor 2 Procurve 1810's (een 8 en een 24 poorts). Hiermee ga ik van 23 Watt avg. per stuk naar ~16 en ~9 Watt.
Het 'verbruik' bij die HP's afhankelijk van de poort bezetting (hoeveel er ongebruikt in low power mode gaan), ik heb het een beetje geschat a.d.h.v. de volgende info:Verwijderd schreef op vrijdag 04 mei 2012 @ 18:34:
Zou je tzt eens de stroommeter aan die 24poorts switch willen hangen? Ik ben ook op zoek naar een energiezuinige 16poorts switch maar cijfers zijn verdomd lastig op te duikelen...
Op de site geven ze maximaal 30 Watt (24 poorts) en 15 Watt (8 poorts) aan.
Simpel gerekend heb je dus voor 16 poorten meer 15 watt extra.. dus met een beetje simpel 'redeneren' is dat ongeveer 1 Watt per aktieve poort.
Er van uitgaande dat ze nooit op het max gebruiken heb ik daar 2 Watt afgehaald als (naar mijn idee reëele) compensatie.
Op de 8 poorts ga ik maar 4 poorten aktief gebruiken (dus 15 - 2 - 4(lege poorten) =) ~9 Watt en op de 24 poorts ga ik aktief 12 poorten gebruiken (dus 30 - 2 - 12(lege poorten) =) ~16 Watt
Maar ik zal je laten weten wat het uiteindelijk doet.
Overigens lijkt het ook een beetje te helpen bij de Dell's om de poorten welke niet in gebruik zijn een shutdown te geven (hoe dan ook ~4 Watt per (lege) SFP's in de 2724).
Duct tape can't fix stupid, but it can muffle the sound.
Duct tape can't fix stupid, but it can muffle the sound.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Duct tape can't fix stupid, but it can muffle the sound.
Je zou eens kunnen kijken naar http://www.veeam.com/virt...ent-one-free.html?ad=menuOMX2000 schreef op zaterdag 05 mei 2012 @ 14:33:
Weet iemand hoe ik ook performance logging ander dan realtime aanzet op esxi 5.x(gratis versie)? Moet ik dan een bepaalde dienst draaien/installeren?
maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..
voor de echte crazy mothafuckah's hier in dit topic, die graag een NAS en ESXi in one hebben, ZONDER een dedicated datastore maar met een grote limitatie, zou je volgende stappen kunnen proberen:
Bouw je ESXi (ik ga nu bv even van een VM uit met ZFS met een aparte controller, 4 diskjes en een SSD).
Installeer ergens op een tijdelijke PC een iSCSI-target of een NFS-target (=dwz, installeer ergens een component op een desktop of laptop zodat je ESXi een datastore op die targets kan aanmaken). Je kan bv. een NFS-servertje opzetten op een Linux installatie, of een iSCSI-target op een Windows 2008 R2, er zijn ook software pakketjes te vinden waarmee je dit kan doen...
Verbind je ESXi met het NFS of iSCSI-target
maak er een datastore van
zet je VM er op waarmee je met ZFS aan de slag wilt
map de controller via VT-d door, hang er een USB-stickje aan, installeer een ZFS compatibel OS op je USB-stick, installeer ZFS op je disks
maak NFS of iSCSI-targets aan op je VM met ZFS
Map de NFS/iSCSI-targets van je VM met ZFS aan je ESXi
Kopieer de folder van je ZFS VM naar je nieuwe, LUN...
Bij een reboot waar je van op de hoogte bent, migreer je je VM terug opnieuw naar een tijdelijk iSCSI target...
Problem?
[ Voor 3% gewijzigd door HyperBart op 06-05-2012 11:19 ]
Laptop dichtklappen is een optie, maar dan blijft er wel hitte hangen, dat heb ik liever niet. Weet iemand waar ik de optie voo monitor in standby terug kan vinden? Scheelt weer een paar watt
Duct tape can't fix stupid, but it can muffle the sound.
Wordt lastig ben ik bang, je kan evt je laptop "scherm dicht detectie" vervangen door een knopje. Dan kan je zelf de monitor aan/uit zetten.Phaeton schreef op dinsdag 08 mei 2012 @ 10:13:
Het is bijna te lullig om te vragen, maar ik kom er niet uit. Ik heb esxi op mijn oude laptop draaien. Alles loopt goed. Het is zuinig, maar kan nog zuiniger. Door mijn beeldscherm in standby te zetten, na een x aantal minuten. Ik kan dit echter nergens terugvinden in de software en online ook niet.
Laptop dichtklappen is een optie, maar dan blijft er wel hitte hangen, dat heb ik liever niet. Weet iemand waar ik de optie voo monitor in standby terug kan vinden? Scheelt weer een paar watt
# | Product | Prijs | Subtotaal |
3 | Seagate Barracuda ST2000DM001, 2TB | € 101,- | € 303,- |
1 | Antec Three Hundred Two | € 58,61 | € 58,61 |
1 | 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M | € 16,14 | € 16,14 |
1 | be quiet! Pure Power L8 530W | € 67,50 | € 67,50 |
1 | AMD Phenom II X4 955 Black Edition | € 107,62 | € 107,62 |
1 | Gigabyte GA-990FXA-UD3 | € 117,60 | € 117,60 |
Bekijk collectie Importeer producten | Totaal | € 670,47 |
Black Edition was de enige CPU die vlot leverbaar mee was bij Afuture...
"Zuinigheid" zit 'm in dit geval in het feit dat de collega dit als desktop, labomgeving en eventueel naar de toekomst als HTPC zal gaan gebruiken...
Absoluut gezien zit hij hierdoor wat hoger, maar in the end is het mooi...
Alleen de CPU zijn we nog niet zo zeker van, Phenom? of de FX? Ik ben niet zo thuis in de AMD-line-up...
Voeding lijkt ons voldoende, hij voegt er nog een passief HD 4350'tje aan toe voor de Windows 7 VM
Geheugen heeft hij van yours truly
Wat het NFS verhaal betreft, leuk maar als je NFS gaat gebruiken voor het storen van je vm's is het wel van belang dat dit ook beschikbaar is aan ESXi voordat je de vm's kunt starten.
Er komt ESXi op...Jormungandr schreef op dinsdag 08 mei 2012 @ 18:40:
Ik vraag me wel af wat dit met ESX te maken heeft. Zoals ik het lees hoort die setup hier alleszins niet thuis.
Hij is "zuinig" in die zin dat:
Er een HTPC op komt
Er een desktop PC op komt
En een NAS gaat vormen...
DAT allemaal ineens, vind ik niet slecht...
Euhm, je hebt toch begrepen in dit topic en naar alv mijn laatste reacties dat deze set zo samen is gesteld dat dit moederbordje een grafische kaart kan VT-d'en EN 32GB ondersteunt aan RAM-geheugen he?ppl schreef op dinsdag 08 mei 2012 @ 19:42:
Dan lees je waarschijnlijk over het stukje "labomgeving" heen of geef je er een andere interpretatie aan. Dat laatste is iets wat ik meer heb. Als je het als desktop, htpc en labomgeving wil gaan gebruiken kan dat niet met ESXi omdat je een andere machine nodig hebt om de vSphere client te kunnen draaien zodat je bij de consoles van je vm's kunt komen of er naar kunt remote desktoppen (via wat voor protocol dan ook).
ESXi zelf geeft alleen maar een eigen lokale console waar je geen enkel stuk aan desktop kunt doen zoals in een paar posts eerder al was uitgelegd. Dan kom je toch echt uit op een normale computer met Windows 7 erop waarop je dan iets als VMware Workstation/Player of VirtualBox draait en dat is wel heel iets anders als een zuinige ESXi server. Natuurlijk kun je dan discussiëren of deze setup dan wel zo handig is.
Dat is idd het klote er aan... Maar in theorie ben je terug heel snel online: laptopje terug aan voor NFS/iSCSI, snel die VM terug aanmaken, controller en de USB-stick teruggeven, booten en migreren...Wat het NFS verhaal betreft, leuk maar als je NFS gaat gebruiken voor het storen van je vm's is het wel van belang dat dit ook beschikbaar is aan ESXi voordat je de vm's kunt starten.
Ik weet dat het ongelooflijk RANZIG is om op te stellen, maar het kan
Nu heb ik sinds kort ook een HP DL120 G6 en ook deze wil ik voorzien van ESXi5 (colocation) als dat bevalt gaat de machine thuis ook vervangen worden.
De specificaties zijn tot nu toe als volgt
- HP DL120 G6 (Quad core / 16GB / VT-D enabled)
- 4 x 500GB Samsung Spinpoint op de onboard controller
- 1 x 250GB SATA disk op een 4 poorts LSI controller (Hierop staat op dit moment ESXi en datastore) Ik heb ook een USB stick voor de vmware boot maar dan heb ik geen datastore om de FreeNAS vm aan te kunnen maken (tips zijn welkom)
Nu heb ik een VM gemaakt en via VT-D de onboard SATA controller (AHCI) gekoppeld aan de FreeNAS VM dit lijkt te werken. De machine boot en ik kan een array aanmaken maar het werkt niet helemaal lekker. Ik krijg foutmelding over port 0 en het lijkt wel of er iets mis is met de controller of de disken. (FreeNAS 8.04 64Bit)
Wat is nu de beste methode om de 4 x 500GB aan de VM te hangen. Ik gebruik nu de LSI controller voor de bootdisk omdat ik anders geen datastore had en de onboard controller voor de storage
Uiteindelijke wil ik een SSD (120GB) voor de VMs en de 4 x 500GB voor overige storage of twee usb stick (1xVMware / 1xFreeNAS) en geen SSD
[ Voor 5% gewijzigd door raymonvdm op 09-05-2012 02:14 ]
Dat leek mij nogal logisch maar wat ik minder logisch vond is dat je dit ding als desktop systeem e.d. gaat gebruiken. Hoe had je dat voor ogen? Je moet niet vergeten dat je alles via een beheerinterface of remote desktop software moet benaderen. De performance die je dan hebt is ronduit slecht. Voor RDP zijn er inmiddels wel wat oplossingen om simpele Flash animaties vloeiend te laten afspelen maar dat is er ook pas sinds ergens 2010.HyperBart schreef op dinsdag 08 mei 2012 @ 19:51:
Euhm, je hebt toch begrepen in dit topic en naar alv mijn laatste reacties dat deze set zo samen is gesteld dat dit moederbordje een grafische kaart kan VT-d'en EN 32GB ondersteunt aan RAM-geheugen he?
Het kan inderdaad maar verstandig is een ander verhaal. Je kunt het doen zodat je weet hoe je iets niet moet doen maar voor meer dan dat zou ik het ook niet gaan toepassen. Als je dingen naar dit soort complexiteit gaat tillen is het namelijk vaak wachten op stukgaan want dat het een keer stuk gaat is wel zeker. Probeer het dan maar eens op te lossen. Leuke uitdaging maar of je dat op het moment dan nog zo vindt...Dat is idd het klote er aan... Maar in theorie ben je terug heel snel online: laptopje terug aan voor NFS/iSCSI, snel die VM terug aanmaken, controller en de USB-stick teruggeven, booten en migreren...
Ik weet dat het ongelooflijk RANZIG is om op te stellen, maar het kan
@raymonvdm: je kunt een extra schijf erin stoppen en die inzetten als datastore voor bijv. dit soort vm's alsmede iso files (iets wat ik hier ook nog moet doen trouwens). Dan heb je een datastore met een vm die je kunt booten zodat je daarna weer al je andere vm's vanaf de networkshare kunt starten. Het nadeel is wel dat je dit beter allemaal handmatig kunt gaan doen (je kunt natuurlijk wel een scriptje maken die in 1x al die dingen aan zwiept) want bij zo'n automatische start gaat er vast wat mis. Ook hier geldt weer dat het weliswaar allemaal kan maar dat het ook valkuilen kan veroorzaken.
Dit zijn overigens allemaal wel dingen die je juist met je homelab zou willen en kunnen doen. Als het stuk gaat is er niks aan de hand, bouw je weer wat anders. Lekker prutsen
Daarom op dit moment een NFS mount gemaakt naar mn oude ESXi FreeNAS machine zodat ik een NFS datastore heb.
Verder is er een Intel 330 besteld welke kan worden toegevoegd op de onboard controller als datastore voor de VMs en deze komt hopelijk morgen binnen.
[ Voor 10% gewijzigd door raymonvdm op 10-05-2012 00:02 ]
Gewoon; via VT-d de grafische kaart aan de de VM geven; beeldscherm er aan, USB controller doorgeven, hier keyboard en muis op en gewoon werken? Dat is nu het hele punt van deze setup, dat die dat kan EN 32GB geheugen aankan...ppl schreef op woensdag 09 mei 2012 @ 21:20:
[...]
Dat leek mij nogal logisch maar wat ik minder logisch vond is dat je dit ding als desktop systeem e.d. gaat gebruiken. Hoe had je dat voor ogen? Je moet niet vergeten dat je alles via een beheerinterface of remote desktop software moet benaderen. De performance die je dan hebt is ronduit slecht. Voor RDP zijn er inmiddels wel wat oplossingen om simpele Flash animaties vloeiend te laten afspelen maar dat is er ook pas sinds ergens 2010.
Als hij zijn machine opzet heeft het wat meer tijd nodig omdat waarschijnlijk zijn VM op een datastore op een ZFS-pool gaat draaien, maar daar is hij zich van bewust...
Er zijn mensen die games draaien op hun VM met grafische kaart op 1080p, dus dat "performance ronduit slecht" weet ik niet waar je van haalt... Maar ik sta open voor je onderbouwde redenering?
http://hardforum.com/show...p=1037974530&postcount=17
Enige issue is dat DirectX Video Acceleration (DXVA) niet altijd of overal werkt afhankelijk van setups:
http://tinkertry.com/gpu-pass-future-test/
http://hardforum.com/showthread.php?t=1646706
[ Voor 12% gewijzigd door HyperBart op 10-05-2012 00:15 ]
Niet, datastores via USB worden niet ondersteund. Vandaar het probleem dat er twee HBA's nodig zijn wanneer je een VT-D NAS wil draaien.raymonvdm schreef op woensdag 09 mei 2012 @ 23:31:
Een 2e 8GB usb stick is geplaats en daarop wil ik een FreeNAS installatie doen (usb datastore) maar ik weet nog niet hoe.
Ik kan veel scenario's bedenken waarvoor je VGA wil passthroughen. Voor het beheer van ESXi zelf lijkt me dat juist een slecht plan. Dan kan je denk ik beter een thin client ernaast zetten met alleen XPe en vSphere. Op samenkopen staan die dingen voor nog geen twee tientjes.HyperBart schreef op donderdag 10 mei 2012 @ 00:09:
Gewoon; via VT-d de grafische kaart aan de de VM geven; beeldscherm er aan, USB controller doorgeven, hier keyboard en muis op en gewoon werken? Dat is nu het hele punt van deze setup, dat die dat kan EN 32GB geheugen aankan...
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
En in welke zin lijkt je dat een slecht plan, ik zie er nog niet direct de graten van in? Bedoeling is eigenlijk dat als hij eens iets wilt opzoeken of gewoon een computer wilt gebruiken hij een Windows 7 machine ter zijner beschikking heeft... Dat je natuurlijk geen zotte dingen moet gaan doen en heel conservatief met de Windows 7 machine in se moet gaan omspringen weten we wel, maar voor de rest zie ik er echt geen graten in, kan je een voorbeeldje geven?Nextron schreef op donderdag 10 mei 2012 @ 00:45:
[...]
Niet, datastores via USB worden niet ondersteund. Vandaar het probleem dat er twee HBA's nodig zijn wanneer je een VT-D NAS wil draaien.
[...]
Ik kan veel scenario's bedenken waarvoor je VGA wil passthroughen. Voor het beheer van ESXi zelf lijkt me dat juist een slecht plan. Dan kan je denk ik beter een thin client ernaast zetten met alleen XPe en vSphere. Op samenkopen staan die dingen voor nog geen twee tientjes.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Oh neen, in dat geval heeft hij nog zijn laptop... No biggie dusNextron schreef op donderdag 10 mei 2012 @ 01:32:
De Windows-VM zal inderdaad prima als huis-tuin-keuken-PC te gebruiken zijn als alle passthough apparaten werken. Wanneer ESXi als testmachine wordt gebruikt verwacht ik configuratiewijzigingen en reboots. Het lijkt me dan niet verstandig afhankelijk te zijn van het correct opstarten van ESXi en de beheer-VM voordat je ook maar iets op conventionele wijze kan aanpassen aan de configuratie.
Even niets...
Duct tape can't fix stupid, but it can muffle the sound.
Voor ESXi 5 zijn er 3 major security patches uitgekomen:
ESXi500-201112001 (1-dec-2011)
Update -> 5.0U1 (15-mrt-2012)
en ESXi500-201205001 (1-mei-2012)
Ok, misschien 5 keer per jaar...
Even niets...
Als ESXi fatsoenlijk meewerkt klopt dat. Ik heb in mijn geringe ervaring al foutmeldingen gehad die verwezen naar niet-bestaande NIC's waardoor netwerkinstellingen niet te wijzigen waren, VM's die niet wilden booten of afsluiten tot een reboot van ESXi zelf, of het compleet niet booten van ESXi na het uitschakelen van een passthrough instelling.FireDrunk schreef op donderdag 10 mei 2012 @ 10:39:
ESXi zelf hoef je toch nooit te rebooten? Alleen de VM's... Tenzij je gaat patchen, maar dat is maar 4x per jaar
Wat dat betreft vind ik het nog een hoog hobbygehalte hebben ondanks de enterprise-focus en -prijzen. Gelukkig kun je binnen een half uur de complete herinstallatie doorlopen
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Je mist even ESXi500-201109001, ESXi500-201111001 en ESXi500-201204001. Die laatste had ik nog niet gezien dus dank daarvoor!FireDrunk schreef op donderdag 10 mei 2012 @ 10:59:
Klopt, alles je alles meetelt, ik ging uit van Security.
Voor ESXi 5 zijn er 3 major security patches uitgekomen:
ESXi500-201112001 (1-dec-2011)
Update -> 5.0U1 (15-mrt-2012)
en ESXi500-201205001 (1-mei-2012)
Ok, misschien 5 keer per jaar...
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Ik weet niet waar jij last van hebt, maar ik heb dat allemaal nog _nooit_ gehad.. ESXi is hier zo stabiel als een huis. Enige waar ik voor moet rebooten is patches of passthrough wijzigingen.Nextron schreef op donderdag 10 mei 2012 @ 11:16:
[...]
Als ESXi fatsoenlijk meewerkt klopt dat. Ik heb in mijn geringe ervaring al foutmeldingen gehad die verwezen naar niet-bestaande NIC's waardoor netwerkinstellingen niet te wijzigen waren, VM's die niet wilden booten of afsluiten tot een reboot van ESXi zelf, of het compleet niet booten van ESXi na het uitschakelen van een passthrough instelling.
Wat dat betreft vind ik het nog een hoog hobbygehalte hebben ondanks de enterprise-focus en -prijzen. Gelukkig kun je binnen een half uur de complete herinstallatie doorlopen.
[ Voor 94% gewijzigd door FireDrunk op 10-05-2012 11:36 ]
Even niets...
1
| esxcli software vib install -d /vmfs/volumes/Datastore/esxi_updates/ESXi500-201204001.zip |
En dan krijg ik dit
1
| Could not stage image profile '(Updated) ESXi-5.0.0-469512-standard': ('VMware_locker_tools-light_5.0.0-1.12.653509', '[Errno 32] Broken pipe') |
Ik heb de SHA1 hash reeds gecontroleerd en die is goed. Mijn server draait Update 1. Verder gekeken of deze patch hoger is dan de laatst geïnstalleerde en ook dat is het geval.
Iemand een idee?
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Even niets...
Amen!FireDrunk schreef op donderdag 10 mei 2012 @ 11:35:
Die zitten toch in U1?
[...]
Ik weet niet waar jij last van hebt, maar ik heb dat allemaal nog _nooit_ gehad.. ESXi is hier zo stabiel als een huis. Enige waar ik voor moet rebooten is patches of passthrough wijzigingen.
In de afgelopen ~200 dagen is de enige reboot die ik heb uitgevoerd om een HDD toe te voegen. Wanneer je er vanaf blijft loopt het dus stabiel.FireDrunk schreef op donderdag 10 mei 2012 @ 11:35:
Ik weet niet waar jij last van hebt, maar ik heb dat allemaal nog _nooit_ gehad.. ESXi is hier zo stabiel als een huis. Enige waar ik voor moet rebooten is patches of passthrough wijzigingen.
Maar op een groen driehoekje klikken om een VM te starten, kan je weinig fout doen denk ik. Toch heeft dat geregeld problemen opgeleverd. Net als een VLAN-aanpassing: Ik heb uitsluitend de twee onboard NIC0 en NIC1 aangesloten gehad. Netwerkaanpassing daaraan waren plotseling echter niet mogelijk omdat er een configuratiefout was aan de niet-bestaande NIC2

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Nu wil ik graag een server based bord gebruiken omdat daar veelal wat extra management mogelijkheden opzitten en standaard minimaal twee nics die supported zijn door VMware.
Nu lijkt het alsof het instap model chipset, de Intel C204, enkel unregistered ECC memory slikt. Is dit nou ook echt zo of werkt deze chipset zonder problemen met non-ECC (in geval van een i3/i5 cpu).
Ten tweede, pakt deze chipset Registered ECC mem i.c.m. een Xeon? That's the question
Even niets...
Dat het enkel met ECC werkt lijkt me niet te kloppen aangezien er ook support is voor een Core i3. Deze cpu kan niet overweg met ECC.FireDrunk schreef op donderdag 10 mei 2012 @ 14:36:
Ja, dat chipset slikt alleen ECC, en Nee, geen registered ECC.
Als je alleen omwille van de nics een serverboard wil hebben, dat icm het dure geheugen...C00KW4US schreef op donderdag 10 mei 2012 @ 14:58:
[...]
Dat het enkel met ECC werkt lijkt me niet te kloppen aangezien er ook support is voor een Core i3. Deze cpu kan niet overweg met ECC.
Wat wil je met die bak kunnen?
Any job you can do in your pajamas is not the hardest job in the world.
Het wordt een productie bak voor thuis dus een firewall, DC, fileserver, webserver, DPM, Wsus en test lab. Daarnaast wil ik er een qnap nas aanhangen en mbv mpio de twee nics van deze NAS direct aansluiten op de ESXi server voor backup met DPM.Rooke schreef op donderdag 10 mei 2012 @ 15:14:
Als je alleen omwille van de nics een serverboard wil hebben, dat icm het dure geheugen...
Wat wil je met die bak kunnen?
Minimaal 3 nics zijn dan wel nodig en ik kwam toevallig dit Supermicro bordje tegen die onboard vier Intel nics heeft die supported zijn door VMware. Alleen toen liep ik tegen het geheugen probleem aan...
Kan je in plaats van die vier NIC's niet een smartswitch neerzetten en met VLAN's werken? Dat heeft denk ik meer configuratievrijheid en een lager prijskaartje.
Laatst op HardForum een post gezien van iemand met een C204 bord. Uiteindelijk een nieuw compleet 32GB systeem gekocht voor hetzelfde geld als alleen 32GB unreg. ECC geheugen

[ Voor 29% gewijzigd door Nextron op 10-05-2012 16:32 ]
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Ik vind het maar vreemd dat nu met de nieuwe generatie cpu's al het geheugen weer un-buffered moet zijn i.c.m. ECC.
Ik heb zelf hier een i3-530 gehad met ECC.
Even niets...
RDIMM ECC is veel beter verkrijgbaar en de prijzen hiervan zijn lager vergeleken met UDIMM ECC.
Meh. En socket 2011 is weer geen optie omdat daar enkel cpu's voor verkrijgbaar zijn met een hoge TDP waarde. Mooi ruk dit
Dan maar eens kijken naar de Core i7-3770T i.c.m. een socket 1155 consumer bordje. Kan er iig UDIMM non-ECC mems in
[ Voor 14% gewijzigd door C00KW4US op 10-05-2012 21:31 ]
Any job you can do in your pajamas is not the hardest job in the world.
Als ik dit mag geloven : http://en.community.dell..../p/19448236/20101685.aspxFireDrunk schreef op donderdag 10 mei 2012 @ 12:21:
Is die patch wel voor U1? En moet je niet --bundle gebruiken?
Dan doe ik het goed.You would need to update to ESXi500-201112001 first; then do the: update-from-esxi5.0-5.0_update01; then do: ESXi500-201204001; and finally ESXi500-201205001. These updates need to be done in order.
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Bij het updaten van mijn vanilla ESXi 5.0.0 met de opeenvolgende patches krijg ik de volgende melding:asing schreef op donderdag 10 mei 2012 @ 22:35:
[...]
Als ik dit mag geloven : http://en.community.dell..../p/19448236/20101685.aspx
[...]
Dan doe ik het goed.
VIB VMware_bootbank_esx-base_5.0.0-0.3.474610 cannot be live installed.', 'VIB VMware_bootbank_esx-base_5.0.0-0.0.469512 cannot be removed live.
Zo ook bij alle andere updates.
Iemand een idee? Ik heb een USB drive waarmee ik ESXi5 boot. Deze is geinstalleerd vanuit VMware Workstation (op die USB drive) en de ESXi5 ISO.
Dat zou je kunnen proberen. In theorie moet dat gewoon werken.HyperBart schreef op donderdag 10 mei 2012 @ 00:09:
[...]
Gewoon; via VT-d de grafische kaart aan de de VM geven; beeldscherm er aan, USB controller doorgeven, hier keyboard en muis op en gewoon werken? Dat is nu het hele punt van deze setup, dat die dat kan EN 32GB geheugen aankan...
Uit eigen tests. Met extra videokaarten en passthrough kom je een aardig eind maar zoals je op de link die je post zelf al kunt zien gaat het zeker niet zonder slag of stoot. Met bepaalde drivers kun je zaken weliswaar tot een zeker niveau werkend krijgen maar het is en blijft geknutsel. Je moet je dan heel erg gaan afvragen hoe goed dat allemaal nog werkt. Je blijft laag op laag stapelen. Het is allemaal nog een beetje te nieuw.Er zijn mensen die games draaien op hun VM met grafische kaart op 1080p, dus dat "performance ronduit slecht" weet ik niet waar je van haalt... Maar ik sta open voor je onderbouwde redenering?
http://hardforum.com/show...p=1037974530&postcount=17
Een serverbordje kan je natuurlijk meer brengen dan alleen maar duur geheugen. Ik heb hier ook een serverbordje gekocht omdat deze de beschikking heeft over IPMI en iKVM mogelijkheden. M.a.w. ik hoef er alleen 3 kabeltjes in te stoppen: stroom, netwerkkabel voor het beheer, netwerkkabel voor data. Het bordje heeft overigens de mogelijkheid om data en beheer over 1 kabeltje te laten gaan. Erg handig allemaal want ik heb zo geen cd/dvd drive nodig maar ook geen toegankelijke powerbutton. De machine kan ik gewoon ergens wegstoppen en helemaal remote beheren. En met een Xeon cpu erop doet de mijne ook nog eens vt-d wat voor de toekomst nog wel eens leuk kon zijn (passthrough van nics en storage). Als ik dan naar de prijs kijk is die nou ook weer niet zo heel erg gek hoog vergeleken met de rest.Nextron schreef op donderdag 10 mei 2012 @ 16:08:
Ik zou gezien de geheugenprijzen niet opnieuw voor zo een soort bord kiezen.
Dat betekent wel dat je maar hoogstens 1x 1Gbit tot je beschikking hebt ipv 4x 1Gbit. Voor performance niet zo'n handige keuze. VLANs zijn hier ook niet voor bedoeld, die gebruik je als je afzonderlijke netwerksegmenten wil hebben. Dat dient een heel ander doel dan wat je met 4 nics kunt doen.Kan je in plaats van die vier NIC's niet een smartswitch neerzetten en met VLAN's werken? Dat heeft denk ik meer configuratievrijheid en een lager prijskaartje.
Voor wie naar ESXi 5 update 1 gaat besef je dan wel dat daar een enorme bug in de gratis versie zit. Autostart werkt daar niet, dat zul je via een andere weg moeten regelen (zie reacties van eerder genoemde link). Het probleem zou opgelost worden in update 2 welke (als ik het goed heb) pas volgend jaar verschijnt...
Je moet hem wel in maintenance mode zettenredfoxert schreef op donderdag 10 mei 2012 @ 22:43:
[...]
Bij het updaten van mijn vanilla ESXi 5.0.0 met de opeenvolgende patches krijg ik de volgende melding:
VIB VMware_bootbank_esx-base_5.0.0-0.3.474610 cannot be live installed.', 'VIB VMware_bootbank_esx-base_5.0.0-0.0.469512 cannot be removed live.
Zo ook bij alle andere updates.
Iemand een idee? Ik heb een USB drive waarmee ik ESXi5 boot. Deze is geinstalleerd vanuit VMware Workstation (op die USB drive) en de ESXi5 ISO.
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Duh
Dat staat ie, ik geef zelfs de optie --maintenance-mode mee in de commandline van het update proces maar hij blijft met die melding komen. Ik begin me af te vragen of ik wel kan updaten richting de USB drive, al moet dat in een vCenter omgeving met USB boot ook gewoon werken... doet het op mn werk iig wel
1
2
3
4
| ~ # esxcli software vib install --maintenance-mode --depot /vmfs/volumes/VMFS01/Patches/ESXi500-201109001.zip [InstallationError] The transaction is not supported: VIB VMware_bootbank_esx-base_5.0.0-0.3.474610 cannot be live installed. VIB VMware_bootbank_esx-base_5.0.0-0.0.469512 cannot be removed live. Please refer to the log file for more details. |
[ Voor 28% gewijzigd door redfoxert op 10-05-2012 23:05 ]
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Zet de server eens vanuit de GUI op maintenance mode en probeer het dan nog eens? Het lijkt wel alsof hij dat niet pakt.redfoxert schreef op donderdag 10 mei 2012 @ 23:01:
[...]
Duh
Dat staat ie, ik geef zelfs de optie --maintenance-mode mee in de commandline van het update proces maar hij blijft met die melding komen. Ik begin me af te vragen of ik wel kan updaten richting de USB drive, al moet dat in een vCenter omgeving met USB boot ook gewoon werken... doet het op mn werk iig wel
code:
1 2 3 4 ~ # esxcli software vib install --maintenance-mode --depot /vmfs/volumes/VMFS01/Patches/ESXi500-201109001.zip [InstallationError] The transaction is not supported: VIB VMware_bootbank_esx-base_5.0.0-0.3.474610 cannot be live installed. VIB VMware_bootbank_esx-base_5.0.0-0.0.469512 cannot be removed live. Please refer to the log file for more details.
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Done that, rebooten heeft ook geen nut gehad. Enige andere oplossing die ik zie is een volledige herinstallatie. Ik weet alleen niet of ik dan ook mn VM's weer terug krijg maar dat zal wel niet. Ik kan evt wel even met een andere USB stick testen natuurlijk. Vanavond maar eens mee prutsen.asing schreef op donderdag 10 mei 2012 @ 23:36:
[...]
Zet de server eens vanuit de GUI op maintenance mode en probeer het dan nog eens? Het lijkt wel alsof hij dat niet pakt.
[ Voor 29% gewijzigd door redfoxert op 11-05-2012 09:09 ]
[ Voor 31% gewijzigd door C00KW4US op 11-05-2012 10:59 ]
Het enige wat je hoeft te doen is de schijf of schijven met je VMFS volume los te halen. Dan installeer je ESX opnieuw en koppel je je schijf of schijven weer. Als het goed is detecteert hij die automatisch.redfoxert schreef op vrijdag 11 mei 2012 @ 09:08:
[...]
Done that, rebooten heeft ook geen nut gehad. Enige andere oplossing die ik zie is een volledige herinstallatie. Ik weet alleen niet of ik dan ook mn VM's weer terug krijg maar dat zal wel niet. Ik kan evt wel even met een andere USB stick testen natuurlijk. Vanavond maar eens mee prutsen.
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Verwijderd in "Het grote ZFS topic"C00KW4US schreef op vrijdag 11 mei 2012 @ 10:58:
Waarom kiezen veel mensen hier voor een Freenas ZFS + aparte storage controller oplossing als je ook gewoon je storage binnen ESXi kan managen? Ben wel nieuwsgierig naar de motivatie aangezien het in mijn beleving enkel een extra storage laag oplevert binnen ESXi en je VM's.
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
Hoe krijg ik de VM's dan weer beschikbaar in mn VM's lijst? Dat hij de storage weer detecteert snap ik wel maar hoe ik mn VM's terugkrijg in het overzicht heb ik nog niet kunnen achterhalen. Ik kan enkel een nieuwe VM aanmaken en deze koppelen aan de originele vmdk (use existing disk tijdens de wizard) voor zover ik heb kunnen achterhalen.asing schreef op vrijdag 11 mei 2012 @ 11:16:
[...]
Het enige wat je hoeft te doen is de schijf of schijven met je VMFS volume los te halen. Dan installeer je ESX opnieuw en koppel je je schijf of schijven weer. Als het goed is detecteert hij die automatisch.
Me Tarzan, U nix!
Ja ZFS biedt vele voordelen zoals je in je links aangeeft echter laten deze ESXi buiten beschouwing. Dus mijn vraag is nog niet beantwoord
ZFS is juist zo sterk omdat het van disk tot filesystem 1 tool is die gebouwd is op dataconsistentie.
Je kan nog zo'n goede storage ondergrond hebben, maar als je er weer VMFS overheen legt, verlaag je de zekerheid weer.
Even niets...
Lokale storage op een ssd is een stuk sneller dan storage via het netwerk gezien de overhead die er nog bij komt kijken. Daarnaast zit je hier ook vaak met het risico van netwerkproblemen. Die doen zich vaker voor dan verstoringen van bijv. je sata connectie. Dat kan vergaande gevolgen hebben voor je vm's. Je kunt dan nog zo'n geweldig goed filesystem gebruiken dat helemaal toegelegd is op dataconsistentie maar als je netwerk niet stabiel genoeg is en een keer wegvalt kan dat tot datacorruptie leiden (je reboot je switch; weg netwerkverbinding). Eigenlijk geldt hier meer dat juist omdat je network storage gebruikt je een filesystem dat gebouwd is op dataconsistentie MOET gebruiken.
Overigens wordt hier nu exact dezelfde grote fout gemaakt als met RAID: het is GEEN backup maar alleen maar een technologie om te zorgen dat niet meteen alles kaduuk is als er iets met een schijf (of zelfs meerdere) mis is. Je kunt bij uitval daardoor nog even wat langer doordraaien. Backups zul je bij VMFS en bij ZFS moeten maken. Dataconsistentie of niet
[ Voor 14% gewijzigd door ppl op 11-05-2012 20:10 ]
En een SSD met VMFS is natuurlijk veel sneller dan een NFS share op een ZFS server, dat zal ik nooit tegenspreken. Maar een NFS store met SYNC aan naar een ZFS server is veiliger dan een lokale disk met VMFS.
Als je daar meer over wil weten, stel ik voor om 'even' het "Het grote ZFS topci te lezen".
Even niets...
[ Voor 16% gewijzigd door ppl op 11-05-2012 20:25 ]
Even niets...
Kortom, lees zelf eerst maar eens dat ZFS topic door (op het officiële FreeBSD forum staat ook veel info net als op hun wiki (met name ZFS tweaks)). Je focust je veel teveel op een filesystem terwijl dat filesystem op de nodige hardware moet draaien en je het op de een of andere manier in ESXi moet kijken. M.a.w. je bent je nu op maar 10% van het verhaal aan het focussen en vergeet de overige 90% die ook hun invloed op het verhaal hebben. NFS met sync is leuk en aardig maar het helpt je niet bij diverse netwerk problemen waarvan uitval van een switch maar eentje is. Ook merk je dat in de praktijk dit soort dingen lang niet altijd werken als de theorie meldt. Syncen is leuk en aardig maar je zult altijd gaten hebben. Als op dat moment iets gebeurd... Nogmaals, dit soort technieken heb je gewoon nodig omdat het over een netwerk gaat en je dit soort problemen tegenkomt. Dan heb je iets nodig wat de impact en de kans een stuk kleiner maakt. Redundantie is ook van belang in je netwerk.
Je moet echt verder kijken dan je neus lang is. De ene keer is centrale dataopslag handig (en daarvoor kun je o.a. ZFS gebruiken maar ZFS is zeker niet heilig, je moet nog steeds veel tweaken en het kent een hoog geheugengebruik), de andere keer is juist lokale dataopslag beter. Bij centrale dataopslag in een netwerk voeg je wel een extra factor toe waardoor dit een stuk complexer wordt en daarmee ook vatbaarder voor allerlei problematiek. Het risico neemt feitelijk toe waarmee het dus helemaal niet beter is dan lokale dataopslag (om maar eens een voorbeeld te geven). Daar kun je en moet je ook op inspelen.
Btw, houdt je er wel rekening mee dat ESXi 5 geen NFSv4 maar alleen NFSv3 ondersteund?
[ Voor 4% gewijzigd door ppl op 11-05-2012 21:03 ]
los van de discussie, ik ben van mening dat 1. FireDrunk een behoorlijke hoeveelheid credits heeft opgebouwd als het gaat om het helpen van mensen en het tonen van zijn kennis en 2. je best wel een beetje bot uit de hoek komt, dat kan toch ook vriendelijker?
Tuurlijk heb je gelijk dat het gebruik van lokale storage de kans op fouten verkleint omdat fouten in het netwerk geen effect hebben. Dan denk ik weer, wat heb je aan een werkende VM zonder netwerk? Dan doet het ding effectief niets.
Dus de storing op netwerk houdt misschien je VM wel in de lucht, maar je kan er niet bij
Ik snap heus wel dat ZFS op speciale hardware moet liggen, maar juist de bewering dat je ZFS heel erg moet tweaken volg ik niet zo? OpenIndiana installeren, share maken, en gassen? Mocht ik iets missen, leg het uit! Ik sta open voor commentaar
Even niets...
Herinstallatie gedaan, probleem blijft ... grrrrredfoxert schreef op vrijdag 11 mei 2012 @ 09:08:
[...]
Done that, rebooten heeft ook geen nut gehad. Enige andere oplossing die ik zie is een volledige herinstallatie. Ik weet alleen niet of ik dan ook mn VM's weer terug krijg maar dat zal wel niet. Ik kan evt wel even met een andere USB stick testen natuurlijk. Vanavond maar eens mee prutsen.
Als je netwerk niet beschikbaar is heeft dat voor bepaalde dingen een negatieve invloed. Services hebben daar vaak wel weer wat op bedacht, zijn redundant uitgevoerd, etc. Dat is wat robuuster dan storage. Een latency van een paar milliseconden meer kan voor gigantische problemen zorgen. Bij normale network services is dat in 99% van de gevallen totaal geen probleem (denk alleen al aan wifi). Storage luistert nauwer dan de gemiddelde network service.
@staatslot: niet als iemand de fanboy gaat uithangen en eigenlijk zelf al een vrij botte uitspraak doet omdat enige goede onderbouwing ontbreekt. Het storage verhaal ligt heel wat genuanceerder en is vrij complex! Het is van toepassing tot toepassing weer anders. Er is echter maar 1 reden waarom je iets als een NAS wil gebruiken: centrale dataopslag. In geval van ESXi biedt zoiets je weer de mogelijkheden voor high availability omdat je middels dingen als vMotion de vm van een defecte ESXi host naar een werkende kunt verplaatsen. Het geeft je ook beheersgemak want datzelfde kun je doen als je onderhoud moet plegen aan een ESXi host. Je vm's kunnen dan door blijven draaien. Daarnaast is de vergelijking ZFS vs VMFS ook niet zo'n handige omdat VMFS een clusterfilesystem is wat ZFS juist weer niet is (het feit dat een clusterfilesystem is, is weer een voordeel als je het ook als zodanig wil gaan inzetten). Omdat ESXi 5 maar NFSv3 doet betekent dat je veel features van NFSv4 mist en daardoor ook heel wat workarounds moet gaan verzinnen. Op security vlak is dat bijvoorbeeld het geval. Dit soort dingen mis ik dan ook bij die claim dat ZFS beter zou zijn als VMFS.
@redfoxert: is je usb stick dan nog wel goed?
Dit is de eerste post die ik in deze discussie zei, en misschien inderdaad wat verkeerd geformuleerd.FireDrunk schreef op vrijdag 11 mei 2012 @ 12:01:
ESXi met zijn VMFS kan niet op tegen ZFS. VMFS heeft ook geen checksumming. Dat is een beetje waar het op neer komt.
ZFS is juist zo sterk omdat het van disk tot filesystem 1 tool is die gebouwd is op dataconsistentie.
Je kan nog zo'n goede storage ondergrond hebben, maar als je er weer VMFS overheen legt, verlaag je de zekerheid weer.
Wat ik bedoelde was dat ZFS vele malen beter is dan VMFS op het gebied van dataconsistentie, niet als je het hebt over algehele 'Availability', want dat hangt zoals je (zeer) terecht opmerkt, af van *veel* meer.
* FireDrunk gebruikt overigens nog steeds geen ZFS
[ Voor 4% gewijzigd door FireDrunk op 11-05-2012 21:47 ]
Even niets...
Meerdere sticks geprobeert. De sticks heb ik tot nu toe in VMware Workstation geinstalleerd. Net een installatie gedaan rechtstreeks op de SSD vanaf een DVD gebrandt vanaf de ISO, die kon wel updaten. Ga nu proberen vanaf DVD te installeren naar USB om te zien of daar nog verschil in zit.ppl schreef op vrijdag 11 mei 2012 @ 21:34:
@redfoxert: is je usb stick dan nog wel goed?
Ik bedenk me nu ineens iets ... de poorten waarin ik de USB stick heb gehad waren ... USB3.0, non-native Intel chipset poorten. Originele stick zit nu in een USB2.0 poort die direct aan de Intel chipset hangt. Ben benieuwd
Vermoeden bevestigd! Booten etc kan prima vanaf USB3 poorten, updaten, forget it. USB2 poort gebruikt voor mn stick en de updates laten zich nu wel installeren ... stom!
[ Voor 31% gewijzigd door redfoxert op 11-05-2012 22:00 ]

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Dat klinkt als een driver probleempje, iets wat bij usb3 nog wel problematisch is. Ik ben het ook al eens tegengekomen met bepaalde tools die we op een usb stick hebben staan. We dachten in eerste instantie dat de stick stuk was tot we ons bedachten dat er usb3 op de machine zat. Ding in een usb2 poortje gestopt en het werkte zonder problemen. Intel moet usb3 toch eens wat harder gaan promoten, schiet niet op met de implementatie en support.redfoxert schreef op vrijdag 11 mei 2012 @ 21:46:
Ik bedenk me nu ineens iets ... de poorten waarin ik de USB stick heb gehad waren ... USB3.0, non-native Intel chipset poorten. Originele stick zit nu in een USB2.0 poort die direct aan de Intel chipset hangt. Ben benieuwd
Vermoeden bevestigd! Booten etc kan prima vanaf USB3 poorten, updaten, forget it. USB2 poort gebruikt voor mn stick en de updates laten zich nu wel installeren ... stom!
Supermicro X8SIL-F
Intel Core i3 550
8gig DDR3 ECC
5x Samsung EcoGreen F4EG, 2TB
OCZ Vertex SATA II 2.5" SSD 30GB
Dit systeem draait nu anderhalf jaar op ZFSguru (SSD). De Samsung EcoGreen drives staan in een Raid-Z pool.
Ik ben afgelopen weekend bezig geweest om op dit systeem ESXi te installeren. En hierop 2 vm's te laten draaien:
1. ZFSguru
2. Ubuntu 11.10 Minimal
Nu wil ik deze bestaande Raid-Z pool koppelen aan me ZFSguru vm zodat ik weer toegang krijg tot mijn data. Ik lees oa hier in het topic dat ik hiervoor VT-d voor nodig heb.
Mijn moederbord ondersteund dit, alleen mijn CPU niet (wel VT-x).
Is de beste optie een andere CPU te kopen die wel VT-d ondersteuning heeft. Of zijn er nog alternatieven?
Je moet dan per disk een RDM (Raw Device Mapping) aanmaken, en die disk weer aan de ZFSguru VM geven.
Nadeel is dat de PVSCSI driver van VMware een SCSI driver is, en je dus geen TRIM hebt (voor je SSD).
Bovendien is het een nog niet 100% bewezen techniek, en zouden bad sectors theoretisch roet in het eten kunnen gooien. Het is bij veel mensen werkend gebleken, maar "In het verleden behaalde resultaten..."
Een nieuwe CPU is in veel gevallen de veel verstandigere keuze.
Even niets...
Volgens mij zijn er niet helaas. Bij RDM krijgen je disks andere ID's en dus zal je config niet kunnen lezen.Phasis schreef op maandag 14 mei 2012 @ 11:45:
Mijn huidige systeem:
Supermicro X8SIL-F
Intel Core i3 550
8gig DDR3 ECC
5x Samsung EcoGreen F4EG, 2TB
OCZ Vertex SATA II 2.5" SSD 30GB
Dit systeem draait nu anderhalf jaar op ZFSguru (SSD). De Samsung EcoGreen drives staan in een Raid-Z pool.
Ik ben afgelopen weekend bezig geweest om op dit systeem ESXi te installeren. En hierop 2 vm's te laten draaien:
1. ZFSguru
2. Ubuntu 11.10 Minimal
Nu wil ik deze bestaande Raid-Z pool koppelen aan me ZFSguru vm zodat ik weer toegang krijg tot mijn data. Ik lees oa hier in het topic dat ik hiervoor VT-d voor nodig heb.
Mijn moederbord ondersteund dit, alleen mijn CPU niet (wel VT-x).
Is de beste optie een andere CPU te kopen die wel VT-d ondersteuning heeft. Of zijn er nog alternatieven?
Any job you can do in your pajamas is not the hardest job in the world.
Even niets...
[ Voor 115% gewijzigd door Phasis op 14-05-2012 15:32 ]
Even niets...
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.