Even niets...
SarcasmeFireDrunk schreef op zondag 30 november 2014 @ 18:01:
Die van vorige weekmaar jij zegt, de volle 8MB/s alsof het veel is
Hou ons vooral op de hoogte.
- Deze advertentie is geblokkeerd door Pi-Hole -
Belangrijk om te weten:db I Delirium schreef op maandag 01 december 2014 @ 13:55:
Ik hou deze discussie ook even in de gaten, was net aan het kijken naar Nakivo en Veeam (beide free)
Bij Veeam kun je geen jobs schedulen en dien je een aparte database in te richten. Nakivo werkt als appliance (is gebaseerd op Ubuntu 14.04) en daar kun je wel scheduled jobs inrichten.
is everything cool?
Bij Veeam kun je ook prima jobs schedulen. Ik heb beide produkten naast elkaar geprobeerd en bij beide kon je prima met schedules werken.FREAKJAM schreef op maandag 01 december 2014 @ 14:16:
[...]
Belangrijk om te weten:
Bij Veeam kun je geen jobs schedulen en dien je een aparte database in te richten. Nakivo werkt als appliance (is gebaseerd op Ubuntu 14.04) en daar kun je wel scheduled jobs inrichten.
Wat ik bij Veeam wel prettig vind is dat de backups in een formaat zijn die je ook goed kan restoren in het geval dat je niet (meer) toegang hebt tot het product Backup en Recovery. De backups van Nakivo worden in een speciale directory structuur met gegenereerde bestandnamen weggeschreven. Wat ik daarbij nog niet geprobeerd heb is of je met een andere (lege) Nakivo instance (of een los programma van Nakivo (a la VeeamZip in het geval van Veeam)) dan ook nog iets met die backups kan.
Zelf ben ik er nog niet uit welke van de twee het prettigst is. Nakivo is iets basaler in functionaliteit maar doet prima waarvoor wij het nodig zouden hebben. Dat het vanuit een Linux gebaseerde VM draait vind ik top. Ik wil alleen wel bovenstaande nog valideren.
Zolang je in trial mode zit of een licentie hebt wel ja, in de free-version kun je geen scheduled jobs aanmaken. Overigens werkt VEEAM in mijn beleving snel en betrouwbaar.tsjoender schreef op maandag 01 december 2014 @ 14:48:
[...]
Bij Veeam kun je ook prima jobs schedulen. Ik heb beide produkten naast elkaar geprobeerd en bij beide kon je prima met schedules werken.
^ dat bedoelde ik eigenlijk. Ik was niet helemaal duidelijk. Dank voor de aanvulling.lazybones schreef op maandag 01 december 2014 @ 14:53:
[...]
Zolang je in trial mode zit of een licentie hebt wel ja, in de free-version kun je geen scheduled jobs aanmaken. Overigens werkt VEEAM in mijn beleving snel en betrouwbaar.
is everything cool?
[ Voor 39% gewijzigd door FireDrunk op 01-12-2014 15:28 ]
Even niets...
Dat is inderdaad zo.Ik heb ook al meegemaakt dat toen een trial afliep dat de schedule door bleef lopen. We moesten toen om die jobs te stoppen de datum van die Veeam host even terugzetten om weer bij de scheduler te kunnenFREAKJAM schreef op maandag 01 december 2014 @ 14:57:
[...]
^ dat bedoelde ik eigenlijk. Ik was niet helemaal duidelijk. Dank voor de aanvulling.

Even niets...
Maar toch even kort vermeld (en eventueel langer als men het interessant vindt)
2x gigabyte brix met mobile i3 CPU met ESXi 5.5
1x oude HTPC met een haswell Intel Pentium G1820 met Ubuntu 14.10 voor NFS (VMware datastore) en SMB shares (fileshare voor films/series/etc. direct te benaderen vanaf PC)
1x Netgear gigabit switch
1x TP-Link accesspoint
Een snelle meting met een energiemeter in het stopcontact geeft aan dat de set zo'n 55W continu gebruikt. Daarbij geeft het apparaatje ook aan dat de PFC rond de 60% ligt wat volgens mij wel erg laag is. Geen idee of die 55W dan gecorrigeerd is met de power factor, waarschijnlijk wel anders zou de boel wel heel erg weinig gebruiken.
Ik heb trouwens een oude draaischijfmeter waarbij ik begreep dat ik dan alleen maar naar het echte verbruik hoef te kijken.
Op zich geeft het volgens mij niet zo heel veel bij die lage vermogens... Pas bij een wasmachine die 3000W verstookt wordt het vervelend volgens mij...
Voor de exacte details, lees Mux' blog er eens op na, staat het volgens mij wel in.
On another note:
Weer even met NAKIVO gespeeld: Nu via een SMB share ipv NFS, en op SSD's ipv op HDD's.
Backup job Backup GIT Last run Status: Successful Started: Mon, Dec 1 at 2:39 PM (UTC -05:00) Finished: Mon, Dec 1 at 2:42 PM (UTC -05:00) Duration: 3 minutes Transferred: 2.9 GB Avg. speed: 16 MB/s Schedule: Runs on demand Backed up VMs (1) git.**** Last run: Successful Source: 192.168.1.5 Target: SSD Backup Recovery points: 1 (latest: Mon, Dec 1 at 2:39 PM (UTC -05:00))
16MB/s over SMB op SSD's vind ik nog steeds niet echt veel, maar het is beter dan de 900KB/s die ik eerder haalde...
Even niets...
Twijfel om deze te kopen (nic driver installeren is geen probleem) voor de zuinigheid en prijs als backup node. Plus een dual nicje ofcourse.
Lees net dat Q dit draaiende heeft/had.
[ Voor 29% gewijzigd door Nindustries op 02-12-2014 22:37 ]
~ beware of misinformation.
Transcend SSD370 en de Samsung 840 EVO.
De Transcent is 15 euro goedkoper en beschikt over 512GB itt 500GB voor de samsung.
Of zijn er betere SSD's om als datastore te gebruiken?
- Deze advertentie is geblokkeerd door Pi-Hole -
Even niets...
[ Voor 47% gewijzigd door A1AD op 08-12-2014 12:16 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
't Is op zich een goed punt, maar aan de andere kant heb ik 8 SSDs draaien (3xIntel520, 2xIntelX25G2, 1x Samsung 840 Evo, 1x Intel 320 en een OEM Toshiba. Mag jij raden welke SSD's problemen hebben gehad na een power failure: de EVO was zijn bootloader kwijt en de 320 was ALLES kwijt en gaf 8MB aan met de welbekende BAD_CTX error....en laat dat nu juist de SSD zijn met PLP.abusimbal schreef op zondag 07 december 2014 @ 17:12:
Voordeel van de Crucial t.o.v. de Samsung (en de Transcend) is dat de MX100 power loss protection PLP heeft. Is dus meer robuster bij spanningsverlies dan de andere.
Nou heeft de Crucial een goede track record, maar ik zou me niet blind staren op PLP alleen.
Even niets...
Je mist alleen een beetje mijn punt, en dat is dat je je niet blind moet staren op PLP. Want power loss is heus niet het enige wat mis kan gaan op een SSD.
Juist met die reden heb ik 4 * MX100 draaien voor mijn VM's. 4 van die dingen in 1 array is snel zat, dus performance was niet echt een requirement. Prijs was uitermate gunstig, en ze hebben Powercaps.
Ik geef je ook helemaal geen ongelijk, "I was merely stating a fact"
Als jij die bug in de nieuwste firmware hebt, is er denk ik iets raars aan de hand, want ik dacht dat er geen firmware meer gemaakt werd voor de intel 320.
Wat ik zo op de Intel site kan vinden, is 4PC10362 de laatste firmware, en die is uit 2011 volgens mij.
Even niets...
Ik ben het er zeker mee eens dat PLP een goede feature is, en voor dezelfde prijs heb ik het liever wel dan niet. Ik denk dat we het allebei gewoon in de juiste context proberen te plaatsen.
performance per watt per gb per euro per vrouw!
Dat is de stat die er toe doet!
Even niets...
hmmmmm.....dat gaat toch per definitie altijd al vout?FireDrunk schreef op dinsdag 09 december 2014 @ 08:02:
performance per watt per gb per euro per vrouw!
Dat is de stat die er toe doet!
Ik kom uit op 42, is dat goed?FireDrunk schreef op dinsdag 09 december 2014 @ 08:02:
Zeker, je moet je als Tweaker nooit blind staren op 1 feature, dat is natuurlijk een doodzonde!
performance per watt per gb per euro per vrouw!
Dat is de stat die er toe doet!
Om toch maar weer even ontopic te blijven: draaien veel van jullie je fileservers ook op ESXi en zo ja, met welke hardware en performt dat een beetje in de buurt van native? En dan met name de nadruk op het gebruiken van VMWare's storage, geen gekke truukjes met device passthrough
Beide sharen via ofwel NFS of iSCSI storage terug aan de ESXi host.
Daarnaast heb ik een cluster van vier servers welke ook gebruik maken van beide storage Pools.
[ Voor 3% gewijzigd door FireDrunk op 09-12-2014 19:06 ]
Even niets...
Dat ligt er maar net aan hoe ver je wil gaan met beveiliging van je systeem. Voor een thuislab is het meer een feature in de categorie "leuk" dan in de categorie "noodzakelijk". En als je wil beschermen tegen stroomuitval in de zin van "netspanning valt weg" is het niet eens de meest slimme aankoop, kun je beter naar een ups (er zal toch iets moeten zijn die de ssd van data voorziet, als dat wegvalt schrijft een ssd geheel zinloos alle binnengekomen data weg: de file zelf is corrupt omdat ie niet compleet is). Dan kijk ik toch liever naar de algehele betrouwbaarheid van zo'n ssd (en in geval van een zuinige server natuurlijk ook energiegebruik).abusimbal schreef op zondag 07 december 2014 @ 17:12:
Voordeel van de Crucial t.o.v. de Samsung (en de Transcend) is dat de MX100 power loss protection PLP heeft. Is dus meer robuster bij spanningsverlies dan de andere.
[ Voor 3% gewijzigd door ppl op 09-12-2014 21:59 ]
Maarja, dan heb je een mooie UPS en ontploft je voeding. Kan je je geld beter ook investeren in een server met een extra voeding. Maar dan heb je weer kans dat je storagecontroller er aan gaat, waardoor je alsnog data kan verliezen. Die kan je ook dubbel uitvoeren, maar op dat punt heb je eigenlijk een Dell Powervault van 12.000 euro gebouwdppl schreef op dinsdag 09 december 2014 @ 21:58:
[...]
Dat ligt er maar net aan hoe ver je wil gaan met beveiliging van je systeem. Voor een thuislab is het meer een feature in de categorie "leuk" dan in de categorie "noodzakelijk". En als je wil beschermen tegen stroomuitval in de zin van "netspanning valt weg" is het niet eens de meest slimme aankoop, kun je beter naar een ups (er zal toch iets moeten zijn die de ssd van data voorziet, als dat wegvalt schrijft een ssd geheel zinloos alle binnengekomen data weg: de file zelf is corrupt omdat ie niet compleet is). Dan kijk ik toch liever naar de algehele betrouwbaarheid van zo'n ssd (en in geval van een zuinige server natuurlijk ook energiegebruik).
Alles moet (zoals je al aangeeft) in perspectief geplaatst worden, maar de Crucial heeft zowel een nuttige feature als een goede prijs en een goede performance.
Verbruikt uiteindelijk iets van een ~40 watt, tijdje geleden getest. Dit was met een 3- tal VM'sDaBeast.net schreef op woensdag 12 februari 2014 @ 08:13:
# Product Prijs Subtotaal 1 Intel Core i5 4440 Boxed € 154,90 € 154,90 1 ASRock Q87M vPro € 96,80 € 96,80 1 Scythe Big Shuriken 2 Rev. B € 30,04 € 30,04 1 Corsair XMS3 CMX32GX3M4A1333C9 € 264,- € 264,- 1 be quiet! System Power 7 300W € 32,- € 32,- 1 Crucial 2.5" M500 240GB € 108,60 € 108,60 1 SilverStone SUGO SG02-F € 71,83 € 71,83 1 Dell YT674 - Quad port ethernet adapter € ~110 € ~110 Bekijk collectie
Importeer productenTotaal € 910 (shipping incl.)
Is dus een werkende config. Alle onderdelen zijn binnen (wel nog even wachten op de nic) , eergisteren in elkaar gestoken, en via Hiren's boot cd even Prime95 laten lopen. Na 20 min loopt hij op naar 43° C - als zou ik hem ook eens langer moeten laten testen. De on-board nic werkt - met deze driver (ESXi 5.1). Binnenkort eens kijken hoeveel hij verbruikt met een watt meter.
Dat is ook ongeveer wat mijn vergelijkbare systeem verbruikt, alleen heb ik er nog 3 disks bij zitten. Welkje VMs draai je er op?DaBeast.net schreef op woensdag 10 december 2014 @ 10:58:
[...]
Verbruikt uiteindelijk iets van een ~40 watt, tijdje geleden getest. Dit was met een 3- tal VM's
2x Kubuntu 10 LTS
Ik heb eindelijk een ESXI draaien maar hoe zit het met de licentie's, het systeem zegt namelijk dat ie maar 60 dagen op proef mag draaien... Dan heb ik het over het management gebeuren...
Hoe beheren jullie je esxi server ?
[ Voor 22% gewijzigd door SRich op 13-12-2014 13:08 ]
~ beware of misinformation.
Had inderdaad nog een key in me mail zitten
Thnx
Via ssh middels de ingebouwde commando's en wat homebrew scripts naast VMware Fusion/Workstation en de vSphere Client (die helaas Windows-only is).
* FireDrunk is creatief met licenties
Even niets...
elke 60 dagen opnieuw installeren dus.FireDrunk schreef op zaterdag 13 december 2014 @ 16:38:* FireDrunk is creatief met licentiesIk draai de vCenter Appliance en gebruik zowel de Web Client als de vSphere Client voor Windows.
Even niets...
Sinds een paar weken speel ik met het idee om een nieuwe homeserver / nas te bouwen, aangezien de huidige stilletjes aan vol begint te lopen (een raid5 W7 bak, ik wist destijds niet beter.)
Ik heb enkele topics (deels) doorgelezen, en kwam eerst met het idee om een ZFS bak te maken gebaseerd op freenas.
Nu ik dit topic enkele pagina's heb doorlezen (en de TS), begin ik meer te neigen naar een zuinige esxi bak, zodat ik naast ZFS nog enkele andere servers kan draaien, en om te experimenteren
Kunnen jullie me helpen om een systeem in elkaar te steken?
Als ik ZFS goed begrijp is ecc eigenlijk al een must, en zou toch een vrij grote zpool willen aanspreken.
In eerste instantie zal die pool niet zo groot zijn, maar ik zou toch regelmatig wat schijfjes willen/kunnen bijprikken. De pool zal datafiles bevatten, en oa ook een offsite backup van familie, op (langere) termijn zou ik er toch een 16 a 20 schijven in willen kunnen plaatsen.
"goedkope" ecc bordjes zijn (vind ik) al niet simpel te vinden, en kwam uiteindelijk uit op de Supermicro X10SL7-F, als ik het goed voorheb kan ik de 8x SAS-2 poorten via vt-d doorgeven aan ZFS, om zo al 8 schijven te kunnen doorsturen, correct? Kan ik bij uitbreiding ook de 4 sata 2.0 poorten doorgeven om aan 12 schijven te komen?
Samen met die 12 poorten kan ik een IBM ServeRAID M1015 eveneens meegeven om zo aan 20 schijven te komen?
Dat bordje zou me dus al 1 M1015 uitsparen, geld dat ik gerust in het mobo wil steken.
Als processor dacht ik aan een Intel Core i5-4460 Boxed.
Dan resteert er enkel nog geheugen, zoiets als Kingston ValueRAM KVR16E11K4/32 dan?
Alles bij elkaar kom ik dan aan volgend lijstje (in hoeverre is dit dan nog zuinig..)
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-4460 Boxed | € 164,- | € 164,- |
1 | Supermicro X10SL7-F | € 246,01 | € 246,01 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 350,- | € 350,- |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 130,51 | € 130,51 |
Bekijk collectie Importeer producten | Totaal | € 890,52 |
Wel dik over budget (5-600 €), maar ik veronderstel dat ik later de M1015 kan aanschaffen en beginnen met een kleinere zpool, en uitbreiden wanneer het nodig is? (spaart me weer x€ uit) Op het geheugen kan ik al bijna niet besparen right? (of ik moet zfs draaien met non ecc-memory, met de risico's vandien)
Goedkopere bordjes zoals ASRock B75 Pro3 ondersteunen dan wel vt-d, maar geen ecc memory..
Suggesties voor een goedkoper bordje zijn dus ook welkom, al moet het dan wel ecc en vt-d ondersteunen voor zfs.
Over de andere VM's;
Hier zal wellicht een webservertje op komen, een downloadbak misschien ,... een mkv doorsluizen naar een client pc, testen in *nix, ...
Kortom, iets dat vrij veel in zn neus zal peuteren (of hoe omschrijven jullie dat ook alweer)
Suggesties zijn altijd welkom, en alvast bedankt voor jullie input
Die ondersteunt geen ECC: http://ark.intel.com/nl/p...r-6M-Cache-up-to-3_40-GHzXistance schreef op zondag 21 december 2014 @ 23:47:
Als processor dacht ik aan een Intel Core i5-4460 Boxed.
Er zijn een beperkt aantal desktop cpu's die het ondersteunen, anders moet je toch richting een Xeon:
http://ark.intel.com/nl/s...=FCLGA1150&ECCMemory=true
Een losse M1015 kun je wel weer doorgeven omdat je dan wederom het gehele device "doorgeeft". Zowel de 2308 als de M1015 moeten wel naar IT-mode geflashed worden.
is everything cool?
Even niets...
Ah verdorie, niet gedacht dat de CPU ook ECC moest ondersteunen, bedankt om me hierop te wijzen, en dan zal het idd een Xeon moeten worden, wat het prijskaartje niet ten goede komt..Nielson schreef op maandag 22 december 2014 @ 00:05:
[...]
Die ondersteunt geen ECC: http://ark.intel.com/nl/p...r-6M-Cache-up-to-3_40-GHz
Er zijn een beperkt aantal desktop cpu's die het ondersteunen, anders moet je toch richting een Xeon:
http://ark.intel.com/nl/s...=FCLGA1150&ECCMemory=true
point taken, maar 4 van de 6 sata poorten kan ik ook niet doorgeven? enkel de 8 sas poorten op het bordje?FREAKJAM schreef op maandag 22 december 2014 @ 00:15:
Je kunt geen poorten doorgeven met VT-d, je geeft in jouw geval de LSI 2308 in zijn geheel als HBA door. De sata poorten kun je gebruiken om daar bijv een SSD op aan te sluiten voor de datastore.
Een losse M1015 kun je wel weer doorgeven omdat je dan wederom het gehele device "doorgeeft". Zowel de 2308 als de M1015 moeten wel naar IT-mode geflashed worden.
Waardoor ik in totaal 16 (zfs) schijven zou kunnen aansluiten op dit bordje?
Is het dan niet beter dat ik een kleinere build maak voor ZFS (het ASRock C2550D4I bordje bvb, en een kleinere voor esxi? Dan kan ik een mobo zoeken met 64Gb voor esxi, (tegenover nu 32)
Dan kost het natuurlijk wel 2 keer mobo, 2 keer ram, etc etc, .. Ik zal de €€€ berekening eens doen
esxi heeft niet per se ecc geheugen nodig, juist?
Ik wil graag wat anders geloven. Kan je een tipje van de sluier op lichten?
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Dat bord is in mijn ogen eigenlijk alleen geschikt voor 32GB.
Voorbeeldje:
https://www.sona.de/.1806...-IMM2G72D3LDUD8AG-B15E%27
Dat is *per* module van 16GB...
Er zijn trouwens ook 16 poorts controllers die werken met ZFS, mocht je persé meer poorten nodig hebben.
Zoals deze: pricewatch: LSI SAS 9201-16i
[ Voor 60% gewijzigd door FireDrunk op 23-12-2014 09:21 ]
Even niets...
Al geruime tijd ben ik bezig met google/youtube/tweakers om informatie te verzamelen over het samenstellen van mijn eigen EXSi thuisserver. Met deze server wil een aantal (zware) vm's draaien die snel en stabiel moeten functioneren. Spelenderwijs wil ik meer kennis opdoen van ESXi en virtualisatie in het algemeen. Misschien dat ik later nog andere hypervisors zal proberen.
Ik heb ook erg vaak na gedacht over de avoton processor met 8 cores. Deze is erg zuinig, en heeft geen actieve cooler nodig. Alleen verwacht ik dat deze processor niet krachtig genoeg is voor het hosten van bijvoorbeeld Windows server met Exchange. Ook mist deze ondersteuning voor VT-d.
Ik zoek dus eigenlijk een krachtige server met ondersteuning voor ESXi (5.5). Omdat deze node 24/7 zal gaan draaien, zal deze ondersteuning moeten hebben voor ECC geheugen. Deze server komt in mijn huiskamer naar de tv meubel te staan i.v.m. ruimte gebrek. Hiervoor moet hij stil zijn, en lijkt een fractal node mij erg strak wat betreft design. Wat betreft energieverbruik wens ik dit zo laag mogelijk te houden. De processor die ik op het oog heb (Intel Xeon e3-1231V3) heeft de mogelijkheid om minder wattage te gebruiken wanneer hij in een idle modus functioneert. Eerlijk gezegd heb ik geen idee hoe dat er in de praktijk uit zal komen te zien.
Storage:
Ik maakt thuis al een tijd gebruik van een Synology DS213+ met 2x3TB aan storage. Deze wil ik deels gaan inregelen als NFS of iSCSI. Hier komen dan de D partities van de servers op.
De server zal voorzien worden van 2 SSD's. Eén ssd zal gebruikt worden voor de caching functie in ESXi. Op de andere SSD wil ik de hoofd partities van de servers plaatsen.
Hieronder heb ik een lijst gemaakt met onderdelen - waarvan ik denk - die goed zullen aansluiten bij mijn wensen:
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 237,- | € 237,- |
1 | ASRock E3C224D4I-14S | € 268,98 | € 268,98 |
1 | Fractal Design Node 804 | € 91,90 | € 91,90 |
1 | 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M | € 14,82 | € 14,82 |
1 | Kingston ValueRAM KVR16R11S4K4/32 | € 334,50 | € 334,50 |
1 | Seasonic G-Serie 360Watt | € 50,- | € 50,- |
2 | Samsung 850 Pro 256GB | € 151,50 | € 303,- |
Bekijk collectie Importeer producten | Totaal | € 1.300,20 |
Wat is je budget?
€ 1500
Heb je bepaalde (merk)voorkeuren?
Ik sta overal voor open, zolang het maar servergrade is. (ECC + VT-d)
Specificeer het systeem en de omgeving waarin je het product gaat gebruiken.?
Het systeem wordt in een thuisomgeving gebruikt.
Vragen
- Ik heb geen ervaring met de SAS aansluiting op het moederbord. Ik verwacht dat ik met die 3Ware kabel gewoon uit de voeten kan voor het aansluiten van de SSD's. Misschien dat iemand dit voor mij kan verifiëren?
- Op de website van Asrock staat dat het moederbord UDIMM ondersteunt. Echter is het geheugen wat ik geselecteerd heb, registered geheugen. Zal dit werken op deze mobo?
- Zal de boxed cooler van de xeon processor stil/voldoende capaciteit hebben?
- Zal mijn storage structuur goed werken? Of is het raar om de C partities van de vm's aan een SSD te hangen? En als ik later een extra node wil toevoegen aan het cluster om live migration te testen, zal dit plaatje niet meer werken verwacht ik.
Deze relatie snap ik niet echt, of een server nu 1 uur of 24 uur per dag aan staat. Errors kunnen altijd ontstan en dit wil je voorkomen of niet.r0y89 schreef op dinsdag 23 december 2014 @ 17:19:
Omdat deze node 24/7 zal gaan draaien, zal deze ondersteuning moeten hebben voor ECC geheugen.
Zelf draai ik 3 ESXi hosts en 3 ZFS storage nodes met non-ECC. Memory errors zijn daarin tot nu toe (4 jaar) geen probleem geweest. Local datastore disk errors heeft tot nu toe wel 2 keer problemen geleid.
Als de specificaties van het moederbord niet expliciet vermelden dat registered geheugen ondersteund wordt, dan gaat dit niet werken.Op de website van Asrock staat dat het moederbord UDIMM ondersteunt. Echter is het geheugen wat ik geselecteerd heb, registered geheugen.
Mijn persoonlijke mening is dat ik nooit voor ASrock zou gaan, in ieder geval niet voor systemen die 24/7 aan staan. Hoe goedkoop dan ook, of hoeveel features er ook op zitten.
Er zijn koelers die stiller kunnen dan de stock koeler.
De meningen zijn verdeeld, maar over het algemeen wordt de laatste tijd NFS geprefereerd boven iSCSI.
En waarom wil je perse VT-d? Je geeft nergens aan waarvoor je dat nodig hebt?
Ja je kunt de ssd's met die sas kabel direct aansluiten. Maar waarom zoek je niet een board met sata-600 poorten?
Ik heb die X10, werkelijk een top bordje! Alleen je geheugenprijs is een beetjeFireDrunk schreef op dinsdag 23 december 2014 @ 09:12:
@Xistance, Bedenk je goed, dat 16GB ECC modules voor dat bord, zo goed als onbetaalbaar zijn...
Dat bord is in mijn ogen eigenlijk alleen geschikt voor 32GB.
Voorbeeldje:
https://www.sona.de/.1806...-IMM2G72D3LDUD8AG-B15E%27
Dat is *per* module van 16GB...

4 reepjes van 8GB per stuk en je zit ongeveer aan de prijs van die ene reep. Het bord ondersteunt ook niet meer dan 32GB. Ik heb er nu 16, en dat wordt volgende maand 32.
Who's General Failure and why is he reading my harddrive? - Projectmanager : a person who thinks nine women can make one baby in one month
Te Koop:24 Core Intel Upgradeset
Het ging om 16GB modules...asing schreef op dinsdag 23 december 2014 @ 23:28:
[...]
Ik heb die X10, werkelijk een top bordje! Alleen je geheugenprijs is een beetje. Deze pricewatch: Crucial CT2KIT102472BD160B voldoet prima. Is unbuffered en ECC geheugen.
4 reepjes van 8GB per stuk en je zit ongeveer aan de prijs van die ene reep. Het bord ondersteunt ook niet meer dan 32GB. Ik heb er nu 16, en dat wordt volgende maand 32.
Even niets...
http://www.dasher.com/blo...s-best-suited-for-vmware/|sWORDs| schreef op woensdag 24 december 2014 @ 00:13:
Waar komt dat toch vandaan? Ik hoor zelfs klanten zeggen dat wij NFS prefereren maar dit is gewoon niet waar. Alleen als de storage vendor aangeeft dat NFS beter is, maar indien dat niet het geval is ligt de voorkeur bij iSCSI.
Te Koop:24 Core Intel Upgradeset
iSCSI is doorgaans sneller in combinatie met ZFS, maar dat is in de Enterprise wereld (nog) helemaal niet aan de orde. Dat is alleen hier in Tweakerland misschien relevant
Even niets...
is everything cool?
Tis ook een poepding... Maar goed, we zullen zien, zitten wel een aantal leuke features in
Even niets...
Hoe gaat het trouwens met de gratis variant van ESXi als v6 er is, krijgt die wel een werkende client? Bij 5.5 moet je namelijk opletten op de hardwareversie van de vm omdat je die anders niet meer kan aanpassen zonder licentie te hebben. Speelt dat probleem nog steeds trouwens?FREAKJAM schreef op woensdag 24 december 2014 @ 09:31:
Over ESXi6 gesproken, hopelijk komt ie begin volgend jaar uit! vSphere en ESXi 6 RC zijn al een tijdje uit (sinds 2 oktober) dus je zou eigenlijk verwachten dat ze al een heel eind zijn.
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Nee, de allerlaatste versie van de client heeft dat probleem niet meer. (Sinds update 2 van versie 5.5 is dit "opgelost"). Je kunt die client hier downloaden.Raven schreef op woensdag 24 december 2014 @ 10:12:
[...]
Hoe gaat het trouwens met de gratis variant van ESXi als v6 er is, krijgt die wel een werkende client? Bij 5.5 moet je namelijk opletten op de hardwareversie van de vm omdat je die anders niet meer kan aanpassen zonder licentie te hebben. Speelt dat probleem nog steeds trouwens?
Je krijgt nu de volgende melding in de client als je een VM edit:

[ Voor 8% gewijzigd door FREAKJAM op 24-12-2014 10:18 ]
is everything cool?
[ Voor 12% gewijzigd door Raven op 26-12-2014 23:06 ]
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
With vSphere 5.5 Update 2, you have the ability to edit a Virtual Hardware 10 VM using the vSphere Client (a.k.a C# or thick client). You are able to edit hardware version 9 and 10 VMs, but only on the feature level of hardware version 8.
Now, the KB is updated with this information. Check out KB 2061336
Here are the list of properties that are editable
Increase RAM
Decrease RAM
Change network port group
Remove devices
Increase vCPU
Decrease vCPU
Mount ISO
Increase disk space
Set a limit
Remove a limit
Set a reservation
Remove a reservation
Edit advanced settings
[ Voor 8% gewijzigd door FREAKJAM op 26-12-2014 23:21 ]
is everything cool?
Jazeker kan dat wel zonder vCenter met webclient! Kwestie van de vmx editten op de commandline. Er is heel veel aan beheer mogelijk met ESXi via die commandline (zowel server als vm's). Via PowerCLI heb je ook aardig wat opties. Het is zeker niet zo dat je vast zit aan die clients (web, C#).Raven schreef op vrijdag 26 december 2014 @ 23:06:
Dat noem ik geen oplossing(vandaar dat jij " gebruikte denk ik), het editten van hardware versie 10 en hoger kan dus nog steeds niet zonder vCenter server met Web Client.
Ik wil een exsi server gaan opzetten. Deze moet dan de volgende dingen gaan draaien.
ZFS (Freenas?) met 6*3, echter heb ik 2 verschillende 3 tb types, 5900 en 7200 toeren. Geeft dat veel problemen, snelheid is maar beperkt noodzakelijk. Het is voor media naar mijn spelers te serveren. Anders zal het geupgrade worden naar grotere schijven. Klopt het dat ZFS niet kan werken met een vergroten van de pool? Het liefst wil ik naar 3*6 (1 reduntant) en dan uitbreiden naar max 6*6 (2 reduntant)
UPS, een goedkope UPS (mits zuinig) wil ik meenemen in de aanschaf, ik heb in 2 jaar geen stroomuitval gehad. Ik twijfel nog.
VM's voor download/plex (op 1 of apart) en iets van Owncloud om de vrienden makkelijk te voorzien van wat media.
VM voor het monitoren van mijn zonnepaneeltjes (dit kan eventueel ook bij de andere VM op, maar een usb dient te worden doorgegeven)
VM voor mijn schotelontvanger (TVHEADEND) en DVB-T (ned 123)
Volgens mij heb ik dan nodig, een moederbord en cpu. Liefst ITX, 6 (maar het liefst 8 sata). Ik lees veel over de Xeon, is dit alleen ivm ECC? En zo ja, is ECC nou echt noodzaak/wat zijn de risico's. Anders is een I5 een optie (vt-d) Op zich is de data belangrijk, maar er draait geen bedrijf op.
Stroomverbruik het liefst zo laag mogelijk. In de BBG staat dat mooie ITX board met 19v aansluiting (Ik heb nog wel " oude" laptopvoedingen liggen, die passen volgens mij goed hierbij)
VM's komen op een SSD. Downloads wil ik richting een 2.5 HDD sturen en zelf overzetten naar de ZFS pool.
Wie heeft een soortgelijke uitdaging en wil zijn setup delen?
19v en ECC gaat niet samen, dus als je een xeon met ecc wil, gaat het geheel iets meer verbruiken...
Even niets...
Ik heb nu unraid, dit was destijds een goede oplossing omdat je makkelijk kon uitbreiden. ECC is geen eis, meer de vraag of het noodzaak is? (Ik lees hierboven dicussies, meningen verschillen). Unraid gaat er nu uit en ik denk dat ZFS het alternatief moet worden.FireDrunk schreef op vrijdag 02 januari 2015 @ 12:54:
Zet je harde eisen eens op een rij, ik lees unraid vervangen, maar geen eisen. Je hebt het over ECC, maar zegt niet of je het daadwerkelijk wil.
19v en ECC gaat niet samen, dus als je een xeon met ecc wil, gaat het geheel iets meer verbruiken...
Harde eis,
VT-d, 6 of 8 sata (2 erbij met een goedkoop 3112 kaartje is een optie).
ZFS (6 schijven in passtrough)
Enkele USB devices naar 2 of 3 VM
Zuinig (ik wil geen 100w idle)
Onboard controllers doorgeven is niet altijd mogelijk, borden met een extra SAS controller zijn daar beter voor geschikt (SuperMicro X10 plankjes met een onboard LSI 2308 bijvoorbeeld). (Dan heb je gelijk ECC).
ECC is technisch niet verplicht, wel dekt het wat risico's af. (net als een UPS doet, maar die vindt ook niet iedereen verplicht...). In combinatie is het zeker een pré.
Zuinig, in de zin van < 100W idle is een eitje, dat haalt elke moderne server wel. Zelfs een Xeon E5 doet dat nog...
Als ik jou zo hoor is een ITX SuperMicro bordje met een Xeon E3 ruim voldoende voor jou. Veel geheugen heb je denk ik niet nodig, dus 16GB zal wel voldoende zijn? Dan kan je prima met ITX toe.
Als je ITX en VT-d wil, is 16GB automatisch de max. Alleen Avoton bordjes zijn ITX met 4 DIMM sloten, maar die doen geen VT-d.
[ Voor 22% gewijzigd door FireDrunk op 02-01-2015 15:03 ]
Even niets...
Deze heeft ook gefunctioneerd als HTPC.
# | Product | Prijs | Subtotaal |
1 | AMD Athlon 64 X2 5200+ Boxed | € 0,- | € 0,- |
1 | Gigabyte GA-MA78GPM-DS2H | € 0,- | € 0,- |
1 | Samsung Spinpoint F1 HD103UJ, 1TB | € 0,- | € 0,- |
1 | Antec Fusion Remote Zilver | € 0,- | € 0,- |
1 | Scythe Ninja Mini | € 0,- | € 0,- |
1 | Kingston ValueRAM KVR800D2N5K2/4G | € 0,- | € 0,- |
1 | Samsung 840 SSD 250GB | € 98,49 | € 98,49 |
Bekijk collectie Importeer producten | Totaal | € 98,49 |
Ik wil de server een verse installatie gaan geven (draai nu op Ubuntu 12.04).
Nu kwam ik deze discussie tegen en dit lijkt mij wel wat.
Ook om weer het e.e.a. bij te leren.
Om het lekker voordelig te houden heb ik de SSD drive gekocht en wil ik er ram geheugen bij in gooien.
Nu is mijn vraag is mijn hardware geschikt ?
En geen budget? Overigens kan een i5 dan ook een optie zijn. Een i5 (non-K) is om het bot te zeggen een gecastreerde E3. Met de E3 heb je wat server features, waaronder ECC. Is ECC niet van belang voor jou dan kun je daar aanzienlijk mee besparen. Een i5 krijg je voor minder en de geheugenmodules zijn ook goedkoper. Helemaal als V&A een optie is.jantje112 schreef op vrijdag 02 januari 2015 @ 13:27:
[...]
Harde eis,
VT-d, 6 of 8 sata (2 erbij met een goedkoop 3112 kaartje is een optie).
ZFS (6 schijven in passtrough)
Enkele USB devices naar 2 of 3 VM
Zuinig (ik wil geen 100w idle)
[ Voor 30% gewijzigd door Dadona op 02-01-2015 15:48 ]
het budget wil ik zo laag mogelijk houden.
De genoemde componenten heb ik allemaal nog.
Wat Ram geheugen erin en klaar.
Ik hoop dat ik dan ook exsi kan draaien met een aantal VM's.
Of misschien toch nog wat andere componenten halen om de server wat zuiniger te maken.
Nu draait hij ongeveer 58W (idle).
Wat het verbruik betreft, met welk OS is dat? Bedenk dat je met ESXi niet het verbruik omlaag zal halen. Eerder het tegenovergestelde. Zeker met recente kernels van Linux en recente Windows versies kom je altijd lager uit dan met ESXi.
Of eigenlijk moet ik zeggen, je hebt met ESXi een lagere energie-efficientie. Maar het absolute verbruik van de setup zal sowieso wel rond die 45-50W hangen. Ik ben geneigd te zeggen dat de Athlon 64 X2 met een 780G chipset rond het kantelpunt zit. Moederborden begonnen minder te verbruiken. Maar de 780G (add Gigabyte) was niet echt het schokkende wonder. De 785G en 790GX op AM2+ en AM3 deden dat beter. En vergeleken met moderne moederborden en processoren zit je verbruik simpelweg altijd hoger. Behalve als je het systeem uitzit*
Uiteindelijk zou ik het voor nu vooral even gebruiken om testjes mee te doen of vooral als die mediacenter te laten. Dat doe ik ook. Die dingen staan ook niet 24/7 aan. Een ESXi bakje zal dat waarschijnlijk wel doen en dat is dan weer niet handig.
*En de anderen het systeem uitzetten en mux niet meedoet...
Als ik het goed begrijp is mijn energieverbruik dus niet echt schokkend te noemen.
Wat kan ik dan beter doen. Ubuntu server installeren en daarop de virtuele machines draaien met bijv, KVM.
Of toch ESxi gaan gebruiken ?
En de keuze ESXi versus KVM is natuurlijk een andere. Ik ben nu wel erg blij met KVM. ESXi is gestructureerder en gestandaardiseerd, maar je levert in op veelzijdigheid en op verbruik.
Tussen de twee heb je KVM zo draaiende en je kan ESXi zelf al op een USB stick zetten en de VMs op een datastore. Een mooie scheiding heb je dan ook zo ingevoerd. Dus als je echt even wil kijken wat je wil dan ben je met ESXi zo aan de gang. Daarbij zijn er legio mensen (en bedrijven) die ESXi gewoon draaien. Juist omdat het zo lekker rondklikt en je zo alles aan de praat hebt. Mogelijk zonder Google een keer te raadplegen.
Even niets...
Moederbord, CPU, geheugen en kast hebben me bij elkaar 310 euro gekost via Vraag & Aanbod, de rest is overgekomen uit de vervangen HP Microserver N36L. Voeding had ik al jaren nutteloos in de kast liggen, anders was ik vermoedelijk nog voor een pico psu gegaan.
# | Product | Prijs | Subtotaal |
1 | Intel Core i7 3770S Tray | € 326,- | € 326,- |
1 | ASRock Intel H67 H67M-ITX | € 0,- | € 0,- |
1 | Seagate Desktop HDD ST3000DM001, 3TB | € 91,95 | € 91,95 |
1 | Cooltek U2 Zilver | € 74,90 | € 74,90 |
1 | Corsair Vengeance LP CML16GX3M2A1600C10 | € 140,35 | € 140,35 |
1 | be quiet! Pure Power L7 300W | € 66,55 | € 66,55 |
2 | Crucial M500 2,5" 120GB | € 59,- | € 118,- |
1 | Crucial RealSSD C300 2.5" 64GB | € 132,56 | € 132,56 |
Bekijk collectie Importeer producten | Totaal | € 950,31 |
Verbruik heb ik nog niet heel precies gemeten, ik verwacht een watt of 30 tot 40 in idle.
Zo staat hij er nu bij:


[ Voor 3% gewijzigd door Duskwither op 02-01-2015 20:48 ]
Ik heb op basis van de informatie die ik in deze topic heb gevonden een configuratie samengesteld en gekocht. Onderstaande configuratie;
- ASRock B85M Pro4
- Corsair Flash Voyager Mini USB3 16GB
- Crucial DDR3 Ballistix Sport 2x8GB 1600 C9
- Fractal Design Core 1000 USB3
- Intel Core i5 4460
- Seasonic G-Serie 360Watt
In de kast heb ik 3 SATA HDD's en 1 SATA SSD geplaatst. Mijn gedachte hierachter was om deze disks met VT-d door te geven aan een NAS VM, en vanuit daar de datastores te serveren. ESXi en NAS VM wou ik op de USB stick zetten.
Nu heb ik de installatie doorlopen (die voor mijn gevoel wel iets te lang duurde) en zonder problemen/errors afgerond. Systeem opnieuw gestart, en geboot in ESXi.
Systeem begint vervolgens de melding te geven dat er geen 'persistant datastore is'. Blijkbaar is de USB stick dat niet (?), en ga vervolgens maar een datastore aanmaken. Bij elke disk (incl de SSD) waarbij ik dat probeer krijg ik de volgende melding;
Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object "ha-datastoresystem" on ESXi "10.0.0.61" failed.
Wat ik al heb geprobeerd om het op te lossen:
- Systeem laatste BIOS versie (al voor dat ik met installeren begonnen was)
- Bios settings van de satacontroller aanpassen; AHCI -> IDE modus
- Met ESXi Customiser de sata-xahci bij de installatie image in zetten
- Installatie op de SSD ipv de USB stick (dit lukt overigens prima, maar zelfde probleem met de rest van de drives blijft), en het is eigenlijk niet wat ik wil
Bedankt alvast!
Ik heb zelf ook een SSD die gewoon in een sata-poort zit geprikt, die fungeert als datastore. Heb je het volgende artikel (eerste hit op Google trouwens) al gelezen? Is je SSD formatted? (Waarschijnlijk niet omdat je er ook ESXi op hebt geinstalleerd).
Als je je schijven wil doorgeven aan een NAS VM zul je trouwens een M1015 of iets dergelijks moeten aanschaffen, die kaart kan je wel doorgeven met VT-d.
Je kunt ESXi trouwens gewoon draaien vanaf USB-stick. Maak wel regelmatig een backup van je config of regel een spare usb-stick. (clonen).
[ Voor 32% gewijzigd door FREAKJAM op 03-01-2015 19:51 ]
is everything cool?
Heb de SSD nu als datastore door die tijdens de setup aan te geven. maar de overige satadisks kan ik maar geen datastore van maken, gezien ik die error krijg
Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object "ha-datastoresystem" on ESXi "10.0.0.61" failed.
EDIT: ik ga even kijken of er al een partitietabel op die disks staat..
EDIT2: error komt inderdaad omdat er nog verschillende partitietabellen op stonden. Met een ubuntu live usb stick even overal een schone msdos partitietabel op geschreven.
[ Voor 19% gewijzigd door N1traat op 03-01-2015 20:43 ]
Toch geen RaidZ hoop ik!Zendith schreef op zaterdag 03 januari 2015 @ 19:55:
ik kan ook via ESX datastores aanmaken op die andere disks, en vervolgens op iedere een vmdk zetten voor die NAS device, dan kan ik dat ook in software raid zetten.
- Deze advertentie is geblokkeerd door Pi-Hole -
Hoi Zendith, tip voor een volgende keer: http://kb.vmware.com/self...playKC&externalId=2007328Zendith schreef op zaterdag 03 januari 2015 @ 19:55:
Bedankt voor je reactie, VT-d is waar ook, maar ik kan ook via ESX datastores aanmaken op die andere disks, en vervolgens op iedere een vmdk zetten voor die NAS device, dan kan ik dat ook in software raid zetten.
Heb de SSD nu als datastore door die tijdens de setup aan te geven. maar de overige satadisks kan ik maar geen datastore van maken, gezien ik die error krijg
Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object "ha-datastoresystem" on ESXi "10.0.0.61" failed.
EDIT: ik ga even kijken of er al een partitietabel op die disks staat..
EDIT2: error komt inderdaad omdat er nog verschillende partitietabellen op stonden. Met een ubuntu live usb stick even overal een schone msdos partitietabel op geschreven.
Op te lossen met: http://kb.vmware.com/self...playKC&externalId=1008886 Zo kun je vanuit ESXi een HD repartitioneren. Ik had op mijn SSD eerst Ubuntu Server geïnstalleerd en had hetzelfde gezeur.
FREAKJAM schreef op zaterdag 03 januari 2015 @ 19:47:
Ik heb zelf ook een SSD die gewoon in een sata-poort zit geprikt, die fungeert als datastore. Heb je het volgende artikel (eerste hit op Google trouwens) al gelezen? Is je SSD formatted? (Waarschijnlijk niet omdat je er ook ESXi op hebt geinstalleerd).
is everything cool?
In versie 6 wordt de vSphere Client vervangen door de Host Client en die is (voor zo ver ik kan zien aan de beta waar ik aan deelneem) ook web gebaseerd en lijkt al heel erg op de huidige vSphere Web Client.Raven schreef op woensdag 24 december 2014 @ 10:12:
[...]
Hoe gaat het trouwens met de gratis variant van ESXi als v6 er is, krijgt die wel een werkende client? Bij 5.5 moet je namelijk opletten op de hardwareversie van de vm omdat je die anders niet meer kan aanpassen zonder licentie te hebben. Speelt dat probleem nog steeds trouwens?
Zal even nagaan of het inmiddels is toegestaan om een plaatje ervan te posten...
Kwam op het EMC forum al een plaatje tegen gepost door een EMC Employee:

[ Voor 11% gewijzigd door Clueless op 07-01-2015 17:14 ]
I Don't Know, So Don't Shoot Me
Maar is die client wel gratis te gebruiken, net als de huidige vSphere Client?
[ Voor 16% gewijzigd door Raven op 07-01-2015 17:19 ]
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Even niets...
Edit: toch maar ff snel geprobeerd en je krijgt bij ESXi 6 gewoon de oude vertrouwde C# client.
[ Voor 13% gewijzigd door ppl op 07-01-2015 22:57 ]
Er is een verschil tussen een miniscule HTTPd (ik geloof LigHTTPd). En een volwaardige Tomcat / Java / Applet webserver...ppl schreef op woensdag 07 januari 2015 @ 22:17:
Ze hadden eerst een losse webclient maar die is sinds RC1 of zo gepulled. Je kunt nu in ieder geval die client niet los meer downloaden. Ik heb hier nog geen ESXi 6 geprobeerd om te checken of die webclient nu is ingebouwd (er draait toch al een webserver op ESXi dus waarom dan daar niet de webclient in onderbrengen?).
Edit: toch maar ff snel geprobeerd en je krijgt bij ESXi 6 gewoon de oude vertrouwde C# client.
Verschil tussen een applicatie van 2MB en 400MB...
Even niets...
We zullen het allemaal wel zien in een paar weken... Kans is groot dat tijdens het bovenstaande event vSphere versie 6 officieel zal worden aangekondigd.February 3, 2015
10:00–11:00 CET Register Now
Join VMware’s CEO, Pat Gelsinger, to usher in a new era in IT that will further enable your cloud journey. It’s the ONE industry-defining event you won't want to miss.
Zal overigens de huidige RC wel even downloaden en dan kan ik even kijken of ik kan bevestigen of die Host Client er nog wel of niet bij zit.
Edit: Net even de laatste RC binnen geharkt en in een VM geinstalleerd; de iso van vCenter bevat momenteel inderdaad alleen maar een C# vSphere Client en niet de Host Client zoals ik die uit de Beta kende. Grappig is wel dat de huidige RC als zijnde een Release build zijn gemarkeerd en niet meer als BETA of RC.
[ Voor 21% gewijzigd door Clueless op 08-01-2015 10:29 . Reden: Toevoeging vSphere 6 RC ]
I Don't Know, So Don't Shoot Me
Er is een verschil tussen software die er hardcoded in zit en software die modulair is. Zeg maar het verschil tussen niks kunnen installeren en het kunnen installeren van VIBs.FireDrunk schreef op donderdag 08 januari 2015 @ 08:14:
[...]
Er is een verschil tussen een miniscule HTTPd (ik geloof LigHTTPd). En een volwaardige Tomcat / Java / Applet webserver...
Verschil tussen een applicatie van 2MB en 400MB...
Oftewel: what's your point?
Ze willen graag van die C# client af. Die webclient is een aardig alternatief omdat je dan niet meer van het OS afhankelijk bent. Zou je denken maar omdat het Java gebruikt moet je dat dan wel op je systeem hebben staan en ben je toch weer afhankelijk. Aangezien ze ESXi volledig in beheer hebben en deze toch al een webserver heeft is het niet raar maar slim om dit dan verder uit te breiden en hier een volwaardige interface van te maken. M.a.w. de miniscule httpd die een webpage serveert waar je weinig mee kunt (client downloaden en datastores bekijken) vervangen door een webomgeving waarmee je de ESXi doos kunt beheren. Er zijn al hacks op dit vlak.
Maar goed, misschien moet ik maar eens niet meer verder dan mijn neus lang is denken...
is everything cool?
Dit moederbord heeft een Intel C612 Express chipset en een 10 poort's SATA3 controller die volgens de specs RAID 0/1/10 en 5 ondersteund, maar het werkt op basis van Intel RSTe 4.0.
In diverse review's komt dit board als 'Geweldig' en 'Super' ESXi board naar voren maar in diverse fora (ook dit topic:redfoxert in "Zuinige ESXi Server") lees ik dat Intel Rapid Storage Technology niet ondersteund op ESXi.
In de HCL van VMware kom ik echter deze tegen:
http://www.vmware.com/res...&productid=22069&vcl=true
http://www.vmware.com/res...&productid=35697&vcl=true
Ook kom ik diverse Supermicro servers (op basis van dezelfde chipset, zonder extra controller) tegen als 'ESXi 5.5 certified' (de dual variant van de SRI: http://www.vmware.com/res...ry=server&productid=37706)
Zie ook: http://www.supermicro.com...S_Certification_Intel.cfm
Hoe zit het nou?
Betekend dit dat je vanaf ESXi 5.1 de RAID functie wél kan gebruiken?
Je de controller op AHCI moet zetten en je dus allemaal losse schijven in ESXi krijgt?
Of dat je de controller in z'n geheel niet kan gebruiken en je dus met 10 nutteloze SATA poorten zit.
Een andere optie is om een (cheaper) moederbord zonder onboard sas controller te nemen en deze te voorzien van een losse raidkaart (bijv de M1015).
Wat wil je precies gaan inrichten in ESXi?
[ Voor 40% gewijzigd door FREAKJAM op 09-01-2015 01:06 ]
is everything cool?
ESXi zelf is maar 400MB. Je hebt het nu over het introduceren van een applicatie die even groot is.ppl schreef op donderdag 08 januari 2015 @ 23:04:
[...]
Er is een verschil tussen software die er hardcoded in zit en software die modulair is. Zeg maar het verschil tussen niks kunnen installeren en het kunnen installeren van VIBs.
Oftewel: what's your point?
Ze willen graag van die C# client af. Die webclient is een aardig alternatief omdat je dan niet meer van het OS afhankelijk bent. Zou je denken maar omdat het Java gebruikt moet je dat dan wel op je systeem hebben staan en ben je toch weer afhankelijk. Aangezien ze ESXi volledig in beheer hebben en deze toch al een webserver heeft is het niet raar maar slim om dit dan verder uit te breiden en hier een volwaardige interface van te maken. M.a.w. de miniscule httpd die een webpage serveert waar je weinig mee kunt (client downloaden en datastores bekijken) vervangen door een webomgeving waarmee je de ESXi doos kunt beheren. Er zijn al hacks op dit vlak.
Maar goed, misschien moet ik maar eens niet meer verder dan mijn neus lang is denken...
Ze willen ESXi juist via een API besturen omdat de core dan klein, secure, en makkelijk te onderhouden blijft... Ga je daar een volwaardige web client op draaien, introduceer je security risico's, en zal je elke keer dat er een kleine UI patch is voor de web client, al je hosts moeten updaten...
Dat kan niet handig zijn
Natuurlijk is het leuk voor ons thuisgebruikers, maar daar is ESXi niet voor bedoeld...
Ik zie veel liever dat ze een afgeslankte vorm van de vCenter server VM gratis beschikbaar maken.
Dus strip gewoon HA, DRS, (Storage) vMotion, en alle vCloud gebaseerde dingen.
Enige wat je dan kan is: Je VM's beheren, starten, en stoppen, op meerdere machines. Maar geen cluster.
Even niets...
Intel chipset poorten worden ondersteund in AHCI mode.hellbringer schreef op vrijdag 09 januari 2015 @ 00:11:
Hoe zit het nou?
Betekend dit dat je vanaf ESXi 5.1 de RAID functie wél kan gebruiken?
Je de controller op AHCI moet zetten en je dus allemaal losse schijven in ESXi krijgt?
Of dat je de controller in z'n geheel niet kan gebruiken en je dus met 10 nutteloze SATA poorten zit.
De aanwezige (software) RAID oplossingen werken niet. Je ziet enkel de losse schijven en geen arrays.
de gratis Linux vcenter vcenter-vm?FireDrunk schreef op vrijdag 09 januari 2015 @ 06:42:
[...]
ESXi zelf is maar 400MB. Je hebt het nu over het introduceren van een applicatie die even groot is.
Ze willen ESXi juist via een API besturen omdat de core dan klein, secure, en makkelijk te onderhouden blijft... Ga je daar een volwaardige web client op draaien, introduceer je security risico's, en zal je elke keer dat er een kleine UI patch is voor de web client, al je hosts moeten updaten...
Dat kan niet handig zijn
Natuurlijk is het leuk voor ons thuisgebruikers, maar daar is ESXi niet voor bedoeld...
Ik zie veel liever dat ze een afgeslankte vorm van de vCenter server VM gratis beschikbaar maken.
Dus strip gewoon HA, DRS, (Storage) vMotion, en alle vCloud gebaseerde dingen.
Enige wat je dan kan is: Je VM's beheren, starten, en stoppen, op meerdere machines. Maar geen cluster.
Even niets...
Dat de API's geblokkeerd zijn heeft ook als gevolg dat er geen management alternatieven zijn. Ook VMware eigen tools als PowerCLI en andere tools die API's gebruiken krijgen hier ook geen toegang toe waardoor ook deze niet bruikbaar zijn.
Alternatief kun je als je bij een VMware Partner werkt gebruik maken van NFR's of 60 dagen demo licenties (worden gerenewed voor ze aflopen).
I Don't Know, So Don't Shoot Me
Even niets...
Tijden veranderenFireDrunk schreef op vrijdag 09 januari 2015 @ 06:42:
ESXi zelf is maar 400MB. Je hebt het nu over het introduceren van een applicatie die even groot is.
Ze willen ESXi juist via een API besturen omdat de core dan klein, secure, en makkelijk te onderhouden blijft... Ga je daar een volwaardige web client op draaien, introduceer je security risico's, en zal je elke keer dat er een kleine UI patch is voor de web client, al je hosts moeten updaten...
Daarnaast speelt ook dat niet-Windows support vandaag de dag heel wat belangrijker is dan een paar jaar geleden. Je kunt nu niet meer aan komen zetten met een client die je moet installeren. Dan moet je voor heel wat platformen clients gaan maken en onderhouden met alle security en overige issues en risico's van dien. Dan heb je dus veel liever 1 client die ergens centraal staat waar alle OS's mee overweg kunnen zolang ze maar een webbrowser hebben. Door alle aandacht op 1 client te vestigen kun je een hogere kwaliteit neerzetten en dus ook een betere security creëren.
Je argument van de patch is een hele mooie want dat laat zien dat security staat en valt met de beheerder en niet met de client software zelf. Als je er voor kiest om ze niet op al je hosts te installeren, tja... De rest van je relaas over security issues is net zo hard van toepassing op de API's en ieder andere mogelijkheid om ESXi te beheren. Laten we vooral niet de naïviteit hebben dat een losse client veiliger is dan een ingebouwde client want dat is pertinent onjuist (dat komt omdat API's een feature set hebben die aansluit bij wensen en eisen van zowel de good guys als de bad guys). Vergeet hier niet dat je processen in hun eigen wereldje kunt laten draaien (sandboxing tot aan os level virtualisation aan toe).
Het leuke is dat je de huidige webserver die erop staat al kunt uitbreiden met een webinterface. Het is dus niet bepaald nieuw.
ESXi is bedoeld voor iedereen die het wil gebruiken. Je kunt het in een kleine omgeving zoals thuis, bij het klein bedrijf gebruiken maar ook bij grote ondernemingen die complete clusters hebben. VMware bedient ze allemaal. Juist voor de single hosts is een webclient aan boord handig.Natuurlijk is het leuk voor ons thuisgebruikers, maar daar is ESXi niet voor bedoeld...
Dat is onhandiger omdat het een vm is en VMware daarvoor altijd de verkeerde Linux distro neemt en dit niet tweakt. Die dingen van hun nemen behoorlijk wat resources in beslag. Het staat ook volledig haaks op je verhaal over ESXi dat "lean & mean" zou moeten zijn. Die vm's van VMware worden dan ook niet voor niets veel nagemaakt. Dan liever zo'n losse client. Ik denk alleen niet dat we voorlopig iets anders gaan zien dan wat we nu al hebben. Wie dus een single ESXi host heeft zit aan de C# client en wie een mooie vSphere + vCenter license heeft kan aan de webinterface.Ik zie veel liever dat ze een afgeslankte vorm van de vCenter server VM gratis beschikbaar maken.
Dus strip gewoon HA, DRS, (Storage) vMotion, en alle vCloud gebaseerde dingen.
Enige wat je dan kan is: Je VM's beheren, starten, en stoppen, op meerdere machines. Maar geen cluster.
1) Ik ken geen enkele grote enterprise (waar het geld zit) die tegen VMware heeft gezegd, nee, we kiezen geen vmware omdat er geen linux client support is.
2) Als ESXi zo 'slecht' is, waarom is Windows daarna dan met een Core versie gekomen?
3) API's zijn zeker wel veiliger dan volwaardige clients. Er zijn afgebakende features, die door elk platform (Web / direct / XML / Clients) op dezelfde manier gebruikt worden. Die zijn dus proven en tested... Maar goed, dat is een nutteloze discussie voor hier...
4) ESXi is *niet* bedoeld voor iedereen... VMware verkoopt het aan iedereen maar heeft een keiharde HCL. Jij zegt, ja uh, ze verkopen ook aan particulieren. Vast, maar dat wil nog niet zeggen dat de ontwikkelaars voor thuisgebruikers features moeten maken. Anders konden we wel VM's vanaf USB draaien.
VMware maakt expliciet geen features speciaal voor thuisgebruikers... Het is gewoonweg niet bedoeld voor thuisgebruik. Simple as that.
Een Linux Distro is nooit goed of slecht, die dienen een doel. Er is niets mis met SuSe als host OS voor vCenter. Dat jij een andere voorkeur hebt, zegt niets over of een Distro goed of slecht is.
Ik lees in jou complete post alleen maar rants waarin jouw mening over wat goed en slecht is de wereld voor VMware zou moeten bepalen... Beetje rare reactie
Lees de blogs van Duncan Epping, Cormac Hogan, en William Lam maar eens, en lees maar eens tussen de regels wat de doelstellingen en problemen zijn waar VMware zich mee bezig houdt.
Er is ooit een hele lange uitleg geweest van VMware waarom ze voor Adobe Flex hebben gekozen bijvoorbeeld. Als je ziet dat ze daar gewoon goed over nagedacht, maar dat de techniek ze gewoon ingehaald heeft, snap je misschien een beetje meer waarom VMware niet zo snel kan veranderen.
Ik durf er best geld op in te zetten, dat ze allang met een HTML5 vervanger bezig zijn voor vCenter, maar dat dit gewoon nog 1-2 jaar op zich laat wachten, omdat het gewoon belachelijk veel werk is.
Even niets...
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.