Te Koop:24 Core Intel Upgradeset
Welk commando is dat? Lijkt op "top"?hans_lenze schreef op vrijdag 13 maart 2015 @ 14:39:
[...]
Energieverbruik. 5.5 zat op 78 Watt gemiddeld en met 6.0 doet de doos nu 62 Watt gemiddeld.
[afbeelding]
is everything cool?
edit:
Bij ESXi 5.5 moet je op "p" drukken terwijl esxitop actief is, echter zie ik bij mij geen waardes.
Even kijken of mijn power supply een power sensor heeft, maar ben dus bang van niet.
[ Voor 62% gewijzigd door FREAKJAM op 13-03-2015 16:34 ]
is everything cool?
Gewoon een heel grote verzameling snoertjes
Je kunt hem gratis 60 dagen proberen, daarna is de vCenter trial afgelopen.Compizfox schreef op vrijdag 13 maart 2015 @ 20:35:
Hoe zit het nou met die web client dan? Kun je die gratis gebruiken of moet je dan vCenter kopen?
Na die 60 dagen kun je natuurlijk een nieuwe trial installeren. Als je daarbij de Windows versie gebruikt kun je je database hergebruiken en verlies je geen configuratie of historische data. En ja, de herinstallatie kun je ook scripten.
Als het niet voor zakelijk gebruik is, is de VMUG EVALExperience een fijne mogelijkheid: http://www.vmug.com/EVALExperience.
Voor 200 dollar een jaar lang gebruik maken van een groot deel van de vSphere suite.
while (! ( succeed = try ()));
No thanks dus. Ik blijf wel lekker op ESXi 5.5, want ik kan de nieuwe features van ESXi 6 toch niet gebruiken.
Ik begin toch wel steeds minder enthousiast te worden over VMware. Thuisgebruikers naaien, GPL violations...
[ Voor 78% gewijzigd door Compizfox op 13-03-2015 20:46 ]
Gewoon een heel grote verzameling snoertjes
En ik zou wachten op een gerechtelijke uitspraak voor conclusies uit een aanklacht te trekken.
[ Voor 63% gewijzigd door |sWORDs| op 14-03-2015 01:44 ]
Te Koop:24 Core Intel Upgradeset
Ik krijg toch erg het idee dat ze mensen die geen vCenter gebruiken (thuisgebruikers) het opzettelijk moeilijk proberen te maken. Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.|sWORDs| schreef op zaterdag 14 maart 2015 @ 01:26:
Thuisgebruikers naaien? Je kunt gewoon de c client gebruiken, daarnaast krijg je gratis een product waar voor miljoenen aan ontwikkeling in gaat, ik vind het nogal ondankbaar om deze termen te gebruiken. Ook laat je het zo lijken alsof de webclient bedacht is om thuisgebruikers het leven moeilijk te maken, terwijl de webclient er gekomen is omdat dit een wens van betalende klanten was, de reactie van de zaal bij introductie was een geklap waar geen einde aan leek te komen, alsof je bij de introductie van de iPhone zat. Dat is hoe VMware voor het grootste gedeelte werkt, functies worden toegevoegd op klant wens. Het is dus specifiek voor vCenter gebruikers en natuurlijk ligt de focus daar en niet bij thuisgebruikers, wat niet wil zeggen dat daar niet ook eens naar gekeken gaat worden, maar gezien de populariteit van de webclient bij thuisgebruikers misschien ook wel niet. En er is niets aan de c client gedaan om functionaliteit te beperken, er wordt alleen geen nieuwe functionaliteit toegevoegd.
Ik vind het prima dat ze over willen op het webclient hoor, maar het probleem is dat de webclient niet te gebruiken is zonder honderden euro's per jaar neer te leggen voor het betaalde pakket.
Dat vind ik gewoon jammer.
Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
Volgens mij is dit wel duidelijk genoeg. Software Freedom Conservancy is al sinds 2012 bezig om met VMware te onderhandelen over het probleem. VMware wil blijkbaar niet meewerken:En ik zou wachten op een gerechtelijke uitspraak voor conclusies uit een aanklacht te trekken.
De violation zelf is ook zo duidelijk als maar kan: VMware heeft delen van Linux (onder GPL) samen met hun eigen propiertary code gestopt in wat zij vmkernel noemen. Als je GPL-software combineert met je eigen software tot één nieuw programma moet je dat gecombineerde werk ook onder de GPL uitgeven. Dat hebben ze overduidelijk niet gedaan en ze hebben zelf letterlijk toegegeven dat ook niet willen gaan doen.During Hellwig's investigations, Conservancy continued to negotiate with VMware. Sadly, VMware's legal counsel finally informed Conservancy in 2014 that VMware had no intention of ceasing their distribution of proprietary-licensed works derived from Hellwig's and other kernel developers' copyrights, despite the terms of GPLv2.
VMware heeft geen schijn van kans om dit te winnen.
Gewoon een heel grote verzameling snoertjes
Het onderhouden van twee clients is werk waar ze niet op zitten te wachten, het doel is een perfecte webclient en het zou mij niet verbazen als daar een versie van komt met de gratis features die gewoon op de host draait.Compizfox schreef op zaterdag 14 maart 2015 @ 02:10:
[...]
Ik krijg toch erg het idee dat ze mensen die geen vCenter gebruiken (thuisgebruikers) het opzettelijk moeilijk proberen te maken. Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.
Ik vind het prima dat ze over willen op het webclient hoor, maar het probleem is dat de webclient niet te gebruiken is zonder honderden euro's per jaar neer te leggen voor het betaalde pakket.
Dat vind ik gewoon jammer.
Bedenk ook hier de zakelijke kant, voor PXE boot is het belangrijk dat de images zo klein mogelijk zijn. En het is nog steeds mogelijk via community drivers en custom iso's, iets wat ze zo hadden kunnen blokkeren.Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
Inhoudelijk mag ik hier niets overzeggen, mijn opmerking was over aanklachten in het algemeen.Volgens mij is dit wel duidelijk genoeg.
Te Koop:24 Core Intel Upgradeset
Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?
Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.
Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB.
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?
Mijn budget is 500 euro per node en voor de NAS 1000.
Wat zouden jullie kiezen?
[ Voor 31% gewijzigd door FireStarter op 14-03-2015 12:26 ]
w00t
Ik zou de NAS ook virtualiseren met ZFS en dan HBA doorgeven doormiddel van vt-d, dat vind ik persoonlijk leuker om mee te spelen dan een Synology, eventueel kan je ook virtuele synology gaan doen met xpenology, dat gebruik ik zelf met RDM en werkt prima, haal qua snelheden met hybrid raid zo'n 280MB/s met 3x3TB Hitachti Ultrstar 7k4000. Dus inplaats van drie nodes en een nas, alleen drie nodes waarvan één wat meer power heeft. Dit kan qua budget misschien nog wat beter uitpakken...FireStarter schreef op zaterdag 14 maart 2015 @ 12:21:
Ik volg dit draadje nu al een tijdje maar ik heb nog geen vergelijkbare vraag gezien.
Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?
Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.
Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB.
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?
Mijn budget is 500 euro per node en voor de NAS 1000.
Wat zouden jullie kiezen?
Als je tijd hebt, zou ik wachten tot Skylake want dan kan je met DDR4 modules makkelijker naar de 32/64GB gaan.
Of je zou voor een single host met lokale storage kunnen gaan, over een paar weken zou je een D-1540 met 128GB mem moeten kunnen aanschaffen.
Die onderste is best een grappige optie. Je zou dan 3 virtuele hosts kunnen nesten. 3 x 8 vCPU's en 40GB vRAM en dan nog een dual core met 4GB voor een virtuele NAS met passthrough. Virtuele ESXI's via iSCSI aan de virtuele NAS.
Anders kom je bij iets zoals mijn setup, maar dan met iets goedkopere componenten en drie hosts ipv 2:
|sWORDs| schreef op zaterdag 02 augustus 2014 @ 12:07:
Ik heb zojuist het volgende besteld:
2 Intel Xeon E3-1240L v3
2 SuperMicro Mainboard X10SLH-F Bulk
2 SuperMicro CSE-731I-300B Case
2 SuperMicro SNK-P0046A4 Fan
2 Crucial MX100, 128GB
8 Crucial 8GB DDR3 1600MHz ECC 1.35v
Ook zijn er drie Intel I340 Quad Gbit nic's onderweg (op Ebay 3 nieuwe voor de prijs van een enkele hier), en heb ik al een Cisco SRW2024 light managed switch en QNAP TS-870 (met 16GB, een 3770T, 6x2TB, 2x 512GB SSD) die VAAI ondersteuning heeft en waarop ook VM's via QEMU kunnen draaien (Denk dat ik hier de AD, KMS en vCenter op zet). De MX100's zijn voor boot only, maar op het totaal maakte het zo weinig verschil met USB dat ik maar voor iets gekozen heb waar ik alle kanten nog mee op kan.
Ik denk dat het geheel vrij zuinig zal zijn; CPU in de NAS heeft een 45 Watt TDP, de ESXi's 25 Watt.
Wat het labje moet gaan draaien is de backend (AD, KMS, SQL, WDS + MDT, SCCM, WSUS, RDS, vCenter, Horizon, Mirage) en wat View machines, maar ook nog wat speelruimte voor meer (of met een extra ESXi host) MS, Linux of VMware zaken/machines in de toekomst.
Ook wil ik misschien in de toekomst nog eens kijken naar 2 HP 530T dual 10Gbit port nic's en een Qnap dual 10Gbit port nic, samen met een Netgear XS712T 12 port light managed 10Gbit switch.
[ Voor 139% gewijzigd door |sWORDs| op 14-03-2015 16:01 ]
Te Koop:24 Core Intel Upgradeset
Dat zou perfect zijn|sWORDs| schreef op zaterdag 14 maart 2015 @ 10:30:
[...]
Het onderhouden van twee clients is werk waar ze niet op zitten te wachten, het doel is een perfecte webclient en het zou mij niet verbazen als daar een versie van komt met de gratis features die gewoon op de host draait.
Gewoon een heel grote verzameling snoertjes
Dat is met versie 6 nog steeds zo. Op de commandline kun je de .vmx bewerken en als je met VMware Fusion en/of Workstation verbinding maakt met de ESXi doos is het ook geen probleem; kun je het via deze "clients" aanpassen. Fusion en Workstation zijn nou juist stukken software die thuisgebruikers redelijk vaak gebruiken (velen lijken er mee te beginnen en dan op te schalen naar een dedicated doos met ESXi).Compizfox schreef op zaterdag 14 maart 2015 @ 02:10:
Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.
Die webclient hebben ze tijdens de beta gebruikt voor de gratis vSphere versie maar later is besloten om nog even de oude C# client aan te houden. Dat stemt hoopvol, er is kennelijk wat meer werk nodig om een goed werkende webclient te krijgen (rewrite in HTML5 zonder al dat gedoe met Java en Flash bijv.....hoop doet leven...).
Ze doen ook het omgekeerde. Ik kwam erachter dat ESXi 6 de net-e1000e versie 2.5.4 gebruikt voor de Intel nics en met deze driver nu ook de 82579LM ondersteund. Voor versie 6 moest je dit met een community driver doen, nu is ie officieel ondersteund!Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
Zo eenvoudig ligt het niet. VMware heeft wel degelijk kans om het te winnen. Het probleem is namelijk dat de GPL een lastige licentie is en tot dusver alleen nog maar in Duitsland juridisch sterk staat. De rechtszaak dient daar ook en zal dan ook alleen geldig zijn in Duitsland (of het ook voor de EU geldt is zeer complex, daar zijn aardig wat regels voor). Buiten dat moet ook bewezen worden dat VMware inderdaad GPL code in die vmkernel gebruikt.Volgens mij is dit wel duidelijk genoeg. Software Freedom Conservancy is al sinds 2012 bezig om met VMware te onderhandelen over het probleem. VMware wil blijkbaar niet meewerken:
8<
VMware heeft geen schijn van kans om dit te winnen.
128 GB ddr4 mem is wel nog vrij prijzig. Ik denk dat ik zo over de 2500 euro heen ga als ik ook het systeem mooi af configureer.
En dan met vsan een disk pool van ssd/hdd maken? Wat is genoeg? 3x 250 gB ssd en 3x 3 TB?
Wat draai je dan native op die bak? Gewoon esx of Windows?
Wat trouwens ook een vereiste is, is dat het systeem in de meterkast moet kunnen draaien. Het moet dus energiezuinig zijn en weinig warmte produceren. Het is een kleine meterkast. Ik vraag me af of die xeon met alles erop en eraan nog steeds voldoet.
Voordeel bij deze optie is wel dat je niet hoeft te investeren in een snel netwerk voor je Storage. Alles virtueel, en met 3 virtuele esxi servers met nsx controllers kan ik mooi veel segmenten aanmaken.
Daar is die bak in ieder geval ook voor bedoeld
|sWORDs| schreef op zaterdag 14 maart 2015 @ 15:05:
Ik zou voor VSAN gaan ipv nas. Dan kun je altijd nog een virtuele nas draaien op de VSAN storage. (Voor services buiten je cluster)
Of je zou voor een single host met lokale storage kunnen gaan, over een paar weken zou je een D-1540 met 128GB mem moeten kunnen aanschaffen.
Die onderste is best een grappige optie. Je zou dan 3 virtuele hosts kunnen nesten. 3 x 8 vCPU's en 40GB vRAM en dan nog een dual core met 4GB voor een virtuele NAS met passthrough. Virtuele ESXI's via iSCSI aan de virtuele NAS.
Anders kom je bij iets zoals mijn setup, maar dan met iets goedkopere componenten en drie hosts ipv 2:
[...]
w00t
Native ESXi is de meest logische keuze voor de echte host, beste virtuele netwerk en beste werking voor nested ESXi. Je zou als je met VSAN wil spelen ook VSAN virtueel kunnen doen, je geeft de virtuele hosts gewoon vmdk's die op local storage staan (1 op een SSD, 1 op een spinning, of zelfs alles op flash en die ook correct taggen) en maakt daar een VSAN van. Wel even de fling voor mac detectie installeren, anders gaan alle frames naar alles.
Er zijn heel veel opties mogelijk, je kunt op CPU over-committen in de virtuele hosts of op de fysieke host, je kunt drie of vier virtuele hosts maken. Je kunt ook ipv VSAN een NAS draaien op de echte host en die gebruiken met iSCSI of NFS, de mogelijkheden zijn eindeloos en in tegenstelling tot fixed hardware kun je heel makkelijk de setup wijzigen indien de wensen veranderen. Natuurlijk is het geen silver bullet, je levert wel in op performance en het is iets lastiger instellen, ook zit je verder van een supported oplossing af, maar er zijn zat mensen binnen VMware die nested gebruiken, dus ik verwacht niet dat het snel niet meer werkt, daarnaast is er werk ingestopt met 6 om nested makkelijker te maken, desondanks dat het not supported is.
[ Voor 117% gewijzigd door |sWORDs| op 16-03-2015 00:12 ]
Te Koop:24 Core Intel Upgradeset
Edit: oh, echt alleen in combinatie met VSAN
[ Voor 13% gewijzigd door hans_lenze op 16-03-2015 11:39 ]
while (! ( succeed = try ()));
Dacht zal ook eens mijn ESXi box met jullie delen hieronder de lijst met hardware. Ik heb tussentijds mijn mobo nog gevangen. Dit was eerst een ASRock B85M Pro4 maar volgens mij had ik een productie fout of zo.. Want ik had tijdens reboot's dat passthrough devices soms wel en dan weer niet beschikbaar waren
Helaas verbruik ik nu wel 10Watt meer met de GigaByte(49) tegen 39 met de ASRock. Hierbij zijn dan alleen de WD Red's down gespind, de Raptop niet. Zit er nog aan te denken om een nieuwe ASRock te bestellen en te kijken of die beter werkt..
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5 4570T Boxed | € 209,90 | € 209,90 |
| 1 | ASRock B85M Pro4 | € 63,05 | € 63,05 |
| 1 | Gigabyte GA-B85M-D3H | € 63,- | € 63,- |
| 4 | WD Red SATA 6 Gb/s WD40EFRX, 4TB | € 173,95 | € 695,80 |
| 1 | WD Velociraptor WD1000DHTZ, 1TB | € 223,50 | € 223,50 |
| 1 | Fractal Design Node 804 | € 94,09 | € 94,09 |
| 2 | 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M | € 16,35 | € 32,70 |
| 1 | Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e) | € 377,30 | € 377,30 |
| 1 | Kingston ValueRAM KVR16LN11K2/16 | € 138,- | € 138,- |
| 1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 135,76 | € 135,76 |
| 1 | Seasonic G-Serie 360Watt | € 52,95 | € 52,95 |
| 1 | Crucial M550 2,5" 128GB | € 69,90 | € 69,90 |
| 1 | APC BR900GI | € 180,50 | € 180,50 |
| Bekijk collectie Importeer producten | Totaal | € 2.336,45 | |
De Intel Quad nic heb ik op ebay gehaald voor 100,- ongeveer. Naar mijn idee is het geen orginele maar een namaak.. Nonetheless hij doet het prima..
ik draai een flink aantal VM's vanaf de SSD. De raptor is via de interne HBA in combi met RDM aan me storage VM(NFSi) gekoppeld, de controller via Passthrough. De WD 4TB Red's zijn aangesloten op de controller.
Dit leverd met een soort van hot/cold storage idee op.. Dit heb ik gedaan ivm dat mijn storage vm een timecapsule aanbied voor me MBP Retina. Deze is nogal van het ik wil elke zo veel min even een backup proberen. Zou ik dat op de 4TB's draaien zouden die feitelijk nooit downspinnen. Vandaar dat ik de raptor heb die daar tussen zit.
Ben nog redelijk wat aan het knutselen met de verschillende VM's zal kijken dat ik tzt misschien een tekeningtje post..
EDIT:
Idle 49watt / WD Red's (Active no load) 64watt / Load 72watt (gemeten op de APC.)
[ Voor 0% gewijzigd door TheSec op 18-03-2015 11:12 . Reden: extra verbruik info ]
Niet schieten is altijd mis ;)
De controller hangt neem ik aan ook aan je Storage VM?TheSec schreef op woensdag 18 maart 2015 @ 11:01:
ik draai een flink aantal VM's vanaf de SSD. De raptor is via de interne HBA in combi met RDM aan me storage VM(NFSi) gekoppeld, de controller via Passthrough. De WD 4TB Red's zijn aangesloten op de controller.
Dit levert met een soort van hot/cold storage idee op.. Dit heb ik gedaan ivm dat mijn storage vm een timecapsule aanbied voor me MBP Retina. Deze is nogal van het ik wil elke zo veel min even een backup proberen. Zou ik dat op de 4TB's draaien zouden die feitelijk nooit downspinnen. Vandaar dat ik de raptor heb die daar tussen zit.
Ben nog redelijk wat aan het knutselen met de verschillende VM's zal kijken dat ik tzt misschien een tekeningtje post..
EDIT:
Idle 49watt / WD Red's (Active no load) 64watt / Load 72watt (gemeten op de APC.)
Interessant concept.
Battle.net: NagaByrd#2844
En voordat iedereen gaat zeggen; de ibm m1015!! deze kaart is niet makkelijk meer te vinden, of je betaalt gelijk een hoofdprijs
als er een goedkope 2/3 poort sata kaart is die onder esxi werkt ben ik ook al blij, dan stuur ik de interne kaart door naar freenas. Ik heb dat al eens geprobeert mt een 5 euro pci kaartje (Sil3112act144 staat op de chip) maar dat werkt niet.
(belangrijk, om te weten welke controller werkt en welke niet, niet alle cheape controllers pikken > 4TB)
Overigens is er een upgrade voor de M1015, namelijk de M1115.
http://www.ebay.com/itm/I...ain_0&hash=item3cf11ebca9
[ Voor 41% gewijzigd door FireDrunk op 19-03-2015 11:27 ]
Even niets...
de 2 tot 3 poorten zijn dan alleen voor de datastore van freenas VM, de interne 5 poort-controller stuur ik dan door naar de VM voor de 10tb schijven (4x3tb raidz)FireDrunk schreef op donderdag 19 maart 2015 @ 11:26:
2-3 poorten en je hebt 10TB? Heb je 2* 6TB schijven?
(belangrijk, om te weten welke controller werkt en welke niet, niet alle cheape controllers pikken > 4TB)
Overigens is er een upgrade voor de M1015, namelijk de M1115.
http://www.ebay.com/itm/I...ain_0&hash=item3cf11ebca9
die m1115 was ik inderdaad al tegen gekomen, maar import vanuit usa, betaal je dan niet blauw aan de douane kosten etc,..? dan wordt de 1015 weer interresant nl..
[ Voor 10% gewijzigd door Kek op 19-03-2015 11:35 ]
Je kan voor 10 euro via ebay al een ASM1062 krijgen met PCIe x1 aansluiting.
Even niets...
Even niets...
In 't kort: Onboard Intel SATA door steken is verlies van alle onboard SATA controllers (been there done it, got no t-shirt:( ).FireDrunk schreef op donderdag 19 maart 2015 @ 11:40:
Ahzo, mja, ik zou inzetten op een ASMedia controllertje, maar er zijn nogal wat known issues met het doorgeven van een onboard controller en dat met dat bord, de asmedia niet meer werkt..
Je kan voor 10 euro via ebay al een ASM1062 krijgen met PCIe x1 aansluiting.
De ASM laat zich wel doorgeven richting een VM.
.
Klopt, cross flashen a la de IBM M1015 met de 9211 IT firmware en gaan met die kaart.FireDrunk schreef op donderdag 19 maart 2015 @ 11:46:
Voor zover ik weet wel ja. M1115 is ook gewoon een LSI SAS2008 based controller, dus dezelfde tools zouden moeten werken.
Het doorsteken van een M1015 of een Dell H310 (beide IT firmware) in ESXi met dit moederbord is geen probleem, draait thuis probleemloos.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
nu nog de vraag waarom esxi 5.5 niet alle onboard kaarten/schijven ziet (die gaan niet doorgestoken worden)
Geen driver ondersteuning is mijn gok. Dit blog is wat dat betreft wel handig.Kek schreef op donderdag 19 maart 2015 @ 12:41:
net de M1115 besteld voor 95 euro, die gaat mooi naar de freenas VM door
nu nog de vraag waarom esxi 5.5 niet alle onboard kaarten/schijven ziet (die gaan niet doorgestoken worden)
http://www.v-front.de/201...ported-sata-ahci.html?m=1
[ Voor 15% gewijzigd door Pantagruel op 19-03-2015 12:48 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
zo te zien inderdaad, Dit lijkt dat op te lossen
Ofcnagasy schreef op woensdag 18 maart 2015 @ 15:17:
[...]
De controller hangt neem ik aan ook aan je Storage VM?
Interessant concept.
Bijkomend voordeel dat ik met de raptor gewoon mijn lijn(1Gb/s) al dicht trek dus had ik ook voor langzamer (cold storage) disks kunnen kiezen.
Heeft er iemand toevallig Transmission over NFS draaien. Bij mijn trekt hij me hele NFS naar de maan
Niet schieten is altijd mis ;)
Transmission over nfs, ik denk dat dat niet lekker loopt omdat torrents wel wat iops gebruiken.. wat ik zou doen is alles eerst lokaal binnen halen en een scripte die de boel copied naar je NFS zodra de torrent klaar is.TheSec schreef op donderdag 19 maart 2015 @ 17:10:
[...]
Ofc![]()
Bijkomend voordeel dat ik met de raptor gewoon mijn lijn(1Gb/s) al dicht trek dus had ik ook voor langzamer (cold storage) disks kunnen kiezen.
Heeft er iemand toevallig Transmission over NFS draaien. Bij mijn trekt hij me hele NFS naar de maanzelfs zo hard dat na 3min het OS op de download vm begint te zeuren dat transmission hangt
of zou dat aan me verbinding liggen.. Boven de 20MB/s zijn geen rare snelheden voor mij.. (2 VMs Storage en Download over NFS verbonden.)
alleen nu kunnen de plugins niet meer gevonden worden via de browser, ze krijgen een ip maar kan ze niet bereiken... iemand enig idee (de freenas NIC is veranders omdat deze nu in esxi zit)
Ja zat ik ook al aan te denken maar helaas is mijn SSD niet zo groot. en gezien ik vaak torrents van +50GB binnen haal meerdere tegelijk... kan ik moeilijk dat lokaal even kwijtKek schreef op donderdag 19 maart 2015 @ 17:42:
[...]
Transmission over nfs, ik denk dat dat niet lekker loopt omdat torrents wel wat iops gebruiken.. wat ik zou doen is alles eerst lokaal binnen halen en een scripte die de boel copied naar je NFS zodra de torrent klaar is.
UPDATE:
Transmission leent zich der niet voor over NFS.. De snelheid van NFS is opzich genoeg, helaas als ik de cache van Transmission vergroot(zorgt voor minder iops) dan crashed de daemon.. Heb hem nou op me storage VM geinstalleerd. werkt ook.. al hou ik meer van het compartimenteren van applicaties..
[ Voor 20% gewijzigd door TheSec op 21-03-2015 20:57 ]
Niet schieten is altijd mis ;)
Ik wil de volgende ESXi-machine gaan bestellen:
| # | Product | Prijs | Subtotaal |
| 1 | ASRock C2750D4I | € 399,- | € 399,- |
| 1 | Fractal Design Node 304 Zwart | € 67,95 | € 67,95 |
| 4 | Kingston ValueRAM KVR16N11H/8 | € 59,95 | € 239,80 |
| 1 | Seasonic G-series 360 watt | € 58,95 | € 58,95 |
| 1 | Samsung 840 EVO 250GB | € 111,37 | € 111,37 |
| Bekijk collectie Importeer producten | Totaal | € 877,07 | |
Doel wordt vooral lab voor onder andere VMware NSX en Docker etc. Acht logical cores plus 32GB geheugen lijkt me genoeg.
Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.
Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.
Hieronder wat de NUCs kosten in dezelfde configuratie:
| # | Product | Prijs | Subtotaal |
| 2 | Intel NUC5i3RYH | € 271,50 | € 543,- |
| 2 | Corsair Vengeance CMSX16GX3M2B1600C9 | € 134,50 | € 269,- |
| 1 | Samsung 840 EVO 250GB | € 111,37 | € 111,37 |
| Bekijk collectie Importeer producten | Totaal | € 923,37 | |
[ Voor 22% gewijzigd door yeehaw op 24-03-2015 21:13 ]
Geen ervaring met NSX nog docker dus over de specs kan ik weinig zeggen al ziet het er niet slecht uit. Zou wel raar opkijken als dit niet genoeg zou zijnyeehaw schreef op dinsdag 24 maart 2015 @ 21:06:
Eventjes een sanity-check.
Ik wil de volgende ESXi-machine gaan bestellen:
# Product Prijs Subtotaal 1 ASRock C2750D4I € 399,- € 399,- 1 Fractal Design Node 304 Zwart € 67,95 € 67,95 4 Kingston ValueRAM KVR16N11H/8 € 59,95 € 239,80 1 Seasonic G-series 360 watt € 58,95 € 58,95 1 Samsung 840 EVO 250GB € 111,37 € 111,37 Bekijk collectie
Importeer productenTotaal € 877,07
Doel wordt vooral lab voor onder andere VMware NSX en Docker etc. Acht logical cores plus 32GB geheugen lijkt me genoeg.
Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.
Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.
Hieronder wat de NUCs kosten in dezelfde configuratie:
# Product Prijs Subtotaal 2 Intel NUC5i3RYH € 271,50 € 543,- 2 Corsair Vengeance CMSX16GX3M2B1600C9 € 134,50 € 269,- 1 Samsung 840 EVO 250GB € 111,37 € 111,37 Bekijk collectie
Importeer productenTotaal € 923,37
Niet schieten is altijd mis ;)
Te Koop:24 Core Intel Upgradeset
Dan kan je dus 15 VM's tegelijkertijd in gebruik hebben...
Dat is best wel veel...
Even niets...
Wat wil je er mee gaan doen.yeehaw schreef op woensdag 25 maart 2015 @ 10:06:
zit me meer af te vragen of die atoms snel genoeg zijn.
Ik snap dat voor de mensen die hier de gratis versie van ESXi voor thuis gebruiken 64GB als een gigantische hoeveelheid geheugen zal lijken. Maar als je thuis een lab wil bouwen om enterprise zaken te leren dan is het helemaal niets. De management componenten nemen dit al in gebruik, tenzij je maar een klein stukje van de stack gaat gebruiken. Ik kom maar net uit met 80GB (paar vm's op NAS met 16GB en 2 32GB hosts) en ga denk ik mijn lab vervangen door 2 hosts met 128GB. Voor een enterprise is de management overhead vrijwel niets, omdat ze honderd+ hosts hebben, voor een lab thuis is de management overhead gigantisch.FireDrunk schreef op woensdag 25 maart 2015 @ 09:42:
64GB te weinig? Voor wat? Zelfs voor een gigantisch thuis testnetwerk is dat genoeg... ESXi doet transparant page sharing, dus je kan al vrij snel elke Windows based VM met 'maar' 4GB geheugen uitrusten.
Dan kan je dus 15 VM's tegelijkertijd in gebruik hebben...
Dat is best wel veel...
In jouw geval is de management overhead 1-2GB, bij mij 64GB.
TPS is een onderwerp voor een andere keer, maar in het kort helpt het een stuk minder dan het ooit deed en zijn de meeste management componenten Linux VM's waarbij het meeste geheugen naar Java heaps en databases gaat.
Het probleem is dat de meeste mensen naar de multithreaded performance kijken. Echter zijn er nog zoveel zaken die single threaded draaien en daar zit het probleem. Dit is de hoofdreden waarom ik niet van atoms hou, single threaded 3-4x langzamer. (Zelfs nog 3x langzamer ten opzichte van mijn low voltage 2GHz 1240L v3's die wel een 3GHz turbo hebben.)yeehaw schreef op woensdag 25 maart 2015 @ 12:00:
10-15 vms draaien ongeveer. Als ik zo lees is de atom soc ongeveer een halve E3-1220v3. Ik denk niet dat ik veel cpu power nodig heb, maar ik weet niet of dit gewoon wat linux en incidenteel wat Windows vms prima kan draaien.
Nogmaals, als jouw use case geen CPU power vereist dan is het een goedkope en goede manier om veel geheugen te hebben. Maar voor je koopt wil je dit eigenlijk weten en ook goed nadenken over wat je in de toekomst nog wil. Eigenlijk een beetje zoals ik er nu mee zit. Ik kom geheugen te kort, dat had ik liever voor de aankoop geweten omdat de boel nu waarschijnlijk met flink verlies V en A in zal gaan. In mijn geval komt het door dat ik niet had verwacht dat ik de rest van de stack ook zou gaan gebruiken.
[ Voor 57% gewijzigd door |sWORDs| op 25-03-2015 12:55 ]
Te Koop:24 Core Intel Upgradeset
Had tevens ook een i350-T4 uit China, want is lekker zuinig, nieuwe firmware erop gezet werkt prima, lijkt helemaal origineel Intel te zijn. Krijg hem alleen niet meer uit het moederbord, zit helemaal klem
[ Voor 58% gewijzigd door |sWORDs| op 25-03-2015 13:34 ]
Te Koop:24 Core Intel Upgradeset
Wat is incidenteel? Draaien die 10-15VM's continue en wat is de vermoedelijke werklast? Als je er 'flink' mee aan de gang wilt, zou ik niet aan een C2750D4I aanraden maar iets snellers (ik heb er een namelijk).yeehaw schreef op woensdag 25 maart 2015 @ 12:00:
10-15 vms draaien ongeveer. Als ik zo lees is de atom soc ongeveer een halve E3-1220v3. Ik denk niet dat ik veel cpu power nodig heb, maar ik weet niet of dit gewoon wat linux en incidenteel wat Windows vms prima kan draaien.
Te Koop:24 Core Intel Upgradeset
Bottleneck? Ik denk niet dat dat het juiste woord is. Maar zoals hier al gezegd; het is niet de snelste in topsnelheid. Je moet het ding meer zien als stevige diesel die gewoon lekker door stampt.yeehaw schreef op woensdag 25 maart 2015 @ 14:24:
Ok, kan je aangeven waarmee jij een bottleneck hebt?
Want werken doet ie prima. Ik heb er nu 4 VM's opdraaien (in Hyper-V). Win8.1, Win10, Win2012R2 en Win2015. Workload is niet hoog. Kan in de toekomst veranderen, maar op dit moment niet meer nodig
Je gaat zo'n enorme spijt krijgen van VFRC! Dat is echt een minder fijn product. Als je graag je workloads wat wilt versnellen kun je beter een single node VSAN cluster of iets met PernixData doen. vSphere 6 heeft ook een complete API voor storage caching en buffering dus er zullen de komende maanden wel meer van dit soort producten aankomen (weet in elk geval dat er één van SANdisk aankomt)yeehaw schreef op dinsdag 24 maart 2015 @ 21:06:
Eventjes een sanity-check.
Ik wil de volgende ESXi-machine gaan bestellen:
[knip]
Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.
Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.
[knip]
while (! ( succeed = try ()));
1100+ voor moederbord (bevat ook CPU en 10Gbe) en het geheugen is 2400+ voor 128GB...yeehaw schreef op woensdag 25 maart 2015 @ 20:31:
True, misschien wacht ik wel even om te zien of die nog goedkoper worden dan 800 euro voor alleen het moederbord.
Het bord zakt na lange tijd vast naar 900, maar ik denk dat het geheugen flink gaat dalen. Maakt de D nu eigenlijk niet interessant, met een beetje pech is bovenstaande combi over een jaar de helft waard nieuw.
Misschien moet ik een avaton naast mijn huidige hosts plaatsen voor de componenten die veel mem en weinig CPU nodig hebben, of toch maar een 3e Xeon e3 host.
[ Voor 42% gewijzigd door |sWORDs| op 25-03-2015 22:44 ]
Te Koop:24 Core Intel Upgradeset
Leuk verhaal maar wel fors overdreven. Thuis heb je niet de workload zoals met enterprises en kun je heel veel zaken zelfs onder de minimum systeem vereisten draaien. Ook wanneer dit Windows betreft. Die ervaringen zijn er alom. Zat mensen die complete enterprise setups draaien met een gevirtualiseerde vSphere omgeving in Workstation/Fusion op hun notebook die hoogstens 16GB aan geheugen heeft. Als je echt hele leuke dingen wil doen en lekker ruim in het sop wil zitten dan zal 64GB leuk zijn maar als minimum vereiste...daar zijn de praktijkervaringen niet naar.|sWORDs| schreef op woensdag 25 maart 2015 @ 12:07:
Ik snap dat voor de mensen die hier de gratis versie van ESXi voor thuis gebruiken 64GB als een gigantische hoeveelheid geheugen zal lijken. Maar als je thuis een lab wil bouwen om enterprise zaken te leren dan is het helemaal niets.
Je zult verstelt staan hoeveel zaken al prima draaien met maar 256MB aan geheugen.
Daar zou ik dan ook eerder naar kijken. Hyperthreading is ook allemaal leuk en aardig maar zo heel erg veel voegt dat qua snelheid en mogelijkheden ook niet toe. Het maakt je hardware alleen iets efficiënter.Het probleem is dat de meeste mensen naar de multithreaded performance kijken. Echter zijn er nog zoveel zaken die single threaded draaien en daar zit het probleem. Dit is de hoofdreden waarom ik niet van atoms hou, single threaded 3-4x langzamer. (Zelfs nog 3x langzamer ten opzichte van mijn low voltage 2GHz 1240L v3's die wel een 3GHz turbo hebben.)
Allemaal heel logisch en toch vergeten veel mensen dat te doen. Tja, je kunt niet aan alles denken. Het helpt in dit geval ook als je wat specifieker bent wat je met Docker en NSX van plan bent en welke verwachtingen je daarbij hebt. Voor hetzelfde geldt liggen die zo hoog dat je niet met 64GB uit komt of juist zo laag dat 32GB al voldoende is.Maar voor je koopt wil je dit eigenlijk weten en ook goed nadenken over wat je in de toekomst nog wil.
Doe maar eens een 3x kernel+DC+VCSA+View+Workspace+NSX+vSAN+AppVolumes+Mirage+vRealize (De EUC stack)
[ Voor 49% gewijzigd door |sWORDs| op 26-03-2015 00:08 ]
Te Koop:24 Core Intel Upgradeset
Even niets...
3GB voor 3x kernel
2GB voor DC
8GB voor VCSA
8GB voor View (4+4, 10+8 aanbevolen)
2GB voor VUM
6GB voor Workspace
20GB voor NSX (3x4+8)
4GB voor vSAN
4GB voor AppVolumes
8GB voor vRealize
16GB voor Mirage (8+8)
____________________+
73GB
En daar kun je her en der wat vanaf halen, maar je moet ook nog wat VM's kunnen deployen met View en een terminal server draaien. Gelukkig kan Mirage uit als ik er niet mee bezig ben.
Vandaar dat ik dus zeg dat in mijn geval 80GB niet echt ruim is en 64GB gewoon te krap is en dan moet ik eigenlijk ook nog met vGPU en DaaS aan de slag.
[ Voor 95% gewijzigd door |sWORDs| op 26-03-2015 10:28 ]
Te Koop:24 Core Intel Upgradeset
Nu kan ik met Vsphere client wel verbinden naar de ESXi server maar met vcenter 5.5 waar wij alle ESXi server hebben toegevoegd staan, geeft hij bij de 6.0 disconnected aan.
Heeft dit te maken met de vsphere server versie? Nog meer mensen die hier last van hebben?
[ Voor 7% gewijzigd door Xmoo op 26-03-2015 14:15 ]
De regel is om altijd eerst vcenter te upgraden naar 6.0, en daarna pas hosts, anders krijg je dit inderdaad. Toen ik ik ging upgraden naar 5.5 heb ik eerst gelezen in de upgrade guides, en daar staat altijd eerst vCenter upgraden en dan pas hosts.. Je kan wel met 5.5 vCenter een 5.0 hosts managen maar het kan niet andersom. Niemand anders zal er last van hebben want het hoort gewoon zo.Xmoo schreef op donderdag 26 maart 2015 @ 13:54:
Heren ik heb mijn test ESXi server geupgrade van 5.5 naar 6.0.
Nu kan ik met Vsphere client wel verbinden naar de ESXi server maar met vcenter 5.5 waar wij alle ESXi server hebben toegevoegd staan, geeft hij bij de 6.0 disconnected aan.
Heeft dit te maken met de vsphere server versie? Nog meer mensen die hier last van hebben?
Gelukkig heb je dit met een test server gedaan
[ Voor 18% gewijzigd door Zenix op 26-03-2015 14:28 ]
Thank you. Gelukkig met Shift+R weer terug kunnen gaan naar 5.5Zenix schreef op donderdag 26 maart 2015 @ 14:24:
[...]
De regel is om altijd eerst vcenter te upgraden naar 6.0, en daarna pas hosts, anders krijg je dit inderdaad. Toen ik ik ging upgraden naar 5.5 heb ik eerst gelezen in de upgrade guides, en daar staat altijd eerst vCenter upgraden en dan pas hosts.. Je kan wel met 5.5 vCenter een 5.0 hosts managen maar het kan niet andersom. Niemand anders zal er last van hebben want het hoort gewoon zo.
Gelukkig heb je dit met een test server gedaan
Doe jij maar eens uitgaan van de workflow van een ander ipv je eigen als je advies aan het geven bent. Bovenstaande is absoluut NIET de definitie van een enterprise workflow, het is niet meer dan een voorbeeld uit duizenden van wat een enterprise workflow kan inhouden.|sWORDs| schreef op donderdag 26 maart 2015 @ 00:01:
[...]
Doe maar eens een 3x kernel+DC+VCSA+View+Workspace+NSX+vSAN+AppVolumes+Mirage+vRealize (De EUC stack)
Je berekening gaat wellicht op voor je eigen setup maar het zegt helemaal niets over dat van een ander. Op hardforum zijn er zat die ook enterprise setups draaien en binnen de 32GB aan geheugen blijven (vaak ook niet zo raar omdat de hardware niet meer dan dat ondersteund). Ik kan hier ook prima een complete enterprise omgeving obv Linux vm's opzetten waarbij het geheugen echt niet voorbij de 512MB per vm hoeft te komen. Niet zo heel raar want ik heb niet de workload van een enterprise in mijn lab. En zo zijn er meer enterprise lab setups te bedenken waarbij je verhaal totaal niet opgaat.
Beter om zelf even een berekening te maken van wat je vm's nodig hebben en daarbij kun je prima van de minimale systeemvereisten uit gaan. Er zijn namelijk geen vaste maatstaven voor hoeveelheid geheugen in een ESXi doos/omgeving.
[ Voor 9% gewijzigd door ppl op 26-03-2015 17:59 ]
Mogenlijk zit de discussie in het enterprise deel. Ik heb het over een enterprise virtualisatie stack bouwen voor training. Niet over het virtueel draaien van een nagebootste enterprise omgeving. Daarnaast zou je in dit topic mijn functie en werkgever kunnen vinden, laten we het er niet over hebben of mijn berekeningen van VMware stacks redelijk zijn... We hebben een intern forum voor onze home labs en hoewel er wel eens een met 48GB (3 nucs) voorbij komt is vrijwel alles 64GB+.
Maar misschien kunnen we het er over eens zijn dat we het niet eens zijn. Mij lijkt het verstandig om naar meer dan 64GB te kijken indien er later nog meer wensen bij kunnen komen. Jij vind het onzin. Vraagsteller heeft twee meningen en kan zijn eigen conclussies trekken. Iedereen blij en we kunnen het weer ergens anders over hebben.
[ Voor 87% gewijzigd door |sWORDs| op 26-03-2015 18:49 ]
Te Koop:24 Core Intel Upgradeset
Daarnaast zet je die stack op 3 hosts, 73 GB delen door 3 hosts is 24.333 GB ram, dan heb je met 32 GB in je host dus nog ruimte voor 3 VDI-sessies met ieder 2 GB ram of 7 met 1 GB (en dan heb ik het nog niet over TPS).
Ik zeg niet dat 32 GB ruim is voor een VMware-host, maar als je aangeeft dat je met 192 GB RAM in je thuis-cluster te weinig hebt (je bouwt je stack over 3 hosts en geeft aan dat 64 GB krap is. Ja, ik heb gezien dat je in werkelijkheid momenteel maar 80 GB hebt), dan snap ik ook wel dat mensen vreemd opkijken
Dat gezegd hebbend, ik heb ook 128 GB in mijn 'servertje' thuis, maar ik kon goedkoop aan het geheugen komen, anders had er waarschijnlijk maar 32 in gezeten. Als ik mijn ZFS-VM niet meetel heb ik maar 14 GB uitgegeven momenteel en dan zitten een paar VM's nog ruimer in hun jasje dan eigenlijk nodig. Moet eigenlijk weer eens mijn "Hoe zet ik zonder GRID-kaart PCoIP met vDGA of VT-d'd 3D-kaart op"-projectje verder oppakken, eens kijken of ik op mijn laptop fatsoenlijk kan gamen
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
En 4GB minimaal was met VCSA 5.x, bij 6.x is het minimaal 8GB. Misschien start hij met ietsje minder (daarom stond er ook dat er her en der vast iets af te schaven is), maar dit zijn echt de minimale opgegeven waardes.
Als antwoord op je vraag aan jezelf: Weerstanden op een Kepler kaart (zodat het een Quadro of K lijkt) en 4 vCPU's (86% snellere memory copy, 49% write, 44% read performance dan bij 2 vCPU's, een finding van nVidia maar gevalideerd door VMware) en minimaal gelijk vRAM aan videogeheugen, zorg ook dat je VMXNET3 gebruikt.
Wat verder nog belangrijk is:
PCoIP tuning (framelimitter en build to lossless uit, max initial 80%)
QoS voor PCoIP (Wel opletten dat je de juiste switches gebruikt, sommige switches worden heel traag met QoS aan, mocht je trouwens niets anders in je netwerk draaien tijdens het gamen of altijd wel 100Mbit vrij hebben op alle lijnen en switches tot aan de laptop dan kun je dit ook overslaan.)
Wired netwerk
Als je de beste experience wil zou je naar een zeroclient ipv laptop kunnen kijken.
Ik wacht nog steeds op mijn K2 (krijgen waarschijnlijk samples van nVidia). Maar ik wil binnenkort al een 4GB 680 of 770 modden naar een K2, dan heb je exact een halve K2 en als het werkt zouden de vGPU profielen ook moeten kloppen en het mogelijk moeten zijn om een K260Q, een K240Q en twee K220Q's uit te delen aan VM's. Ik hoop alleen niet dat er naast de manager ook nog iets in de BIOS moet zitten voor vGPU.
edit: Aanvullende info, thuis typen is makkelijker dan in een taxiënd vliegtuig.
[ Voor 178% gewijzigd door |sWORDs| op 29-03-2015 12:41 ]
Te Koop:24 Core Intel Upgradeset
Dus, 73GB verspreid over 3 fysieke machines. Dat is natuurlijk iets anders (en mogelijk goedkoper) dan minimaal 73GB in 1 fysieke machine. En ik denk dat de meeste hier in dit topic van het laatste uitgaan/gingen.|sWORDs| schreef op donderdag 26 maart 2015 @ 09:23:
Ik heb het over 1x die stack op 3 hosts; 73GB
32GB in 1 fysieke machine is prima betaalbaar. 64GB (met maar 4 sloten) is gelijk een boel duurder.
[ Voor 6% gewijzigd door |sWORDs| op 26-03-2015 19:50 ]
Te Koop:24 Core Intel Upgradeset
Die was ik inderdaad al aan het volgen|sWORDs| schreef op donderdag 26 maart 2015 @ 18:50:
Als antwoord op je vraag aan jezelf: Weerstanden op een Kepler kaart
</jaloers>(krijgen waarschijnlijk samples van nVidia). Maar ik wil binnenkort al een 4GB 680 of 770 modden naar een K2, dan heb je exact een halve K2
Beetje jammer dat de TDP's van die 680 en 770's niet de helft zijn van een K2, en ook idle gebruiken ze behoorlijk. In mijn lab zou de kaart 99% van de tijd idle zijn. Daarnaast speelt aanschafprijs mee. Ik ben er nog niet over uit, waarschijnlijk hebben eerst andere dingen prio
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Te Koop:24 Core Intel Upgradeset
[ Voor 22% gewijzigd door FREAKJAM op 28-03-2015 14:09 ]
is everything cool?
Hier iemand die ook onlangs heeft geupgrade naar 6.0?
Jep gespot, ben er ook mee aan het spelen.FREAKJAM schreef op zaterdag 28 maart 2015 @ 14:06:
Iemand OPNsense al gespot? Is een fork van pfSense en het lijkt erop dat dit is ontwikkeld door een aantal Nederlanders. Ik heb nu pfSense draaien in ESXi, maar dit ziet er ook wel veelbelovend uit, in ieder geval een prettigere GUi ten opzichte van pfSense. Wanneer je pfSense 2.1.5 of iets hebt draaien kun je hier een export van maken en deze gelijk in OPNsense importeren. Best jammer nu ik net pfSense 2.2.1 heb draaien
Contact gegevens:
Get in touch with us
Email : project@opnsense.org
Office address : Burgemeester Mijslaan 2, 3241XA Middelharnis, The Netherlands
Kijken dus inderdaad nederlanders achter te zitten. Misschien tijd voor een los topic?
Stukken beter dan dat gedrocht van pfSense...
Misschien binnenkort maar eens proberen...
Even niets...
Jep, mijn single host naar 6.0 gebracht.OsiriS.nl schreef op zondag 29 maart 2015 @ 18:09:
Zo, mijn VSAN clustertje is volledig geupgrade naar 6.0. Deze week maar eens wat vergelijkende benchmarks draaien.
Hier iemand die ook onlangs heeft geupgrade naar 6.0?
Any job you can do in your pajamas is not the hardest job in the world.
Ja, hier ook maar ik wilde gelijk naar het nieuwe VSAN FS zonder onzin dus eigenlijk is het nieuwbouw.OsiriS.nl schreef op zondag 29 maart 2015 @ 18:09:
Zo, mijn VSAN clustertje is volledig geupgrade naar 6.0. Deze week maar eens wat vergelijkende benchmarks draaien.
Hier iemand die ook onlangs heeft geupgrade naar 6.0?
De hele upgrade procedure gaan we later nog een keer virtueel proberen.
while (! ( succeed = try ()));
FREAKJAM schreef op zaterdag 28 maart 2015 @ 14:06:
Iemand OPNsense al gespot? Is een fork van pfSense en het lijkt erop dat dit is ontwikkeld door een aantal Nederlanders. Ik heb nu pfSense draaien in ESXi, maar dit ziet er ook wel veelbelovend uit, in ieder geval een prettigere GUi ten opzichte van pfSense. Wanneer je pfSense 2.1.5 of iets hebt draaien kun je hier een export van maken en deze gelijk in OPNsense importeren. Best jammer nu ik net pfSense 2.2.1 heb draaien
Snap niet zo goed wat dit in ESXI topic moet maargoed..
Gewoon copy-paste van pfSense 2.2 snapshot ( niet eens 2.2 final ) met een mooiere gui. Niet alle packages zoals bijvoorbeeld pfblocker zullen werken, wat voor mij de meerwaarde is van pfSense: de community. Enige reden dat ze dit hebben gedaan, zodat ze ook kunnen verdienen aan pfSense met de ondersteuning en het verkopen van appliances, dus behoorlijk commercieel. Als je ziet wat pfSense crew allemaal van plan is: https://blog.pfsense.org/?p=1588 en ook met een nieuwe GUI gaat komen, dan vind ik pfSense toch een stuk beter. pfSense heeft ook aangegeven als er goede dingen in OPNsense komen dat ze dat ook gaan gebruiken in pfSense. https://forum.pfsense.org/index.php?topic=86170.0
is everything cool?
Gewoon guide volgen en na een hele tijd is ie klaar en is alles geupdate...
Eens.Zenix schreef op maandag 30 maart 2015 @ 14:11:
[...]
offtopic:
Snap niet zo goed wat dit in ESXI topic moet maargoed..
Gewoon copy-paste van pfSense 2.2 snapshot ( niet eens 2.2 final ) met een mooiere gui. Niet alle packages zoals bijvoorbeeld pfblocker zullen werken, wat voor mij de meerwaarde is van pfSense: de community. Enige reden dat ze dit hebben gedaan, zodat ze ook kunnen verdienen aan pfSense met de ondersteuning en het verkopen van appliances, dus behoorlijk commercieel. Als je ziet wat pfSense crew allemaal van plan is: https://blog.pfsense.org/?p=1588 en ook met een nieuwe GUI gaat komen, dan vind ik pfSense toch een stuk beter. pfSense heeft ook aangegeven als er goede dingen in OPNsense komen dat ze dat ook gaan gebruiken in pfSense. https://forum.pfsense.org/index.php?topic=86170.0
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
1 NUC = max 32GB.FireStarter schreef op zaterdag 14 maart 2015 @ 12:21:
Ik volg dit draadje nu al een tijdje maar ik heb nog geen vergelijkbare vraag gezien.
Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?
Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.
Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB..
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?
Mijn budget is 500 euro per node en voor de NAS 1000.
Wat zouden jullie kiezen?
De nieuwe Broadwell varianten kunnen 2*16GB.
Voor ram zie onder andere: http://www.intelligentmemory.com/
In de nucs kan ook een m.2 SSD maar het schijnt dat, dat alleen de SATA variant kan zijn (hey PCI-Express is niet supported... maar dat is wel veel sneller)..
*ik ben hier ook nog naar aan het kijken, ik weet dat Ruben Spruijt een 4 Node cluster heeft met 128GB ram totaal dus*
[ Voor 4% gewijzigd door 3DDude op 06-04-2015 13:09 ]
Be nice, You Assholes :)
Het blijft lastig, elke oplossing voor thuis heeft behoorlijke drawbacks. Ik denk dat de NUCs een aardige oplossing zijn icm met iSCSI voor het testen van vMotion, eventuele IO hungry VM's op local storage.
Mocht je iSCSI target meerdere NICs hebben dan kun je de prestaties nog behoorlijk tunen met preferred path en je path selection policy, maar dat helpt alleen voor het totaal, per individuele VM blijft het altijd maximaal 110-120MB/s. MPIO helpt, maar is geen wondermiddel. Met 1 path naar twee hosts en IO naar vm's op beide hosts haal ik 110MB/s, met 2 NICs voor iSCSI per host (en 3 op de target) haal ik 130MB/s op 1 host en 170MB/s vanaf twee hosts. Best (vrijwel, geen jumbo frames gebruikt) case scenario, target SSD raid0, switch met alleen iSCSI, VM's met paravirtual SCSI adapter. Preferred path moet ik nog testen, maar ik verwacht 220MB/s aan traffic totaal van 2 hosts.
Ik denk eigenlijk dat nested op een D-1540 met 128GB en een PCIe M2 kaart in een mitx case uiteindelijk de fijnste oplossing gaat zijn, echter moet het DDR4 geheugen dan nog flink omlaag en daar blijft het lastiger om de boel op te zetten. Je hebt dan wel 4 NUCs met gestackte memory modules met een hogere clockfrequentie zonder externe connectie bottlenecks (storage en inter vm networking in memory) met een lager verbruik in een kleinere opervlakte.
Zelfs met de huidige prijzen zou het goedkoper zijn dan 4 NUCs met 32GB voor VSAN:
8 x 16GB module = 2760
4x i5 NUC = 1560
4x 512GB M2 = 860
4x 32GB SATA = 140
4x dual I350 mini PCIe = 360
totaal = 5680
Voor 5000 heb je een D-1540 in een m-itx case met 128GB DDR4 en een 1.2TB Intel 750. Of als je met 512GB af kan (eventueel opendedupe o.i.d. als storage VM naast de nested hosts), kan daar nog wel 700 af.
De vraag is alleen wat ESXi doet met een NVMe of Samsung PCIe...
Aangezien de D-1540 borden met 10Gbit maar enkele tientjes duurder zijn zou in mijn geval een 10Gbit kaart voor de NAS kopen en direct (zonder switch) aansluiten ook nog een optie zijn.
Of SATA gebruiken met 6 2.5" in een 5.25" bay.
[ Voor 66% gewijzigd door |sWORDs| op 06-04-2015 16:37 ]
Te Koop:24 Core Intel Upgradeset
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon E5-2620 v2 Boxed | € 437,50 | € 437,50 |
| 1 | Supermicro X9SRL-F | € 298,50 | € 298,50 |
| 1 | Ultron RealPower RPS19-450 | € 75,- | € 75,- |
| 1 | Scythe Mugen 4 PCGH Edition | € 35,95 | € 35,95 |
| 3 | Crucial CT2K16G3ERSDD4186D | € 329,- | € 987,- |
| 1 | Cooler Master GM G750M | € 72,95 | € 72,95 |
| 1 | Samsung 830 series SSD 256GB | € 0,- | € 0,- |
| 1 | Samsung 840 EVO 250GB | € 107,24 | € 107,24 |
| 1 | Fusion IO 320GB Pcie card | -- | -- |
| Bekijk collectie Importeer producten | Totaal | € 2.014,14 | |
Specifiek voor een setup gekozen met minimaal 96GB, maar uitbreidbaar naar 256GB. Eigenlijk vanwege dezelfde reden als sWORDs, het gehele scala van VMware EUC producten inclusief vROPS en vRA moet er op komen te draaien.
Er zijn wel CPU's te krijgen met een lagere TDP dan 80 watt, maar dat komt over het algemeen de rekenkracht niet ten goede.
Vrijdag gaat alles geïnstalleerd worden, ik ben benieuwd..
Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4
Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Goede tip. Ik ga er gelijk achter aan..Paul schreef op woensdag 22 april 2015 @ 22:08:
Dan zou ik alvast een andere koeler bestellen helaasJe moederbord heeft een Narrow ILM terwijl je koeler alleen Square ILM ondersteunt.
Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4
Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.
Waarom die voeding? En ik zou geen evo SSD nemen in een server, zeker niet de 840.klikos schreef op woensdag 22 april 2015 @ 18:26:
Hier mijn nieuwe thuislab:
# Product Prijs Subtotaal 1 Intel Xeon E5-2620 v2 Boxed € 437,50 € 437,50 1 Supermicro X9SRL-F € 298,50 € 298,50 1 Ultron RealPower RPS19-450 € 75,- € 75,- 1 Scythe Mugen 4 PCGH Edition € 35,95 € 35,95 3 Crucial CT2K16G3ERSDD4186D € 329,- € 987,- 1 Cooler Master GM G750M € 72,95 € 72,95 1 Samsung 830 series SSD 256GB € 0,- € 0,- 1 Samsung 840 EVO 250GB € 107,24 € 107,24 1 Fusion IO 320GB Pcie card -- -- Bekijk collectie
Importeer productenTotaal € 2.014,14
Specifiek voor een setup gekozen met minimaal 96GB, maar uitbreidbaar naar 256GB. Eigenlijk vanwege dezelfde reden als sWORDs, het gehele scala van VMware EUC producten inclusief vROPS en vRA moet er op komen te draaien.
Er zijn wel CPU's te krijgen met een lagere TDP dan 80 watt, maar dat komt over het algemeen de rekenkracht niet ten goede.
Vrijdag gaat alles geïnstalleerd worden, ik ben benieuwd..
Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?Zenix schreef op donderdag 23 april 2015 @ 07:54:
[...]
Waarom die voeding? En ik zou geen evo SSD nemen in een server, zeker niet de 840.
Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon E5-2620 v2 Boxed | € 437,50 | € 437,50 |
| 1 | Supermicro X9SRL-F | € 298,50 | € 298,50 |
| 1 | HP Nvidia Quadro 2000 1GB | € 445,28 | € 445,28 |
| 1 | Ultron RealPower RPS19-450 | € 75,- | € 75,- |
| 1 | Noctua NH-U12DXi4 | € 57,50 | € 57,50 |
| 3 | Crucial CT2K16G3ERSDD4186D | € 329,- | € 987,- |
| 1 | Cooler Master GM G750M | € 72,95 | € 72,95 |
| 1 | Samsung 830 series SSD 256GB | € 0,- | € 0,- |
| 1 | Samsung 840 EVO 250GB | € 107,24 | € 107,24 |
| 1 | Fusion IO 320GB Pcie card | -- | -- |
| Bekijk collectie Importeer producten | Totaal | € 2.480,97 | |
Lager rendement dan veel andere gelijk geprijsde voedingen welke veel minder extreem overdreven zijn. Mindere kwaliteit doordat je zoveel mogelijk overdreven vermogen kiest voor zo weinig mogelijk euro's. Bij voedingen doen de meeste mensen er goed aan om zo weinig mogelijk vermogen te nemen voor zoveel mogelijk euro's. Veel mensen zijn in de veronderstelling dat meer beter zou zijn.klikos schreef op donderdag 23 april 2015 @ 08:22:
[...]
Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?
De uitleessnelheid van wat oudere bestanden is extreem traag bij deze SSD.Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb de recensies op deze website gelezen en daar waren mensen over het algemeen zeer tevreden.-The_Mask- schreef op donderdag 23 april 2015 @ 09:29:
[...]
Lager rendement dan veel andere gelijk geprijsde voedingen welke veel minder extreem overdreven zijn. Mindere kwaliteit doordat je zoveel mogelijk overdreven vermogen kiest voor zo weinig mogelijk euro's. Bij voedingen doen de meeste mensen er goed aan om zo weinig mogelijk vermogen te nemen voor zoveel mogelijk euro's. Veel mensen zijn in de veronderstelling dat meer beter zou zijn.
[...]
En dus zie ik geen reden om hem niet aan te schaffen.
Ik zie geen reden om die mensen serieus te nemen. Veel verder dan, "hij doet het en ziet er leuk uit" komen de meeste mensen toch niet.klikos schreef op donderdag 23 april 2015 @ 09:35:
[...]
Ik heb de recensies op deze website gelezen en daar waren mensen over het algemeen zeer tevreden.
En dus zie ik geen reden om hem niet aan te schaffen.
Als je echt wat wil weten over een voeding moet je een review lezen waarvan de reviewer die weet wat die doet, hij/zij een loadtester, oscilloscoop, AC power meter en een multimeter heeft en weet te gebruiken en daarnaast kan vertellen over de interne kwaliteit. Pas dan kun je een goede review schrijven en kom je wat te weten over de voeding.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is een hoop geld voor een GT 720...klikos schreef op donderdag 23 april 2015 @ 09:02:
De config is inmiddels wat aangepast en ik heb een Nvidia Quadro 2000 kaart besteld voor vDGA.
# Product Prijs Subtotaal 1 Intel Xeon E5-2620 v2 Boxed € 437,50 € 437,50 1 Supermicro X9SRL-F € 298,50 € 298,50 1 HP Nvidia Quadro 2000 1GB € 445,28 € 445,28 1 Ultron RealPower RPS19-450 € 75,- € 75,- 1 Noctua NH-U12DXi4 € 57,50 € 57,50 3 Crucial CT2K16G3ERSDD4186D € 329,- € 987,- 1 Cooler Master GM G750M € 72,95 € 72,95 1 Samsung 830 series SSD 256GB € 0,- € 0,- 1 Samsung 840 EVO 250GB € 107,24 € 107,24 1 Fusion IO 320GB Pcie card -- -- Bekijk collectie
Importeer productenTotaal € 2.480,97
Te Koop:24 Core Intel Upgradeset
Heb ik er niet voor betaald natuurlijk..
<offtopic>Heb ik jou vorige week niet ontmoet in Frimley?</offtopic>
[ Voor 13% gewijzigd door |sWORDs| op 23-04-2015 11:16 ]
Te Koop:24 Core Intel Upgradeset
Over de voeding sluit ik mij aan bij -The-Mask-klikos schreef op donderdag 23 april 2015 @ 08:22:
[...]
Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?
Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..
Simpelweg omdat het een SSD is met een SLC cache, wat als het goed werkt zeer snel is. Maar als je meer data gaat verplaatsen dan in die cache past, gaat de performance een stuk omlaag. Bij een MLC SSD is de initiële performance misschien lager(ligt eraan welke SSD) maar de performance blijft altijd hetzelfde. En dan zijn de nog de performance issues met oudere bestanden. Kortom een EVO voor een server vind ik niet verstandig. De 830 heeft al die problemen niet en is een prima keuze.
Maar omdat je hem al hebt kan je hem prima gebruiken, omdat het toch maar een lab is.
Verwijderd
In proxmox kan je alvast de IO's rechtstreeks aanspreken vanuit een OpenVZ machine. Ik heb zo een gast die hier instaat voor het geluid en die gebruikt dan de geluidskaart van de host. Dat zou je dus zeker voor zoneminder ook moeten kunnen doen.Domba schreef op donderdag 21 april 2011 @ 14:58:
[...]
Sorry dit was inderdaad wat ik bedoelde met VM, want voor zoneminder met captercard heb ik nog geen enkele positieve reactie gevonden, maar wel in combinatie met USB en IP.
Alleen met IP dien ik niet alleen mobo/proc te vervangen, maar alles in 1 klap en vergelijkbare IP camera's van wat ik nu heb zijn niet bepaald goedkoop en verder heb ik voor de gewenste/gebruikte resolutie, alleen maar één oplossing met 2 aparte NIC's gezien met VMware server 2.0, waarmee ik op een totaal van 4 zou komen.
Ik heb ter info bij een hoop klanten (wel op Proxmox) VM hosts draaien op AMD AM1 Athlon 5350 (25W TDP op een quad core) zo'n server kost met 8GB ram in een ITX Elite 110 behuizing en 2 * 128GB SSD (gewoon MDADM RAID1) een goede 300 euro en daar draait bij één klant het volgende op met 10 gebruikers:
1 * Zimbra
1 * Sophos UTM
1 * Zentyal AD/DC
1 * backup naar externe schijf
1 * Asterisk centrale
En dat allemaal op één NIC, lang leve managed POE switchen voor een appel en een ei van TP-Link
Alleen spijtig dat de klanten mijn enthiusiasme niet delen en niet snappen dat zoiets met conventionele apparatuur meer dan 10 000 euro had gekost...
Met die SAS2008 controllers (ik gebruik D2607's) heb ik ook ervaring maar aangezien ik toch altijd voor MDADM kies opteer ik tegenwoordig liever voor een bord waar native genoeg SATA3 poorten opzitten.
[ Voor 33% gewijzigd door Verwijderd op 23-04-2015 15:08 ]
Even niets...
Ik heb 90% van de SSD gealloceerd.
Wat ik me echter afvraag: Heeft het zin om ook nog een stukje van de SSD te reserveren voor 'Swap to Host Cache', of heeft dat geen zin?
Bovendien is een SSD voor 100% gebruiken nooit bevorderlijk voor de performance.
Even niets...
Ook voor een homelab? Voor productieomgevingen natuurlijk wel, maar voor thuisgebruik wat de meesten hier doen is het toch niet noodzakelijk?FireDrunk schreef op donderdag 23 april 2015 @ 15:32:
Enige grote nadeel is eigenlijk dat je geen ECC hebt... Dat lijkt mij persoonlijk wel cruciaal voor dit soort servertjes...
[ Voor 4% gewijzigd door rachez op 23-04-2015 18:40 ]
Fan blijkt ook niet te passen in mijn case. Dus nu voor een noctua fan van 12cm hoog gegaan..Paul schreef op woensdag 22 april 2015 @ 22:08:
Dan zou ik alvast een andere koeler bestellen helaasJe moederbord heeft een Narrow ILM terwijl je koeler alleen Square ILM ondersteunt.
Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4
Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.
Alleen het geheugen maar? Als ik de specs zo bekijk dan is het wel erg duidelijk dat het hier om desktop hardware gaat en niet om server hardware. Dat werkt prima bij heel veel bedrijven waar echte server hardware, zoals ECC geheugen, compleet nutteloos is. Bij dat soort setups is server hardware eerder het grote nadeel aangezien de kosten niet op kunnen tegen de baten. Je zult toch echt naar de toepassing moeten kijken vooraleer je een uitspraak kunt doen of het missen van een bepaalde feature een nadeel is of niet.FireDrunk schreef op donderdag 23 april 2015 @ 15:32:
Enige grote nadeel is eigenlijk dat je geen ECC hebt... Dat lijkt mij persoonlijk wel cruciaal voor dit soort servertjes...
Die optie zit er in voor wie gebruik maakt van traditionele schijven of iets van een NAS/SAN. Als je toch al alles op een ssd draait heeft het geen zin om nog een andere ssd voor caching te gebruiken vanuit performance oogpunt. Wellicht dat het wat kan uitmaken met diskspace.Zerobase schreef op donderdag 23 april 2015 @ 16:32:
Wat ik me echter afvraag: Heeft het zin om ook nog een stukje van de SSD te reserveren voor 'Swap to Host Cache', of heeft dat geen zin?
ESXi swapt ook wanneer je nog genoeg geheugen over hebt om zo efficiënter met het geheugen om te gaan. De conclusie blijft echter hetzelfde: je ziet weinig winst want zo gek veel wordt er nou ook weer niet geswapt en je zult het ook alleen goed merken bij trage opslag.FireDrunk schreef op donderdag 23 april 2015 @ 17:41:
Dat ligt er aan of het geheugen van je host propvol zit... Esxi zal ook gewoon ram gebruiken voor cache, dus als je over hebt zal de winst minimaal zijn.
Het ligt aan de toepassing. Een aantal mensen hier willen ZFS gebruiken met alle mogelijkheden die het heeft. Dat kan aardig zonder ECC maar dan moet je wel een aantal hele handige dingen van ZFS missen. Daarom luidt het advies ook vrij unaniem om bij gebruik van ZFS dat niet zonder ECC geheugen te doen.rachez schreef op donderdag 23 april 2015 @ 18:39:
Ook voor een homelab? Voor productieomgevingen natuurlijk wel, maar voor thuisgebruik wat de meesten hier doen is het toch niet noodzakelijk?
Over je tweede reactie, kan je die onderbouwen?
http://www.yellow-bricks....ich-vsphere-memory-state/
Hier staat namelijk de volgende volgorde:
Memory state
Threshold Actions performed
High 300% of minFree Break Large Pages (wait for next TPS run)
Clear 100% of minFree Break Large Pages and actively call TPS to collapse pages
Soft 64% of minFree TPS + Balloon
Hard 32% of minFree TPS + Compress + Swap
Low 16% of minFree Compress + Swap + Block
Pas bij 32% van minFree (default waarde darvan is dacht ik 150% van je geheugen, maar dat weet ik niet uit mijn hoofd, het is zelfs nog erger, volgens mij praten we hier over minFree als in een hele lage waarde die aangeeft over er memory starvation is binnen ESXi. Ik zie configuraties waar hij op 244MB staat bij een 4GB server.) gaat je systeem swappen. Dat is dus pas als je VM's meer dan 68% van je geheugen actief in gebruik hebben. Dat is dus pas als er minder dan 32% van de minFree waarde beschikbaar is. (Dus niet alleen assigned, maar ook echt in gebruik.) Dat duurt wel even. Dan praat je echt over enkele honderden MB's geheugen vrij.
[ Voor 20% gewijzigd door FireDrunk op 24-04-2015 08:27 ]
Even niets...
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.