Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Ik zou gewoon een dual intel i350 in de mini PCI-e stoppen en op een tactische plek een gaatje voor de kabels maken.

[ Voor 56% gewijzigd door |sWORDs| op 13-03-2015 15:39 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Geen matches
hans_lenze schreef op vrijdag 13 maart 2015 @ 14:39:
[...]


Energieverbruik. 5.5 zat op 78 Watt gemiddeld en met 6.0 doet de doos nu 62 Watt gemiddeld.

[afbeelding]
Welk commando is dat? Lijkt op "top"?

is everything cool?


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
FREAKJAM schreef op vrijdag 13 maart 2015 @ 15:39:
[...]


Welk commando is dat? Lijkt op "top"?
esxtop

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Matched: esxi
Thanks, even zien hoe ik power usage tevens kan zien. Moet ergens eerst in de advanced settings rommelen, alleen kan ik de setting /config/Power/intOpts/ChargeVMs nergens vinden in ESXi 5.5

edit:
Bij ESXi 5.5 moet je op "p" drukken terwijl esxitop actief is, echter zie ik bij mij geen waardes.
Even kijken of mijn power supply een power sensor heeft, maar ben dus bang van niet.

[ Voor 62% gewijzigd door FREAKJAM op 13-03-2015 16:34 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:11

Compizfox

Bait for wenchmarks

Geen matches
Hoe zit het nou met die web client dan? Kun je die gratis gebruiken of moet je dan vCenter kopen?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 23:41
Geen matches
Compizfox schreef op vrijdag 13 maart 2015 @ 20:35:
Hoe zit het nou met die web client dan? Kun je die gratis gebruiken of moet je dan vCenter kopen?
Je kunt hem gratis 60 dagen proberen, daarna is de vCenter trial afgelopen.
Na die 60 dagen kun je natuurlijk een nieuwe trial installeren. Als je daarbij de Windows versie gebruikt kun je je database hergebruiken en verlies je geen configuratie of historische data. En ja, de herinstallatie kun je ook scripten.

Als het niet voor zakelijk gebruik is, is de VMUG EVALExperience een fijne mogelijkheid: http://www.vmug.com/EVALExperience.
Voor 200 dollar een jaar lang gebruik maken van een groot deel van de vSphere suite.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:11

Compizfox

Bait for wenchmarks

Matched: esxi
Bedankt voor de info.

No thanks dus. Ik blijf wel lekker op ESXi 5.5, want ik kan de nieuwe features van ESXi 6 toch niet gebruiken.

Ik begin toch wel steeds minder enthousiast te worden over VMware. Thuisgebruikers naaien, GPL violations...

[ Voor 78% gewijzigd door Compizfox op 13-03-2015 20:46 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Thuisgebruikers naaien? Je kunt gewoon de c client gebruiken, daarnaast krijg je gratis een product waar voor miljoenen aan ontwikkeling in gaat, ik vind het nogal ondankbaar om deze termen te gebruiken. Ook laat je het zo lijken alsof de webclient bedacht is om thuisgebruikers het leven moeilijk te maken, terwijl de webclient er gekomen is omdat dit een wens van betalende klanten was, de reactie van de zaal bij introductie was een geklap waar geen einde aan leek te komen, alsof je bij de introductie van de iPhone zat. Dat is hoe VMware voor het grootste gedeelte werkt, functies worden toegevoegd op klant wens. Het is dus specifiek voor vCenter gebruikers en natuurlijk ligt de focus daar en niet bij thuisgebruikers, wat niet wil zeggen dat daar niet ook eens naar gekeken gaat worden, maar gezien de populariteit van de webclient bij thuisgebruikers misschien ook wel niet. En er is niets aan de c client gedaan om functionaliteit te beperken, er wordt alleen geen nieuwe functionaliteit toegevoegd.
En ik zou wachten op een gerechtelijke uitspraak voor conclusies uit een aanklacht te trekken.

[ Voor 63% gewijzigd door |sWORDs| op 14-03-2015 01:44 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:11

Compizfox

Bait for wenchmarks

Matched: esxi
|sWORDs| schreef op zaterdag 14 maart 2015 @ 01:26:
Thuisgebruikers naaien? Je kunt gewoon de c client gebruiken, daarnaast krijg je gratis een product waar voor miljoenen aan ontwikkeling in gaat, ik vind het nogal ondankbaar om deze termen te gebruiken. Ook laat je het zo lijken alsof de webclient bedacht is om thuisgebruikers het leven moeilijk te maken, terwijl de webclient er gekomen is omdat dit een wens van betalende klanten was, de reactie van de zaal bij introductie was een geklap waar geen einde aan leek te komen, alsof je bij de introductie van de iPhone zat. Dat is hoe VMware voor het grootste gedeelte werkt, functies worden toegevoegd op klant wens. Het is dus specifiek voor vCenter gebruikers en natuurlijk ligt de focus daar en niet bij thuisgebruikers, wat niet wil zeggen dat daar niet ook eens naar gekeken gaat worden, maar gezien de populariteit van de webclient bij thuisgebruikers misschien ook wel niet. En er is niets aan de c client gedaan om functionaliteit te beperken, er wordt alleen geen nieuwe functionaliteit toegevoegd.
Ik krijg toch erg het idee dat ze mensen die geen vCenter gebruiken (thuisgebruikers) het opzettelijk moeilijk proberen te maken. Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.

Ik vind het prima dat ze over willen op het webclient hoor, maar het probleem is dat de webclient niet te gebruiken is zonder honderden euro's per jaar neer te leggen voor het betaalde pakket.

Dat vind ik gewoon jammer.

Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
En ik zou wachten op een gerechtelijke uitspraak voor conclusies uit een aanklacht te trekken.
Volgens mij is dit wel duidelijk genoeg. Software Freedom Conservancy is al sinds 2012 bezig om met VMware te onderhandelen over het probleem. VMware wil blijkbaar niet meewerken:
During Hellwig's investigations, Conservancy continued to negotiate with VMware. Sadly, VMware's legal counsel finally informed Conservancy in 2014 that VMware had no intention of ceasing their distribution of proprietary-licensed works derived from Hellwig's and other kernel developers' copyrights, despite the terms of GPLv2.
De violation zelf is ook zo duidelijk als maar kan: VMware heeft delen van Linux (onder GPL) samen met hun eigen propiertary code gestopt in wat zij vmkernel noemen. Als je GPL-software combineert met je eigen software tot één nieuw programma moet je dat gecombineerde werk ook onder de GPL uitgeven. Dat hebben ze overduidelijk niet gedaan en ze hebben zelf letterlijk toegegeven dat ook niet willen gaan doen.

VMware heeft geen schijn van kans om dit te winnen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Matched: esxi
Compizfox schreef op zaterdag 14 maart 2015 @ 02:10:
[...]

Ik krijg toch erg het idee dat ze mensen die geen vCenter gebruiken (thuisgebruikers) het opzettelijk moeilijk proberen te maken. Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.
Ik vind het prima dat ze over willen op het webclient hoor, maar het probleem is dat de webclient niet te gebruiken is zonder honderden euro's per jaar neer te leggen voor het betaalde pakket.

Dat vind ik gewoon jammer.
Het onderhouden van twee clients is werk waar ze niet op zitten te wachten, het doel is een perfecte webclient en het zou mij niet verbazen als daar een versie van komt met de gratis features die gewoon op de host draait.
Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
Bedenk ook hier de zakelijke kant, voor PXE boot is het belangrijk dat de images zo klein mogelijk zijn. En het is nog steeds mogelijk via community drivers en custom iso's, iets wat ze zo hadden kunnen blokkeren.
Volgens mij is dit wel duidelijk genoeg.
Inhoudelijk mag ik hier niets overzeggen, mijn opmerking was over aanklachten in het algemeen.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireStarter
  • Registratie: Februari 2001
  • Laatst online: 19-09 21:02
Geen matches
Ik volg dit draadje nu al een tijdje maar ik heb nog geen vergelijkbare vraag gezien.

Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?

Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.

Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB.
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?

Mijn budget is 500 euro per node en voor de NAS 1000.

Wat zouden jullie kiezen?

[ Voor 31% gewijzigd door FireStarter op 14-03-2015 12:26 ]

w00t


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Geen matches
FireStarter schreef op zaterdag 14 maart 2015 @ 12:21:
Ik volg dit draadje nu al een tijdje maar ik heb nog geen vergelijkbare vraag gezien.

Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?

Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.

Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB.
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?

Mijn budget is 500 euro per node en voor de NAS 1000.

Wat zouden jullie kiezen?
Ik zou de NAS ook virtualiseren met ZFS en dan HBA doorgeven doormiddel van vt-d, dat vind ik persoonlijk leuker om mee te spelen dan een Synology, eventueel kan je ook virtuele synology gaan doen met xpenology, dat gebruik ik zelf met RDM en werkt prima, haal qua snelheden met hybrid raid zo'n 280MB/s met 3x3TB Hitachti Ultrstar 7k4000. Dus inplaats van drie nodes en een nas, alleen drie nodes waarvan één wat meer power heeft. Dit kan qua budget misschien nog wat beter uitpakken...

Als je tijd hebt, zou ik wachten tot Skylake want dan kan je met DDR4 modules makkelijker naar de 32/64GB gaan.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Matched: esxi
Ik zou voor VSAN gaan ipv nas. Dan kun je altijd nog een virtuele nas draaien op de VSAN storage. (Voor services buiten je cluster)

Of je zou voor een single host met lokale storage kunnen gaan, over een paar weken zou je een D-1540 met 128GB mem moeten kunnen aanschaffen.

Die onderste is best een grappige optie. Je zou dan 3 virtuele hosts kunnen nesten. 3 x 8 vCPU's en 40GB vRAM en dan nog een dual core met 4GB voor een virtuele NAS met passthrough. Virtuele ESXI's via iSCSI aan de virtuele NAS.

Anders kom je bij iets zoals mijn setup, maar dan met iets goedkopere componenten en drie hosts ipv 2:
|sWORDs| schreef op zaterdag 02 augustus 2014 @ 12:07:
Ik heb zojuist het volgende besteld:
2 Intel Xeon E3-1240L v3
2 SuperMicro Mainboard X10SLH-F Bulk
2 SuperMicro CSE-731I-300B Case
2 SuperMicro SNK-P0046A4 Fan
2 Crucial MX100, 128GB
8 Crucial 8GB DDR3 1600MHz ECC 1.35v

Ook zijn er drie Intel I340 Quad Gbit nic's onderweg (op Ebay 3 nieuwe voor de prijs van een enkele hier), en heb ik al een Cisco SRW2024 light managed switch en QNAP TS-870 (met 16GB, een 3770T, 6x2TB, 2x 512GB SSD) die VAAI ondersteuning heeft en waarop ook VM's via QEMU kunnen draaien (Denk dat ik hier de AD, KMS en vCenter op zet). De MX100's zijn voor boot only, maar op het totaal maakte het zo weinig verschil met USB dat ik maar voor iets gekozen heb waar ik alle kanten nog mee op kan.

Ik denk dat het geheel vrij zuinig zal zijn; CPU in de NAS heeft een 45 Watt TDP, de ESXi's 25 Watt.

Wat het labje moet gaan draaien is de backend (AD, KMS, SQL, WDS + MDT, SCCM, WSUS, RDS, vCenter, Horizon, Mirage) en wat View machines, maar ook nog wat speelruimte voor meer (of met een extra ESXi host) MS, Linux of VMware zaken/machines in de toekomst.

Ook wil ik misschien in de toekomst nog eens kijken naar 2 HP 530T dual 10Gbit port nic's en een Qnap dual 10Gbit port nic, samen met een Netgear XS712T 12 port light managed 10Gbit switch.

[ Voor 139% gewijzigd door |sWORDs| op 14-03-2015 16:01 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:11

Compizfox

Bait for wenchmarks

Geen matches
|sWORDs| schreef op zaterdag 14 maart 2015 @ 10:30:
[...]

Het onderhouden van twee clients is werk waar ze niet op zitten te wachten, het doel is een perfecte webclient en het zou mij niet verbazen als daar een versie van komt met de gratis features die gewoon op de host draait.
Dat zou perfect zijn :)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
Compizfox schreef op zaterdag 14 maart 2015 @ 02:10:
Toen ESXi 5.5 uitkwam was het zelfs zo dat je, als je niet goed oplette, een VM kon updaten naar de nieuwe hardware waardoor deze helemaal niet meer te beheren was met de vSphere Client. Later hebben ze dit zo aangepast dat de vSphere Client de nieuwe virtuele hardware-versies wel kan bewerken, maar de nieuwe features (bewust?) niet bruikbaar zijn.
Dat is met versie 6 nog steeds zo. Op de commandline kun je de .vmx bewerken en als je met VMware Fusion en/of Workstation verbinding maakt met de ESXi doos is het ook geen probleem; kun je het via deze "clients" aanpassen. Fusion en Workstation zijn nou juist stukken software die thuisgebruikers redelijk vaak gebruiken (velen lijken er mee te beginnen en dan op te schalen naar een dedicated doos met ESXi).

Die webclient hebben ze tijdens de beta gebruikt voor de gratis vSphere versie maar later is besloten om nog even de oude C# client aan te houden. Dat stemt hoopvol, er is kennelijk wat meer werk nodig om een goed werkende webclient te krijgen (rewrite in HTML5 zonder al dat gedoe met Java en Flash bijv.....hoop doet leven...).
Overigens zijn er nog wel meer opvallende dingen de laatste tijd hoor, zoals het verwijderen van drivers van NICs populaire consumer hardware zitten (Realtek 8111E e.d.) bijvoorbeeld.
Ze doen ook het omgekeerde. Ik kwam erachter dat ESXi 6 de net-e1000e versie 2.5.4 gebruikt voor de Intel nics en met deze driver nu ook de 82579LM ondersteund. Voor versie 6 moest je dit met een community driver doen, nu is ie officieel ondersteund!
Volgens mij is dit wel duidelijk genoeg. Software Freedom Conservancy is al sinds 2012 bezig om met VMware te onderhandelen over het probleem. VMware wil blijkbaar niet meewerken:

8<

VMware heeft geen schijn van kans om dit te winnen.
Zo eenvoudig ligt het niet. VMware heeft wel degelijk kans om het te winnen. Het probleem is namelijk dat de GPL een lastige licentie is en tot dusver alleen nog maar in Duitsland juridisch sterk staat. De rechtszaak dient daar ook en zal dan ook alleen geldig zijn in Duitsland (of het ook voor de EU geldt is zeer complex, daar zijn aardig wat regels voor). Buiten dat moet ook bewezen worden dat VMware inderdaad GPL code in die vmkernel gebruikt.

Acties:
  • 0 Henk 'm!

  • FireStarter
  • Registratie: Februari 2001
  • Laatst online: 19-09 21:02
Matched: esxi
Die nieuwe Xeon cpu ziet er wel netjes uit inderdaad.
128 GB ddr4 mem is wel nog vrij prijzig. Ik denk dat ik zo over de 2500 euro heen ga als ik ook het systeem mooi af configureer.
En dan met vsan een disk pool van ssd/hdd maken? Wat is genoeg? 3x 250 gB ssd en 3x 3 TB?
Wat draai je dan native op die bak? Gewoon esx of Windows?

Wat trouwens ook een vereiste is, is dat het systeem in de meterkast moet kunnen draaien. Het moet dus energiezuinig zijn en weinig warmte produceren. Het is een kleine meterkast. Ik vraag me af of die xeon met alles erop en eraan nog steeds voldoet.
Voordeel bij deze optie is wel dat je niet hoeft te investeren in een snel netwerk voor je Storage. Alles virtueel, en met 3 virtuele esxi servers met nsx controllers kan ik mooi veel segmenten aanmaken.

Daar is die bak in ieder geval ook voor bedoeld :).
|sWORDs| schreef op zaterdag 14 maart 2015 @ 15:05:
Ik zou voor VSAN gaan ipv nas. Dan kun je altijd nog een virtuele nas draaien op de VSAN storage. (Voor services buiten je cluster)

Of je zou voor een single host met lokale storage kunnen gaan, over een paar weken zou je een D-1540 met 128GB mem moeten kunnen aanschaffen.

Die onderste is best een grappige optie. Je zou dan 3 virtuele hosts kunnen nesten. 3 x 8 vCPU's en 40GB vRAM en dan nog een dual core met 4GB voor een virtuele NAS met passthrough. Virtuele ESXI's via iSCSI aan de virtuele NAS.

Anders kom je bij iets zoals mijn setup, maar dan met iets goedkopere componenten en drie hosts ipv 2:

[...]

w00t


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Matched: esxi
Die Xeon is maar 45 watt (Hoe denk je lager dan 45 Watt te komen met 3 hosts en een NAS?) en er komen m-itx borden (of de duurdere met ook nog 2x 10Gbit ethernet), je kunt dus ook een super klein kastje nemen en 6 2.5" schijven in een 5,25" slot doen en qua kosten zou je ook met 2x 32GB kunnen beginnen.

Native ESXi is de meest logische keuze voor de echte host, beste virtuele netwerk en beste werking voor nested ESXi. Je zou als je met VSAN wil spelen ook VSAN virtueel kunnen doen, je geeft de virtuele hosts gewoon vmdk's die op local storage staan (1 op een SSD, 1 op een spinning, of zelfs alles op flash en die ook correct taggen) en maakt daar een VSAN van. Wel even de fling voor mac detectie installeren, anders gaan alle frames naar alles.

Er zijn heel veel opties mogelijk, je kunt op CPU over-committen in de virtuele hosts of op de fysieke host, je kunt drie of vier virtuele hosts maken. Je kunt ook ipv VSAN een NAS draaien op de echte host en die gebruiken met iSCSI of NFS, de mogelijkheden zijn eindeloos en in tegenstelling tot fixed hardware kun je heel makkelijk de setup wijzigen indien de wensen veranderen. Natuurlijk is het geen silver bullet, je levert wel in op performance en het is iets lastiger instellen, ook zit je verder van een supported oplossing af, maar er zijn zat mensen binnen VMware die nested gebruiken, dus ik verwacht niet dat het snel niet meer werkt, daarnaast is er werk ingestopt met 6 om nested makkelijker te maken, desondanks dat het not supported is.

[ Voor 117% gewijzigd door |sWORDs| op 16-03-2015 00:12 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 23:41
Geen matches
YES!! vSphere 6 'ondersteunt' eindelijk datastores op USB units: http://www.virtuallyghett...h-vsan-6-0-usb-disks.html

Edit: oh, echt alleen in combinatie met VSAN

[ Voor 13% gewijzigd door hans_lenze op 16-03-2015 11:39 ]

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • TheSec
  • Registratie: December 2007
  • Laatst online: 08-07 13:38

TheSec

Waarom ?

Matched: esxi
Heren,

Dacht zal ook eens mijn ESXi box met jullie delen hieronder de lijst met hardware. Ik heb tussentijds mijn mobo nog gevangen. Dit was eerst een ASRock B85M Pro4 maar volgens mij had ik een productie fout of zo.. Want ik had tijdens reboot's dat passthrough devices soms wel en dan weer niet beschikbaar waren 8)7

Helaas verbruik ik nu wel 10Watt meer met de GigaByte(49) tegen 39 met de ASRock. Hierbij zijn dan alleen de WD Red's down gespind, de Raptop niet. Zit er nog aan te denken om een nieuwe ASRock te bestellen en te kijken of die beter werkt.. :9

#ProductPrijsSubtotaal
1Intel Core i5 4570T Boxed€ 209,90€ 209,90
1ASRock B85M Pro4€ 63,05€ 63,05
1Gigabyte GA-B85M-D3H€ 63,-€ 63,-
4WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 173,95€ 695,80
1WD Velociraptor WD1000DHTZ, 1TB€ 223,50€ 223,50
1Fractal Design Node 804€ 94,09€ 94,09
23Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M€ 16,35€ 32,70
1Intel PRO/1000 PT Quad Port Server Adapter (4x1000Mbps, PCI-e)€ 377,30€ 377,30
1Kingston ValueRAM KVR16LN11K2/16€ 138,-€ 138,-
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 135,76€ 135,76
1Seasonic G-Serie 360Watt€ 52,95€ 52,95
1Crucial M550 2,5" 128GB€ 69,90€ 69,90
1APC BR900GI€ 180,50€ 180,50
Bekijk collectie
Importeer producten
Totaal€ 2.336,45


De Intel Quad nic heb ik op ebay gehaald voor 100,- ongeveer. Naar mijn idee is het geen orginele maar een namaak.. Nonetheless hij doet het prima.. O-) Deze zit in het onderste slot, de controller zit op het eerste slot.

ik draai een flink aantal VM's vanaf de SSD. De raptor is via de interne HBA in combi met RDM aan me storage VM(NFSi) gekoppeld, de controller via Passthrough. De WD 4TB Red's zijn aangesloten op de controller.

Dit leverd met een soort van hot/cold storage idee op.. Dit heb ik gedaan ivm dat mijn storage vm een timecapsule aanbied voor me MBP Retina. Deze is nogal van het ik wil elke zo veel min even een backup proberen. Zou ik dat op de 4TB's draaien zouden die feitelijk nooit downspinnen. Vandaar dat ik de raptor heb die daar tussen zit.

Ben nog redelijk wat aan het knutselen met de verschillende VM's zal kijken dat ik tzt misschien een tekeningtje post..

EDIT:
Idle 49watt / WD Red's (Active no load) 64watt / Load 72watt (gemeten op de APC.)

[ Voor 0% gewijzigd door TheSec op 18-03-2015 11:12 . Reden: extra verbruik info ]

Niet schieten is altijd mis ;)


Acties:
  • 0 Henk 'm!

  • nagasy
  • Registratie: Mei 2008
  • Laatst online: 29-11-2024

nagasy

Duck Duck Duck Goose

Geen matches
TheSec schreef op woensdag 18 maart 2015 @ 11:01:

ik draai een flink aantal VM's vanaf de SSD. De raptor is via de interne HBA in combi met RDM aan me storage VM(NFSi) gekoppeld, de controller via Passthrough. De WD 4TB Red's zijn aangesloten op de controller.

Dit levert met een soort van hot/cold storage idee op.. Dit heb ik gedaan ivm dat mijn storage vm een timecapsule aanbied voor me MBP Retina. Deze is nogal van het ik wil elke zo veel min even een backup proberen. Zou ik dat op de 4TB's draaien zouden die feitelijk nooit downspinnen. Vandaar dat ik de raptor heb die daar tussen zit.

Ben nog redelijk wat aan het knutselen met de verschillende VM's zal kijken dat ik tzt misschien een tekeningtje post..

EDIT:
Idle 49watt / WD Red's (Active no load) 64watt / Load 72watt (gemeten op de APC.)
De controller hangt neem ik aan ook aan je Storage VM?
Interessant concept.

Battle.net: NagaByrd#2844


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Matched: esxi
Heren, ik wil mijn 10tb Freenas bak gaan virtualiseren met esxi, de disks zijn nu aangesloten op de interne controller (een asrock b75-pro3-m). er zitten 2 controllers op dit mobo, de ene met 5 poorten wordt gezien in esxi (5.5) de andere met 2 poorten niet (een ASM1061 zo uit mijn hoofd), ik heb dus een losse kaart nodig waar ofwel mijn datastores op zet of die ik doorstuur naar de freenas VM voor de zfs disks

En voordat iedereen gaat zeggen; de ibm m1015!! deze kaart is niet makkelijk meer te vinden, of je betaalt gelijk een hoofdprijs :(

als er een goedkope 2/3 poort sata kaart is die onder esxi werkt ben ik ook al blij, dan stuur ik de interne kaart door naar freenas. Ik heb dat al eens geprobeert mt een 5 euro pci kaartje (Sil3112act144 staat op de chip) maar dat werkt niet.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
2-3 poorten en je hebt 10TB? Heb je 2* 6TB schijven?

(belangrijk, om te weten welke controller werkt en welke niet, niet alle cheape controllers pikken > 4TB)

Overigens is er een upgrade voor de M1015, namelijk de M1115.

http://www.ebay.com/itm/I...ain_0&hash=item3cf11ebca9

[ Voor 41% gewijzigd door FireDrunk op 19-03-2015 11:27 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Geen matches
FireDrunk schreef op donderdag 19 maart 2015 @ 11:26:
2-3 poorten en je hebt 10TB? Heb je 2* 6TB schijven?

(belangrijk, om te weten welke controller werkt en welke niet, niet alle cheape controllers pikken > 4TB)

Overigens is er een upgrade voor de M1015, namelijk de M1115.

http://www.ebay.com/itm/I...ain_0&hash=item3cf11ebca9
de 2 tot 3 poorten zijn dan alleen voor de datastore van freenas VM, de interne 5 poort-controller stuur ik dan door naar de VM voor de 10tb schijven (4x3tb raidz)


die m1115 was ik inderdaad al tegen gekomen, maar import vanuit usa, betaal je dan niet blauw aan de douane kosten etc,..? dan wordt de 1015 weer interresant nl..

[ Voor 10% gewijzigd door Kek op 19-03-2015 11:35 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
Ahzo, mja, ik zou inzetten op een ASMedia controllertje, maar er zijn nogal wat known issues met het doorgeven van een onboard controller en dat met dat bord, de asmedia niet meer werkt..

Je kan voor 10 euro via ebay al een ASM1062 krijgen met PCIe x1 aansluiting.

Even niets...


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Geen matches
heb een goedkope 1115 gevonden, 105 dollar inc verzenden en import kosten, "pulled from new server" en uit de usa, denk dat het dat maar moet worden. Is bij de m1115 ook flashen naar IT nodig, lijkt ij wel toch..?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
Voor zover ik weet wel ja. M1115 is ook gewoon een LSI SAS2008 based controller, dus dezelfde tools zouden moeten werken.

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Matched: esxi
FireDrunk schreef op donderdag 19 maart 2015 @ 11:40:
Ahzo, mja, ik zou inzetten op een ASMedia controllertje, maar er zijn nogal wat known issues met het doorgeven van een onboard controller en dat met dat bord, de asmedia niet meer werkt..

Je kan voor 10 euro via ebay al een ASM1062 krijgen met PCIe x1 aansluiting.
In 't kort: Onboard Intel SATA door steken is verlies van alle onboard SATA controllers (been there done it, got no t-shirt:( ).

De ASM laat zich wel doorgeven richting een VM.
.
FireDrunk schreef op donderdag 19 maart 2015 @ 11:46:
Voor zover ik weet wel ja. M1115 is ook gewoon een LSI SAS2008 based controller, dus dezelfde tools zouden moeten werken.
Klopt, cross flashen a la de IBM M1015 met de 9211 IT firmware en gaan met die kaart.

Het doorsteken van een M1015 of een Dell H310 (beide IT firmware) in ESXi met dit moederbord is geen probleem, draait thuis probleemloos.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Matched: esxi
net de M1115 besteld voor 95 euro, die gaat mooi naar de freenas VM door :)

nu nog de vraag waarom esxi 5.5 niet alle onboard kaarten/schijven ziet (die gaan niet doorgestoken worden)

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Matched: esxi
Kek schreef op donderdag 19 maart 2015 @ 12:41:
net de M1115 besteld voor 95 euro, die gaat mooi naar de freenas VM door :)

nu nog de vraag waarom esxi 5.5 niet alle onboard kaarten/schijven ziet (die gaan niet doorgestoken worden)
Geen driver ondersteuning is mijn gok. Dit blog is wat dat betreft wel handig.

http://www.v-front.de/201...ported-sata-ahci.html?m=1

[ Voor 15% gewijzigd door Pantagruel op 19-03-2015 12:48 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Geen matches
Pantagruel schreef op donderdag 19 maart 2015 @ 12:45:
[...]


Geen driver ondersteuning is mijn gok.
zo te zien inderdaad, Dit lijkt dat op te lossen

Acties:
  • 0 Henk 'm!

  • TheSec
  • Registratie: December 2007
  • Laatst online: 08-07 13:38

TheSec

Waarom ?

Geen matches
nagasy schreef op woensdag 18 maart 2015 @ 15:17:
[...]

De controller hangt neem ik aan ook aan je Storage VM?
Interessant concept.
Ofc :9

Bijkomend voordeel dat ik met de raptor gewoon mijn lijn(1Gb/s) al dicht trek dus had ik ook voor langzamer (cold storage) disks kunnen kiezen.

Heeft er iemand toevallig Transmission over NFS draaien. Bij mijn trekt hij me hele NFS naar de maan :P zelfs zo hard dat na 3min het OS op de download vm begint te zeuren dat transmission hangt 8)7 of zou dat aan me verbinding liggen.. Boven de 20MB/s zijn geen rare snelheden voor mij.. (2 VMs Storage en Download over NFS verbonden.)

Niet schieten is altijd mis ;)


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Geen matches
TheSec schreef op donderdag 19 maart 2015 @ 17:10:
[...]

Ofc :9

Bijkomend voordeel dat ik met de raptor gewoon mijn lijn(1Gb/s) al dicht trek dus had ik ook voor langzamer (cold storage) disks kunnen kiezen.

Heeft er iemand toevallig Transmission over NFS draaien. Bij mijn trekt hij me hele NFS naar de maan :P zelfs zo hard dat na 3min het OS op de download vm begint te zeuren dat transmission hangt 8)7 of zou dat aan me verbinding liggen.. Boven de 20MB/s zijn geen rare snelheden voor mij.. (2 VMs Storage en Download over NFS verbonden.)
Transmission over nfs, ik denk dat dat niet lekker loopt omdat torrents wel wat iops gebruiken.. wat ik zou doen is alles eerst lokaal binnen halen en een scripte die de boel copied naar je NFS zodra de torrent klaar is.

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 28-09 22:00

Kek

3flix

Matched: esxi
Ok ik heb mijn esxi bak dus nu werkend zonder externe hba's, de 6poort controller door gestuurt naar freenas, en de 2poorts controller voor datastore, het werk. in de zin; alles start op.

alleen nu kunnen de plugins niet meer gevonden worden via de browser, ze krijgen een ip maar kan ze niet bereiken... iemand enig idee (de freenas NIC is veranders omdat deze nu in esxi zit)

Acties:
  • 0 Henk 'm!

  • TheSec
  • Registratie: December 2007
  • Laatst online: 08-07 13:38

TheSec

Waarom ?

Geen matches
Kek schreef op donderdag 19 maart 2015 @ 17:42:
[...]


Transmission over nfs, ik denk dat dat niet lekker loopt omdat torrents wel wat iops gebruiken.. wat ik zou doen is alles eerst lokaal binnen halen en een scripte die de boel copied naar je NFS zodra de torrent klaar is.
Ja zat ik ook al aan te denken maar helaas is mijn SSD niet zo groot. en gezien ik vaak torrents van +50GB binnen haal meerdere tegelijk... kan ik moeilijk dat lokaal even kwijt :P ga nog wel even naar transmission config kijken of ik het aantal iops kan verlagen. thx voor het mee denken ;)

UPDATE:
Transmission leent zich der niet voor over NFS.. De snelheid van NFS is opzich genoeg, helaas als ik de cache van Transmission vergroot(zorgt voor minder iops) dan crashed de daemon.. Heb hem nou op me storage VM geinstalleerd. werkt ook.. al hou ik meer van het compartimenteren van applicaties.. ;w

[ Voor 20% gewijzigd door TheSec op 21-03-2015 20:57 ]

Niet schieten is altijd mis ;)


Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Matched: esxi
Eventjes een sanity-check.

Ik wil de volgende ESXi-machine gaan bestellen:

#ProductPrijsSubtotaal
1ASRock C2750D4I€ 399,-€ 399,-
1Fractal Design Node 304 Zwart€ 67,95€ 67,95
4Kingston ValueRAM KVR16N11H/8€ 59,95€ 239,80
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 840 EVO 250GB€ 111,37€ 111,37
Bekijk collectie
Importeer producten
Totaal€ 877,07


Doel wordt vooral lab voor onder andere VMware NSX en Docker etc. Acht logical cores plus 32GB geheugen lijkt me genoeg.

Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.

Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.

Hieronder wat de NUCs kosten in dezelfde configuratie:

#ProductPrijsSubtotaal
2Intel NUC5i3RYH€ 271,50€ 543,-
2Corsair Vengeance CMSX16GX3M2B1600C9€ 134,50€ 269,-
1Samsung 840 EVO 250GB€ 111,37€ 111,37
Bekijk collectie
Importeer producten
Totaal€ 923,37

[ Voor 22% gewijzigd door yeehaw op 24-03-2015 21:13 ]


Acties:
  • 0 Henk 'm!

  • TheSec
  • Registratie: December 2007
  • Laatst online: 08-07 13:38

TheSec

Waarom ?

Matched: esxi
yeehaw schreef op dinsdag 24 maart 2015 @ 21:06:
Eventjes een sanity-check.

Ik wil de volgende ESXi-machine gaan bestellen:

#ProductPrijsSubtotaal
1ASRock C2750D4I€ 399,-€ 399,-
1Fractal Design Node 304 Zwart€ 67,95€ 67,95
4Kingston ValueRAM KVR16N11H/8€ 59,95€ 239,80
1Seasonic G-series 360 watt€ 58,95€ 58,95
1Samsung 840 EVO 250GB€ 111,37€ 111,37
Bekijk collectie
Importeer producten
Totaal€ 877,07


Doel wordt vooral lab voor onder andere VMware NSX en Docker etc. Acht logical cores plus 32GB geheugen lijkt me genoeg.

Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.

Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.

Hieronder wat de NUCs kosten in dezelfde configuratie:

#ProductPrijsSubtotaal
2Intel NUC5i3RYH€ 271,50€ 543,-
2Corsair Vengeance CMSX16GX3M2B1600C9€ 134,50€ 269,-
1Samsung 840 EVO 250GB€ 111,37€ 111,37
Bekijk collectie
Importeer producten
Totaal€ 923,37
Geen ervaring met NSX nog docker dus over de specs kan ik weinig zeggen al ziet het er niet slecht uit. Zou wel raar opkijken als dit niet genoeg zou zijn :9

Niet schieten is altijd mis ;)


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Ik ben niet echt een fan van de atom cores en 64GB is al vrij snel krap. Als je zeker weet dat je niet meer geheugen of CPU power nodig hebt is het een fraaie oplossing.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Matched: esxi
64GB te weinig? Voor wat? Zelfs voor een gigantisch thuis testnetwerk is dat genoeg... ESXi doet transparant page sharing, dus je kan al vrij snel elke Windows based VM met 'maar' 4GB geheugen uitrusten.

Dan kan je dus 15 VM's tegelijkertijd in gebruik hebben...

Dat is best wel veel...

Even niets...


Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Geen matches
Ik denk dat ik qua geheugen wel goed zit, zit me meer af te vragen of die atoms snel genoeg zijn. Misschien toch m-atx met een Xeon-1231v3, maar das gelijk weer zo'n grote stap. Keuzes enzo

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 29-09 09:01

_Arthur

blub

Geen matches
yeehaw schreef op woensdag 25 maart 2015 @ 10:06:
zit me meer af te vragen of die atoms snel genoeg zijn.
Wat wil je er mee gaan doen.

Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Geen matches
10-15 vms draaien ongeveer. Als ik zo lees is de atom soc ongeveer een halve E3-1220v3. Ik denk niet dat ik veel cpu power nodig heb, maar ik weet niet of dit gewoon wat linux en incidenteel wat Windows vms prima kan draaien.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Matched: esxi
FireDrunk schreef op woensdag 25 maart 2015 @ 09:42:
64GB te weinig? Voor wat? Zelfs voor een gigantisch thuis testnetwerk is dat genoeg... ESXi doet transparant page sharing, dus je kan al vrij snel elke Windows based VM met 'maar' 4GB geheugen uitrusten.

Dan kan je dus 15 VM's tegelijkertijd in gebruik hebben...

Dat is best wel veel...
Ik snap dat voor de mensen die hier de gratis versie van ESXi voor thuis gebruiken 64GB als een gigantische hoeveelheid geheugen zal lijken. Maar als je thuis een lab wil bouwen om enterprise zaken te leren dan is het helemaal niets. De management componenten nemen dit al in gebruik, tenzij je maar een klein stukje van de stack gaat gebruiken. Ik kom maar net uit met 80GB (paar vm's op NAS met 16GB en 2 32GB hosts) en ga denk ik mijn lab vervangen door 2 hosts met 128GB. Voor een enterprise is de management overhead vrijwel niets, omdat ze honderd+ hosts hebben, voor een lab thuis is de management overhead gigantisch.

In jouw geval is de management overhead 1-2GB, bij mij 64GB.

TPS is een onderwerp voor een andere keer, maar in het kort helpt het een stuk minder dan het ooit deed en zijn de meeste management componenten Linux VM's waarbij het meeste geheugen naar Java heaps en databases gaat.
yeehaw schreef op woensdag 25 maart 2015 @ 12:00:
10-15 vms draaien ongeveer. Als ik zo lees is de atom soc ongeveer een halve E3-1220v3. Ik denk niet dat ik veel cpu power nodig heb, maar ik weet niet of dit gewoon wat linux en incidenteel wat Windows vms prima kan draaien.
Het probleem is dat de meeste mensen naar de multithreaded performance kijken. Echter zijn er nog zoveel zaken die single threaded draaien en daar zit het probleem. Dit is de hoofdreden waarom ik niet van atoms hou, single threaded 3-4x langzamer. (Zelfs nog 3x langzamer ten opzichte van mijn low voltage 2GHz 1240L v3's die wel een 3GHz turbo hebben.)

Nogmaals, als jouw use case geen CPU power vereist dan is het een goedkope en goede manier om veel geheugen te hebben. Maar voor je koopt wil je dit eigenlijk weten en ook goed nadenken over wat je in de toekomst nog wil. Eigenlijk een beetje zoals ik er nu mee zit. Ik kom geheugen te kort, dat had ik liever voor de aankoop geweten omdat de boel nu waarschijnlijk met flink verlies V en A in zal gaan. In mijn geval komt het door dat ik niet had verwacht dat ik de rest van de stack ook zou gaan gebruiken.

[ Voor 57% gewijzigd door |sWORDs| op 25-03-2015 12:55 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Geen matches
Mooie setups hier de laatste tijd. Ik heb via V&A wat spul kunnen regelen i5 2400 inplaats van i3 2100, Intel DH77KC (VT-d) in plaats van een H67 bord. Daarnaast nog 16GB ram erbij voor in totaal 24GB, zodat ik ook wat meer kan spelen met de wat leukere VMware appliances De i5 was waarschijnlijk niet echt nodig, maar was te goedkoop om te laten liggen.

Had tevens ook een i350-T4 uit China, want is lekker zuinig, nieuwe firmware erop gezet werkt prima, lijkt helemaal origineel Intel te zijn. Krijg hem alleen niet meer uit het moederbord, zit helemaal klem :D

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Ik heb ook i350-T4's, zowel in mijn hosts als mijn nas gestopt (Alles heeft nu 6x 1Gbit). Ik ben er erg blij mee, doen het prima. Ik zal nog eens een plaatje maken van mijn volledige setup, als ik het niet binnenkort vervang. (Ik ben er nog niet helemaal uit of ik er een identieke host naast plaats of de boel swap voor Xeon D-1540's en 10Gbe of misschien zelfs 1 D-1540 als derde host of een aankoopbeheersingscursus ga volgen en me redden met de beperkte resources.)

[ Voor 58% gewijzigd door |sWORDs| op 25-03-2015 13:34 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 29-09 09:01

_Arthur

blub

Geen matches
yeehaw schreef op woensdag 25 maart 2015 @ 12:00:
10-15 vms draaien ongeveer. Als ik zo lees is de atom soc ongeveer een halve E3-1220v3. Ik denk niet dat ik veel cpu power nodig heb, maar ik weet niet of dit gewoon wat linux en incidenteel wat Windows vms prima kan draaien.
Wat is incidenteel? Draaien die 10-15VM's continue en wat is de vermoedelijke werklast? Als je er 'flink' mee aan de gang wilt, zou ik niet aan een C2750D4I aanraden maar iets snellers (ik heb er een namelijk).

Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Geen matches
Ok, kan je aangeven waarmee jij een bottleneck hebt? Ik vind het lastig om de gehele workload nu te defineren, maar een tiental VM's verwacht ik wel dat er constant aanstaan. Ik kan qua budget ook voor een Xeon set-up gaan, maar het is vooral de ruimte waar ik mee zit. mini-itx zou fijn zijn.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Xeon D-15xx is m-itx.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 20:09
Geen matches
True, misschien wacht ik wel even om te zien of die nog goedkoper worden dan 800 euro voor alleen het moederbord :).

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 29-09 09:01

_Arthur

blub

Geen matches
yeehaw schreef op woensdag 25 maart 2015 @ 14:24:
Ok, kan je aangeven waarmee jij een bottleneck hebt?
Bottleneck? Ik denk niet dat dat het juiste woord is. Maar zoals hier al gezegd; het is niet de snelste in topsnelheid. Je moet het ding meer zien als stevige diesel die gewoon lekker door stampt.

Want werken doet ie prima. Ik heb er nu 4 VM's opdraaien (in Hyper-V). Win8.1, Win10, Win2012R2 en Win2015. Workload is niet hoog. Kan in de toekomst veranderen, maar op dit moment niet meer nodig ;)

Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 23:41
Matched: esxi
yeehaw schreef op dinsdag 24 maart 2015 @ 21:06:
Eventjes een sanity-check.

Ik wil de volgende ESXi-machine gaan bestellen:

[knip]

Plan is om de 2 onboard poorten op de switch aan te sluiten en m'n ZFS bakje met een losse dual port nic aan te sluiten. Vervolgens kan ik de SSD gebruiken als Flash read cache.

Iemand nog bezwaren? Voor zover ik zie zou dit beter moeten presteren dan de NUCs, plus de nieuwe broadwell-D bordjes worden minimaal 800 euro zonder geheugen.

[knip]
Je gaat zo'n enorme spijt krijgen van VFRC! Dat is echt een minder fijn product. Als je graag je workloads wat wilt versnellen kun je beter een single node VSAN cluster of iets met PernixData doen. vSphere 6 heeft ook een complete API voor storage caching en buffering dus er zullen de komende maanden wel meer van dit soort producten aankomen (weet in elk geval dat er één van SANdisk aankomt)

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
yeehaw schreef op woensdag 25 maart 2015 @ 20:31:
True, misschien wacht ik wel even om te zien of die nog goedkoper worden dan 800 euro voor alleen het moederbord :).
1100+ voor moederbord (bevat ook CPU en 10Gbe) en het geheugen is 2400+ voor 128GB...

Het bord zakt na lange tijd vast naar 900, maar ik denk dat het geheugen flink gaat dalen. Maakt de D nu eigenlijk niet interessant, met een beetje pech is bovenstaande combi over een jaar de helft waard nieuw.

Misschien moet ik een avaton naast mijn huidige hosts plaatsen voor de componenten die veel mem en weinig CPU nodig hebben, of toch maar een 3e Xeon e3 host.

[ Voor 42% gewijzigd door |sWORDs| op 25-03-2015 22:44 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
|sWORDs| schreef op woensdag 25 maart 2015 @ 12:07:
Ik snap dat voor de mensen die hier de gratis versie van ESXi voor thuis gebruiken 64GB als een gigantische hoeveelheid geheugen zal lijken. Maar als je thuis een lab wil bouwen om enterprise zaken te leren dan is het helemaal niets.
Leuk verhaal maar wel fors overdreven. Thuis heb je niet de workload zoals met enterprises en kun je heel veel zaken zelfs onder de minimum systeem vereisten draaien. Ook wanneer dit Windows betreft. Die ervaringen zijn er alom. Zat mensen die complete enterprise setups draaien met een gevirtualiseerde vSphere omgeving in Workstation/Fusion op hun notebook die hoogstens 16GB aan geheugen heeft. Als je echt hele leuke dingen wil doen en lekker ruim in het sop wil zitten dan zal 64GB leuk zijn maar als minimum vereiste...daar zijn de praktijkervaringen niet naar.

Je zult verstelt staan hoeveel zaken al prima draaien met maar 256MB aan geheugen.
Het probleem is dat de meeste mensen naar de multithreaded performance kijken. Echter zijn er nog zoveel zaken die single threaded draaien en daar zit het probleem. Dit is de hoofdreden waarom ik niet van atoms hou, single threaded 3-4x langzamer. (Zelfs nog 3x langzamer ten opzichte van mijn low voltage 2GHz 1240L v3's die wel een 3GHz turbo hebben.)
Daar zou ik dan ook eerder naar kijken. Hyperthreading is ook allemaal leuk en aardig maar zo heel erg veel voegt dat qua snelheid en mogelijkheden ook niet toe. Het maakt je hardware alleen iets efficiënter.
Maar voor je koopt wil je dit eigenlijk weten en ook goed nadenken over wat je in de toekomst nog wil.
Allemaal heel logisch en toch vergeten veel mensen dat te doen. Tja, je kunt niet aan alles denken. Het helpt in dit geval ook als je wat specifieker bent wat je met Docker en NSX van plan bent en welke verwachtingen je daarbij hebt. Voor hetzelfde geldt liggen die zo hoog dat je niet met 64GB uit komt of juist zo laag dat 32GB al voldoende is.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
ppl schreef op woensdag 25 maart 2015 @ 23:31:
[...]

Leuk verhaal maar wel fors overdreven.
Doe maar eens een 3x kernel+DC+VCSA+View+Workspace+NSX+vSAN+AppVolumes+Mirage+vRealize (De EUC stack)

[ Voor 49% gewijzigd door |sWORDs| op 26-03-2015 00:08 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
Dat is inderdaad een flink voorbeeld, maar waarom zou je er 3 tegelijk draaien? Wat leer je daar van?

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Ik heb het over 1x die stack op 3 hosts, je moet de kernel en nsx 3x rekenen, ik kom dan bij de defaults al op:

3GB voor 3x kernel
2GB voor DC
8GB voor VCSA
8GB voor View (4+4, 10+8 aanbevolen)
2GB voor VUM
6GB voor Workspace
20GB voor NSX (3x4+8)
4GB voor vSAN
4GB voor AppVolumes
8GB voor vRealize
16GB voor Mirage (8+8)
____________________+
73GB

En daar kun je her en der wat vanaf halen, maar je moet ook nog wat VM's kunnen deployen met View en een terminal server draaien. Gelukkig kan Mirage uit als ik er niet mee bezig ben.

Vandaar dat ik dus zeg dat in mijn geval 80GB niet echt ruim is en 64GB gewoon te krap is en dan moet ik eigenlijk ook nog met vGPU en DaaS aan de slag.

[ Voor 95% gewijzigd door |sWORDs| op 26-03-2015 10:28 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Xmoo
  • Registratie: December 2009
  • Laatst online: 18-09 22:23
Matched: esxi
Heren ik heb mijn test ESXi server geupgrade van 5.5 naar 6.0.

Nu kan ik met Vsphere client wel verbinden naar de ESXi server maar met vcenter 5.5 waar wij alle ESXi server hebben toegevoegd staan, geeft hij bij de 6.0 disconnected aan.

Heeft dit te maken met de vsphere server versie? Nog meer mensen die hier last van hebben?

[ Voor 7% gewijzigd door Xmoo op 26-03-2015 14:15 ]


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Matched: esxi
Xmoo schreef op donderdag 26 maart 2015 @ 13:54:
Heren ik heb mijn test ESXi server geupgrade van 5.5 naar 6.0.

Nu kan ik met Vsphere client wel verbinden naar de ESXi server maar met vcenter 5.5 waar wij alle ESXi server hebben toegevoegd staan, geeft hij bij de 6.0 disconnected aan.

Heeft dit te maken met de vsphere server versie? Nog meer mensen die hier last van hebben?
De regel is om altijd eerst vcenter te upgraden naar 6.0, en daarna pas hosts, anders krijg je dit inderdaad. Toen ik ik ging upgraden naar 5.5 heb ik eerst gelezen in de upgrade guides, en daar staat altijd eerst vCenter upgraden en dan pas hosts.. Je kan wel met 5.5 vCenter een 5.0 hosts managen maar het kan niet andersom. Niemand anders zal er last van hebben want het hoort gewoon zo.

Gelukkig heb je dit met een test server gedaan :+

[ Voor 18% gewijzigd door Zenix op 26-03-2015 14:28 ]


Acties:
  • 0 Henk 'm!

  • Xmoo
  • Registratie: December 2009
  • Laatst online: 18-09 22:23
Geen matches
Zenix schreef op donderdag 26 maart 2015 @ 14:24:
[...]


De regel is om altijd eerst vcenter te upgraden naar 6.0, en daarna pas hosts, anders krijg je dit inderdaad. Toen ik ik ging upgraden naar 5.5 heb ik eerst gelezen in de upgrade guides, en daar staat altijd eerst vCenter upgraden en dan pas hosts.. Je kan wel met 5.5 vCenter een 5.0 hosts managen maar het kan niet andersom. Niemand anders zal er last van hebben want het hoort gewoon zo.

Gelukkig heb je dit met een test server gedaan :+
Thank you. Gelukkig met Shift+R weer terug kunnen gaan naar 5.5

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
|sWORDs| schreef op donderdag 26 maart 2015 @ 00:01:
[...]

Doe maar eens een 3x kernel+DC+VCSA+View+Workspace+NSX+vSAN+AppVolumes+Mirage+vRealize (De EUC stack)
Doe jij maar eens uitgaan van de workflow van een ander ipv je eigen als je advies aan het geven bent. Bovenstaande is absoluut NIET de definitie van een enterprise workflow, het is niet meer dan een voorbeeld uit duizenden van wat een enterprise workflow kan inhouden.

Je berekening gaat wellicht op voor je eigen setup maar het zegt helemaal niets over dat van een ander. Op hardforum zijn er zat die ook enterprise setups draaien en binnen de 32GB aan geheugen blijven (vaak ook niet zo raar omdat de hardware niet meer dan dat ondersteund). Ik kan hier ook prima een complete enterprise omgeving obv Linux vm's opzetten waarbij het geheugen echt niet voorbij de 512MB per vm hoeft te komen. Niet zo heel raar want ik heb niet de workload van een enterprise in mijn lab. En zo zijn er meer enterprise lab setups te bedenken waarbij je verhaal totaal niet opgaat.

Beter om zelf even een berekening te maken van wat je vm's nodig hebben en daarbij kun je prima van de minimale systeemvereisten uit gaan. Er zijn namelijk geen vaste maatstaven voor hoeveelheid geheugen in een ESXi doos/omgeving.

[ Voor 9% gewijzigd door ppl op 26-03-2015 17:59 ]


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
De gevraagde setup was sowieso al vsan, nsx en 3th party, vandaar de opmerking dat eerst kijken wat er mogelijk nog gaat komen wel handig is. Je kunt dus mijn voorbeeld als niet ter zake bestempelen, maar jouw voorbeeld staat er veel verder vanaf. Ik geef juist het voorbeeld om een vergelijking te kunnen doen. Zodra je aan de slag wil voor VMware certificaten zit je al vrij snel op een van de grote stacks (Cloud of EUC).

Mogenlijk zit de discussie in het enterprise deel. Ik heb het over een enterprise virtualisatie stack bouwen voor training. Niet over het virtueel draaien van een nagebootste enterprise omgeving. Daarnaast zou je in dit topic mijn functie en werkgever kunnen vinden, laten we het er niet over hebben of mijn berekeningen van VMware stacks redelijk zijn... We hebben een intern forum voor onze home labs en hoewel er wel eens een met 48GB (3 nucs) voorbij komt is vrijwel alles 64GB+.

Maar misschien kunnen we het er over eens zijn dat we het niet eens zijn. Mij lijkt het verstandig om naar meer dan 64GB te kijken indien er later nog meer wensen bij kunnen komen. Jij vind het onzin. Vraagsteller heeft twee meningen en kan zijn eigen conclussies trekken. Iedereen blij en we kunnen het weer ergens anders over hebben.

[ Voor 87% gewijzigd door |sWORDs| op 26-03-2015 18:49 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
Geen matches
Mwoah, 8 GB voor een vCenter virtual appliance is aan de heftige kant, ik heb bij een aantal (kleine) bedrijven een VCSA zien staan met 4 GB, eentje zelfs met 3. Dat is al 50% tot 63% minder RAM dan 'aanbevolen', en zo zal dat met wel meer van die appliances op gaan.

Daarnaast zet je die stack op 3 hosts, 73 GB delen door 3 hosts is 24.333 GB ram, dan heb je met 32 GB in je host dus nog ruimte voor 3 VDI-sessies met ieder 2 GB ram of 7 met 1 GB (en dan heb ik het nog niet over TPS).

Ik zeg niet dat 32 GB ruim is voor een VMware-host, maar als je aangeeft dat je met 192 GB RAM in je thuis-cluster te weinig hebt (je bouwt je stack over 3 hosts en geeft aan dat 64 GB krap is. Ja, ik heb gezien dat je in werkelijkheid momenteel maar 80 GB hebt), dan snap ik ook wel dat mensen vreemd opkijken :)

Dat gezegd hebbend, ik heb ook 128 GB in mijn 'servertje' thuis, maar ik kon goedkoop aan het geheugen komen, anders had er waarschijnlijk maar 32 in gezeten. Als ik mijn ZFS-VM niet meetel heb ik maar 14 GB uitgegeven momenteel en dan zitten een paar VM's nog ruimer in hun jasje dan eigenlijk nodig. Moet eigenlijk weer eens mijn "Hoe zet ik zonder GRID-kaart PCoIP met vDGA of VT-d'd 3D-kaart op"-projectje verder oppakken, eens kijken of ik op mijn laptop fatsoenlijk kan gamen :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
64 GB totaal, niet per host.

En 4GB minimaal was met VCSA 5.x, bij 6.x is het minimaal 8GB. Misschien start hij met ietsje minder (daarom stond er ook dat er her en der vast iets af te schaven is), maar dit zijn echt de minimale opgegeven waardes.

Als antwoord op je vraag aan jezelf: Weerstanden op een Kepler kaart (zodat het een Quadro of K lijkt) en 4 vCPU's (86% snellere memory copy, 49% write, 44% read performance dan bij 2 vCPU's, een finding van nVidia maar gevalideerd door VMware) en minimaal gelijk vRAM aan videogeheugen, zorg ook dat je VMXNET3 gebruikt.
Wat verder nog belangrijk is:
PCoIP tuning (framelimitter en build to lossless uit, max initial 80%)
QoS voor PCoIP (Wel opletten dat je de juiste switches gebruikt, sommige switches worden heel traag met QoS aan, mocht je trouwens niets anders in je netwerk draaien tijdens het gamen of altijd wel 100Mbit vrij hebben op alle lijnen en switches tot aan de laptop dan kun je dit ook overslaan.)
Wired netwerk

Als je de beste experience wil zou je naar een zeroclient ipv laptop kunnen kijken.

Ik wacht nog steeds op mijn K2 (krijgen waarschijnlijk samples van nVidia). Maar ik wil binnenkort al een 4GB 680 of 770 modden naar een K2, dan heb je exact een halve K2 en als het werkt zouden de vGPU profielen ook moeten kloppen en het mogelijk moeten zijn om een K260Q, een K240Q en twee K220Q's uit te delen aan VM's. Ik hoop alleen niet dat er naast de manager ook nog iets in de BIOS moet zitten voor vGPU.

edit: Aanvullende info, thuis typen is makkelijker dan in een taxiënd vliegtuig.

[ Voor 178% gewijzigd door |sWORDs| op 29-03-2015 12:41 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 29-09 09:01

_Arthur

blub

Geen matches
|sWORDs| schreef op donderdag 26 maart 2015 @ 09:23:
Ik heb het over 1x die stack op 3 hosts; 73GB
Dus, 73GB verspreid over 3 fysieke machines. Dat is natuurlijk iets anders (en mogelijk goedkoper) dan minimaal 73GB in 1 fysieke machine. En ik denk dat de meeste hier in dit topic van het laatste uitgaan/gingen.

32GB in 1 fysieke machine is prima betaalbaar. 64GB (met maar 4 sloten) is gelijk een boel duurder.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Er was een ander onderwerp met het nesten van die drie hosts op 1. Dan heb je het dus wel over 1 host, maar dan 1x1.

[ Voor 6% gewijzigd door |sWORDs| op 26-03-2015 19:50 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
Geen matches
Die was ik inderdaad al aan het volgen :) Tnx voor de tips.
(krijgen waarschijnlijk samples van nVidia). Maar ik wil binnenkort al een 4GB 680 of 770 modden naar een K2, dan heb je exact een halve K2
</jaloers> :+

Beetje jammer dat de TDP's van die 680 en 770's niet de helft zijn van een K2, en ook idle gebruiken ze behoorlijk. In mijn lab zou de kaart 99% van de tijd idle zijn. Daarnaast speelt aanschafprijs mee. Ik ben er nog niet over uit, waarschijnlijk hebben eerst andere dingen prio :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Volgens mij komt dat alleen door de clocks. Een K2 is volgens mij een 690 maar dan met 2x4 ipv 2x2GB.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Matched: esxi
Iemand OPNsense al gespot? Is een fork van pfSense en het lijkt erop dat dit is ontwikkeld door een aantal Nederlanders. Ik heb nu pfSense draaien in ESXi, maar dit ziet er ook wel veelbelovend uit, in ieder geval een prettigere GUi ten opzichte van pfSense. Wanneer je pfSense 2.1.5 of iets hebt draaien kun je hier een export van maken en deze gelijk in OPNsense importeren. Best jammer nu ik net pfSense 2.2.1 heb draaien :9

[ Voor 22% gewijzigd door FREAKJAM op 28-03-2015 14:09 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • OsiriS.nl
  • Registratie: April 2005
  • Laatst online: 23-09 14:14
Geen matches
Zo, mijn VSAN clustertje is volledig geupgrade naar 6.0. Deze week maar eens wat vergelijkende benchmarks draaien.
Hier iemand die ook onlangs heeft geupgrade naar 6.0?

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: esxi
FREAKJAM schreef op zaterdag 28 maart 2015 @ 14:06:
Iemand OPNsense al gespot? Is een fork van pfSense en het lijkt erop dat dit is ontwikkeld door een aantal Nederlanders. Ik heb nu pfSense draaien in ESXi, maar dit ziet er ook wel veelbelovend uit, in ieder geval een prettigere GUi ten opzichte van pfSense. Wanneer je pfSense 2.1.5 of iets hebt draaien kun je hier een export van maken en deze gelijk in OPNsense importeren. Best jammer nu ik net pfSense 2.2.1 heb draaien :9
Jep gespot, ben er ook mee aan het spelen.

Contact gegevens:
Get in touch with us
Email : project@opnsense.org
Office address : Burgemeester Mijslaan 2, 3241XA Middelharnis, The Netherlands


Kijken dus inderdaad nederlanders achter te zitten. Misschien tijd voor een los topic?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
Wauw, dat ziet er veelbelovend uit!
Stukken beter dan dat gedrocht van pfSense...

Misschien binnenkort maar eens proberen...

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 16:05
Geen matches
OsiriS.nl schreef op zondag 29 maart 2015 @ 18:09:
Zo, mijn VSAN clustertje is volledig geupgrade naar 6.0. Deze week maar eens wat vergelijkende benchmarks draaien.
Hier iemand die ook onlangs heeft geupgrade naar 6.0?
Jep, mijn single host naar 6.0 gebracht.

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 23:41
Geen matches
OsiriS.nl schreef op zondag 29 maart 2015 @ 18:09:
Zo, mijn VSAN clustertje is volledig geupgrade naar 6.0. Deze week maar eens wat vergelijkende benchmarks draaien.
Hier iemand die ook onlangs heeft geupgrade naar 6.0?
Ja, hier ook maar ik wilde gelijk naar het nieuwe VSAN FS zonder onzin dus eigenlijk is het nieuwbouw.
De hele upgrade procedure gaan we later nog een keer virtueel proberen.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Matched: esxi
FREAKJAM schreef op zaterdag 28 maart 2015 @ 14:06:
Iemand OPNsense al gespot? Is een fork van pfSense en het lijkt erop dat dit is ontwikkeld door een aantal Nederlanders. Ik heb nu pfSense draaien in ESXi, maar dit ziet er ook wel veelbelovend uit, in ieder geval een prettigere GUi ten opzichte van pfSense. Wanneer je pfSense 2.1.5 of iets hebt draaien kun je hier een export van maken en deze gelijk in OPNsense importeren. Best jammer nu ik net pfSense 2.2.1 heb draaien :9
offtopic:
Snap niet zo goed wat dit in ESXI topic moet maargoed..

Gewoon copy-paste van pfSense 2.2 snapshot ( niet eens 2.2 final ) met een mooiere gui. Niet alle packages zoals bijvoorbeeld pfblocker zullen werken, wat voor mij de meerwaarde is van pfSense: de community. Enige reden dat ze dit hebben gedaan, zodat ze ook kunnen verdienen aan pfSense met de ondersteuning en het verkopen van appliances, dus behoorlijk commercieel. Als je ziet wat pfSense crew allemaal van plan is: https://blog.pfsense.org/?p=1588 en ook met een nieuwe GUI gaat komen, dan vind ik pfSense toch een stuk beter. pfSense heeft ook aangegeven als er goede dingen in OPNsense komen dat ze dat ook gaan gebruiken in pfSense. https://forum.pfsense.org/index.php?topic=86170.0

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 28-09 00:06

FREAKJAM

"MAXIMUM"

Matched: esxi
Reden dat ik het noemde in dit topic is omdat pfSense vrij vaak is besproken in dit topic, plus dat je het kunt draaien in ESXi. (Ik draai het zelf ook in ESXi). Maar je hebt wel een punt, wellicht is het wel tijd voor een pfSense topic.

is everything cool?


Acties:
  • 0 Henk 'm!

  • OsiriS.nl
  • Registratie: April 2005
  • Laatst online: 23-09 14:14
Geen matches
Upgrade naar FS v2 ging perfect hier!
Gewoon guide volgen en na een hele tijd is ie klaar en is alles geupdate...

Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 26-09 10:20
Matched: esxi
Zenix schreef op maandag 30 maart 2015 @ 14:11:
[...]


offtopic:
Snap niet zo goed wat dit in ESXI topic moet maargoed..

Gewoon copy-paste van pfSense 2.2 snapshot ( niet eens 2.2 final ) met een mooiere gui. Niet alle packages zoals bijvoorbeeld pfblocker zullen werken, wat voor mij de meerwaarde is van pfSense: de community. Enige reden dat ze dit hebben gedaan, zodat ze ook kunnen verdienen aan pfSense met de ondersteuning en het verkopen van appliances, dus behoorlijk commercieel. Als je ziet wat pfSense crew allemaal van plan is: https://blog.pfsense.org/?p=1588 en ook met een nieuwe GUI gaat komen, dan vind ik pfSense toch een stuk beter. pfSense heeft ook aangegeven als er goede dingen in OPNsense komen dat ze dat ook gaan gebruiken in pfSense. https://forum.pfsense.org/index.php?topic=86170.0
Eens. _/-\o_

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • 3DDude
  • Registratie: November 2005
  • Laatst online: 22:56

3DDude

I void warranty's

Geen matches
FireStarter schreef op zaterdag 14 maart 2015 @ 12:21:
Ik volg dit draadje nu al een tijdje maar ik heb nog geen vergelijkbare vraag gezien.

Ik wil investeren in een thuislab. Dit thuislab moet voldoende power hebben om grote labs op te kunnen bouwen. Om NSX te kunnen testen heb je al snel +32GB nodig.
En als ik voor mijn Cisco CCIE security wil leren met al die virtuele appliances dan zit je al snel op +45-50GB mem.
Voor storage kies ik waarschijnlijk voor de DS415+, deze wil ik met 4 schijven uitrusten.
2x 3TB hdd en 2x 256 GB SSD? Of liever 4x3TB hdd?

Vervolgens wil ik de NAS aan een managed switch koppelen. Aan deze switch wil ik ook 3 nodes koppelen.
En over deze configuratie ben ik nog steeds niet uit.
Mijn voorkeur ging uit naar een NUC, 3x ofzo maar deze gaan maar tot 16GB..
Heeft het zin om de NUC's ook uit te rusten met een 120GB sdd?

Mijn budget is 500 euro per node en voor de NAS 1000.

Wat zouden jullie kiezen?
1 NUC = max 32GB.

De nieuwe Broadwell varianten kunnen 2*16GB.
Voor ram zie onder andere: http://www.intelligentmemory.com/

In de nucs kan ook een m.2 SSD maar het schijnt dat, dat alleen de SATA variant kan zijn (hey PCI-Express is niet supported... maar dat is wel veel sneller)..

*ik ben hier ook nog naar aan het kijken, ik weet dat Ruben Spruijt een 4 Node cluster heeft met 128GB ram totaal dus*

[ Voor 4% gewijzigd door 3DDude op 06-04-2015 13:09 ]

Be nice, You Assholes :)


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Matched: esxi
Het gebruik van NUCs is aan de ene kant heel interessant (kosten en size) maar aan de andere kant ook weer een behoorlijke uitdaging. Je zit met de beperking in geheugen (Haswell en nieuwer kan 32GB, maar dat geheugen is niet goedkoop) en netwerk. In een van mijn eerdere posts zie je een 2x Gbit mini PCI-e, maar ook daar moet je toch ergens een gaatje boren. Dan zit je nog met het shared storage probleem, voor vSAN, NFS of iSCSI wil je eigenlijk 10Gbit en bij vSAN moet je ook nog eens twee drives hebben dus zit je sowieso al aan de hoge variant. Van de Haswell serie en nieuwer zijn nog geen varianten met AMT en zul je dus je toetsenbord en muis moet pakken voor de (her)inrichting.

Het blijft lastig, elke oplossing voor thuis heeft behoorlijke drawbacks. Ik denk dat de NUCs een aardige oplossing zijn icm met iSCSI voor het testen van vMotion, eventuele IO hungry VM's op local storage.
Mocht je iSCSI target meerdere NICs hebben dan kun je de prestaties nog behoorlijk tunen met preferred path en je path selection policy, maar dat helpt alleen voor het totaal, per individuele VM blijft het altijd maximaal 110-120MB/s. MPIO helpt, maar is geen wondermiddel. Met 1 path naar twee hosts en IO naar vm's op beide hosts haal ik 110MB/s, met 2 NICs voor iSCSI per host (en 3 op de target) haal ik 130MB/s op 1 host en 170MB/s vanaf twee hosts. Best (vrijwel, geen jumbo frames gebruikt) case scenario, target SSD raid0, switch met alleen iSCSI, VM's met paravirtual SCSI adapter. Preferred path moet ik nog testen, maar ik verwacht 220MB/s aan traffic totaal van 2 hosts.

Ik denk eigenlijk dat nested op een D-1540 met 128GB en een PCIe M2 kaart in een mitx case uiteindelijk de fijnste oplossing gaat zijn, echter moet het DDR4 geheugen dan nog flink omlaag en daar blijft het lastiger om de boel op te zetten. Je hebt dan wel 4 NUCs met gestackte memory modules met een hogere clockfrequentie zonder externe connectie bottlenecks (storage en inter vm networking in memory) met een lager verbruik in een kleinere opervlakte.

Zelfs met de huidige prijzen zou het goedkoper zijn dan 4 NUCs met 32GB voor VSAN:

8 x 16GB module = 2760
4x i5 NUC = 1560
4x 512GB M2 = 860
4x 32GB SATA = 140
4x dual I350 mini PCIe = 360
totaal = 5680

Voor 5000 heb je een D-1540 in een m-itx case met 128GB DDR4 en een 1.2TB Intel 750. Of als je met 512GB af kan (eventueel opendedupe o.i.d. als storage VM naast de nested hosts), kan daar nog wel 700 af.
De vraag is alleen wat ESXi doet met een NVMe of Samsung PCIe...
Aangezien de D-1540 borden met 10Gbit maar enkele tientjes duurder zijn zou in mijn geval een 10Gbit kaart voor de NAS kopen en direct (zonder switch) aansluiten ook nog een optie zijn.
Of SATA gebruiken met 6 2.5" in een 5.25" bay.

[ Voor 66% gewijzigd door |sWORDs| op 06-04-2015 16:37 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
Hier mijn nieuwe thuislab:

#ProductPrijsSubtotaal
1Intel Xeon E5-2620 v2 Boxed€ 437,50€ 437,50
1Supermicro X9SRL-F€ 298,50€ 298,50
1Ultron RealPower RPS19-450€ 75,-€ 75,-
1Scythe Mugen 4 PCGH Edition€ 35,95€ 35,95
3Crucial CT2K16G3ERSDD4186D€ 329,-€ 987,-
1Cooler Master GM G750M€ 72,95€ 72,95
1Samsung 830 series SSD 256GB€ 0,-€ 0,-
1Samsung 840 EVO 250GB€ 107,24€ 107,24
1Fusion IO 320GB Pcie card----
Bekijk collectie
Importeer producten
Totaal€ 2.014,14


Specifiek voor een setup gekozen met minimaal 96GB, maar uitbreidbaar naar 256GB. Eigenlijk vanwege dezelfde reden als sWORDs, het gehele scala van VMware EUC producten inclusief vROPS en vRA moet er op komen te draaien.

Er zijn wel CPU's te krijgen met een lagere TDP dan 80 watt, maar dat komt over het algemeen de rekenkracht niet ten goede.

Vrijdag gaat alles geïnstalleerd worden, ik ben benieuwd..

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:29
Geen matches
Dan zou ik alvast een andere koeler bestellen helaas ;( Je moederbord heeft een Narrow ILM terwijl je koeler alleen Square ILM ondersteunt.

Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4

Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
Paul schreef op woensdag 22 april 2015 @ 22:08:
Dan zou ik alvast een andere koeler bestellen helaas ;( Je moederbord heeft een Narrow ILM terwijl je koeler alleen Square ILM ondersteunt.

Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4

Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.
Goede tip. Ik ga er gelijk achter aan..

Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Geen matches
klikos schreef op woensdag 22 april 2015 @ 18:26:
Hier mijn nieuwe thuislab:

#ProductPrijsSubtotaal
1Intel Xeon E5-2620 v2 Boxed€ 437,50€ 437,50
1Supermicro X9SRL-F€ 298,50€ 298,50
1Ultron RealPower RPS19-450€ 75,-€ 75,-
1Scythe Mugen 4 PCGH Edition€ 35,95€ 35,95
3Crucial CT2K16G3ERSDD4186D€ 329,-€ 987,-
1Cooler Master GM G750M€ 72,95€ 72,95
1Samsung 830 series SSD 256GB€ 0,-€ 0,-
1Samsung 840 EVO 250GB€ 107,24€ 107,24
1Fusion IO 320GB Pcie card----
Bekijk collectie
Importeer producten
Totaal€ 2.014,14


Specifiek voor een setup gekozen met minimaal 96GB, maar uitbreidbaar naar 256GB. Eigenlijk vanwege dezelfde reden als sWORDs, het gehele scala van VMware EUC producten inclusief vROPS en vRA moet er op komen te draaien.

Er zijn wel CPU's te krijgen met een lagere TDP dan 80 watt, maar dat komt over het algemeen de rekenkracht niet ten goede.

Vrijdag gaat alles geïnstalleerd worden, ik ben benieuwd..
Waarom die voeding? En ik zou geen evo SSD nemen in een server, zeker niet de 840.

Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
Zenix schreef op donderdag 23 april 2015 @ 07:54:
[...]


Waarom die voeding? En ik zou geen evo SSD nemen in een server, zeker niet de 840.
Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?

Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..

Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
De config is inmiddels wat aangepast en ik heb een Nvidia Quadro 2000 kaart besteld voor vDGA.

#ProductPrijsSubtotaal
1Intel Xeon E5-2620 v2 Boxed€ 437,50€ 437,50
1Supermicro X9SRL-F€ 298,50€ 298,50
1HP Nvidia Quadro 2000 1GB€ 445,28€ 445,28
1Ultron RealPower RPS19-450€ 75,-€ 75,-
1Noctua NH-U12DXi4€ 57,50€ 57,50
3Crucial CT2K16G3ERSDD4186D€ 329,-€ 987,-
1Cooler Master GM G750M€ 72,95€ 72,95
1Samsung 830 series SSD 256GB€ 0,-€ 0,-
1Samsung 840 EVO 250GB€ 107,24€ 107,24
1Fusion IO 320GB Pcie card----
Bekijk collectie
Importeer producten
Totaal€ 2.480,97

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Geen matches
klikos schreef op donderdag 23 april 2015 @ 08:22:
[...]


Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?
Lager rendement dan veel andere gelijk geprijsde voedingen welke veel minder extreem overdreven zijn. Mindere kwaliteit doordat je zoveel mogelijk overdreven vermogen kiest voor zo weinig mogelijk euro's. Bij voedingen doen de meeste mensen er goed aan om zo weinig mogelijk vermogen te nemen voor zoveel mogelijk euro's. Veel mensen zijn in de veronderstelling dat meer beter zou zijn.
Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..
De uitleessnelheid van wat oudere bestanden is extreem traag bij deze SSD.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
-The_Mask- schreef op donderdag 23 april 2015 @ 09:29:
[...]

Lager rendement dan veel andere gelijk geprijsde voedingen welke veel minder extreem overdreven zijn. Mindere kwaliteit doordat je zoveel mogelijk overdreven vermogen kiest voor zo weinig mogelijk euro's. Bij voedingen doen de meeste mensen er goed aan om zo weinig mogelijk vermogen te nemen voor zoveel mogelijk euro's. Veel mensen zijn in de veronderstelling dat meer beter zou zijn.

[...]
Ik heb de recensies op deze website gelezen en daar waren mensen over het algemeen zeer tevreden.
En dus zie ik geen reden om hem niet aan te schaffen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Geen matches
klikos schreef op donderdag 23 april 2015 @ 09:35:
[...]


Ik heb de recensies op deze website gelezen en daar waren mensen over het algemeen zeer tevreden.
En dus zie ik geen reden om hem niet aan te schaffen.
Ik zie geen reden om die mensen serieus te nemen. Veel verder dan, "hij doet het en ziet er leuk uit" komen de meeste mensen toch niet.

Als je echt wat wil weten over een voeding moet je een review lezen waarvan de reviewer die weet wat die doet, hij/zij een loadtester, oscilloscoop, AC power meter en een multimeter heeft en weet te gebruiken en daarnaast kan vertellen over de interne kwaliteit. Pas dan kun je een goede review schrijven en kom je wat te weten over de voeding.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
klikos schreef op donderdag 23 april 2015 @ 09:02:
De config is inmiddels wat aangepast en ik heb een Nvidia Quadro 2000 kaart besteld voor vDGA.

#ProductPrijsSubtotaal
1Intel Xeon E5-2620 v2 Boxed€ 437,50€ 437,50
1Supermicro X9SRL-F€ 298,50€ 298,50
1HP Nvidia Quadro 2000 1GB€ 445,28€ 445,28
1Ultron RealPower RPS19-450€ 75,-€ 75,-
1Noctua NH-U12DXi4€ 57,50€ 57,50
3Crucial CT2K16G3ERSDD4186D€ 329,-€ 987,-
1Cooler Master GM G750M€ 72,95€ 72,95
1Samsung 830 series SSD 256GB€ 0,-€ 0,-
1Samsung 840 EVO 250GB€ 107,24€ 107,24
1Fusion IO 320GB Pcie card----
Bekijk collectie
Importeer producten
Totaal€ 2.480,97
Dat is een hoop geld voor een GT 720...

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
|sWORDs| schreef op donderdag 23 april 2015 @ 09:57:
[...]

Dat is een hoop geld voor een GT 720...
Heb ik er niet voor betaald natuurlijk.. :)

<offtopic>Heb ik jou vorige week niet ontmoet in Frimley?</offtopic>

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Geen matches
Ja, dat was ik met minder haar. ;) Mail me op mijn VMware mailaccount dan kunnen we het wat uitgebreider over je setup hebben.

[ Voor 13% gewijzigd door |sWORDs| op 23-04-2015 11:16 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Nu online

Zenix

BOE!

Geen matches
klikos schreef op donderdag 23 april 2015 @ 08:22:
[...]


Waarom niet? Heeft genoeg SATA aansluitingen, 750 watt lijkt me voldoende, is lekker stil. Zijn er redenen om hem niet in te zetten?

Die evo draait al een jaar prima in mijn oude lab. Ik heb hier geen klachten over..
Over de voeding sluit ik mij aan bij -The-Mask-
Simpelweg omdat het een SSD is met een SLC cache, wat als het goed werkt zeer snel is. Maar als je meer data gaat verplaatsen dan in die cache past, gaat de performance een stuk omlaag. Bij een MLC SSD is de initiële performance misschien lager(ligt eraan welke SSD) maar de performance blijft altijd hetzelfde. En dan zijn de nog de performance issues met oudere bestanden. Kortom een EVO voor een server vind ik niet verstandig. De 830 heeft al die problemen niet en is een prima keuze.

Maar omdat je hem al hebt kan je hem prima gebruiken, omdat het toch maar een lab is.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Domba schreef op donderdag 21 april 2011 @ 14:58:
[...]


Sorry dit was inderdaad wat ik bedoelde met VM, want voor zoneminder met captercard heb ik nog geen enkele positieve reactie gevonden, maar wel in combinatie met USB en IP.

Alleen met IP dien ik niet alleen mobo/proc te vervangen, maar alles in 1 klap en vergelijkbare IP camera's van wat ik nu heb zijn niet bepaald goedkoop en verder heb ik voor de gewenste/gebruikte resolutie, alleen maar één oplossing met 2 aparte NIC's gezien met VMware server 2.0, waarmee ik op een totaal van 4 zou komen.
In proxmox kan je alvast de IO's rechtstreeks aanspreken vanuit een OpenVZ machine. Ik heb zo een gast die hier instaat voor het geluid en die gebruikt dan de geluidskaart van de host. Dat zou je dus zeker voor zoneminder ook moeten kunnen doen.

Ik heb ter info bij een hoop klanten (wel op Proxmox) VM hosts draaien op AMD AM1 Athlon 5350 (25W TDP op een quad core) zo'n server kost met 8GB ram in een ITX Elite 110 behuizing en 2 * 128GB SSD (gewoon MDADM RAID1) een goede 300 euro en daar draait bij één klant het volgende op met 10 gebruikers:

1 * Zimbra
1 * Sophos UTM
1 * Zentyal AD/DC
1 * backup naar externe schijf
1 * Asterisk centrale

En dat allemaal op één NIC, lang leve managed POE switchen voor een appel en een ei van TP-Link >:)

Alleen spijtig dat de klanten mijn enthiusiasme niet delen en niet snappen dat zoiets met conventionele apparatuur meer dan 10 000 euro had gekost...

Met die SAS2008 controllers (ik gebruik D2607's) heb ik ook ervaring maar aangezien ik toch altijd voor MDADM kies opteer ik tegenwoordig liever voor een bord waar native genoeg SATA3 poorten opzitten.

[ Voor 33% gewijzigd door Verwijderd op 23-04-2015 15:08 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Geen matches
Enige grote nadeel is eigenlijk dat je geen ECC hebt... Dat lijkt mij persoonlijk wel cruciaal voor dit soort servertjes...

Even niets...


Acties:
  • 0 Henk 'm!

  • Zerobase
  • Registratie: Februari 2007
  • Niet online
Matched: esxi
Weet niet zeker of de vraag hier thuishoort, maar: Heb net een SSD in mijn ESXI server gestopt (Samsung 850 EVO 500GB) en de VM's die ik al had draaien heb ik hier naartoe verhuisd (Gebruikte eerst een NFS datastore op een Synology NAS).

Ik heb 90% van de SSD gealloceerd.

Wat ik me echter afvraag: Heeft het zin om ook nog een stukje van de SSD te reserveren voor 'Swap to Host Cache', of heeft dat geen zin?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Matched: esxi
Dat ligt er aan of het geheugen van je host propvol zit... Esxi zal ook gewoon ram gebruiken voor cache, dus als je over hebt zal de winst minimaal zijn.

Bovendien is een SSD voor 100% gebruiken nooit bevorderlijk voor de performance.

Even niets...


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 20:20
Geen matches
FireDrunk schreef op donderdag 23 april 2015 @ 15:32:
Enige grote nadeel is eigenlijk dat je geen ECC hebt... Dat lijkt mij persoonlijk wel cruciaal voor dit soort servertjes...
Ook voor een homelab? Voor productieomgevingen natuurlijk wel, maar voor thuisgebruik wat de meesten hier doen is het toch niet noodzakelijk?

[ Voor 4% gewijzigd door rachez op 23-04-2015 18:40 ]


Acties:
  • 0 Henk 'm!

  • klikos
  • Registratie: Augustus 2002
  • Laatst online: 18-09 10:58
Geen matches
Paul schreef op woensdag 22 april 2015 @ 22:08:
Dan zou ik alvast een andere koeler bestellen helaas ;( Je moederbord heeft een Narrow ILM terwijl je koeler alleen Square ILM ondersteunt.

Ik heb Supermicro's eigen koeler gebruikt: pricewatch: Supermicro SNK-P0050AP4

Ik heb daar blind een andere fan (pricewatch: be quiet! Shadow Wings PWM, 92mm) bij gekocht ivm geluid, maar die is eigenlijk niet eens echt nodig, stock maakt ook niet veel herrie.
Fan blijkt ook niet te passen in mijn case. Dus nu voor een noctua fan van 12cm hoog gegaan..

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
FireDrunk schreef op donderdag 23 april 2015 @ 15:32:
Enige grote nadeel is eigenlijk dat je geen ECC hebt... Dat lijkt mij persoonlijk wel cruciaal voor dit soort servertjes...
Alleen het geheugen maar? Als ik de specs zo bekijk dan is het wel erg duidelijk dat het hier om desktop hardware gaat en niet om server hardware. Dat werkt prima bij heel veel bedrijven waar echte server hardware, zoals ECC geheugen, compleet nutteloos is. Bij dat soort setups is server hardware eerder het grote nadeel aangezien de kosten niet op kunnen tegen de baten. Je zult toch echt naar de toepassing moeten kijken vooraleer je een uitspraak kunt doen of het missen van een bepaalde feature een nadeel is of niet.
Zerobase schreef op donderdag 23 april 2015 @ 16:32:
Wat ik me echter afvraag: Heeft het zin om ook nog een stukje van de SSD te reserveren voor 'Swap to Host Cache', of heeft dat geen zin?
Die optie zit er in voor wie gebruik maakt van traditionele schijven of iets van een NAS/SAN. Als je toch al alles op een ssd draait heeft het geen zin om nog een andere ssd voor caching te gebruiken vanuit performance oogpunt. Wellicht dat het wat kan uitmaken met diskspace.
FireDrunk schreef op donderdag 23 april 2015 @ 17:41:
Dat ligt er aan of het geheugen van je host propvol zit... Esxi zal ook gewoon ram gebruiken voor cache, dus als je over hebt zal de winst minimaal zijn.
ESXi swapt ook wanneer je nog genoeg geheugen over hebt om zo efficiënter met het geheugen om te gaan. De conclusie blijft echter hetzelfde: je ziet weinig winst want zo gek veel wordt er nou ook weer niet geswapt en je zult het ook alleen goed merken bij trage opslag.
rachez schreef op donderdag 23 april 2015 @ 18:39:
Ook voor een homelab? Voor productieomgevingen natuurlijk wel, maar voor thuisgebruik wat de meesten hier doen is het toch niet noodzakelijk?
Het ligt aan de toepassing. Een aantal mensen hier willen ZFS gebruiken met alle mogelijkheden die het heeft. Dat kan aardig zonder ECC maar dan moet je wel een aantal hele handige dingen van ZFS missen. Daarom luidt het advies ook vrij unaniem om bij gebruik van ZFS dat niet zonder ECC geheugen te doen.

Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 20:20
Geen matches
check, niet aan gedacht. Icm met ZFS kan ik het me inderdaad voorstellen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Matched: esxi
@PPL, Over je eerste antwoord, volgens mij had hij het er over: " Ik heb bij veel klanten..." Dat klinkt bij mij zakelijk... Dus voordat je zo scherp uit de hoek komt... Misschien iets genuanceerder...

Over je tweede reactie, kan je die onderbouwen?
http://www.yellow-bricks....ich-vsphere-memory-state/
Hier staat namelijk de volgende volgorde:

Memory state
Threshold Actions performed
High 300% of minFree Break Large Pages (wait for next TPS run)
Clear 100% of minFree Break Large Pages and actively call TPS to collapse pages
Soft 64% of minFree TPS + Balloon
Hard 32% of minFree TPS + Compress + Swap
Low 16% of minFree Compress + Swap + Block

Pas bij 32% van minFree (default waarde darvan is dacht ik 150% van je geheugen, maar dat weet ik niet uit mijn hoofd, het is zelfs nog erger, volgens mij praten we hier over minFree als in een hele lage waarde die aangeeft over er memory starvation is binnen ESXi. Ik zie configuraties waar hij op 244MB staat bij een 4GB server.) gaat je systeem swappen. Dat is dus pas als je VM's meer dan 68% van je geheugen actief in gebruik hebben. Dat is dus pas als er minder dan 32% van de minFree waarde beschikbaar is. (Dus niet alleen assigned, maar ook echt in gebruik.) Dat duurt wel even. Dan praat je echt over enkele honderden MB's geheugen vrij.

[ Voor 20% gewijzigd door FireDrunk op 24-04-2015 08:27 ]

Even niets...

Pagina: 1 ... 82 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.