Bedankt voor de uitgebreide reacties allemaal. Er zijn dankzij jullie reacties een aantal zaken (pijnlijk

) duidelijk geworden.
CMD-Snake schreef op zondag 06 oktober 2013 @ 18:24:
Als ik zo snel door je post scroll zie ik al meteen een over commit aan geheugen.
De host heeft 16Gb geheugen. Jij geeft in totaal 24Gb uit aan je VM's. Dat is echt iets wat je niet moet doen en het kost je enorm in je performance. Waarschijnlijk zit je host constant dan in geheugen nood en probeert dit met diverse technieken op te lossen, je eindigt ermee dat de VM host zich suf staat te swappen.
Dennism schreef op zondag 06 oktober 2013 @ 19:22:
Verder inderdaad zoals CMD al aangeeft geheugen niet over commiten. Om geheugen te besparen zou je ervoor kunnen kiezen om DC1 en DC2 in core modus te draaien. Dit bespaard aardig wat resources (wij draaien sommige DC's met 1GB ram in core modus) en is voor zoveer ik weet best practise bij Windows 2012 beheer kan je dan doen vanaf de Server Manager op de 3de installatie. Je zal dan alleen even moeten bekijken of je webserver het ondersteund om te draaien in core modus
ppl schreef op zondag 06 oktober 2013 @ 22:29:
Het toewijzen van resources aan een vm is zo ongeveer het belangrijkste onderdeel. Het beste lijkt een conservatieve aanpak te zijn. Wees dus terughoudend in hoeveelheid geheugen en cpu power die je aan een vm toewijst. Je kunt ook resource pools aanmaken in ESXi om performance beter onder controle te houden (je kunt dit overigens ook per vm doen). Let ook op wat je toewijst aan disk size en of deze thick of thin provisioned is. Wijs zeer zeker ook niet aan iedere vm dezelfde hoeveelheid resources toe. Bekijk per vm wat het nodig heeft en begin klein want je kunt het altijd opschalen als het niet voldoende blijkt te zijn. Daardoor kun je vm's die geheugen nodig hebben dat ook geven
Ik heb me hier ernstig op verkeken en geen rekening gehouden met de footprint van ESXi zelf. Ik heb e.e.a. gecontroleerd en ik ben het systeem aan het verstikken als het om de hoeveelheid beschikbaar geheugen gaat. VM1 en VM2 gebruiken respectievelijk 3,5GB en 3,6GB. Windows ziet natuurlijk dat er een hoeveelheid geheugen beschikbaar is en maakt er gretig gebruik van. Niet over nagedacht en dus verlies ik met 2 VMs al meer dan de helft van mijn beschikbare hoeveelheid geheugen! Tel daarbij het gebruik van 5,9GB van VM3 op en de footprint van ESXi zelf en er blijft niks meer over. Terug naar de tekentafel hiermee!
Overigens VM1 en VM2 draaien op Server 2012 Core! Vergeten dit te melden in mijn startpost! Geïnstalleerd als standaard, daarna ingesteld en daarna ingesteld op Core, verder beheer via VM3.
Voor de Virtual Disks heb ik de standaard instelling van Thick Provisioning Lazy Zero laten staan. Thin Provisioning lijkt mij juist meer IOPS kosten met een nog grotere strain. Eager Zero schijnt niet veel verschil uit te maken heb ik begrepen.
CMD-Snake schreef op zondag 06 oktober 2013 @ 18:24:
Je wilt ook producten draaien die erg veel geheugen gaan gebruiken, Exchange heeft een enorme behoefte aan geheugen en zal zoveel mogelijk pakken als er is. Als je SCCM wilt gebruiken heb je nog een SQL Server nodig die ook wel wat RAM lust. SCCM is overigens ook niet vies van wat geheugen gebruik afhankelijk van hoe groot de omgeving is en wat je er allemaal mee doet.
Een tip zou dus zijn om meer geheugen te plaatsen. Of geef je VM's minder RAM. Bedenk ook dat de host zelf geheugen nodig heeft. ESXi heeft ook wat nodig voor zichzelf.
Wat je dus eigenlijk stelt is dat ik dit allereerst beter uit moet denken en de beschikbare resources eerst moet uitbreiden en daarna beter en efficiënter moet verdelen. Om maar even een voorbeeld te noemen met beperkt budget (2e hands hardware):
BIOS: P56 (NX-bit, VT, Static High Performance mode)
CPU: 2x Intel Xeon E5420 2.50 GHz Quad-Core
RAM: 24GB PC2-5300F
RAID: HP Smart Array P400 512MB BBWC
Storage: 8x 146GB 10K disks + 4GB USB stick
NIC: 2x 1Gbit (draait echter maar op 100Mbit vanwege het netwerk) - Load Balanced via ESXi
Beoogde Hypervisor: HP VMWare ESXi v5.1 U1
USB: ESXi installatie
RAID0: 2x146GB - Voor alle Server 2012 OS'en (~65GB per OS)
RAID5: 6x146GB - Mailbox storage, home folder storage, SCCM packages e.d.
ESXi (2GB RAM)
VM1 (1CPU-AffinityMask 6 - 1GB RAM - 65GB): Server 2012 Core + (P)DC + DNS + DHCP
VM2 (1CPU-AffinityMask 7 - 1GB RAM - 65GB): Server 2012 Core + (P)DC + DNS + DHCP + Webserver (Geen IIS)
VM3 (4CPU-AffinityMask 0,1,6,7 - 10GB RAM - 65GB + 40GB): Server 2012 + Exchange 2013 + Server Management
VM4 (4CPU-AffinityMask 2,3,4,5 - 10GB RAM - 65GB + Rest): Server 2012 Core + SCCM 2012 + Storage
Is het niet beter om specifiek aan te geven welke server wat tot zijn beschikking heeft, zoals in bovengenoemde voorbeeld?
CMD-Snake schreef op zondag 06 oktober 2013 @ 18:24:
In je storage zie ik ook dat je RAID 0 wilt gebruiken. Niet doen zou ik zeggen. Ik zou kiezen voor RAID 1. Ja, je hebt mindere schrijf performance, maar als een disk kapot gaat draait de boel nog vrolijk door als je een goede RAID kaart hebt. Bij RAID0 is het over als een schijf sterft. Dan moet je een back-up terug gaan zetten.
Ik begrijp je redenatie. Mijn voorkeur voor RAID0 is simpelweg een financiële overweging. Als ik bovenstaand als voorbeeld neem zou ik twee RAID1 arrays nodig hebben en één RAID5 array. Dan mis ik meteen 3x146GB. Van het RAID5 array zal pakweg 400GB storage useable zijn en dan moet er nog 24GB + aan VMWare Swapfiles plus nog eens 10GB voor het pagefile van de Exchange server vanaf getrokken worden. Dan neem ik de NTFS overhead nog niet eens in beschouwing. Mijn beschikbare hoeveelheid storage gaat er dan maar mondjesmaat op vooruit. Ik zou dan al moeten kijken of 2x300GB + 6x146GB. Dilemma dit!
Overwogen, maar besloten hier niet voor te kiezen, omdat ESXi 5.0 de laatste officieel ondersteunde versie is voor G5 servers. Het HP image van 5.1 is voor zo ver ik weet de laatste versie die HP drivers voor mijn server heeft. 5.5 is volgens mij alleen geschikt voor G7 en gen8 servers van HP en ik durfde het dan ook niet aan om het te proberen. Jij hebt hier een andere ervaring mee misschien?
Dennism schreef op zondag 06 oktober 2013 @ 19:22:
Verder de machine zelf: CPU kracht is ruim afdoede voor jouw doeleinden. Ram kan een bottle neck zijn, dit is echter afhankelijk van bijv de load op de exchange server. Bij een lage load kan deze makkelijk uit met bijv 8GB. Denk ook aan het feit dat ESX volgens mij zelf ook iets van 2GB reserveerd voor zichzelf, waardoor je eigenlijk maar 14GB netto hebt.
Van de CPU had ik verwacht dat deze inderdaad voldoende zou zijn. Zoals ik al aangaf heb ik me echter op de hoeveelheid RAM verkeken en totaal geen rekening gehouden met de footprint van ESXi. Vandaar bovengenoemde voorbeeld.
De load zal met maximaal 5 gelijktijdige gebruikers niet heel hoog zijn. Ook de mailboxgrootte zal erg beperkt zijn (ik denk 1GB TOTAAL). OWA en ActiveSync zullen wel gebruikt worden. Zou dit toch te doen zijn met 8GB? Ik heb een slecht beeld van het geheugengebruik van Exchange, want ik heb het alleen mogen aanschouwen in “business” situaties (ca. 4000 mailboxen) en dat ga je niet redden met 8GB

Dennism schreef op zondag 06 oktober 2013 @ 19:22:
2 NIC's kan ook en bottlenneck zijn, zeker op 100mbit, upgrade naar 1Gbit zal dan ook een prio zijn denk ik. Als je kiest vooor een NAS storage erbij (zie verder op in mijn post) zou ik mogelijk een upgrade aanraden naar 4 nic's, daar dit voor een paar tientjes kan (zie bijv V&A). Ook als je wil oefenen met ESXI is dit aan te raden.
Qua storage zit je denk ik wel erg krap. Ik zou ESX van USB stick gaan draaien zodat je daar niet al te al teveel storage aan verliest. Server 2012 wordt geloof ik al aangeraden om voor 60GB te kizen bij de install voor de c:\ partitie. Raid 0 niet gebruiken tenzij je goede backups hebt en downtime geen probleem is, 1 schijf dood is alles weg, en uit ervaring weet ik dat deze schijven nog wel eens willen overlijden. Ik weeet niet of je eventueel nog budget hebt. Maar anders zou je er ook voor kunnen kiezen om er een NAS naast te zetten voor data opslag. Je kan dan de disks in de machine gebruiken om bijv een Raid 10 aan te maken van de 8 interne schijven voor de OS/programma partities en de data schijven op een NAS te plaatsen, dit zal ook performance schelen om je interne storage minder IOPS hoeft af te handelen. Dit doe ik zelf ook in mijn homelab.
Het vervelende van het overschakelen naar 1Gbit is dat ik gelijk een heleboel apparatuur moet vervangen, omdat het simpelweg geen 1Gbit ondersteund. Mijn vaste computers zijn allebei voorzien van Gbit NICs, maar ik heb hier minstens 4 APs, 2 printers en nog wat andere randapparatuur die vervangen zou moeten worden. Hetzelfde geldt dus eigenlijk ook voor het plaatsen van een NAS. Als ik het geld had had ik alleen maar Gbit apparatuur en een NAS gevuld met een paar 2TB schijven i.c.m. ZFS. Stopte ik per OS een compatible SSD in de server en gaan met die banaan. Wat betreft RAID0, dat zal ik even voor mezelf uit moeten vogelen.
ppl schreef op zondag 06 oktober 2013 @ 22:29:
Mocht ESXi toch teveel beperkingen hebben en is Hyper-V nog steeds geen oplossing dan zou XenServer een goed alternatief kunnen zijn. Met ESXi 5.5 heb je echter weinig beperkingen, de meest belangrijke (maximaal hoeveelheid geheugen) is sinds 5.5 opgeheven (je kunt nu dus 128GB gebruiken als je dat hebt ipv max. 32GB zoals bij ESXi 5.1 en lager).
Ik denk dat ik met mijn server, qua hard en software nou niet echt direct tegen de limieten ga lopen van ESXi. Ik gebruik, naar mijn bescheiden mening, vooral de basis functies van het pakket en een betaalde licentie heeft niet echt veel meerwaarde voor mij.
ppl schreef op zondag 06 oktober 2013 @ 22:29:
Naast geheugen is ESXi ook gebrand op goede snelle I/O. Een RAID array doet al veel (naast een stukje high availability), ssd's doen nog meer (kijk even naar het prijsverschil tussen ssd en 15k SAS schijf).
Ik ben niet van plan om schijven nieuw aan te schaffen, dit omdat 15K schijven met redelijke capaciteit of SSDs met soortgelijke capaciteit gewoon een stuk duurder zijn. Het is een thuisserver dus ik kan best met uitval van een schijf leven (Dus tweedehands is geen bezwaar in deze, immers zijn mijn huidige schijven ook gebruikt). Mijn backup Exchanger houdt e-mails 10 dagen vast en availability is voornamelijk voor mijzelf een probleem, niet zo zeer voor andere gebruikers.
ppl schreef op zondag 06 oktober 2013 @ 22:29:
Tot slot nog iets wat niet met performance te maken heeft: aangezien je alles op de virtualisatie host wil gaan draaien is het ook niet onverstandig om eens naar de networking mogelijkheden te gaan kijken. De gratis ESXi versie is hierin beperkt (ja je kunt nog wel iets met LACP/trunking doen voor network failover en ja je hebt nog wel een virtuele switch). Hoe dat bij een Hyper-V en een XenServer zit weet ik niet. Wellicht nog wel op te vangen door gebruik van VLANs.
Ho, stop! Hier ga ik even op de rem trappen haha. Networking is niet echt mijn ding en termen als LACP zeggen mij niks moet ik bekennen. De huidige setup is zoals aangegeven vrij simpel. Ik ben al blij dat ESXi het eenvoudig maakt om load balancing in te stellen.
Wim-Bart schreef op zondag 06 oktober 2013 @ 22:39:
[...]
A. Server 2012 wil gewoon 60 GB hebben tijdens installatie.
B. Afhankelijk van aantal mailboxen is Exchange + IIS met 8 GB al zat maar wel met 4 cores.
C. Een DC heeft met 1 GB en 1 Core al meer dan zat, ook onder 2012. Dus met 2GB per machine ben je al klaar.
D. Maak voor storage gewoon een 4e VM. Met 2GB geheugen en 1 CPU.
A. Officiële minimum voor Server 2012 is (even uit mijn hoofd) ca. 35GB. Dat het geen recommended practice is ben ik wel helemaal met je eens. Ik ga mijn hardware configuratie wel herzien, zoals boven aangegeven
B. Dat zou dan mogelijk moeten zijn met bovengenoemde configuratie
C. Dat gaat sowieso gebeuren inderdaad. 1CPU, 1GB RAM en Server 2012 Core
D. Storage zal niet intensief gebruikt worden, zou denk in mijn geval teveel resources kosten en overkill zijn.
Dronium schreef op zondag 06 oktober 2013 @ 22:40:
Je schrijft bij iedere VM "2x Intel Xeon E5420 2.50 GHz Quad-Core (Volledig beschikbaar)" maar hoeveel vCPU's heb je aan de verschillende VM's toegekend? Als dat bij iedere VM 8 vCPU's zijn kan daar ook wel eens een bottelneck zitten.
Wat betreft Exchange: Ik heb zelf een Exchange 2010 server draaien met 3 normale een 10 tal lichte gebruikers, de VM heeft "maar" 4 Gb geheugen, maar er zijn geen klachten over de performance. Ik weet niet hoe groot het verschil is met Exchange 2013 maar ik denk dat het met 6 of 8 Gb ook prima werkt.
vCPU is voor alle hosts in de huidige pilot gelijk (2 sockets, 2 Quad-Core CPUs). Ik wil dit dus in de uiteindelijke configuratie aanpassen naar gelang bovenstaande voorbeeld, mits dat natuurlijk een goed idee zou zijn (gebruik van AffinityMasks bijvoorbeeld).
Dat valt helemaal niet tegen! Ik heb niet echt de indruk dat Exchange 2013 nu echt noemenswaardig veel zwaarder draait dan 2010. Wel valt op dat IIS Worker processon de CPU wel aan het werk zetten.
Question Mark schreef op maandag 07 oktober 2013 @ 09:25:
@TS: complimenten voor de TS.
Waarom ga je gebruik maken van 2 DC's op dezelfde fysieke host? Is dat niet wat overbodig?
Verder zou ik persoonlijk kiezen om alle userdata op de DC te plaatsen, en de Exchange server dedicated laten zijn. Die machine gaat relatief zwaar belast worden, terwijl je DC eigenlijk niet zoveel te doen heeft.
Dank u!
Volgens Microsoft is het best practice om tenminste twee domain controllers te hebben en een DNS backup. Ik heb dat dan ook gedaan. En als je dan toch bezig bent kan je net zo goed ook meteen DHCP zo inregelen, zoveel performance kost dat denk ik niet. Ik ben een beetje huiverig om de userdata op de DC te plaatsen, omdat dat systeem niet al teveel capaciteit zou gaan krijgen.
Meer RAM lijkt me na alle posts in het topic inderdaad een goede oplossing, vooral als ik SSCM in de mix wil gooien. Wat betreft de schijven, ik ben van plan deze tweedehands te kopen. *Afkloppen* Ik ben tot nu toe in heel mijn “thuisserver carrière” nog maar een stuk of 5 defecte schijven tegen gekomen. Allemaal Fujitsu 9,1GB 7200RPM schijven (1997/1998, overleden in 2007). Voor de rest nog nooit met een enkele SAS of SCSI schijf problemen gehad. Not afraid of living on the edge when it comes to the most unreliable part of the server

Dennism schreef op maandag 07 oktober 2013 @ 18:19:
[...]
Werken de huidige consumenten SSD's wel prettig in een G5 dan? Heb in het verleden wat SSD's getest icm de P400 maar alleen maar rare problemen (o.a. uitvallers omdat het systeem geen temperatuur reading kreeg en dus een thermal shutdown gingg uitvoeren, continu meldigen dat de SSD's failed of ready to fail waren terwijl er niets aan de hand was). De enige SSD waarmee het wel normaal liep was er een die van HP zelf was, maarja dan betaalde je ook 600 euro geloof ik voor een 120GB SSD.
SSD support zal wel beperkt zijn voor deze controllers. Het is immers niet de jongste meer in ik betwijfel of HP nog de moeite zou doen om een firmware update uit te brengen. Misschien dat men juist daarom wel een gemodificeerde SSD uit brengt die de fix aan de kant van de SSD heeft die meteen voor elke veoruderde storage controller van HP werkt. Helaas betaal je daar dan ook penning 16 voor.
En nu is mijn typ arm even defect
Of all tyrannies, a tyranny sincerely exercised for the good of its victims may be the most oppressive.