Dus 2 exact dezelfde VMs van andere Gen kunnen dus wisselende performance ten opzichte van elkaar halen/genereren; dat lijkt me al een onwenselijke tot slecht meetbare/herleidbare situatie. Ik weet uit ervaring dat 2 exact dezelfde SQL-inrichtingen op Gen1 en Gen2 tot wel 15% performance-verschil hadden naar "shared" iSCSI-storage. Als je al kan uitsluiten dat Gen1 of Gen2 issues bij jou veroorzaakt, ben je al een heeeel stuk verder.
Host OS is 2012r2
Networking is middels 2x1GBit iSCSI (MPIO) per host naar het storage cluster (4x HP P4500)
Policies en storage QoS zijn (nog) niet geimplementeerd, ik wil eerst weten of dit zinvol is door boven water te krijgen of het nodig is/zin heeft.
Geen QoS policies? Het kan maar is geen best practice voor dit soort setups. Tenminste, op het moment dat je een N+1 cluster (dus hot migration en ander zaken) inricht, doe ik uit mijn hoofd dat je minimaal 3 NIC's moet inzetten voor mgmt-vlan, vm-vlan en storage-vlan. Ga je trunken/MPIO'n/ whatever om meer bandbreedte te generen, zal je voor elk vlan dus minstens 1 extra fysieke NIC moeten koppelen en configureren.
Ook het type/merk/firmware van elke NIC, zowel virtueel als fysiek, zou je op alle fronten zo veel mogelijk hetzelfde moeten hebben. Dit houdt dus ook in dat je je Integration Services moet slipstreamen na een update van het host OS, over het algemeen. Ongetwijfeld is je update-policy voor de hosts & VM's volledig in orde maar bedenk toch even of je niet iets triviaals over het hoofd hebt gezien.
Load meten, watever that may be, heb ik duidelijk aangegeven. Ik wil weten welke VM er verantwoordelijk is voor de totale load richting mijn storage cluster.
Zeker lastig; op een 10-node Hyper-V cluster, waar ik voor het gemak even 64GB RAM per node in zet, kan ik alles draaien van ongeveer 56 2003DC's per node of misschien 1 vette 60GB RAM / 64TB storage Exchange 2013 Server. Natuurlijk is dit een onzinnig voorbeeld maar de rollen van elke VM alsmede de virtuele storage (fat/thin-provisioned, dedup/non-dedup, etc. etc.) hebben een enorme invloed op de performance van een VM en mogelijk ook de performance van je LeftHands.
Ik weet ook niet of je kan beginnen met bepaalde metrics op je storage-layer uit te lezen; mijn sterke kant lag op NetApp niveau en daar had je alleen al een handboek 2 duimen dik om het cache/flash-geheugen te installeren, configureren en monitoren; dat was ook voordat er maar 1 disk daadwerkelijk opspinde of als aggregate/lun/volume werd toegekend.
Overbodig om te melden maar ik neem aan dat alle hosts ook 100% gelijk zijn? Nog geen firmware verschil tussen de eigen controllers / chipsets? Allemaal exact dezelfde type RAM? Zelfde CPU's (want L1 tot L3 caching) etc. etc. etc.? Geen wazige/overboekte NUMA nodes?