Ik zit een beetje met een vraag waar ik het antwoord wel op denk te weten, maar wat me niet logisch overkomt gezien de context. Wellicht hebben jullie nog wat input voor me?
Situatie:
Nieuw opgeleverde VMware omgeving met 1x DL380 G7 (er komt nog een 2e voor HA) en een HP P2000 iSCSI SAN, voorzien van 4x 10k SAS disks (R5, 1 LUN, 1 VMFS datastore). De host is met 2x Broadcom NIC's (ingesteld als iSCSI HBA) aangesloten op 2x HP 2910al switches en ingesteld voor multipathing. De beide controllers van de P2000 zitten elk op hun eigen switch, zo is het pad van host naar storage volledig redundant. Alles is ingesteld volgens best practices van HP en VMware.
Nu merk ik al direct bij de eerste installatie van de eerste server dat, bij bijvoorbeeld het openen van iets simpels als de DNS console (Windows), de read delay omhoog schiet naar zo'n 500ms. Ook bij iets als een shutdown schiet de read delay omhoog richting de 500ms. Gek genoeg krijg ik de write delay met allerhande kopieeracties niet boven de 10ms, dat zal het effect zijn van de 2GB aan cache die elke controller heeft.
Mijn eerste redenatie: de 4 disks leveren niet genoeg read IOPS.
Maar nu komt mijn twijfel om de hoek:
Bij een andere klant staat een vergelijkbare 4 disk opstelling als local storage in een vergelijkbare server en levert niet zulke vertragingen. Deze lokale controller heeft notabene ook nog eens minder cache.
Bij weer een andere klant staat ook zo'n P2000, maar dan een 6Gb shared SAS versie (ipv iSCSI). Hierin zitten 6x 15k schijven in R5, maar daarop draaien wel 6-8 servers en die schommelt ook rond maxima van 10ms delay.
Dus nu twijfel ik toch of ik het niet moet zoeken in het iSCSI stuk, dus ofwel finetunen van ESXi ofwel iets in de switches (flow control staat al aan). Heb al zitten kijken naar het finetunen van instellingen mbt Round Robin, maar met maar 1 LUN op 1 actieve controller vraag ik me af wat dat moet verbeteren.
Situatie:
Nieuw opgeleverde VMware omgeving met 1x DL380 G7 (er komt nog een 2e voor HA) en een HP P2000 iSCSI SAN, voorzien van 4x 10k SAS disks (R5, 1 LUN, 1 VMFS datastore). De host is met 2x Broadcom NIC's (ingesteld als iSCSI HBA) aangesloten op 2x HP 2910al switches en ingesteld voor multipathing. De beide controllers van de P2000 zitten elk op hun eigen switch, zo is het pad van host naar storage volledig redundant. Alles is ingesteld volgens best practices van HP en VMware.
Nu merk ik al direct bij de eerste installatie van de eerste server dat, bij bijvoorbeeld het openen van iets simpels als de DNS console (Windows), de read delay omhoog schiet naar zo'n 500ms. Ook bij iets als een shutdown schiet de read delay omhoog richting de 500ms. Gek genoeg krijg ik de write delay met allerhande kopieeracties niet boven de 10ms, dat zal het effect zijn van de 2GB aan cache die elke controller heeft.
Mijn eerste redenatie: de 4 disks leveren niet genoeg read IOPS.
Maar nu komt mijn twijfel om de hoek:
Bij een andere klant staat een vergelijkbare 4 disk opstelling als local storage in een vergelijkbare server en levert niet zulke vertragingen. Deze lokale controller heeft notabene ook nog eens minder cache.
Bij weer een andere klant staat ook zo'n P2000, maar dan een 6Gb shared SAS versie (ipv iSCSI). Hierin zitten 6x 15k schijven in R5, maar daarop draaien wel 6-8 servers en die schommelt ook rond maxima van 10ms delay.
Dus nu twijfel ik toch of ik het niet moet zoeken in het iSCSI stuk, dus ofwel finetunen van ESXi ofwel iets in de switches (flow control staat al aan). Heb al zitten kijken naar het finetunen van instellingen mbt Round Robin, maar met maar 1 LUN op 1 actieve controller vraag ik me af wat dat moet verbeteren.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB