Ik heb dan weer geen ervaring met ZFS maar afhankelijk van de load die te zien is, en de hardware die je test moet je dit duidelijk kunnen krijgen.FireDrunk schreef op maandag 25 juli 2016 @ 15:08:
@GeeMonkey, kan iorate "zien" op welke layer de IOPS verstookt worden dan?
Want in het geval van ZFS moet je rekening houden met je ARC hit ratio, (eventueel je L2ARC hit ratio), je vdev cache ratio, en daarvoor zit misschien zelfs nog client caching (in het geval van iSCSI).
Ik heb wel eens zitten kijken naar of er tools zijn die dit goed uit plotten (verschil tussen frontend iops en backend iops), maar die zijn er maar weinig.
iorate kan in ieder geval onder linux en AIX de system cache ontwijken, ook kan je dit op AIX in ieder geval forceren middels mount/os opties. Ik weet niet of dit met ZFS(FreeBSD?) ook kan.
Als je een cache hebt van zeg 16GB dan is het zaak om te testen met een workset groter dan 16GB, nadat die cache gevuld is zakt de performance natuurlijk in en weet je dat je buiten je cache om zit. (iorate kan zo goed als 100% random i/o patronen genereren waardoor de cache permanent omzeild kan worden.)
Voorbeeld uit de praktijk: Recent een EMC mid-range systeem met 12TB SSD-Cache doorgetest vanuit een AIX Host met een data workset van 30TB. Deze test duurde langer dan 36 uur om tot goede zuivere resultaten te komen. (het vullen van de cache vergt tijd, en elke test wil ik minimaal 24 uur draaien alvorens met conclusies te komen).
Uiteraard spelen ook andere zaken een rol, CPU/Memory/Paden richting storage etc.
[ Voor 3% gewijzigd door GeeMoney op 25-07-2016 15:34 ]