|sWORDs| schreef op maandag 27 februari 2017 @ 12:37:
[...]
Ik had het over een derde SSD als boot/USB op de ASmedia. Ik schrik nogal als ik 808 IOPS zie, tenopzichte van mijn 1.500.000 IOPS (3x Samsung 950 512GB + 3x Intel 750 400GB + Intel 750 1.2TB) of de 47000 IOPS van een eenvoudige SATA SSD datastore.
Het is natuurlijk helemaal prachtig en zeer benijdenswaardig

al jouw NVME geweld.
Ik benadrukken dat ik niet jouw keuzes veroordeel want dat is aan jouw. En persoonlijk vind ik het allemaal prachtig.
Wat ik niet wil is dat het beeld ontstaat van
"zo weinig iops? Nee Henk, dan gaat je ESXi servertje natuurlijk nooit lekker draaien" en dat we nu allemaal voor de 1.500.000 iops moeten gaan want anders ....
Ook moeten we wel appels met appels vergelijken.
Je vergelijkt een NFS datastore met daarachter een enkele ZFS mirror ZONDER SLOG met het gecombineerde aantal iops van al je devices zonder enige context of specificatie.
Om te beginnen noem je geen block size. Je noemt niet of het om reads of writes gaat. Je noemt niet hoe deze storage is geconfigureerd, zijn het lokale datastores? Worden ze via VT-d doorgegeven aan een VM? etc Hoe heb je dit gemeten?
Je had ook de resultaten van mijn enkele pauper NVME kunnen noemen, namelijk meer dan 100000. Dat is lokaal. Of de versie met SLOG kunnen aanhalen.
Meet crystaldiskmark die 1.500.000 iops in een VM? Ik ben erg benieuwd hoeveel iops er over blijven als je dit via NFS aanbiedt. En wat blijft erover als jij dit vanaf ZFS met een NFS export aanbiedt?
Om het nog een klein beetje ontopic te houden, al die NVME devices zijn verschrikkelijke stroomvreters. Die intel 750 1.2TB van jouw
verbruikt 22Watt tijdens schrijven. Ik heb bewust voor SATA gekozen om het juist zo zuinig mogelijk te maken, Een bewuste tradeoff, maar niet een die tot een onwerkbaar systeem leidde.
Ik heb een grote groep gebruikers (lees familie) die vaak meerdere devices hebben en heel veel via mijn ESXi server doen. Tel daarbij de dvr, monitoring, wifi controller etc Vandaar dat dat ding nooit idled. En veel ontwikkel werk, zoals de zfs test suite die dagen kan duren. En dat allemaal tegelijk op dat servertje met die paar iops. Maar heb ik echt te klagen over iops? Niet echt.
Een ESXi datastore op een ZFS based NFS export ZONDER SLOG is geen fijne ervaring en volkomen begrijpelijk dat gebruikers daar over klagen. Maar met een SLOG werkt dit prima en met een NVME SLOG nog veel beter. Vele tienduizenden vSphere omgevingen draaien naar volle tevredenheid op een datastore van een ZFS based NFS export. Ja ik ken use cases die 1.500.000 iops kunnen gebruiken, maar niet thuis. Ook kom je in de exotische hardware terecht om dit te transporteren. Ik heb veel IB ervaring. Zelfs met 56GB IB denk ik dat je nog niet zoveel 4K iops kan transporteren.
Beste lezers,
Ik ben razend benieuwd naar de usecase van iemand die thuis 1.500.000 iops nodig heeft (in zn ESXi server).
Of iemand die tegen de beperking aanloopt van een enkele NVME disk (in zn ESXi server)
Als mensen beperkingen van hun storage voor hun
thuis ESXi server zouden kunnen benoemen dan ben ik daar zeer in geintereseerd. Het is ook nuttig voor de NAS BBG die in de steigers staat.
Ik ben vooral benieuwd naar iops beperkingen.
Misschien heb je te weinig storage capaciteit
Misschien heb je te weinig bandbreedte. Maar is je transport dan niet de beperkende factor.
Misschien is je CPU te traag.
Post alleen realistische use cases aub.
Niet dat je VM niet snel genoeg start. Maar loop je na het booten ergens tegenaan? Bijvoorbeeld je newsleecher staat alleen maar te wachten op je storage. Zoeken naar een mailtje in je email server duurt te lang.