[Linux] nvme vraag over max throughput en max iops

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • jb044
  • Registratie: December 2002
  • Laatst online: 16-09 08:05
Onlangs mijn toch wel op leeftijd gekomen storage vervangen door betere en vooral nieuwe hardware, waaronder een Samsung PM9A3 M2 NVME SSD.

Zoals zovelen natuurlijk erg benieuwd naar de prestaties van zo'n ding :) Ik werk zelf met Linux en kwam uit bij KDiskMark hiervoor. Deze heeft een optie O_Direct die standaard aan staat, dit komt volgens mij neer op de volgende optie van fio dat het onder water gebruikt:
direct=bool

If value is true, use non-buffered I/O. This is usually O_DIRECT. Note that OpenBSD and ZFS on Solaris don't support direct I/O. On Windows the synchronous ioengines don't support direct I/O. Default: false.
Hier lees ik dat de default uit is en dat het onder Windows geen optie is.

Goed de reden van dit topic en mijn vraag: met alles op standaard, dus met de optie O_DIRECT haalt de SSD keurig een waarde voor max throughput read die overeenkomt met de gespecificeerde specs van Samsung: circa 6GB/s. De max iops voor random read blijft echter hangen op circa 400.000, de helft van wat Samsung beloofd.

Het vreemde is dat met de optie O_DIRECT uit het precies andersom is, 3GB/s max throughput maar nu wel circa 800.000 iops bij random reads.

Me confused :?

Nu weet ik dat specs altijd rooskleurig zijn maar deze snap ik niet helemaal, al zal er ongetwijfeld een logische verklaring voor zijn.