Sinds lange tijd draai ik naar al tevredenheid een KVM hypervisor op Ubunut Server 14.04 maar kom nu langzamerhand er achter dat de disk IOPS niet super zijn.
Voorheen nooit last van gehad omdat de VM's weinig met Read/Writes hebben, maar nu met een ownCloud installatie begin ik goed te merken dat de performance niet al te best is.
Hardware:
Supermicro X8ST3 (Virtualisatie aan)
Intel Xeon E5620 @ 2.40GHz (1x fysiek, 4 cores, hyperthreat, VT-x)
24GB (6x 4GB DIMM 1333 MHz)
2TB Mirror (SoftRAID, LVM, 2x WDC WD20EZRX-00D)
IOPS testje op de hypervisor:
Dit varieerd tussen de 70 en 75 MB/s (Zou volgens de specs 147 MB/s moeten zijn, volgens anderen: HDTune)
Disk specs van Guest:
IOPS testje op een willekeurige Guest:
Het gekke is dat als ik daarna nog een keer deze test doe, ik veel hogere waardes krijg:
Aantal vraagjes:
-Is het normaal dat de Host op 50% van de snelheid zit tenopzichte van fabriekswaardes?
-Is het normaal dat de initiele test op alles Guests rond de 11 MB/s zitten en de volgende tests hoger uitpakken?
-Nog performance/tweak tips van anders KVM-ers?
-Zit te twijfelen om nog een apparte SAN te maken met iSCSI, zou dit performance technich veel verbetering kunnen geven (non blocking fs)?
Voorheen nooit last van gehad omdat de VM's weinig met Read/Writes hebben, maar nu met een ownCloud installatie begin ik goed te merken dat de performance niet al te best is.
Hardware:
Supermicro X8ST3 (Virtualisatie aan)
Intel Xeon E5620 @ 2.40GHz (1x fysiek, 4 cores, hyperthreat, VT-x)
24GB (6x 4GB DIMM 1333 MHz)
2TB Mirror (SoftRAID, LVM, 2x WDC WD20EZRX-00D)
IOPS testje op de hypervisor:
tim@node01:~$ dd if=/dev/zero of=testfile bs=64k count=16k conv=fdatasync 16384+0 records in 16384+0 records out 1073741824 bytes (1.1 GB) copied, 14.6403 s, 73.3 MB/s
Dit varieerd tussen de 70 en 75 MB/s (Zou volgens de specs 147 MB/s moeten zijn, volgens anderen: HDTune)
Disk specs van Guest:
<disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/var/lib/libvirt/images/web01.signal.blue.img'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> </disk>
IOPS testje op een willekeurige Guest:
tim@web01:~$ dd if=/dev/zero of=testfile bs=64k count=16k conv=fdatasync 16384+0 records in 16384+0 records out 1073741824 bytes (1,1 GB) copied, 96,2799 s, 11,2 MB/s
Het gekke is dat als ik daarna nog een keer deze test doe, ik veel hogere waardes krijg:
tim@web01:~$ dd if=/dev/zero of=testfile bs=64k count=16k conv=fdatasync 16384+0 records in 16384+0 records out 1073741824 bytes (1,1 GB) copied, 13,6419 s, 78,7 MB/s
Aantal vraagjes:
-Is het normaal dat de Host op 50% van de snelheid zit tenopzichte van fabriekswaardes?
-Is het normaal dat de initiele test op alles Guests rond de 11 MB/s zitten en de volgende tests hoger uitpakken?
-Nog performance/tweak tips van anders KVM-ers?
-Zit te twijfelen om nog een apparte SAN te maken met iSCSI, zou dit performance technich veel verbetering kunnen geven (non blocking fs)?