NFS Performance met ESXI

Pagina: 1
Acties:

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Ik heb een lab-omgeving met ESXI 5.5. i.c.m. een qnap.
Deze qnap bied op een gigabit-netwerk NFS aan.

Op deze NFS-omgeving haal ik in de VM`s de volgende snelheden:
Read : 77 Mbps
Write : 60 Mbps

Voorheen is dit altijd hoger (110 Mbps) geweest, maar ik kan niet vinden waarom dit zo laag is.

Iemand enig idee waar dit mis gaat?

Alvast Bedankt

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:53
Wat is de NAS nog meer aan het doen? Hoe test je? Is er niemand van de NAS gebruik aan het maken (want een VM op lokale storage) waarna je gaat testen? Draaien er al VM's vanaf de QNAP en ben je dan aan het testen?

Uiteindelijk houdt je nog maar 2 of 3 MB over zodra je daadwerkelijk VM's op het ding gaat draaien, het klinkt leuk maar qua IOPS houdt het natuurlijk niet over, RAID 10 (of zelfs 5, brr) op vier SATA-schijven...

Met meer en meer load op je schijven kom je uit op random I/O. Stel je hebt 4 SATA-schijven in RAID 5, 50% read, 50% write, dan haal je (als ik http://www.techrepublic.c...-iops-in-a-storage-array/ als bron aanneem) 120 IOPS. Bij 64k blokken is dat minder dan 8 MBps, bij 4k blokken is dat minder dan een halve MB.

Sequential is dat een heel stuk beter, maar je workload wordt al snel random...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Paul schreef op woensdag 13 november 2013 @ 11:57:
Wat is de NAS nog meer aan het doen? Hoe test je? Is er niemand van de NAS gebruik aan het maken (want een VM op lokale storage) waarna je gaat testen? Draaien er al VM's vanaf de QNAP en ben je dan aan het testen?

Uiteindelijk houdt je nog maar 2 of 3 MB over zodra je daadwerkelijk VM's op het ding gaat draaien, het klinkt leuk maar qua IOPS houdt het natuurlijk niet over, RAID 10 (of zelfs 5, brr) op vier SATA-schijven...

Met meer en meer load op je schijven kom je uit op random I/O. Stel je hebt 4 SATA-schijven in RAID 5, 50% read, 50% write, dan haal je (als ik http://www.techrepublic.c...-iops-in-a-storage-array/ als bron aanneem) 120 IOPS. Bij 64k blokken is dat minder dan 8 MBps, bij 4k blokken is dat minder dan een halve MB.

Sequential is dat een heel stuk beter, maar je workload wordt al snel random...
Bedankt voor je reply.
Elke VM draait op een apart SSD. Dus daar zal de bottleneck niet zitten.
Wanneer ik bestand via SMB kopieer van de nfs-share naar mijn lokale pc haal ik 110 Mbps.
Wanneer ik vanaf deze zelfde NFS-share via ASSD-benchmark de snelheid binnen de VM-test , haal ik de aangegeven snelheden.

- Geen virusscanners
- Geen andere activiteit op de NAS (gechecked in Qnap-interface).

Het lijkt alsof er een bottleneck zit in de NFS-performance...

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:53
Hmm, je test dus met een programma de Windows-driver van een virtueel device dat door VMware wordt aangeboden wat wegschrijft naar een blockdevice dat als file via NFS wordt aangeboden, versus de Windows-driver voor een file dat via SMB wordt aangeboden?

Je hebt dus een ander protocol en een aantal tussenliggende stations? Dan snap ik wel dat je andere resultaten krijgt :) Installeer de client-services voor NFS eens op je lokale PC en test NFS dan eens?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • RvV
  • Registratie: Juli 2000
  • Laatst online: 21:35

RvV

Misschien een vreemd idee, maar je zou eens kunnen kijken wat hij doet als je een ander "SCSI controller type" kiest? Als er vmware tools hebt geinstalleerd, dan wilt de "VMware Paravirtual" nog wel eens wat snelheidswinst behalen.

Y'24


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:53
Goede tip, had ik nog niet aan gedacht inderdaad :) Om dat aan te passen moet je VM uit staan, maar je kunt de Paravirtual niet gebruiken om van te booten :)

Je kunt zo ook niet zomaar toevoegen, je moet dan van een Hard Disk de "Virtual Device Node" van "SCSI (0:x)" naar "SCSI (1:x)" (of hoger), dan voegt VMware zelf een SCSI Controller toe.

[ Voor 7% gewijzigd door Paul op 13-11-2013 13:24 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Paul schreef op woensdag 13 november 2013 @ 13:01:
Hmm, je test dus met een programma de Windows-driver van een virtueel device dat door VMware wordt aangeboden wat wegschrijft naar een blockdevice dat als file via NFS wordt aangeboden, versus de Windows-driver voor een file dat via SMB wordt aangeboden?

Je hebt dus een ander protocol en een aantal tussenliggende stations? Dan snap ik wel dat je andere resultaten krijgt :) Installeer de client-services voor NFS eens op je lokale PC en test NFS dan eens?
Wanneer ik vanaf deze zelfde NFS-share een bestand kopieer naar lokale pc --> 110 Mbps
Hierbij zeg ik dus : het ligt niet aan switches/port-trunking e.d.

ik ga nu de optie met de scsi-controller testen.

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Paul schreef op woensdag 13 november 2013 @ 13:24:
Goede tip, had ik nog niet aan gedacht inderdaad :) Om dat aan te passen moet je VM uit staan, maar je kunt de Paravirtual niet gebruiken om van te booten :)

Je kunt zo ook niet zomaar toevoegen, je moet dan van een Hard Disk de "Virtual Device Node" van "SCSI (0:x)" naar "SCSI (1:x)" (of hoger), dan voegt VMware zelf een SCSI Controller toe.
Ik heb deze optie geprobeerd. Er word idd dan een scsi-controller toegevoegd. Deze extra controller heb ik dan gewijzigd naar VMWare paravirtual"
Vervolgens een test gedraaid op de harddisk die via deze scsi-controller gekoppeld is --> zelfde performance.

Is er nog iets anders wat ik kan proberen?

[ Voor 11% gewijzigd door pitchdown op 13-11-2013 14:15 ]


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:53
Ja, sowieso de overhead die VMware toevoegt; er zitten een aantal lagen tussen die er bij de test vanaf je werkstation niet tussen zitten...

Wat gebeurt er als je met iets als iperf gaat testen tussen je VM en je werkstation? Heeft je VMware-host een dedicated ethernetlink naar je QNap of moet het deze delen met het reguliere netwerkverkeer? Welke switch gebruik je?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Paul schreef op woensdag 13 november 2013 @ 14:17:
Ja, sowieso de overhead die VMware toevoegt; er zitten een aantal lagen tussen die er bij de test vanaf je werkstation niet tussen zitten...

Wat gebeurt er als je met iets als iperf gaat testen tussen je VM en je werkstation? Heeft je VMware-host een dedicated ethernetlink naar je QNap of moet het deze delen met het reguliere netwerkverkeer? Welke switch gebruik je?
Ik heb net nog even een test gedaan. Maar bv. iscsi haalt hetzelfde resultaat als NFS...
De VMWare-host heeft een dedicated etherlink naar de qnap..
Ik gebruik een HP Procurve 1800-24G.

En het erge is...het heeft ook heel vaak netjes gewerkt --> NFS Read - 100-110 Mbps en Write zo`n 90-100 Mbps.

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Paul schreef op woensdag 13 november 2013 @ 13:01:
Hmm, je test dus met een programma de Windows-driver van een virtueel device dat door VMware wordt aangeboden wat wegschrijft naar een blockdevice dat als file via NFS wordt aangeboden, versus de Windows-driver voor een file dat via SMB wordt aangeboden?

Je hebt dus een ander protocol en een aantal tussenliggende stations? Dan snap ik wel dat je andere resultaten krijgt :) Installeer de client-services voor NFS eens op je lokale PC en test NFS dan eens?
Ik heb ook deze optie geprobeerd middels de tool "Nekodrive test Windows NFS Client".
Ook met deze tool haal ik veel minder snelheid (volgens de tools zo`n 117 Mbps t.o.v. windows smb met hetzelfde bestand 900 Mbps --> getallen uit Windows 8 Task manager".

Lijkt hier het NFS-protocol het probleem te zijn? wat kan ik hier nog mee?

[ Voor 7% gewijzigd door pitchdown op 13-11-2013 14:36 ]


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Ik denk dat ik het grootste deel heb opgelost.
Heb een andere host geïnstalleerd met esxi 5.1.
Deze host ook laten verbinden met NFS....en...snelheid wel in orde!

Binnen de updates/upgrade word er dus tussen 5.1 en 5.5 drivers oid geïnstalleerd waardoor dit mis gaat vanuit de VMWare-host.

Iemand die esxi 5.5 i.c.m. nfs heeft draaien met maximale performance?

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
pitchdown schreef op woensdag 13 november 2013 @ 17:22:
Ik denk dat ik het grootste deel heb opgelost.
Heb een andere host geïnstalleerd met esxi 5.1.
Deze host ook laten verbinden met NFS....en...snelheid wel in orde!

Binnen de updates/upgrade word er dus tussen 5.1 en 5.5 drivers oid geïnstalleerd waardoor dit mis gaat vanuit de VMWare-host.

Iemand die esxi 5.5 i.c.m. nfs heeft draaien met maximale performance?
Ik heb de betreffende host geupgrade van esxi 5.1 naar 5.5 --> nfs performance weer leeg.

Zijn er tweakers die esxi 5.5 gebruiken i.c.m. NFS?
Hoe is de performance?

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 21:53

Microkid

Frontpage Admin / Moderator PW/VA

Smile

pitchdown schreef op donderdag 14 november 2013 @ 08:09:
[...]
Zijn er tweakers die esxi 5.5 gebruiken i.c.m. NFS?
Hoe is de performance?
Meldt zich :) Ik draai idd ESXi 5.5 met een Synology NAS (DS1010+) over NFS. Ik haal gewoon volle snelheid. Moest van de week een paar VM's suspenden en zag snelheden van 109MB/sec voorbij komen.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 20:22
Oke. toch iemand de snelheid dus haalt :)

Ik heb letterlijk op 2 hosts met esxi 5.1 netjes de volledige snelheid, en na een installatie van esxi 5.5 blijft daar een stuk minder van over.

Enig idee wat hier mis gaat?
Pagina: 1