Slechte throughput Freenas met SAMBA

Pagina: 1
Acties:

  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
Hoi iedereen,

Mijn vorig probleem met de guest login is eindelijk van de baan, nu kan ik mij terug focussen op het verplaatsen van mijn data. Echter ondervind ik nog steeds enkele vervelende zaken.

Momenteel draai ik FreeNAS 9.1.2.8 (64bit)
  • 6x 3TB in RaidZ2 ZFS
  • 18GB DDR3 Ram
  • 2x Intel I5 op 3Ghz
  • 2x 1Gbit NIC op LACP
  • Vmware machine op ESX 5.1 (ESX Host heeft 32GB Ram)
Nu heb ik enkele CIF shares waar vroeger al mijn data opstond maar deze heb ik tijdelijk op een Dell Powervault MD1000 (14x 300GB SAS 10K) gekopieerd om aan de NAS te kunnen werken. De Powervault wordt aangestuurd door een Dell Perc 6/E in Raid 6 met SAS connector (moet genoeg throughput kunnen leveren medunkt)..

Wanneer ik nu via Windows 2012R2 de kopieeractie start (gewoon 1 Gbit verbinding) ondervind ik zeer slechte performance van de CIF shares. Ik start aan een mooie kopieersnelheid van 100 - 90 MB/s in Windows maar dit zakt dan na enkel minuten terug naar 12 - 6 MB/s. Dit stijgt dan weer naar 80 - 90 en daarna terug naar 12 - 6 voor de hele periode van de dataoverdracht.

Dit is niet wat het zou moeten zijn, een stabiele 80 - 90 MB/s is mooi maar 12 is echt veel te weinig voor de hardware die ik aan de NAS heb gekoppeld. Het CIF protocol staat in Freenas op Minimum SMB2 en maximum SMB3_00, dit heb ik echter ook al eens gewijzigd naar SMB2 min/max maar ook hier levert dit geen resultaat op.

Op het internet vond ik dan dat ik de NIC instellingen moest aanpassen voor een MTU van 1500 voor Freenas, dit heb ik dan ook toegepast maar helaas zonder resultaat.


Heeft iemand hier ook problemen mee of enig idee waar en hoe ik dat kan troubleshooten? Ik ben een beetje radeloos kwa opties, google heeft veel opgeleverd kwa info maar heeft het probleem niet kunnen oplossen.

Alvast bedankt.

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 24-01 19:22
Je kunt op elke 'laag' de tellers bekijken en zien waar het mis gaat.

Freenas vm kun je met ZFS performance tools en top bekijken.
ESX kun je met de performance tab en esxtop bekijken
Switch heeft waarschijnlijk een cli met een aantal tools

Leg alles naast elkaar en kijk waar het mis gaat. Volg elk blokje van schijf tot schijf en probeer alle software lagen te controleren.

while (! ( succeed = try ()));


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
https://www.dropbox.com/s...NBnpOxdx63Ctwbp7OfIa?dl=0

Ondertussen heb ik ook enkele test gedaan met Iperf en daar is te zien dat het netwerk er mee stopt en zichzelf herneemt. Dit is mogelijks een aanwijzing waar ik naar moet kijken.

Ik zal ook de lagen eens nader onderzoeken om het probleem te vinden.

Alvast bedankt voor de info en alle extra info is zeker welkom

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05-2025
Concentreer je eerst op de netwerk performance, daarna pas op de lagen daar boven (ISO)

De FreeNAS VM heeft een koppeling naar je vswitch, welk NIC type heb je gebruikt?
Ik behaalde met VMXNET3 goede resultaten, mogelijk moet je wel de driver nog in FreeNAS zetten.

Wat voor resultaten behaal je als je binnen VMware blijft? Iperf van een VM naar de FreeNAS.
Installeer VMware tools in je Windows VM voor je test.
Je kan ook de VMXNET3 in Windows gebruiken met VMware tools, dan zou je rond de 10Gbit moeten halen.

Waar heb je de 2x 1Gbit koppeling met LACP geconfigureerd? Binnen FreeNAS, of binnen VMware?
Test eens met 1 enkele verbinding, (LACP eruit slopen).

Wat voor switch zit er tussen? Kan je eens een tekening maken van de situatie?

Mijn Serverrack - iRacing Profiel


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
In de link kan je de huidige netwerkconfiguratie bekijken:
https://www.dropbox.com/s...w0aebwywjKoCCyTpGqoa?dl=0

Ik heb dus één HP Quadport NC364T waarvan ik momenteel 2 poorten heb toegewezen aan de VM Freenas op een vswitch. In mijn HP Procurve (24poort Gbit) heb ik op poort 23-24 een LACP aangezet om indien nodig dubbele bandbreedte te kunnen aanspreken.

Dan heb ik in Freenas zelf de 2 interfaces gekoppeld en er een LACP (lagg0) interface van gemaakt.


Dit was zoals in mijn vorige configuratie van Freenas voor ik hem een factory reset gaf omdat ik alles had verprutst met rechten en gebruikers.


Op dit moment heb ik geen andere VM machines dus zal ik een Windows opzetten en dan even een snelheidstest doen.

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05-2025
Als ik jou was zou ik alle (uplink) poorten aan 1 vswitch hangen, en dan op de vswitch portgroups aanmaken. Als je het gescheiden van elkaar wilt hebben kan je verschillende VLANs gebruiken per portgroup. Maargoed, dat staat los van je performance problemen.

Bekijk inderdaad even wat voor snelheden je behaald als je binnen VMware blijft. Dus een VM in dezelfde portgroup gooien als je FreeNAS VM.

Even vooruit denkend:
Hoe heb je je NIC teaming van je vswitch(es) geconfigureerd? Wat heb je bij Load Balacing en Failover detection? Voor LACP moet je "route based on IP hash" hebben staan bij Load Balacing. Failover detection op " Link status only"

Mijn Serverrack - iRacing Profiel


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 22-12-2025
toen ik van mijn (para)virtualized FreeNas overging naar bare metal gin ik ook van 20 mbyte/s naar ver over de 100 Mbyte/s. Je kan (of kon) in FreeNas iig los support inschakelen voor paravirtualized IO/Netwerk drivers, heb je dat al getest?

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05-2025
Met de VMXNET3 haal je gewoon 10Gbit, maar je moet wel de driver installeren :)

Hier de ko file van vmware tools 5.5
https://www.dropbox.com/s/uljknq6ohdmf37s/vmxnet3.ko?dl=0

MD5: A1C52FBB7A1E8482CE77141E7335E6FD

Mijn Serverrack - iRacing Profiel


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
Ik heb even rondgekeken en VMXNET3 driver werkt momenteel nog niet met Freenas 9.2.1.8
Het is ook enig configuratiewerk om die VMXNET3 werkende te krijgen omdat er geen VMWaretools zijn voor de FreeBSD - Freenas Virtuele machine.

Ondertussen heb ik wel een WIndows Machine gemaakt die over dezelfde interfaces beschikt en hier ga ik nu even wat tests mee doen.

Ik probeer straks nog enkele screenshots door te sturen en ook de config van de Netwerkkaarten in ESX

  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
Ondertussen heb ik enkele runs gedaan met Iperf tussen de VM's op dezelfde NIC.

Ze ondervinden soms nog problemen dus heb ik in Freenas en Switch de LACP feature uitgeschakeld en alles lijkt nu wel terug vlot te lopen. Ik heb geen problemen meer en ik kopieer via CIF op een stabiele 80 a 100 MB/s naar de NAS toe (bijna de Gigabit snelheid dus).

Dit was ook de snelheid die ik vroeger had toen LACP nog aanstond maar dus sinds de factory reset niet meer.


Het probleem lijkt dus te zijn gevonden, alleen moet ik nu uitzoeken welk stukje van de LACP setup er in de mist draait (ESX - Freenas - Switch setup).

Echter ga ik nu eerst even al mijn data overzetten zodat ik 's avonds toch al een filmpje kan bekijken vanuit de zetel. Ik kom morgen of woensdag hierop terug om verder te zoeken naar de LACP fout.

Alvast hartelijk dank allemaal voor de tips, samen komen we er wel uit.

[ Voor 15% gewijzigd door Toon-VA op 13-10-2014 14:02 ]


  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05-2025
Mooi dat je de oorzaak hebt gevonden.

Voor LACP naar je HP switch moet je in vmware je vswitch op de volgende manier configureren
Even vooruit denkend:
Hoe heb je je NIC teaming van je vswitch(es) geconfigureerd? Wat heb je bij Load Balacing en Failover detection? Voor LACP moet je "route based on IP hash" hebben staan bij Load Balacing. Failover detection op " Link status only"

[ Voor 5% gewijzigd door Extera op 13-10-2014 16:27 ]

Mijn Serverrack - iRacing Profiel


  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
Ik ga het morgen even verder doornemen en uittesten. Momenteel heb ik nog een kleine TB te kopiëren en dan gaat het testen terug van start.

http://kb.vmware.com/self...playKC&externalId=1004048

Ondertussen heb ik ook nog even dit artikel doorgenomen. De info die je aangaf wordt hier ook vermeld.

  • Toon-VA
  • Registratie: November 2009
  • Laatst online: 23-01 13:47
Ik heb de network setup aangepast zoals beschreven in dit topic en het Vmware artikel maar helaas krijg ik nog steeds problemen met de LACP setup en netwerkinstabiliteit.

Met Iperf krijg ik onmiddellijk terug dezelfde problemen als voorheen. Omdat de setup vroeger heeft gewerkt denk ik dat er mogelijks iets is gewijzigd met de update naar de nieuwste Freenas versie.

Ik vrees er dus ook voor dat ik het probleem niet zal kunnen oplossen, er is echter wel nog een theorie die ik zou willen proberen om LACP werkende te krijgen.

Als ik nu een extra dual netwerkkaart aan de ESX setup toevoeg en deze via passthrough aan Freenas koppel dan moet er normaal op ESX niveau geen extra instellingen worden gedaan om LACP werkende te krijgen aangezien de VM zelf de NIC gaat aanspreken.

Kunnen jullie dit theoretisch bevestiging of dit kan werken? Ik heb nog een dual NIC liggen dus dan zou ik dit nog wel eens willen proberen.
Pagina: 1