Quindor schreef op maandag 01 augustus 2011 @ 22:51:
Eventjes als opmerking tussendoor naar alle mensen welke met SMB/CIFS aan het testen zijn, je VM is hoe dan ook je vertraging niet. Althans, zo lang je in ieder geval enige config zaken goed regelt, maar toch.
Met tests welke direct in de cache van mijn RAID controller draaiden, via een VMFS volume, haal ik net zo goed 1600MB/sec binnen of buiten een VM. Het maximale wat de betreffende controller aan kan.
Wat belangrijk is bij configuratie van je VM is dat je of de paravirtual SCSI adapter gebruikt of RDM of passthrough voor je SCSI kaart. Waarbij paravirtual en passthrough het meeste aan te raden is, RDM is een beetje brak mechanisme nog steeds.
RDM is niet brak, het is anders... In theorie is het net zo snel als paravirtual, omdat de ATA commando's direct doorgegeven worden.
Er zijn vele tests te vinden welke de vertraging van VMFS tegenover direct hardware testen en het verschil hierbij is maximaal 5% van wat ik me herinner. Mits paravirtual gebruikt word, de LSI adapters kosten veel meer performance.
Wat is veel? Heb je hier een bron van? De performance zal wel lager zijn, maar dat komt vooral omdat je meer CPU verbruikt.
Verder moet je voor je netwerk kaart ten alle tijden wanneer mogelijk de VMXnet 3 adapter gebruiken. Niet de e1000.
Agreed, maar veel FreeBSD gebaseerde distro's ondersteunen nog geen VMXNET3.
Voor beide storage en netwerk geld dat de standaard LSI kaart en e1000 software emulaties zijn en dat de paravirtual en VMXnet 3 via de hardware bediend worden (cpu extensies, etc.). Dit maakt ze vele vele malen sneller.
Klopt als een bus.
Zelf heb ik vele tests gedaan (thuis en op lanparties) en weinig tot geen performance belemmeringen bemerkt met de nieuwere VMware's. 300MB/sec tot 400MB/sec was prima haalbaar binnen een VM middels de paravirtual en VMXnet 3 drivers.
Das ook niet gek, de e1000 controller is maar een gigabit controller...
LSI + e1000 was max 70MB/sec en de hele host ging raar doen, alle VM's traag, etc. 70% a 80% load.
Paravirtual + VMXnet3 was met gemak 300MB/sec+ (4 NICS in VMware trunk) en zo'n 40% load, de rest van de VM's nergens last van.
Dat is dan alleen bij jou zo, wij gebruiken hier op het werk nog vaak zat LSI Logic + e1000 (of zelfs AMD PCnet voor de guru's) en dat werkt prima, daar halen wij hier ook gewoon 100MB/s mee over CIFS/SMB.
De beperkende factor is VEEL vaker de SMB server.
Maar nogmaals, testen via CIFS.... gaat je geen realistisch resultaat opleveren aangezien dit vooral afhankelijk is van de implementatie daarvan. Windows 2008 R2 --> Windows 7 = 110MB/sec, altijd, als je storage dat trekt. Maar dat haalt 1 disk tegenwoordig wel met grote file.
Wat is jou definitie van realistisch? Dat je zo hoog mogelijke 'theoretische' snelheden haalt?
Feit blijft dat 90% van de tweakers hier Windows 7 draait en SMB tests tussen OI en Win7 dus juist WEL realistisch zijn...
Overigens is dat te danken aan SMB2. Win2k3 -> Win XP = Max 60MB/sec en vaak maar 30MB/sec.... maar dat is inmiddels ook echt oud.

In linux samba moet je het vaak apart aanzetten (SMB2).
Ook hier geld weer voor, het is afhankelijk van de SMB server... Zelfs een Windows 2003 SMB server kan je snel maken met wat tuning...
Realistisch testen is het moeilijkste wat er is. Elke implementatie op elke hardware is anders, en is nooit te vergelijken met anderen.
Belangrijk is wel dat je bijvoorbeeld niet verwacht dat een paravirtual controller op een realtek chipje goed gaat performen onder ESXi. Dan heb je de verkeerde verwachtingen.
Wel kan je er redelijkerwijs vanuit gaan dat een echte Intel PRO controller 110MB/s haalt als je VMXNET3 gebruikt.
Even niets...