Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • Bose321
  • Registratie: Juni 2010
  • Laatst online: 27-10 14:45
Ik draai momenteel een server met Xpenology als VM als NAS in Hyper-V. Aan die VM hing altijd een 3TB WD Green in pass-through omdat ik had gelezen dat dat beter is voor een toepassing als deze door minder hoge overhead bijvoorbeeld.

Nu heb ik een tweede zelfde HDD gehaald en daar de pass-through omgezet naar een dynamic .vhdx in Hyper-V. Ik vind dat een .vhdx veel makkelijker is wanneer je bijvoorbeeld snel een back-up moet draaien van alles (Gewoon een enkel .vhdx bestand).

Ik heb met ATTO Disk Benchmark getest wat de performance is van de twee oplossingen over het netwerk. Na een aantal tests hebben uitgevoerd is het duidelijk dat de performance vrijwel hetzelfde is. Soms is de pass-though sneller, en soms is de .vhdx oplossing sneller!

Nu vroeg ik mij af, wat raden jullie aan, of af? Is een .vhdx oplossing voor een NAS (waar makkelijk 2+ TB op staat) de juiste oplossing? Ik kijk nu alleen naar performance, wat goed lijkt, maar zijn er ook dingen die ik nu vergeet waar ik ook rekening mee moet houden?

Fanaleds.com


  • Trommelrem
  • Registratie: Februari 2009
  • Laatst online: 09-11-2021
Passthrough NOOIT gebruiken. Ik heb een aantal projecten lopen om passthrough disks om te zetten naar VHDX, omdat het in productieomgevingen gewoon heel slecht werkt en omdat ze in die productieomgevingen nu erg veel problemen ondervinden door passthrough disks. De vorige beheerder had het in z'n bolle hoofd gehaald om allemaal passthroughdisks te maken zonder dat te overleggen.

Sinds VHDX is passthrough gewoon niet meer interessant. Zelfs een dynamic VHDX kan onder bepaalde omstandigheden net zo snel zijn als passthrough. In het VHD tijdperk kan ik mij voorstellen dat je in heel sommige superspecifieke gevallen een passthrough disk zou willen, maar dat was toen, in het tijdperk van 2008 R2. Ook als je nu een volume hebt groter dan 64 TB, dan kan ik mij voorstellen dat je voor passthrough kiest. Je verliest daarmee vrijwel alle functionaliteit van Hyper-V waardoor je net zo goed niet kunt virtualiseren.

[ Voor 16% gewijzigd door Trommelrem op 14-12-2014 14:49 ]


  • Killah_Priest
  • Registratie: Augustus 2001
  • Laatst online: 28-11 13:26
Ik gebruik pass-through hooguit op een iscsi target, nooit op fysieke schijven zelf (en zelfs met iscsi targets prefereer ik VHDX boven passthrough omdat het gewoon flexibeler is, vooral icm thin provisioning)

  • Bose321
  • Registratie: Juni 2010
  • Laatst online: 27-10 14:45
Bedankt voor het delen van jullie ervaringen! Hoewel ik er zelf nooit problemen mee had ga ik dan wel VHDX blijven gebruiken. Wat denken jullie over dynamic vs fixed size?

Fanaleds.com


  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Bose321 schreef op zondag 14 december 2014 @ 15:11:
Bedankt voor het delen van jullie ervaringen! Hoewel ik er zelf nooit problemen mee had ga ik dan wel VHDX blijven gebruiken. Wat denken jullie over dynamic vs fixed size?
Merk dat dynamic eigenlijk totaal geen performance verlies geeft, alleen is het soms een rotklusje om een dynamic disk weer te schrinken wanneer er minder data op staat dan de in gebruik zijnde data. Aan de andere kant merk ik wanneer je dedup gebruikt op het volume waar je je dynamic disks op hebt staan er meer vrije ruimte is.

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


  • Trommelrem
  • Registratie: Februari 2009
  • Laatst online: 09-11-2021
Let erop dat Dedup voor Hyper-V alleen supported is voor VDI workloads.

Dat gezegd hebbende, moet ik zeggen dat Dedup voor Hyper-V beter werkt dan verwacht. Ik heb het toegepast op Hyper-V Replica targetmachines, en de ruimtewinst is echt fenomenaal. Ik verwacht dat de volgende versie van Hyper-V wel gewoon dedup op VM's ondersteunt. In mijn labomgevingen werkt ook dat beter dan verwacht.

[ Voor 7% gewijzigd door Trommelrem op 15-12-2014 13:13 ]


  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Trommelrem schreef op maandag 15 december 2014 @ 13:07:
Let erop dat Dedup voor Hyper-V alleen supported is voor VDI workloads.

Dat gezegd hebbende, moet ik zeggen dat Dedup voor Hyper-V beter werkt dan verwacht. Ik heb het toegepast op Hyper-V Replica targetmachines, en de ruimtewinst is echt fenomenaal. Ik verwacht dat de volgende versie van Hyper-V wel gewoon dedup op VM's ondersteunt. In mijn labomgevingen werkt ook dat beter dan verwacht.
Ik combineer beide. Heb een Datastore (Drive) voor OS Disks. Waar alleen OS Disks op staan (inclusief de pagefiles). Met de dedub van 2012R2. Partitie is 160GB, vrije diskruimte is 53GB op het moment. Aantal 2012R2 VM's is 2x IIS, 2x ADC, 1xSQL, 1xMGMT, 1x FS en een Exchange 2013 op 2012. Disks zijn 60GB waarvan ongeveer 30GB in gebruik (VHDX is tussen de 28-32GB groot). 8x 30GB= 240GB welke op de partitie rond de 100GB in gebruik hebben, volgens Windows zou ik 63% Dedup hebben. Dus echt goed werken doet het wel. Een ander voordeel is, het is allemaal veel sneller dan zonder Dedub.

Voor andere volumes heb ik een non-dedup volume, waar ik dedub in de VM toepas. Hier is de deduprate veel lager en op mijn movie/muziek storage (8TB) is de dedup zelfs 0%. Dus voor multimedia maakt het niet veel uit.

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.

Pagina: 1