[Freenas/ZFS] Hulp bij disk configuratie

Pagina: 1
Acties:

  • pizzaboertje
  • Registratie: Juni 2004
  • Laatst online: 31-12-2025
Ik heb voor prive gebruik een aantal HP servers aangeschaft om te werken aan mijn VMware VCP certificering. Onderstaand heb ik aangeschaft (voor een prikkie):
  • VMware vSphere 6.5 bak 1: HP DL360e g8, 2x Intel Xeon E5-2450L, 128GB, Intel X550-T2 10Gbe
  • VMware vSphere 6.5 bak 2: HP DL360e g8, 2x Intel Xeon E5-2450L, 128GB, Intel X550-T2 10Gbe
  • Storage bak: HP DL380p g8, 2x Intel Xeon E5-2640v2, 128GB, Intel X550-T2 10Gbe, 25x2,5" disk
Het gaat mij met name om de laatste server. De storage bak. Hier zitten nu 20 disken in:
  • 8x 500GB Samsung EVO SSD
  • 12x 2TB Seagate Barracuda (5400RPM)
  • 1x Intel Solid-State Drive DC P3500 Series (400GB, PCIe NVMe)
Deze server was aangekocht om eigenlijk een aantal Raid 10 sets aan te bieden via Openfiler. Nu wil ik eigenlijk Freenas en ZFS gaan gebruiken. Er zat een HP P420i raid kaart in, ik wil een LSI SAS 9207-8i gaan bestellen.

Nu ben ik benieuwd wat de beste disk configuratie zal zijn binnen Freenas en of ik nog een extra PCIe NVMe moet bestellen.

Requirements:
  • Beschikbaarheid (vergelijkbaar met Raid 10)
  • 10TB data beschikbaar
Wat zouden jullie doen? Kan ik de 8 SSD's nuttig inzetten of enkel voor caching? Ik maak gebruik van een 10Gbe switch van Netgear en wil of via iSCSI of FCoE block storage aan gaan bieden aan VMware.

[ Voor 7% gewijzigd door pizzaboertje op 29-10-2017 23:25 ]


  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 28-12-2025
Helaas kent ZFS geen autotiering tussen verschillende pools, in dit geval zou ik het volgende doen:

pool 1:
- 12x 2TB SATA in RAIDZ2 (10TB netto capaciteit)
- 2x 500GB SSD voor SLOG
- 1x 400GB PCIe NVMe voor L2ARC

pool2:
- 6x 500GB SSD in RAIDZ2 (2TB netto capaciteit)

Op deze manier heb je een high performance datastore en een volledig gecachede capacity datastore.
Vergis je niet, de capacity datastore is aardig rap op deze manier.

Wat voor EVO SSD's heb je? Liever zou je een SLC type SSD voor SLOG gebruiken maar bijvoorbeeld 850 EVO SSD's gaan in het algemeen langer mee dan opgegeven.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 12-12-2025

unezra

Ceci n'est pas un sous-titre.

Ik ben het bijna eens met @LiquidSmoke. Bijna, want ik zou d'r geen RAIDZ2 van maken wegens traag maar juist gaan voor striped mirrors (RAID10 equivalent). Striped mirrors zijn veel sneller dan RAIDZ en je rebuild times zijn korter. Met striped mirrors kan het wel eens zijn dat je je SLOG en L2ARC's niet nodig hebt.

Also, voor FreeNAS heb je een aparte disk nodig waar je je OS op zet. Omdat NVMe extreem overkill is voor je OS zou ik het anders doen:

- NVMe d'r uit, die lekker op een plek inzetten die nuttiger is (duw 'm in je PC, daar komt 'ie meer tot zijn recht dan in een NAS, tenzij je 'm idd voor L2ARC in zet maar da's waarschijnlijk niet nodig)
- 2x500G voor SLOG/L2ARC reserveren (2 partities, 1x mirrored voor je SLOG, 1x striped voor je L2ARC) al is dat ook behoorlijk overkill (niet qua SSD, wel qua capaciteit)
- FreeNAS op een SD kaart of USB stick zetten (of liever nog op een SSD of HDD, OSsen op een SD kaart of USB stick is wat iffy, het werkt, ze zeggen dat het kan maar pffff die dingen lijken niet echt gemaakt voor een OS installatie, zelfs niet voor FreeNAS)

Let er op dat je dus je SLOG op een mirror zet, nooit op een stripe. :) Je L2ARC mag wel weer op een stripe of een enkele disk.

Qua aanbieden aan VMWare: NFS
iSCSI kan maar heeft voor zover ik weet geen of nauwelijks voordelen. NFS is redelijk hufter-proof.

Denk je er aan dat je die kaart in IT mode flashed als 'ie dat niet al heeft? De keuze voor een IT-mode kaart is een goede, je wil ZFS absoluut niet op een RAID controller met RAID functionaliteit zetten. Domme SAS/SATA disk controllers of een IT-mode kaart zijn de enige goede manier.

Nu heeft die kaart dat al. Let wel op de juiste firmware. Wij hebben gezien dat er een paar firmware versies zijn die corruptie veroorzaken. Niets dat ZFS niet kan oplossen maar het is erg akelig om bij iedere scrub -tig fouten te zien die *enkel* geen invloed hebben omdat ZFS het corrigeert. In geval van die specifieke kaart: De laatste firmware is niet altijd de beste. Google dus heel erg goed op de firmware die er op zit of je wilt installeren of die wel goed is. (Ik weet uit mijn hoofd even niet welke firmware versie wij nu hebben en dat probleem niet heeft maar het is precies dat probleem waar wij tegenaan zijn gelopen.)

Oh, 10Ge is leuk, maar heb je d'r ook reguliere GBit NIC's in zitten? Kan me voorstellen dat je niet alleen met enkele 10G verbindingen wilt spelen (wat hoe dan ook extreem overkill is) maar juist met bonding/etherchannels over meerdere gestackte switches. Dus in dat geval zou ik daar ook even naar kijken. Wil je met zulke hardware een leuk lab bouwen, bouw dat niet op 1 enkele switch maar zorg voor een stack of speel op zijn minst met bonding op meerdere interfaces. Idealiter zelfs meerdere switches die je aan elkaar knoopt, waarbij je je storage loskoppelt van de rest. Dat maakt een veel realistischer lab dan enkel 2 ESXi dozen aan een NAS.

Oh, qua geheugen:
Prik minstens de helft van het geheugen van je storagedoos over in de ESX dozen. Daar heb je d'r veel meer aan. 128G in een NAS is voor jouw setup meer dan overkill en zonde van je geheugen. Dat kun je beter inzetten in je ESX kisten. Voor FreeNAS heb je aan 16-32G echt meer dan zat. (Maar goed, die heel doos is ehm, overkill voor wat je er mee gaat doen.)

Dat gezegd hebbende, kun je niet beter een 3e machine aanschaffen als NAS met een veel kleinere CPU, minder geheugen en dezelfde drivebays, zodat je 3 machines in je cluster hebt? Een 3-node cluster werkt wezenlijk anders dan een 2-node cluster en wil je je op VMWare certificeren, zou ik je vooral daar op richten. Nu verspil je resources in je storagemachine die aan de VMWare kant veel nuttiger zijn om in te zetten.

BTW Ik ben stiekem wel een beetje jaloers dat je voor een prikkie aan Gen8's (niet G8, die bestaat niet) bent weten te komen. Dat soort machines draaien bij ons productie. (En zijn we van plan niet veel eerder dan over 2, 3, misschien 4 jaar eens af te schrijven.)

Ná Scaoll. - Don’t Panic.


  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 28-12-2025
unezra schreef op dinsdag 31 oktober 2017 @ 07:00:
Ik ben het bijna eens met @LiquidSmoke. Bijna, want ik zou d'r geen RAIDZ2 van maken wegens traag maar juist gaan voor striped mirrors (RAID10 equivalent). Striped mirrors zijn veel sneller dan RAIDZ en je rebuild times zijn korter. Met striped mirrors kan het wel eens zijn dat je je SLOG en L2ARC's niet nodig hebt.
Normaal zou ik ook voor mirrored vdev's gaan (zelf heb ik ook een stripe van 3x 2 wd red's in mirror), echter zou al het caching geweld de performance enorm moeten verbeteren voor RAIDZ..

Uiteraard ben je volledig afhankelijk van de workload, als je een tientallen VM's draait zijn striped vdev's uiteraard de betere keuze.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 12-12-2025

unezra

Ceci n'est pas un sous-titre.

LiquidSmoke schreef op dinsdag 31 oktober 2017 @ 07:04:
[...]
Normaal zou ik ook voor mirrored vdev's gaan (zelf heb ik ook een stripe van 3x 2 wd red's in mirror), echter zou al het caching geweld de performance enorm moeten verbeteren voor RAIDZ..

Uiteraard ben je volledig afhankelijk van de workload, als je een tientallen VM's draait zijn striped vdev's uiteraard de betere keuze.
Klopt maar ik denk dat TS zijn hele setup even goed onder de loupe moet nemen. :)
Die DL380Gen 8 inzetten als NAS voor zijn lab is dusdanig overkill dat het bijna pijn aan mijn ogen doet.

Het gaat om VMWare certificering. Als je al zulke overspecced hardware hebt, zou ik die anders verdelen. Performance is niet zo'n punt, ik verwacht toch niet dat TS letterlijk 50 of 100 vm's er op gaat draaien en dan ook nog eens productieperformance nodig heeft. Een 3-node cluster of zelfs 2 gescheiden installaties (cluster van 2 + een losse node) is veel nuttiger dan dat die DL380 als NAS.

Ik heb zelf thuis juist gekozen voor mirrored vdevs vanwege de rebuild times als d'r een disk klapt en de meer eenvoudige setup ervan. Het is minder foutgevoelig dan RAIDZ. Snelheid is een prettige bijkomstigheid. :-) (Thuis in mijn geval belangrijker, daar doe ik het met 4x5T in mijn Microserver Gen8 NAS en dan is het prettig om net een klein beetje extra *oomph* er uit te persen.)

Als TS zulke hardware zinvol wil inzetten, zou ik beginnen bij een andere NAS en van de DL-series lekker een cluster bouwen. Zoals het er nu bij ligt word er vooral heel veel hardware verspilt aan de verkeerde dingen en dat vind ik persoonlijk zelfs in een testsetup zonde.

Kortom, zou het mijn hardware zijn, zou ik nog wat extra geld uitgeven en een compleet andere verdeling maken. Aparte (veel lichtere) NAS, fatsoenlijk realistisch netwerk d'r tussen (koop een paar 2e hands Cisco's met 1Ge interfaces, daar heb je meer aan dan aan enkele 10Ge interface per machine), 3-node clusters of juist meerdere losse installaties, etc.

En tja, dit is Tweakers. :)
(Dus adviseer ik liever een totaal ander scenario dat beter past bij het doel, dan dat ik enkel wat over de RAID configuratie zeg.)

Ná Scaoll. - Don’t Panic.


  • pizzaboertje
  • Registratie: Juni 2004
  • Laatst online: 31-12-2025
Iedereen bedankt voor jullie hulp.

Buiten de VMware certificering ga ik deze set ook gebruiken voor andere testen. Ik heb ook nog een 4e DL360 Gen8 waarop ook VMware komt te staan maar deze server heeft enkel lokale SSD's en zal worden gebruikt voor backup (Veeam), vCenter en kan eventueel als 3e host bijspringen.

Ik begrijp inderdaad dat het redelijk overkill is. Een aantal spullen had ik nog liggen vanuit eerdere builds. De HP servers heb ik alle 4 aangeschaft voor een prikkie (500 euro per stuk excl. BTW en excl. Intel X550-T2, voor adres send DM).

Zoals ik het nu zie ga ik eerst testen (performance) met:
pool 1:
- 12x 2TB SATA in RAIDZ2 (10TB netto capaciteit)
- 2x 500GB SSD voor SLOG
- 1x 400GB PCIe NVMe voor L2ARC

pool2:
- 6x 500GB SSD in RAIDZ2 (2TB netto capaciteit)

Eventueel kan ik daarna nog alles op bouwen met stripped mirror vdevs om daar performance testen mee te gaan doen.

iSCSI heb ik inderdaad al laten varen. Dus ga ik nu via NFS alles aanbieden aan VMware.

Terugkomende op mijn netwerkje...voor dit project een enkele (helaas) Netgear (helaas) XS712T met 12 10Gbe poorten. Vanuit elke host ga ik met 2x10 naar de switch. Vanuit de switch heb ik nog een trunk (2x10G) naar een Netgear S3300-28x waarop de rest van mijn netwerk is aangesloten.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 12-12-2025

unezra

Ceci n'est pas un sous-titre.

@pizzaboertje Als je meer dan 2K kunt uitgeven aan dikke HP servers, waarom dan niet nog eens €500-€600 aan een paar fatsoenlijke stackable Cisco switches en een paar GBit quad NIC's? Refurbished kosten die Cisco's niet zo veel en daar heb je juist in zo'n omgeving heel veel lol aan. (3750G is meer dan zat voor wat jij er mee doet en die dingen zijn refurb goed te krijgen voor relatief weinig geld)

Zoals gezegd, ik zou je complete indeling anders doen. Nu zet je de verkeerde componenten op de verkeerde plek in en kun je precies *niet* dat doen wat je wil: Trainen.

Mirrored vdevs moet je niet alleen doen vanwege de performance, maar juist ook vanwege de eenvoud. Er kan minder aan kapot. Het heeft geen nut om RAIDZ te dien op zo'n omgeving.

En waarom meteen aan de slag met een losse SLOG en L2ARC? Dat is _totaal_ nutteloos. Je moet dat soort dingen pas inzetten als je al productie draait en weet wat je waar nodig hebt. Kortom, verspilling van resources. Zonde van het geïnvesteerde geld.

Ná Scaoll. - Don’t Panic.


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 12-12-2025

unezra

Ceci n'est pas un sous-titre.

pizzaboertje schreef op dinsdag 31 oktober 2017 @ 14:36:
Ik begrijp inderdaad dat het redelijk overkill is. Een aantal spullen had ik nog liggen vanuit eerdere builds. De HP servers heb ik alle 4 aangeschaft voor een prikkie (500 euro per stuk excl. BTW en excl. Intel X550-T2, voor adres send DM).
Da's wel ongeveer het understatement van het jaar...

Op wat jij daar als hobbydoos hebt staan, kun je een compleet bedrijf van 100 man draaien met alles on-premise en dan kun je nog Terminal Server of VDI doen ook.

Zelfs je netwerk is met 10Ge meer dan je in zo'n setup nodig hebt. Je komt hooguit nog wat access switches, firewalls en andere randapparatuur te kort. :)

Ná Scaoll. - Don’t Panic.


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 12-12-2025

unezra

Ceci n'est pas un sous-titre.

@pizzaboertje Ben je al wat verder gekomen in je keuzes en setup?

Ná Scaoll. - Don’t Panic.

Pagina: 1