Q schreef op woensdag 28 oktober 2015 @ 20:06:
[...]
Het is gewoon financieel niet haalbaar om 30 TB+ aan data ook nog eens te backuppen naar een 2e systeem of oplossing.
Binnen deze context is het dus prima om kwaliteitscomponenten te kopen, RAIDZ2/3 te gebruiken en is het ook verstandiger om je geld te stoppen in schijven die niet zo fragiel zijn.
Nou ja, dan bedoelen we eigenlijk hetzelfde.
Is de data niet belangrijk genoeg voor een (offsite) back-up dan kies je een (andere) trade-off.
Wil je een beperktere impact op je beschikbaarheid in geval van een falende schijf of ligt de balans R/W anders dan 90%/10% (grofweg; veel writes kan in specifieke scenario's nog steeds) dan kies je al snel voor PMR schijven, maar kun je minder GB/€ opslaan.
Wil je zoveel mogelijk data opslaan, ligt de R/W balans wel rond 90%/10% of een ander passend scenario dan kun je SMR schijven toepassen.
Een falende disk is niets bijzonders. Je moet niet een hele backup/restore operatie moeten doen met zoveel data, dat gaat weken kosten, alleen maar gedonder en risico's.
Relatief gezien is een falende disk wel vrij bijzonder (MTBF). In de praktijk ben ik een aantal SAN's/Nassen tegengekomen waarbij de leverancier van bepaalde schijven elke week dozen met vervangende exemplaren leverde.
Om de één of andere reden waren de prestaties onder de maat op deze dure apparaten(Gek hoor als ze vrijwel continue in degraded state draaien...).
Mijn punt is dat dit zeker geen weken hoeft te kosten.
De mijne ook.
Wij bouwen hier een oplossing waarbij je gewoon even de disk vervangt.
Nee, geen mr. nuance.
Ik denk niet dat iedereen het in die zin doet; 20+TB storage systems is een wat wijd begrip. Ik heb zelf mijn DVD/BR rips op een disk pool staan zonder verdere redundantie. Vullen gaat per disk, geen striping over de disks. Gaat er 1 kapot of raakt er een gedeelte corrupt dan kan ik, als ik zin heb, de verloren gegane films weer opnieuw rippen.
Je hebt het over een 'goed' ontwerp, maar je beschrijft niet wat dat 'goede ontwerp' precies inhoudt. Ik denk iets met ZFS, maar ik ben wel benieuwd, en sceptisch, dat ook.
EDIT: bedoel je dit?
Een goed ontwerp in algemene zin van het woord; zonder direct aan een bepaald FS te denken. Dus block/page size van applicatie, block/stripe size van FS en block/stripe width/interleave van storage virtualisatie als eerste. Dan de keuze/implementatie van storage virtualisatie, FS en als laatste schijven en alignment.
Simpel voorbeeld films: grote bestanden (applicaties), sequentieel WORM patroon, max block/stripe in FS, grootste block/stripe width over zoveel mogelijke spindles (meestal financieel plaatje) en/of eventueel cache toevoegen. Met thin provisioned volume erop kun je best SMR gebruiken.
EDIT: Hoe zet je zoiets op met ZFS dan? Bedoel je large_blocks support?
Geen idee; daar huur ik altijd de specifieke expertise voor in. Wat niet altijd meevalt; bij verschillende dure Enterprise oplossingen was de expert van de leverancier niet zo heel erg een expert. Gaat soms zo ver dat het verschil tussen bruto en netto IOps niet bekend is.
Voor de lol heb ik e.e.a. wel met ReFS, NTFS en storage spaces getest.
Bovendien kunnen de SMR schijven vaak maar met rond de 30MB/s schrijven max, en is deze performance enorm variabel, wat het rebuild proces alleen maar vertraagd.
Of 180MB/s sequentieel op een lege schijf. Hangt van het patroon af; een PMR schijf haalt die 30MB/s ook niet bij een 'niet optimaal' IO patroon.
Zoals ik al als voorbeeld schreef: een standaard NAS vullen met SMR schijven, hier een parity volume op plaatsen, set degraden en dan de niet lege SMR schijf terug plaatsen voor een rebuild is gewoonweg dom. Dan dwing je de schijf een volledige read before write uit te voeren op de overlappende shingles. En dat zijn dus vrijwel meteen alle datablokken op de schijf. En dat hoogstwaarschijnlijk nog eens met 'verkeerde' block sizes.
En je ontkomt er fundamenteel niet aan dat je schijven bij een rebuild dus gewoon even 24/7 staan te 'stampen' en dat is precies waar die SMR schijven niet voor zijn bedoeld.
Mijn punt: zolang de schijf leeg is en er een redelijk optimaal data patroon is (grote blokken sequentiële writes) tijdens de rebuild zul je geen significant verschil zien met PMR schijven.
Zoals ik het lees zijn SMR schijven bedoeld in een omgeving waar ze af en toe kleine stroompjes data krijgen gevoed, of dat ze kleinere hoeveelheden gedurende een korte tijd moeten aanleveren, dan zijn ze het beste in hun element.
SMR schijven houden inderdaad absoluut niet van veel kleine random writes. Bij niet hoog volume grote sequentiële writes doen ze niet onder voor PMR schijven.