tvwes schreef op dinsdag 21 april 2015 @ 21:18:
[...]
Dank je wel, vooral voor de kritische vragen. Ik zal een en ander proberen te beantwoorden. Maar houd er rekening mee dat het een vereenvoudiging van de werkelijkheid blijft en dat een heleboel zaken nog steeds achterwege blijven.
Mocht je het artikel willen aanpassen en/of verplaatsen dan hoor ik dat graag.
[...]
Jij haalt nu andere factoren aan die ik had weggelaten. Daarnaast pas je de UBER verkeerd toe. UBER is de uncorrectable bit-error rate. Het is een eenheid (die ook voor oa. ram en flash wordt gebruikt) die het aantal data errors per gelezen bit na interne ECC. De UBER spec is alleen van toepassing op lezen. Wat jij er nu bij haalt is "magnetic decay" "bitrot" het fenomeen dat gemagnetiseerde eilandjes op de platter langzaam hun magnetisme verliezen. Dat is volkomen waar. Het is alleen niet een eigenschap waar, voor zover mij bekend, harddisk fabrikanten ooit een uitspraak over doen. Dit in tegenstelling tot tape fabrikanten, die voor courant tape als LTO5 en LTO6 een shelf life van 30 spec'en. Voor harddisken gaat men vaak uit 10 jaar. Maar net als bij tape hangt er veel af van de bewaar condities. Vooral (lucht)vocht is erg slecht. Harddisk fabrikanten speccen wel "niet in bedrijf" condities, maar die zijn voor transport en opslag bedoeld niet voor lange termijn archivering.
Ja een harddisk die 10 jaar op de plank heeft gelegen zal zeker problemen geven. En ik vind het ook een heel leuk voorbeeld. Deze harddisk zal zeker last hebben van magnetisch verval. Maar zal dat ook leiden tot een UBE? (Een harde lees fout) Ja er zullen er heus wel zijn. Maar ik denk dat de harddisk ook op de nodige plaatsen lachend een sector terug geeft terwijl 10 jaar geleden er iets anders stond. En daar heb je nu ZFS voor. Dankzij de veel sterkere checksums zal ZFS deze fouten wel eruit halen en de drive firmware met zn zwakkere checksums niet. Het is een hypothese maar ik zal later in het jaar op een conferentie dit eens navragen bij wat mensen die van de hoed en de rand weten.
Waardoor die UBE nu wordt veroorzaakt maakt voor jouw als eindgebruiker niet zoveel uit. Heeft de schijf zo heel af en toe een tracking probleem? Kan de schijf zo heel af en toe de vibratie niet compenseren? Het is leuk om er over na te denken maar je komt er niet achter want de fabrikant deelt die kennis niet met je. Het enige wat je weet is de fabrikant een bepaalde kans in de vorm van de UBER specificeert bij gebruik binnen de gespecificeerde bedrijfscondities.
Jouw voorbeeld haalde er een ander probleem bij wat los staat van de UBER en hier ook niet echt relevant is. Het ging om het lezen van disken (vol of minder vol) vandaag niet om disken die 10 jaar op de plank hadden gelegen. Natuurlijk is de UBER gecorreleerd met de fysieke schijf. Maar eenheid UBER drukt alleen een kans uit per zoveel gelezen bits. De fysieke schijf en eventuele oorzaken blijven buiten beschouwing. Mijn stelling dat of een schijf nu vol of leeg is maakt voor de kans op een UBE niet uit, blijft daarmee overreind.
Heb je een bron die dit onderbouwt? Ik ging/ga er namelijk gewon heel simpel vanuit dat in de UBER spec ook magnetic decay meegenomen is als een gemiddeld voorkomend probleem.
[...]
Ik hoop overigens dat de echte werktuigbouwkundige, fysicus zich graag meld voor deze berekening.
Ik zat ooit ook zo te rederenen. Het probleen is niet acceleratie of de snelheid maar afremming. De harddisk vliegt lekker door de lucht en komt spontaan een betonnen vloer tegen. De vertraging is dan veel groter dan 250G. Als de harddisk nu in een dun kartonnen doosje zou zitten is het al veel minder. Hoe dun dat karton ook is het helpt zeker. HP had jaren geleden laptops met een eigen ingebouwd accelerometer ipv in de harddisk. De speciale software van HP parkeerde dan de kop. Je kan die sensor uitlezen en dan de G kracht van de impact bepalen. Als je de laptop van iets 4 of 5 inch liet vallen op een stenen vloer kwam je al boven de 150G. Terwijl het hele chasis al zo veel absorbeerde.
Als de fabrikant harddisken in dozen van dik twee laags karton met een custom schok absorberende piepschuim binnenkant en deksel verschepen doen ze dat niet zonder reden. Als ik harddisken ontvang op de bodem van een super dun kartonnen doosje met wel een laag wokkels of kussens ER BOVENOP plus dat ik weet wat een enorm tempo die bezorgers hebben (waar zij niks aan kunnen doen overigens) dan is dat niet goed voor de harddisk en een risico wat ik niet wil nemen. Ik haal graag dan een keer onderweg even die bestelling op. Die paar euro duurder kan mij helemaal niets schelen als ik het gezeur er tegen over zet. Nu zal de ene winkel het beter verzenden dan de ander maar als het even kan zou ik het afhalen.
Hoewel ik het helemaal met je eens ben, projecteer je hier je eigen (niet wetenschappelijke) ervaring op een advies. Jij hebt meegemaakt dat je disks zo verstuurd werden, ik niet.
Ik bestel (lalala reclame

) regelmatig bij Afuture of Azerty, en die sturen disks keurig op in die speciale plastic doosjes met daaromheen nog weer karton.
Je verhaal klopt echt hoor, maar ik ben niet zo van het bang maken van mensen met horror verhalen... Dat is in mijn ogen erg subjectief.
(Lees sowieso: no flame intended )
[...]
Natuurlijk is het marketing. Maar als de dokter zegt neem dit pilletje. Ga jij daar dan altijd tegenin?
JA! Ik laat mij niet zomaar troep voeren... Dan zou je ook alle homepatische en spirituele meuk moeten geloven... Zo werkt het niet... Er moet een duidelijk onderbouwde wetenschappelijke verklaring zijn voor het gebruik van een specifiek medicijn, en als jij als patient vraagt om een medische onderbouwing van je arts, zou in mijn ogen een goed arts deze ook zeker geven!
Weet je ook echt dat een ander pilletje net zo goed is. Nee dat weet je niet.
Dat hoeft ook niet, het enige wat ik moet weten zijn kaders/randvoorwaarden waarin ik iets acceptabel vindt.
(Risico, prijs, manier van inname, mate van inname, comfort, bijwerkingen, etc etc etc.)
Het is daarna aan de arts om een passend middel te vinden (of niet

).
De dokter kan dit zelf maar tenauwernood beoordelen. Alleen een onderzoeker die dagelijks bezig is met dat een geneesmidel kan daar een uitspraak over doen.
Ben ik het niet helemaal mee eens, hoewel ik wel (denk ik) begrijp wat je bedoelt.
In principe ga ik ervan uit dat alle informatie die de dokter/onderzoeker gebruikt om zijn keuzes te maken publiekelijk beschikbaar is, waardoor wij daar direct of indirect bij kunnen.
Wij, jij en ik net zo min hebben die kennis over harddisken niet. En iedereen die niet werkzaam is op dit moment bij een harddisk fabrikant in een ontwikkelfunctie heeft die kennis evenmin en overschat zichzelf.
Eens, maar dat is 100% de andere kant op. Dat ik er niets begrijp van de inhoud van een harddisk betekend niet automatisch dat ik mij maar 'dom' moet houden.
Vermoedelijk heb je gelijk met het verschil tussen RED en Green, maar misschien zij er nog meer verschillen... ik dacht de RED's bijv ook vibratie compensatie hadden. Wij weten het niet. Vermoedelijk zijn alle platters hetzelfde maar dmv binning gaan de betere naar de duurdere modellen. Maar dat staat nergens, je weet het domweg niet.
Er zwerven gewoon een aantal blogs posts van mensen die twee kapotte schijven open geschroeft hebben en laten zien dat die dingen gelijk zijn van binnen.
Ook zijn er volgens mij geluidsmetingen gedaan waaraan je kan zien dat het resonantiegeluid hetzelfde was volgens mij...
(kan het mis hebben, misschien haal ik artikelen door elkaar).
Het enige waar je dan vanuit kan gaan is de opgave van de fabrikant.
Niet helemaal waar, er zijn mensen die onderzoek doen buiten het boekje van de fabrikant

Ik heb nergens SAS, FC en/of Enterprise produkten of oplossingen genoemd of voorgesteld. Ik heb juist toegespitst op de gemiddelde SOHO gebruiker, en geadviseerd om in beginsel een model te kiezen waarvan de fabrikant zegt dat het geschikt is voor de toepassing.
Mee eens, nadeel is alleen weer dat ook de fabrikant geen rekening houdt met ZFS.
Zo zegt WD dat je REDS moet nemen voor NAS systemen vanwege TLER, en in principe heb je dat niet verplicht nodig voor ZFS.
In zo'n geval krijg je een mismatch tussen wat de fabrikant denkt dat jouw toepassing van de schijf is, en de daadwerkelijke features die je nodig hebt.
Telkens benadruk ik dat een ieder geheel vrij is om zelf te kiezen. Wil je meer betrouwbaarheid dan betaal je daar voor.
Dat is te kort door de bocht, daarmee ga je er al vanuit dat meer geld meer betrouwbaarheid koopt. Dan geloof je in mijn ogen al teveel in marketing
Tuurlijk zal er een kern van waarheid in zitten, maar in mijn ogen moet je als (tweaker) consument altijd kritisch kijken naar wat jouw maatstaven van betrouwbaarheid zijn en niet alleen maar luisteren naar wat de fabrikant jouw op de mouw speld als 'betrouwbaar'.
Iedereen mag dat zelf bepalen. Ik denk dat mijn advies heel neutraal is, en gebaseerd op dingen die we weten niet op dingen die we vermoeden. Daarnaast claim ik het niet beter te weten dan de fabrikant en heb ik niemand richting enterprise of welke richting dan ook gestuurd.
Eensch

[...]
Publieke data heb ik niet, wel weet ik dat de uitval van echt druk belaste bedrijfsarrays heel hoog is. Nu ligt dat gedeeltelijk aan het feit dat het 10K of 15K rpm harddisken zijn. Die worden gloeiend heet en dan 24x7 io's er naar toe sturen zorgt voor slijtage. Soms heb je de hele array 1 of 2 keer vervangen in een jaar. De actuator en motor blijven uiteindelijk mechanische onderdelen die slijten en kunnen falen. Hoe robuust ze ook zijn in mijn ogen als je bekijkt hoe complex het is een hoeveel bewegingen er per seconde worden gemaakt. Soms staan dit soort arrays jaren als standby te idlen, daar faalt geen enkele disk. (niet vragen waarom er niet naar gerepliceerd word want de wegen van het management zijn duister en ondoorgrondelijk)
Het enige andere stuk ervaring wat ik je kan bieden is dat hotspares na toevoeging aan de array ongeveer net zolang meegaan als de schijven die alleen in de array zaten. De hotspares hadden geen draaiende motor wel actieve elektronica.
En boeren verstand voorspelt ook dat iets wat veel gebruikt wordt sneller slijt dan iets wat niet gebruikt wordt. Er bestaan geen componenten die niet slijten en mechanische al helemaal niet. Gebruik je het meer slijt het sneller.
Niet om je aan te vallen, maar hier gebruik je je boerenverstand, waar je 2 alinea's terug nog zegt: Ik doe geen aannames over data die ik niet weet

[...]
(misschien begrijp ik je opmerking verkeerd) Maar zoals ik je stelling "dat meerdere vdevs binnen een zpool een hogere mttdl hebben" interpreteer, ben ik dat
niet met je eens en
andere ook
niet.
Als eerste is het belangrijk om vast te stellen dat de kans op een device fault een onafhankelijke kans. Iedere harddisk is een losse geldstuk. Het gooien van kop bij een volgend geldstuk is onafhanklijk van de uitkomst van het gooien van een ander geldstuk. Daarnaast gaat het om de kans op data verlies niet de kans op device faults.
Laten we uitgaan van een zpool met een enkel RAIDZ2 met 12 schijven. De kans P
3df is de kans op drie device faults. P
3df is gelijk aan de kans op dataverlies van de zpool bij dit enkele RAIDZ2 vdev met 12 drives . Echter als je twee RAIDZ2 vdevs maakt met 6 schijven binnen de zpool is de kans op dataverlies van je zpool
kleiner dan P
3df. De kans op P
3df geld voor de twaalf schijven en is groter dan die voor zes schijven.
Anders gezegd de kans dat er drie schijven uit vallen binnen een vdev met zes drives is kleiner dan dat drie drives uitvallen in een vdev van twaalf drives.
Als je naar de grafiek kijkt in de link zie het terug voor de mirror devices dat meer vdevs maar een kleine verhoging van het risico met zich meebrengt. Terwijl het risico toeneemt met het aantal schijven in een vdev.
Je stelt voor om twee zpools te maken
"Ik zou liever zien dat je dan 2 pools maakt" Als we het voorbeeld van boven blijven gebruiken en de 12 schijven nu verdelen over twee zpool met ieder een RAIDZ2 vdev met zes schijven. Dan levert geen betere MTTDL op dan deze zelfde twee vdevs in een zpool stoppen. Zie de kans berekening hierboven. Het enige wat ik kan bedenken is dat de kans op dataverlies, door oorzaken anders dan een device fault, kleiner wordt . Misschien raakt maar een enkele zpool corrupt en heb je dan ander nog. Maar die kansen kan ik niet inschatten en is voor mij nooit een overweging BINNEN een enkel systeem. Dat je data spreid over meerdere systemen is wel iets wat heel gewoon is.
In mijn ogen:
Je berekening klopt bijna helemaal, maar mist 1 cruciaal punt.
Als je twee VDEV's hebt, moet je de kans dat VDEV A faalt optellen bij de MTTDL van VDEV B.
Dit omdat de VDEV's onlosmakelijk met elkaar verbonden zijn.
De berekening zoals jij hem nu uitwerkt, geld voor JBOD. Als de VDEV's onafhankelijk van elkaar zouden kunnen functioneren.
Als er genoeg disks in VDEV B falen doet VDEV A het ook niet meer, ondanks dat alle ZFS structuren intact zijn.
Hoe je die kansen exact wiskundig bij elkaar optelt, weet ik ook niet, maar 2 VDEV's met kans X naast elkaar is onveiliger dan 2 losse VDEV's met kans x.
Volgens mij is het zo simpel uit te leggen.
[...]
Dit is niet helemaal een zuivere afweging. De spare is een eenmalig uitgave met weinig afschrijving de disk slijt niet

De online opslag moet je elk jaar weer betalen. De (hot/cold)spare maakt snelle recovery mogelijk. Als je een adaquate internet verbinding hebt dan nog kan het dagen of weken duren voordat je alles terug hebt. Ik moet er niet aan denken om een paar TB te downloaden. Of je moet weer (behoorlijk) betalen om je data op een externe usb schijf te laten zetten en op sturen. Daarnaast kunnen de meeste van deze diensten alleen files backup'en, meestal is er geen unix client en support voor ZFS is er al helemaal niet. Ik kan dus niet zomaar een zvol backup'en naar zo'n dienst. Dan zijn er nog wat beperkingen en addertjes onder het gras. Al deze diensten zijn prachtig, en ik moedig het gebruik ervan ook aan. Maar je kan deze diensten niet zomaar als offsite backup voor je zpool gebruiken. Als een van deze diensten nu een blockdevice van onbeperkte grootte zou aanbieden voor een tientje per maand zou dat een complete game changer zijn.
ZFS werkt ook op files, dus als jij een zfs send | file.gz doet, en die file in de cloud zet, heb je ZFS in de cloud...
Wat ik ter afsluiting onderaan mijn artikel schreef "niks moet (behalve de backup)" sta ik volkomen achter. Al het mooi's van ZFS ten spijt zonder echte backup ben je nergens. Online / cloud diensten kunnen een onderdeel vormen van je backup strategie. Maar (voor zover mij bekend) kan geen van deze diensten een backup van mijn zpool verzorgen. (backup betekent dat alles wat ik had inc metadata na de restore ook weer aanwezig is) De spare is financieel niet zo onredelijk, het maakt snelle recovery mogelijk en is niet te vergelijken met een online backup dienst.
Klopt, maar we hadden het over SOHO... De gemiddelde SOHO gebruiker heeft echt niet meer dan 1TB aan *echt* cruciale data.
We zijn allemaal tweakers, en vinden het allemaal fijn om veel, snelle, en betrouwbare storage te hebben, maar als we heel scherp naar ons eigen gedrag kijken, komen we er vaak achter dat we maar een paar honder GB aan echt belangrijke data hebben.
En dan heb ik niet over je muziekcollectie waar je jaren op gespaard hebt. Die kan je ook missen...
Als ik het over cruciale data heb, heb ik het over: Documenten die je nodig hebt voor je werk, huis, eigendomsaktes, trouwfoto's, kinderfoto's, rechtzaakdocumenten, financiele meuk etc etc.
Ik zal een keer flink vloeken als mijn server uitfikt, maar ik ga er niet persoonlijk failliet aan.
[...]
Wat schreef ik er heel nadrukkelijk bij? Dit is een procedure voor de liefhebber
Er is altijd een moment dat je vdev ongetest is. Of dat nu is bij inbedrijfstelling of toevoeging naderhand maakt niet uit. De procedure is erop gericht om juist geteste schijven te gebruiken dmv ingebruik zijnde en daarmee geteste schijven in een vdev te vervangen door nieuwe exemplaren. In principe moet je niet meer vervangen dan je aan pariteit hebt. Ook moet je zelf bepalen wanneer het moment is dat je op het vlakke stuk van de badkuip curve zit. Is dat na een maand? Drie maanden? De onbalans maakt voor sommige workloads helemaal niet uit. Zeker hier op tweakers is het voor een bepaalde groep helemaal geen bezwaar om telkens een vdev toe te voegen. Als iemand met een enkel vdev voldoende performance heeft zn film te streamen dan is het toevoegen (met of zonder wisselen) van vdevs een manier om langzaam in de tijd meer storage toe te voegen zonder in een keer een paar duizend euro af te moeten rekenen.
Duidelijk, misschien nam ik het woord liefhebber wel te scherp op. Ik zou het afraden, en niet eens iets noemen voor een liefhebber. Maar dat ben ik

@FireDrunk, nogmaals dank voor de vragen en ik hoop dat ik het voldoende goed heb uitgelegd. Als de antwoorden afdoende zijn moet ik nog wel nadenken hoe ik dat in het artikel kan verwerken.
Komt vast goed
Even niets...