Verwijderd schreef op vrijdag 12 februari 2016 @ 10:00:
[...]
'Defect' is een term die voor de één heel anders wordt uitgelegd dan de ander. Voor sommigen is een hardeschijf defect terwijl hij prima binnen de opgegeven specificaties functioneert, bijvoorbeeld als deze uBER bad sectors heeft - wat keurig wordt opgegeven door de fabrikant. Consumentenschijven krijgen 10^-14 uBER specificatie opgegeven en als een schijf binnen die specificaties functioneert, betekent dit dat er af en toe onleesbare sectoren ontstaan.
Defect valt inderdaad te zien in ruwweg 3 categorieren. Niet (optimaal functionerend), pending (SMART problemen en performance degradatie) en niet bruikbaar (defect).
Wij zullen meer te maken hebben met de 1e en de 3e. Echter als je een enterprise omgeving denkt kan performance degradatie killing zijn. Denk aan databases.
Uiteraard willen grote vendors dat je veel geld uitgeeft aan legacy storage; dat is in hun belang. Maar dat hoeft niet persé jouw belang te zijn. Dus.. nooit te laat om moderne opslag te overwegen en legacy storage vaarwel te zeggen!
Dat ze je zo veel mogelijk proberen af te troggelen is een gegeven

Maar hoezo legacy? Een HDD is geen SSD, dat heeft niet zo zeer te maken met legacy en modern maar een andere vorm van opslag. IDE en S-ATA dat is meer legacy vs modern. Zo lang de kosten per GB nog steeds ver achter liggen is dat qua opslag nog niet echt een to-go stap. Hoe graag ik ook een SSD array wil hebben, dat is kostentechnisch nog niet interessant. 8x 1TB SSD of 8x 6TB HDD is nog niet in vergelijking met elkaar. Dan denk ik puur aan opslag, de snelheidswinst van SSD's mag duidelijk zijn.
Draai je een systeem waarbij random reads zeer belangrijk is, met name databases dan is flash voor cashing of zelf een hele flash array wel een uitkomst. Echter voor thuisgebruik kostentechnisch verre van interessant als je redelijk wat data hebt. Zullen weinig mensen zijn die een bliksemsnelle database moeten draaien thuis.
Je doelt op de TLER feature. Dat is in feite een hack/workaround voor lage kwaliteit RAID implementaties die een disk die 10+ seconden niet reageert gelijk als gefaald aanmerkt. Dat is de reden dat dergelijke RAID oplossingen zo gevoelig zijn voor bad sectors, iets wat dus steeds meer voorkomt. TLER feature zorgt ervoor dat de disk na 7 seconden opgeeft en de sector gewoon lekker onleesbaar houdt en een I/O error terugstuurt. Moderne opslagtechnologie zoals software RAID onder Linux/BSD en ZFS/Btrfs/ReFS heeft hier natuurlijk geen last van.
TLER is ook gevaarlijk in bepaalde situaties; je schakelt in feite je laatste beschermingsmechanisme uit. Heb je een degraded RAID5 dan is de recovery van de hardeschijf zelf de laatste mogelijkheid om de data terug te krijgen. Met TLER draai je die mogelijkheid de nek om. Het is dus zeker niet een gewenste feature en zelfs ongewenst als je een moderne oplossing zoals ZFS gebruikt.
Daarom heeft WD ook verschillende klasses, elk met hun voor- en nadelen en hun valkuilen.
Er is geen disk die voor _alle_ usecasses geschikt is. Echter kies een schijf die aansluit bij je wensen en eisen.
Dan hoop ik dat je handen van staal zijn, want mijn logica zegt dat een hogere rpm ook een hogere wear&tear en dus potentieel lagere betrouwbaarheid/duurzaamheid betekent.
Als het dezelfde componenten betreft. De aandrijfas van een polo zal van een stuk mindere kwaliteit zijn als van een Aston Martin met 500PK. Het feit is dat 7200+ meer slijtage ondervind ik daar echter als de hardware daar ook op afgestemd is dan laat ik de waarde daarvan in het midden.
Nog steeds zeer irrelevant voor statistisch relevante conclusies. BackBlaze heeft veel meer schijven getest dan jij en je kunt in hun onderzoeken zien hoe erg de cijfers schommelen. Wil je echt een statistisch relevante conclusie trekken dan moet je echt heel veel werk verzetten en moet het om veel meer samples gaan.
Er zijn redelijk wat problemen met die testen van BackBlaze daar is genoeg online van te vinden, beetje jammer dat er geen andere onderzoeken zijn om de resultaten mee te vergelijken. Wetenschappelijk gezien is het daarom wat gevaarlijk om van 1 partij je conclusies te trekken. Net zo gevaarlijk als je eigen ervaring

Je impliceerde dat een desktopschijf zoals Green niet geschikt voor 24/7 zou zijn.
Minder geschikt en er zijn betere opties. Wellicht wat te zwart-wit in mijn eerdere aanname.
Mijn punt is natuurlijk dat je SSD voor random access gebruikt en dat betekent dat je HDDs alleen nog voor mass storage - massaopslag - nodig hebt. Dus de RPM en IOps performance van hardeschijven is daardoor irrelevant en dat betekent dat je liefst de rpm zo laag mogelijk hebt en de datadichtheid zo hoog mogelijk.
Het nut van een SSD cache is mij in enterprise opzicht duidelijk, maar voor thuis ook al heb je een 'enthusiast' NAS heeft niet zo gek veel meerwaarde.
Het leuke is dat 5400rpm is sommige gevallen nog sneller is dan een 15.000rpm disk. Dat heeft alles met datadichtheid te maken. De consument denkt: hoe hoger het getal des te sneller/beter. Maar dat ligt dus net iets gecompliceerder. Voor massaopslag heb je liever dat je disk op een laag toerental draait en er tijdens elke omwenteling heel veel data onder de leeskop komt. 4200rpm met een nog veel hogere datadichtheid zou dus ideaal zijn.
Voor archivering is 5400 prima, voor wat meer prestaties kom je bij hogere RPM's toch vaak (dus niet altijd) met hogere datasnelheden en IOPS uit getuige reviews en benchmarks.
Servers hebben daardoor vaak 2.5" met 10k of zelfs 15k. Dat is een hoge dichtheid met hoge snelheden. Echter is dat voor de scope van dit topic niet zo interessant.
FireDrunk schreef op vrijdag 12 februari 2016 @ 10:53:
Volgens mij zitten we redelijk op 1 lijn, alleen hecht jij veel waarde aan wat de fabrikant opgeeft als een betere schijf (let op: speculatieve mening, absoluut geen aanval).
Mijn ervaring is juist, dat consumenten schijven in combinatie met een goed 3e generatie filesystem (ZFS, BTRFS, ReFS, of misschien wel HammerFS

), een net zo hoge (of zelfs hogere)
effectieve betrouwbaarheid geven als enterprise schijven
met een gewoon filesystem.
Het gebruik van ZFS en BTRFS verandert dus mijn keuze in dit geval.
Wel appels met appels vergelijken

player-x schreef op vrijdag 12 februari 2016 @ 11:07:
[...]
De over grote bouwers van DIY NASen hier, zijn wat ik zo zie, mensen die voornamelijk hun video's, muziek en back-up's centraal willen opslaan, en hun NAS is eigenlijk meer een home server.
Dat er ook (semi) Pro gebruikers zijn die hun NAS wel zwaarder gebruiken, zullen hun systeem anders bouwen, en meer in de richting van Pro hardware gaan, en hier ook andere adviezen krijgen.
Maar net als voor PCs, er zijn ontzettend veel verschillende gebruikersmodellen, en daarom zijn er ook zoveel verschillende PCs, voor de een is een SoC voldoende voor wat office en browsen, voor de ander 8 core Quad-SLI model, voor High-End gaming, het zelfde geld voor NASen,
er bestaat gewoon geen 'One size fits all' model/filosofie.
Dat is ook wat ik wil overbrengen. Zoals gezegd is er geen enkele schijf perfect voor alle usecases/machines. Echter als je machine 24/7 draait en hoezeer je garantie en prestaties belangrijk vind zijn een aantal punten waarop je de keuze moet maken. Als je daarin niet helemaal zeker bent is een (semi-)pro schijf in mijn ogen standaard de betere keus mits je portefeuille die kleine extra kosten ondersteund. Al is het alleen maar voor de 5 jaar garantie tov 3 of soms zelfs minder en laat je de rest buiten beschouwing. Nogmaals, mijn aanbeveling het is een advies geen moet.