vraag mbt S.M.A.R.T

Pagina: 1
Acties:

  • analogworm
  • Registratie: September 2011
  • Laatst online: 09:35
Beste mede-tweakers,

Vandaag heb ik een drie tal WD Greens binnen gekregen. 2e hands, een voordelige optie om tot een Raid 5 systeem te komen dacht ik.

De verkoper gaf aan dat de Smart status goed is. En WD Data Lifeguard Diagnostics geeft ook gewoon pass aan. Echter Crystal disk geeft een heel ander plaatje weer en daar maak ik mij een beetje zorgen over. Ondanks mijn zoektocht weet ik niet zo goed hoe ik de gegevens moet interpreteren. Daaropvolgend kan ik niet bepalen of het verstandiger is de schijf met waarschuwing maar bij voorbaat te dumpen en een andere te halen. Of dat de kans op problemen nog relatief klein is.
Wie kan mij helpen de info beter te begrijpen?

Thanks!

https://www.dropbox.com/s/8kbzpk0lkewtdun/WD%20Greens.jpg

[ Voor 0% gewijzigd door Verwijderd op 24-05-2013 21:36 ]


Verwijderd

Je linkt niet naar een plaatje, maar naar een HTML-pagina. Dus ik heb een link gemaakt van je plaatje zodat deze klikbaar is.

Je hebt drie tweede hands schijven gekocht, waarvan er één bad sectors had. Door de vorige eigenaar zijn deze overschreven met nullen of random data, waardoor de bad sectors zijn verdwenen. De waarde van Uncorrectable Sector Count is slechts een restant hiervan; deze waarde wordt niet continu geupdate maar je hebt een SMART self-test nodig om deze te verversen. Echter geeft dit dus wel aan dat de schijf bad sectors had waarschijnlijk vlak voordat de vorige eigenaar de schijf heeft overschreven met nullen; zoals een zero-write of lange format.

Kortom, je schijven zijn nu prima en zonder bad sectors. Maar in het verleden hebben deze wel bad sectors gehad. Dat is overigens normaal voor een consumentenschijf van deze klasse. Hardeschijven zijn simpelweg ontworpen om regelmatig bad sectors te ontwikkelen, wat veroorzaakt wordt door onvoldoende ECC-errorcorrectie. Dit is ook vastgelegd in de specificaties van de hardeschijf; deze heeft een uBER-specificatie van 10^-14 wat grofweg aangeeft hoevaak een schijf bad sectors ontwikkelt.

Aangezien je WD Green hebt gekocht en geen WD Red die TLER ondersteunt, zijn je schijven niet geschikt voor ouderwetse RAID engines zoals beschikbaar onder Windows (onboard RAID) of middels Hardware RAID. Waarschijnlijk ben je dat wel van plan, maar daarbij kun je dus grote problemen krijgen van uit elkaar gevallen arrays met dataverlies tot gevolg of in elk geval verlies van toegang tot je gegevens, omdat de RAID array op failed staat en één of meer disks uit de array zijn gegooid.

Met andere woorden, hopelijk kan ik je overtuigen om een andere route te kiezen. Gebruik je ouderwetse software zoals Windows met NTFS, dan kun je beter geen RAID gebruiken maar simpelweg losse schijven en de overige schijven als backup gebruiken. RAID gaat je in dit geval namelijk niet voldoende beschermen, je enige bescherming zal kunnen komen van een goede backup die je regelmatig dient te onderhouden.

Ben je van plan om Linux software RAID te gebruiken op een non-RAID controller (chipset controller) dan zijn de schijven wel geschikt. Ook voor ZFS zijn met name deze schijven zéér geschikt. Wellicht kun je dat overwegen als je je gegevens serieus wilt beschermen. Dat de Greens niet geschikt zijn voor ouderwetse RAID-engines is iets wat je met een simpele google query had kunnen leren. Kortom, doe voortaan iets meer vooronderzoek en je komt tot een beter eindresultaat!

  • analogworm
  • Registratie: September 2011
  • Laatst online: 09:35
Dankje CiPHER voor je uitgebreide reactie, het lijkt er op dat je mij van veel gezeik behoedt. Ik weet het wel... goedkoop is duurkoop =P

In jouw post over ZFS stel je het ongeveer gelijk aan Microsoft's ReFS, wat volgens de geruchten in windows 8.1 zal worden ingevoerd. Nu geef je aan dat deze schijven zeer geschikt zijn voor ZFS (waarom eigenlijk?) Kan ik hieruit afleiden dat de WD Greens icm Raid 5 (via Asus moederbord) én ReFS wel kunnen?

Verwijderd

Nee, want als ReFS opeens geen disk meer kan zien omdat je onboard RAID is gefaald door een timeout veroorzaakt door een bad sector, kan ReFS daar ook verder niets meer aan doen. Hetzelfde geldt voor ZFS als je je schijven op een hardware RAID controller zoals Areca aansluit. ZFS kan willen wat het wil, maar als de controller keihard de schijven onzichtbaar maakt dan houdt het gewoon op.

ReFS is van de genoemde opties het minst uitontwikkeld. ZFS is momenteel de enige betrouwbare manier van opslag. Alle alternatieven zullen sterk leunen op backups, backups en nog een backups. Een ZFS NAS is dus wel het overwegen waard als je RAID5 (RAID-Z) wilt gebruiken met 3 of meer schijven. Bijvoorbeeld een RAID-Z van 5 disks. Dan koop je nog twee greens erbij en een simpel ZFS systeempje voor 150 euro en je hebt je data goed beschermd.

WD Green is een schijf zonder TLER en met hoge datadichtheid. Beide zijn bij uitstek geschikt voor ZFS, want ZFS hoef je geen TLER en wil je dat ook liever niet. Daarnaast zorgt een hoge datadichtheid behalve een lage prijs per gigabyte ook voor een hogere kans op bad sectors. Juist dat is voor ZFS geen enkel probleem, mits je een vorm van bescherming hebt zoals RAID-Z. Dus WD Green (EARX) is bij uitstek geschikt als schijf voor ZFS. Enige wat je wilt doen is de headparking uitschakelen.

  • analogworm
  • Registratie: September 2011
  • Laatst online: 09:35
hmmm, in een ZFS systeem investeren, ookal klinkt het ideaal, is momenteel geen optie. Te weinig tijd om mij te verdiepen in het werken met linux en ookal hoeft het niet duur te zijn, te weinig geld.

Ik denk dat ik dan nu maar er verstandig aan doe om met 2x2 1GB schijven te werken. En later met geschikte schijven over te stappen op een raid configuratie (uiteraard ook met backup) met eventueel ZFS. Bedankt voor het advies.

Nog even een vraag over het head parking. Gezien de smart status van deze 3 drives met een Load Cycle count van 80.000, 50000, en 220 met 2 jaar gebruik. Zou je hierbij ook de headparking aanpassen? en zo ja, naar wat voor tijd?

Verwijderd

300.000 is opgegeven. Dus voor de 2 jaar dat je schijven al continu draaien mag ik aannemen dat de timer al flink omhoog is gezet. In dit geval hoef je deze niet verder aan te passen. 50.000 per 2 jaar is wel normaal, dan zit je pas aan 300.000 na 12 jaar continu gebruik; en dan zijn die arme beestjes toch echt wel stuk of in elk geval overbodig geworden.

Hou gewoon de headparking in de gaten; als deze te snel stijgt kun je altijd nog met WDIDLE.exe de timer aanpassen.

  • sig69
  • Registratie: Mei 2002
  • Laatst online: 28-01 21:51
Cipher, ik waardeer je technische kennis, maar het is wel een beetje "doempraten". Je kan met green schijven ook prima raid5 draaien. Ok, ze zijn er niet voor gemaakt dat geef ik toe. Draai hier ook 4x2TB in raid5 en dat gaat gewoon goed. Eén keer een stukke schijf gehad, vervangen, en gewoon verder draaien. Zou ik er belangrijke data op zetten? Nee. Voor films en meuk enzo is het best

Roomba E5 te koop


Verwijderd

Doempraten? Heb je enig idee hoeveel mensen hun data kwijt zijn door het gezeik met disk timeouts en gebroken arrays? Dat is echt geen onzin ofzo.
Draai hier ook 4x2TB in raid5 en dat gaat gewoon goed.
Ja het zal perfect draaien, TOTDAT je een bad sector krijgt. Dan ligt een disk uit de array. Prima, ga je rebuilden denk je. Maar tijdens de rebuild heeft een ander disk ook een bad sector; oepserdefloeps nu is de array failed met twee disks kwijt. Wat nu?

Je hoort het vaak van mensen: 'maar ik heb nergens last van draait prima hier!'. Totdat ze een keer wel met bad sectors te maken krijgt, en dan is het gelijk huilen omdat dit type mensen vaak geen backups onderhouden. Dit is wat ik noem een 'binaire ervaring'... alles draait goed, totdat het misgaat.

Zo ook bij mensen met een OCZ SSD. Sommigen hebben niets dan gezeik ermee, anderen hebben nog nooit ergens last van gehad en doen alle verhalen af als onzin. Totdat ze zelf ook te maken krijgen met problemen, dan veranderen ze opeens hun mening. Wees realistisch; als je risico loopt, loop je risico. Dat de dobbelstenen tot dusver in jouw voordeel hebben gedanst, wil niet zeggen dat ze dit blijven doen.

Verwijderd

Op verzoek verwijderd

Verwijderd

Daar heb je natuurlijk een punt. Aan de andere kant, word je overal wel ingewreven dat Greens niet geschikt zijn voor RAID en Reds wel. Dat is het kernverschil wat gezegd wordt over de twee.

Dan ben ik er juist om dit beeld te nuanceren. Dat Greens ongeschikt zijn voor RAID is onzin; het is juist andersom. Slechte RAID-implementaties zijn ongeschikt voor normale consumentenschijven. Goede RAID-implementaties kunnen met alle schijven overweg, en willen juist liever WD Green omdat TLER juist een extra risico is. Want met 'RAID' bedoelen mensen vaak onboard RAID op een Windows OS ofwel Hardware RAID met een Areca controller. Daarvoor heb je inderdaad iets als WD Red nodig met TLER-ondersteuning. Maar juist voor Linux software RAID en ZFS wil je het liefste WD Greens hebben, of WD Red met TLER uitgeschakeld.

Ik snap je punt dat je als consument niet altijd de juiste weg weet te vinden in een donker bos waar ieder wat zegt en je niet weet wat je moet geloven. Aan de andere kant is het zo dat je met sommige zaken wel wordt doodgegooid. Zo vind ik dat je niet voldoende vooronderzoek hebt gedaan als je nog nooit hebt gehoord dat OCZ SSDs minder betrouwbaar zouden zijn. Of dat zo is kun je over discussiëren, maar als je er nog nooit van hebt gehoord maar je hebt wel een OCZ SSD, ben ik sterk geneigd te denken dat je je huiswerk niet goed hebt gedaan. Hetzelfde geldt denk ik over RAID in combinatie met Green schijven, zij het in iets mindere mate. Maar ook hier kun je op allerlei plaatsen lezen dat Greens 'niet geschikt' zijn voor RAID, al valt dat beeld dus sterk te nuanceren door een onderscheiding te maken van verschillende RAID engines.

Maar mijn punt is dat je voor zoiets belangrijks als dataopslag wel een minuutje of 5 mag googlen of een FAQ mag doorlezen op een fora als Tweakers.net. Dat lijkt mij een nuttige investering van je tijd, kan je een boel ellende besparen!
Pagina: 1