Toon posts:

Harde schijf ratelt bij opstarten

Pagina: 1
Acties:

Verwijderd

Topicstarter
Hallo allemaal,

Sinds een aantal weken ratelt mijn wd5000aaks bij het opstarten van mijn pc. Het bizarre van het probleem is dat als ik de pc 5 minuten laat lopen het geratel vanzelf ophoudt. Ook als ik de pc in de slaapstand zet en hem dan weer aanzet is er geen geratel.

Als ik de pc afsluit en hem binnen een uur (ongeveer) weer aanzet hoor je ook niks raars, op het moment dat de pc langer dan een uur uit is dan komt het geratel weer.

De prestaties van de pc leiden er niet onder ik merk geen verlies in snelheid en ook bij zwaardere games (skyrim op hoogste graphics) is de schijf perfect stil en functioneert prima.

Heeft iemand enig idee wat er aan de hand is of nog belangrijker hoe ik het op kan lossen?

  • freaky35
  • Registratie: September 2012
  • Laatst online: 20:49
indexeren eens uitzetten in services,dat kan namelijk voor geratel zorgen in win 7

indexeren start vertraagt op,dus dat dus kan zeker de boosdoender zijn.

plus bekijk eens of defragmentatie actief is,die kan daar ook voor zorgen.

[ Voor 18% gewijzigd door freaky35 op 24-10-2012 18:47 ]


Verwijderd

Topicstarter
Indexeren had ik al uitgezet, er stond een geplande defragmentatie elke woensdag om 01:00 (als de pc uitstaat) die heb ik nu ook uitgezet. Overigens begint het geratel al bijna direct als ik de pc aanzet, daar zit slechts een vertraging van een seconde of 2 tussen.

Het geluid klinkt ook niet echt als een schijf die flink aan het werken is, het klinkt eigenlijk het meest als een ventilator die aanloopt.

Wat ik nog vergeten was om te melden wat wel handig is, is dat de schijf slechts een maand of 5 oud is, hij zou dus in ieder geval niet versleten moeten zijn.

Verwijderd

Moderne schijven doen aan background surface scanning, dus dat kan gewoon normaal zijn. Dit zijn dan gewoon 'seekgeluiden' die je hoort, van de leeskop.

Je kunt dit ook met zorgvuldige stroommetingen zien wanneer de schijf background tasks of deftig 'autonomous action' genoemd doet, het stroomverbruik is dan hoger dan wanneer de schijf werkelijk in rust is (idle).

Dit gebeurt in elk geval met mijn schijven ook met enkel de stroomkabel aangesloten. Juist het feit dat het I/O requests van de host ontvangt, schort de background tasks voor bepaalde tijd op. Dit gedrag kan voor elke schijf verschillend zijn. Je kunt nog wel je SMART data posten met CrystalDiskInfo, dan kunnen we daar nog even naar kijken.

Verwijderd

Topicstarter
Inmiddels heb ik de harde schijf een dst laten uitvoeren (Seatools for dos 2.20) en die geeft aan dat er onherstelbare fouten op de schijf zitten. Als ik naar Crystaldiskinfo kijk ziet dat er niet veel beter uit:

Afbeeldingslocatie: http://s12.postimage.org/nedehvqql/hdd.png

Het lijkt me dat ik, aangezien de schijf nog niet heel oud is, ik het beste gewoon voor de garantie kan gaan. Tenzij iemand nog een superredmiddel heeft :P.

Verwijderd

Je hebt gewoon twee onleesbare sectoren. Dat is eigenlijk vrij normaal maar wel een acuut probleem. Moderne filesystems zijn hier beter tegen bestand. Dit is ook een oorzaak van de alsmaar toenemende datadichtheid van moderne hardeschijven.

Je hebt vaak wel recht op garantie als je een schijf met bad sectors hebt. Maar precies hetzelfde kan ook met je nieuwe schijf gebeuren. Pas als ik zie dat een schijf regelmatig bad sectors maakt (zeg vaker dan eens per 3 maanden) zie ik dat als een probleem. Heb je eens per jaar een paar bad sectors, dan is dat gewoon volkomen normaal. In veel gevallen merk je daar niets van, omdat de hardeschijf weak sectors autonoom opspoort en corrigeert. Zeker als de schijf langdurig zonder stroom zit kan dit onvoldoende werken.

Je probleem is direct opgelost als je die twee sectoren overschrijft. Je kunt dan ook zien wát het probleem is. Fysieke schade? Dan zie je Reallocated Sector Count verhoogd worden, is er geen fysieke schade en zijn de onleesbare sectoren na het overschrijven met nieuwe data (de nullen) weer perfect leesbaar? Dan verdwijnen de pending sectors en wordt Reallocated Sector Count níet verhoogd.

Kortom: de keuze is aan jou. Ik zelf ben van mening dat dit normaal is en we hier aan moeten wennen. Todat je iets als ZFS, Btrfs of ReFS gebruikt - de drie filesystems die vrijwel immuun zijn voor bad sectors - moet je je hiertegen wapenen met de klassieke backup; werkt uitstekend. ;)

  • rr7r
  • Registratie: Augustus 2007
  • Laatst online: 20:23
Als je garantie hebt zou ik 'm gewoon gaan claimen. Met open source cloneprogramma kan je evt. je schijf eerst clonen alvorens je de nieuwe plaats.
Verwijderd schreef op donderdag 25 oktober 2012 @ 00:31: Ik zelf ben van mening dat dit normaal is en we hier aan moeten wennen. Todat je iets als ZFS, Btrfs of ReFS gebruikt - de drie filesystems die vrijwel immuun zijn voor bad sectors - moet je je hiertegen wapenen met de klassieke backup; werkt uitstekend. ;)
Het verrast mij eigenlijk wel wat CiPHER zegt over bad sectors, hoewel ik hem/haar zonder meer geloof gezien z'n deskundigheid en mijn gebrek er aan. De enige momenten met 1> TB schijven met minimaal 2000 bedrijfsuren dat ik bad sectors had was na bijv. stroomuitval of een fysieke klap. Ik schrijf een schijf met bad sectors eigenlijk altijd direct af, ook gezien het prestatieverlies dat je veelal ook ziet bij een dergelijke schijf. Windows met een NTFS bestandssysteem kan daar toch helemaal niet mee omgaan?

  • LiquidT_NL
  • Registratie: September 2003
  • Laatst online: 13-05-2021
rr7r schreef op donderdag 25 oktober 2012 @ 10:12:

Het verrast mij eigenlijk wel wat CiPHER zegt over bad sectors, hoewel ik hem/haar zonder meer geloof gezien z'n deskundigheid en mijn gebrek er aan. De enige momenten met 1> TB schijven met minimaal 2000 bedrijfsuren dat ik bad sectors had was na bijv. stroomuitval of een fysieke klap. Ik schrijf een schijf met bad sectors eigenlijk altijd direct af, ook gezien het prestatieverlies dat je veelal ook ziet bij een dergelijke schijf. Windows met een NTFS bestandssysteem kan daar toch helemaal niet mee omgaan?
Mijn ervaring is ook dat bad sectors gewoon ontstaan, zeker zoiets lulligs als 1 of 2. Pas als ik merk dat een schijf ze blijft vertonen beschouw ik ze als defect.

Explorers in the further regions of experience...demons to some, angels to others.


Verwijderd

Topicstarter
In principe zou ik me normaal gesproken absoluut niet ergeren aan een paar bad sectors, maar met dat geratel erbij ben ik er toch niet zo zeker van om eerlijk te zijn. Ik ga de schijf toch maar omruilen dus.

In ieder geval bedankt voor alle hulp :)

  • rr7r
  • Registratie: Augustus 2007
  • Laatst online: 20:23
Verwijderd schreef op donderdag 25 oktober 2012 @ 16:58:
In principe zou ik me normaal gesproken absoluut niet ergeren aan een paar bad sectors, maar met dat geratel erbij ben ik er toch niet zo zeker van om eerlijk te zijn. Ik ga de schijf toch maar omruilen dus.

In ieder geval bedankt voor alle hulp :)
Wellicht een goed idee om een uitgebreide HD Tune oppervlakte scan en deze uit te printen? Had ik laatst ook gedaan, kreeg direct een nieuwe mee (bij Informatique) ipv dat ik eerst testresultaten moest afwachten.

Verwijderd

rr7r schreef op donderdag 25 oktober 2012 @ 10:12:
Het verrast mij eigenlijk wel wat CiPHER zegt over bad sectors, hoewel ik hem/haar zonder meer geloof gezien z'n deskundigheid en mijn gebrek er aan. De enige momenten met 1> TB schijven met minimaal 2000 bedrijfsuren dat ik bad sectors had was na bijv. stroomuitval of een fysieke klap. Ik schrijf een schijf met bad sectors eigenlijk altijd direct af, ook gezien het prestatieverlies dat je veelal ook ziet bij een dergelijke schijf.
Prestatieverlies is vrijwel nihil. Het zijn dan een paar sectoren die wanneer sequentiëel ingelezen worden die ene 'bad sector' op een andere plek staat en de schijf dus één seek extra moet doen. Dat ga je echt niet merken tenzij je schijf vol zit met bad sectors. Bedenk dat een 2TB schijf al zo'n 4 miljard tot 500 miljoen sectoren heeft, afhankelijk van de sectorsize (512B of 4KiB).

Wat jij vertelt over een oorzaak die leidt tot bad sectors; is de klassieke bad sector die we allemaal kennen. dit zijn sectoren die ook wanneer ze worden overschreven met nieuwe data, die vervolgens niet meer kunnen uitlezen. Dit kan zijn omdat dat plekje beschadigd is of al was vanuit de fabriek en in dit geval tast dit de betrouwbaarheid van de rest van de schijf niet aan en is het gewoon een goed functionerende schijf.

Echter, het kan ook zijn dat er bijvoorbeeld stofdeeltjes zijn vrijgekomen in de luchtarme behuizing van de hardeschijf en dat deze met de sneldraaiende mechanische onderdelen voor extra schade zorgen en dus kan voorkomen dat je continu nieuwe schade aan het maken bent. Zo'n schijf moet je natuurlijk afschrijven die is fysiek defect.

Wat veel onbekender is, is een 'bad sector' die enkel onleesbaar is omdat er onvoldoende ECC bitcorrectie aanwezig is. Voor 512 byte sectoren is er slechts 50 bytes beschikbaar (bovenop de 512 bytes) voor ECC bitcorrectie. Voor 4K sectoren is er 100 bytes beschikbaar en wordt deze verdeeld over de sector in plaats van alle ECC aan het einde van de sector te plaatsen. In mijn ogen kiezen de hardeschijffabrikanten er telkens voor om nét genoeg ECC te gebruiken, maar eigenlijk is meer zeker wenselijk.

Wat heeft ECC nu te maken met bad sectors? Tegenwoordig, heel veel. :)
Een hardeschijf kan eigenlijk niet meer lezen wat het heeft opgeslagen. Er zitten heel veel bitfouten in. De hardeschijf moet dus vertrouwen op ECC om zijn eigen data correct terug te kunnen lezen. Daar begint het gelazer natuurlijk al, want aangezien de datadichtheid blijft toenemen maar de ECC bitcorrectie gelijk blijft, wordt de kans dat een sector meer bitfouten heeft dan corrigeerbaar is, steeds groter. Kortom: te weinig ECC betekent een grotere kans op een sector die wel kan worden uitgelezen, maar de gegevens falen de ECC check. Om die reden wilden bedrijven ook schijven met een grotere sectorsize, zoals 520 bytes ipv 512 bytes. Die 8 extra bytes worden dan als 'application-level' ECC gebruikt. Best wel vieze hack maar het geeft aan dat het gewoon een probleem is.

Dit type bad sector komt steeds vaker voor bij moderne schijven met hoge datadichtheid (2TB+ schijven zeg maar). Dit kenmerkt zich doordat de sector zelf fysiek prima in orde is. Zodra je hem overschrijft, is het probleem opgelost. In tegenstelling tot een 'echte' bad sector, wordt deze sector niet omgewisseld met een reservesector. Je ziet in de SMART output dus wel Current Pending Sector op 1 staan bijvoorbeeld, maar Reallocated Sector Count is en blijft 0 - ook wanneer je de bad sector overschrijft. In dat geval verdwijnt de Pending Sector gewoon en is elk 'bewijs' vernietigt in de SMART logs alsof het nooit gebeurd is.

Half jaar terug een systeem voor familielid gemaakt met WD EARX schijven. Na een maand hadden de helft van de schijven pending sectoren. Echter, deze bevonden zich allemaal buiten de plekken die het ZFS bestandssysteem in gebruik had. Omdat die plekken sinds uit de fabriek geweest te zijn nog niet zijn overschreven, zijn ze al zoveel gedegradeerd dat voor een tiental sectoren het aantal bitfouten hoger is dan de ECC bitcorrectie kan corrigeren. Dan worden het dus bad sectors zonder fysiek beschadigd te zijn.

En nu dat 'ratelen'. Dat is normaal! Althans, als andere schijven van dat exacte type (inclusief firmware) dat óók doen. Zo heb ik sinds kort nieuwe Seagate 7200.14 3TB schijven die direct nadat ik ze van stroom had voorzien flink aan background scanning gingen doen. 7,3 watt stroomverbruik in 'idle'; nou die was dus niet idle dat kun je goed horen en ook voelen. Dat is wat de schijf aan background surface scans doet juist om 'weak sectors' op te sporen en opnieuw te schrijven. Zo verkomt de schijf dat die sectoren een tijd later in bad sectors veranderen, maar dit is natuurlijk niet waterdicht. Hetzelfde doe je eigenlijk al normaliter omdat als je de hardeschijf gebruikt je ook die sectoren leest en als de schijf merkt dat die sector niet lekker is (waarvoor het meerdere methoden gebruikt) dan kan het besluiten die uit voorzorg om te wisselen.

Het kan wel zijn dat de schijf van de topicstarter een afwijkend geluid geeft, wat althans andere modellen van hetzelfde type niet hebben. In dat geval zou ik hem wel willen omwisselen, alhoewel schijven anders kunnen gaan klinken. Bij mijn oudere schijven (ik heb er een boel) kun je goed horen dat de ene anders klinkt dan de andere vooral qua seekgeluiden. Bij een nieuwe verse schijf zou ik dit niet zo snel verwachten.
Windows met een NTFS bestandssysteem kan daar toch helemaal niet mee omgaan?
Windows loopt ook erg achter met filesystems. Bedenk dat Microsoft al eerder heeft geprobeerd bitcorrectie toe te voegen om te beschermen tegen bad sectors met Drive Extender 2.0; die uiteindelijk gecancelled werd. Dit betreft Windows Home Server. Het is natuurlijk pijnlijk dat je als topsoftwarebedrijf ter wereld geen software in huis hebt om computerdata veilig op te slaan op moderne opslagmedia. Wha?

Pas nu is Microsoft er met ReFS wat voorlopig nog heftig in ontwikkeling is volgens mij, maar uiteindelijk zullen ook de consumenten hiervan gebruik kunnen maken. Hetzelfde gebeurde eerder met NTFS waarbij alleen Windows NT (het is dus ook NT FileSystem) beschikte over dit nieuwe filesystem, en consumenten tot Windows XP moesten wachten (Win2000 was zakelijk) totdat ook zij hun ouderwetse FAT filesystem konden inruilen voor een destijds modern Journaling filesystem. Destijds was het probleem dat FAT inconsistent kan worden als de hardeschijf plots zijn stroom verliest. Dat zag je dus ook: Win95,98 en ME kon je tijdens het opstarten vaak die scandisk tegen en dat skipten dan veel mensen en dan kreeg je directories met enge japanse tekens enzo... leuk.

Maar hetzelfde gebeurt nu dus weer. Een filesystem mag niet aannemen dat alle sectoren altijd opvraagbaar zijn. Een opslagapparaat is niet langer iets wat OF alle data toegankelijk heeft OF helemaal niets en dus stuk. Steeds vaker doen schijven het prima maar door hun inherente eigenschappen van weinig bitcorrectie en toch erg hoge datadichtheid dat af en toe een sector onleesbaar kan worden. Je filesystem moet dat kunnen hebben! Sterker nog, NTFS en FAT en alle andere legacy filesystems.. weten geeneens of data corrupt is of niet. Die disk checks kunnen zien dat bepaalde metadata in elk geval niet met elkaar overeenkomt. Maar dat blijft gerommel en gewoon geen veilig systeem. Je moet iets hebben wat WEET of de data klopt of niet, en zo niet moet het een redundante bron hebben voor die data. Dat betekent dus: checksums.

Ergo: de noodzaak voor ZFS, Btrfs of ReFS wordt steeds groter en eigenlijk is dit iets wat bepaalde sectoren liever stil willen houden, in elk geval totdat ze hun zaakjes op orde hebben en zelf een goed functionerende oplossing hebben. Echter, ZFS is er nu al, en is gewoon volwassen en stabiel en superbruikbaar. Dat is hét voordeel van ZFS; het eerst volwassen next-gen filesystem wat wél goed werkt met moderne hardware. Vandaar dat ik ook in mijn signature sloth heb gequote:

Je wil in 2012 gewoon een filesystem als ZFS als je data je lief is.

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Verwijderd schreef op donderdag 25 oktober 2012 @ 23:53:
[...]

Bladiebladiebla

Lang verhaal

Bladiebla
Je wil in 2012 gewoon een filesystem als ZFS als je data je lief is.
Interessant :)
Pagina: 1