Toon posts:

Check je SMART Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 36 37 Laatste
Acties:
  • 224.733 views

  • mrmrmr
  • Registratie: April 2007
  • Niet online
Metaal zet uit bij warmte en krimpt bij kou. Dat kan het verschil vormen tussen een verbinding of een verbroken of haperende verbinding. Sommige connectoren zitten niet goed vast en kunnen losraken. De verbinding tussen de (koper-)draad en de connector kan ook te wensen overlaten.

Je hebt een goede kwaliteit connector en een goede kwaliteit kabel nodig. Helaas staat dat zelden op een kabel, en zelfs voor rommel wordt soms ook nog eens de hoofdprijs gevraagd. De prijs zegt dus niet zo veel.

Bij Amazon kan je recenties van 1 score lezen. Soms blijkt dat te gaan over een verkeerde levering van oud materiaal of kabels die het niet goed doen, maar soms spreekt het ontbreken van 1 scores en een 3 score over stijfheid boekdelen. Een stijvere kabel kan breuk helpen voorkomen. Ik ken deze kabels verder niet, maar ik zou het wel op grond van de recenties bestellen.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Is het al gelukt?

Zo niet: haal het apparaat eens in je eigen huis en laat het daar eerst op temperatuur komen en evt. drogen.
De foutmelding (CRC-errors) duiden op communicatieproblemen tussen het communicaite IC op de printplaat van de harddisk en hetzelfde IC op de printplaat van de backupserver. In de praktijk zitten daar vooral beide connectoren en het (SATA?-)kabeltje tussen als onderdelen die het vaakst falen. Een nieuw kabeltje uitproberen is dan de beste zet.

Je kunt ook de harddisk uitbouwen en die (indine nodig via een dock) rechtstreeks aansluiten op je PC/iMac.
Dat geeft ook informatie over waar de fout precies zit.

  • quadrofource
  • Registratie: Mei 2016
  • Laatst online: 22-02 18:09
Afbeeldingslocatie: https://tweakers.net/i/7JDEwgW82nv5uBHz5hW_VL_mvOc=/x800/filters:strip_icc():strip_exif()/f/image/hiLwkx4fJSVTeujCPR6A98K9.jpg?f=fotoalbum_large

Heeft gedraaid als cache ssd in een server en ik was verbaasd over de hoeveelheid writes. Heeft er iemand meer uitleg?

AMD Ryzen 9 7900X3D + RX 9070 + 32GB DDR5 @ 5200


  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
Die is binnen nu (fabrikant) en X (deo volente) klaar met schrijven.
Voor iets anders dan cache zou ik 'm niet meer inzetten.

- knip -


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Die is nu gewoon helemaal versleten. Als je hem als cache gebruikt gaat alles via de SSD, zowel lees-als schrijfacties en dan gaat het snel met de afnemende levensduur.

Ik zou hem ook nu vervangen, liefst door iets met een hogere opslagcapaciteit, zodat hij minder snel zal slijten.

  • mrmrmr
  • Registratie: April 2007
  • Niet online
@quadrofource Je hebt een SSD nodig met eigen cache, dat verlaagt het aantal NAND writes. De cache van het besturingsysteem kan hier ook voor worden gebruikt.

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
Och, ik heb ik m'n homeservertje ook een ssd zitten die op een soortgelijke manier mishandeld wordt. Niets mis mee als dat je use case is.

Zeker voor volatile cache is zo'n schijf nog wel bruikbaar. :)

- knip -


  • quadrofource
  • Registratie: Mei 2016
  • Laatst online: 22-02 18:09
Bedankt voor het delen van jullie kennis. De ssd is niet bij mij in gebruikt geweest maar zat in de dell server die in de recycle bak op werk lag. Zag pas maanden later het smart resultaat toen ik hem een tweede leven wilde geven in een desktop pc. De ssd loopt vaak vast, bevriest de hele pc, heeft bij hdtune sector scan veel bad blocks en een erg lage lees en schrijfsnelheid dus ik denk dat deze helaas niet meer bruikbaar is. Als de write hoeveelheid klopt in crystaldiskinfo voor deze specifieke ssd dan heb ik wel veel respect dat hij het zo lang heeft volgehouden maar ik denk eerder dat deze ssd de writes anders interpreteert bijvoorbeeld in hoeveelheid sectors/blocks ipv GB

AMD Ryzen 9 7900X3D + RX 9070 + 32GB DDR5 @ 5200


  • Admiral Freebee
  • Registratie: Februari 2004
  • Niet online
Raymond P schreef op woensdag 20 maart 2024 @ 20:45:
Die is binnen nu (fabrikant) en X (deo volente) klaar met schrijven.
Voor iets anders dan cache zou ik 'm niet meer inzetten.
Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
Admiral Freebee schreef op donderdag 21 maart 2024 @ 20:37:
[...]

Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?
Klopt, zolang je valideert wat je wegschrijft (voor zover de controller dat niet voor je doet) hoeft dat niet direct een issue te zijn. Als het er eenmaal op staat dan is het uitlezen van een ietwat kreupele SSD meestal geen issue.
Gebeurt het vaak genoeg en/of zakt de performance in dan heb je het uiterste uit je disk gehaald en vervang je 'm, wat bij deze unit dus al het geval blijkt te zijn.

In productie vervang je zoiets natuurlijk iets eerder. :9

Thuis kun je disks gewoon een toepasselijke functie geven.
Deze bejaarde rondjesdraaier zit 10 dagen af van 100.000 uur, daar zet ik al zeker 10 jaar geen cruciale backups meer op. ;)
Afbeeldingslocatie: https://tweakers.net/i/UTu6aKx0Z8fEnj78kMqRpNwA5so=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/NfvqTJ2yIDlwSpUoo1hB3YsS.png?f=user_large

- knip -


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Zo, dat is een volhoudertje! _/-\o_

  • Appelmoesje
  • Registratie: September 2020
  • Laatst online: 15-11-2025
Heb er voor de zekerheid alles maar afgehaald wat ik perse wil bewaren, maar hoe erg moet ik me zorgen gaan maken?Afbeeldingslocatie: https://tweakers.net/i/G9QWSmsNRs4XLk-f-HfZ80lzB0I=/x800/filters:strip_icc():strip_exif()/f/image/YP4s9m6XhYqcbvInbItRkn7Q.jpg?f=fotoalbum_large

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
@Appelmoesje Als je een backup hebt (gemaakt) dan hoef je je nergens zorgen om te maken. :)

Als reallocated sector count op gaat lopen dan zou ik 'm direct uit dienst halen. (Ik gok dat dit schijfje al wat ouder is, die zal geen jaren meer meegaan.)

- knip -


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
... en als je onvoldoende backups hebt (bv. op één ander opslagmedium): direct vervangen, want voor je het weet is die backup je enige (en kwetsbare) dataversie!

  • jdh009
  • Registratie: Juni 2002
  • Laatst online: 22-02 03:56

jdh009

FP ProMod
Wat betekenen die 83% en 93% precies? Ik neem aan dat verder dan dat good gewoon goed betekend :).


Afbeeldingslocatie: https://tweakers.net/fotoalbum/image/LQb3PPeiFKpBsqSlJgVmxtli.png
Afbeeldingslocatie: https://tweakers.net/fotoalbum/image/xHU1rivWUicSuVLND3Ui13Df.png

"Each event is preceded by Prophecy. But without the hero, there is no Event." - Zurin Arctus, the Underking | "Ad Nocendum Potentes sumus." - Me, 30 November 1999


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Die percentages zijn een beoordeling door Crystaldiskinfo van het totaal aan resultaten in de SMART-tabel.
Hoe deze beoordeling tot stand komt is het pakkie an van Crystaldiskinfo.

Sowieso geven de SMART-cijfers een beeld van het verleden: wat ging er goed en wat ging er fout aan meetbare zaken?
Daarom kun je op basis van de SMART-tabel wel zeggen of er iets fout ging op de disk, maar niet hoe lang de disk het nog vol zal houden.

Bovenste disk:
Er zijn geen erge fouten zichtbaar in de cijfers, alleen de unexpected Power loss valt op.
Het weergegeven percentage komt wel overeen met de slijtage-indicator in de tabel

Onderste disk:
Ook hier geen fouten zichtbaar.

Hoe wordt de slijtage van je SSD bepaald?.
- de fabrikant geeft voor elk type SSD op wat het verwachte Total Bytes Written is voordat alle cellen dood zijn
- de printplaat houdt bij hoeveel daarvan al is verbruikt
- en geeft dat weer in een "overblijvend goed percentage"

  • mrmrmr
  • Registratie: April 2007
  • Niet online
@jdh009
De waarde van Lifetime Remaining (SMART 0xCA) wordt overgenomen door Crystaldiskinfo en die zie je bij dat percentage.

0x11 is 17 decimaal. 100 - 17 = 83.

Bij de tweede SSD is Percent Used (SMART 0x05) gebruikt door Crystaldiskinfo.

0x08 is 8 decimaal. 100 - 8 = 92.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:08
Dat is toch de wearing level? Oftewel slijtage percentage. Die wordt direct overgenomen van de drive toch niet door Crystal zelf?

Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.

  • Stanton
  • Registratie: Mei 2017
  • Niet online
chim0 schreef op zaterdag 13 april 2024 @ 12:13:
Dat is toch de wearing level? Oftewel slijtage percentage. Die wordt direct overgenomen van de drive toch niet door Crystal zelf?

Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.
Op wie / wat reageer je nu precies?

De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.

Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.

De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.

Joep


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:08
Stanton schreef op maandag 15 april 2024 @ 17:33:
[...]


Op wie / wat reageer je nu precies?
Op de discussie hierboven.
De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.

Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.

De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.
De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.

  • Stanton
  • Registratie: Mei 2017
  • Niet online
chim0 schreef op dinsdag 16 april 2024 @ 09:29:

De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.
Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie. En nu?

Joep


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:08
Stanton schreef op dinsdag 16 april 2024 @ 10:30:
[...]


Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie.
Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.
En nu?
Nu niks. Discussie over. Was beetje reactie op het eerste gedeelte van de reactie van @Renault misschien.

offtopic:
Je komt een beetje passief agressief over. Gaat het wel goed? :D

  • Stanton
  • Registratie: Mei 2017
  • Niet online
chim0 schreef op dinsdag 16 april 2024 @ 11:35:
[...]

Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.
"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.

Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health

En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.

Joep


  • Rohem
  • Registratie: Augustus 2007
  • Laatst online: 22-02 16:38
Ik was aan het zoeken op het forum en kwam per toeval dit topic tegen, wat tof dat deze erin!

Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB

De melding;
Afbeeldingslocatie: https://tweakers.net/i/yeirUmGL-evjftfXIVQoIBvB1T4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/P40VmsFa6erfP18EbsbOHxoi.png?f=user_largeAfbeeldingslocatie: https://tweakers.net/i/T75-MIMVXMWg0l9a6e-3BS9BYv4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/3Fg3pht7LlLdj15oxoL9Ac6N.png?f=user_large
Afbeeldingslocatie: https://tweakers.net/i/fzXxSCaO3WIhsQebYRM3JwbQKJg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/zz16L9Z9CaMRy6YWg96c6CFU.png?f=user_large
Afbeeldingslocatie: https://tweakers.net/i/CzyCv50ESjOKv5YrPiAGFrjd2VY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/6vWYs26RIq4umCGArUHMHZwt.png?f=user_large

Valt hier iets over te zeggen?

Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Stanton schreef op dinsdag 16 april 2024 @ 12:03:
[...]


"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.

Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health

En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.
Nee hoor!
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!

Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!

Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.

[ Voor 3% gewijzigd door Renault op 17-04-2024 14:20 ]


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Rohem schreef op woensdag 17 april 2024 @ 11:11:
Ik was aan het zoeken op het forum en kwam per toeval dit topic tegen, wat tof dat deze erin!

Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB

De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]

Valt hier iets over te zeggen?

Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
Ja:
- je harddisk rapporteert dat hij ooit een mechanische tik heeft gehad:
G-Sensor_Error_Rate = "48" (er staat geen eenheid of schaal bij , maar ideaal is "0")
- de rest van de parameters zijn te verwachten bij een goed gebruikte disk, er zijn geen echte foutmeldingen te zien.
- gewoon doorademen en doordraaien zo, MITS je actuele backups hebt van alle belangrijke data.
Zolang er geen andere (of méér) afwijkingen worden gerapporteerd is er niets aan de hand.

  • AzertyNL
  • Registratie: Juni 2002
  • Laatst online: 21-02 20:27
Rohem schreef op woensdag 17 april 2024 @ 11:11:
Mijn probleem is als volgt;

De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]

Valt hier iets over te zeggen?

Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.

Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.

Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)

Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.

[ Voor 3% gewijzigd door AzertyNL op 17-04-2024 15:43 ]


  • Rohem
  • Registratie: Augustus 2007
  • Laatst online: 22-02 16:38
AzertyNL schreef op woensdag 17 april 2024 @ 15:35:
[...]


De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.

Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.

Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)

Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.
Superbedankt voor je snelle reactie en hele duidelijke uitleg erbij! _/-\o_

Dan vertrouw ik de schijf nog gewoon. Heb altijd nog een tweede schijf die in sync loopt, dus data zal ik niet zo snel kwijt zijn verwacht ik.
Ik krijg er rapportjes van via de mail nu, dus dan houdt ik het gewoon in de gaten.

  • Stanton
  • Registratie: Mei 2017
  • Niet online
Renault schreef op woensdag 17 april 2024 @ 14:11:
[...]


Nee hoor!
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!

Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!

Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.
Ik plaats helemaal geen print-screen.

De post van Appelmoesje gaat niet over een SSD en is er derhalve geen wear level indicator. In de post van Appelmoesje is er simpelweg een vitaal attribuut onder drempel waarde.

In het geval van de SSDs lijkt CDI zich bij bepalen health percentage op wear level attribuut.

Joep


  • Kalua
  • Registratie: April 2009
  • Laatst online: 22-02 09:50
Ik heb onderstaande schijf sinds kort in een USB enclosure gedaan (ICY BOX IB-3740-C31), sindsdien heb ik regelmatig errors. Daarvoor nooit enige issue gehad ermee.

Nu zie ik de UDMA CRC error count en dit wijst voornamelijk op problemen met aansluiting/kabels. Is het nu gewoon dat zo'n USB 3 HDD enclosure bagger is of kan het nog ergens anders aan liggen?

Afbeeldingslocatie: https://tweakers.net/i/N-ob1IyPf7e336ElorSV-whpGxc=/800x/filters:strip_exif()/f/image/g1K2Of4zLB9vhFd0qmxoUBXh.png?f=fotoalbum_large

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Die afwijkende UDMA error count geeft aan dat er communicatieproblemen zijn geconstateerd tussen de chip op het moederbord van je PC en de chip op de printplaat van de schijf. Alles wat daartussen zit kan de oorzaak zijn.
(Weet je zeker dat voordat je de enclosure in gebruik nam. de CRC error count op de schijf op nul stond?)
Het is aan jou om delen van die keten uit te sluiten middels tests (andere poorten gebruiken, ander snoertje enz.). Als desondanks de errors blijven oplopen (ze gaan nooit meer terug naar nul, ze tellen nu verder door vanaf "240") zou iets in de enclosure inderdaad de fouten kunnen veroorzaken.
(Ik zie in de overige cijfers trouwens geen afwijkingen.)

[ Voor 4% gewijzigd door Renault op 01-05-2024 10:45 ]


  • Snoopy120
  • Registratie: Oktober 2007
  • Laatst online: 29-11-2025
Beste Tweakeraars,

CrystalDiskInfo levert een waarschuwing op, op 1 van mijn twee harddisks van WD (blue 6TB). De C5 en C6 leveren een 'issue' op zoals is te zien op het plaatje. Een latere surfacetest geeft aan dat er op 1 plek 19 errors zijn gevonden.

Wat is wijsheid, deze HD vervangen door een nieuwe, of kan het vooralsnog niet veel kwaad? Zit er een beetje mee in dubio gezien ik niet zo snel kan traceren (met zoeken oid) wat die C5 en C6 voor invloed hebben.

Afbeeldingslocatie: https://tweakers.net/i/PlJsDuqU1CaoGvEDtnjkJNuDTBc=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/7YOZl2MBNDcjbFTOCX9nnqxi.jpg?f=user_large

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
C5 wil zeggen dat de paritycheck op de uitgelezen data voor "22" sectoren niet plausibel is en dat de harddisk voor elke sector het herhaald uitlees-programma afwerkt wat bij zo'n melindg hoort. Daar zit een bepaalde doorlooptijd aan vast en als resultaat kon alsnog goed worden uitgelezen en heb je de data intact terug, of het uitlezen lukte alsnog niet en de sector wordt als "onbruikbaar" gemarkeerd. Volgens C6 is dat laatste al met "21" sectoren gebeurd. De totale opslagcapaciteit van de harddisk neemt daardoor niet af, want hiervoor heeft de harddisk een reeks reserve sectoren paraat staan.

Wat is de oorzaak hiervan?
De magnetische laag van (een van de?) platters wordt lokaal instabiel waardoor gegevens verloren gaan en dit is een van de eerste verschijnselen daarvan.

Is dat erg?
Dat hangt er vanaf: als jij keurig actuele backups hebt van al je data in voldoende versies, kan dit niet zoveel kwaad, omdat je de beschadigde bestanden (door de ontbrekende sectoren van C6 en vooralsnog ook van C5) ergens anders óók nog onbeschadigd hebt staan.
Als je geen andere actuele versie van de beschadigde bestanden hebt staan, is het wél erg, want dan ben je die data definitief kwijt.
In dat licht zou ik ook bekijken of je deze harddisk moet vervangen of niet.

Ik hoop zo je vraag toch nog te hebben beantwoord.

  • Ludwig005
  • Registratie: Juli 2017
  • Laatst online: 22:23

Ludwig005

Ludwig005 - Verzonken in HW

Ik ben bezig om een PC terug op gang te krijgen, maar een steam update zou steeds mislukken vanwege een write disk error. De SSD in de PC lijkt me nog prima, maar de HDD die erbij zit heeft een waarschuwing op zijn status. Een heel tijd geleden was er iets als het deel je smart status topic, maar ik kan het niet meer terugvinden. Kan iemand mij zeggen of deze SMART status goed/slecht/twijfelachtig is?

Afbeeldingslocatie: https://tweakers.net/i/3RHSJN9np9_Q4JpSA9m-hKirZ-0=/800x/filters:strip_exif()/f/image/OmUJGbpDxN810pJx7VG1N1hW.png?f=fotoalbum_large

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 00:55

br00ky

Moderator Harde Waren
Ludwig005 schreef op maandag 5 augustus 2024 @ 11:06:
Een heel tijd geleden was er iets als het deel je smart status topic, maar ik kan het niet meer terugvinden.
offtopic:
Dit topic dus. Even zoeken op smart was genoeg geweest ;) .

  • vrilly
  • Registratie: November 2020
  • Laatst online: 15-02 13:49
Twijfelachtig/slecht. Maar met een 500GB oude schijf zou ik persoonlijk er geen moeite er meer in stoppen

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Je harddisk heeft geen communicatiefouten en de enige twee geel gemarkeerde cijfers zijn wachtende en niet corrigeerbare sectoren.
Ik zou de harddisk aangesloten laten totdat de waarde bij C5 nul is geworden. Daarna maak je een backup van de hele inhoud en je neemt afscheid van deze harddisk.
De waarden bij C5 en C6 duiden op een slechte magnetische plek op een van de platters en die slechte plekken worden meestal snel groter.
Een nieuwe disk is tegenwoordig ook niet zo duur meer.

  • Ludwig005
  • Registratie: Juli 2017
  • Laatst online: 22:23

Ludwig005

Ludwig005 - Verzonken in HW

Nu heb ik de waarden er ook op staan
Afbeeldingslocatie: https://tweakers.net/i/0lnt4GWXgm_Ofu8piRQ46GpdTa4=/800x/filters:strip_exif()/f/image/yedH3sqwzR6Znw1YxXDPRZ0u.png?f=fotoalbum_large C5,C6 staan niet meer op 0

  • Ludwig005
  • Registratie: Juli 2017
  • Laatst online: 22:23

Ludwig005

Ludwig005 - Verzonken in HW

Wat zeggen we ervan?

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
@Ludwig005 Die had je toch al staan? Volg het advies van @Renault.

Als het echt moet kan je je data veilig stellen en daarna met chkdsk of soortgelijk aan de slag om van die pending sectors af te komen.
Als je daarmee klaar bent kan je 'm als deurstop gebruiken. :)

- knip -


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Ik heb hier een uitvoering: WD Blue SA510 2,5" 1TB die een gevalletje 'goedkoop is duurkoop' lijkt te zijn... Nog niet zo lang geleden aangeschaft, en ineens is die zonder boe of ba eruit geklapt. Geen voorafgaande waarschuwingen (SMART daemon is ingesteld om te mailen). SMART log geeft ook aan corrupt te zijn ('invalid SMART checksum')?.

Lijkt een vogel voor de kat te zijn.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-25-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     WD Blue SA510 2.5 1000GB
Serial Number:    2227E9442613
LU WWN Device Id: 5 001b44 4a568e7da
Firmware Version: 52020100
User Capacity:    1.000.204.886.016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    Solid State Device
Form Factor:      2.5 inches
TRIM Command:     Available, deterministic
Device is:        Not in smartctl database 7.3/5319
ATA Version is:   ACS-4, ACS-2 T13/2015-D revision 3
SATA Version is:  SATA 3.2, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is:    Tue Sep  3 20:11:27 2024 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
No failed Attributes found.

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (    0) seconds.
Offline data collection
capabilities:            (0x71) SMART execute Offline immediate.
                    No Auto Offline data collection support.
                    Suspend Offline collection upon new
                    command.
                    No Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   1) minutes.
Extended self-test routine
recommended polling time:    (  10) minutes.
Conveyance self-test routine
recommended polling time:    (   1) minutes.

SMART Attributes Data Structure revision number: 0
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  5 Reallocated_Sector_Ct   0x0032   100   100   010    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       40
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       472
165 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       4297785367
166 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
167 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       43
168 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       1
169 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       236
170 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
171 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
172 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
173 Unknown_Attribute       0x0032   100   100   005    Old_age   Always       -       0
174 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   097    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0022   100   100   014    Old_age   Always       -       26 (Min/Max 18/37)
199 UDMA_CRC_Error_Count    0x0032   100   100   000    Old_age   Always       -       0
230 Unknown_SSD_Attribute   0x0032   100   100   000    Old_age   Always       -       12884901891
232 Available_Reservd_Space 0x0033   100   100   004    Pre-fail  Always       -       78
233 Media_Wearout_Indicator 0x0032   100   100   000    Old_age   Always       -       381
234 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       433
241 Total_LBAs_Written      0x0030   253   253   000    Old_age   Offline      -       398
242 Total_LBAs_Read         0x0030   253   253   000    Old_age   Offline      -       5434
244 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0

Warning! SMART ATA Error Log Structure error: invalid SMART checksum.
SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%        40         -
# 2  Short offline       Completed without error       00%        40         -
# 3  Short offline       Completed without error       00%        39         -
# 4  Short offline       Completed without error       00%        39         -
# 5  Extended offline    Completed without error       00%        39         -
# 6  Short offline       Completed without error       00%        38         -
# 7  Short offline       Completed without error       00%        38         -
# 8  Short offline       Completed without error       00%        38         -
# 9  Short offline       Completed without error       00%        38         -
#10  Extended offline    Completed without error       00%        37         -
#11  Short offline       Completed without error       00%        37         -
#12  Short offline       Completed without error       00%        37         -
#13  Short offline       Completed without error       00%        37         -
#14  Short offline       Completed without error       00%        36         -
#15  Short offline       Completed without error       00%        36         -
#16  Extended offline    Completed without error       00%        36         -
#17  Short offline       Completed without error       00%        35         -
#18  Short offline       Completed without error       00%        35         -
#19  Short offline       Completed without error       00%        35         -
#20  Short offline       Completed without error       00%        35         -
#21  Extended offline    Completed without error       00%        34         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Tja, wat moet je hier nou van zeggen?
- het hebben van data op een SSD (of een ander opslagmedium) geeft geen enkele vorm van zekerheid dat je die data morgen nog hebt.
De enige zekerheid die te verkrijgen is, is de kans dat je die data verliest te verkleinen middels een goed (uitgevoerd) backupbeleid
- SMART data geven geen enkele garantie dat het opslagmedium in orde is, het inventariseert en interpreteert alleen statistieken die repreentatief zijn voor dingen die fout kunnen lopen
- bovenstaand staat niets verkeerds in de tabel: je hebt o.a. geen geregistreerde communicatiefouten die de SMART error log kunnen verklaren.
- er zijn wel erg veel "Unknown attributes" in de tabel hierboven, waaronder enkele die niet op nul staan.
Kan de software van de fabrikant zelf hier niet méér over zeggen?

"Eruit klappen"?
De meeste SSD's waarbij intern iets mis gaat, gaan (definitief) in Read Only modus, waarbij de data nog uit te lezen is (t.b.v. een backup van wat er nog te redden is).
Ik weet dus neit wat "eruit klappen" precies is.

[ Voor 16% gewijzigd door Renault op 05-09-2024 14:28 ]


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

De schijf is zichtbaar in de lijst van aanwezige opslagmedia (block devices) op Linux, maar de ZFS pool kan ik niet meer benaderen. De foutlogs van ZFS zijn voor een eigen topic denk ik :).

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • TheRie
  • Registratie: December 2016
  • Laatst online: 22-02 04:00
Hallo allemaal, ik zou graag een paar hardeschijven uit twee PC's willen posten. Er zijn voor zover ik weet geen problemen, maar ik vroeg me gewoon af of er dingen zijn waar ik voor moet uitkijken. Als dat niet mag (gebrek aan klachten), dan hoor ik het wel.

Er is alleen een klein probleem met de SSD, hij heeft een stuk minder waardes. Ik hoop dat iemand er wat wijzer uit wordt.

De volgende twee schijven zijn van mijn huidige PC. De rest volgt.

SSD
Afbeeldingslocatie: https://tweakers.net/i/eo8umjefyNh1Y5gehH_M4qs4dVE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/ka8fXZcSToxiX3rkxWVLujtq.png?f=user_large

HDD
Afbeeldingslocatie: https://tweakers.net/i/jh1ub7zZSHvD5wnwgnh0yMQAcxU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/2T53zeqYA6AlcwkivjgHeQuw.png?f=user_large

[ Voor 4% gewijzigd door TheRie op 07-09-2024 02:14 ]


  • mrmrmr
  • Registratie: April 2007
  • Niet online
@TheRie De Nederlandse vertaling van CrystalDiskInfo is nogal slecht. Je kan beter de engelse taal instellen. Daarmee kun je ook iets terugvinden als je op een bepaalde SMART omschrijving zoekt.

Ik zie zo geen problemen. Wat is het verschil van de aangegeven temperatuur met de kamertemperatuur? Als dat tamelijk groot is dan heb je misschien wat meer koeling nodig in je computerbehuizing.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Ook ik zie noch bij de SSD noch bij de harddiskproblemen.
Ik weet net waar je de "mindere cijfers" zet, maar ik zou ze beide lekker blijven gebruiken.

.. natuurlijk mét een goed uitgevoerde backupstrategie ter bescherming van je kostbare data ...

  • Vodgen
  • Registratie: Oktober 2000
  • Laatst online: 22-02 15:57
Ik heb vorig jaar een SMART screenshot gepost van mijn 2 WD Red discs die in mijn Synology NAS zitten en welke er toen bijna 70.000 draaiuren op hadden zitten. Deze schijven zitten er nog steeds in en zitten nu op 80.000 draaiuren en gaan 24/7 door. Dit alles zonder problemen. De SMART waardes zijn identiek en geen toegenomen waardes, op de draaiuren na. Twijfel nog steeds om ze te vervangen of toch gewoon doorgaan.

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
@Vodgen De post van @mrmrmr is dan nog steeds passend.

Zolang je backups hebt én tijd hebt om recovery te doen wanneer ze uitvallen kan je het m.i. door laten draaien.
Laat het in ieder geval geen verrassing zijn als ze beiden stoppen bij de volgende cooldown/reboot/poweroutage. :)

- knip -


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Oftewel: als je acuele backups hebt van alles wat daarop staat lijkt de data-zekerheid in orde te zijn, de data-beschikbaarheid is nog maar de vraag (als je NAS instort).

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Ik heb een servertje met vier TOSHIBA MG08ACA16TE. Draait nog niet zo lang (~15500uur), nu geeft een schijf een waarschuwing. Voor zover ik kan zien gerelateerd aan "HE_Condition-2". Volgens smartctl "SMART overall-health self-assessment test result: FAILED! Drive failure expected in less than 24 hours. SAVE ALL DATA." Inderdaad tijd voor vervanging? Zie voor wat meer details hieronder:

Falende schijf:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
ID# ATTRIBUTE_NAME                                                   FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate                                              0x000b   100   100   050    Pre-fail  Always       -       0
  2 Throughput_Performance                                           0x0005   100   100   050    Pre-fail  Offline      -       0
  3 Spin-up_Time                                                     0x0027   100   100   001    Pre-fail  Always       -       8078
  4 Start/Stop_Count                                                 0x0032   100   100   000    Old_age   Always       -       71
  5 Reallocated_Sector_Ct                                            0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate                                                  0x000b   100   100   050    Pre-fail  Always       -       0
  8 Seek_Time_Performance                                            0x0005   100   100   050    Pre-fail  Offline      -       0
  9 Power-on_Hours                                                   0x0032   062   062   000    Old_age   Always       -       15504
 10 Spin_Retry_Count                                                 0x0033   100   100   030    Pre-fail  Always       -       0
 12 Power_Cycle_Count                                                0x0032   100   100   000    Old_age   Always       -       71
 23 HE_Condition-1                                                   0x0023   100   100   075    Pre-fail  Always       -       0
 24 HE_Condition-2                                                   0x0023   100   001   075    Pre-fail  Always   In_the_past 0
191 G-Sense_Error_Rate                                               0x0032   100   100   000    Old_age   Always       -       0
192 Power_Off_Retract_Count                                          0x0032   100   100   000    Old_age   Always       -       2
193 Load_Cycle_Count                                                 0x0032   100   100   000    Old_age   Always       -       74
194 Temperature_Celsius                                              0x0022   100   100   000    Old_age   Always       -       24 (Min/Max 13/37)
196 Reallocated_Event_Count                                          0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector                                           0x0032   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable                                            0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count                                             0x0032   200   200   000    Old_age   Always       -       0
220 Disk_Shift                                                       0x0002   100   100   000    Old_age   Always       -       135528455
222 Loaded_Hours                                                     0x0032   062   062   000    Old_age   Always       -       15492
223 Load_Retry_Count                                                 0x0032   100   100   000    Old_age   Always       -       0
224 Load_Friction                                                    0x0022   100   100   000    Old_age   Always       -       0
226 Load-in_Time                                                     0x0026   100   100   000    Old_age   Always       -       596
240 Head_Flying_Hours                                                0x0001   100   100   001    Pre-fail  Offline      -       0


Nog OK testende schijf:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
ID# ATTRIBUTE_NAME                                                   FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate                                              0x000b   100   100   050    Pre-fail  Always       -       0
  2 Throughput_Performance                                           0x0005   100   100   050    Pre-fail  Offline      -       0
  3 Spin-up_Time                                                     0x0027   100   100   001    Pre-fail  Always       -       8091
  4 Start/Stop_Count                                                 0x0032   100   100   000    Old_age   Always       -       71
  5 Reallocated_Sector_Ct                                            0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate                                                  0x000b   100   100   050    Pre-fail  Always       -       0
  8 Seek_Time_Performance                                            0x0005   100   100   050    Pre-fail  Offline      -       0
  9 Power-on_Hours                                                   0x0032   062   062   000    Old_age   Always       -       15504
 10 Spin_Retry_Count                                                 0x0033   100   100   030    Pre-fail  Always       -       0
 12 Power_Cycle_Count                                                0x0032   100   100   000    Old_age   Always       -       71
 23 HE_Condition-1                                                   0x0023   100   100   075    Pre-fail  Always       -       0
 24 HE_Condition-2                                                   0x0023   100   100   075    Pre-fail  Always       -       0
191 G-Sense_Error_Rate                                               0x0032   100   100   000    Old_age   Always       -       0
192 Power_Off_Retract_Count                                          0x0032   100   100   000    Old_age   Always       -       2
193 Load_Cycle_Count                                                 0x0032   100   100   000    Old_age   Always       -       74
194 Temperature_Celsius                                              0x0022   100   100   000    Old_age   Always       -       28 (Min/Max 13/39)
196 Reallocated_Event_Count                                          0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector                                           0x0032   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable                                            0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count                                             0x0032   200   200   000    Old_age   Always       -       0
220 Disk_Shift                                                       0x0002   100   100   000    Old_age   Always       -       119537670
222 Loaded_Hours                                                     0x0032   062   062   000    Old_age   Always       -       15492
223 Load_Retry_Count                                                 0x0032   100   100   000    Old_age   Always       -       0
224 Load_Friction                                                    0x0022   100   100   000    Old_age   Always       -       0
226 Load-in_Time                                                     0x0026   100   100   000    Old_age   Always       -       592
240 Head_Flying_Hours                                                0x0001   100   100   001    Pre-fail  Offline      -       0


Zo op het oog dus naast de ook een wat hogere Disk_Shift bij de falende schijf, naast de HE_Condition-2-melding. Wijst dat op een mechanisch probleem? De server heeft voortdurend in een kast gestaan, bij vrij constante temperatuur en minimale aardschommelingen.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Wat ik raar vind is dat bij beide schijven de waarde voor CRC afwijkt ("200", dfie hoort m.i. op "0" te staan), maar dit lijkt als normaal te worden geïnterpreteerd. En als je geen enkele indicatie hebt wat de "HE_Condition-2" precies beoogt te rapporteren, wordt het een zoekplaatje om de foutmelding correct te interpreteren en de juiste actie te ondernemen.

Je geeft geen informatie over hoe je de schijven gebruikt (RAIDxx?) zodat het ook moeilijk adviseren is welke corrigerende actie je nu moet ondernemen en met welke harddisk (als je het type wat je gebruikt evt. nu niet meer kunt krrijgen)..
Het gebruikte RAIDx bepaalt samen met de schijfgrootte tevens of de geadviseerde actie ("save all data") haalbaar is.

  • mrmrmr
  • Registratie: April 2007
  • Niet online
@begintmeta

CRC op 200 is normaal voor Toshiba MG09.
C7 200 200 __0 000000000000 UltraDMA CRC Error Count

MG09 heeft ook 23 en 24 (0x17 en 0x18):
17 100 100 _75 000000000000 Vendor Specific
18 100 100 _75 000000000000 Vendor Specific


HE staat voor helium.

Het gaat waarschijnlijk over de druk. Als je op een seal drukt (niet doen!) zou de druk hoger kunnen oplopen. Andersom, als de drive in lage luchtdruk omgeving is geweest kan de druk afnemen. Denk ook aan vervoer per vliegtuig, daar heb je ook situaties met lage en hoge luchtdruk.

In dit geval zou het dat een hogere druk zijn. 75 kan 75 kPa of 750 millibar zijn, en 100 kPa is ongeveer de normale luchtdruk. Bij jou zie ik:
code:
1
2
 23 HE_Condition-1   0x0023   100   100   075    Pre-fail  Always       -       0
 24 HE_Condition-2   0x0023   100   001   075    Pre-fail  Always   In_the_past 0

De eerste gaat over "Helium Condition Lower", en de tweede over "Helium Condition Upper".

Bij 24d staat bij jou worst op 001. Dat vind ik vreemd voor een SMART waarde die gaat over hoge druk. Hoe dan ook, het lijkt erop dat de druk op een bepaald moment te hoog is geweest. Het kan ook een sensorfout zijn.

[ Voor 3% gewijzigd door mrmrmr op 29-10-2024 09:59 ]


  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
@Renault & @mrmrmr, bedankt. Als ik het zo lees durf ik het wel aan om het even verder te monitoren (de 24 uur zijn in ieder geval al ruim overschreden). Hoe waarschijnlijk een sensorfout is vind ik lastig in te schatten, evenmin weet ik natuurlijk wat met de schijven is gebeurd voordat de schijven bij mij waren, maar de duizenden uren bij mij zijn ze aan weinig spectaculairs blootgesteld. De schijven komen uit één batch... dat is dan eventueel wel jammer. Ik zal de andere schijven ook maar even frequenter monitoren. De array zou twee van de vier schijven moeten kunnen verliezen en nog kunnen herstellen... in principe (raid 6 (zou wel een lange rebuild worden vrees ik)). Backup naar elders en off-site heb ik maar voor een subselectie van de data.

Ik zal ook eens kijken of de temperaturen verschillen, zou die (of een andere schijf-eigenschap substantieel anders moeten zijn als de heliumvullingstoestand anders dan zou moeten?

[ Voor 13% gewijzigd door begintmeta op 29-10-2024 20:33 ]


  • mrmrmr
  • Registratie: April 2007
  • Niet online
@begintmeta Je kan het op grond van dit gebrek laten vervangen onder garantie als je die nog hebt.

Kun je de drive uit de array halen en grondig testen? Ik gebruik meestal h2testw. Dat is een trage test, maar wel een bijna volledige. Het schrijft de schijf bijna vol en leest het terug. Dat is beter dan de quick tests die je bij veel andere tools ziet.

Druk en volume zijn gerelateerd aan temperatuur. Als druk of volume toenemen, stijgt de temperatuur en andersom.

pV = nRT
p = druk, V=volume, n aantal mol, R gasconstante, T=temperatuur.

Als helium is vervangen zou zijn door lucht verwacht ik meer wrijving, dus een hogere temperatuur. Ook de draaisnelheid zou hierdoor misschien kunnen teruglopen. Helium is zeer licht en veroorzaakt minder turbulentie dan lucht.

Of temperatuur- en snelheidverschillen meetbaar zijn weet ik niet.

Het zou theoretisch ook nog zo kunnen zijn dat helium kan ontsnappen zonder dat de veel grotere moleculen in lucht binnenkomen.

  • LankHoar
  • Registratie: April 2013
  • Laatst online: 22:53

LankHoar

Langharig tuig

Afbeeldingslocatie: https://tweakers.net/i/mkP5wJJwr6QwNXgo1oGz8dXeN5E=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/Vaw1ufbwe9SgPkZyVy3MaYZG.png?f=user_large

Deze schijf word gebruikt om backups op te bewaren. Dat liep niet helemaal lekker meer, en bij het uitlezen van de SMART zie ik een aantal waarschuwingen. Is deze schijf nog bruikbaar/te fixen, of beter vervangen?

When life throws you a curve, lean into it and have faith!


  • LankHoar
  • Registratie: April 2013
  • Laatst online: 22:53

LankHoar

Langharig tuig

Gezien ik dan toch mijn ouders PC weer onder handen heb, gelijk maar even checken of hun interne schijf nog wel goed is:

Afbeeldingslocatie: https://tweakers.net/i/iD-lmMOcO5QhUFUtH1dB76Q7C_I=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/oNfx4SuMhEFfWeFecVKno0ed.png?f=user_large

Onveilige afsluiten is niet erg hoor, en verder lijk ik ook niets geks te zien voor een schijf van 2 jaar oud. Zien jullie hier iets geks/alarmerends?

When life throws you a curve, lean into it and have faith!


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Harddisk: weggooien.
SSD: die is prima.

  • Raymond P
  • Registratie: September 2006
  • Laatst online: 07:20
*O* 12 jaar feestje *O*

Afbeeldingslocatie: https://tweakers.net/i/MONiO1mMfFTw4W83IOImxQHbSGQ=/x800/filters:strip_icc():strip_exif()/f/image/VGLOT4FWqzRGbS7vmAfczr4Q.jpg?f=fotoalbum_large

- knip -


  • LankHoar
  • Registratie: April 2013
  • Laatst online: 22:53

LankHoar

Langharig tuig

Aan het begin van het jaar check ik altijd even mijn schijven, om te kijken of er vervanging te verwachten is bijvoorbeeld. Ik zie zelf niets alarmerends, maar zou het fijn vinden als anderen dit ook bevestigen, gezien mijn gelimiteerde kennis over schijven :)

SSD:
Afbeeldingslocatie: https://tweakers.net/i/JYpRsGfLSvXRLgFzfpMclQz20TQ=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/iukreB5B1ie1K9zhqmQ85GOQ.png?f=user_large

HDD:
Afbeeldingslocatie: https://tweakers.net/i/gDNSGHiwb1RE518QU1abzbaM-1s=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/gwQL9ihSUTj9HFENgg9NJRBn.png?f=user_large

eHDD:
Afbeeldingslocatie: https://tweakers.net/i/sN9DucLUx2fW57CrManNK6ntqTg=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/Strqs6sK2eS0WR1jsHZl03OU.png?f=user_large

Alvast bedankt, en de beste wensen voor 2025 :)

When life throws you a curve, lean into it and have faith!


  • LankHoar
  • Registratie: April 2013
  • Laatst online: 22:53

LankHoar

Langharig tuig

Renault schreef op donderdag 28 november 2024 @ 19:35:
Harddisk: weggooien.
SSD: die is prima.
Nog bedankt trouwens! Helemaal vergeten te reageren. HDD is vervangen en draait weer als een zonnetje :)

When life throws you a curve, lean into it and have faith!


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
In het bovenste plaatje zou je iets kunnen zeggen van de twee unsafe shutdowns, maar belangrijk is het niet.
In het middelste plaatje valt (ooit) 1 communicatiefout op (C7). Defecte SATA kabel?
En de onderste is in orde.
Ik zou me om geen van drieën zorgen maken en de middelste een nieuwe SATA kabel geven.

  • Spasm
  • Registratie: Juni 2001
  • Laatst online: 22-02 11:21
Vorige week out of the blue een waarschuwing van Windows dat de gezondheidsstatus van mijn NVME nog maar 4 % was (waarom zo laat ??).

Ik heb de schijf zojuist gekloond naar een Crucial MX500 (500GB) die ik nog had uit een laptop met kapot scherm. Hieronder de SMART gegevens van beide schijven.

Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?

Afbeeldingslocatie: https://tweakers.net/i/u34hf3g_BmPixf0nVRj5R7Us1Ng=/x800/filters:strip_exif()/f/image/hWZ0j7T8dK9uQbIA2reVmubj.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/z3PaKR4zcnXY3OiuFPeE58eXh2o=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/nVw5D6jroRUC05qTpzm66yem.png?f=user_large

Random WTF


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
De Hynics zou ik gewoon niet meer gebruiken, die geeft je (binnenkort) alleen maar onbetrouwbare ellende, zeker ook gezien de beperkte capaciteit zal dat hard gaan.

De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.

  • Admiral Freebee
  • Registratie: Februari 2004
  • Niet online
Spasm schreef op dinsdag 22 april 2025 @ 15:52:
Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?
Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.

Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.

  • Spasm
  • Registratie: Juni 2001
  • Laatst online: 22-02 11:21
Renault schreef op dinsdag 22 april 2025 @ 20:51:
De Hynics zou ik gewoon niet meer gebruiken, die geeft je (binnenkort) alleen maar onbetrouwbare ellende, zeker ook gezien de beperkte capaciteit zal dat hard gaan.

De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).
Ik ga het in de gaten houden, bedankt. Helaas kan ik de SATA kabel niet vervangen omdat het een HP EliteDesk 800 G4 Mini is. Deze heeft zo'n soort aansluiting die je in laptops ziet.
Renault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.
Oke dankje. Toch gaf Windows een melding over die 4 %:

Status station

Waarschuwing: betrouwbaarheid is verslechterd
Back-ups maken van uw gegevens voor het geval dat er een storing of
fout is op het station
Geschatte resterende levensduur: 4%

Beschikbare reserve: 100%

Temperatuur: 29℃
Admiral Freebee schreef op woensdag 23 april 2025 @ 08:57:
[...]

Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.

Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.
Duidelijk, thanks.

Random WTF


  • vrilly
  • Registratie: November 2020
  • Laatst online: 15-02 13:49
Renault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Windows doet wel wat met SMART cijfers zodra de medium in een Warning/Critical staat is. Al sinds windows Vista

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Dit is de eerste keer dat ik een concrete melding lees die niet uit het bestandssysteem komt, maar uit de SMART data.
Dat is m.i. goed nieuws!

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Zie hier voor hoe dat werkt (vooralsnog alleen voor NVME drives?):
https://www.tenforums.com...-status-windows-10-a.html

  • Kakkerlak
  • Registratie: April 2012
  • Laatst online: 23:51
Hallo allen,

Ik heb onlangs een nieuwe Seagate Exos X24 20TB gekocht, aangesloten via een TerraMaster 2-bay DAS (USB-C) voor een Plex mediaserver.

De SMART-waarden zien er over het algemeen goed uit, maar ik zie een relatief hoge Seek Error Rate en Read Error Rate raw waarde, en ik wil graag jullie mening of dit zorgelijk is.
Hier zijn de SMART-gegevens:

Afbeeldingslocatie: https://tweakers.net/i/ZIy8gw6LN-tIHvSL3yAxkdzDf_w=/x800/filters:strip_exif()/f/image/X1ure3ftto6SyiDK2y5jANqN.png?f=fotoalbum_large

  • peter-rm
  • Registratie: Juni 2015
  • Laatst online: 23:13
een disk uit de seagate exos fraude?? hoewel de X24 series daar misschien te nieuw voor is
Seagate Exos fraude?

[ Voor 24% gewijzigd door peter-rm op 02-06-2025 15:46 . Reden: aanvulling ]


  • Kakkerlak
  • Registratie: April 2012
  • Laatst online: 23:51
peter-rm schreef op maandag 2 juni 2025 @ 15:45:
een disk uit de seagate exos fraude?? hoewel de X24 series daar misschien te nieuw voor is
Seagate Exos fraude?
Exos X24 hier: 46 POH, garantie tot 2030, Vooralsnog lijkt fraude bij X16/X20 te zitten.

  • mrmrmr
  • Registratie: April 2007
  • Niet online
@Kakkerlak Voor Seagate is dit normaal. Zoals met andere waarden is dit waarschijnlijk een samenstelling van verschillende getallen.

Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.

Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.

[ Voor 12% gewijzigd door mrmrmr op 02-06-2025 16:28 ]


  • Kakkerlak
  • Registratie: April 2012
  • Laatst online: 23:51
mrmrmr schreef op maandag 2 juni 2025 @ 16:23:
@Kakkerlak Voor Seagate is dit normaal. Zoals met andere waarden is dit waarschijnlijk een samenstelling van verschillende getallen.

Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.

Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.
Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?

Was al bezig om met SeaTools een uitgebreide scan te doen

  • mrmrmr
  • Registratie: April 2007
  • Niet online
Deze link legt uit wat de betekenis zou zijn van Seagates waarden:
https://web.archive.org/w...Seagate_SER_RRER_HEC.html

Aangezien fabrikanten zoals Seagate data samenstellen zoals ze willen en dat vaak niet publiceren is het onduidelijk wat de betekenis is. Bij deze SMART waarde zou het gaan om 48 bits, dat is 6 bytes. Dat geeft ruimte voor een getal tot ruim 218 biljoen.

Een laag getal kan simpelweg betekenen dat de eerste (linker) waarde nul is of dat er relatief weinig acties zijn geweest. Het geeft geen probleem aan. Andere SMART waarden geven daarvoor een betere indicatie en die staan bij jouw disk op nul. Ik zou me er geen zorgen over maken als FARM overeenkomt met SMART.

CrystalDiskInfo gaf niet het aantal host writes voor deze disk. Misschien moet je dit programma updaten zodat het deze disk herkent en uit het aantal LBA's kan afleiden over hoeveel gigabytes het gaat. Het kan ook zijn dat het getal nog te laag is.

Wat betreft het fraudeprobleem kun je FARM en SMART vergelijken zoals in de gegeven link.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
In de getoonde SMART waarden staat niet abnormaals, of het moeten 45 uur draaitijd met 6 herstarts voor een nieuwe?? Disk zijn.
Beide door jou genoemde waarden zijn zuiver statistiek en in de praktijk nietszeggend over de conditie van de disk.

  • Appeltjeeitje
  • Registratie: Augustus 2007
  • Laatst online: 22:26
In een tweedehands PC zat een NVME-disk en ik heb er nog, ook tweedehands, bijgekocht.

CrystalDiskInfo heb ik ingesteld op 10 DEC volgens de openingspost.
Nu ben ik benieuwd naar de "kwaliteit"van de schijven. Willen jullie daar eens naar kijken?

Hieronder de afbeeldingen;


Afbeeldingslocatie: https://tweakers.net/i/qqBlcbacL0Zez0sTHIiqhNV96yc=/x800/filters:strip_exif()/f/image/wFFQU4tghKvoPyHXKt8tx2M4.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/M8yjZiU3e0OvNgb_nZ2i-dPVGOE=/x800/filters:strip_exif()/f/image/O6kLr3auIfC0xJGkPlD5ELma.png?f=fotoalbum_large

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Ze zien er qua data prima uit, wel hebben ze al wat uren gedraaid.

  • Appeltjeeitje
  • Registratie: Augustus 2007
  • Laatst online: 22:26
Dank.

Zou het dan verstandig zijn om de schijf met de meeste uren te clonen naar de andere ssd? Dit is namelijk de programma -schijf (hoewel ik daar wel een system-backup van heb gemaakt naar extern)...

  • Vodgen
  • Registratie: Oktober 2000
  • Laatst online: 22-02 15:57
En weer een jaar verder. Nog steeds draaien de WD Red hun rondjes 24/7. Dit al bijna 11 jaar lang non stop. Recent een stroomstoring in onze wijk gehad maar dat had geen invloed op de schijven. Bij het opstarten van de NAS gingen ze weer vrolijk verder. Maar zo stilletjes aan misschien toch maar eens gaan vervangen nu ze richting de 90.000 draaiuren gaan. Maar ja, dat roep ik nu al een paar jaar in augustus. O-) Volgens mij zijn de SMART waardes nog steeds prima.

Afbeeldingslocatie: https://tweakers.net/i/_k8-aNSavqhU4mBL52sK5uXIHj0=/800x/filters:strip_icc():strip_exif()/f/image/Gap0iolgp4qTrGgaXWyqPbw2.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/C-CVok-ByWSu8BXE39oTJeFDI70=/800x/filters:strip_icc():strip_exif()/f/image/dY0v1IIxvp0pzUKfRtxQgFvN.jpg?f=fotoalbum_large

[ Voor 3% gewijzigd door Vodgen op 13-08-2025 20:40 ]


  • Stanton
  • Registratie: Mei 2017
  • Niet online
Kakkerlak schreef op maandag 2 juni 2025 @ 17:05:
[...]


Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?

Was al bezig om met SeaTools een uitgebreide scan te doen
https://www.disktuna.com/...es-arent-always-bad-news/

Seek error rate is niet just that, het is een waarde die seeks + errors bij houdt.

Joep


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Vodgen schreef op woensdag 13 augustus 2025 @ 20:22:
En weer een jaar verder. Nog steeds draaien de WD Red hun rondjes 24/7. Dit al bijna 11 jaar lang non stop. Recent een stroomstoring in onze wijk gehad maar dat had geen invloed op de schijven. Bij het opstarten van de NAS gingen ze weer vrolijk verder. Maar zo stilletjes aan misschien toch maar eens gaan vervangen nu ze richting de 90.000 draaiuren gaan. Maar ja, dat roep ik nu al een paar jaar in augustus. O-) Volgens mij zijn de SMART waardes nog steeds prima.

[Afbeelding]

[Afbeelding]
Dat ziet er nog steeds prima uit, niets mis mee.

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 00:33

The Eagle

I wear my sunglasses at night

Mijn oude Diskstation DS211 vandaaag even aangeslingerd. Drive in warning :/
Weet even niet zo goed of ik nu een probleem heb of niet, dus graag even een second opinion :)

Betreft een Samsung HD204UI van 1,8TB

Melding was:
A error occured to the SMART attribute #3 Spin_up_time of this drive, but the error was fixed automatically by the drive's recovery mechanism. Please be alert of the healt status of this drive and back immediately up to ensure data integrity
Dus ik kijken:
Afbeeldingslocatie: https://tweakers.net/i/Vz3rxQas7xgejyyBHR0Ty395cLI=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/B6nQRN6J5HRByaW3SFA88gdg.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/NCd0k5CvMF86IDaZiHFt-gQI03s=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/YIXdZxp8QCp1STa3clcDcwbq.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/A25Jhhn0HCWWKG36MR0tCVQTtBs=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/x2tByCDgrSaoQ6IekUtj7Rpv.png?f=user_large

SMART quicktest brengt geen gekke dingen aan het licht. Spullenboel draait in RAID1. primair schijf heeft vergelijkbare SMART waarden volgens mij, maar geeft gewoon healthy aan.

Dit is mijn backup / archive / offload voor primary nas storage. Meest gebruikt om de primaire nas meer lucht te geven. Is zeker niet altijd online. Wil ook nog wel eens per ongeluk een ungracefull shutdown krijgen :X

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
De SMART tabel bevat geen waarden die aanleiding tot ongerustheid geven.
De warning kan geen kwaad.

[ Voor 21% gewijzigd door Renault op 01-01-2026 17:34 ]


  • vonkkie
  • Registratie: Januari 2014
  • Laatst online: 20-02 19:47
vraag ik moest 4 schijven vervangen omdat ze erg slecht waren maar volgens mij is hier toch niets mis mee Afbeeldingslocatie: https://tweakers.net/i/xk9BFPjmkvwG_5t8nAa4fOrshqQ=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/Un6nYCzAjX0CQoVX0ycFfdRR.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/wTX7uq59PHwtgNb8tRD1V58o098=/x800/filters:strip_exif()/f/image/PdDafKquzcIR9pksUZRKYSzU.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/IXiNwxdh7J43AMfEJOVOCK4UPDU=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/0WVsCbx5yR4zxslyrHM8gNvu.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/eeTSYvc0ve-L91309XbrACI3Yxs=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/riZuQGqpvh8M8mL7uRlyBEbp.png?f=user_large

  • OnlyTheBest
  • Registratie: September 2015
  • Laatst online: 21-02 23:41
Ik krijg sinds enkele dagen melding dat er een fout is met een van mijn HDD's.
Bij het openen van CrystalDiskInfo zie ik dat er een 2de ook in waarschuwing staat.
Het zijn 6 schijven van Seagate IronWolf 12TB in een RAID 5 opstelling.
Kan mij ook iemand zeggen of dit nog valt op te lossen of is vervangen de enige uitweg?

Afbeeldingslocatie: https://tweakers.net/i/062ZJthonL7CUA164TlTnpvmIt0=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/esLGo7ZKyuF87MNQDhB4qZaC.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/vsIlPE60NKNK_hacB0dxzlqXF-M=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/jcEeQsiw2Am7hE6su9Lf55sM.png?f=user_large

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
vonkkie schreef op woensdag 14 januari 2026 @ 19:07:
vraag ik moest 4 schijven vervangen omdat ze erg slecht waren maar volgens mij is hier toch niets mis mee [Afbeelding]

[Afbeelding]

[Afbeelding]

[Afbeelding]
Voor alle vier de schijven geldt dat de SMART-data okee zijn.

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
OnlyTheBest schreef op zaterdag 7 februari 2026 @ 13:32:
Ik krijg sinds enkele dagen melding dat er een fout is met een van mijn HDD's.
Bij het openen van CrystalDiskInfo zie ik dat er een 2de ook in waarschuwing staat.
Het zijn 6 schijven van Seagate IronWolf 12TB in een RAID 5 opstelling.
Kan mij ook iemand zeggen of dit nog valt op te lossen of is vervangen de enige uitweg?

[Afbeelding]

[Afbeelding]
Maak aub nu éérst direct een actuele backup van al je data als je dat niet hebt!
1e schijf: 05 en BB zijn niet okee. Advies is schijf vervangen omdat er al teveel slechte sectoren zijn.
2e schijf: 05 en BB zijn niet okee. Wellicht eens tijd om deze schijf te herpartioneren en formatteren nadat je de oorzaak weet waarom beide schijven problemen krijgen (temperatuur, trillingen, slechte serie enz.)?

  • OnlyTheBest
  • Registratie: September 2015
  • Laatst online: 21-02 23:41
Renault schreef op maandag 9 februari 2026 @ 13:56:
[...]

Maak aub nu éérst direct een actuele backup van al je data als je dat niet hebt!
1e schijf: 05 en BB zijn niet okee. Advies is schijf vervangen omdat er al teveel slechte sectoren zijn.
2e schijf: 05 en BB zijn niet okee. Wellicht eens tijd om deze schijf te herpartioneren en formatteren nadat je de oorzaak weet waarom beide schijven problemen krijgen (temperatuur, trillingen, slechte serie enz.)?
De eerste schijf is een oudere versie van Seagate (ST12000VN0007) deze versie werd al redelijk snel vervangen op de markt door de nieuwere (ST12000VN0008) die nog altijd te koop is.
Waarschijnlijk was daar toch iets mis mee. Vandaar dat ik deze zo goedkoop had kunnen kopen.
Die keuze was bewust omdat ik verwachte dat de oudere versie als eerste de geest ging geven.
Als het ware een voorbode voor de andere schijven.
En mijn voorspellingen kloppen blijkbaar. :)

Wat zijn de normale gemiddelde temperaturen eigenlijk?
Voor zover ik weet zaten deze schijven altijd tussen de 40 en 45 graden. Met pieken tot over de 50 als er veel naar geschreven werd.

  • vonkkie
  • Registratie: Januari 2014
  • Laatst online: 20-02 19:47
Renault schreef op maandag 9 februari 2026 @ 13:21:
[...]


Voor alle vier de schijven geldt dat de SMART-data okee zijn.
even voor de zekerheid okee is goed of meer zo van ze zijn nog redelijk?

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
vonkkie schreef op dinsdag 10 februari 2026 @ 20:04:
[...]


even voor de zekerheid okee is goed of meer zo van ze zijn nog redelijk?
Okee, (nog eens alles nagekeken) zoals in "er is helemaal niets negatiefs te zien bij allevier".
Waarom zou je die moeten vervangen? Alleen op basis van het aantal draai-uren?

Een kleine kanttekening: ik betwijfel of de omrekening van RAW-waarden naar de weergegeven getallen correct is.
Maar voor het resultaat maakt dat niet uit.

[ Voor 18% gewijzigd door Renault op 10-02-2026 20:40 ]


  • vonkkie
  • Registratie: Januari 2014
  • Laatst online: 20-02 19:47
Renault schreef op dinsdag 10 februari 2026 @ 20:36:
[...]

Okee, (nog eens alles nagekeken) zoals in "er is helemaal niets negatiefs te zien bij allevier".
Waarom zou je die moeten vervangen? Alleen op basis van het aantal draai-uren?

Een kleine kanttekening: ik betwijfel of de omrekening van RAW-waarden naar de weergegeven getallen correct is.
Maar voor het resultaat maakt dat niet uit.
De nas waar ze inzaten gaf aan dat er 1 defect was en volgens documentie waren de schijven 4 jaar oud
en dus heb ik ze alle 4 moeten vervangen Maar de verzamelaar in mij laat soms dat soort dingen wat moeilijk weg gooien voor ik ze test

  • Vodgen
  • Registratie: Oktober 2000
  • Laatst online: 22-02 15:57
4 jaar is wel een erg korte levensduur. De WD RED schijven in mijn Synology Nas zitten er nu ruim 11 jaar in en draaien 24/7 door en hebben er nu dik 91.000 draaiuren opzitten. De SMART waardes zijn nog steeds top!

  • DVX73
  • Registratie: November 2012
  • Laatst online: 21:49
Iets wat oudere schijf.
Recentelijk af en toe lees problemen, welke met een reboot verholpen zijn??
Moet ik al op zoek naar een vervanger?

smartcl -x output:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD60EFRX-68L0BN1
Serial Number:    WD-WX11D86J1EAL
LU WWN Device Id: 5 0014ee 2633a4be1
Firmware Version: 82.00A82
User Capacity:    6,001,175,126,016 bytes [6.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5700 rpm
Device is:        In smartctl database 7.3/5528
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is:    Thu Feb 19 13:52:55 2026 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is:   Unavailable
APM feature is:   Unavailable
Rd look-ahead is: Enabled
Write cache is:   Enabled
DSN feature is:   Unavailable
ATA Security is:  Disabled, frozen [SEC2]
Wt Cache Reorder: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      ( 121) The previous self-test completed having
                    the read element of the test failed.
Total time to complete Offline 
data collection:        ( 3344) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 687) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x303d) SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   197   197   051    -    150
  3 Spin_Up_Time            POS--K   210   196   021    -    8475
  4 Start_Stop_Count        -O--CK   097   097   000    -    3197
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0
  7 Seek_Error_Rate         -OSR-K   100   253   000    -    0
  9 Power_On_Hours          -O--CK   030   030   000    -    51281
 10 Spin_Retry_Count        -O--CK   100   100   000    -    0
 11 Calibration_Retry_Count -O--CK   100   100   000    -    0
 12 Power_Cycle_Count       -O--CK   099   099   000    -    1307
192 Power-Off_Retract_Count -O--CK   200   200   000    -    90
193 Load_Cycle_Count        -O--CK   198   198   000    -    8033
194 Temperature_Celsius     -O---K   108   101   000    -    44
196 Reallocated_Event_Count -O--CK   200   200   000    -    0
197 Current_Pending_Sector  -O--CK   200   200   000    -    4
198 Offline_Uncorrectable   ----CK   100   253   000    -    0
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
200 Multi_Zone_Error_Rate   ---R--   100   253   000    -    0
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

General Purpose Log Directory Version 1
SMART           Log Directory Version 1 [multi-sector log support]
Address    Access  R/W   Size  Description
0x00       GPL,SL  R/O      1  Log Directory
0x01           SL  R/O      1  Summary SMART error log
0x02           SL  R/O      5  Comprehensive SMART error log
0x03       GPL     R/O      6  Ext. Comprehensive SMART error log
0x06           SL  R/O      1  SMART self-test log
0x07       GPL     R/O      1  Extended self-test log
0x09           SL  R/W      1  Selective self-test log
0x10       GPL     R/O      1  NCQ Command Error log
0x11       GPL     R/O      1  SATA Phy Event Counters log
0x21       GPL     R/O      1  Write stream error log
0x22       GPL     R/O      1  Read stream error log
0x30       GPL,SL  R/O      9  IDENTIFY DEVICE data log
0x80-0x9f  GPL,SL  R/W     16  Host vendor specific log
0xa0-0xa7  GPL,SL  VS      16  Device vendor specific log
0xa8-0xb6  GPL,SL  VS       1  Device vendor specific log
0xb7       GPL,SL  VS      54  Device vendor specific log
0xbd       GPL,SL  VS       1  Device vendor specific log
0xc0       GPL,SL  VS       1  Device vendor specific log
0xc1       GPL     VS      93  Device vendor specific log
0xe0       GPL,SL  R/W      1  SCT Command/Status
0xe1       GPL,SL  R/W      1  SCT Data Transfer

SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
Device Error Count: 53 (device log contains only the most recent 24 errors)
    CR     = Command Register
    FEATR  = Features Register
    COUNT  = Count (was: Sector Count) Register
    LBA_48 = Upper bytes of LBA High/Mid/Low Registers ]  ATA-8
    LH     = LBA High (was: Cylinder High) Register    ]   LBA
    LM     = LBA Mid (was: Cylinder Low) Register      ] Register
    LL     = LBA Low (was: Sector Number) Register     ]
    DV     = Device (was: Device/Head) Register
    DC     = Device Control Register
    ER     = Error register
    ST     = Status register
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 53 [4] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 a0 00 00 ea e3 55 f0 40 08 34d+17:04:15.162  READ FPDMA QUEUED
  b0 00 d1 00 01 00 00 00 c2 4f 00 00 08 34d+17:04:15.158  SMART READ ATTRIBUTE THRESHOLDS [OBS-4]
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:15.158  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:15.157  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:15.157  SET FEATURES [Enable SATA feature]

Error 52 [3] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 78 00 00 ea e3 55 f0 40 08 34d+17:04:10.840  READ FPDMA QUEUED
  ec 00 00 00 01 00 00 00 00 00 00 00 08 34d+17:04:10.840  IDENTIFY DEVICE
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:10.839  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:10.839  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:10.839  SET FEATURES [Enable SATA feature]

Error 51 [2] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 78 00 00 ea e3 55 f0 40 08 34d+17:04:06.528  READ FPDMA QUEUED
  e5 00 00 00 00 00 00 00 00 00 00 00 08 34d+17:04:06.528  CHECK POWER MODE
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:06.528  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:06.527  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:06.527  SET FEATURES [Enable SATA feature]

Error 50 [1] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 a0 00 00 ea e3 55 f0 40 08 34d+17:04:02.199  READ FPDMA QUEUED
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:02.198  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:02.198  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:02.198  SET FEATURES [Enable SATA feature]
  27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:04:02.198  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]

Error 49 [0] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 38 00 00 ea e3 55 f0 40 08 34d+17:03:57.891  READ FPDMA QUEUED
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:57.890  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:57.890  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:57.890  SET FEATURES [Enable SATA feature]
  27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:57.890  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]

Error 48 [23] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 18 00 00 ea e3 55 f0 40 08 34d+17:03:53.586  READ FPDMA QUEUED
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:53.585  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:53.585  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:53.585  SET FEATURES [Enable SATA feature]
  27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:53.585  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]

Error 47 [22] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 70 00 00 ea e3 55 f0 40 08 34d+17:03:49.257  READ FPDMA QUEUED
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:49.257  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:49.257  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:49.257  SET FEATURES [Enable SATA feature]
  27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:49.256  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]

Error 46 [21] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 ea e3 55 f0 40 00  Error: UNC at LBA = 0xeae355f0 = 3940767216

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 10 00 00 ea e3 55 f0 40 08 34d+17:03:44.948  READ FPDMA QUEUED
  47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:44.948  READ LOG DMA EXT
  47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:44.948  READ LOG DMA EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:44.948  SET FEATURES [Enable SATA feature]
  27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:44.947  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]

SMART Extended Self-test Log Version: 1 (1 sectors)
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       90%     51280         202453464
# 2  Short offline       Completed without error       00%     43998         -
# 3  Short offline       Completed without error       00%     43326         -
# 4  Short offline       Completed without error       00%     42583         -
# 5  Short offline       Completed without error       00%     41840         -
# 6  Short offline       Completed without error       00%     41121         -
# 7  Short offline       Completed without error       00%     40376         -
# 8  Short offline       Completed without error       00%     39657         -
# 9  Short offline       Completed without error       00%     38914         -
#10  Short offline       Completed without error       00%     38173         -
#11  Short offline       Completed without error       00%     37454         -
#12  Short offline       Completed without error       00%     36711         -
#13  Short offline       Completed without error       00%     35997         -
#14  Short offline       Completed without error       00%     35255         -
#15  Short offline       Completed without error       00%     34560         -
#16  Short offline       Completed without error       00%     33816         -
#17  Short offline       Completed without error       00%     33073         -
#18  Short offline       Completed without error       00%     32354         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

SCT Status Version:                  3
SCT Version (vendor specific):       258 (0x0102)
Device State:                        Active (0)
Current Temperature:                    44 Celsius
Power Cycle Min/Max Temperature:     35/49 Celsius
Lifetime    Min/Max Temperature:      5/51 Celsius
Under/Over Temperature Limit Count:   0/0
Vendor specific:
01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00

SCT Temperature History Version:     2
Temperature Sampling Period:         1 minute
Temperature Logging Interval:        1 minute
Min/Max recommended Temperature:      0/60 Celsius
Min/Max Temperature Limit:           -41/85 Celsius
Temperature History Size (Index):    478 (168)

Index    Estimated Time   Temperature Celsius
 169    2026-02-19 05:55    44  *************************
 ...    ..(  8 skipped).    ..  *************************
 178    2026-02-19 06:04    44  *************************
 179    2026-02-19 06:05    39  ********************
 ...    ..( 94 skipped).    ..  ********************
 274    2026-02-19 07:40    39  ********************
 275    2026-02-19 07:41    38  *******************
 ...    ..(202 skipped).    ..  *******************
   0    2026-02-19 11:04    38  *******************
   1    2026-02-19 11:05    39  ********************
 ...    ..(  6 skipped).    ..  ********************
   8    2026-02-19 11:12    39  ********************
   9    2026-02-19 11:13    40  *********************
 ...    ..(  6 skipped).    ..  *********************
  16    2026-02-19 11:20    40  *********************
  17    2026-02-19 11:21    41  **********************
 ...    ..( 22 skipped).    ..  **********************
  40    2026-02-19 11:44    41  **********************
  41    2026-02-19 11:45    40  *********************
 ...    ..(  7 skipped).    ..  *********************
  49    2026-02-19 11:53    40  *********************
  50    2026-02-19 11:54    41  **********************
 ...    ..( 14 skipped).    ..  **********************
  65    2026-02-19 12:09    41  **********************
  66    2026-02-19 12:10    42  ***********************
 ...    ..(  5 skipped).    ..  ***********************
  72    2026-02-19 12:16    42  ***********************
  73    2026-02-19 12:17    41  **********************
 ...    ..( 15 skipped).    ..  **********************
  89    2026-02-19 12:33    41  **********************
  90    2026-02-19 12:34    40  *********************
 ...    ..( 40 skipped).    ..  *********************
 131    2026-02-19 13:15    40  *********************
 132    2026-02-19 13:16    41  **********************
 ...    ..(  9 skipped).    ..  **********************
 142    2026-02-19 13:26    41  **********************
 143    2026-02-19 13:27    42  ***********************
 ...    ..(  6 skipped).    ..  ***********************
 150    2026-02-19 13:34    42  ***********************
 151    2026-02-19 13:35    43  ************************
 ...    ..( 10 skipped).    ..  ************************
 162    2026-02-19 13:46    43  ************************
 163    2026-02-19 13:47    44  *************************
 ...    ..(  4 skipped).    ..  *************************
 168    2026-02-19 13:52    44  *************************

SCT Error Recovery Control:
           Read:     70 (7.0 seconds)
          Write:     70 (7.0 seconds)

Device Statistics (GP/SMART Log 0x04) not supported

Pending Defects log (GP Log 0x0c) not supported

SATA Phy Event Counters (GP Log 0x11)
ID      Size     Value  Description
0x0001  2            0  Command failed due to ICRC error
0x0002  2            3  R_ERR response for data FIS
0x0003  2            2  R_ERR response for device-to-host data FIS
0x0004  2            1  R_ERR response for host-to-device data FIS
0x0005  2        65534  R_ERR response for non-data FIS
0x0006  2            0  R_ERR response for device-to-host non-data FIS
0x0007  2        65534  R_ERR response for host-to-device non-data FIS
0x0008  2            0  Device-to-host non-data FIS retries
0x0009  2           45  Transition from drive PhyRdy to drive PhyNRdy
0x000a  2           46  Device-to-host register FISes sent due to a COMRESET
0x000b  2        65535+ CRC errors within host-to-device FIS
0x000d  2            0  Non-CRC errors within host-to-device FIS
0x000f  2            0  R_ERR response for host-to-device data FIS, CRC
0x0012  2        65535+ R_ERR response for host-to-device non-data FIS, CRC
0x8000  4      7574840  Vendor specific

  • mrmrmr
  • Registratie: April 2007
  • Niet online
@DVX73 Steeds dezelfde fout op dezelfde locatie (LBA = logical block addressing).

Als het goed is zal de disk proberen slechte plekken te lezen en/of te verplaatsen.

Kijk of Current_Pending_Sector omlaag gaat. Je zou de computer kunnen uitschakelen, laten afkoelen en opnieuw opstarten. Dat geeft de disk een verse start.

Als je data op de disk hebt staan die wil behouden zou ik een backup maken. Als de disk deel uitmaakt van een RAID configuratie geldt dat eens te meer.

  • DVX73
  • Registratie: November 2012
  • Laatst online: 21:49
mrmrmr schreef op donderdag 19 februari 2026 @ 16:19:
@DVX73 Steeds dezelfde fout op dezelfde locatie (LBA = logical block addressing).

Als het goed is zal de disk proberen slechte plekken te lezen en/of te verplaatsen.

Kijk of Current_Pending_Sector omlaag gaat. Je zou de computer kunnen uitschakelen, laten afkoelen en opnieuw opstarten. Dat geeft de disk een verse start.

Als je data op de disk hebt staan die wil behouden zou ik een backup maken. Als de disk deel uitmaakt van een RAID configuratie geldt dat eens te meer.
code:
1
2
3
4
5
6
7
8
9
10
11
$ sudo smartctl -t long /dev/sda
smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Extended self-test routine immediately in off-line mode".
Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 687 minutes for test to complete.
Test will complete after Sat Feb 21 07:11:16 2026 UTC
Use smartctl -X to abort test.
Gaat even duren...

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Je hebt 4 pending sectoren, terwijl je 0 reallocated sectoren hebt.
Wacht gewoon tot de pending sectore 0 zij geworden. Als dan het aantal reallocated sectoren nog steeds nul is, is er weinig aan de hand.
Blijf beide aantallen wel periodiek (maandelijks) monitoren.
En een goede actuele backup is natuurlijk nooit verkeerd om te hebben.

  • DVX73
  • Registratie: November 2012
  • Laatst online: 21:49
Wat ik kan beoordelen wordt het erger.

Alle data is reeds veiliggesteld.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD60EFRX-68L0BN1
Serial Number:    WD-WX11D86J1EAL
LU WWN Device Id: 5 0014ee 2633a4be1
Firmware Version: 82.00A82
User Capacity:    6,001,175,126,016 bytes [6.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5700 rpm
Device is:        In smartctl database 7.3/5528
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is:    Sat Feb 21 08:18:04 2026 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is:   Unavailable
APM feature is:   Unavailable
Rd look-ahead is: Enabled
Write cache is:   Enabled
DSN feature is:   Unavailable
ATA Security is:  Disabled, frozen [SEC2]
Wt Cache Reorder: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      ( 121) The previous self-test completed having
                    the read element of the test failed.
Total time to complete Offline 
data collection:        ( 3344) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 687) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x303d) SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   171   171   051    -    1021
  3 Spin_Up_Time            POS--K   210   196   021    -    8475
  4 Start_Stop_Count        -O--CK   097   097   000    -    3197
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0
  7 Seek_Error_Rate         -OSR-K   100   253   000    -    0
  9 Power_On_Hours          -O--CK   030   030   000    -    51323
 10 Spin_Retry_Count        -O--CK   100   100   000    -    0
 11 Calibration_Retry_Count -O--CK   100   100   000    -    0
 12 Power_Cycle_Count       -O--CK   099   099   000    -    1307
192 Power-Off_Retract_Count -O--CK   200   200   000    -    90
193 Load_Cycle_Count        -O--CK   198   198   000    -    8042
194 Temperature_Celsius     -O---K   114   101   000    -    38
196 Reallocated_Event_Count -O--CK   200   200   000    -    0
197 Current_Pending_Sector  -O--CK   200   200   000    -    128
198 Offline_Uncorrectable   ----CK   100   253   000    -    0
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
200 Multi_Zone_Error_Rate   ---R--   200   200   000    -    1
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

General Purpose Log Directory Version 1
SMART           Log Directory Version 1 [multi-sector log support]
Address    Access  R/W   Size  Description
0x00       GPL,SL  R/O      1  Log Directory
0x01           SL  R/O      1  Summary SMART error log
0x02           SL  R/O      5  Comprehensive SMART error log
0x03       GPL     R/O      6  Ext. Comprehensive SMART error log
0x06           SL  R/O      1  SMART self-test log
0x07       GPL     R/O      1  Extended self-test log
0x09           SL  R/W      1  Selective self-test log
0x10       GPL     R/O      1  NCQ Command Error log
0x11       GPL     R/O      1  SATA Phy Event Counters log
0x21       GPL     R/O      1  Write stream error log
0x22       GPL     R/O      1  Read stream error log
0x30       GPL,SL  R/O      9  IDENTIFY DEVICE data log
0x80-0x9f  GPL,SL  R/W     16  Host vendor specific log
0xa0-0xa7  GPL,SL  VS      16  Device vendor specific log
0xa8-0xb6  GPL,SL  VS       1  Device vendor specific log
0xb7       GPL,SL  VS      54  Device vendor specific log
0xbd       GPL,SL  VS       1  Device vendor specific log
0xc0       GPL,SL  VS       1  Device vendor specific log
0xc1       GPL     VS      93  Device vendor specific log
0xe0       GPL,SL  R/W      1  SCT Command/Status
0xe1       GPL,SL  R/W      1  SCT Data Transfer

SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
Device Error Count: 1094 (device log contains only the most recent 24 errors)
    CR     = Command Register
    FEATR  = Features Register
    COUNT  = Count (was: Sector Count) Register
    LBA_48 = Upper bytes of LBA High/Mid/Low Registers ]  ATA-8
    LH     = LBA High (was: Cylinder High) Register    ]   LBA
    LM     = LBA Mid (was: Cylinder Low) Register      ] Register
    LL     = LBA Low (was: Sector Number) Register     ]
    DV     = Device (was: Device/Head) Register
    DC     = Device Control Register
    ER     = Error register
    ST     = Status register
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 1094 [13] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 97 18 40 00  Error: UNC at LBA = 0x02f19718 = 49387288

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 48 00 00 02 f1 97 18 40 08 39d+05:41:05.247  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:41:05.245  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:41:05.245  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:41:05.244  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:41:05.243  IDENTIFY DEVICE

Error 1093 [12] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 96 68 40 00  Error: UNC at LBA = 0x02f19668 = 49387112

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 40 00 00 02 f1 96 68 40 08 39d+05:41:00.919  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:41:00.918  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:41:00.917  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:41:00.917  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:41:00.916  IDENTIFY DEVICE

Error 1092 [11] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 96 40 40 00  Error: UNC at LBA = 0x02f19640 = 49387072

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 98 00 00 02 f1 96 40 40 08 39d+05:40:56.589  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:56.588  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:56.588  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:56.588  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:56.587  IDENTIFY DEVICE

Error 1091 [10] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 96 40 40 00  Error: UNC at LBA = 0x02f19640 = 49387072

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 60 00 00 02 f1 96 40 40 08 39d+05:40:52.267  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:52.266  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:52.265  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:52.265  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:52.265  IDENTIFY DEVICE

Error 1090 [9] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 96 40 40 00  Error: UNC at LBA = 0x02f19640 = 49387072

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 08 00 00 02 f1 96 40 40 08 39d+05:40:47.974  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:47.972  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:47.972  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:47.971  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:47.971  IDENTIFY DEVICE

Error 1089 [8] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 89 18 40 00  Error: UNC at LBA = 0x02f18918 = 49383704

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 b8 00 00 02 f1 89 18 40 08 39d+05:40:43.572  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:43.570  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:43.570  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:43.569  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:43.569  IDENTIFY DEVICE

Error 1088 [7] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 88 b0 40 00  Error: UNC at LBA = 0x02f188b0 = 49383600

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 c8 00 00 02 f1 88 b0 40 08 39d+05:40:39.231  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:39.230  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:39.230  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:39.229  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:39.228  IDENTIFY DEVICE

Error 1087 [6] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
  When the command that caused the error occurred, the device was doing SMART Offline or Self-test.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 02 f1 88 b0 40 00  Error: UNC at LBA = 0x02f188b0 = 49383600

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 00 08 00 58 00 00 02 f1 88 b0 40 08 39d+05:40:34.871  READ FPDMA QUEUED
  2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:34.870  READ LOG EXT
  2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:34.870  READ LOG EXT
  ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:34.870  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:34.869  IDENTIFY DEVICE

SMART Extended Self-test Log Version: 1 (1 sectors)
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       90%     51312         49376120
# 2  Short offline       Completed: read failure       90%     51280         202453464
# 3  Short offline       Completed without error       00%     43998         -
# 4  Short offline       Completed without error       00%     43326         -
# 5  Short offline       Completed without error       00%     42583         -
# 6  Short offline       Completed without error       00%     41840         -
# 7  Short offline       Completed without error       00%     41121         -
# 8  Short offline       Completed without error       00%     40376         -
# 9  Short offline       Completed without error       00%     39657         -
#10  Short offline       Completed without error       00%     38914         -
#11  Short offline       Completed without error       00%     38173         -
#12  Short offline       Completed without error       00%     37454         -
#13  Short offline       Completed without error       00%     36711         -
#14  Short offline       Completed without error       00%     35997         -
#15  Short offline       Completed without error       00%     35255         -
#16  Short offline       Completed without error       00%     34560         -
#17  Short offline       Completed without error       00%     33816         -
#18  Short offline       Completed without error       00%     33073         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

SCT Status Version:                  3
SCT Version (vendor specific):       258 (0x0102)
Device State:                        Active (0)
Current Temperature:                    38 Celsius
Power Cycle Min/Max Temperature:     35/49 Celsius
Lifetime    Min/Max Temperature:      5/51 Celsius
Under/Over Temperature Limit Count:   0/0
Vendor specific:
01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00

SCT Temperature History Version:     2
Temperature Sampling Period:         1 minute
Temperature Logging Interval:        1 minute
Min/Max recommended Temperature:      0/60 Celsius
Min/Max Temperature Limit:           -41/85 Celsius
Temperature History Size (Index):    478 (227)

Index    Estimated Time   Temperature Celsius
 228    2026-02-21 00:21    37  ******************
 ...    ..(  4 skipped).    ..  ******************
 233    2026-02-21 00:26    37  ******************
 234    2026-02-21 00:27    38  *******************
 ...    ..(  2 skipped).    ..  *******************
 237    2026-02-21 00:30    38  *******************
 238    2026-02-21 00:31    39  ********************
 ...    ..( 46 skipped).    ..  ********************
 285    2026-02-21 01:18    39  ********************
 286    2026-02-21 01:19    38  *******************
 ...    ..( 98 skipped).    ..  *******************
 385    2026-02-21 02:58    38  *******************
 386    2026-02-21 02:59    39  ********************
 ...    ..( 18 skipped).    ..  ********************
 405    2026-02-21 03:18    39  ********************
 406    2026-02-21 03:19    40  *********************
 ...    ..( 26 skipped).    ..  *********************
 433    2026-02-21 03:46    40  *********************
 434    2026-02-21 03:47    39  ********************
 ...    ..( 25 skipped).    ..  ********************
 460    2026-02-21 04:13    39  ********************
 461    2026-02-21 04:14    38  *******************
 ...    ..(122 skipped).    ..  *******************
 106    2026-02-21 06:17    38  *******************
 107    2026-02-21 06:18    37  ******************
 ...    ..(119 skipped).    ..  ******************
 227    2026-02-21 08:18    37  ******************

SCT Error Recovery Control:
           Read:     70 (7.0 seconds)
          Write:     70 (7.0 seconds)

Device Statistics (GP/SMART Log 0x04) not supported

Pending Defects log (GP Log 0x0c) not supported

SATA Phy Event Counters (GP Log 0x11)
ID      Size     Value  Description
0x0001  2            0  Command failed due to ICRC error
0x0002  2            3  R_ERR response for data FIS
0x0003  2            2  R_ERR response for device-to-host data FIS
0x0004  2            1  R_ERR response for host-to-device data FIS
0x0005  2        65534  R_ERR response for non-data FIS
0x0006  2            0  R_ERR response for device-to-host non-data FIS
0x0007  2        65534  R_ERR response for host-to-device non-data FIS
0x0008  2            0  Device-to-host non-data FIS retries
0x0009  2           45  Transition from drive PhyRdy to drive PhyNRdy
0x000a  2           46  Device-to-host register FISes sent due to a COMRESET
0x000b  2        65535+ CRC errors within host-to-device FIS
0x000d  2            0  Non-CRC errors within host-to-device FIS
0x000f  2            0  R_ERR response for host-to-device data FIS, CRC
0x0012  2        65535+ R_ERR response for host-to-device non-data FIS, CRC
0x8000  4      7727392  Vendor specific

  • Renault
  • Registratie: Januari 2014
  • Laatst online: 21:22
Het lijkt er op dat er ergens een zwakke plek in de magnetische laag is ontstaan op een of meer platters.
Ik zou zo snel mogelijk zorgen dat je al je data hebt veiliggesteld.

Daarna kun je de harddisk een full ("langzame") format geven: daarbij wordt elke sector getest of hij op dat moment nog goed is. Slechte sectoren worden dan gemarkeerd en vervangen door reservesectoren.

Dat gezegd hebbende: als betrouwbare harddisk kun je deze disk dan beter niet meer gebruiken: als er eenmaal een zwakke plek op zit is dat vaak het begin van een aftakelingsproces.

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 00:55

br00ky

Moderator Harde Waren
Gezien de originele topicstarter niet meer actief is en dit topic inmiddels bijna twaalf jaar loopt, een nieuw deeltje, Check je SMART deel 2. Mochten er users zijn die zich als medeauteur willen melden voor de topicstart, stuur me even een berichtje, dan voeg ik je toe.
Pagina: 1 ... 36 37 Laatste

Dit topic is gesloten.