- knip -
Ik zou hem ook nu vervangen, liefst door iets met een hogere opslagcapaciteit, zodat hij minder snel zal slijten.
Zeker voor volatile cache is zo'n schijf nog wel bruikbaar.
- knip -
AMD Ryzen 9 7900X3D + RX 9070 + 32GB DDR5 @ 5200
Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?Raymond P schreef op woensdag 20 maart 2024 @ 20:45:
Die is binnen nu (fabrikant) en X (deo volente) klaar met schrijven.
Voor iets anders dan cache zou ik 'm niet meer inzetten.
Klopt, zolang je valideert wat je wegschrijft (voor zover de controller dat niet voor je doet) hoeft dat niet direct een issue te zijn. Als het er eenmaal op staat dan is het uitlezen van een ietwat kreupele SSD meestal geen issue.Admiral Freebee schreef op donderdag 21 maart 2024 @ 20:37:
[...]
Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?
Gebeurt het vaak genoeg en/of zakt de performance in dan heb je het uiterste uit je disk gehaald en vervang je 'm, wat bij deze unit dus al het geval blijkt te zijn.
In productie vervang je zoiets natuurlijk iets eerder.
Thuis kun je disks gewoon een toepasselijke functie geven.
Deze bejaarde rondjesdraaier zit 10 dagen af van 100.000 uur, daar zet ik al zeker 10 jaar geen cruciale backups meer op.
- knip -
Als reallocated sector count op gaat lopen dan zou ik 'm direct uit dienst halen. (Ik gok dat dit schijfje al wat ouder is, die zal geen jaren meer meegaan.)
- knip -

"Each event is preceded by Prophecy. But without the hero, there is no Event." - Zurin Arctus, the Underking | "Ad Nocendum Potentes sumus." - Me, 30 November 1999
Hoe deze beoordeling tot stand komt is het pakkie an van Crystaldiskinfo.
Sowieso geven de SMART-cijfers een beeld van het verleden: wat ging er goed en wat ging er fout aan meetbare zaken?
Daarom kun je op basis van de SMART-tabel wel zeggen of er iets fout ging op de disk, maar niet hoe lang de disk het nog vol zal houden.
Bovenste disk:
Er zijn geen erge fouten zichtbaar in de cijfers, alleen de unexpected Power loss valt op.
Het weergegeven percentage komt wel overeen met de slijtage-indicator in de tabel
Onderste disk:
Ook hier geen fouten zichtbaar.
Hoe wordt de slijtage van je SSD bepaald?.
- de fabrikant geeft voor elk type SSD op wat het verwachte Total Bytes Written is voordat alle cellen dood zijn
- de printplaat houdt bij hoeveel daarvan al is verbruikt
- en geeft dat weer in een "overblijvend goed percentage"
De waarde van Lifetime Remaining (SMART 0xCA) wordt overgenomen door Crystaldiskinfo en die zie je bij dat percentage.
0x11 is 17 decimaal. 100 - 17 = 83.
Bij de tweede SSD is Percent Used (SMART 0x05) gebruikt door Crystaldiskinfo.
0x08 is 8 decimaal. 100 - 8 = 92.
Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.
Op wie / wat reageer je nu precies?chim0 schreef op zaterdag 13 april 2024 @ 12:13:
Dat is toch de wearing level? Oftewel slijtage percentage. Die wordt direct overgenomen van de drive toch niet door Crystal zelf?
Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.
De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.
Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.
De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.
Joep
Op de discussie hierboven.
De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.
Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.
De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.
Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie. En nu?chim0 schreef op dinsdag 16 april 2024 @ 09:29:
De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.
Joep
Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.Stanton schreef op dinsdag 16 april 2024 @ 10:30:
[...]
Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie.
Nu niks. Discussie over. Was beetje reactie op het eerste gedeelte van de reactie van @Renault misschien.En nu?
Je komt een beetje passief agressief over. Gaat het wel goed?
"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.chim0 schreef op dinsdag 16 april 2024 @ 11:35:
[...]
Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.
Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health
En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.
Joep
Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB
De melding;
:fill(white):strip_exif()/f/image/P40VmsFa6erfP18EbsbOHxoi.png?f=user_large)
:fill(white):strip_exif()/f/image/3Fg3pht7LlLdj15oxoL9Ac6N.png?f=user_large)
:fill(white):strip_exif()/f/image/zz16L9Z9CaMRy6YWg96c6CFU.png?f=user_large)
:fill(white):strip_exif()/f/image/6vWYs26RIq4umCGArUHMHZwt.png?f=user_large)
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
Nee hoor!Stanton schreef op dinsdag 16 april 2024 @ 12:03:
[...]
"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.
Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health
En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!
Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!
Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.
[ Voor 3% gewijzigd door Renault op 17-04-2024 14:20 ]
Ja:Rohem schreef op woensdag 17 april 2024 @ 11:11:
Ik was aan het zoeken op het forum en kwam per toeval dit topic tegen, wat tof dat deze erin!
Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB
De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
- je harddisk rapporteert dat hij ooit een mechanische tik heeft gehad:
G-Sensor_Error_Rate = "48" (er staat geen eenheid of schaal bij , maar ideaal is "0")
- de rest van de parameters zijn te verwachten bij een goed gebruikte disk, er zijn geen echte foutmeldingen te zien.
- gewoon doorademen en doordraaien zo, MITS je actuele backups hebt van alle belangrijke data.
Zolang er geen andere (of méér) afwijkingen worden gerapporteerd is er niets aan de hand.
De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.Rohem schreef op woensdag 17 april 2024 @ 11:11:
Mijn probleem is als volgt;
De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.
Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)
Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.
[ Voor 3% gewijzigd door AzertyNL op 17-04-2024 15:43 ]
Superbedankt voor je snelle reactie en hele duidelijke uitleg erbij!AzertyNL schreef op woensdag 17 april 2024 @ 15:35:
[...]
De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.
Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.
Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)
Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.
Dan vertrouw ik de schijf nog gewoon. Heb altijd nog een tweede schijf die in sync loopt, dus data zal ik niet zo snel kwijt zijn verwacht ik.
Ik krijg er rapportjes van via de mail nu, dus dan houdt ik het gewoon in de gaten.
Ik plaats helemaal geen print-screen.Renault schreef op woensdag 17 april 2024 @ 14:11:
[...]
Nee hoor!
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!
Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!
Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.
De post van Appelmoesje gaat niet over een SSD en is er derhalve geen wear level indicator. In de post van Appelmoesje is er simpelweg een vitaal attribuut onder drempel waarde.
In het geval van de SSDs lijkt CDI zich bij bepalen health percentage op wear level attribuut.
Joep
Nu zie ik de UDMA CRC error count en dit wijst voornamelijk op problemen met aansluiting/kabels. Is het nu gewoon dat zo'n USB 3 HDD enclosure bagger is of kan het nog ergens anders aan liggen?
(Weet je zeker dat voordat je de enclosure in gebruik nam. de CRC error count op de schijf op nul stond?)
Het is aan jou om delen van die keten uit te sluiten middels tests (andere poorten gebruiken, ander snoertje enz.). Als desondanks de errors blijven oplopen (ze gaan nooit meer terug naar nul, ze tellen nu verder door vanaf "240") zou iets in de enclosure inderdaad de fouten kunnen veroorzaken.
(Ik zie in de overige cijfers trouwens geen afwijkingen.)
[ Voor 4% gewijzigd door Renault op 01-05-2024 10:45 ]
CrystalDiskInfo levert een waarschuwing op, op 1 van mijn twee harddisks van WD (blue 6TB). De C5 en C6 leveren een 'issue' op zoals is te zien op het plaatje. Een latere surfacetest geeft aan dat er op 1 plek 19 errors zijn gevonden.
Wat is wijsheid, deze HD vervangen door een nieuwe, of kan het vooralsnog niet veel kwaad? Zit er een beetje mee in dubio gezien ik niet zo snel kan traceren (met zoeken oid) wat die C5 en C6 voor invloed hebben.
Wat is de oorzaak hiervan?
De magnetische laag van (een van de?) platters wordt lokaal instabiel waardoor gegevens verloren gaan en dit is een van de eerste verschijnselen daarvan.
Is dat erg?
Dat hangt er vanaf: als jij keurig actuele backups hebt van al je data in voldoende versies, kan dit niet zoveel kwaad, omdat je de beschadigde bestanden (door de ontbrekende sectoren van C6 en vooralsnog ook van C5) ergens anders óók nog onbeschadigd hebt staan.
Als je geen andere actuele versie van de beschadigde bestanden hebt staan, is het wél erg, want dan ben je die data definitief kwijt.
In dat licht zou ik ook bekijken of je deze harddisk moet vervangen of niet.
Ik hoop zo je vraag toch nog te hebben beantwoord.
Ludwig005 schreef op maandag 5 augustus 2024 @ 11:06:
Een heel tijd geleden was er iets als het deel je smart status topic, maar ik kan het niet meer terugvinden.
Dit topic dus. Even zoeken op smart was genoeg geweest
Ik zou de harddisk aangesloten laten totdat de waarde bij C5 nul is geworden. Daarna maak je een backup van de hele inhoud en je neemt afscheid van deze harddisk.
De waarden bij C5 en C6 duiden op een slechte magnetische plek op een van de platters en die slechte plekken worden meestal snel groter.
Een nieuwe disk is tegenwoordig ook niet zo duur meer.
Lijkt een vogel voor de kat te zijn.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
| smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-25-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: WD Blue SA510 2.5 1000GB
Serial Number: 2227E9442613
LU WWN Device Id: 5 001b44 4a568e7da
Firmware Version: 52020100
User Capacity: 1.000.204.886.016 bytes [1,00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: Solid State Device
Form Factor: 2.5 inches
TRIM Command: Available, deterministic
Device is: Not in smartctl database 7.3/5319
ATA Version is: ACS-4, ACS-2 T13/2015-D revision 3
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is: Tue Sep 3 20:11:27 2024 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
No failed Attributes found.
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x71) SMART execute Offline immediate.
No Auto Offline data collection support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 10) minutes.
Conveyance self-test routine
recommended polling time: ( 1) minutes.
SMART Attributes Data Structure revision number: 0
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0032 100 100 010 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 40
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 472
165 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 4297785367
166 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
167 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 43
168 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 1
169 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 236
170 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
171 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
172 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
173 Unknown_Attribute 0x0032 100 100 005 Old_age Always - 0
174 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 097 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
194 Temperature_Celsius 0x0022 100 100 014 Old_age Always - 26 (Min/Max 18/37)
199 UDMA_CRC_Error_Count 0x0032 100 100 000 Old_age Always - 0
230 Unknown_SSD_Attribute 0x0032 100 100 000 Old_age Always - 12884901891
232 Available_Reservd_Space 0x0033 100 100 004 Pre-fail Always - 78
233 Media_Wearout_Indicator 0x0032 100 100 000 Old_age Always - 381
234 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 433
241 Total_LBAs_Written 0x0030 253 253 000 Old_age Offline - 398
242 Total_LBAs_Read 0x0030 253 253 000 Old_age Offline - 5434
244 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
Warning! SMART ATA Error Log Structure error: invalid SMART checksum.
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 40 -
# 2 Short offline Completed without error 00% 40 -
# 3 Short offline Completed without error 00% 39 -
# 4 Short offline Completed without error 00% 39 -
# 5 Extended offline Completed without error 00% 39 -
# 6 Short offline Completed without error 00% 38 -
# 7 Short offline Completed without error 00% 38 -
# 8 Short offline Completed without error 00% 38 -
# 9 Short offline Completed without error 00% 38 -
#10 Extended offline Completed without error 00% 37 -
#11 Short offline Completed without error 00% 37 -
#12 Short offline Completed without error 00% 37 -
#13 Short offline Completed without error 00% 37 -
#14 Short offline Completed without error 00% 36 -
#15 Short offline Completed without error 00% 36 -
#16 Extended offline Completed without error 00% 36 -
#17 Short offline Completed without error 00% 35 -
#18 Short offline Completed without error 00% 35 -
#19 Short offline Completed without error 00% 35 -
#20 Short offline Completed without error 00% 35 -
#21 Extended offline Completed without error 00% 34 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay. |
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
- het hebben van data op een SSD (of een ander opslagmedium) geeft geen enkele vorm van zekerheid dat je die data morgen nog hebt.
De enige zekerheid die te verkrijgen is, is de kans dat je die data verliest te verkleinen middels een goed (uitgevoerd) backupbeleid
- SMART data geven geen enkele garantie dat het opslagmedium in orde is, het inventariseert en interpreteert alleen statistieken die repreentatief zijn voor dingen die fout kunnen lopen
- bovenstaand staat niets verkeerds in de tabel: je hebt o.a. geen geregistreerde communicatiefouten die de SMART error log kunnen verklaren.
- er zijn wel erg veel "Unknown attributes" in de tabel hierboven, waaronder enkele die niet op nul staan.
Kan de software van de fabrikant zelf hier niet méér over zeggen?
"Eruit klappen"?
De meeste SSD's waarbij intern iets mis gaat, gaan (definitief) in Read Only modus, waarbij de data nog uit te lezen is (t.b.v. een backup van wat er nog te redden is).
Ik weet dus neit wat "eruit klappen" precies is.
[ Voor 16% gewijzigd door Renault op 05-09-2024 14:28 ]
Er is alleen een klein probleem met de SSD, hij heeft een stuk minder waardes. Ik hoop dat iemand er wat wijzer uit wordt.
De volgende twee schijven zijn van mijn huidige PC. De rest volgt.
SSD
:fill(white):strip_exif()/f/image/ka8fXZcSToxiX3rkxWVLujtq.png?f=user_large)
HDD
[ Voor 4% gewijzigd door TheRie op 07-09-2024 02:14 ]
Ik zie zo geen problemen. Wat is het verschil van de aangegeven temperatuur met de kamertemperatuur? Als dat tamelijk groot is dan heb je misschien wat meer koeling nodig in je computerbehuizing.
Ik weet net waar je de "mindere cijfers" zet, maar ik zou ze beide lekker blijven gebruiken.
.. natuurlijk mét een goed uitgevoerde backupstrategie ter bescherming van je kostbare data ...
Falende schijf:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0 3 Spin-up_Time 0x0027 100 100 001 Pre-fail Always - 8078 4 Start/Stop_Count 0x0032 100 100 000 Old_age Always - 71 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 050 Pre-fail Offline - 0 9 Power-on_Hours 0x0032 062 062 000 Old_age Always - 15504 10 Spin_Retry_Count 0x0033 100 100 030 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 71 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 001 075 Pre-fail Always In_the_past 0 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power_Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 74 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 24 (Min/Max 13/37) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 220 Disk_Shift 0x0002 100 100 000 Old_age Always - 135528455 222 Loaded_Hours 0x0032 062 062 000 Old_age Always - 15492 223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 0 224 Load_Friction 0x0022 100 100 000 Old_age Always - 0 226 Load-in_Time 0x0026 100 100 000 Old_age Always - 596 240 Head_Flying_Hours 0x0001 100 100 001 Pre-fail Offline - 0 |
Nog OK testende schijf:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0 3 Spin-up_Time 0x0027 100 100 001 Pre-fail Always - 8091 4 Start/Stop_Count 0x0032 100 100 000 Old_age Always - 71 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 050 Pre-fail Offline - 0 9 Power-on_Hours 0x0032 062 062 000 Old_age Always - 15504 10 Spin_Retry_Count 0x0033 100 100 030 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 71 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 100 075 Pre-fail Always - 0 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power_Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 74 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 28 (Min/Max 13/39) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 220 Disk_Shift 0x0002 100 100 000 Old_age Always - 119537670 222 Loaded_Hours 0x0032 062 062 000 Old_age Always - 15492 223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 0 224 Load_Friction 0x0022 100 100 000 Old_age Always - 0 226 Load-in_Time 0x0026 100 100 000 Old_age Always - 592 240 Head_Flying_Hours 0x0001 100 100 001 Pre-fail Offline - 0 |
Zo op het oog dus naast de ook een wat hogere Disk_Shift bij de falende schijf, naast de HE_Condition-2-melding. Wijst dat op een mechanisch probleem? De server heeft voortdurend in een kast gestaan, bij vrij constante temperatuur en minimale aardschommelingen.
Je geeft geen informatie over hoe je de schijven gebruikt (RAIDxx?) zodat het ook moeilijk adviseren is welke corrigerende actie je nu moet ondernemen en met welke harddisk (als je het type wat je gebruikt evt. nu niet meer kunt krrijgen)..
Het gebruikte RAIDx bepaalt samen met de schijfgrootte tevens of de geadviseerde actie ("save all data") haalbaar is.
CRC op 200 is normaal voor Toshiba MG09.
C7 200 200 __0 000000000000 UltraDMA CRC Error Count
MG09 heeft ook 23 en 24 (0x17 en 0x18):
17 100 100 _75 000000000000 Vendor Specific
18 100 100 _75 000000000000 Vendor Specific
HE staat voor helium.
Het gaat waarschijnlijk over de druk. Als je op een seal drukt (niet doen!) zou de druk hoger kunnen oplopen. Andersom, als de drive in lage luchtdruk omgeving is geweest kan de druk afnemen. Denk ook aan vervoer per vliegtuig, daar heb je ook situaties met lage en hoge luchtdruk.
In dit geval zou het dat een hogere druk zijn. 75 kan 75 kPa of 750 millibar zijn, en 100 kPa is ongeveer de normale luchtdruk. Bij jou zie ik:
1
2
| 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 001 075 Pre-fail Always In_the_past 0 |
De eerste gaat over "Helium Condition Lower", en de tweede over "Helium Condition Upper".
Bij 24d staat bij jou worst op 001. Dat vind ik vreemd voor een SMART waarde die gaat over hoge druk. Hoe dan ook, het lijkt erop dat de druk op een bepaald moment te hoog is geweest. Het kan ook een sensorfout zijn.
[ Voor 3% gewijzigd door mrmrmr op 29-10-2024 09:59 ]
Ik zal ook eens kijken of de temperaturen verschillen, zou die (of een andere schijf-eigenschap substantieel anders moeten zijn als de heliumvullingstoestand anders dan zou moeten?
[ Voor 13% gewijzigd door begintmeta op 29-10-2024 20:33 ]
Kun je de drive uit de array halen en grondig testen? Ik gebruik meestal h2testw. Dat is een trage test, maar wel een bijna volledige. Het schrijft de schijf bijna vol en leest het terug. Dat is beter dan de quick tests die je bij veel andere tools ziet.
Druk en volume zijn gerelateerd aan temperatuur. Als druk of volume toenemen, stijgt de temperatuur en andersom.
pV = nRT
p = druk, V=volume, n aantal mol, R gasconstante, T=temperatuur.
Als helium is vervangen zou zijn door lucht verwacht ik meer wrijving, dus een hogere temperatuur. Ook de draaisnelheid zou hierdoor misschien kunnen teruglopen. Helium is zeer licht en veroorzaakt minder turbulentie dan lucht.
Of temperatuur- en snelheidverschillen meetbaar zijn weet ik niet.
Het zou theoretisch ook nog zo kunnen zijn dat helium kan ontsnappen zonder dat de veel grotere moleculen in lucht binnenkomen.
:strip_exif()/f/image/Vaw1ufbwe9SgPkZyVy3MaYZG.png?f=user_large)
Deze schijf word gebruikt om backups op te bewaren. Dat liep niet helemaal lekker meer, en bij het uitlezen van de SMART zie ik een aantal waarschuwingen. Is deze schijf nog bruikbaar/te fixen, of beter vervangen?
When life throws you a curve, lean into it and have faith!
:strip_exif()/f/image/oNfx4SuMhEFfWeFecVKno0ed.png?f=user_large)
Onveilige afsluiten is niet erg hoor, en verder lijk ik ook niets geks te zien voor een schijf van 2 jaar oud. Zien jullie hier iets geks/alarmerends?
When life throws you a curve, lean into it and have faith!
SSD:
:strip_exif()/f/image/iukreB5B1ie1K9zhqmQ85GOQ.png?f=user_large)
HDD:
:strip_exif()/f/image/gwQL9ihSUTj9HFENgg9NJRBn.png?f=user_large)
eHDD:
:strip_exif()/f/image/Strqs6sK2eS0WR1jsHZl03OU.png?f=user_large)
Alvast bedankt, en de beste wensen voor 2025
When life throws you a curve, lean into it and have faith!
In het middelste plaatje valt (ooit) 1 communicatiefout op (C7). Defecte SATA kabel?
En de onderste is in orde.
Ik zou me om geen van drieën zorgen maken en de middelste een nieuwe SATA kabel geven.
Ik heb de schijf zojuist gekloond naar een Crucial MX500 (500GB) die ik nog had uit een laptop met kapot scherm. Hieronder de SMART gegevens van beide schijven.
Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?
/f/image/hWZ0j7T8dK9uQbIA2reVmubj.png?f=fotoalbum_large)
De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.
Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.Spasm schreef op dinsdag 22 april 2025 @ 15:52:
Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?
Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.
Ik ga het in de gaten houden, bedankt. Helaas kan ik de SATA kabel niet vervangen omdat het een HP EliteDesk 800 G4 Mini is. Deze heeft zo'n soort aansluiting die je in laptops ziet.Renault schreef op dinsdag 22 april 2025 @ 20:51:
De Hynics zou ik gewoon niet meer gebruiken, die geeft je (binnenkort) alleen maar onbetrouwbare ellende, zeker ook gezien de beperkte capaciteit zal dat hard gaan.
De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).
Oke dankje. Toch gaf Windows een melding over die 4 %:Renault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.
Status station
Waarschuwing: betrouwbaarheid is verslechterdBack-ups maken van uw gegevens voor het geval dat er een storing of
fout is op het station
Geschatte resterende levensduur: 4%
Beschikbare reserve: 100%
Temperatuur: 29℃
Duidelijk, thanks.Admiral Freebee schreef op woensdag 23 april 2025 @ 08:57:
[...]
Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.
Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.
Windows doet wel wat met SMART cijfers zodra de medium in een Warning/Critical staat is. Al sinds windows VistaRenault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Dat is m.i. goed nieuws!
https://www.tenforums.com...-status-windows-10-a.html
Ik heb onlangs een nieuwe Seagate Exos X24 20TB gekocht, aangesloten via een TerraMaster 2-bay DAS (USB-C) voor een Plex mediaserver.
De SMART-waarden zien er over het algemeen goed uit, maar ik zie een relatief hoge Seek Error Rate en Read Error Rate raw waarde, en ik wil graag jullie mening of dit zorgelijk is.
Hier zijn de SMART-gegevens:
Seagate Exos fraude?
[ Voor 24% gewijzigd door peter-rm op 02-06-2025 15:46 . Reden: aanvulling ]
Exos X24 hier: 46 POH, garantie tot 2030, Vooralsnog lijkt fraude bij X16/X20 te zitten.peter-rm schreef op maandag 2 juni 2025 @ 15:45:
een disk uit de seagate exos fraude?? hoewel de X24 series daar misschien te nieuw voor is
Seagate Exos fraude?
Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.
Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.
[ Voor 12% gewijzigd door mrmrmr op 02-06-2025 16:28 ]
Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?mrmrmr schreef op maandag 2 juni 2025 @ 16:23:
@Kakkerlak Voor Seagate is dit normaal. Zoals met andere waarden is dit waarschijnlijk een samenstelling van verschillende getallen.
Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.
Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.
Was al bezig om met SeaTools een uitgebreide scan te doen
https://web.archive.org/w...Seagate_SER_RRER_HEC.html
Aangezien fabrikanten zoals Seagate data samenstellen zoals ze willen en dat vaak niet publiceren is het onduidelijk wat de betekenis is. Bij deze SMART waarde zou het gaan om 48 bits, dat is 6 bytes. Dat geeft ruimte voor een getal tot ruim 218 biljoen.
Een laag getal kan simpelweg betekenen dat de eerste (linker) waarde nul is of dat er relatief weinig acties zijn geweest. Het geeft geen probleem aan. Andere SMART waarden geven daarvoor een betere indicatie en die staan bij jouw disk op nul. Ik zou me er geen zorgen over maken als FARM overeenkomt met SMART.
CrystalDiskInfo gaf niet het aantal host writes voor deze disk. Misschien moet je dit programma updaten zodat het deze disk herkent en uit het aantal LBA's kan afleiden over hoeveel gigabytes het gaat. Het kan ook zijn dat het getal nog te laag is.
Wat betreft het fraudeprobleem kun je FARM en SMART vergelijken zoals in de gegeven link.
Beide door jou genoemde waarden zijn zuiver statistiek en in de praktijk nietszeggend over de conditie van de disk.
Zou het dan verstandig zijn om de schijf met de meeste uren te clonen naar de andere ssd? Dit is namelijk de programma -schijf (hoewel ik daar wel een system-backup van heb gemaakt naar extern)...
:strip_exif()/f/image/Gap0iolgp4qTrGgaXWyqPbw2.jpg?f=fotoalbum_large)
[ Voor 3% gewijzigd door Vodgen op 13-08-2025 20:40 ]
https://www.disktuna.com/...es-arent-always-bad-news/Kakkerlak schreef op maandag 2 juni 2025 @ 17:05:
[...]
Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?
Was al bezig om met SeaTools een uitgebreide scan te doen
Seek error rate is niet just that, het is een waarde die seeks + errors bij houdt.
Joep
Dat ziet er nog steeds prima uit, niets mis mee.Vodgen schreef op woensdag 13 augustus 2025 @ 20:22:
En weer een jaar verder. Nog steeds draaien de WD Red hun rondjes 24/7. Dit al bijna 11 jaar lang non stop. Recent een stroomstoring in onze wijk gehad maar dat had geen invloed op de schijven. Bij het opstarten van de NAS gingen ze weer vrolijk verder. Maar zo stilletjes aan misschien toch maar eens gaan vervangen nu ze richting de 90.000 draaiuren gaan. Maar ja, dat roep ik nu al een paar jaar in augustus.Volgens mij zijn de SMART waardes nog steeds prima.
[Afbeelding]
[Afbeelding]
Weet even niet zo goed of ik nu een probleem heb of niet, dus graag even een second opinion
Betreft een Samsung HD204UI van 1,8TB
Melding was:
Dus ik kijken:A error occured to the SMART attribute #3 Spin_up_time of this drive, but the error was fixed automatically by the drive's recovery mechanism. Please be alert of the healt status of this drive and back immediately up to ensure data integrity
:strip_exif()/f/image/B6nQRN6J5HRByaW3SFA88gdg.png?f=user_large)
:strip_exif()/f/image/YIXdZxp8QCp1STa3clcDcwbq.png?f=user_large)
:strip_exif()/f/image/x2tByCDgrSaoQ6IekUtj7Rpv.png?f=user_large)
SMART quicktest brengt geen gekke dingen aan het licht. Spullenboel draait in RAID1. primair schijf heeft vergelijkbare SMART waarden volgens mij, maar geeft gewoon healthy aan.
Dit is mijn backup / archive / offload voor primary nas storage. Meest gebruikt om de primaire nas meer lucht te geven. Is zeker niet altijd online. Wil ook nog wel eens per ongeluk een ungracefull shutdown krijgen
Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)
De warning kan geen kwaad.
[ Voor 21% gewijzigd door Renault op 01-01-2026 17:34 ]
Bij het openen van CrystalDiskInfo zie ik dat er een 2de ook in waarschuwing staat.
Het zijn 6 schijven van Seagate IronWolf 12TB in een RAID 5 opstelling.
Kan mij ook iemand zeggen of dit nog valt op te lossen of is vervangen de enige uitweg?
:strip_exif()/f/image/esLGo7ZKyuF87MNQDhB4qZaC.png?f=user_large)
Voor alle vier de schijven geldt dat de SMART-data okee zijn.vonkkie schreef op woensdag 14 januari 2026 @ 19:07:
vraag ik moest 4 schijven vervangen omdat ze erg slecht waren maar volgens mij is hier toch niets mis mee [Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
Maak aub nu éérst direct een actuele backup van al je data als je dat niet hebt!OnlyTheBest schreef op zaterdag 7 februari 2026 @ 13:32:
Ik krijg sinds enkele dagen melding dat er een fout is met een van mijn HDD's.
Bij het openen van CrystalDiskInfo zie ik dat er een 2de ook in waarschuwing staat.
Het zijn 6 schijven van Seagate IronWolf 12TB in een RAID 5 opstelling.
Kan mij ook iemand zeggen of dit nog valt op te lossen of is vervangen de enige uitweg?
[Afbeelding]
[Afbeelding]
1e schijf: 05 en BB zijn niet okee. Advies is schijf vervangen omdat er al teveel slechte sectoren zijn.
2e schijf: 05 en BB zijn niet okee. Wellicht eens tijd om deze schijf te herpartioneren en formatteren nadat je de oorzaak weet waarom beide schijven problemen krijgen (temperatuur, trillingen, slechte serie enz.)?
De eerste schijf is een oudere versie van Seagate (ST12000VN0007) deze versie werd al redelijk snel vervangen op de markt door de nieuwere (ST12000VN0008) die nog altijd te koop is.Renault schreef op maandag 9 februari 2026 @ 13:56:
[...]
Maak aub nu éérst direct een actuele backup van al je data als je dat niet hebt!
1e schijf: 05 en BB zijn niet okee. Advies is schijf vervangen omdat er al teveel slechte sectoren zijn.
2e schijf: 05 en BB zijn niet okee. Wellicht eens tijd om deze schijf te herpartioneren en formatteren nadat je de oorzaak weet waarom beide schijven problemen krijgen (temperatuur, trillingen, slechte serie enz.)?
Waarschijnlijk was daar toch iets mis mee. Vandaar dat ik deze zo goedkoop had kunnen kopen.
Die keuze was bewust omdat ik verwachte dat de oudere versie als eerste de geest ging geven.
Als het ware een voorbode voor de andere schijven.
En mijn voorspellingen kloppen blijkbaar.
Wat zijn de normale gemiddelde temperaturen eigenlijk?
Voor zover ik weet zaten deze schijven altijd tussen de 40 en 45 graden. Met pieken tot over de 50 als er veel naar geschreven werd.
even voor de zekerheid okee is goed of meer zo van ze zijn nog redelijk?Renault schreef op maandag 9 februari 2026 @ 13:21:
[...]
Voor alle vier de schijven geldt dat de SMART-data okee zijn.
Okee, (nog eens alles nagekeken) zoals in "er is helemaal niets negatiefs te zien bij allevier".vonkkie schreef op dinsdag 10 februari 2026 @ 20:04:
[...]
even voor de zekerheid okee is goed of meer zo van ze zijn nog redelijk?
Waarom zou je die moeten vervangen? Alleen op basis van het aantal draai-uren?
Een kleine kanttekening: ik betwijfel of de omrekening van RAW-waarden naar de weergegeven getallen correct is.
Maar voor het resultaat maakt dat niet uit.
[ Voor 18% gewijzigd door Renault op 10-02-2026 20:40 ]
De nas waar ze inzaten gaf aan dat er 1 defect was en volgens documentie waren de schijven 4 jaar oudRenault schreef op dinsdag 10 februari 2026 @ 20:36:
[...]
Okee, (nog eens alles nagekeken) zoals in "er is helemaal niets negatiefs te zien bij allevier".
Waarom zou je die moeten vervangen? Alleen op basis van het aantal draai-uren?
Een kleine kanttekening: ik betwijfel of de omrekening van RAW-waarden naar de weergegeven getallen correct is.
Maar voor het resultaat maakt dat niet uit.
en dus heb ik ze alle 4 moeten vervangen Maar de verzamelaar in mij laat soms dat soort dingen wat moeilijk weg gooien voor ik ze test
Recentelijk af en toe lees problemen, welke met een reboot verholpen zijn??
Moet ik al op zoek naar een vervanger?
smartcl -x output:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
| smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD60EFRX-68L0BN1
Serial Number: WD-WX11D86J1EAL
LU WWN Device Id: 5 0014ee 2633a4be1
Firmware Version: 82.00A82
User Capacity: 6,001,175,126,016 bytes [6.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5700 rpm
Device is: In smartctl database 7.3/5528
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is: Thu Feb 19 13:52:55 2026 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is: Unavailable
APM feature is: Unavailable
Rd look-ahead is: Enabled
Write cache is: Enabled
DSN feature is: Unavailable
ATA Security is: Disabled, frozen [SEC2]
Wt Cache Reorder: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 121) The previous self-test completed having
the read element of the test failed.
Total time to complete Offline
data collection: ( 3344) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 687) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE
1 Raw_Read_Error_Rate POSR-K 197 197 051 - 150
3 Spin_Up_Time POS--K 210 196 021 - 8475
4 Start_Stop_Count -O--CK 097 097 000 - 3197
5 Reallocated_Sector_Ct PO--CK 200 200 140 - 0
7 Seek_Error_Rate -OSR-K 100 253 000 - 0
9 Power_On_Hours -O--CK 030 030 000 - 51281
10 Spin_Retry_Count -O--CK 100 100 000 - 0
11 Calibration_Retry_Count -O--CK 100 100 000 - 0
12 Power_Cycle_Count -O--CK 099 099 000 - 1307
192 Power-Off_Retract_Count -O--CK 200 200 000 - 90
193 Load_Cycle_Count -O--CK 198 198 000 - 8033
194 Temperature_Celsius -O---K 108 101 000 - 44
196 Reallocated_Event_Count -O--CK 200 200 000 - 0
197 Current_Pending_Sector -O--CK 200 200 000 - 4
198 Offline_Uncorrectable ----CK 100 253 000 - 0
199 UDMA_CRC_Error_Count -O--CK 200 200 000 - 0
200 Multi_Zone_Error_Rate ---R-- 100 253 000 - 0
||||||_ K auto-keep
|||||__ C event count
||||___ R error rate
|||____ S speed/performance
||_____ O updated online
|______ P prefailure warning
General Purpose Log Directory Version 1
SMART Log Directory Version 1 [multi-sector log support]
Address Access R/W Size Description
0x00 GPL,SL R/O 1 Log Directory
0x01 SL R/O 1 Summary SMART error log
0x02 SL R/O 5 Comprehensive SMART error log
0x03 GPL R/O 6 Ext. Comprehensive SMART error log
0x06 SL R/O 1 SMART self-test log
0x07 GPL R/O 1 Extended self-test log
0x09 SL R/W 1 Selective self-test log
0x10 GPL R/O 1 NCQ Command Error log
0x11 GPL R/O 1 SATA Phy Event Counters log
0x21 GPL R/O 1 Write stream error log
0x22 GPL R/O 1 Read stream error log
0x30 GPL,SL R/O 9 IDENTIFY DEVICE data log
0x80-0x9f GPL,SL R/W 16 Host vendor specific log
0xa0-0xa7 GPL,SL VS 16 Device vendor specific log
0xa8-0xb6 GPL,SL VS 1 Device vendor specific log
0xb7 GPL,SL VS 54 Device vendor specific log
0xbd GPL,SL VS 1 Device vendor specific log
0xc0 GPL,SL VS 1 Device vendor specific log
0xc1 GPL VS 93 Device vendor specific log
0xe0 GPL,SL R/W 1 SCT Command/Status
0xe1 GPL,SL R/W 1 SCT Data Transfer
SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
Device Error Count: 53 (device log contains only the most recent 24 errors)
CR = Command Register
FEATR = Features Register
COUNT = Count (was: Sector Count) Register
LBA_48 = Upper bytes of LBA High/Mid/Low Registers ] ATA-8
LH = LBA High (was: Cylinder High) Register ] LBA
LM = LBA Mid (was: Cylinder Low) Register ] Register
LL = LBA Low (was: Sector Number) Register ]
DV = Device (was: Device/Head) Register
DC = Device Control Register
ER = Error register
ST = Status register
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 53 [4] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 a0 00 00 ea e3 55 f0 40 08 34d+17:04:15.162 READ FPDMA QUEUED
b0 00 d1 00 01 00 00 00 c2 4f 00 00 08 34d+17:04:15.158 SMART READ ATTRIBUTE THRESHOLDS [OBS-4]
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:15.158 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:15.157 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:15.157 SET FEATURES [Enable SATA feature]
Error 52 [3] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 78 00 00 ea e3 55 f0 40 08 34d+17:04:10.840 READ FPDMA QUEUED
ec 00 00 00 01 00 00 00 00 00 00 00 08 34d+17:04:10.840 IDENTIFY DEVICE
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:10.839 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:10.839 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:10.839 SET FEATURES [Enable SATA feature]
Error 51 [2] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 78 00 00 ea e3 55 f0 40 08 34d+17:04:06.528 READ FPDMA QUEUED
e5 00 00 00 00 00 00 00 00 00 00 00 08 34d+17:04:06.528 CHECK POWER MODE
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:06.528 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:06.527 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:06.527 SET FEATURES [Enable SATA feature]
Error 50 [1] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 a0 00 00 ea e3 55 f0 40 08 34d+17:04:02.199 READ FPDMA QUEUED
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:04:02.198 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:04:02.198 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:04:02.198 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:04:02.198 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
Error 49 [0] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 38 00 00 ea e3 55 f0 40 08 34d+17:03:57.891 READ FPDMA QUEUED
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:57.890 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:57.890 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:57.890 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:57.890 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
Error 48 [23] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 18 00 00 ea e3 55 f0 40 08 34d+17:03:53.586 READ FPDMA QUEUED
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:53.585 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:53.585 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:53.585 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:53.585 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
Error 47 [22] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 70 00 00 ea e3 55 f0 40 08 34d+17:03:49.257 READ FPDMA QUEUED
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:49.257 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:49.257 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:49.257 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:49.256 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
Error 46 [21] occurred at disk power-on lifetime: 51203 hours (2133 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 ea e3 55 f0 40 00 Error: UNC at LBA = 0xeae355f0 = 3940767216
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 10 00 00 ea e3 55 f0 40 08 34d+17:03:44.948 READ FPDMA QUEUED
47 00 00 00 01 00 00 00 00 00 30 e0 08 34d+17:03:44.948 READ LOG DMA EXT
47 00 00 00 01 00 00 00 00 00 00 e0 08 34d+17:03:44.948 READ LOG DMA EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 34d+17:03:44.948 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 00 00 00 00 00 e0 08 34d+17:03:44.947 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
SMART Extended Self-test Log Version: 1 (1 sectors)
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed: read failure 90% 51280 202453464
# 2 Short offline Completed without error 00% 43998 -
# 3 Short offline Completed without error 00% 43326 -
# 4 Short offline Completed without error 00% 42583 -
# 5 Short offline Completed without error 00% 41840 -
# 6 Short offline Completed without error 00% 41121 -
# 7 Short offline Completed without error 00% 40376 -
# 8 Short offline Completed without error 00% 39657 -
# 9 Short offline Completed without error 00% 38914 -
#10 Short offline Completed without error 00% 38173 -
#11 Short offline Completed without error 00% 37454 -
#12 Short offline Completed without error 00% 36711 -
#13 Short offline Completed without error 00% 35997 -
#14 Short offline Completed without error 00% 35255 -
#15 Short offline Completed without error 00% 34560 -
#16 Short offline Completed without error 00% 33816 -
#17 Short offline Completed without error 00% 33073 -
#18 Short offline Completed without error 00% 32354 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
SCT Status Version: 3
SCT Version (vendor specific): 258 (0x0102)
Device State: Active (0)
Current Temperature: 44 Celsius
Power Cycle Min/Max Temperature: 35/49 Celsius
Lifetime Min/Max Temperature: 5/51 Celsius
Under/Over Temperature Limit Count: 0/0
Vendor specific:
01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
SCT Temperature History Version: 2
Temperature Sampling Period: 1 minute
Temperature Logging Interval: 1 minute
Min/Max recommended Temperature: 0/60 Celsius
Min/Max Temperature Limit: -41/85 Celsius
Temperature History Size (Index): 478 (168)
Index Estimated Time Temperature Celsius
169 2026-02-19 05:55 44 *************************
... ..( 8 skipped). .. *************************
178 2026-02-19 06:04 44 *************************
179 2026-02-19 06:05 39 ********************
... ..( 94 skipped). .. ********************
274 2026-02-19 07:40 39 ********************
275 2026-02-19 07:41 38 *******************
... ..(202 skipped). .. *******************
0 2026-02-19 11:04 38 *******************
1 2026-02-19 11:05 39 ********************
... ..( 6 skipped). .. ********************
8 2026-02-19 11:12 39 ********************
9 2026-02-19 11:13 40 *********************
... ..( 6 skipped). .. *********************
16 2026-02-19 11:20 40 *********************
17 2026-02-19 11:21 41 **********************
... ..( 22 skipped). .. **********************
40 2026-02-19 11:44 41 **********************
41 2026-02-19 11:45 40 *********************
... ..( 7 skipped). .. *********************
49 2026-02-19 11:53 40 *********************
50 2026-02-19 11:54 41 **********************
... ..( 14 skipped). .. **********************
65 2026-02-19 12:09 41 **********************
66 2026-02-19 12:10 42 ***********************
... ..( 5 skipped). .. ***********************
72 2026-02-19 12:16 42 ***********************
73 2026-02-19 12:17 41 **********************
... ..( 15 skipped). .. **********************
89 2026-02-19 12:33 41 **********************
90 2026-02-19 12:34 40 *********************
... ..( 40 skipped). .. *********************
131 2026-02-19 13:15 40 *********************
132 2026-02-19 13:16 41 **********************
... ..( 9 skipped). .. **********************
142 2026-02-19 13:26 41 **********************
143 2026-02-19 13:27 42 ***********************
... ..( 6 skipped). .. ***********************
150 2026-02-19 13:34 42 ***********************
151 2026-02-19 13:35 43 ************************
... ..( 10 skipped). .. ************************
162 2026-02-19 13:46 43 ************************
163 2026-02-19 13:47 44 *************************
... ..( 4 skipped). .. *************************
168 2026-02-19 13:52 44 *************************
SCT Error Recovery Control:
Read: 70 (7.0 seconds)
Write: 70 (7.0 seconds)
Device Statistics (GP/SMART Log 0x04) not supported
Pending Defects log (GP Log 0x0c) not supported
SATA Phy Event Counters (GP Log 0x11)
ID Size Value Description
0x0001 2 0 Command failed due to ICRC error
0x0002 2 3 R_ERR response for data FIS
0x0003 2 2 R_ERR response for device-to-host data FIS
0x0004 2 1 R_ERR response for host-to-device data FIS
0x0005 2 65534 R_ERR response for non-data FIS
0x0006 2 0 R_ERR response for device-to-host non-data FIS
0x0007 2 65534 R_ERR response for host-to-device non-data FIS
0x0008 2 0 Device-to-host non-data FIS retries
0x0009 2 45 Transition from drive PhyRdy to drive PhyNRdy
0x000a 2 46 Device-to-host register FISes sent due to a COMRESET
0x000b 2 65535+ CRC errors within host-to-device FIS
0x000d 2 0 Non-CRC errors within host-to-device FIS
0x000f 2 0 R_ERR response for host-to-device data FIS, CRC
0x0012 2 65535+ R_ERR response for host-to-device non-data FIS, CRC
0x8000 4 7574840 Vendor specific |
Als het goed is zal de disk proberen slechte plekken te lezen en/of te verplaatsen.
Kijk of Current_Pending_Sector omlaag gaat. Je zou de computer kunnen uitschakelen, laten afkoelen en opnieuw opstarten. Dat geeft de disk een verse start.
Als je data op de disk hebt staan die wil behouden zou ik een backup maken. Als de disk deel uitmaakt van een RAID configuratie geldt dat eens te meer.
mrmrmr schreef op donderdag 19 februari 2026 @ 16:19:
@DVX73 Steeds dezelfde fout op dezelfde locatie (LBA = logical block addressing).
Als het goed is zal de disk proberen slechte plekken te lezen en/of te verplaatsen.
Kijk of Current_Pending_Sector omlaag gaat. Je zou de computer kunnen uitschakelen, laten afkoelen en opnieuw opstarten. Dat geeft de disk een verse start.
Als je data op de disk hebt staan die wil behouden zou ik een backup maken. Als de disk deel uitmaakt van een RAID configuratie geldt dat eens te meer.
1
2
3
4
5
6
7
8
9
10
11
| $ sudo smartctl -t long /dev/sda smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build) Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org === START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION === Sending command: "Execute SMART Extended self-test routine immediately in off-line mode". Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful. Testing has begun. Please wait 687 minutes for test to complete. Test will complete after Sat Feb 21 07:11:16 2026 UTC Use smartctl -X to abort test. |
Wacht gewoon tot de pending sectore 0 zij geworden. Als dan het aantal reallocated sectoren nog steeds nul is, is er weinig aan de hand.
Blijf beide aantallen wel periodiek (maandelijks) monitoren.
En een goede actuele backup is natuurlijk nooit verkeerd om te hebben.
Alle data is reeds veiliggesteld.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
| smartctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-100-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD60EFRX-68L0BN1
Serial Number: WD-WX11D86J1EAL
LU WWN Device Id: 5 0014ee 2633a4be1
Firmware Version: 82.00A82
User Capacity: 6,001,175,126,016 bytes [6.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5700 rpm
Device is: In smartctl database 7.3/5528
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is: Sat Feb 21 08:18:04 2026 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is: Unavailable
APM feature is: Unavailable
Rd look-ahead is: Enabled
Write cache is: Enabled
DSN feature is: Unavailable
ATA Security is: Disabled, frozen [SEC2]
Wt Cache Reorder: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 121) The previous self-test completed having
the read element of the test failed.
Total time to complete Offline
data collection: ( 3344) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 687) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE
1 Raw_Read_Error_Rate POSR-K 171 171 051 - 1021
3 Spin_Up_Time POS--K 210 196 021 - 8475
4 Start_Stop_Count -O--CK 097 097 000 - 3197
5 Reallocated_Sector_Ct PO--CK 200 200 140 - 0
7 Seek_Error_Rate -OSR-K 100 253 000 - 0
9 Power_On_Hours -O--CK 030 030 000 - 51323
10 Spin_Retry_Count -O--CK 100 100 000 - 0
11 Calibration_Retry_Count -O--CK 100 100 000 - 0
12 Power_Cycle_Count -O--CK 099 099 000 - 1307
192 Power-Off_Retract_Count -O--CK 200 200 000 - 90
193 Load_Cycle_Count -O--CK 198 198 000 - 8042
194 Temperature_Celsius -O---K 114 101 000 - 38
196 Reallocated_Event_Count -O--CK 200 200 000 - 0
197 Current_Pending_Sector -O--CK 200 200 000 - 128
198 Offline_Uncorrectable ----CK 100 253 000 - 0
199 UDMA_CRC_Error_Count -O--CK 200 200 000 - 0
200 Multi_Zone_Error_Rate ---R-- 200 200 000 - 1
||||||_ K auto-keep
|||||__ C event count
||||___ R error rate
|||____ S speed/performance
||_____ O updated online
|______ P prefailure warning
General Purpose Log Directory Version 1
SMART Log Directory Version 1 [multi-sector log support]
Address Access R/W Size Description
0x00 GPL,SL R/O 1 Log Directory
0x01 SL R/O 1 Summary SMART error log
0x02 SL R/O 5 Comprehensive SMART error log
0x03 GPL R/O 6 Ext. Comprehensive SMART error log
0x06 SL R/O 1 SMART self-test log
0x07 GPL R/O 1 Extended self-test log
0x09 SL R/W 1 Selective self-test log
0x10 GPL R/O 1 NCQ Command Error log
0x11 GPL R/O 1 SATA Phy Event Counters log
0x21 GPL R/O 1 Write stream error log
0x22 GPL R/O 1 Read stream error log
0x30 GPL,SL R/O 9 IDENTIFY DEVICE data log
0x80-0x9f GPL,SL R/W 16 Host vendor specific log
0xa0-0xa7 GPL,SL VS 16 Device vendor specific log
0xa8-0xb6 GPL,SL VS 1 Device vendor specific log
0xb7 GPL,SL VS 54 Device vendor specific log
0xbd GPL,SL VS 1 Device vendor specific log
0xc0 GPL,SL VS 1 Device vendor specific log
0xc1 GPL VS 93 Device vendor specific log
0xe0 GPL,SL R/W 1 SCT Command/Status
0xe1 GPL,SL R/W 1 SCT Data Transfer
SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
Device Error Count: 1094 (device log contains only the most recent 24 errors)
CR = Command Register
FEATR = Features Register
COUNT = Count (was: Sector Count) Register
LBA_48 = Upper bytes of LBA High/Mid/Low Registers ] ATA-8
LH = LBA High (was: Cylinder High) Register ] LBA
LM = LBA Mid (was: Cylinder Low) Register ] Register
LL = LBA Low (was: Sector Number) Register ]
DV = Device (was: Device/Head) Register
DC = Device Control Register
ER = Error register
ST = Status register
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 1094 [13] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 97 18 40 00 Error: UNC at LBA = 0x02f19718 = 49387288
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 48 00 00 02 f1 97 18 40 08 39d+05:41:05.247 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:41:05.245 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:41:05.245 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:41:05.244 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:41:05.243 IDENTIFY DEVICE
Error 1093 [12] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 96 68 40 00 Error: UNC at LBA = 0x02f19668 = 49387112
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 40 00 00 02 f1 96 68 40 08 39d+05:41:00.919 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:41:00.918 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:41:00.917 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:41:00.917 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:41:00.916 IDENTIFY DEVICE
Error 1092 [11] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 96 40 40 00 Error: UNC at LBA = 0x02f19640 = 49387072
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 98 00 00 02 f1 96 40 40 08 39d+05:40:56.589 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:56.588 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:56.588 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:56.588 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:56.587 IDENTIFY DEVICE
Error 1091 [10] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 96 40 40 00 Error: UNC at LBA = 0x02f19640 = 49387072
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 60 00 00 02 f1 96 40 40 08 39d+05:40:52.267 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:52.266 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:52.265 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:52.265 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:52.265 IDENTIFY DEVICE
Error 1090 [9] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 96 40 40 00 Error: UNC at LBA = 0x02f19640 = 49387072
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 08 00 00 02 f1 96 40 40 08 39d+05:40:47.974 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:47.972 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:47.972 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:47.971 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:47.971 IDENTIFY DEVICE
Error 1089 [8] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 89 18 40 00 Error: UNC at LBA = 0x02f18918 = 49383704
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 b8 00 00 02 f1 89 18 40 08 39d+05:40:43.572 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:43.570 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:43.570 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:43.569 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:43.569 IDENTIFY DEVICE
Error 1088 [7] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 88 b0 40 00 Error: UNC at LBA = 0x02f188b0 = 49383600
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 c8 00 00 02 f1 88 b0 40 08 39d+05:40:39.231 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:39.230 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:39.230 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:39.229 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:39.228 IDENTIFY DEVICE
Error 1087 [6] occurred at disk power-on lifetime: 51312 hours (2138 days + 0 hours)
When the command that caused the error occurred, the device was doing SMART Offline or Self-test.
After command completion occurred, registers were:
ER -- ST COUNT LBA_48 LH LM LL DV DC
-- -- -- == -- == == == -- -- -- -- --
40 -- 51 00 00 00 00 02 f1 88 b0 40 00 Error: UNC at LBA = 0x02f188b0 = 49383600
Commands leading to the command that caused the error were:
CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name
-- == -- == -- == == == -- -- -- -- -- --------------- --------------------
60 00 08 00 58 00 00 02 f1 88 b0 40 08 39d+05:40:34.871 READ FPDMA QUEUED
2f 00 00 00 01 00 00 00 00 00 30 e0 08 39d+05:40:34.870 READ LOG EXT
2f 00 00 00 01 00 00 00 00 00 00 e0 08 39d+05:40:34.870 READ LOG EXT
ef 00 10 00 02 00 00 00 00 00 00 a0 08 39d+05:40:34.870 SET FEATURES [Enable SATA feature]
ec 00 00 00 00 00 00 00 00 00 00 a0 08 39d+05:40:34.869 IDENTIFY DEVICE
SMART Extended Self-test Log Version: 1 (1 sectors)
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 90% 51312 49376120
# 2 Short offline Completed: read failure 90% 51280 202453464
# 3 Short offline Completed without error 00% 43998 -
# 4 Short offline Completed without error 00% 43326 -
# 5 Short offline Completed without error 00% 42583 -
# 6 Short offline Completed without error 00% 41840 -
# 7 Short offline Completed without error 00% 41121 -
# 8 Short offline Completed without error 00% 40376 -
# 9 Short offline Completed without error 00% 39657 -
#10 Short offline Completed without error 00% 38914 -
#11 Short offline Completed without error 00% 38173 -
#12 Short offline Completed without error 00% 37454 -
#13 Short offline Completed without error 00% 36711 -
#14 Short offline Completed without error 00% 35997 -
#15 Short offline Completed without error 00% 35255 -
#16 Short offline Completed without error 00% 34560 -
#17 Short offline Completed without error 00% 33816 -
#18 Short offline Completed without error 00% 33073 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
SCT Status Version: 3
SCT Version (vendor specific): 258 (0x0102)
Device State: Active (0)
Current Temperature: 38 Celsius
Power Cycle Min/Max Temperature: 35/49 Celsius
Lifetime Min/Max Temperature: 5/51 Celsius
Under/Over Temperature Limit Count: 0/0
Vendor specific:
01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
SCT Temperature History Version: 2
Temperature Sampling Period: 1 minute
Temperature Logging Interval: 1 minute
Min/Max recommended Temperature: 0/60 Celsius
Min/Max Temperature Limit: -41/85 Celsius
Temperature History Size (Index): 478 (227)
Index Estimated Time Temperature Celsius
228 2026-02-21 00:21 37 ******************
... ..( 4 skipped). .. ******************
233 2026-02-21 00:26 37 ******************
234 2026-02-21 00:27 38 *******************
... ..( 2 skipped). .. *******************
237 2026-02-21 00:30 38 *******************
238 2026-02-21 00:31 39 ********************
... ..( 46 skipped). .. ********************
285 2026-02-21 01:18 39 ********************
286 2026-02-21 01:19 38 *******************
... ..( 98 skipped). .. *******************
385 2026-02-21 02:58 38 *******************
386 2026-02-21 02:59 39 ********************
... ..( 18 skipped). .. ********************
405 2026-02-21 03:18 39 ********************
406 2026-02-21 03:19 40 *********************
... ..( 26 skipped). .. *********************
433 2026-02-21 03:46 40 *********************
434 2026-02-21 03:47 39 ********************
... ..( 25 skipped). .. ********************
460 2026-02-21 04:13 39 ********************
461 2026-02-21 04:14 38 *******************
... ..(122 skipped). .. *******************
106 2026-02-21 06:17 38 *******************
107 2026-02-21 06:18 37 ******************
... ..(119 skipped). .. ******************
227 2026-02-21 08:18 37 ******************
SCT Error Recovery Control:
Read: 70 (7.0 seconds)
Write: 70 (7.0 seconds)
Device Statistics (GP/SMART Log 0x04) not supported
Pending Defects log (GP Log 0x0c) not supported
SATA Phy Event Counters (GP Log 0x11)
ID Size Value Description
0x0001 2 0 Command failed due to ICRC error
0x0002 2 3 R_ERR response for data FIS
0x0003 2 2 R_ERR response for device-to-host data FIS
0x0004 2 1 R_ERR response for host-to-device data FIS
0x0005 2 65534 R_ERR response for non-data FIS
0x0006 2 0 R_ERR response for device-to-host non-data FIS
0x0007 2 65534 R_ERR response for host-to-device non-data FIS
0x0008 2 0 Device-to-host non-data FIS retries
0x0009 2 45 Transition from drive PhyRdy to drive PhyNRdy
0x000a 2 46 Device-to-host register FISes sent due to a COMRESET
0x000b 2 65535+ CRC errors within host-to-device FIS
0x000d 2 0 Non-CRC errors within host-to-device FIS
0x000f 2 0 R_ERR response for host-to-device data FIS, CRC
0x0012 2 65535+ R_ERR response for host-to-device non-data FIS, CRC
0x8000 4 7727392 Vendor specific |
Ik zou zo snel mogelijk zorgen dat je al je data hebt veiliggesteld.
Daarna kun je de harddisk een full ("langzame") format geven: daarbij wordt elke sector getest of hij op dat moment nog goed is. Slechte sectoren worden dan gemarkeerd en vervangen door reservesectoren.
Dat gezegd hebbende: als betrouwbare harddisk kun je deze disk dan beter niet meer gebruiken: als er eenmaal een zwakke plek op zit is dat vaak het begin van een aftakelingsproces.
Dit topic is gesloten.
![]()
:strip_exif()/f/image/YP4s9m6XhYqcbvInbItRkn7Q.jpg?f=fotoalbum_large)
/f/image/yedH3sqwzR6Znw1YxXDPRZ0u.png?f=fotoalbum_large)
:strip_exif()/f/image/VGLOT4FWqzRGbS7vmAfczr4Q.jpg?f=fotoalbum_large)
/f/image/wFFQU4tghKvoPyHXKt8tx2M4.png?f=fotoalbum_large)
/f/image/O6kLr3auIfC0xJGkPlD5ELma.png?f=fotoalbum_large)
:strip_exif()/f/image/Un6nYCzAjX0CQoVX0ycFfdRR.png?f=user_large)
/f/image/PdDafKquzcIR9pksUZRKYSzU.png?f=fotoalbum_large)
:strip_exif()/f/image/0WVsCbx5yR4zxslyrHM8gNvu.png?f=user_large)