- knip -
Ik zou hem ook nu vervangen, liefst door iets met een hogere opslagcapaciteit, zodat hij minder snel zal slijten.
Zeker voor volatile cache is zo'n schijf nog wel bruikbaar.
- knip -
AMD Ryzen 9 7900X3D + RX 9070 + 32GB DDR5 @ 5200
Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?Raymond P schreef op woensdag 20 maart 2024 @ 20:45:
Die is binnen nu (fabrikant) en X (deo volente) klaar met schrijven.
Voor iets anders dan cache zou ik 'm niet meer inzetten.
Klopt, zolang je valideert wat je wegschrijft (voor zover de controller dat niet voor je doet) hoeft dat niet direct een issue te zijn. Als het er eenmaal op staat dan is het uitlezen van een ietwat kreupele SSD meestal geen issue.Admiral Freebee schreef op donderdag 21 maart 2024 @ 20:37:
[...]
Ik weet niet hoe het zit bij SSD's maar is de kans niet groter dat door de slijtage er toch wat bitjes gaan omvallen en je dus fouten gaat krijgen in de gegevens die in de cache zitten?
Gebeurt het vaak genoeg en/of zakt de performance in dan heb je het uiterste uit je disk gehaald en vervang je 'm, wat bij deze unit dus al het geval blijkt te zijn.
In productie vervang je zoiets natuurlijk iets eerder.
Thuis kun je disks gewoon een toepasselijke functie geven.
Deze bejaarde rondjesdraaier zit 10 dagen af van 100.000 uur, daar zet ik al zeker 10 jaar geen cruciale backups meer op.
- knip -
Als reallocated sector count op gaat lopen dan zou ik 'm direct uit dienst halen. (Ik gok dat dit schijfje al wat ouder is, die zal geen jaren meer meegaan.)
- knip -

"Each event is preceded by Prophecy. But without the hero, there is no Event." - Zurin Arctus, the Underking | "Ad Nocendum Potentes sumus." - Me, 30 November 1999
Hoe deze beoordeling tot stand komt is het pakkie an van Crystaldiskinfo.
Sowieso geven de SMART-cijfers een beeld van het verleden: wat ging er goed en wat ging er fout aan meetbare zaken?
Daarom kun je op basis van de SMART-tabel wel zeggen of er iets fout ging op de disk, maar niet hoe lang de disk het nog vol zal houden.
Bovenste disk:
Er zijn geen erge fouten zichtbaar in de cijfers, alleen de unexpected Power loss valt op.
Het weergegeven percentage komt wel overeen met de slijtage-indicator in de tabel
Onderste disk:
Ook hier geen fouten zichtbaar.
Hoe wordt de slijtage van je SSD bepaald?.
- de fabrikant geeft voor elk type SSD op wat het verwachte Total Bytes Written is voordat alle cellen dood zijn
- de printplaat houdt bij hoeveel daarvan al is verbruikt
- en geeft dat weer in een "overblijvend goed percentage"
De waarde van Lifetime Remaining (SMART 0xCA) wordt overgenomen door Crystaldiskinfo en die zie je bij dat percentage.
0x11 is 17 decimaal. 100 - 17 = 83.
Bij de tweede SSD is Percent Used (SMART 0x05) gebruikt door Crystaldiskinfo.
0x08 is 8 decimaal. 100 - 8 = 92.
Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.
Op wie / wat reageer je nu precies?chim0 schreef op zaterdag 13 april 2024 @ 12:13:
Dat is toch de wearing level? Oftewel slijtage percentage. Die wordt direct overgenomen van de drive toch niet door Crystal zelf?
Bij mij is die waarde exact hetzelfde op m'n fabrikant 's tool als op alle andere tools.
De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.
Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.
De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.
Joep
Op de discussie hierboven.
De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.De 'RAW' values die Crystal toont zijn die zoals de drive ze rapporteert. Wear level gerelateerde waardes tellen vaak juist op (naar fail) van 0 naar 100 of tellen af naar fail van 100 naar 0.
Hangt er van af hoe je CrystalDiskInfo configureert of de tool decimalen of hex waarden toont dus wat @mrmrmr uitlegt klopt volgens mij.
De health waarde van CystalDiskInfo is echter een simplificatie, kan op basis van wear leveling aangeven dat health 100% is terwijl er wel realocated blocks zijn. Je moet er niet blind op varen.
Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie. En nu?chim0 schreef op dinsdag 16 april 2024 @ 09:29:
De "Health status" in het bovenste gedeelte van CDI is hetzelfde als de waarde bij "Percentage used" of "Lifetime remaining". Daar komen geen andere waardes bij of af.
Joep
Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.Stanton schreef op dinsdag 16 april 2024 @ 10:30:
[...]
Precies, de tool negeert dus andere attributen bij het bepalen van overall health en is dus een simplificatie.
Nu niks. Discussie over. Was beetje reactie op het eerste gedeelte van de reactie van @Renault misschien.En nu?
Je komt een beetje passief agressief over. Gaat het wel goed?
"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.chim0 schreef op dinsdag 16 april 2024 @ 11:35:
[...]
Dat weten we niet. Misschien wordt het wel meegenomen in dat percentage, maar dat zou je aan de fabrikant moeten vragen.
Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health
En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.
Joep
Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB
De melding;
:fill(white):strip_exif()/f/image/P40VmsFa6erfP18EbsbOHxoi.png?f=user_large)
:fill(white):strip_exif()/f/image/3Fg3pht7LlLdj15oxoL9Ac6N.png?f=user_large)
:fill(white):strip_exif()/f/image/zz16L9Z9CaMRy6YWg96c6CFU.png?f=user_large)
:fill(white):strip_exif()/f/image/6vWYs26RIq4umCGArUHMHZwt.png?f=user_large)
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
Nee hoor!Stanton schreef op dinsdag 16 april 2024 @ 12:03:
[...]
"Health" zoals getoond door CDI, is een 'conclusie' van de tool. En die baseert zich duidelijk op slechts een attribute. Ik heb CDI 'rapportjes' gezien die voor NVMe drives bijvoorbeeld health op 99% zetten terwijl "Critical Warning" non zero was.
Het is aan CDI of een andere SMART tool de informatie tot zich te nemen en er iets mee te doen, een bepaalde conclusie te bereiken. Zie bijvoorbeeld https://www.nvmetools.com/post/nvme-health
En ik wil dus eigenlijk alleen maar zeggen dat je je niet blind moet staren op een tool die je de health als percentage of binair als goed dan wel slecht toont als je niet weet waar de tool zich op baseert.
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!
Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!
Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.
[ Voor 3% gewijzigd door Renault op 17-04-2024 14:20 ]
Ja:Rohem schreef op woensdag 17 april 2024 @ 11:11:
Ik was aan het zoeken op het forum en kwam per toeval dit topic tegen, wat tof dat deze erin!
Mijn probleem is als volgt;
Ik heb een oude Synology DS211. De NAS heeft een aantal jaren nauwelijks gedraaid, maar recent ben ik hem weer meer gaan gebruiken. Nu valt me op dat de S.M.A.R.T-status van een van de twee schijven niet goed is. Dit is al langer zo en heb het altijd genegeerd, maar ben toch wel benieuwd of ik hier iets mee moet. Ik heb in het verleden al eens problemen gehad en een keer een schijf moeten vervangen. De schijf die nu de foutmelding geeft is de oudste die erin zit, namelijk een Samsung HD204UI 2TB
De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
- je harddisk rapporteert dat hij ooit een mechanische tik heeft gehad:
G-Sensor_Error_Rate = "48" (er staat geen eenheid of schaal bij , maar ideaal is "0")
- de rest van de parameters zijn te verwachten bij een goed gebruikte disk, er zijn geen echte foutmeldingen te zien.
- gewoon doorademen en doordraaien zo, MITS je actuele backups hebt van alle belangrijke data.
Zolang er geen andere (of méér) afwijkingen worden gerapporteerd is er niets aan de hand.
De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.Rohem schreef op woensdag 17 april 2024 @ 11:11:
Mijn probleem is als volgt;
De melding;
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]
Valt hier iets over te zeggen?
Als ik in het verkeerde topic zit of een eigen topic moet maken hoor ik het ook graag.
Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.
Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)
Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.
[ Voor 3% gewijzigd door AzertyNL op 17-04-2024 15:43 ]
Superbedankt voor je snelle reactie en hele duidelijke uitleg erbij!AzertyNL schreef op woensdag 17 april 2024 @ 15:35:
[...]
De status van ID191 (G-Sensor_Error_Rate = "48") is niet het probleem volgens mij. De raw value (48) leidt niet tot een normalized value ("waarde" en "slechtst") die onder de drempel komt waardoor het als een fout gezien wordt. Is dus niets mis mee.
Wat er aan de hand lijkt te zijn is dat de waarde van ID3 (spin up time) ooit tot een fout heeft geleid.
Je ziet dat de 'slechtst' waarde op 1 (001) staat, en dat is onder de drempel van 25 (025). Ooit heeft de spin-up van de drive dus zolang geduurd dat het als een probleem/risico gezien werd door de drive firmware. En dat blijf je zien omdat nu "slechtst' op die (te) lage waarde staat.
Op zich is dit misschien wel logisch. Als een drive heel lang uit heeft gestaan (zoals jouw NAS zoals je zelf zei) dan kan het asje/lager vast gaan zitten, er is meer wrijving/weerstand bij het opstarten van de drive. Nu de drive weer gedraaid heeft en vast regelmatig gebruikt wordt is de kans groot dat het opstarten de volgende keren veel makkelijker gaat. (Hoe hoger de waarde van ID3 in de "Waarde" kolom hoe sneller de drive op gang gekomen is na stilstaande schijven)
Als dit de enige s.m.a.r.t error is en er geen nieuwe (lagere waarden van ID3 spin up time in de "waarde" kolom optreden zou ik de drive gewoon blijven vertrouwen in gebruik.
Dan vertrouw ik de schijf nog gewoon. Heb altijd nog een tweede schijf die in sync loopt, dus data zal ik niet zo snel kwijt zijn verwacht ik.
Ik krijg er rapportjes van via de mail nu, dus dan houdt ik het gewoon in de gaten.
Ik plaats helemaal geen print-screen.Renault schreef op woensdag 17 april 2024 @ 14:11:
[...]
Nee hoor!
CrystalDisk info beweert in je printscreen twéé zaken:
1. de "Health status" is "Good" en heeft kleur blauw toegekend gekregen
2. bij de "Health status" wordt een percentage genoemd
Er worden hier dus in één adem twéé dingen beweerd!
Doe me eens een lol en kijk even hierboven in de post van Appelmoesje naar dat plaatje, daar zijn beide beweringen gescheiden van elkaar!
Daarom:
- m.b.t. punt 1: hoe Crystaldiskinfo nou precies aan de kwalificatie "Good" komt zit in de app zelf (dat is een algoritme wat waarschjnlijk kijkt naar de Lifetime Remaining, maar óók naar andere parameters, zoals bij de post van Applemoesje naar de heringedeelde Sectoren. Elke app heeft in de praktijk daarvoor zijn eigen algoritme.
- m.b.t. punt 2: dat klopt: dat weergegeven percentage is 1 op 1 met de parameter Remaining Lifetime uit de tabel.
Mijn punt is dus dat er geen duidelijk te bepalen (zoals in zichtbare, herleidbare) relatie is tussen de weergegeven "Health status" en de "Remaining Lifetime" én dat de "Health status" wordt bepaald door méér dan de parameter "Remaining Lifetime", zie de post van Appelmoesje.
De post van Appelmoesje gaat niet over een SSD en is er derhalve geen wear level indicator. In de post van Appelmoesje is er simpelweg een vitaal attribuut onder drempel waarde.
In het geval van de SSDs lijkt CDI zich bij bepalen health percentage op wear level attribuut.
Joep
Nu zie ik de UDMA CRC error count en dit wijst voornamelijk op problemen met aansluiting/kabels. Is het nu gewoon dat zo'n USB 3 HDD enclosure bagger is of kan het nog ergens anders aan liggen?
(Weet je zeker dat voordat je de enclosure in gebruik nam. de CRC error count op de schijf op nul stond?)
Het is aan jou om delen van die keten uit te sluiten middels tests (andere poorten gebruiken, ander snoertje enz.). Als desondanks de errors blijven oplopen (ze gaan nooit meer terug naar nul, ze tellen nu verder door vanaf "240") zou iets in de enclosure inderdaad de fouten kunnen veroorzaken.
(Ik zie in de overige cijfers trouwens geen afwijkingen.)
[ Voor 4% gewijzigd door Renault op 01-05-2024 10:45 ]
CrystalDiskInfo levert een waarschuwing op, op 1 van mijn twee harddisks van WD (blue 6TB). De C5 en C6 leveren een 'issue' op zoals is te zien op het plaatje. Een latere surfacetest geeft aan dat er op 1 plek 19 errors zijn gevonden.
Wat is wijsheid, deze HD vervangen door een nieuwe, of kan het vooralsnog niet veel kwaad? Zit er een beetje mee in dubio gezien ik niet zo snel kan traceren (met zoeken oid) wat die C5 en C6 voor invloed hebben.
Wat is de oorzaak hiervan?
De magnetische laag van (een van de?) platters wordt lokaal instabiel waardoor gegevens verloren gaan en dit is een van de eerste verschijnselen daarvan.
Is dat erg?
Dat hangt er vanaf: als jij keurig actuele backups hebt van al je data in voldoende versies, kan dit niet zoveel kwaad, omdat je de beschadigde bestanden (door de ontbrekende sectoren van C6 en vooralsnog ook van C5) ergens anders óók nog onbeschadigd hebt staan.
Als je geen andere actuele versie van de beschadigde bestanden hebt staan, is het wél erg, want dan ben je die data definitief kwijt.
In dat licht zou ik ook bekijken of je deze harddisk moet vervangen of niet.
Ik hoop zo je vraag toch nog te hebben beantwoord.
Ludwig005 schreef op maandag 5 augustus 2024 @ 11:06:
Een heel tijd geleden was er iets als het deel je smart status topic, maar ik kan het niet meer terugvinden.
Dit topic dus. Even zoeken op smart was genoeg geweest
Ik zou de harddisk aangesloten laten totdat de waarde bij C5 nul is geworden. Daarna maak je een backup van de hele inhoud en je neemt afscheid van deze harddisk.
De waarden bij C5 en C6 duiden op een slechte magnetische plek op een van de platters en die slechte plekken worden meestal snel groter.
Een nieuwe disk is tegenwoordig ook niet zo duur meer.
Lijkt een vogel voor de kat te zijn.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
| smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-25-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: WD Blue SA510 2.5 1000GB
Serial Number: 2227E9442613
LU WWN Device Id: 5 001b44 4a568e7da
Firmware Version: 52020100
User Capacity: 1.000.204.886.016 bytes [1,00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: Solid State Device
Form Factor: 2.5 inches
TRIM Command: Available, deterministic
Device is: Not in smartctl database 7.3/5319
ATA Version is: ACS-4, ACS-2 T13/2015-D revision 3
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 1.5 Gb/s)
Local Time is: Tue Sep 3 20:11:27 2024 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
No failed Attributes found.
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x71) SMART execute Offline immediate.
No Auto Offline data collection support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 10) minutes.
Conveyance self-test routine
recommended polling time: ( 1) minutes.
SMART Attributes Data Structure revision number: 0
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0032 100 100 010 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 40
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 472
165 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 4297785367
166 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
167 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 43
168 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 1
169 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 236
170 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
171 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
172 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
173 Unknown_Attribute 0x0032 100 100 005 Old_age Always - 0
174 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 097 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
194 Temperature_Celsius 0x0022 100 100 014 Old_age Always - 26 (Min/Max 18/37)
199 UDMA_CRC_Error_Count 0x0032 100 100 000 Old_age Always - 0
230 Unknown_SSD_Attribute 0x0032 100 100 000 Old_age Always - 12884901891
232 Available_Reservd_Space 0x0033 100 100 004 Pre-fail Always - 78
233 Media_Wearout_Indicator 0x0032 100 100 000 Old_age Always - 381
234 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 433
241 Total_LBAs_Written 0x0030 253 253 000 Old_age Offline - 398
242 Total_LBAs_Read 0x0030 253 253 000 Old_age Offline - 5434
244 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
Warning! SMART ATA Error Log Structure error: invalid SMART checksum.
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 40 -
# 2 Short offline Completed without error 00% 40 -
# 3 Short offline Completed without error 00% 39 -
# 4 Short offline Completed without error 00% 39 -
# 5 Extended offline Completed without error 00% 39 -
# 6 Short offline Completed without error 00% 38 -
# 7 Short offline Completed without error 00% 38 -
# 8 Short offline Completed without error 00% 38 -
# 9 Short offline Completed without error 00% 38 -
#10 Extended offline Completed without error 00% 37 -
#11 Short offline Completed without error 00% 37 -
#12 Short offline Completed without error 00% 37 -
#13 Short offline Completed without error 00% 37 -
#14 Short offline Completed without error 00% 36 -
#15 Short offline Completed without error 00% 36 -
#16 Extended offline Completed without error 00% 36 -
#17 Short offline Completed without error 00% 35 -
#18 Short offline Completed without error 00% 35 -
#19 Short offline Completed without error 00% 35 -
#20 Short offline Completed without error 00% 35 -
#21 Extended offline Completed without error 00% 34 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay. |
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
- het hebben van data op een SSD (of een ander opslagmedium) geeft geen enkele vorm van zekerheid dat je die data morgen nog hebt.
De enige zekerheid die te verkrijgen is, is de kans dat je die data verliest te verkleinen middels een goed (uitgevoerd) backupbeleid
- SMART data geven geen enkele garantie dat het opslagmedium in orde is, het inventariseert en interpreteert alleen statistieken die repreentatief zijn voor dingen die fout kunnen lopen
- bovenstaand staat niets verkeerds in de tabel: je hebt o.a. geen geregistreerde communicatiefouten die de SMART error log kunnen verklaren.
- er zijn wel erg veel "Unknown attributes" in de tabel hierboven, waaronder enkele die niet op nul staan.
Kan de software van de fabrikant zelf hier niet méér over zeggen?
"Eruit klappen"?
De meeste SSD's waarbij intern iets mis gaat, gaan (definitief) in Read Only modus, waarbij de data nog uit te lezen is (t.b.v. een backup van wat er nog te redden is).
Ik weet dus neit wat "eruit klappen" precies is.
[ Voor 16% gewijzigd door Renault op 05-09-2024 14:28 ]
Er is alleen een klein probleem met de SSD, hij heeft een stuk minder waardes. Ik hoop dat iemand er wat wijzer uit wordt.
De volgende twee schijven zijn van mijn huidige PC. De rest volgt.
SSD
:fill(white):strip_exif()/f/image/ka8fXZcSToxiX3rkxWVLujtq.png?f=user_large)
HDD
[ Voor 4% gewijzigd door TheRie op 07-09-2024 02:14 ]
Ik zie zo geen problemen. Wat is het verschil van de aangegeven temperatuur met de kamertemperatuur? Als dat tamelijk groot is dan heb je misschien wat meer koeling nodig in je computerbehuizing.
Ik weet net waar je de "mindere cijfers" zet, maar ik zou ze beide lekker blijven gebruiken.
.. natuurlijk mét een goed uitgevoerde backupstrategie ter bescherming van je kostbare data ...
Falende schijf:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0 3 Spin-up_Time 0x0027 100 100 001 Pre-fail Always - 8078 4 Start/Stop_Count 0x0032 100 100 000 Old_age Always - 71 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 050 Pre-fail Offline - 0 9 Power-on_Hours 0x0032 062 062 000 Old_age Always - 15504 10 Spin_Retry_Count 0x0033 100 100 030 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 71 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 001 075 Pre-fail Always In_the_past 0 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power_Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 74 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 24 (Min/Max 13/37) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 220 Disk_Shift 0x0002 100 100 000 Old_age Always - 135528455 222 Loaded_Hours 0x0032 062 062 000 Old_age Always - 15492 223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 0 224 Load_Friction 0x0022 100 100 000 Old_age Always - 0 226 Load-in_Time 0x0026 100 100 000 Old_age Always - 596 240 Head_Flying_Hours 0x0001 100 100 001 Pre-fail Offline - 0 |
Nog OK testende schijf:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0 3 Spin-up_Time 0x0027 100 100 001 Pre-fail Always - 8091 4 Start/Stop_Count 0x0032 100 100 000 Old_age Always - 71 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 050 Pre-fail Offline - 0 9 Power-on_Hours 0x0032 062 062 000 Old_age Always - 15504 10 Spin_Retry_Count 0x0033 100 100 030 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 71 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 100 075 Pre-fail Always - 0 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power_Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 74 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 28 (Min/Max 13/39) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 220 Disk_Shift 0x0002 100 100 000 Old_age Always - 119537670 222 Loaded_Hours 0x0032 062 062 000 Old_age Always - 15492 223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 0 224 Load_Friction 0x0022 100 100 000 Old_age Always - 0 226 Load-in_Time 0x0026 100 100 000 Old_age Always - 592 240 Head_Flying_Hours 0x0001 100 100 001 Pre-fail Offline - 0 |
Zo op het oog dus naast de ook een wat hogere Disk_Shift bij de falende schijf, naast de HE_Condition-2-melding. Wijst dat op een mechanisch probleem? De server heeft voortdurend in een kast gestaan, bij vrij constante temperatuur en minimale aardschommelingen.
Je geeft geen informatie over hoe je de schijven gebruikt (RAIDxx?) zodat het ook moeilijk adviseren is welke corrigerende actie je nu moet ondernemen en met welke harddisk (als je het type wat je gebruikt evt. nu niet meer kunt krrijgen)..
Het gebruikte RAIDx bepaalt samen met de schijfgrootte tevens of de geadviseerde actie ("save all data") haalbaar is.
CRC op 200 is normaal voor Toshiba MG09.
C7 200 200 __0 000000000000 UltraDMA CRC Error Count
MG09 heeft ook 23 en 24 (0x17 en 0x18):
17 100 100 _75 000000000000 Vendor Specific
18 100 100 _75 000000000000 Vendor Specific
HE staat voor helium.
Het gaat waarschijnlijk over de druk. Als je op een seal drukt (niet doen!) zou de druk hoger kunnen oplopen. Andersom, als de drive in lage luchtdruk omgeving is geweest kan de druk afnemen. Denk ook aan vervoer per vliegtuig, daar heb je ook situaties met lage en hoge luchtdruk.
In dit geval zou het dat een hogere druk zijn. 75 kan 75 kPa of 750 millibar zijn, en 100 kPa is ongeveer de normale luchtdruk. Bij jou zie ik:
1
2
| 23 HE_Condition-1 0x0023 100 100 075 Pre-fail Always - 0 24 HE_Condition-2 0x0023 100 001 075 Pre-fail Always In_the_past 0 |
De eerste gaat over "Helium Condition Lower", en de tweede over "Helium Condition Upper".
Bij 24d staat bij jou worst op 001. Dat vind ik vreemd voor een SMART waarde die gaat over hoge druk. Hoe dan ook, het lijkt erop dat de druk op een bepaald moment te hoog is geweest. Het kan ook een sensorfout zijn.
[ Voor 3% gewijzigd door mrmrmr op 29-10-2024 09:59 ]
Ik zal ook eens kijken of de temperaturen verschillen, zou die (of een andere schijf-eigenschap substantieel anders moeten zijn als de heliumvullingstoestand anders dan zou moeten?
[ Voor 13% gewijzigd door begintmeta op 29-10-2024 20:33 ]
Kun je de drive uit de array halen en grondig testen? Ik gebruik meestal h2testw. Dat is een trage test, maar wel een bijna volledige. Het schrijft de schijf bijna vol en leest het terug. Dat is beter dan de quick tests die je bij veel andere tools ziet.
Druk en volume zijn gerelateerd aan temperatuur. Als druk of volume toenemen, stijgt de temperatuur en andersom.
pV = nRT
p = druk, V=volume, n aantal mol, R gasconstante, T=temperatuur.
Als helium is vervangen zou zijn door lucht verwacht ik meer wrijving, dus een hogere temperatuur. Ook de draaisnelheid zou hierdoor misschien kunnen teruglopen. Helium is zeer licht en veroorzaakt minder turbulentie dan lucht.
Of temperatuur- en snelheidverschillen meetbaar zijn weet ik niet.
Het zou theoretisch ook nog zo kunnen zijn dat helium kan ontsnappen zonder dat de veel grotere moleculen in lucht binnenkomen.
:strip_exif()/f/image/Vaw1ufbwe9SgPkZyVy3MaYZG.png?f=user_large)
Deze schijf word gebruikt om backups op te bewaren. Dat liep niet helemaal lekker meer, en bij het uitlezen van de SMART zie ik een aantal waarschuwingen. Is deze schijf nog bruikbaar/te fixen, of beter vervangen?
When life throws you a curve, lean into it and have faith!
:strip_exif()/f/image/oNfx4SuMhEFfWeFecVKno0ed.png?f=user_large)
Onveilige afsluiten is niet erg hoor, en verder lijk ik ook niets geks te zien voor een schijf van 2 jaar oud. Zien jullie hier iets geks/alarmerends?
When life throws you a curve, lean into it and have faith!
SSD: die is prima.
SSD:
:strip_exif()/f/image/iukreB5B1ie1K9zhqmQ85GOQ.png?f=user_large)
HDD:
:strip_exif()/f/image/gwQL9ihSUTj9HFENgg9NJRBn.png?f=user_large)
eHDD:
:strip_exif()/f/image/Strqs6sK2eS0WR1jsHZl03OU.png?f=user_large)
Alvast bedankt, en de beste wensen voor 2025
When life throws you a curve, lean into it and have faith!
In het middelste plaatje valt (ooit) 1 communicatiefout op (C7). Defecte SATA kabel?
En de onderste is in orde.
Ik zou me om geen van drieën zorgen maken en de middelste een nieuwe SATA kabel geven.
Ik heb de schijf zojuist gekloond naar een Crucial MX500 (500GB) die ik nog had uit een laptop met kapot scherm. Hieronder de SMART gegevens van beide schijven.
Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?
/f/image/hWZ0j7T8dK9uQbIA2reVmubj.png?f=fotoalbum_large)
De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.
Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.Spasm schreef op dinsdag 22 april 2025 @ 15:52:
Kan ik de NVME nog formatteren en voor niet-kritieke doeleinden gebruiken ? Of zeggen jullie wegsmijten dat ding ?
Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.
Ik ga het in de gaten houden, bedankt. Helaas kan ik de SATA kabel niet vervangen omdat het een HP EliteDesk 800 G4 Mini is. Deze heeft zo'n soort aansluiting die je in laptops ziet.Renault schreef op dinsdag 22 april 2025 @ 20:51:
De Hynics zou ik gewoon niet meer gebruiken, die geeft je (binnenkort) alleen maar onbetrouwbare ellende, zeker ook gezien de beperkte capaciteit zal dat hard gaan.
De Crucial ziet er goed uit, maar die heeft ooit ergens in in zijn leven communicatieproblemen gehad.
Als je C7 in de gaten houdt en dat getal loopt helemaal niet verder op, is er niets aan de hand.
Als de C7 waarde oploopt, gun je hem een nieuwe SATA kabel (of je doet dat sowieso).
Oke dankje. Toch gaf Windows een melding over die 4 %:Renault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Waarschijnlijk is een probleem in het bestandssysteem door problemen op de SSD de trigger geweest voor Windows om een warning af te geven.
Eigenlijk heb je dus gewoon geluk gehad, want zolang het bestandssysteem niets mankeert, zal het Windows worst zijn wat "een hardwarestatus in termen van versleten-indicatie" is.
Status station
Waarschuwing: betrouwbaarheid is verslechterdBack-ups maken van uw gegevens voor het geval dat er een storing of
fout is op het station
Geschatte resterende levensduur: 4%
Beschikbare reserve: 100%
Temperatuur: 29℃
Duidelijk, thanks.Admiral Freebee schreef op woensdag 23 april 2025 @ 08:57:
[...]
Je kan die Hynix SSD nog zeker gebruiken voor niet-kritieke doeleinden maar je moet wel accepteren dat de kans groter is geworden dat er problemen gaan komen. En zelfs voor niet-kritieke doeleinden kan dat vervelend zijn.
Die 4% is een voorspelling van de fabrikant. Wellicht is die gebaseerd op het aantal schrijfcycli van het NAND geheugen en de inschatting is dat de kans groter is dat het geheugen binnenkort gaat falen. Het wil niet zeggen dat het falen al gebeurd is.
Windows doet wel wat met SMART cijfers zodra de medium in een Warning/Critical staat is. Al sinds windows VistaRenault schreef op woensdag 23 april 2025 @ 08:21:
En over die 4%-waarschuwing: Windows doet normaal gesproken helemaal niets met SMART-cijfers.
Dat is m.i. goed nieuws!
https://www.tenforums.com...-status-windows-10-a.html
Ik heb onlangs een nieuwe Seagate Exos X24 20TB gekocht, aangesloten via een TerraMaster 2-bay DAS (USB-C) voor een Plex mediaserver.
De SMART-waarden zien er over het algemeen goed uit, maar ik zie een relatief hoge Seek Error Rate en Read Error Rate raw waarde, en ik wil graag jullie mening of dit zorgelijk is.
Hier zijn de SMART-gegevens:
Seagate Exos fraude?
[ Voor 24% gewijzigd door peter-rm op 02-06-2025 15:46 . Reden: aanvulling ]
Exos X24 hier: 46 POH, garantie tot 2030, Vooralsnog lijkt fraude bij X16/X20 te zitten.peter-rm schreef op maandag 2 juni 2025 @ 15:45:
een disk uit de seagate exos fraude?? hoewel de X24 series daar misschien te nieuw voor is
Seagate Exos fraude?
Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.
Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.
[ Voor 12% gewijzigd door mrmrmr op 02-06-2025 16:28 ]
Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?mrmrmr schreef op maandag 2 juni 2025 @ 16:23:
@Kakkerlak Voor Seagate is dit normaal. Zoals met andere waarden is dit waarschijnlijk een samenstelling van verschillende getallen.
Seagate heeft een tool waarmee je smart waarden kunt interpreteren voor hun eigen disks: Seatools.
Seagate gebruikt ook FARM, die is uitleesbaar met Smartctl.
Was al bezig om met SeaTools een uitgebreide scan te doen
https://web.archive.org/w...Seagate_SER_RRER_HEC.html
Aangezien fabrikanten zoals Seagate data samenstellen zoals ze willen en dat vaak niet publiceren is het onduidelijk wat de betekenis is. Bij deze SMART waarde zou het gaan om 48 bits, dat is 6 bytes. Dat geeft ruimte voor een getal tot ruim 218 biljoen.
Een laag getal kan simpelweg betekenen dat de eerste (linker) waarde nul is of dat er relatief weinig acties zijn geweest. Het geeft geen probleem aan. Andere SMART waarden geven daarvoor een betere indicatie en die staan bij jouw disk op nul. Ik zou me er geen zorgen over maken als FARM overeenkomt met SMART.
CrystalDiskInfo gaf niet het aantal host writes voor deze disk. Misschien moet je dit programma updaten zodat het deze disk herkent en uit het aantal LBA's kan afleiden over hoeveel gigabytes het gaat. Het kan ook zijn dat het getal nog te laag is.
Wat betreft het fraudeprobleem kun je FARM en SMART vergelijken zoals in de gegeven link.
Beide door jou genoemde waarden zijn zuiver statistiek en in de praktijk nietszeggend over de conditie van de disk.
Zou het dan verstandig zijn om de schijf met de meeste uren te clonen naar de andere ssd? Dit is namelijk de programma -schijf (hoewel ik daar wel een system-backup van heb gemaakt naar extern)...
:strip_exif()/f/image/Gap0iolgp4qTrGgaXWyqPbw2.jpg?f=fotoalbum_large)
[ Voor 3% gewijzigd door vweereld op 13-08-2025 20:40 ]
https://www.disktuna.com/...es-arent-always-bad-news/Kakkerlak schreef op maandag 2 juni 2025 @ 17:05:
[...]
Ok bedankt! Maar nog even voor de bevestiging die seek error rate is dus niet heel laag voor een nieuwe schijf?
Was al bezig om met SeaTools een uitgebreide scan te doen
Seek error rate is niet just that, het is een waarde die seeks + errors bij houdt.
Joep
Dat ziet er nog steeds prima uit, niets mis mee.vweereld schreef op woensdag 13 augustus 2025 @ 20:22:
En weer een jaar verder. Nog steeds draaien de WD Red hun rondjes 24/7. Dit al bijna 11 jaar lang non stop. Recent een stroomstoring in onze wijk gehad maar dat had geen invloed op de schijven. Bij het opstarten van de NAS gingen ze weer vrolijk verder. Maar zo stilletjes aan misschien toch maar eens gaan vervangen nu ze richting de 90.000 draaiuren gaan. Maar ja, dat roep ik nu al een paar jaar in augustus.Volgens mij zijn de SMART waardes nog steeds prima.
[Afbeelding]
[Afbeelding]
:strip_exif()/f/image/YP4s9m6XhYqcbvInbItRkn7Q.jpg?f=fotoalbum_large)
/f/image/yedH3sqwzR6Znw1YxXDPRZ0u.png?f=fotoalbum_large)
:strip_exif()/f/image/VGLOT4FWqzRGbS7vmAfczr4Q.jpg?f=fotoalbum_large)
/f/image/wFFQU4tghKvoPyHXKt8tx2M4.png?f=fotoalbum_large)
/f/image/O6kLr3auIfC0xJGkPlD5ELma.png?f=fotoalbum_large)