Vraag


Acties:
  • 0 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
Mijn servertje draait ubuntu (server) 20.04 op een ASRock C2750D4I. En dat gaat al enige jaren prima. Maar de laatste tijd is de snelheid er helemaal uit (ook met een lokale kopieer actie)

zpool status geeft niets raars:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
  pool: zfspool
 state: ONLINE
  scan: scrub repaired 0B in 1 days 15:27:51 with 0 errors on Mon Feb 14 18:27:53 2022
config:

        NAME                                         STATE     READ WRITE CKSUM
        zfspool                                      ONLINE       0     0     0
          raidz1-0                                   ONLINE       0     0     0
            ata-ST12000NM001G-2MV103_ZTN047ZA        ONLINE       0     0     0
            ata-ST12000NM001G-2MV103_ZTN04828        ONLINE       0     0     0
            ata-ST14000NM001G-2KJ103_ZTM04WM4-part3  ONLINE       0     0     0
            ata-ST12000NM001G-2MV103_ZLW27DRP        ONLINE       0     0     0
            ata-ST14000NM001G-2KJ103_ZL2B71DT        ONLINE       0     0     0
            ata-ST14000NM001G-2KJ103_ZLW1V8VD-part3  ONLINE       0     0     0


Wel zie ik met udevadm dit voorbij komen:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
KERNEL[300.142224] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[300.142291] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[300.142359] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
KERNEL[300.150536] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[300.150695] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
KERNEL[300.151866] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[300.151972] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[300.152056] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [300.205982] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
UDEV  [300.220156] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [300.226697] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [300.265061] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
UDEV  [300.279044] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
UDEV  [300.300177] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
UDEV  [300.340544] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [300.355562] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[301.908889] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[301.908959] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[301.909027] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [301.928055] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
UDEV  [301.941126] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [301.966431] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[301.987001] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[301.987184] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
KERNEL[301.990023] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[301.990290] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[301.990524] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [301.993959] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [302.004563] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
UDEV  [302.048218] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
UDEV  [302.062705] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [302.073410] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[303.735784] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[303.736165] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
KERNEL[303.737985] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[303.738055] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[303.738277] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
KERNEL[303.741433] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
KERNEL[303.741497] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
KERNEL[303.741599] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [303.749052] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [303.755212] remove   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
UDEV  [303.798703] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)
UDEV  [303.812925] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb9 (block)
UDEV  [303.836804] add      /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb/sdb1 (block)
UDEV  [303.857232] change   /devices/pci0000:00/0000:00:03.0/0000:02:00.0/0000:03:01.0/0000:04:00.0/ata8/host7/target7:0:0/7:0:0:0/block/sdb (block)


Maar de snelheid van bestanden verplaatsen wordt op het moment van de meldingen niet meer of minder.
Ik heb de set schijven al verplaatst naar een andere controller op het moederbord, maar dat maakt qua performance of meldingen geen verschil.

zfs-0.8.3-1ubuntu12.13
zfs-kmod-0.8.3-1ubuntu12.13
OS: Ubuntu 20.04.4 LTS x86_64
Kernel: 5.4.0-104-generic

M'n Oma is een site aan het haken.

Alle reacties


Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 23:05

Snow_King

Konijn is stoer!

Heb je al eens naar de SMART data van sdb gekeken?

Een half kapotte disk kan je ZFS pool erg langzaam maken

Acties:
  • 0 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   080   064   044    Pre-fail  Always       -       97912480
  3 Spin_Up_Time            0x0003   092   092   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       21
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   085   060   045    Pre-fail  Always       -       323233008
  9 Power_On_Hours          0x0032   092   092   000    Old_age   Always       -       7467
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       30
 18 Unknown_Attribute       0x000b   100   100   050    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   065   050   040    Old_age   Always       -       35 (Min/Max 33/35)
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       12
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       339
194 Temperature_Celsius     0x0022   035   042   000    Old_age   Always       -       35 (0 17 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0023   100   100   001    Pre-fail  Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       7431 (214 72 0)
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       32286604371
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       104330665857

M'n Oma is een site aan het haken.


Acties:
  • 0 Henk 'm!

  • Centauriprime
  • Registratie: Februari 2002
  • Laatst online: 11:36
Dat wordt een nieuwe ;)

15x330 SW38


Acties:
  • 0 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
Waarom? Ze hebben alle 6 ongeveer dezelfde data...

M'n Oma is een site aan het haken.


Acties:
  • 0 Henk 'm!

  • iCore
  • Registratie: November 2016
  • Laatst online: 22:00
NielsNL schreef op donderdag 10 maart 2022 @ 22:41:
[...]

Waarom? Ze hebben alle 6 ongeveer dezelfde data...
Type: Pre-fail (check je smart bericht)

Don't let perfect be the enemy of good.


Acties:
  • 0 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
iCore schreef op donderdag 10 maart 2022 @ 22:43:
[...]

Type: Pre-fail (check je smart bericht)
Ik ben ongeveer 100 van die smart copy-pastas tgengekomen ondertussen, maar dat staat er dus altijd, bij iedereen: https://superuser.com/que.../is-my-hard-drive-failing
En dit is de duidelijkste uitleg:
Each Attribute also has a Threshold value (whose range is 0 to 255) which is printed under the heading "THRESH". If the Normalized value is less than or equal to the Threshold value, then the Attribute is said to have failed. If the Attribute is a pre-failure Attribute, then disk failure is imminent.
iotop geeft [txg_sync] als grootste gebruiker.
evenals $cut -d" " -f 1,2,42 /proc/*/stat | sort -n -k +3

[ Voor 7% gewijzigd door NielsNL op 10-03-2022 22:59 ]

M'n Oma is een site aan het haken.


Acties:
  • +1 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 20:28
NielsNL schreef op donderdag 10 maart 2022 @ 22:56:
[...]

Ik ben ongeveer 100 van die smart copy-pastas tgengekomen ondertussen, maar dat staat er dus altijd, bij iedereen:
Klopt. De suggestie dat er iets met de disk aan de hand zou zijn slaat dan ook he-le-maal nergens op. De SMART data ziet er gewoon prima uit.

Die udevadm output zegt ook niet zoveel en van de korte tijdsspanne loop ik ook niet echt warm. Beter kun je een blik op de kernel logs werpen om te zien of de disk daadwerkelijk klappert: daar vind je dan meestal een stuk meer nuttige informatie.
iotop geeft [txg_sync] als grootste gebruiker.
Ja dat is logisch. Dat is de kernel thread die transaction groups uiteindelijk wegschrijft. Maar dat vertelt niet wáárom het traag is.

Gebruik eens iets als zpool iostat -vl 2 zodat je kunt achterhalen of er toevallig één disk is die uit de pas loopt qua performance. Zie ook de man page van iostat en zpool iostat.

Acties:
  • +1 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
De belangrijkste parameters van de SMART zijn deze, zodra deze allemaal op 0 staan zou ik me over de disks in eerste instantie geen zorgen maken.

Reallocated_Sector_Ct
UDMA_CRC_Error_Count
Current_Pending_Sector

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 18:36
Het kan aan mij liggen, maar ik zie toch echt in die smart tabel waarden staan dat die zeggen dat die disk op sterven na dood is.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
Ben(V) schreef op vrijdag 11 maart 2022 @ 16:21:
Het kan aan mij liggen, maar ik zie toch echt in die smart tabel waarden staan dat die zeggen dat die disk op sterven na dood is.
Each Attribute also has a Threshold value (whose range is 0 to 255) which is printed under the heading "THRESH". If the Normalized value is less than or equal to the Threshold value, then the Attribute is said to have failed.
Dus de schijf is nog prima. (alle 6 de schijven zijn nog maar een jaar oud)
Ik ga straks eens met een ander moederbord proberen.

zpool iostat -vl 2 dat is een hele handige, maar ik heb er nog geen bruikbare/duidelijke informatie uit kunnen halen. Alle schijven gedragen zich nagenoeg gelijk.

M'n Oma is een site aan het haken.


Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:42

Damic

Tijd voor Jasmijn thee

Deze waarden zijn wel heel hoog: Raw_Read_Error_Rate & Seek_Error_Rate

Maken dat je data op nieuwe schijven staat.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +3 Henk 'm!

  • BoAC
  • Registratie: Februari 2003
  • Laatst online: 31-05 20:16

BoAC

Memento mori

Ben(V) schreef op vrijdag 11 maart 2022 @ 16:21:
Het kan aan mij liggen, maar ik zie toch echt in die smart tabel waarden staan dat die zeggen dat die disk op sterven na dood is.
Als je dan ook aangeeft welke waardes je bedoelt, begrijpen wij het ook :)

Overigens gaat het om seagate schijven.. check deze over raw values: https://wiki.unraid.net/U...rts#1_Raw_Read_Error_Rate

[ Voor 18% gewijzigd door BoAC op 11-03-2022 17:38 ]


Acties:
  • +3 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 20:28
Damic schreef op vrijdag 11 maart 2022 @ 17:31:
Deze waarden zijn wel heel hoog: Raw_Read_Error_Rate & Seek_Error_Rate
Ja. En dat maakt helemaal niets uit, tot het tegendeel bewezen is. Er zijn maar een aantal SMART-attributen die cross-vendor een betrouwbare indicatie van disk- of linkproblemen zijn. De post van @rikadoo van dat redelijk samen.

Beetje veel misinformatie in dit topic. Zou goed zijn als er advies wordt gegeven op basis van feitelijke informatie, niet op basis van onderbuik of (erger) totale misinterpretatie van attributen.
BoAC schreef op vrijdag 11 maart 2022 @ 17:34:
Overigens gaat het om seagate schijven.. check deze over raw values: https://wiki.unraid.net/U...rts#1_Raw_Read_Error_Rate
Hoewel daar gelukkig staat dat je die waardes niet kunt vertrouwen, zou ik in het algemeen niet-primaire informatie over SMART-attributen met een flinke korrel zout nemen. De kans bestaat dat het in jouw specifieke diskmodel net iets anders werkt.

De enige betrouwbare bron van informatie over hoe SMART voor jouw disk werkt is te vinden bij de fabrikant. En die publiceren maar zeer zelden een volledige beschrijving in hun datasheets. De current/reallocated sector counts en checksums kun je altijd wel vertrouwen, maar dat is het dan ook wel.
NielsNL schreef op vrijdag 11 maart 2022 @ 17:12:
zpool iostat -vl 2 dat is een hele handige, maar ik heb er nog geen bruikbare/duidelijke informatie uit kunnen halen. Alle schijven gedragen zich nagenoeg gelijk.
Dat laatste is ook bruikbare informatie lijkt me. Suggereert dat er niet één schijf is die problemen heeft.

Kun je voor de volledigheid eens een sample daarvan posten terwijl je (sequentieel) een grote file wegschrijft? En de output van zpool list -v?

Controleer ook met iostat (de non-zfs versie) eens of je disks tijdens een kopieeractie in de buurt van 100% %util halen?

[ Voor 23% gewijzigd door Thralas op 11-03-2022 17:51 ]


Acties:
  • +1 Henk 'm!

  • NielsNL
  • Registratie: Januari 2002
  • Laatst online: 23-05 13:11
klein beetje schaamrood op de kaajes, ik dacht dat het iets minder erg was, maar te weinig vrije schuifruimte schijnt ook een dingetje te zijn...
code:
1
2
3
4
5
6
7
8
9
10
Filesystem      Size  Used Avail Use% Mounted on
udev            9.8G     0  9.8G   0% /dev
tmpfs           2.0G  3.5M  2.0G   1% /run
/dev/md0        1.8T  1.2T  580G  68% /
tmpfs           9.8G     0  9.8G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs           9.8G     0  9.8G   0% /sys/fs/cgroup
zfspool          51T   50T  908G  99% /zfspool
/dev/sda1       317M   16M  301M   6% /boot/efi
tmpfs           2.0G     0  2.0G   0% /run/user/1000

De files die ik sequentieel probeerde te lezen, waren recente files, die dus in alle gaatjes gepropt zijn.
Nog verder andere veranderingen lees ik oudere files wel normale snelheden...

Ik dacht dat er meer ruimte was:
code:
1
2
NAME      SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfspool  65.4T  62.2T  3.15T        -         -    15%    95%  1.00x    ONLINE  -

maar ZFS laat overal nèt wat anders zien...

[ Voor 13% gewijzigd door NielsNL op 11-03-2022 18:59 ]

M'n Oma is een site aan het haken.


Acties:
  • +1 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Damic schreef op vrijdag 11 maart 2022 @ 17:31:
Deze waarden zijn wel heel hoog: Raw_Read_Error_Rate & Seek_Error_Rate

Maken dat je data op nieuwe schijven staat.
Lees dit maar eens, hier staat het goed uitgelegd hoe deze waarde tot stand komt.

http://www.users.on.net/~...Seagate_SER_RRER_HEC.html

[ Voor 4% gewijzigd door rikadoo op 11-03-2022 20:27 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • BoAC
  • Registratie: Februari 2003
  • Laatst online: 31-05 20:16

BoAC

Memento mori

NielsNL schreef op vrijdag 11 maart 2022 @ 18:57:
klein beetje schaamrood op de kaajes, ik dacht dat het iets minder erg was, maar te weinig vrije schuifruimte schijnt ook een dingetje te zijn...
code:
1
2
3
4
5
6
7
8
9
10
Filesystem      Size  Used Avail Use% Mounted on
udev            9.8G     0  9.8G   0% /dev
tmpfs           2.0G  3.5M  2.0G   1% /run
/dev/md0        1.8T  1.2T  580G  68% /
tmpfs           9.8G     0  9.8G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs           9.8G     0  9.8G   0% /sys/fs/cgroup
zfspool          51T   50T  908G  99% /zfspool
/dev/sda1       317M   16M  301M   6% /boot/efi
tmpfs           2.0G     0  2.0G   0% /run/user/1000

De files die ik sequentieel probeerde te lezen, waren recente files, die dus in alle gaatjes gepropt zijn.
Nog verder andere veranderingen lees ik oudere files wel normale snelheden...

Ik dacht dat er meer ruimte was:
code:
1
2
NAME      SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfspool  65.4T  62.2T  3.15T        -         -    15%    95%  1.00x    ONLINE  -

maar ZFS laat overal nèt wat anders zien...
Nou, da's inderdaad een dingetje (met de meeste filesystems trouwens) blijkbaar is het aan te raden om minimaal 85%15% :X 8)7 vrije ruimte te houden: https://serverfault.com/q...n-a-pool-or-a-file-system :)

Acties:
  • +1 Henk 'm!

  • M2M
  • Registratie: Juli 2006
  • Laatst online: 23:18

M2M

medicijnman

BoAC schreef op vrijdag 11 maart 2022 @ 20:53:
[...]

Nou, da's inderdaad een dingetje (met de meeste filesystems trouwens) blijkbaar is het aan te raden om minimaal 85% vrije ruimte te houden: https://serverfault.com/q...n-a-pool-or-a-file-system :)
15% vrije ruimte :)

-_-

Pagina: 1