code:
. Misschien zie je dan welke file die checksum error heeft.
1
| zpool status data -v |
1
| zpool status data -v |
Ja, die zie ik, maar dat lost het issue van de migratie van de data niet op natuurlijk, vandaar dat ik dat stukje weggelaten heb. Het punt is namelijk dat de faulted disk, precies de disk is die ik vervangen heb voor een 14TB disk, maar desondanks alsnog als faulted in de lijst terug komt.willemw12 schreef op maandag 12 juli 2021 @ 18:14:
code:. Misschien zie je dan welke file die checksum error heeft.
1 zpool status data -v
pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: scrub canceled on Mon Jul 12 18:46:15 2021 config: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 sdd ONLINE 0 0 2 sdc ONLINE 0 0 2 13984520045058853556 FAULTED 0 0 0 was /dev/sde1 sdb ONLINE 0 0 2 raidz1-1 ONLINE 0 0 0 sdh ONLINE 0 0 0 sdg ONLINE 0 0 0 sdi ONLINE 0 0 0 sdf ONLINE 0 0 0 errors: No known data errors
sda 8:0 0 100G 0 disk ├─sda1 8:1 0 98G 0 part / └─sda2 8:2 0 2G 0 part sdb 8:16 0 1.8T 0 disk ├─sdb1 8:17 0 1.8T 0 part └─sdb9 8:25 0 8M 0 part sdc 8:32 0 12.8T 0 disk ├─sdc1 8:33 0 12.8T 0 part └─sdc9 8:41 0 8M 0 part sdd 8:48 0 1.8T 0 disk ├─sdd1 8:49 0 1.8T 0 part └─sdd9 8:57 0 8M 0 part sde 8:64 0 1.8T 0 disk ├─sde1 8:65 0 1.8T 0 part └─sde9 8:73 0 8M 0 part sdf 8:80 0 3.7T 0 disk ├─sdf1 8:81 0 3.7T 0 part └─sdf9 8:89 0 8M 0 part sdg 8:96 0 3.7T 0 disk ├─sdg1 8:97 0 3.7T 0 part └─sdg9 8:105 0 8M 0 part sdh 8:112 0 3.7T 0 disk ├─sdh1 8:113 0 3.7T 0 part └─sdh9 8:121 0 8M 0 part sdi 8:128 0 3.7T 0 disk ├─sdi1 8:129 0 3.7T 0 part └─sdi9 8:137 0 8M 0 part sr0 11:0 1 1024M 0 rom
[ Voor 111% gewijzigd door CH4OS op 12-07-2021 18:53 ]
Volgens mij is dat niet echt meer de issue, de file die permanent error had, is immers weg? Dat de teller nu op 2 staat, komt denk ik omdat ik de file heb proberen te verplaatsen naar mijn desktop, wat niet lukte. Aangezien het ook geen belangrijk bestand is (alle data die er op staat is niet heel super belangrijk zoals bijvoorbeeld een CV) heb ik de file verwijderd, komt vast wel een keer terug, zeg maar.willemw12 schreef op maandag 12 juli 2021 @ 18:53:
Met "zpool clear data" kan je in de meeste gevallen die checksums weer op 0 zetten. Weet niet of dat hier ook kan.
[ Voor 42% gewijzigd door CH4OS op 12-07-2021 18:56 ]
[ Voor 33% gewijzigd door CH4OS op 12-07-2021 19:08 ]
@CH4OS Even tussendoor een vraagje hierover: is dat dan al zo'n disk die je uit een WD Elements hebt geplukt?CH4OS schreef op maandag 12 juli 2021 @ 18:05:
SDC is trouwens in dit overzicht de eerste disk van 14TB.
Het SMR verhaal speelt voor disks van 2TB-6TB, alles daarboven is altijd CMR geweest.Ravefiend schreef op maandag 12 juli 2021 @ 19:27:
[...]
@CH4OS Even tussendoor een vraagje hierover: is dat dan al zo'n disk die je uit een WD Elements hebt geplukt?If so, welk type/model hard disk steekt WD er tegenwoordig in? (CMR versus SMR enzo).
[ Voor 18% gewijzigd door CH4OS op 12-07-2021 19:31 ]
Ravefiend schreef op maandag 12 juli 2021 @ 19:27:
[...]
@CH4OS Even tussendoor een vraagje hierover: is dat dan al zo'n disk die je uit een WD Elements hebt geplukt?If so, welk type/model hard disk steekt WD er tegenwoordig in? (CMR versus SMR enzo).
[ Voor 33% gewijzigd door HyperBart op 12-07-2021 19:47 ]
Ik heb vier EDFZ, die staan niet in de afbeelding, maar zijn helium gevuld met CMR.HyperBart schreef op maandag 12 juli 2021 @ 19:38:
[...]
[Afbeelding]
In die Elements zitten EDAZ'en, althans dat was bij mijn 6 exemplaren van de 12TB variant zo.
[ Voor 18% gewijzigd door CH4OS op 12-07-2021 19:51 ]
WD lijkt voornamelijk erin te stoppen waar ze zin in hebben. Zo waren vroeger de 8TB modellen met helium, maar de nieuwere zouden dat weer niet zijn. En er is idd EDAZ, maar ook EMAZ en nog wat varianten en dat kan ook gewoon verschillen tussen batches. An zich ook niet heel gek, immers is de voornaamste spec van een externe schijf de grote. Je gaat geen externe schijf uitzoeken op of die helium of lucht gevuld is etc etc. Wat WD dus ook nog eens probeert te manipuleren door niet altijd specificaties te benoemen maar te spreken over "prestaties gelijkwaardig aan", waarbij het stiekeme SMR verhaal een mooi voorbeeld is. Want volgens WD zijn de prestaties gelijk aan het type apparaat dat ze benoemen. Oftewel: de SMR schijven voldoen aan "5400 rpm class schijven voor bv gebruik in een NAS".HyperBart schreef op maandag 12 juli 2021 @ 19:38:
[...]
[Afbeelding]
In die Elements zitten EDAZ'en, althans dat was bij mijn 6 exemplaren van de 12TB variant zo.
Sinds de 2 dagen regel reageer ik hier niet meer
pool: data id: 1681985799723901396 state: DEGRADED status: One or more devices contains corrupted data. action: The pool can be imported despite missing or damaged devices. The fault tolerance of the pool may be compromised if imported. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J config: data DEGRADED raidz1-0 DEGRADED sdd ONLINE sdc FAULTED corrupted data sdc ONLINE sdb ONLINE raidz1-1 ONLINE sdh ONLINE sdg ONLINE sdi ONLINE sdf ONLINE
[ Voor 4% gewijzigd door CH4OS op 12-07-2021 20:02 ]
Werp nog even een blik op je kernel logs en/of SMART. Een checksum error op drie verschillende disks suggereert dat het niet aan de disks ligt, maar iets anders aan de hand is (bv. ALPM). Nuttig om in ieder geval te kijken hoe dat er op kernel-niveau uitzag.CH4OS schreef op maandag 12 juli 2021 @ 18:28:
Middels een scrubbing is die error in elk geval nu weg
Ho ho, je hebt labels en labels.HyperBart schreef op maandag 12 juli 2021 @ 19:38:
Als je kijkt naar je lsblk dan zie je ook dat er "een" device is wat thans een label draagt wat normaal gebruikt zou moeten worden maar waar ZFS van zegt dat er iets niet klopt. @FireDrunk is heel wat wijzer over dat soort dingen, ik werk al jaren dankzij zijn tips op basis van labels ipv die sdX naamgeving.
Wat bedoel je nu precies? Hoort die sdc nu de 14TB of de 2TB te zijn voor je zfs pool? Punt is dat je met een van die 2 schijven een redundante pool moet hebben. Anders gaan er andere dingen mis die je eerst moet fixen.CH4OS schreef op maandag 12 juli 2021 @ 20:01:
SDC was in elk geval tijdens mijn eerste poging van de migratie de 14TB disk.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb nu de oude situatie weer hersteld en alle 14TB disks zijn er dus weer uit. Gisteren heb ik de eerste disk gemigreerd, toen heb ik SDE (die op degraded stond en missing op de status die ik vanavond gaf) laten vervangen voor SDC. Nu mist de pool dus SDC en staat de disk daardoor dus op degraded.CurlyMo schreef op maandag 12 juli 2021 @ 20:06:
Wat bedoel je nu precies? Hoort die sdc nu de 14TB of de 2TB te zijn voor je zfs pool? Punt is dat je met een van die 2 schijven een redundante pool moet hebben. Anders gaan er andere dingen mis die je eerst moet fixen.
[ Voor 4% gewijzigd door CH4OS op 12-07-2021 20:10 ]
Ok, ik bedoelde identifiers en labels inderdaad ja, maar het was duidelijkThralas schreef op maandag 12 juli 2021 @ 20:03:
[...]
Werp nog even een blik op je kernel logs en/of SMART. Een checksum error op drie verschillende disks suggereert dat het niet aan de disks ligt, maar iets anders aan de hand is (bv. ALPM). Nuttig om in ieder geval te kijken hoe dat er op kernel-niveau uitzag.
Begrijp dat je nu al met een 'veiligere' replace aan de slag probeert te gaan (voor zover mogelijk), maar als dat niet mogelijk is dan zou ik erg voorzichtig zijn als je weet dat er onverklaarbare checksum errors optreden (dat zou immers een unrecoverable error op kunnen leveren zolang je pool degraded is.
[...]
Ho ho, je hebt labels en labels.
Een label in zfs context is metadata die de disk en/of pool beschrijft. Te zien met zdb -l. Jij bedoelt GPT partitielabels, dat is iets anders..
Twee dingen:CH4OS schreef op maandag 12 juli 2021 @ 20:09:
[...]
Ik heb nu de oude situatie weer hersteld en alle 14TB disks zijn er dus weer uit. Gisteren heb ik de eerste disk gemigreerd, toen heb ik SDE (die op degraded stond) laten vervangen voor SDC. Nu mist de pool dus SDC en staat de disk daardoor dus op degraded.
Ik begrin bijna het idee te krijgen dat ik alles beter gewoon wegflikker wat er op staat (zoveel belangrijks staat er toch niet op) en dat ik dan twee nieuwe vdev's aanmaak.
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 14% gewijzigd door willemw12 op 12-07-2021 20:20 ]
Ik ben nu dus de disks stuk voor stuk aan het toevoegen (nadat ik een zpool export heb gedaan) met by-partuuid, onder uuid heb ik deze disks niet staan.willemw12 schreef op maandag 12 juli 2021 @ 20:14:
Dat met die /dev/sdX opmerking, dat was ik die ermee begon.
Dit is een goede les. Kan net zo goed doorgaan.
Doe een "zpool export data" daarna een "zpool import -d /dev/disk/by-label" o.i.d. voor de duidelijkheid (zpool status).
ZFS gebruikt zelf ook nog interne UUIDs voor disks als extra check.
True that, maar aan de andere kant, gezien mijn postgeschiedenis hier in het topic, lijk ik of hardleers, of blijft het toch niet plakken.HyperBart schreef op maandag 12 juli 2021 @ 20:16:
Ja, duw nu even door @CH4OS , altijd leerrijk en liever nu met alle mogelijkheden dan dat het de volgende keer mis gaat.
Hier de laatste tabel, /r/datahoarder op Reddit is een schat van informatie:
[Afbeelding]
[ Voor 42% gewijzigd door CH4OS op 12-07-2021 20:25 ]
Ik heb nu disk voor disk geimporteerd, middels zpool import -d /dev/disk/by-partuuid/[uuid], zoals je zelf eerder al aangaf.willemw12 schreef op maandag 12 juli 2021 @ 20:25:
Stuk voor stuk? Zpool import is in 1 stap. Of doe je wat anders?
[ Voor 5% gewijzigd door CH4OS op 12-07-2021 20:26 ]
Doe eens gewoonCH4OS schreef op maandag 12 juli 2021 @ 20:26:
[...]
Ik heb nu disk voor disk geimporteerd, middels zpool import -d /dev/disk/by-partuuid/[uuid], zoals je zelf eerder al aangaf.
[ Voor 15% gewijzigd door HyperBart op 12-07-2021 20:30 ]
Dit is echt niet te volgen. Doe maar even letterlijk wat @HyperBart zegt en daarna nog een zpool status hier plaatsen.CH4OS schreef op maandag 12 juli 2021 @ 20:23:
[...]
Ik ben nu dus de disks stuk voor stuk aan het toevoegen (nadat ik een zpool export heb gedaan) met by-partuuid, onder uuid heb ik deze disks niet staan.
De disk die nu als sde1 bekend staat, kan ik nu althans niet importeren in de pool. Dit komt naar ik aanneem, omdat de 14TB daar zojuist op zat.
Sinds de 2 dagen regel reageer ik hier niet meer
HyperBart schreef op maandag 12 juli 2021 @ 20:28:
[...]
Doe eens gewoon
zpool import -d /dev/disk/by-partuuid/ data
root@VM-DOCKER:~# zpool import -d /dev/disk/by-partuuid/ data root@VM-DOCKER:~# zpool status pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: scrub canceled on Mon Jul 12 18:46:15 2021 config: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 4b3ee5a3-b004-a84c-afbe-cb15678a3292 ONLINE 0 0 0 17842497405783188795 FAULTED 0 0 0 was /dev/sdc1 80113319-440a-eb44-bfcc-a0e3fb8767d0 ONLINE 0 0 0 ad6b142d-80c9-784f-b89a-0df10587c30e ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 781dca8d-aeb8-5c4b-a0dd-3196b1e83f8e ONLINE 0 0 0 fa725f27-5cf5-4942-ba0a-fff2de2f7fb2 ONLINE 0 0 0 d9b5ed5f-fbf8-7749-85c2-3d8074738d52 ONLINE 0 0 0 d78c3107-2ee8-9d46-8857-b21df9f4d9de ONLINE 0 0 0 errors: No known data errors
Ja, dat vermoedde ik al, zie hierboven.CurlyMo schreef op maandag 12 juli 2021 @ 20:29:
[...]
Dit is echt niet te volgen. Doe maar even letterlijk wat @HyperBart zegt en daarna nog een zpool status hier plaatsen.
Ik heb wel even enkel de broodnodige info gegeven (lijst was langer):HyperBart schreef op maandag 12 juli 2021 @ 20:31:
Ok en nu nog een mapping van je schijven en die id's tesamen met een lijstje van je huidig fysiek aangesloten disks en we zijn al wat dichter.
4b3ee5a3-b004-a84c-afbe-cb15678a3292 -> ../../sdd1 781dca8d-aeb8-5c4b-a0dd-3196b1e83f8e -> ../../sdh1 80113319-440a-eb44-bfcc-a0e3fb8767d0 -> ../../sdc1 ad6b142d-80c9-784f-b89a-0df10587c30e -> ../../sdb1 d78c3107-2ee8-9d46-8857-b21df9f4d9de -> ../../sdf1 d9b5ed5f-fbf8-7749-85c2-3d8074738d52 -> ../../sdi1 f10af815-9e75-1149-84ab-57c5d53939e4 -> ../../sde1 fa725f27-5cf5-4942-ba0a-fff2de2f7fb2 -> ../../sdg1
Doe maar even zo:CH4OS schreef op maandag 12 juli 2021 @ 20:34:
[...]
Ik heb wel even enkel de broodnodige info gegeven (lijst was langer)
lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}'
Sinds de 2 dagen regel reageer ik hier niet meer
CurlyMo schreef op maandag 12 juli 2021 @ 20:35:
[...]
Doe maar even zo:
lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}'
https://unix.stackexchange.com/a/502674
root@VM-DOCKER:~# lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}' NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT DEVICE-ID(S) sda 8:0 0 100G 0 disk sda1 8:1 0 98G 0 part / sda2 8:2 0 2G 0 part sdb 8:16 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee20d8a0437 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 sdb1 8:17 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee20d8a0437-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part1 sdb9 8:25 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee20d8a0437-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part9 sdc 8:32 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee2b83503a8 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H sdc1 8:33 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b83503a8-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H-part1 sdc9 8:41 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b83503a8-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H-part9 sdd 8:48 0 1.8T 0 disk /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC /dev/disk/by-id/wwn-0x50014ee2b83461cf sdd1 8:49 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b83461cf-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part1 sdd9 8:57 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b83461cf-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part9 sde 8:64 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee2b834f65d /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE sde1 8:65 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b834f65d-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part1 sde9 8:73 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b834f65d-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part9 sdf 8:80 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2640c673d /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 sdf1 8:81 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2640c673d-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part1 sdf9 8:89 0 8M 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part9 /dev/disk/by-id/wwn-0x50014ee2640c673d-part9 sdg 8:96 0 3.7T 0 disk /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD /dev/disk/by-id/wwn-0x50014ee2b95eb52e sdg1 8:97 0 3.7T 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part1 /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part1 sdg9 8:105 0 8M 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part9 /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part9 sdh 8:112 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2b964b755 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 sdh1 8:113 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2b964b755-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part1 sdh9 8:121 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b964b755-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part9 sdi 8:128 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2113d18a8 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C sdi1 8:129 0 3.7T 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part1 /dev/disk/by-id/wwn-0x50014ee2113d18a8-part1 sdi9 8:137 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2113d18a8-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part9 sr0 11:0 1 1024M 0 rom /dev/disk/by-id/ata-VMware_Virtual_SATA_CDRW_Drive_00000000000000000001
Leuke denkwijze maar neen. Je mist een stukje van kennis over ZFS manier van werken (da's niet erg, maar dat moeten we wel even recht zetten)/CH4OS schreef op maandag 12 juli 2021 @ 20:40:
[...]
root@VM-DOCKER:~# lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}' NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT DEVICE-ID(S) sda 8:0 0 100G 0 disk sda1 8:1 0 98G 0 part / sda2 8:2 0 2G 0 part sdb 8:16 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee20d8a0437 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 sdb1 8:17 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee20d8a0437-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part1 sdb9 8:25 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee20d8a0437-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part9 sdc 8:32 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee2b83503a8 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H sdc1 8:33 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b83503a8-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H-part1 sdc9 8:41 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b83503a8-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H-part9 sdd 8:48 0 1.8T 0 disk /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC /dev/disk/by-id/wwn-0x50014ee2b83461cf sdd1 8:49 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b83461cf-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part1 sdd9 8:57 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b83461cf-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part9 sde 8:64 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee2b834f65d /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE sde1 8:65 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b834f65d-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part1 sde9 8:73 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b834f65d-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part9 sdf 8:80 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2640c673d /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 sdf1 8:81 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2640c673d-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part1 sdf9 8:89 0 8M 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part9 /dev/disk/by-id/wwn-0x50014ee2640c673d-part9 sdg 8:96 0 3.7T 0 disk /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD /dev/disk/by-id/wwn-0x50014ee2b95eb52e sdg1 8:97 0 3.7T 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part1 /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part1 sdg9 8:105 0 8M 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part9 /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part9 sdh 8:112 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2b964b755 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 sdh1 8:113 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2b964b755-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part1 sdh9 8:121 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b964b755-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part9 sdi 8:128 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2113d18a8 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C sdi1 8:129 0 3.7T 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part1 /dev/disk/by-id/wwn-0x50014ee2113d18a8-part1 sdi9 8:137 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2113d18a8-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part9 sr0 11:0 1 1024M 0 rom /dev/disk/by-id/ata-VMware_Virtual_SATA_CDRW_Drive_00000000000000000001
Kan ik trouwens niet gewoon de vdev met de 4 4Tb disks niet loshalen voor de timebeing, of is die vdev ook nodig? Als die vdev namelijk niet nodig is, heb ik de SATA kabel morgen ook niet nodig en kan ik nu toch al de data migreren?
Ik zou by-id gebruiken voor het importeren. Dan zie je tenminste een disk model en serienummer (als het goed is) in plaats van een nietszeggend partitie-uuid...CH4OS schreef op maandag 12 juli 2021 @ 20:23:
Ik ben nu dus de disks stuk voor stuk aan het toevoegen (nadat ik een zpool export heb gedaan) met by-partuuid, onder uuid heb ik deze disks niet staan.
CurlyMo schreef op maandag 12 juli 2021 @ 20:43:
[...]
Dan wijk ik toch even van @HyperBart af. Kan je dit doen i.p.v. wat hij voorstelde:
zpool import -d /dev/disk/by-id/ data
En vanzelfsprekend weer de zpool status plaatsen.
root@VM-DOCKER:~# zpool import -d /dev/disk/by-id/ data root@VM-DOCKER:~# zpool status pool: data state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A scan: resilvered 14.9M in 00:04:03 with 1 errors on Mon Jul 12 20:33:52 2021 config: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 17842497405783188795 FAULTED 0 0 0 was /dev/sdc1 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0 errors: 1 data errors, use '-v' for a list
errors: Permanent errors have been detected in the following files: data:<0x0>
Na de import besefte ik inderdaad dat ik ergens uuid heb gecopypaste. By Id had dat moeten zijn.CurlyMo schreef op maandag 12 juli 2021 @ 20:43:
[...]
Dan wijk ik toch even van @HyperBart af. Kan je dit doen i.p.v. wat hij voorstelde:
zpool import -d /dev/disk/by-id/ data
En vanzelfsprekend weer de zpool status plaatsen.
1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 wwn-0x50014ee20d8a0437 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H wwn-0x50014ee2b83503a8 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC wwn-0x50014ee2b83461cf 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE wwn-0x50014ee2b834f65d 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 wwn-0x50014ee2640c673d 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD wwn-0x50014ee2b95eb52e 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 wwn-0x50014ee2b964b755 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C wwn-0x50014ee2113d18a8
Sinds de 2 dagen regel reageer ik hier niet meer
Ook niet handig. Nu pakt hij wwns in plaats van ata-*.CH4OS schreef op maandag 12 juli 2021 @ 20:45:
wwn-0x50014ee2640c673d ONLINE 0 0 0
mv /dev/disk/by-id/wwn* /tmp/ zpool import -d /dev/disk/by-id/ data mv /tmp/wwn* /dev/disk/by-id/
En wat gaat dit precies doen dan?Thralas schreef op maandag 12 juli 2021 @ 20:55:
[...]
Ook niet handig. Nu pakt hij wwns in plaats van ata-*.
mv /dev/disk/by-id/wwn* /tmp/ zpool import -d /dev/disk/by-id/ data mv /tmp/wwn* /dev/disk/by-id/
Dan hoef je ook niet te klooien met het bijhouden van tabelletjes.
Die zorgt ervoor dat in mijn lijstje je alleen de eerste ID's krijgt i.p.v. de tweede.CH4OS schreef op maandag 12 juli 2021 @ 21:07:
[...]
En wat gaat dit precies doen dan?Krijg ik er nieuwe IDs door of zo?
Sinds de 2 dagen regel reageer ik hier niet meer
Check
Sinds de 2 dagen regel reageer ik hier niet meer
Yep. Dan hebben we een compleet overzicht.CH4OS schreef op maandag 12 juli 2021 @ 21:12:
Ik moet nog wel de 14TB even in de machine doen en daarna weer rebooten. Lijkt me dat ik het beste dat als laatste kan doen dan?
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 99% gewijzigd door Thralas op 12-07-2021 21:14 ]
root@VM-DOCKER:~# lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}' NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT DEVICE-ID(S) sdb 8:16 0 1.8T 0 disk /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 /dev/disk/by-id/wwn-0x50014ee20d8a0437 sdb1 8:17 0 1.8T 0 part /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part1 /dev/disk/by-id/wwn-0x50014ee20d8a0437-part1 sdb9 8:25 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee20d8a0437-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part9 sdc 8:32 0 12.8T 0 disk /dev/disk/by-id/ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H /dev/disk/by-id/wwn-0x5000cca299c2529a sdc1 8:33 0 12.8T 0 part /dev/disk/by-id/wwn-0x5000cca299c2529a-part1 /dev/disk/by-id/ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H-part1 sdc9 8:41 0 8M 0 part /dev/disk/by-id/ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H-part9 /dev/disk/by-id/wwn-0x5000cca299c2529a-part9 sdd 8:48 0 1.8T 0 disk /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC /dev/disk/by-id/wwn-0x50014ee2b83461cf sdd1 8:49 0 1.8T 0 part /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part1 /dev/disk/by-id/wwn-0x50014ee2b83461cf-part1 sdd9 8:57 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b83461cf-part9 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part9 sde 8:64 0 1.8T 0 disk /dev/disk/by-id/wwn-0x50014ee2b834f65d /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE sde1 8:65 0 1.8T 0 part /dev/disk/by-id/wwn-0x50014ee2b834f65d-part1 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part1 sde9 8:73 0 8M 0 part /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE-part9 /dev/disk/by-id/wwn-0x50014ee2b834f65d-part9 sdf 8:80 0 3.7T 0 disk /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 /dev/disk/by-id/wwn-0x50014ee2640c673d sdf1 8:81 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2640c673d-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part1 sdf9 8:89 0 8M 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1-part9 /dev/disk/by-id/wwn-0x50014ee2640c673d-part9 sdg 8:96 0 3.7T 0 disk /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD /dev/disk/by-id/wwn-0x50014ee2b95eb52e sdg1 8:97 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part1 sdg9 8:105 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b95eb52e-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part9 sdh 8:112 0 3.7T 0 disk /dev/disk/by-id/wwn-0x50014ee2b964b755 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 sdh1 8:113 0 3.7T 0 part /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part1 /dev/disk/by-id/wwn-0x50014ee2b964b755-part1 sdh9 8:121 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2b964b755-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part9 sdi 8:128 0 3.7T 0 disk /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C /dev/disk/by-id/wwn-0x50014ee2113d18a8 sdi1 8:129 0 3.7T 0 part /dev/disk/by-id/wwn-0x50014ee2113d18a8-part1 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part1 sdi9 8:137 0 8M 0 part /dev/disk/by-id/wwn-0x50014ee2113d18a8-part9 /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part9 sr0 11:0 1 1024M 0 rom /dev/disk/by-id/ata-VMware_Virtual_SATA_CDRW_Drive_00000000000000000001
root@VM-DOCKER:~# zpool status pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: resilvered 3.91M in 00:00:03 with 0 errors on Mon Jul 12 21:31:00 2021 config: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 sdc ONLINE 0 0 1 13984520045058853556 UNAVAIL 0 0 0 was /dev/disk/by-id/wwn-0x50014ee2b83503a8-part1 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0 errors: No known data errors
Ik ga nu de 2TB disk terug doen, daarna ga ik dit doen.Thralas schreef op maandag 12 juli 2021 @ 20:55:
[...]
Ook niet handig. Nu pakt hij wwns in plaats van ata-*.
mv /dev/disk/by-id/wwn* /tmp/ zpool import -d /dev/disk/by-id/ data mv /tmp/wwn* /dev/disk/by-id/
Dan hoef je ook niet te klooien met het bijhouden van tabelletjes.
[ Voor 3% gewijzigd door CH4OS op 12-07-2021 21:40 ]
De 14TB is nu dus blijkbaar sdc.CH4OS schreef op maandag 12 juli 2021 @ 21:37:
En nu met 14TB disk:
Sinds de 2 dagen regel reageer ik hier niet meer
Ja, wat ik de hele tijd al zei.
Ik heb nu de 14TB disk er weer uitgehaald. Of ik de oude 2TB terug doe, of de 14TB, maakt dus niet meer uit, in beide gevallen heb ik een degraded state van de pool. Met de oude 2TB terug, ziet het wel het beste eruit.Nu alleen nog even wwn-0x50014ee2b83503a8 (WCC4M3VXYT5H) terug doen en wwn-0x50014ee2b834f65d (WCC4M2UASUUE) weglaten.
Dan moet je pool weer werken.
Ben al blij dat ik het eruit krijg, lol.Zou dan nog mooi zijn als je wat minder eigenwijs zou zijn zodat ik dit niet alsnog hoeft te vragen
- Ik vroeg je mijn lijstje bij te werken met de 14TB.
Ja, ik zei dat ik dat zou doen als de oude disks weer terug zijn, die zijn dat nu, dus kan ik de juiste ID's toekennen.- Je hebt weer een zpool status met sdc i.p.v. ata-*, dus weer even een export / import doen met de juiste parameters.
[ Voor 5% gewijzigd door CH4OS op 12-07-2021 22:02 ]
Dat brengt je pool alleen niet online. Je moet gewoon letterlijk doen wat ik zeg. Voordeel van de ID's is dat je die als het goed is ook fysiek op je schijven kan zien. Dus kijk daar even naar en plaats de juiste schijven in je systeem.CH4OS schreef op maandag 12 juli 2021 @ 22:01:
[...]
Ik heb nu de 14TB disk er weer uitgehaald. Of ik de oude 2TB terug doe, of de 14TB, maakt dus niet meer uit, in beide gevallen heb ik een degraded state van de pool. Met de oude 2TB terug, ziet het wel het beste eruit.
[ Voor 4% gewijzigd door CurlyMo op 12-07-2021 22:04 ]
Sinds de 2 dagen regel reageer ik hier niet meer
1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 wwn-0x50014ee20d8a0437 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H wwn-0x50014ee2b83503a8 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC wwn-0x50014ee2b83461cf 1.8T ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2UASUUE wwn-0x50014ee2b834f65d 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 wwn-0x50014ee2640c673d 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD wwn-0x50014ee2b95eb52e 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 wwn-0x50014ee2b964b755 3.7T ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C wwn-0x50014ee2113d18a8 12.8T ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H wwn-0x5000cca299c2529a
Ik kan inderdaad niet heksen of toveren, sorry.CurlyMo schreef op maandag 12 juli 2021 @ 22:03:
Ook zie ik nog steeds het bijgewerkte lijstje niet.
[ Voor 28% gewijzigd door CH4OS op 12-07-2021 22:15 ]
Dit is hoe je werkende pool er nu uit zou moeten zien:CH4OS schreef op maandag 12 juli 2021 @ 22:04:
Ik begrijp ook niet waarom ik de ene 2TB weg moet laten en een andere van 2TB erin moet doen? Dan start ik op met drie disks in deze vdev, klopt dat?
data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 wwn-0x5000cca299c2529a ONLINE 0 0 0 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 wwn-0x50014ee2113d18a8 ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0
Sinds de 2 dagen regel reageer ik hier niet meer
Dan moet de 14TB dus wel terug in de PC. Oke, dan ga ik dat doen, maar ook dan is de vdev dus degraded.CurlyMo schreef op maandag 12 juli 2021 @ 22:15:
[...]
Dit is hoe je werkende pool er nu uit zou moeten zien:
data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 wwn-0x5000cca299c2529a ONLINE 0 0 0 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 wwn-0x50014ee2113d18a8 ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0
Dat komt omdat je niet de juiste 2TB's erbij zet. Vergelijk mijn overzicht maar met de jouwe.CH4OS schreef op maandag 12 juli 2021 @ 22:17:
[...]
Dan moet de 14TB dus wel terug in de PC. Oke, dan ga ik dat doen, maar ook dan is de vdev dus degraded.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb steeds dezelfde verwisseld? Maar goed, dubbelchecken kan geen kwaad natuurlijk.CurlyMo schreef op maandag 12 juli 2021 @ 22:18:
Dat komt omdat je niet de juiste 2TB's erbij zet. Vergelijk mijn overzicht maar met de jouwe.
[ Voor 10% gewijzigd door CH4OS op 12-07-2021 22:19 ]
Dat zei ik hier dus al:CH4OS schreef op maandag 12 juli 2021 @ 22:18:
[...]
Ik heb steeds dezelfde verwisseld? Maar goed, dubbelchecken kan geen kwaad natuurlijk.
Hier lijkt het telkens mis te gaan. Tenminste aan de hand van je output te zien.Nu alleen nog even wwn-0x50014ee2b83503a8 (WCC4M3VXYT5H) terug doen en wwn-0x50014ee2b834f65d (WCC4M2UASUUE) weglaten.
[ Voor 3% gewijzigd door CurlyMo op 12-07-2021 22:26 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Sorry dat ik deze post weer quote, maar de disks zitten nu op de opgegeven wijze in de machine. Die boot nu. Ik post zometeen even weer een nieuwe zpool status.CurlyMo schreef op maandag 12 juli 2021 @ 22:15:
[...]
Dit is hoe je werkende pool er nu uit zou moeten zien:
data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 wwn-0x5000cca299c2529a ONLINE 0 0 0 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 wwn-0x50014ee2113d18a8 ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0
root@VM-DOCKER:~# zpool status pool: data state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: resilvered 524K in 00:00:01 with 0 errors on Mon Jul 12 21:48:28 2021 config: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 17842497405783188795 FAULTED 0 0 0 was /dev/sdc1 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0 errors: No known data errors
[ Voor 38% gewijzigd door CH4OS op 12-07-2021 22:36 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Nee, dat is sde1:CurlyMo schreef op maandag 12 juli 2021 @ 22:36:
@CH4OS Verwijst /dev/sdc1 inderdaad naar je 14TB schijf?
root@VM-DOCKER:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sdb 8:16 0 1.8T 0 disk ├─sdb1 8:17 0 1.8T 0 part └─sdb9 8:25 0 8M 0 part sdc 8:32 0 1.8T 0 disk ├─sdc1 8:33 0 1.8T 0 part └─sdc9 8:41 0 8M 0 part sdd 8:48 0 1.8T 0 disk ├─sdd1 8:49 0 1.8T 0 part └─sdd9 8:57 0 8M 0 part sde 8:64 0 12.8T 0 disk ├─sde1 8:65 0 12.8T 0 part └─sde9 8:73 0 8M 0 part sdf 8:80 0 3.7T 0 disk ├─sdf1 8:81 0 3.7T 0 part └─sdf9 8:89 0 8M 0 part sdg 8:96 0 3.7T 0 disk ├─sdg1 8:97 0 3.7T 0 part └─sdg9 8:105 0 8M 0 part sdh 8:112 0 3.7T 0 disk ├─sdh1 8:113 0 3.7T 0 part └─sdh9 8:121 0 8M 0 part sdi 8:128 0 3.7T 0 disk ├─sdi1 8:129 0 3.7T 0 part └─sdi9 8:137 0 8M 0 part
[ Voor 69% gewijzigd door CH4OS op 12-07-2021 22:38 ]
Gebruik aub het andere commando hiervoor. Dan zien we óók die labels, maar ook de id's.CH4OS schreef op maandag 12 juli 2021 @ 22:37:
[...]
Nee, dat is sde1:root@VM-DOCKER:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sdb 8:16 0 1.8T 0 disk ├─sdb1 8:17 0 1.8T 0 part └─sdb9 8:25 0 8M 0 part sdc 8:32 0 1.8T 0 disk ├─sdc1 8:33 0 1.8T 0 part └─sdc9 8:41 0 8M 0 part sdd 8:48 0 1.8T 0 disk ├─sdd1 8:49 0 1.8T 0 part └─sdd9 8:57 0 8M 0 part sde 8:64 0 12.8T 0 disk ├─sde1 8:65 0 12.8T 0 part └─sde9 8:73 0 8M 0 part sdf 8:80 0 3.7T 0 disk ├─sdf1 8:81 0 3.7T 0 part └─sdf9 8:89 0 8M 0 part sdg 8:96 0 3.7T 0 disk ├─sdg1 8:97 0 3.7T 0 part └─sdg9 8:105 0 8M 0 part sdh 8:112 0 3.7T 0 disk ├─sdh1 8:113 0 3.7T 0 part └─sdh9 8:121 0 8M 0 part sdi 8:128 0 3.7T 0 disk ├─sdi1 8:129 0 3.7T 0 part └─sdi9 8:137 0 8M 0 part
En dan specifiek voor je OS.udev persistent disk naming
[ Voor 15% gewijzigd door CurlyMo op 12-07-2021 22:53 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Ik neem aan dat je deze bedoelt:CurlyMo schreef op maandag 12 juli 2021 @ 22:45:
Gebruik aub het andere commando hiervoor. Dan zien we óók die labels, maar ook de id's.
root@VM-DOCKER:~# lsblk -r|awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}' | grep part1 sdb1 1.8T wwn-0x50014ee2b83503a8-part1 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H-part1 sdc1 1.8T wwn-0x50014ee20d8a0437-part1 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3-part1 sdd1 1.8T wwn-0x50014ee2b83461cf-part1 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC-part1 sde1 12.8T wwn-0x5000cca299c2529a-part1 ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H-part1 sdf1 3.7T wwn-0x50014ee2640c673d-part1 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1- sdg1 3.7T wwn-0x50014ee2b95eb52e-part1 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD-part1 sdh1 3.7T wwn-0x50014ee2b964b755-part1 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3-part1 sdi1 3.7T wwn-0x50014ee2113d18a8-part1 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C-part1
Nee, zoals ik net al een paar keer aangeef, ik kan niet eens exporten, ik krijg de melding dat de pool busy is.Heb je wel expliciet een import met by-id gedaan? Waren die 14TB wel echt schoon voor gebruik? Plaats eens een fdisk -l?
Hier stelde ik overigens nog wat vragen waarvan je er maar één beantwoord.CH4OS schreef op maandag 12 juli 2021 @ 22:52:
[...]
Nee, zoals ik net al een paar keer aangeef, ik kan niet eens exporten, ik krijg de melding dat de pool busy is.
[ Voor 101% gewijzigd door CurlyMo op 12-07-2021 23:06 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Nog niet beantwoord had.Waren die 14TB wel echt schoon voor gebruik?
Disk /dev/sde: 12.8 TiB, 14000519643136 bytes, 27344764928 sectors Disk model: WDC WD140EDFZ-11 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 3DB73A76-287E-8344-9CF2-36175A7079A2 Device Start End Sectors Size Type /dev/sde1 2048 27344746495 27344744448 12.8T Solaris /usr & Apple ZFS /dev/sde9 27344746496 27344762879 16384 8M Solaris reserved 1
[ Voor 61% gewijzigd door CH4OS op 12-07-2021 23:31 ]
Dat wikiartikel is niet relevant. Doe wat ik eerder zei (wwns even moven) - daarna worden die paden als het goed is zo opgeslagen in de zpool.cache, dus je hoeft het maar een keer te doen. Als je niet kunt exporten: zoek uit waarom niet (fuser, lsof en/of zorg er voor dat je zelf niet ergens in /data staat met een shell)CH4OS schreef op maandag 12 juli 2021 @ 23:22:
https://wiki.debian.org/Persistent_disk_names zie ik alleen oudere versies? Wat kan ik dan het beste doen?
Tip: wipefs gooit ook alle signatures van het filesystem zelf weg ipv. enkel een partitie uit de tabel. En specifiek voor zfs: zpool labelclear. Misschien relevant als hij die 14T disk alsnog niet zomaar slikt (ik ben het overzicht kwijt).Er zat eerst een NTFS partitie op de disk (ZFS gaf ook een melding daarover voordat ik de migratie startte), die heb ik met fdisk verwijderd.
Zou niet nodig moeten zijn.Daarna gereboot om zeker te zijn dat de nieuwe partitie indeling gebruikt werd door zowel het OS als ZFS.
Ja, dat ziet er gewoon goed uit.Overigens heb ik uiteindelijk de partities laten aanmaken door ZFS zelf (het replace commando effectief).
[ Voor 4% gewijzigd door Thralas op 13-07-2021 00:23 ]
root@VM-DOCKER:~# zpool export data cannot export 'data': pool is busy
root@VM-DOCKER:~# zpool status pool: data state: ONLINE scan: resilvered 3.59M in 00:00:02 with 0 errors on Tue Jul 13 00:19:06 2021 config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 wwn-0x50014ee2b83461cf ONLINE 0 0 0 sdc ONLINE 0 0 0 wwn-0x50014ee2b83503a8 ONLINE 0 0 0 wwn-0x50014ee20d8a0437 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 wwn-0x50014ee2b964b755 ONLINE 0 0 0 wwn-0x50014ee2b95eb52e ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 wwn-0x50014ee2640c673d ONLINE 0 0 0
[ Voor 69% gewijzigd door CH4OS op 13-07-2021 00:38 ]
Daar heeft @Thralas al verschillende tips voor gegeven. Anders even exporteren vanaf livecd. Zodra hij geëxporteerd is, wordt hij als het goed is ook niet meer automatisch geïmporteerd.CH4OS schreef op dinsdag 13 juli 2021 @ 00:21:
Alleen kan ik nog steeds niet de pool exporteren om de ID's te fixen:
root@VM-DOCKER:~# zpool export data cannot export 'data': pool is busy
[ Voor 12% gewijzigd door CurlyMo op 13-07-2021 08:02 ]
Sinds de 2 dagen regel reageer ik hier niet meer
zpool set cachefile=none <pool>
Even niets...
True, maar is ZFS in rescue mode beschikbaar onder Debian? Weet ik even niet 100% zeker.FireDrunk schreef op dinsdag 13 juli 2021 @ 09:16:
Vaak kan je je systeem wel in rescue mode booten zonder livecd, of in single user mode, daar moet de pool wel te exporteren zijn.
[ Voor 15% gewijzigd door CH4OS op 13-07-2021 13:31 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
rm -rf /data/films/* rm -rf /data/series/*
Sinds de 2 dagen regel reageer ik hier niet meer
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Klopt, heb hem ook geholpen, maar dit soort dingen zitten wel in mijn achterhoofd.nero355 schreef op dinsdag 13 juli 2021 @ 17:37:
@CurlyMo
Dat is weer iets dat ieder voor zich mag weten en mij echt geen bal kan schelen!
Sinds de 2 dagen regel reageer ik hier niet meer
root@VM-DOCKER:~# zpool status pool: data state: ONLINE scan: scrub canceled on Tue Jul 13 01:14:03 2021 config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC ONLINE 0 0 0 ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 ONLINE 0 0 0
Ik zie een gecancel'ede scrub, ik zou voor de zekerheid graag eens een full scrub voltooid willen zien.CH4OS schreef op dinsdag 13 juli 2021 @ 18:32:
Via de recovery modus de ZFS cache file bijgewerkt;
root@VM-DOCKER:~# zpool status pool: data state: ONLINE scan: scrub canceled on Tue Jul 13 01:14:03 2021 config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M2RS7CDC ONLINE 0 0 0 ata-WDC_WD140EDFZ-11A0VA0_XHG53D8H ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M3VXYT5H ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M7XNNSA3 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1AT8XE3 ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TFK6XD ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K7SP0F7C ONLINE 0 0 0 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K3FEYVC1 ONLINE 0 0 0
Dat is goed.Ik heb voor de rest van de migratie, ook de Marvel controller van het moederbord (zie daarvoor gallery: CH4OS -> VMWare 2.0) doorgegeven middels passthrough.
Je koppelt nu het probleem aan de controller of de sata kabel.De VM herkend de controllers, maar om de een of andere reden nog niet de tweede 12.8TB disk die ik aangesloten heb. Ik vermoed de SATA kabel, maar dat is kwestie van 'debugging'.
bijna correct:Voor de rest van het migreer proces, moet ik neem ik aan zpool replace [2tb disk] [14tb disk] doen
Neen, dat hoeft zelfs niet, je haalt gewoon de oude disk er uit, opnieuw opstarten en klaar., waarna ik de 14TB disk op dezelfde plek in de computer doe als het vervangen van de disk klaar is?
[ Voor 11% gewijzigd door HyperBart op 13-07-2021 19:36 ]
Mits je case geen hotswap mogelijkheid heeft. Anders hoeft rebooten ook niet. Alhoewel ik de aanname dat er geen hotswap in het spel is na de vele reboots wel aannemelijk vindHyperBart schreef op dinsdag 13 juli 2021 @ 19:28:
[...]
Neen, dat hoeft zelfs niet, je haalt gewoon de oude disk er uit, opnieuw opstarten en klaar.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik neem al geen risico meerCurlyMo schreef op dinsdag 13 juli 2021 @ 19:33:
[...]
Mits je case geen hotswap mogelijkheid heeft. Anders hoeft rebooten ook niet. Alhoewel ik de aanname dat er geen hotswap in het spel is na de vele reboots wel aannemelijk vind
Gisteren al meermaals gedaan en zal dat ook weer doen nadat de replace klaar is.HyperBart schreef op dinsdag 13 juli 2021 @ 19:28:
Ik zie een gecancel'ede scrub, ik zou voor de zekerheid graag eens een full scrub voltooid willen zien.
In de BIOS werd de disk perfect herkend, ook zonder de mod op de 3V.Je koppelt nu het probleem aan de controller of de sata kabel.
Zo kwam ik in history er ook achter idd.zpool replace poolnaam oudedisk nieuwedisk
[ Voor 8% gewijzigd door CH4OS op 13-07-2021 19:53 ]
Dat noemt men dus eigenzinnig. Eigenwijs impliceert eigenrichting gebaseerd op wijsheidCH4OS schreef op dinsdag 13 juli 2021 @ 19:49:
[...]
Met dat in het achterhoofd ga ik wellicht wat eigenwijs zijn nu
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 13% gewijzigd door HyperBart op 13-07-2021 22:19 ]
Geen idee wat je hier nou precies zegt, maar het lijkt erop dat je één of beide controllers niet "geVT-D krijgt" via Passthrough in VMWareCH4OS schreef op dinsdag 13 juli 2021 @ 19:49:
Aangezien het moederbord meerdere controllers heeft, zowel van Intel als Marvell, heb ik beide controllers geprobeerd, maar beiden zonder succes (via de Intel controller heb ik de datastores met de VMs, maar dat werd dus niet overgenomen via de Marvell controller) en ben het intussen een beetje beu om het netjes op te lossen, terwijl ik nu ook weet hoe ik nu zelfstandig verder kan.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Jawel? Ik kreeg beiden perfect met passthrough aan een VM gekoppeld. Wanneer ik de Intel controller echter doorspeelde, zag VMware de datastores niet meer waar ik mijn VM's in opgeslagen heb. Importeren lukte niet helaas.nero355 schreef op woensdag 14 juli 2021 @ 17:43:
Geen idee wat je hier nou precies zegt, maar het lijkt erop dat je één of beide controllers niet "geVT-D krijgt" via Passthrough in VMWare
Ik kon twee Marvell controllers doorgeven, de disks werden ook in het BIOS weergegeven, het OS (Debian) herkende de disks niet en dat is een issue wat al sinds 2012 of zo openstaande bugs heeft, zover ik kon terugvinden. Al met al maakt het ook niet meer uit, ik doe het nu zonder dat de ZFS array in orde is, al dat geemmer om het netjes werkend te krijgen was ik gisteren best zat, zacht gezegd, hahahaDat kan namelijk wel kloppen, want vaak is zo'n tweede Marvell of AsMedia controller gekoppeld aan de Intel SATA poorten en kan je dus maar twee dingen doen :
- De Intel Controller doorgeven.
- De Intel + Marvell/AsMedia Controller doorgeven.
Alleen de Marvell/AsMedia Controller gaat dus niet werken!
Even niets...
Dat je niet en/en kan hebben snap ik (en is eigenlijk ook wel logisch). Daarom had ik de disks met de datastores op de andere controller aangesloten (en daarvan dus de passthrough uit gezet).FireDrunk schreef op donderdag 15 juli 2021 @ 09:10:
@CH4OS Maar heb je dan ook je Datastores draaien op diezelfde Intel controller? Want je kan niet en/en hebben.
Dat weet ik, het is niet dat passthrough als concept onbekend is voor me of zo, ik gebruik ESXi en passthrough al de nodige jaren.Een controller is *of* beschikbaar voor ESXi, *of* beschikbaar voor een VM dmv VT-d, niet beide.
[ Voor 4% gewijzigd door CH4OS op 15-07-2021 09:18 ]
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Wat denk je hiermee te kunnen bereiken? Een SSD in een RAID set met 5 mechanische harddisks gaat je geen enkele performance winst opleveren. De performance winst komt pas als je alle 6 harddisks hebt vervangen. Zolang er ook maar één mechanische harddisk in zit, blijft de RAID set performen alsof het allemaal mechanische disks zijn.Beninho schreef op woensdag 29 september 2021 @ 11:35:
...
Nu wil ik die kapotte hdd vervangen voor een SSD met hetzelfde formaat...
QnJhaGlld2FoaWV3YQ==
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Hmmz, je vertelt niet wat voor schijven je gekocht hebt. Maar ook al zou je "dure" schijven hebben gekocht, met een fabrieksgarantie van 5 jaar, dan nog is de verwachting dat ze na 7 jaar allemaal stuk zijn. Als je goedkope schijven hebt gekocht ben je m.i. spekkoper.Beninho schreef op woensdag 29 september 2021 @ 13:45:
Ik hoop vooral op een langere levensduur. Dit is 'al' de 4e schijf die in deze setup is heengegaan (tussen 2014 en 2021). Verder verwacht ik geen performance verschillen hoor...
QnJhaGlld2FoaWV3YQ==
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
| root@claustofobia:~ # zpool status -v tank pool: tank state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-9P scan: resilvered 7.87M in 00:00:02 with 0 errors on Thu Sep 30 18:23:55 2021 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 gptid/1037cdd6-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/3fb9a79f-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 gptid/3f209f6e-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 spare-3 ONLINE 0 0 50 gptid/354a59a1-363c-11eb-845b-000c29d1be09 ONLINE 1 0 0 gptid/b990b874-3584-11eb-845b-000c29d1be09 ONLINE 3 395 0 gptid/41ff4144-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 gptid/12568da2-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/114c6974-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/151dab3b-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/0f6dc72a-8095-11e5-b3dc-0060dd47d1cb ONLINE 0 0 0 gptid/393af75a-818d-11e5-b3dc-0060dd47d1cb ONLINE 0 0 0 spares gptid/b990b874-3584-11eb-845b-000c29d1be09 INUSE currently in use |
Sinds de 2 dagen regel reageer ik hier niet meer
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Dat is echt al zoveel besproken hier dat je beter hier even kan zoeken i.p.v. op slashdot.Beninho schreef op donderdag 30 september 2021 @ 22:58:
Heb jij wel goede ervaring met SMR in een ZFS pool?
Sinds de 2 dagen regel reageer ik hier niet meer
WD maakt bij mijn weten sowieso al geen HDDs op basis van SMR die groter zijn dan 8TB. Als je dus voor 10 / 12 / 14 / 16 / 18 TB gaat zou je sowieso veilig moeten zitten v.w.b. (geen) SMR.Beninho schreef op donderdag 30 september 2021 @ 22:58:
@nero355 dat is best een idee en daar had ik nog niet eens aan gedacht... alleen ik lees (geen ervaring) dat SMR drives niet zo goed hun werk doen in een NAS.
Heb jij wel goede ervaring met SMR in een ZFS pool?
Dat ben ik met je eens, ik had echter een 4TB disk over en heb deze als spare toegevoegd.CurlyMo schreef op donderdag 30 september 2021 @ 18:58:
@Extera Ik weet het antwoord niet zo. Spare disk nog nooit gezien bij iemand. Want je weet dat je beter je parity level kan verhogen dan een spare disk gebruiken.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
| root@claustofobia:~ # zpool status -v tank pool: tank state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Thu Sep 30 23:50:06 2021 535G scanned at 11.1G/s, 6.88G issued at 147M/s, 19.2T total 602M resilvered, 0.04% done, 1 days 14:03:35 to go config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 gptid/1037cdd6-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/3fb9a79f-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 gptid/3f209f6e-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 spare-3 ONLINE 0 0 54 gptid/5f6f546b-2238-11ec-a5dc-000c29d1be09 ONLINE 0 0 0 (resilvering) gptid/b990b874-3584-11eb-845b-000c29d1be09 ONLINE 3 395 0 (resilvering) gptid/41ff4144-ebb0-11e2-9bc2-00505690dd7d ONLINE 0 0 0 gptid/12568da2-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/114c6974-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/151dab3b-5568-11e4-b8aa-0060dd47d1cb ONLINE 0 0 0 gptid/0f6dc72a-8095-11e5-b3dc-0060dd47d1cb ONLINE 0 0 0 gptid/393af75a-818d-11e5-b3dc-0060dd47d1cb ONLINE 0 0 0 spares gptid/b990b874-3584-11eb-845b-000c29d1be09 INUSE currently in use |
[ Voor 59% gewijzigd door Extera op 30-09-2021 23:54 ]
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq