Ik heb momenteel een mirror+stripe ZFS pool (4x 3 TB WD RED) middels FreeNAS, met de naam tank:
Nou vertoont /dev/ada0p1 conform de SMART tests wat kuren. Ik wil die disk dus vervangen. Maar aangezien ik toch bezig ben heb ik ervoor gekozen om 2x 4 TB WD RED's aan te schaffen, met als doel om uiteindelijk de gehele mirror-0 te vervangen voor nieuwe schijven. Dan ga ik dus van 4 x 3 TB naar 2 x 3 TB + 2 x 4 TB. Ik heb gelezen dat dit technisch moet kunnen, maar er zijn wat negatieve adviezen wat betreft verschillende groottes, impact op performance. Dat vind ik zelf niet erg, het is puur netwerkopslag.
In een VM heb ik gesimuleerd wat de te nemen stappen volgens mij zouden moeten zijn. Het enige wat ik vraag is of een ZFS kenner / expert kan bevestigen of dit klopt.
Volgens mij is hierna de vervanging an sich klaar. Maar de volgende stap is om /dev/ada1 ook te vervangen voor een 4 TB exemplaar.
Vervangen is nu klaar, alleen de extra TB zal nog niet toegevoegd zijn aan de pool. Met deze "truuk" wordt de pool expanded:
Mijn VM test heeft geleid tot precies het gewenste resultaat.
Dus samengevat, zie ik iets over het hoofd? Of zou dit het inderdaad moeten zijn?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
| NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
freenas-boot 28.5G 2.00G 26.5G - 2% 7% 1.00x ONLINE -
tank 5.44T 3.82T 1.61T - 42% 70% 1.00x ONLINE /mnt
[root@freenas] ~# zpool status
pool: freenas-boot
state: ONLINE
scan: scrub repaired 0 in 0h1m with 0 errors on Thu Sep 13 03:46:56 2018
config:
NAME STATE READ WRITE CKSUM
freenas-boot ONLINE 0 0 0
da0p2 ONLINE 0 0 0
errors: No known data errors
pool: tank
state: ONLINE
scan: scrub repaired 0 in 16h15m with 0 errors on Sun Aug 12 16:15:50 2018
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ada0p1 ONLINE 0 0 0
ada1p1 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
ada2p1 ONLINE 0 0 0
ada3p1 ONLINE 0 0 0
errors: No known data errors |
Nou vertoont /dev/ada0p1 conform de SMART tests wat kuren. Ik wil die disk dus vervangen. Maar aangezien ik toch bezig ben heb ik ervoor gekozen om 2x 4 TB WD RED's aan te schaffen, met als doel om uiteindelijk de gehele mirror-0 te vervangen voor nieuwe schijven. Dan ga ik dus van 4 x 3 TB naar 2 x 3 TB + 2 x 4 TB. Ik heb gelezen dat dit technisch moet kunnen, maar er zijn wat negatieve adviezen wat betreft verschillende groottes, impact op performance. Dat vind ik zelf niet erg, het is puur netwerkopslag.
In een VM heb ik gesimuleerd wat de te nemen stappen volgens mij zouden moeten zijn. Het enige wat ik vraag is of een ZFS kenner / expert kan bevestigen of dit klopt.
code:
1
2
3
4
5
6
7
8
| # zpool offline tank /dev/ada0p1 <server uitzetten> <kapotte disk vervangen door nieuwe> <server weer aan> # zpool status <tijdelijke naam noteren van kapotte disk> # zpool replace tank <tijdelijke_naam> /dev/ada0p1 (of evt andere naam, checken met dmesg) <wachten totdat resilver complete is> |
Volgens mij is hierna de vervanging an sich klaar. Maar de volgende stap is om /dev/ada1 ook te vervangen voor een 4 TB exemplaar.
code:
1
2
3
4
5
6
7
8
| # zpool offline /dev/ada1 <server uitzetten> <disk vervangen door nieuwe> <server weer aan> # zpool status <tijdelijke naam noteren van vervangende disk> # zpool replace tank <tijdelijke_naam> /dev/ada1 (of evt andere naam, checken met dmesg) <wachten totdat resilver complete is> |
Vervangen is nu klaar, alleen de extra TB zal nog niet toegevoegd zijn aan de pool. Met deze "truuk" wordt de pool expanded:
code:
1
2
| # zpool online -e tank /dev/ada0p1 /dev/ada1p1 /dev/ada2p1 /dev/ada3p1 Laatste check middels zpool list. Verwachting is een totale size van +/- 7 TB) |
Mijn VM test heeft geleid tot precies het gewenste resultaat.
Dus samengevat, zie ik iets over het hoofd? Of zou dit het inderdaad moeten zijn?
Ryzen 9 5900X, MSI Tomahawk MAX, 32GB RAM, Nvidia RTX 4070 Ti | Mijn livesets