Acties:
  • 0 Henk 'm!
Uh, met de hand schrijven in /dev lijkt me niet verstandig...

Die links zouden bij boot automatisch aangemaakt moeten worden. Als dat niet gebeurt, hebben de schijven dus geen valide GPT partitietabel, en moet je dat eerst herstellen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Phuncz schreef op zaterdag 8 augustus 2020 @ 09:58:
Na een klein onderhoudje had ik per ongeluk één van de connectors los van de storage controller en kon een aantal schijven niet meer zien. Server uit, connector goed aangesloten, alle schijven gedecteerd maar had toen mijn zpool als DEGRADED. Eén van de schijven was niet goed opgenomen in de pool, heb deze maar replaced want ik kreeg het niet in orde. De schijf is geresilvered, zpool is nu ONLINE, maar nu heb ik dit:

[Afbeelding]

(da7 is unknown/unformatted)

[Afbeelding]

[Afbeelding]

Enig idee hoe ik dit oplos ?
Iemand die me met bovenstaande kan helpen ?

Acties:
  • +1 Henk 'm!
FireDrunk schreef op zondag 9 augustus 2020 @ 09:06:
Uh, met de hand schrijven in /dev lijkt me niet verstandig...

Die links zouden bij boot automatisch aangemaakt moeten worden. Als dat niet gebeurt, hebben de schijven dus geen valide GPT partitietabel, en moet je dat eerst herstellen.
Klopt, maar zouden kan best in noodsituaties met de hand geholpen worden. Als ZFS nieuwe gptid links niet herkent als een valide schijf(partitie), dan zal het toch weigeren de schijven online te brengen. Als alles weer online te brengen is en klaar met resilveren, dan kan @WTM proberen de boel in de uiteindelijk gewenste situatie te brengen.

Verder is het, wanneer dit niet werkt, simpel een herstart, en alles is weer bij het oude.

@Phuncz ZFS vind alles blijkbaar prima, dus ik zei me er niet druk om maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op zondag 9 augustus 2020 @ 08:08:
@WTM, probeer de gptid symlink eens te herstellen?

# ln -s /dev/da* /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
# ln -s /dev/da* /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

Op de plek van de * even het goede nummer pakken.

Daarna weer proberen de schijven online te brengen.
Moet ik dit in FreeNAS cli doen of Ubuntu?
Ik heb het in FreeNAS cli gedaan.

Op de * kan het niet anders dan 1 staan dus zou ik dan tweemaal gptid koppelen aan da1 ?

dus :

# ln -s /dev/da1 /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
# ln -s /dev/da1 /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2


@CurlyMo dat heb ik gedaan en kreeg ik dit:

code:
1
2
3
4
ln -s /dev/da1 /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
ln: /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2: Operation not permitted
ln -s /dev/da1 /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
ln: /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2: Operation not permitted

Acties:
  • 0 Henk 'm!
En toch blijf ik bij mijn standpunt, het is nadrukkelijk niet de bedoeling om in /dev te schrijven, ook niet om 'even' je ZFS pool beschikbaar te krijgen.

Het onderliggende probleem zal waarschijnlijk in de GPT partitietabel zitten, en die kan je prima met een Live ISO fixen.

Even niets...


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

FireDrunk schreef op zondag 9 augustus 2020 @ 10:04:
En toch blijf ik bij mijn standpunt, het is nadrukkelijk niet de bedoeling om in /dev te schrijven, ook niet om 'even' je ZFS pool beschikbaar te krijgen.

Het onderliggende probleem zal waarschijnlijk in de GPT partitietabel zitten, en die kan je prima met een Live ISO fixen.
@FireDrunk Ok. Volgens mij is er niets gebeurd want het mocht niet van FreeNAS. Ik wil wel naar Ubuntu booten (die heb ik nog op een SSD staan).

Wat ga ik dan daar doen, om die GPT partitietabel te fixen?

Acties:
  • 0 Henk 'm!
FireDrunk schreef op zondag 9 augustus 2020 @ 10:04:
En toch blijf ik bij mijn standpunt, het is nadrukkelijk niet de bedoeling om in /dev te schrijven, ook niet om 'even' je ZFS pool beschikbaar te krijgen.
Ik ben daarin wat opportunistischer :)
Het onderliggende probleem zal waarschijnlijk in de GPT partitietabel zitten, en die kan je prima met een Live ISO fixen.
Daar lijkt het inderdaad op, zie onderstaande.
WTM schreef op zondag 9 augustus 2020 @ 10:03:
[...]
Op de * kan het niet anders dan 1 staan dus zou ik dan tweemaal gptid koppelen aan da1 ?
Door deze opmerking alleen al zou ik mijn advies niet op hebben gevolgd. Je had zelf namelijk al aangegeven 8 schijven zichtbaar te hebben en dus ook 8 opties voor het *. Los van dat. Je hebt twee pools waarvan nu 8 schijven worden herkent door geom disk list. Terwijl er 10 schijven te zien zouden moeten zijn. Oftewel, er missen er twee.

Wat is de output van camcontrol devlist?

Ook al zou het tot een herstel van partitie tabellen moeten komen, laat je met dit soort reacties en acties zien onvoldoende te weten waar je mee bezig bent. Ik durf het niet aan je te adviseren een GPT label te herstellen als je dusdanig willekeurig je schijven lijkt te selecteren waarop je acties betrekking moet hebben. Zoals dus schijf 1 voor de symlinks. Eén aanvullende fout en je bent je data kwijt.

Hopen dat iemand hier bereid is om via bijv. een SSH verbinding te assisteren, want ik denk dat op deze manier is de kans te groot is dat het mis gaat.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op zondag 9 augustus 2020 @ 10:17:

[...]

Door deze opmerking alleen al zou ik mijn advies niet op hebben gevolgd. Je had zelf namelijk al aangegeven 8 schijven zichtbaar te hebben en dus ook 8 opties voor het *. Los van dat. Je hebt twee pools waarvan nu 8 schijven worden herkent door geom disk list. Terwijl er 10 schijven te zien zouden moeten zijn. Oftewel, er missen er twee.
Ik had twijfels of ik dat zou moeten doen, leek me niet logisch die partities aan dezelfde schijf da1 te hangen.

In het systeem zitten in totaal 11 schijven
2x SSD Kingston 240gb (1 staat FreeNAS op en andere Ubuntu nu)
3x wd green's 4tb (voor de pool three4tb genaamd)
6x wd red 4tb (voor de pool six4tb genaamd).

Alles zit in pools
da1 zit nu een lege schijf in die ik weer in de pool six4tb wil brengen.

De output van camcontrol devlist (ik heb sudo camcontrol devlist gedaan, want ik kreeg camcontrol: couldn't open /dev/xpt0: Permission denied)

code:
1
2
3
4
5
6
7
8
9
10
11
12
<ATA WDC WD40EFRX-68W 0A82>        at scbus0 target 0 lun 0 (pass0,da0)
<ATA WDC WD40EFRX-68N 0A82>        at scbus0 target 1 lun 0 (pass1,da1)
<ATA WDC WD40EZRX-00S 0A80>        at scbus0 target 2 lun 0 (pass2,da2)
<ATA WDC WD40EZRX-00S 0A80>        at scbus0 target 3 lun 0 (pass3,da3)
<ATA WDC WD40EFRX-68N 0A82>        at scbus0 target 4 lun 0 (pass4,da4)
<ATA WDC WD40EFRX-68N 0A82>        at scbus0 target 5 lun 0 (pass5,da5)
<ATA WDC WD40EFRX-68W 0A82>        at scbus0 target 6 lun 0 (pass6,da6)
<ATA WDC WD40EFRX-68W 0A82>        at scbus0 target 7 lun 0 (pass7,da7)
<KINGSTON SA400S37120G 03090004>   at scbus1 target 0 lun 0 (pass8,ada0)
<KINGSTON SA400S37120G 03090004>   at scbus2 target 0 lun 0 (pass9,ada1)
<WDC WD40EZRX-00SPEB0 80.00A80>    at scbus5 target 0 lun 0 (pass10,ada2)
<AHCI SGPIO Enclosure 2.00 0001>   at scbus7 target 0 lun 0 (pass11,ses0)


@CurlyMo Dank voor je bezorgdheid (en je duiding van mijn vermoedelijke onkunde ... ) Ik heb de data veilig staan in een backup. Ik zal niemand verantwoordelijk houden als er wat mis gaat, behoudens mezelf.

Ik ben geen ZFS guru maar snap wel dat alle schijven een eigen adres hebben da0 tm da7 en ada0 tm 2 in dit geval en zo dus 11 schijven.

Acties:
  • 0 Henk 'm!
@WTM Enige wat ik nog kan bedenken is (als je zeker weet dat da1 je vervangende schijf is):
# zpool replace six4tb 13571676615721927902 /dev/da1


Al het andere vind ik te gevaarlijk en is meer iets voor je eigen topic.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Michidez
  • Registratie: December 2015
  • Laatst online: 06-09 19:17

Michidez

Zelden zo gelachen!

Ik heb net mijn disks vervangen in mijn ZFS array, en nu zie ik onder mijn mountpoint geen data meer. Behalve enkele lege folders.


Nochtans:

@proxmox:/DATASTORE# zfs list
NAME                      USED  AVAIL  REFER  MOUNTPOINT
DATASTORE                2.95T  2.29T  2.91T  /DATASTORE


@proxmox:/DATASTORE# zfs list -t snapshot
NAME                USED  AVAIL  REFER  MOUNTPOINT
DATASTORE@backup   4.66G      -  2.85T  -
DATASTORE@backup2  10.7K      -  2.91T  -



Desondanks:

@proxmox:/DATASTORE# du -sh .
40K     .


En als ik een rollback van die laatste snapshot doe blijft die er hetzelfde uitzien.

zfs rollback DATASTORE@backup2


Begrijp ik hier iets verkeerd?

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Michidez schreef op zondag 9 augustus 2020 @ 12:39:
Ik heb net mijn disks vervangen in mijn ZFS array, en nu zie ik onder mijn mountpoint geen data meer. Behalve enkele lege folders.


Nochtans:

@proxmox:/DATASTORE# zfs list
NAME                      USED  AVAIL  REFER  MOUNTPOINT
DATASTORE                2.95T  2.29T  2.91T  /DATASTORE


@proxmox:/DATASTORE# zfs list -t snapshot
NAME                USED  AVAIL  REFER  MOUNTPOINT
DATASTORE@backup   4.66G      -  2.85T  -
DATASTORE@backup2  10.7K      -  2.91T  -



Desondanks:

@proxmox:/DATASTORE# du -sh .
40K     .


En als ik een rollback van die laatste snapshot doe blijft die er hetzelfde uitzien.

zfs rollback DATASTORE@backup2


Begrijp ik hier iets verkeerd?
Wat geeft zfs mount aan? Is die ook gemount? * RobertMe weet even niet zeker of het mountpoint bij zfs list ook meteen aangeeft dat die daar gemount is, of alleen dat dat de ingestelde mountpoint is.

Acties:
  • +1 Henk 'm!

  • Michidez
  • Registratie: December 2015
  • Laatst online: 06-09 19:17

Michidez

Zelden zo gelachen!

RobertMe schreef op zondag 9 augustus 2020 @ 12:53:
[...]

Wat geeft zfs mount aan? Is die ook gemount? * RobertMe weet even niet zeker of het mountpoint bij zfs list ook meteen aangeeft dat die daar gemount is, of alleen dat dat de ingestelde mountpoint is.
Aha, dat is dus 't probleem. Pool is denk ik even offline geweest, Proxmox heeft daar een aantal folders gemaakt en nu wil die niet mounten vanwege de folders.

Even alle Proxmox services stilgelegd, folders verwijderd, gemount en dan zie ik 'm alles terug.

Na reboot is het wel terug kapot, dus nu nog uit te zoeken waarom die automount het niet doet. :/

Edit: Gefixt met https://forum.proxmox.com...ting-after-upgrade.56013/

[ Voor 6% gewijzigd door Michidez op 09-08-2020 13:25 ]


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op zondag 9 augustus 2020 @ 11:04:
@WTM Enige wat ik nog kan bedenken is (als je zeker weet dat da1 je vervangende schijf is):
# zpool replace six4tb 13571676615721927902 /dev/da1


Al het andere vind ik te gevaarlijk en is meer iets voor je eigen topic.
Dank.
Ik weet 100% zeker dat de vervangende (nu lege) schijf op da1 zit. Het serienummer van de lege nieuwe schijf klopt ook.

@CurlyMo Waarom zou je

# zpool replace six4tb 13571676615721927902 /dev/da1


adviseren en niet ?

# zpool replace six4tb 18182716167874336493 /dev/da1


Want ik zie onder 'replacing-5' die beide nummers.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
  pool: six4tb
 state: DEGRADED
  scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug  8 21:28:01 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          DEGRADED     0     0     0
      raidz1-0                                      DEGRADED     0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        replacing-5                                 UNAVAIL      0     0     0
          13571676615721927902                      UNAVAIL      0     0     0  was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
          18182716167874336493                      UNAVAIL      0     0     0  was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

errors: No known data errors

Acties:
  • 0 Henk 'm!
WTM schreef op zondag 9 augustus 2020 @ 13:15:
[...]


Dank.
Ik weet 100% zeker dat de vervangende (nu lege) schijf op da1 zit. Het serienummer van de lege nieuwe schijf klopt ook.

@CurlyMo Waarom zou je

# zpool replace six4tb 13571676615721927902 /dev/da1


adviseren en niet ?

# zpool replace six4tb 18182716167874336493 /dev/da1


Want ik zie onder 'replacing-5' die beide nummers.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
  pool: six4tb
 state: DEGRADED
  scan: resilvered 0 in 29 days 01:42:30 with 0 errors on Sat Aug  8 21:28:01 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          DEGRADED     0     0     0
      raidz1-0                                      DEGRADED     0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        replacing-5                                 UNAVAIL      0     0     0
          13571676615721927902                      UNAVAIL      0     0     0  was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
          18182716167874336493                      UNAVAIL      0     0     0  was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2

errors: No known data errors
Omdat de eerste altijd de originele is en de tweede de vervangende.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op zondag 9 augustus 2020 @ 13:22:
[...]

Omdat de eerste altijd de originele is en de tweede de vervangende.
Dank, @CurlyMo, klinkt logisch. Ik heb het geprobeerd.

Ingevoerd:
zpool replace six4tb 13571676615721927902 /dev/da1


Resultaat
code:
1
cannot replace 13571676615721927902 with /dev/da1: permission denied


Zal ik proberen te booten in Ubuntu en het daar doen of moet dit ook in FreeNAS cli kunnen?

Wat ik denk dat ik moet doen in FreeNAS:
sudo zpool replace six4tb 13571676615721927902 /dev/da1


anders zou ik eerst in FreeNAS moeten doen
zpool export six4tb


en dan in Ubuntu
zpool import six4tb


en vermoedelijk als ik ingeef
zpool status six4tb


krijg ik 'm dan weer in de degraded state zoals ie was in FreeNAS. En dan replace doen.

zpool replace six4tb 13571676615721927902 /dev/da1

[ Voor 4% gewijzigd door WTM op 09-08-2020 13:36 ]


Acties:
  • 0 Henk 'm!
@WTM Ik neem aan dat je alles als root doet en probeer maar in FreeNAS.

[ Voor 22% gewijzigd door CurlyMo op 09-08-2020 13:38 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op zondag 9 augustus 2020 @ 13:37:
@WTM Ik neem aan dat je alles als root doet en probeer maar in FreeNAS.
@CurlyMo
Thanks!

Ik zie dat hij weer gaat resilveren, klinkt goed.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
pool: six4tb
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Aug  9 14:48:30 2020
    2.72T scanned at 1.36G/s, 859G issued at 430M/s, 15.2T total
    136G resilvered, 5.52% done, 0 days 09:43:34 to go
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          DEGRADED     0     0     0
      raidz1-0                                      DEGRADED     0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        replacing-5                                 UNAVAIL      0     0     0
          13571676615721927902                      UNAVAIL      0     0     0  was /dev/gptid/3f071745-8506-11e7-bbff-d050996ff8e2
          18182716167874336493                      UNAVAIL      0     0     0  was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2
          da1                                       ONLINE       0     0     0

errors: No known data errors


Ben benieuwd als het klaar is of
code:
1
8182716167874336493                      UNAVAIL      0     0     0  was /dev/gptid/259ebb59-c2d5-11ea-816e-d050996ff8e2


dan weg is.
Nog een uurtje of 10 en dan gaan we het hopelijk zien.

Acties:
  • 0 Henk 'm!
@WTM Hij zou nu klaar moeten zijn :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

@CurlyMo zeker! Ergens vannacht al maar ik kom net m'n bedje uit nog even vakantie :-).

zpool status six4tb


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
pool: six4tb
 state: ONLINE
  scan: resilvered 2.41T in 0 days 11:32:43 with 0 errors on Mon Aug 10 02:21:13 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        da1                                         ONLINE       0     0     0

errors: No known data errors


Mijn conclusie het is goed gegaan :-). Wat wel vreemd is dat er geen gptid aangemaakt is. In FreeNAS zie ik in de logs dit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Aug 10 02:21:13 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765
Aug 10 02:21:13 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375
Aug 10 02:21:13 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510
Aug 10 02:21:13 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183
Aug 10 02:21:14 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500
Aug 10 02:21:15 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18182716167874336493
Aug 10 02:21:15 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18108822582148919023
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=4321123093847478765
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=7341696284033616375
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=3675791852414277510
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10778351145683311183
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=10677478820108001500
Aug 10 02:21:17 freenas ZFS: vdev state changed, pool_guid=13928668106559313930 vdev_guid=18108822582148919023
Aug 10 02:21:19 freenas zfsd: Unable to extract vdev GUID from vdev config data.


Denk vooral deze past erbij:
code:
1
Aug 10 02:21:19 freenas zfsd: Unable to extract vdev GUID from vdev config data.


Moet ik me daar zorgen om maken? Ik heb 't systeem even gereboot. Dacht misschien dat hij bij mounten dan zo'n nummer toekent? Maar geen verschil:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
   pool: six4tb
 state: ONLINE
  scan: resilvered 2.41T in 0 days 11:32:43 with 0 errors on Mon Aug 10 02:21:13 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        da1                                         ONLINE       0     0     0

errors: No known data errors

Acties:
  • 0 Henk 'm!
WTM schreef op maandag 10 augustus 2020 @ 09:29:
[...]


@CurlyMo zeker! Ergens vannacht al maar ik kom net m'n bedje uit nog even vakantie :-).

Moet ik me daar zorgen om maken? Ik heb 't systeem even gereboot. Dacht misschien dat hij bij mounten dan zo'n nummer toekent? Maar geen verschil:
Nee, dat sluit aan bij wat we al zeiden. De nieuwe schijf heeft geen GPT label. Ik weet niet of je die non-destructief kan aanmaken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Nee, je hebt nu de disk als raw device zonder partities in je pool gehangen. Dat kan je niet ongedaan maken voor zover ik weet. Tenzij je de disk dus uit de pool haalt, wiped, nieuwe partitetabel er op zet, en opnieuw in de pool hangt.

[ Voor 29% gewijzigd door FireDrunk op 10-08-2020 10:36 ]

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op maandag 10 augustus 2020 @ 10:36:
Nee, je hebt nu de disk als raw device zonder partities in je pool gehangen. Dat kan je niet ongedaan maken voor zover ik weet. Tenzij je de disk dus uit de pool haalt, wiped, nieuwe partitetabel er op zet, en opnieuw in de pool hangt.
Durf jij het aan om @WTM daarmee te helpen, ik niet ;)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Nope, lekker laten zo, gaat jaren goed :)

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op maandag 10 augustus 2020 @ 11:17:
Nope, lekker laten zo, gaat jaren goed :)
Als de overige schijven wel gepartitioneerd zijn, dan moet ZFS die nieuwe schijf ook wel partitioneren anders kloppen de sectoren niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Nee hoor, hij gebruikt gewoon max evenveel sectoren. Het is nu gewoon een groter device dan de anderen.

Even niets...


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

Dank @FireDrunk en @CurlyMo . Jullie zijn het eens nu niet of wel eens om het zo te laten? :-)

Stel ik hang de pool t.z.t. in een andere machine, is het enige dat de schijf geen ‘naam’ heeft behoudens da1? Of moet ik die schijf dan altijd fysiek aan da1 hangen?

Acties:
  • 0 Henk 'm!
De naam maakt niet uit, ZFS vindt dat doorgaans wel bij het importeren van de pool.

Even niets...


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

FireDrunk schreef op maandag 10 augustus 2020 @ 10:36:
Nee, je hebt nu de disk als raw device zonder partities in je pool gehangen. Dat kan je niet ongedaan maken voor zover ik weet. Tenzij je de disk dus uit de pool haalt, wiped, nieuwe partitetabel er op zet, en opnieuw in de pool hangt.
Het klinkt alsof ik dat wel te doen is?
Als ik zeker weet dat ik da1 eerst detach? Dan zal de pool degraded raken, vervolgens da1 wipen. En dan replace doen? Zal in dat proces zo’n paritietabel aangemaakt worden?

Acties:
  • 0 Henk 'm!
WTM schreef op maandag 10 augustus 2020 @ 12:30:
Dank @FireDrunk en @CurlyMo . Jullie zijn het eens nu niet of wel eens om het zo te laten? :-)

Stel ik hang de pool t.z.t. in een andere machine, is het enige dat de schijf geen ‘naam’ heeft behoudens da1? Of moet ik die schijf dan altijd fysiek aan da1 hangen?
Gewoon zo laten.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Inderdaad, niet meer aankomen.

Even niets...


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

Cool. Dan laat ik het zo. Mocht die schijf kaduuk gaan dan kan ik 'm via de GUI vast weer vervangen voor een verse schijf.

Hartelijk dank voor jullie hulp @FireDrunk @CurlyMo Kan ik ergens een biertje naartoe sturen? _/-\o_

Acties:
  • +1 Henk 'm!
WTM schreef op maandag 10 augustus 2020 @ 13:00:
[...]
Hartelijk dank voor jullie hulp @FireDrunk @CurlyMo Kan ik ergens een biertje naartoe sturen? _/-\o_
Ik drink geen alcohol, toch bedankt :p

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • NaliXL
  • Registratie: Maart 2002
  • Laatst online: 07-07 19:22
@Phuncz Het lijkt erop dat je geresilverd hebt op een schijf zonder partitionering (wat prima is voor ZFS). De rest van de devices in je pool zijn wel gepartitioneerd. Blijkbaar herkent je GUI de inhoud aan de partitie.

Genoeg is meer dan veel, en tart den overvloed


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

NaliXL schreef op maandag 10 augustus 2020 @ 13:33:
@Phuncz Het lijkt erop dat je geresilverd hebt op een schijf zonder partitionering (wat prima is voor ZFS). De rest van de devices in je pool zijn wel gepartitioneerd. Blijkbaar herkent je GUI de inhoud aan de partitie.
OK dan laat ik het zo als het geen kwaad kan. Bedankt !

Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op maandag 10 augustus 2020 @ 13:14:
[...]

Ik drink geen alcohol, toch bedankt :p
Colaaatje ? Name your poison ;-)

Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

ZFS frats 1 opgelost. ZFS frats 2 opgedoken, andere pool.

sudo zpool status -v three4tb


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
 pool: three4tb
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: scrub repaired 0 in 0 days 02:45:48 with 1 errors on Mon Aug 10 02:48:34 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    three4tb                                        ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/83c6492f-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/849990df-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/8565e3f6-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0

errors: Permanent errors have been detected in the following files:

        /mnt/three4tb/Time-Machine/MacBook Pro.backupbundle/bands/ed


Ik had al een scrub gedaan, heeft 't niet opgelost.
Weet niet of er iets met (een?) van de schijven aan de hand is.

(short) S.M.A.R.T. testjes op de drie betreffende schijven in deze pool three4tb:

[code]
<ATA WDC WD40EZRX-00S 0A80> at scbus0 target 2 lun 0 (pass2,da2)
<ATA WDC WD40EZRX-00S 0A80> at scbus0 target 3 lun 0 (pass3,da3)
<WDC WD40EZRX-00SPEB0 80.00A80> at scbus5 target 0 lun 0 (pass10,ada2)

smartctl -a /dev/da2


geeft

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
% sudo smartctl -a /dev/da2
Password:
smartctl 7.0 2018-12-30 r4883 [FreeBSD 11.3-RELEASE-p11 amd64] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD40EZRX-00SPEB0
Serial Number:    WD-WCC4E3ZLH8N4
LU WWN Device Id: 5 0014ee 20cb5a633
Firmware Version: 80.00A80
User Capacity:    4,000,787,030,016 bytes [4.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Mon Aug 10 14:41:33 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                    was completed without error.
                    Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (52980) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 530) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x7035) SCT Status supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   192   172   021    Pre-fail  Always       -       7400
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       239
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   046   046   000    Old_age   Always       -       39809
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       239
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       237
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2448
194 Temperature_Celsius     0x0022   116   099   000    Old_age   Always       -       36
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     39791         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


smartctl -a /dev/da3


geeft

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
% sudo smartctl -a /dev/da3
smartctl 7.0 2018-12-30 r4883 [FreeBSD 11.3-RELEASE-p11 amd64] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD40EZRX-00SPEB0
Serial Number:    WD-WCC4E6ANY67J
LU WWN Device Id: 5 0014ee 2b7623327
Firmware Version: 80.00A80
User Capacity:    4,000,787,030,016 bytes [4.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Mon Aug 10 14:43:29 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                    was suspended by an interrupting command from host.
                    Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (51060) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 511) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x7035) SCT Status supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   193   175   021    Pre-fail  Always       -       7308
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       238
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   046   046   000    Old_age   Always       -       39807
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       238
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       236
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2465
194 Temperature_Celsius     0x0022   117   099   000    Old_age   Always       -       35
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     39789         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


smartctl -a /dev/ada2


geeft

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
% sudo smartctl -a /dev/ada2
smartctl 7.0 2018-12-30 r4883 [FreeBSD 11.3-RELEASE-p11 amd64] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD40EZRX-00SPEB0
Serial Number:    WD-WCC4E3ZLHRUH
LU WWN Device Id: 5 0014ee 2b760a382
Firmware Version: 80.00A80
User Capacity:    4,000,787,030,016 bytes [4.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Mon Aug 10 14:45:31 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                    was suspended by an interrupting command from host.
                    Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (51060) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 511) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x7035) SCT Status supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   186   178   021    Pre-fail  Always       -       7683
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       238
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   046   046   000    Old_age   Always       -       39806
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       238
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       214
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2482
194 Temperature_Celsius     0x0022   118   104   000    Old_age   Always       -       34
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     39788         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Deze 3 schijven zijn - gok ik - jaartje of 5 oud. SMART passed zegt niet altijd... Zijn ze langzaam (alle 3?) aan 't kapot gaan? Enige wat deze pool herbergt is Time-Machine backups. Heb nog andere backup hiervan. Maar wat is wijsheid met deze schijven. Alle 3 vervangen? Of wachten tot er een knalt en dan een nieuwe 4tb hangen? en zo tot de volgende gaat? WD Greens zijn niet meer te krijgen, dan zou ik WD Reds hangen (CMR versies zijn nog wel te krijgen..) of alle 3 eruit en nieuwe pool met 3x 8TB hangen..

Acties:
  • 0 Henk 'm!
@WTM, kan ook een geheugen probleem zijn

[ Voor 4% gewijzigd door CurlyMo op 10-08-2020 15:26 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • WTM
  • Registratie: November 2004
  • Laatst online: 06:45

WTM

CurlyMo schreef op maandag 10 augustus 2020 @ 14:56:
@WTM, kan ook een geheugen probleem zijn
Ik gebruik dit board:
Intel server moederboard s1200v3pl

Kan helaas niet meer uitvogelen of er problemen zijn me dit geheugen en dit moederboard

compatibiliteitslijst geeft 404 :-(


met dit geheugen:
32gb ECC DDR3 (set 4x8) kingston-valueram-kvr16e11k4-32


Kan eens memtest draaien een nachtje, kan nooit kwaad natuurlijk.

/edit

Nog geen memtest gedraaid.

Ik heb van de pool three4tb de data weggehaald en een nieuwe scrub gedaan. Nu komen er geen fouten terug.

Memtest nog nodig?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
  pool: six4tb
 state: ONLINE
  scan: resilvered 2.41T in 0 days 11:32:43 with 0 errors on Mon Aug 10 02:21:13 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    six4tb                                          ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/39dbdb0d-8506-11e7-bbff-d050996ff8e2  ONLINE       0     0     0
        gptid/75e759d8-a341-11ea-9020-d050996ff8e2  ONLINE       0     0     0
        gptid/bdb2785d-f5c9-11e9-bb0c-d050996ff8e2  ONLINE       0     0     0
        gptid/b7e766d9-33df-11ea-abdb-d050996ff8e2  ONLINE       0     0     0
        gptid/bc6a0659-4031-11ea-b4f8-d050996ff8e2  ONLINE       0     0     0
        da1                                         ONLINE       0     0     0

errors: No known data errors

  pool: three4tb
 state: ONLINE
  scan: scrub repaired 0 in 0 days 00:03:18 with 0 errors on Mon Aug 10 23:39:46 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    three4tb                                        ONLINE       0     0     0
      raidz1-0                                      ONLINE       0     0     0
        gptid/83c6492f-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/849990df-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0
        gptid/8565e3f6-85bd-11e7-a5e3-d050996ff8e2  ONLINE       0     0     0

errors: No known data errors


/edit 2:
De memtest moet nog even wachten, ik kreeg op een schijf een s.m.a.r.t. fout. Dus die schijf eruit getrokken en nieuwe gezet. Oude schijf heeft nog 20 dagen garantie _/-\o_ dus die gaat de RMA in. Nieuwe schijf is aan het resilveren as we speak.

[ Voor 73% gewijzigd door WTM op 11-08-2020 21:56 ]


Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 09-09 12:06
Gisterenavond is er plots een schijf verdwenen uit mijn server. Ik zal straks misschien eens gaan kijken of die fysiek nog in de behuizing steekt, of gaan lopen is door de hitte :+ . Aangezien smartctl zegt dat ada0 niet bestaat, vermoed ik niet dat die nog terug tot leven gewekt kan worden. Zelfs mijn meest geavanceerde probleemoplostechnieken hebben niet geholpen (afzetten en terug aanzetten :p ).

Omdat ik stilletjes richting 80% capaciteit aan het lopen was, had ik al ooit het idee om de 4TB schijven te vervangen door 8TB. Ik dacht dat hier op het forum iemand pas hetzelfde gedaan had in FreeNAS, maar ik vind de procedure niet meer terug. Weet iemand nog waar die staat, of wat in het kort gezegd de stappen zijn (en dan vooral of ik iets moet doen vóór ik in mijn enthousiasme de schijven één voor één vervang)?

Acties:
  • +1 Henk 'm!
Giesber schreef op woensdag 12 augustus 2020 @ 11:26:
Gisterenavond is er plots een schijf verdwenen uit mijn server. Ik zal straks misschien eens gaan kijken of die fysiek nog in de behuizing steekt, of gaan lopen is door de hitte :+ . Aangezien smartctl zegt dat ada0 niet bestaat, vermoed ik niet dat die nog terug tot leven gewekt kan worden. Zelfs mijn meest geavanceerde probleemoplostechnieken hebben niet geholpen (afzetten en terug aanzetten :p ).

Omdat ik stilletjes richting 80% capaciteit aan het lopen was, had ik al ooit het idee om de 4TB schijven te vervangen door 8TB. Ik dacht dat hier op het forum iemand pas hetzelfde gedaan had in FreeNAS, maar ik vind de procedure niet meer terug. Weet iemand nog waar die staat, of wat in het kort gezegd de stappen zijn (en dan vooral of ik iets moet doen vóór ik in mijn enthousiasme de schijven één voor één vervang)?
De optie autoexpand aanzetten en daarna alle schijven 1 voor 1 vervangen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 09-09 12:06
autoexpand is inderdaad het magische Google woord, bedankt.

Intussen de schijf eens in mijn desktop gestoken, en helaas het spijtige verdikt: de schijf doet het nog.

Spijtig omdat ik dan mag gaan zoeken wat er wèl kapot is (kabel, moederbord, voeding: laat ons hopen van dat eerste), en spijtig omdat ik dan geen excuus meer heb om te prutsen om de capaciteit te verhogen :).

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Lang verhaal kort: ik heb 6 4TB disks vervangen voor 8TB. Nieuwe pool gemaakt, als volgt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
-o ashift=12 \
    -O canmount=off \
    -O mountpoint=none \
    -O logbias=throughput \
    -O dnodesize=auto \
    -O compression=lz4 \
    -O normalization=formD \
    -O acltype=posixacl \
    -O atime=off \
    -O relatime=on \
    -O xattr=sa \
    -O sharenfs=off \
    -O sharesmb=off \
    -O devices=off \
    -O exec=off \
    tank raidz2 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL01 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL02 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL03 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL04 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL05 \
    /dev/disk/by-id/ata-HGST_HUH728080ALN600_SERIAL06


Dataset aangemaakt met default waarden, geen compressie en geen encryptie.

Nu heb ik fio losgelaten op de losse disks en de resultaten bewaard om te later te vergelijken. Fio parameters:
code:
1
2
3
4
5
6
--block-size 4k 8k 16k 64k 128k 1m
--size 16G
--duration 600
--iodepth 8
--numjobs 4
--mode randread randwrite

Omdat zfs geen direct I/O ondersteunt (of inmiddels wel, had ik wellicht kunnen proberen):
code:
1
2
--direct=0
--extra-opts end_fsync=1


Op de losse disks (met ext4) ligt de performance van de disk over hele linie 100% op wat je mag verwachten van de ze schijven. De verschillen tussen de disks is letterlijk maar enkele iops.

Nu komt het, bij een blocksize van 4k is de zfs raidz2 met 6 disks (maar?) 25% sneller, met 8k 28%, 16k 30%, 64k 35%, 128k 38% en bij 1m 75% ten opzichte van een enkele disk met ext4.

Ik vind het eerlijk gezegd heel erg tegen vallen, is dit nou compleet volgens wat je mag verwachten?

Ik heb het destijds niet bewaard, maar ik heb dit ooit eerder gedaan op een oude server met 12 disks in 2 pools, een data van 8 disks en een backup pool van 4 disks, de een raidz2 de andere raidz1. Ik kan me herinneren dat ik enorm impressed was met de snelheden. Dit was naar schatting een jaartje of 6 a 7 geleden. Ik kan me herinneren dat ik iets van 70 of 80% van de performance haalde van het aantal datadisks in de array. Maar nogmaals, lang geleden en in hoeverre dat de test destijds vergelijkbaar was met wat ik nu heb getest weet ik allemaal niet meer.

Acties:
  • 0 Henk 'm!
Bij ZFS haal je qua random io, vaak maar net iets meer dan je met 1 losse schijf zou halen.
Daarnaast heb je je logbias op troughput gezet. Dat scheelt ook wel.

Wat gaven de 1MB IO's aan totale bandbreedte?

Even niets...


Acties:
  • 0 Henk 'm!
Gezien het imago van SMR heb ik mijn hoofdpool omgezet naar een drieweg mirror. Als ik ooit ruimte te kort kom, dan maak ik er een RAIDZ2 van. Resilver heeft toch lang geduurd, ondanks dat er vrijwel geen activiteit op de schijven is:

ZFS has finished a resilver:

   eid: 784
 class: resilver_finish
  host: pve
  time: 2020-08-16 19:27:18+0200
  pool: media
 state: ONLINE
  scan: resilvered 2.93T in 1 days 01:34:38 with 0 errors on Sun Aug 16 19:27:18 2020
remove: Removal of vdev 1 copied 11.1G in 0h2m, completed on Thu Mar 26 13:48:30 2020
    19.1K memory used for removed device mappings
config:

	NAME          STATE     READ WRITE CKSUM
	media         ONLINE       0     0     0
	  mirror-0    ONLINE       0     0     0
	    sde1      ONLINE       0     0     0
	    sdc1      ONLINE       0     0     0
	    sda1      ONLINE       0     0     0

errors: No known data errors

De eerste paar uur ging hij lekker met ~ 60M/s maar daarna kakte de boel in naar 30 M/s.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

FireDrunk schreef op zondag 16 augustus 2020 @ 20:31:
Bij ZFS haal je qua random io, vaak maar net iets meer dan je met 1 losse schijf zou halen.
Daarnaast heb je je logbias op troughput gezet. Dat scheelt ook wel.

Wat gaven de 1MB IO's aan totale bandbreedte?
Een enkele disk haalde bij 1m random reads 87,509KB, zfs 151,667KB.

Acties:
  • 0 Henk 'm!
Hmm, 6 * 7200RPM schijven in RAIDZ2 moeten echt wel meer dan 150MB/s aan kunnen. Was dat de mixed readwrite test?

Ik haalde met mijn vorige pool pieken van 800MB/s toen die leeg was. (vergelijkbare configratie.)

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Nee, enkel 100% random reads. Sequential geloof ik wel dat dat hard gaat maar wanneer heb je nou werkelijk in de praktijk sequential performance en dat je er ook nog wat aan hebt?

Ik tune liever op random met kleinere blocksizes en dat is precies wat hier heel slecht gaat.

Ik heb nu even een 3-weg mirror met zfs opgezet en logbias op latency (goeie catch trouwens ik had daar eerlijk gezegd overheen gekeken, dat was een copy/paste foutje, ook in het echte commando dus het stond ook echt op throughput ipv latency).

Edit:
Eerste indruk is goed, 4k en 8k random read performance is ongeveer een factor 2,5x hoger. Als dat doorzet gaat het de goeie kant op.

[ Voor 12% gewijzigd door InflatableMouse op 16-08-2020 21:59 ]


Acties:
  • +1 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
Voor elke read en write moet je elke disk 1x aanraken met RAIDZ, dus het is niet zo gek dat de IOps ongeveer gelijk zijn aan een enkele disk. Dat is ook algemeen bekend. RAIDZ is een compromis, je krijgt er lagere redundancy overhead en evt hogere redundancy voor terug. Als je IO performance wilt kun je beter (striped) mirrors gaan gebruiken.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!
InflatableMouse schreef op zondag 16 augustus 2020 @ 21:42:
Nee, enkel 100% random reads. Sequential geloof ik wel dat dat hard gaat maar wanneer heb je nou werkelijk in de praktijk sequential performance en dat je er ook nog wat aan hebt?

Ik tune liever op random met kleinere blocksizes en dat is precies wat hier heel slecht gaat.

Ik heb nu even een 3-weg mirror met zfs opgezet en logbias op latency (goeie catch trouwens ik had daar eerlijk gezegd overheen gekeken, dat was een copy/paste foutje, ook in het echte commando dus het stond ook echt op throughput ipv latency).

Edit:
Eerste indruk is goed, 4k en 8k random read performance is ongeveer een factor 2,5x hoger. Als dat doorzet gaat het de goeie kant op.
Scheelt de logbias setting heel veel? (je kan hem achteraf wijzigen).

Even niets...


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

FireDrunk schreef op maandag 17 augustus 2020 @ 09:43:
[...]

Scheelt de logbias setting heel veel? (je kan hem achteraf wijzigen).
Weet ik nog niet, kan ik straks wel even testen, momenteel draait er een sequential test, gewoon omdat het kan (maar heel erg boeit me dat niet eerlijk gezegd).

Wat mij trouwens wel meteen is opgevallen tijdens de random tests is dat grotere recordsize op zfs heel veel impact heeft op kleinere random access.

Het verhaal met recordsize op zfs is dat het een maximum is, en geen vaste waarde. Daarmee suggereren veel verhalen dat het weinig tot niets uit zou maken als je kleinere blocksizes wegschrijft naar een dataset met grotere recordsize.

Mijn tests laten het tegendeel zien. 128K recordsize tests zijn veel sneller in iops en latency is veel constanter met kleinere blocksizes dan exact dezelfde tests op 1m recordsize, met uitzondering van de 1m blocksize test.

Ik ga dus nog testen met nog kleinere recordsizes (16k, 32k en 64k) en later op de definitieve pool op de datasets heel specifiek alleen grotere recordsizes zetten als het nodig is.
P5ycho schreef op maandag 17 augustus 2020 @ 08:38:
Voor elke read en write moet je elke disk 1x aanraken met RAIDZ, dus het is niet zo gek dat de IOps ongeveer gelijk zijn aan een enkele disk. Dat is ook algemeen bekend. RAIDZ is een compromis, je krijgt er lagere redundancy overhead en evt hogere redundancy voor terug. Als je IO performance wilt kun je beter (striped) mirrors gaan gebruiken.
Wat is de beste manier om mirrors met striped vdevs op te zetten?

Ik heb het nu gedaan door 3x een mirror op te geven met 2 disks:
code:
1
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6


Is dat de juiste (enige?) manier?

Voor mij is random iops met kleine blocksizes belangrijker dan sequentieel throughput op hoge blocksizes.

[ Voor 25% gewijzigd door InflatableMouse op 17-08-2020 10:12 ]


Acties:
  • +1 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
InflatableMouse schreef op maandag 17 augustus 2020 @ 10:06:
Wat is de beste manier om mirrors met striped vdevs op te zetten?

Ik heb het nu gedaan door 3x een mirror op te geven met 2 disks:
code:
1
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6


Is dat de juiste (enige?) manier?

Voor mij is random iops met kleine blocksizes belangrijker dan sequentieel throughput op hoge blocksizes.
Dit is de beste en enige manier. Als je meerdere vdevs in een pool hebt wordt IO automatisch verdeeld over de vdevs in een gewogen stripe afhankelijk van % vrije ruimte op elke vdev.

Recordsize heeft zeker impact, als je weet wat de schrijfblokgrootte van je service is dan kun je daar zeker op tunen. MySQL -> 16k bijvoorbeeld. Dat kun je per filesystem instellen, dus tune dat niet op poolniveau maar per filesystem.

Als je 128k recordsize gebruikt en je schrijft random io per 32k dan moet zfs steeds de oude uncached record lezen, schrappen (tenzij deel van een snapshot!) en de nieuwe (sync) schrijven met gemodificeerde data. Read-modify-write. Als je recordsize gelijk is hoeven er geen reads plaats te vinden.

https://www.joyent.com/bl...questions-zfs-record-size
https://blogs.oracle.com/roch/tuning-zfs-recordsize

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Thanks voor de info, ook voor de linkjes!
P5ycho schreef op maandag 17 augustus 2020 @ 10:42:
[...]

Dit is de beste en enige manier. Als je meerdere vdevs in een pool hebt wordt IO automatisch verdeeld over de vdevs in een gewogen stripe afhankelijk van % vrije ruimte op elke vdev.
Ben IT'er, dus per definitie eigenwijs :+

Ik heb het gewoon geprobeerd, de tests waren net klaar en de pool is niet in gebruik.

Dit:
code:
1
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6


Maakt:
code:
1
2
3
4
5
6
7
8
tank
   ata-disk1
   ata-disk2
   ata-disk3
  mirror-3
       ata-disk4
       ata-disk5
       ata-disk6


Die andere maakt 3 mirrors van 2 disks.

Misschien is het verschil alleen in de weergave en is het feitelijk in de werking gelijk aan elkaar, ik heb een nieuwe test gestart, dus we gaan het zien!

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
InflatableMouse schreef op maandag 17 augustus 2020 @ 11:32:
Thanks voor de info, ook voor de linkjes!


[...]


Ben IT'er, dus per definitie eigenwijs :+

Ik heb het gewoon geprobeerd, de tests waren net klaar en de pool is niet in gebruik.

Dit:
code:
1
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6


Maakt:
code:
1
2
3
4
5
6
7
8
tank
   ata-disk1
   ata-disk2
   ata-disk3
  mirror-3
       ata-disk4
       ata-disk5
       ata-disk6


Die andere maakt 3 mirrors van 2 disks.

Misschien is het verschil alleen in de weergave en is het feitelijk in de werking gelijk aan elkaar, ik heb een nieuwe test gestart, dus we gaan het zien!
Dat create commando komt niet overeen met de zpool layout.
code:
1
zpool create -o options disk1 disk2 disk3 mirror disk4 disk5 disk6

^^ Die klopt wel met die layout.

Bovenstaande layout bestaat uit 3 vdevs van 1 disk en 1 vdev met een 3weg mirror. Dat betekent dat 3/4 van je zpool nu geen redundantie heeft. Dat is vast niet de bedoeling :). Dit is exact de reden waarom je heel goed moet uitkijken met vdevs toevoegen aan een bestaande zpool, je kunt ze niet meer verwijderen!

Ik snap dat je aan het spelen bent, maar toch voor de leuk:
Als je bovenstaande zpool zou willen 'redden' dan zul je elke single disk vdev moeten promoveren naar een 2-way mirror, en van de 3-way mirror kun je dan 1 disk weghalen. Je hebt dan minimaal 8 disks nodig.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!
P5ycho schreef op maandag 17 augustus 2020 @ 12:00:
[...]
Dit is exact de reden waarom je heel goed moet uitkijken met vdevs toevoegen aan een bestaande zpool, je kunt ze niet meer verwijderen!
Dat kan onder bepaalde voorwaarden tegenwoordig wel. Zie mijn zpool status output van gisteren:
remove: Removal of vdev 1 copied 11.1G in 0h2m, completed on Thu Mar 26 13:48:30 2020
    19.1K memory used for removed device mappings

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Ja, sorry ik had de verkeerde regel gekopie/paste :P.

Dit is het verschil:
https://www.thegeekstuff.com/2011/10/raid10-vs-raid01/

Ik ga er vanuit dat het voor zfs hetzelfde is (ik had dezelfde vraag op reddit gesteld waar iemand met die link kwam).

Die drie mirrortjes heeft dus absolute voorkeur boven de 3-disk stripe mirror (raid01).

[ Voor 15% gewijzigd door InflatableMouse op 17-08-2020 12:10 ]


Acties:
  • 0 Henk 'm!
InflatableMouse schreef op maandag 17 augustus 2020 @ 12:09:
Ja, sorry ik had de verkeerde regel gekopie/paste :P.

Dit is het verschil:
https://www.thegeekstuff.com/2011/10/raid10-vs-raid01/

Ik ga er vanuit dat het voor zfs hetzelfde is (ik had dezelfde vraag op reddit gesteld waar iemand met die link kwam).
Alleen heb je geen RAID01 gemaakt zoals @P5ycho terecht zegt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
CurlyMo schreef op maandag 17 augustus 2020 @ 12:08:
[...]

Dat kan onder bepaalde voorwaarden tegenwoordig wel. Zie mijn zpool status output van gisteren:
remove: Removal of vdev 1 copied 11.1G in 0h2m, completed on Thu Mar 26 13:48:30 2020
    19.1K memory used for removed device mappings
Dat klopt, maar het is nog steeds good practice om even na te denken voordat je aan je pool sleutelt. Ik heb al teveel gevallen gezien waar pools verminkt werden en/of data verloren ging door onvoorzichtigheid. Hetzelfde geldt voor l2arc, zlog en special devices. Denk na over de gevolgen voordat je er mee begint.

Ik zie het kunnen verwijderen van een vdev als 'convenient', maar in de praktijk heb je het bijna nooit nodig. Een scenario wat ik voor thuis kan bedenken is het migreren van bijv. een 5 disk raidz1 van 5x 1tb naar een 3x4tb raidz1 ivm energieverbruik en groei van je poolsize. Handig, maar het is ook niet zo moeilijk om even zfs send/receive te doen naar een nieuwe zpool. Ik heb mijn pool maar 1 keer opnieuw gebouwd met zfs send/receive sinds freebsd 7.0 (begin 2008). Eerst altijd mirrored ahift=9, daarna 5 disk raidz1 ashift=12 vanwege 4k sector disks.
InflatableMouse schreef op maandag 17 augustus 2020 @ 12:09:
Ja, sorry ik had de verkeerde regel gekopie/paste :P.

Dit is het verschil:
https://www.thegeekstuff.com/2011/10/raid10-vs-raid01/

Ik ga er vanuit dat het voor zfs hetzelfde is (ik had dezelfde vraag op reddit gesteld waar iemand met die link kwam).

Die drie mirrortjes heeft dus absolute voorkeur boven de 3-disk stripe mirror (raid01).
RAID01 bestaat niet in ZFS land. een record staat op 1 vdev, niet meer dan dat.
In je link kun je een 'group' zien als een vdev en een geletterd data block als een record. Een record staat dus altijd op 1 vdev, en als de vdev een x-way mirror is dan staat hij op x disks binnen die vdev.

[ Voor 26% gewijzigd door P5ycho op 17-08-2020 12:46 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!
P5ycho schreef op maandag 17 augustus 2020 @ 12:39:
[...]

Dat klopt, maar het is nog steeds good practice om even na te denken voordat je aan je pool sleutelt. Ik heb al teveel gevallen gezien waar pools verminkt werden en/of data verloren ging door onvoorzichtigheid. Hetzelfde geldt voor l2arc, zlog en special devices. Denk na over de gevolgen voordat je er mee begint.
Vanzelfsprekend, maar je schreef het stelliger:
P5ycho schreef op maandag 17 augustus 2020 @ 12:00:
[...]
Dit is exact de reden waarom je heel goed moet uitkijken met vdevs toevoegen aan een bestaande zpool, je kunt ze niet meer verwijderen!

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

CurlyMo schreef op maandag 17 augustus 2020 @ 12:10:
[...]

Alleen heb je geen RAID01 gemaakt zoals @P5ycho terecht zegt.
Edit: P5ycho was me net voor dus mijn bewoording hier klopt dan niet met raid01. Hoe dan ook, het gaat sowieso verdwijnen en ga er 3 mirrors van maken.

Ondertussen wel, maar ik was alleen slordig met copy/paste daaro.

Mijn tests draaien nu tegen de raid01 aan, maar ik gezien de nadelen zal ik daar niet mee blijven draaien.

Wel weer een leerzame zoektocht geweest :D .

Het eind is in zicht in elk geval, na deze tests kan ik de definitieve pool opzetten. Dan volgen er nog een aantal tests met random i/o's op kleinere recordsizes. Daarna moet ik me gaan beraden op de workloads en welke blocksizes ik daar verwacht (is dat te meten eigenlijk?).

[ Voor 10% gewijzigd door InflatableMouse op 17-08-2020 13:29 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
CurlyMo schreef op maandag 17 augustus 2020 @ 13:27:
[...]

Vanzelfsprekend, maar je schreef het stelliger:


[...]
Eens :)

@InflatableMouse, gaf zpool create je geen error toen je die pool zonder redundancy maakte? Vaak krijg je een warning over mismatched redundancy levels, maar het kan ook zijn dat je die warning alleen krijgt bij het toevoegen van een vdev aan een bestaande array. Je moet dan -f gebruiken om de warning te bypassen.

[ Voor 46% gewijzigd door P5ycho op 17-08-2020 13:36 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

P5ycho schreef op maandag 17 augustus 2020 @ 13:33:
@InflatableMouse, gaf zpool create je geen error toen je die pool zonder redundancy maakte? Vaak krijg je een warning over mismatched redundancy levels, maar het kan ook zijn dat je die warning alleen krijgt bij het toevoegen van een vdev aan een bestaande array. Je moet dan -f gebruiken om de warning te bypassen.
Ik denk dat ik iets niet goed begrijp, hoe bedoel je zonder redundantie? Beide pools hadden evenveel redundantie?

code:
1
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6


heeft toch evenveel redundantie als

code:
1
zpool create -o options disk1 disk2 disk3 mirror disk4 disk5 disk6


Ik heb overigens de benchmark afgebroken, de performance van deze laatste was enorm veel trager dan de eerste optie die ik nu weer terug heb met de laatste batch aan tests. Vanacht ergens is tie klaar ... :o .

Acties:
  • +1 Henk 'm!

  • NaliXL
  • Registratie: Maart 2002
  • Laatst online: 07-07 19:22
@InflatableMouse Het artikel wat je aanhaalt over redundantie (RAID 10 vs RAID 01) klopt m.i. ook niet. Namelijk:
RAID 10 fault tolerance is more. On RAID 10, since there are many groups (as the individual group is only two disks), even if three disks fails (one in each group), the RAID 10 is still functional. In the above RAID 10 example, even if Disk 1, Disk 3, Disk 5 fails, the RAID 10 will still be functional.
Er word dus verondersteld dat RAID 10 meer redundantie biedt omdat er per groep 1 schijf kan falen zonder gegevensverlies. Dat betekent dat je bij uitval van 3 willekeurige schijven 90% kans hebt op gegevensverlies.

Wat er echter over het hoofd gezien wordt is dat dit bij RAID01 precies hetzelfde is. Het maakt niet uit of er 1, 2 of 3 schijven falen, zolang ze maar in dezelfde groep zitten. Dus opnieuw 90% kans op gegevensverlies.

edit:
Mijn kansberekening is wat roestig. Volgens mij moet het zijn (2/5)*(1/4)*100=10% kans op behoud van gegevens, ofwel 90% kans op gegevensverlies.


edit:
Edit 2: @mcDavid Ik heb mijn berekening een paar keer bij moeten werken (zie bovenstaand), maar volgens mij geld bij beide:
1e keer kan iedere schijf uitvallen zonder gegevensverlies
2e keer zijn er 2 van de 5 schijven die uit kunnen vallen zonder gegevensverlies (uitgaande van uiteindelijk totaal 3)
3e keer is er 1 van de 4 schijven die nog uit kan vallen zonder gegevensverlies

Maak ik daar een denkfout?

[ Voor 26% gewijzigd door NaliXL op 17-08-2020 16:15 ]

Genoeg is meer dan veel, en tart den overvloed


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Klopt denk ik wat je zegt, ik dacht precies hetzelfde toen ik het las. Maar het boeide me eigenlijk niet want dat was niet de informatie die ik uit dat artikel wilde halen, het ging me om de basis (de theorie) van de opzet en niet om hoe raid controllers daarmee om gaan. Had hij er geen disclaimer bij staan dat het misschien afhankelijk was van de raid controller hoe die met uitval om ging?

Acties:
  • +1 Henk 'm!

  • mcDavid
  • Registratie: April 2008
  • Laatst online: 09-09 17:48
NaliXL schreef op maandag 17 augustus 2020 @ 14:10:
@InflatableMouse Het artikel wat je aanhaalt over redundantie (RAID 10 vs RAID 01) klopt m.i. ook niet. Namelijk:

[...]

Er word dus verondersteld dat RAID 10 meer redundantie biedt omdat er per groep 1 schijf kan falen zonder gegevensverlies. Dat betekent dat je bij uitval van 3 willekeurige schijven 90% kans hebt op gegevensverlies.

Wat er echter over het hoofd gezien wordt is dat dit bij RAID01 precies hetzelfde is. Het maakt niet uit of er 1, 2 of 3 schijven falen, zolang ze maar in dezelfde groep zitten. Dus opnieuw 90% kans op gegevensverlies.

edit:
Mijn kansberekening is wat roestig. Volgens mij moet het zijn (2/5)*(1/4)*100=10% kans op behoud van gegevens, ofwel 90% kans op gegevensverlies.
bij Raid 01 is het:
6/6 * 2/5 * 1/4 = 1/10
bij Raid 10 is het:
6/6 * 4/5 * 2/4 = 4/10

De kans op behoud van je data is bij Raid 10 dus 4x zo hoog.

Acties:
  • 0 Henk 'm!

  • mcDavid
  • Registratie: April 2008
  • Laatst online: 09-09 17:48
om de discussie leesbaar te houden gewoon in een nieuwe post hoor:
NaliXL schreef op maandag 17 augustus 2020 @ 14:10:

edit:
Edit 2: @mcDavid Ik heb mijn berekening een paar keer bij moeten werken (zie bovenstaand), maar volgens mij geld bij beide:
1e keer kan iedere schijf uitvallen zonder gegevensverlies
2e keer zijn er 2 van de 5 schijven die uit kunnen vallen zonder gegevensverlies (uitgaande van uiteindelijk totaal 3)
3e keer is er 1 van de 4 schijven die nog uit kan vallen zonder gegevensverlies

Maak ik daar een denkfout?
Ja: bij raid 10 heb je na uitval van 1 disk, nog 2 gezonde mirrors. dat zijn dus 4 disks die veilig uit kunnen vallen. Alléén de andere disk uit de gedegradeerde mirror kun je echt niet meer missen. De kans dat het mis gaat is dus 1/5

Bij raid01 is het andersom: bij uitval van één disk, zijn er direct 3 onbruikbaar (de defecte en de twee die daarmee gestriped worden). Een defect aan de andere disks (3/5) betekent direct dataloss.

De kans op dataloss is dus veel groter, ondanks dat de pariteit het zelfde is.

Je kunt het ook anders bekijken:
Beide situaties mogen er max 3 disks kapot, maar we begrijpen dat dat alléén opgaat wanneer het een goeie combinatie van disks is.

Bij raid01 zijn er precies 2 overleefbare combinaties mogelijk: 1-2-3 óf 4-5-6.
Bij raid10 heb je 8 mogelijke combinaties: 1-3-5, of 2-3-5 of 1-4-5 etc etc.


Voor een array van 4 disks geldt overigens het zelfde maar is het verschil iets kleiner: 2 vs 4 combinaties, ofwel kans op dataloss 2/3 vs 1/3

[ Voor 5% gewijzigd door mcDavid op 17-08-2020 18:06 ]


Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Met het risisco dat ik allemaal dingen ga vertellen die jullie al lang weten :+ ... Ik lees dus net dat er met zfs geen sprake is van een striping in de traditionele zin van het woord. Als voorbeeld, een traditionele raid0 zou op elke disk in de raid set een record plaatsen op dezelfde offset, tesamen vormt dit de stripe. Bij zfs lees ik gebeurd dat niet. Als je dus een pool maakt:

code:
1
zpool create -o options disk1 disk2 disk3


Heb je feitelijk 3 losse vdevs in je pool, en niet een raid0-achtig iets van 1 vdev met 3 disks waarover gestriped wordt.

Wat zfs schijnbaar dus wel doet is onder andere op basis van vrije ruimte bepalen welke record naar welke vdev gaat en het "balanced" de records dus wel die het wegschrijft, maar maakt dus geen stripes over de disks (vdevs). Bij raidz zou dat anders werken, daar wordt dan wel weer met een soort striping gewerkt binnen de vdev.

Raid01 kan je dus ook niet aanmaken. Deze pool:
code:
1
zpool create -o options disk1 disk2 disk3 mirror disk4 disk5 disk6

is dus geen raid01. Dit zijn 3 losse vdevs die gemirrored zijn met die 3 andere. Hoe die dit dan precies doet weet ik ook niet maar het is niet hetzelfde en ook lang niet zo snel als 3 mirrors aan een pool geven.

Goed, als er dan geen striping plaats vind dan zou ik denken (maar dat is dan ook meteen de vraag hier), zou de uitval in geval van de "raid01" dus ook niet gewoon drie disks mogen zijn, zolang het maar niet 2 uit dezelfde mirror zijn? Eigenlijk hetzelfde als met 3 mirrors?

Acties:
  • +1 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
InflatableMouse schreef op maandag 17 augustus 2020 @ 14:03:
[...]


Ik denk dat ik iets niet goed begrijp, hoe bedoel je zonder redundantie? Beide pools hadden evenveel redundantie?
Even mezelf quoten:
P5ycho schreef op maandag 17 augustus 2020 @ 12:00:
Bovenstaande layout bestaat uit 3 vdevs van 1 disk en 1 vdev met een 3weg mirror. Dat betekent dat 3/4 van je zpool nu geen redundantie heeft. Dat is vast niet de bedoeling :)
Je hebt dus 3 losse disks en een enkele 3-way mirror in een striped config. Oeps.

Zie ook het verschil tussen dit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
zpool create -o options mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6

tank
  mirror-0
       disk1
       disk2
  mirror-1
       disk3
       disk4
  mirror-2
       disk5
       disk6

en dit:
code:
1
2
3
4
5
6
7
8
9
10
11
zpool create -o options mirror disk1 disk2 disk3 mirror disk4 disk5 disk6

tank
  mirror-1
       disk1
       disk2
       disk3
  mirror-2
       disk4
       disk5
       disk6


en dit:
code:
1
2
3
4
5
6
7
8
9
10
11
zpool create -o options disk1 disk2 disk3 mirror disk4 disk5 disk6
                        vdev1 vdev2 vdev3 ( vdev4, 3 way mirror  )

tank
   disk1
   disk2
   disk3
  mirror-0
       disk4
       disk5
       disk6


De laatste zpool heeft geen bestaansrecht imho, die pool gaat nergens in uitblinken.
Nogmaals, de RAID01 array die je denkt te maken bestaat niet in ZFS omdat redundantie alleen gecreerd kan worden binnen een vdev, niet daar buiten.

edit: ik post dit net nadat je het zelf ook uitgevonden hebt. reagerende op jouw post:
ZFS doet zeker aan striping, maar niet zo strict als de simpele, klassieke, 'domme' striping. Als je striping ziet als het verdelen van je records over meerdere vdevs, dan is dit zeker striping. Het is alleen wat intelligenter, met instelbare recordsize per filesystem, met gewogen verdeling over de vdevs.

[ Voor 35% gewijzigd door P5ycho op 18-08-2020 00:09 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


  • imdos
  • Registratie: Maart 2000
  • Laatst online: 14:18

imdos

I use FreeNAS and Ubuntu

Vraagje; ik heb al 2 á 3 weken regelmatig dat ik vanuit FreeNAS (oude unsupported versie btw [9.2.x]) de volgende email krijg.

code:
1
2
3
4
5
6
The following warning/error was logged by the smartd daemon:

Device: /dev/ada3, 8 Offline uncorrectable sectors

Device info:
TOSHIBA DT01ACA300, S/N:538TG6UGS, WWN:5-000039-ff4cb1e49, FW:MX6OABB0, 3.00 TB


Schijf is net als de rest al diverse jaren (5+) in gebruik en ik heb af en toe wel eens een foutje of zo met SMART (vanwege offline zijn van een disk). De disken zijn al gebruikt geweest voordat ik ze kocht en komen van cobesu vandaan overigens.
Ik heb 5x deze disk in een raid-z1 opstelling in een HP Microserver N54L kastje. De upgrade ligt al jaren klaar; maar komt er vanwege tijdgebrek nooit echt van. Ik heb daarvoor een 2U kast met 8*4Tb en 3*256Gb SSD's klaar liggen.

Maar een scrub wordt om de 8 dagen altijd zonder problemen afgerond met geen enkel probleem. Moet ik nu zsm de schijf vervangen of deze dd'en en weer opnieuw inzetten. PS: Ik heb geen backup van deze backup

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


  • Q
  • Registratie: November 1999
  • Laatst online: 19:33
imdos schreef op donderdag 20 augustus 2020 @ 14:51:
Vraagje; ik heb al 2 á 3 weken regelmatig dat ik vanuit FreeNAS (oude unsupported versie btw [9.2.x]) de volgende email krijg.

code:
1
2
3
4
5
6
The following warning/error was logged by the smartd daemon:

Device: /dev/ada3, 8 Offline uncorrectable sectors

Device info:
TOSHIBA DT01ACA300, S/N:538TG6UGS, WWN:5-000039-ff4cb1e49, FW:MX6OABB0, 3.00 TB


Schijf is net als de rest al diverse jaren (5+) in gebruik en ik heb af en toe wel eens een foutje of zo met SMART (vanwege offline zijn van een disk). De disken zijn al gebruikt geweest voordat ik ze kocht en komen van cobesu vandaan overigens.
Ik heb 5x deze disk in een raid-z1 opstelling in een HP Microserver N54L kastje. De upgrade ligt al jaren klaar; maar komt er vanwege tijdgebrek nooit echt van. Ik heb daarvoor een 2U kast met 8*4Tb en 3*256Gb SSD's klaar liggen.

Maar een scrub wordt om de 8 dagen altijd zonder problemen afgerond met geen enkel probleem. Moet ik nu zsm de schijf vervangen of deze dd'en en weer opnieuw inzetten. PS: Ik heb geen backup van deze backup
Zoals ik het zie is je schijf aan het sterven, de schijf ontwikkelt bad sectors. Ik zou deze zo snel mogelijk vervangen.

Maar misschien is het nog beter om je nieuwe upgrade build af te maken en die 4TBs en SSDs in te zetten. Overigens vraag ik me af wat je met die SSDs wilt doen want die heb je niet echt nodig voor een reguliere thuis NAS.

Acties:
  • +1 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 14:18

imdos

I use FreeNAS and Ubuntu

Q schreef op donderdag 20 augustus 2020 @ 15:08:
[...]


Zoals ik het zie is je schijf aan het sterven, de schijf ontwikkelt bad sectors. Ik zou deze zo snel mogelijk vervangen.

Maar misschien is het nog beter om je nieuwe upgrade build af te maken en die 4TBs en SSDs in te zetten. Overigens vraag ik me af wat je met die SSDs wilt doen want die heb je niet echt nodig voor een reguliere thuis NAS.
Oke; thanks, ga ik binnenkort maar eens een schijf vervangen. dat is sneller dan een nieuwe server opbouwen. Dat project ligt ook pas 3 jaar of zo; dus gaat lekker hard 8)7

Die nieuwe build met SSD's is voor het runnen van verschillende VM's. Iets met download en wat dockers en andere spullenboel. Die wou ik vanaf SSD doen. Ik dacht eerst aan FreeNAS; maar denk dat ik lekker voor Debian of Ubuntu ga. ZFS wordt steeds beter op Linux.

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


  • Q
  • Registratie: November 1999
  • Laatst online: 19:33
Wat zou er nodig zijn om je nieuwe oude server alsnog eens af te bouwen en in gebruik te nemen? Maw: waarom stel je zoiets 3 jaar uit?

Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 09-09 12:06
CurlyMo schreef op woensdag 12 augustus 2020 @ 11:48:
[...]

De optie autoexpand aanzetten en daarna alle schijven 1 voor 1 vervangen.
Intussen gevonden dat de schijf op zijn einde aan het lopen was, en af en toe vreemd deed. Ze is enkele dagen later helemaal overleden, en gisteren zijn de vervangers (het zijn 16TB schijven geworden ipv de geplande 8TB, dankzij de rare prijszetting van Seagate) eindelijk toegekomen. De kapotte schijf is eruit, en de vervanging zit erin. De pool is aan het resilveren (aan 10% per uur ongeveer, dat valt me goed mee).

In de loop van volgende week vervang ik de rest: ik heb nog 2 SATA poorten over, maar geen SATA voedings aansluiting. Wel enkele molexen, dus ik ga nog een verloopje scoren zodat ik mijn nieuwe schijven kan toevoegen aan de pool terwijl de oude nog erin zitten, dat zou volgens de Freenas documentatie sneller en veiliger zijn (want je hebt altijd volledige redundantie).

Intussen ook al gecontroleerd of autoexpand aan staat, maar dat was het geval.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
Je doet er goed aan om die 2 sata poorten tegelijk in te zetten tijdens de resilver, 2 disks tegelijk replacen duurt even lang als 1. Even een molex naar 2 sata splitter scoren dus :).

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 09-09 12:06
Daar was ik al naar aan het kijken ja, eentje die direct leverbaar is. Dan besluit ik hier de accessoireschuif eens open te trekken en hier ligt er gewoon eentje 8)7.

Ik ga ze per 2 aansluiten en SMART testen, en aangezien de redundantie toch blijft kan ik inderdaad de schijven gewoon per 2 gaan vervangen. Hoewel de urgentie nu weg is: of het nu 2 dagen of een week duurt maakt eigenlijk niet veel uit.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik heb twee ZFS NAS'en, eentje met 6x 2TB en eentje met 6x 3TB, beide in RAID-Z2. Ik zou de oude willen gebruiken als "off-site backup" door bv. rsync tussen beide te laten lopen om cryptolocker te kunnen uitsluiten. Maar daarvoor zou ik ook een snapshot systeem moeten bedenken om dit tegen te gaan. Beide gebruiken de recentste XigmaNAS update.

Dus twee problemen:
1. hoe krijg ik de twee NAS'en gesynced en is rsync hier een goed middel voor ?
2. hoe stel ik snapshots in zodat niet al mijn data in de achtergrond geencrypteerd wordt ?

Hoe pakken jullie dergelijke situaties aan (verwacht is ~100-1000MB per dag aan veranderende gegevens) en ander advies ook welkom !

Acties:
  • +1 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 18:18
Phuncz schreef op maandag 31 augustus 2020 @ 14:04:
Ik heb twee ZFS NAS'en, eentje met 6x 2TB en eentje met 6x 3TB, beide in RAID-Z2. Ik zou de oude willen gebruiken als "off-site backup" door bv. rsync tussen beide te laten lopen om cryptolocker te kunnen uitsluiten. Maar daarvoor zou ik ook een snapshot systeem moeten bedenken om dit tegen te gaan. Beide gebruiken de recentste XigmaNAS update.

Dus twee problemen:
1. hoe krijg ik de twee NAS'en gesynced en is rsync hier een goed middel voor ?
2. hoe stel ik snapshots in zodat niet al mijn data in de achtergrond geencrypteerd wordt ?

Hoe pakken jullie dergelijke situaties aan (verwacht is ~100-1000MB per dag aan veranderende gegevens) en ander advies ook welkom !
Je hebt 2 ZFS systemen en toch willen rsyncen? Waarom niet gewoon met zfs send/receive? Veel efficienter/sneller. De snapshots zorgen dan voor een version control?

Acties:
  • +3 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Phuncz schreef op maandag 31 augustus 2020 @ 14:04:
Ik heb twee ZFS NAS'en, eentje met 6x 2TB en eentje met 6x 3TB, beide in RAID-Z2. Ik zou de oude willen gebruiken als "off-site backup" door bv. rsync tussen beide te laten lopen om cryptolocker te kunnen uitsluiten. Maar daarvoor zou ik ook een snapshot systeem moeten bedenken om dit tegen te gaan. Beide gebruiken de recentste XigmaNAS update.

Dus twee problemen:
1. hoe krijg ik de twee NAS'en gesynced en is rsync hier een goed middel voor ?
2. hoe stel ik snapshots in zodat niet al mijn data in de achtergrond geencrypteerd wordt ?

Hoe pakken jullie dergelijke situaties aan (verwacht is ~100-1000MB per dag aan veranderende gegevens) en ander advies ook welkom !
Waarom niet ZFS snapshots in combinatie met zfs send/receive gebruiken? ZFS snapshots zijn immutable, en doordat ZFS Copy-on-Write doet ook snel. Cryptolockers kunnen dan ook niks aan snapshots veranderen. En met zfs send/receive (over SSH) kun je mooi de snapshots over zetten.

Voor snapshot & replication zijn er ook "bergen" kant en klare oplossingen te vinden. Syncoid, Pyznap, znapzend, en er zijn er vast nog wel meer.

Rsync zou ik in ieder geval niet doen. Omdat die altijd zal kijken naar volledige files, of die gewijzigd zijn, en dan over sturen. Waar ZFS intern eenvoudig een "diff" kan maken van wat er veranderd is tussen snapshots en alleen dat over sturen.

Acties:
  • +1 Henk 'm!

  • FutureCow
  • Registratie: December 2000
  • Laatst online: 16:53

FutureCow

(C) FutureCow

Heb op mijn moederbord maar 1 M.2 slot.
Kan ik een mirror maken van:
M.2 NVME ssd op mobo
M.2 NVME ssd op PCIe 3.0 4x kaartje

En daar dan ook nog van booten? (en wellicht ook verschillende 256GB ssd's)
(Debian 10 met ZoL, dit mobo: pricewatch: ASRock B360M-HDV)

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
FutureCow schreef op woensdag 2 september 2020 @ 15:46:
Heb op mijn moederbord maar 1 M.2 slot.
Kan ik een mirror maken van:
M.2 NVME ssd op mobo
M.2 NVME ssd op PCIe 3.0 4x kaartje

En daar dan ook nog van booten? (en wellicht ook verschillende 256GB ssd's)
(Debian 10 met ZoL, dit mobo: pricewatch: ASRock B360M-HDV)
Ik heb een hoop gedoe gehad met een, achteraf, brakke NVME SSD. Die heb ik toentertijd ook een tijd via zo'n PCIe adapter / kaart gedraaid en ging gewoon goed (met Proxmox dat dus ook Debian Buster is). Vervolgens een mirror maken lijkt mij dan ook geen issue. Heb alleen geed idee hoe dat zit met de EFI partitie, die zit natuurlijk buiten ZFS dus zou je alsnog twee keer moeten onderhouden.

Acties:
  • +1 Henk 'm!
@FutureCow ZFS boeit het allemaal niet. Of je nu SSD's en HDD's gebruikt, SSD's en fysieke bestanden, ramdisks en HDD's enz. Het maakt van vrijwel alles een raid pool voor je aan. Het is alleen aan jou om na te gaan welke stabiliteit je onderliggende systeem gaat geven.

Booten doet ZFS zelf overigens ook niet, dat handelt je initramfs voor je af.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FutureCow
  • Registratie: December 2000
  • Laatst online: 16:53

FutureCow

(C) FutureCow

Met deze handleiding geprobeerd ZFS on Root voor elkaar te krijgen met een Debian installatie. Alleen heb ik in plaatst van een nieuwe installatie, mijn oude ext4 SSD via rsync naar de nieuwe SSD gekopieerd.
Alles lijkt te werken, maar ik boot alleen nog vanuit de BIOS (oke UEFI) op de oude SSD, vanaf daar kom ik dan op mijn nieuwe SSD en start deze verder prima door.

Hoe krijg ik het voor elkaar ook te kunnen starten vanaf de nieuwe SSD?

lsblk (nvme1 is oude, nvme0 is nieuwe SSD):
code:
1
2
3
4
5
6
7
8
9
nvme1n1     259:0    0 238.5G  0 disk
├─nvme1n1p1 259:1    0   512M  0 part /boot/efi
├─nvme1n1p2 259:2    0 230.3G  0 part
└─nvme1n1p3 259:3    0   7.7G  0 part [SWAP]
nvme0n1     259:4    0 232.9G  0 disk
├─nvme0n1p1 259:5    0  1000K  0 part
├─nvme0n1p2 259:6    0   512M  0 part
├─nvme0n1p3 259:7    0     1G  0 part
└─nvme0n1p4 259:8    0 231.4G  0 part


zfs get -rt filesystem mountpoint
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
NAME                                                                                   PROPERTY    VALUE            SOURCE
bpool                                                                   mountpoint  /boot            local
bpool/BOOT                                                              mountpoint  none             local
bpool/BOOT/debian                                                       mountpoint  /boot            local
rpool                                                                   mountpoint  /                local
rpool/ROOT                                                              mountpoint  none             local
rpool/ROOT/debian                                                       mountpoint  /                local
rpool/home                                                              mountpoint  /home            inherited from rpool
rpool/home/root                                                         mountpoint  /root            local
rpool/opt                                                               mountpoint  /opt             inherited from rpool
rpool/srv                                                               mountpoint  /srv             inherited from rpool
rpool/tmp                                                               mountpoint  /tmp             inherited from rpool
rpool/usr                                                               mountpoint  /usr             inherited from rpool
rpool/usr/local                                                         mountpoint  /usr/local       inherited from rpool
rpool/var                                                               mountpoint  /var             inherited from rpool
rpool/var/cache                                                         mountpoint  /var/cache       inherited from rpool
rpool/var/lib                                                           mountpoint  /var/lib         inherited from rpool
rpool/var/lib/docker                                                    mountpoint  /var/lib/docker  inherited from 
rpool/var/log                                                           mountpoint  /var/log         inherited from rpool
rpool/var/mail                                                          mountpoint  /var/mail        inherited from rpool
rpool/var/spool                                                         mountpoint  /var/spool       inherited from rpool
rpool/var/tmp                                                           mountpoint  /var/tmp         inherited from rpool
rpool/var/www                                                           mountpoint  /var/www         inherited from rpool


zpool status:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
  pool: bpool
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.
  scan: none requested
config:

        NAME                                                         STATE     READ WRITE CKSUM
        bpool                                                        ONLINE       0     0     0
          nvme-Samsung_SSD_970_EVO_Plus_250GB_S4EUNJ0N441329J-part3  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                                         STATE     READ WRITE CKSUM
        rpool                                                        ONLINE       0     0     0
          nvme-Samsung_SSD_970_EVO_Plus_250GB_S4EUNJ0N441329J-part4  ONLINE       0     0     0

errors: No known data errors

Acties:
  • 0 Henk 'm!
Je grub boot code laten verwijzen naar de nieuwe root. Dat heeft verder niks met ZFS te maken, maar met standaard linux configuratie.

Mountpoints kan je goed laten zetten vanuit ZFS zelf of via de fstab. In dat laatste geval moet je ZFS mountpoint als legacy ingesteld staan.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • FutureCow
  • Registratie: December 2000
  • Laatst online: 16:53

FutureCow

(C) FutureCow

Met het volgen van de stappen van OpenZFS staat uiteindelijk dit in mijn fstab:
code:
1
2
3
4
UUID=d3f0611a-5b66-43e1-b17e-dac54b317ddf /               ext4    errors=remount-ro 0       1
UUID=F3E6-08CA  /boot/efi       vfat    umask=0077      0       1
UUID=fb1c008f-aa88-45fa-99de-a10ba274c84f none            swap    sw              0       0
PARTUUID=64f0d62b-938c-4f3e-abb5-fd1c0877384c /boot/efi vfat nofail,x-systemd.device-timeout=1 0 1


er staat dus 2x een /boot/efi in.
blkid UUID (nvme0 is nieuwe ssd):
code:
1
2
3
4
5
6
7
/dev/nvme1n1p1: UUID="F3E6-08CA" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="6e608547-43d6-4812-bcc2-1381b0790a6e"
/dev/nvme1n1p2: UUID="d3f0611a-5b66-43e1-b17e-dac54b317ddf" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="b62fd2bd-c29d-4519-8845-25e1e68c0db0"
/dev/nvme1n1p3: UUID="fb1c008f-aa88-45fa-99de-a10ba274c84f" TYPE="swap" PARTUUID="ea8ee236-0092-4b06-bf84-1e1be732d0a4"
/dev/nvme0n1p2: LABEL_FATBOOT="EFI" LABEL="EFI" UUID="7D82-B3FC" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="64f0d62b-938c-4f3e-abb5-fd1c0877384c"
/dev/nvme0n1p3: LABEL="bpool" UUID="11677001688569340185" UUID_SUB="4465143603672911983" BLOCK_SIZE="4096" TYPE="zfs_member" PARTUUID="c75b2453-2e38-4ef4-a419-b09e539ed0d0"
/dev/nvme0n1p4: LABEL="rpool" UUID="2539621985895764986" UUID_SUB="17185164116259433080" BLOCK_SIZE="4096" TYPE="zfs_member" PARTUUID="4de5ce77-d63b-43f6-abda-a0c98fe77f10"
/dev/nvme0n1p1: PARTUUID="6ebcd27b-17ba-4bdd-b133-74d625eb5bd1"

Ik kan dus die eerste boot/efi regel verwijderen(sowieso de eerste 3 regels, die gaan allemaal over oude SSD)? In de onderste regel staat geen legacy.

gaat om dit stukje uit de tutorial van OpenZFS denk ik:
code:
1
2
3
4
5
6
7
apt install dosfstools
mkdosfs -F 32 -s 1 -n EFI ${DISK}-part2
mkdir /boot/efi
echo PARTUUID=$(blkid -s PARTUUID -o value ${DISK}-part2) \
   /boot/efi vfat nofail,x-systemd.device-timeout=1 0 1 >> /etc/fstab
mount /boot/efi
apt install --yes grub-efi-amd64 shim-signed


voordat ik zo met een systeem zit dat niet meer wil opstarten :)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

FutureCow schreef op maandag 14 september 2020 @ 13:45:
voordat ik zo met een systeem zit dat niet meer wil opstarten :)
Daar zijn Live CD's voor gemaakt! ;)

En je hebt dan weer iets nieuws geleerd! :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • ocaj
  • Registratie: Juli 2011
  • Niet online
Ik werk al een kleine 10 jaar met ZFS, maar heb nu iets raars wat ik niet begrijp.

Van mijn NAS maak ik offline backups op losse schijven d.m.v. zfs send/receive.

Ik heb nu een schijf waarbij zpool list aangeeft dat er nog 164G vrij is:
code:
1
2
3
zpool list backup
NAME     SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
backup  4.53T  4.37T   164G        -         -    15%    96%  1.00x    ONLINE  -

maar zfs list geeft nog maar 19G vrij:
code:
1
2
3
zfs list backup
NAME     USED  AVAIL     REFER  MOUNTPOINT
backup  4.37T  19.3G      196K  /backup


Als er nog 164GB in de zpool vrij is, dan zou er toch veel meer dan 19G moeten zijn voor de file-systems?

Ik heb vannacht al een scrub laten lopen voor het geval er ergens iets niet klopte, maar dat hielp niet.

Enige afwijkende dat ik op mijn backup-schijven aanzet is copies=2 en gzip=9, er staat geen quota of refquota ingesteld.

Iemand nog een idee?

(Normaal pak ik dan gewoon de volgende schijf, maar mijn offline-schijven liggen op mijn werk op 2 lokaties. Deze week mocht ik eindelijk na een half jaar weer naar 1 van de lokaties, maar volgens de wet van Murphy liggen mijn half-lege backup-schijven op de lokatie waar kantoor nog dicht zit....)

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 13:22

WeaZuL

Try embedded, choose ARM!

Ik loop tegen het volgende aan naar aanleiding van een scrub:
  pool: tank1
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
	attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
	using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: scrub repaired 640K in 0 days 13:40:12 with 0 errors on Sun Sep 13 14:04:13 2020
config:

	NAME                                           STATE     READ WRITE CKSUM
	tank1                                          ONLINE       0     0     0
	  mirror-0                                     ONLINE       0     0     0
	    ata-ST2000LM003_HN-M201RAD_S321J9CG202691  ONLINE       0     0     0
	    ata-ST2000LM003_HN-M201RAD_S32WJ9FF462626  ONLINE       0     0     0
	  mirror-1                                     ONLINE       0     0     0
	    ata-ST2000LM003_HN-M201RAD_S34RJ9FF717085  ONLINE       2     0     4
	    ata-ST2000LM003_HN-M201RAD_S34RJ9FF717543  ONLINE       0     2     0
	  mirror-2                                     ONLINE       0     0     0
	    ata-ST5000LM000-2AN170_WCJ04XQP            ONLINE       0     0     0
	    ata-ST5000LM000-2AN170_WCJ03KT3            ONLINE       0     0     0
	logs	
	  slog                                         ONLINE       0     0     0

errors: No known data errors


Mijn vraag is zijn er nu issues gedetecteerd op beide schijven in Mirror-1? Wat is raadzaam, opnieuw een scrub initiëren, de errors clearen of overgaan tot de schijven vervangen?

edit:

Wederom een scrub gestart, alles staat vervolgens weer op 0. Kijken hoe het dit keer uitpakt. Ik las op de pagina dat de oorzaken in meedere hoeken gezocht kunnen worden. Kijken of het een factor van buiten was of dat de schijven daadwerkelijk aan het degraderen zijn.

[ Voor 8% gewijzigd door WeaZuL op 16-09-2020 14:43 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • +1 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 09-09 12:06
Ik ben iets soortgelijk tegengekomen een maand geleden. Ik moest even troubleshooten of het aan een kabel of iets dergelijks lag (want de fouten gingen weer weg), maar een goede week later of zo is de schijf met de fouten overleden.

Kijk eens naar de SMART waardes van die 2 schijven zou ik zeggen, misschien zie je daar iets wat niet pluis is, en kan je een schijf preventief vervangen (of andere maatregelen nemen).

En om even een statusupdate te geven: alle schijven zijn intussen vervangen hier, de laatste oude schijf ben ik nog aan het wipen. De capaciteit is inderdaad automatisch omhoog gegaan, ik heb weer 44TiB beschikbaar nu (van de ongeveer 56 TiB totaal), daar kom ik wel even mee toe :) .

Acties:
  • +2 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
ocaj schreef op woensdag 16 september 2020 @ 07:50:
Ik heb nu een schijf waarbij zpool list aangeeft dat er nog 164G vrij is:
code:
1
2
3
zpool list backup
NAME     SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
backup  4.53T  4.37T   164G        -         -    15%    96%  1.00x    ONLINE  -

maar zfs list geeft nog maar 19G vrij:
code:
1
2
3
zfs list backup
NAME     USED  AVAIL     REFER  MOUNTPOINT
backup  4.37T  19.3G      196K  /backup
Vermoedelijk heb je het antwoord al gevonden. Mocht het niet zo zijn: ZFS reserveert standaard wat ruimte om te kunnen blijven functioneren met weinig resterende ruimte (slop space). Dat gaat sinds een aantal jaar standaard (zoals ook bij jouw setup) om 3.2% van de totale capaciteit van de pool. In jouw geval dus ~4,53*0,032 = ~145GB. Tel daar de 19GB bij op en je komt op de 164GB die je zoekt.

De instelling staat alhier en zal in jouw geval 5 retourneren.
code:
1
cat /sys/module/zfs/parameters/spa_slop_shift

Door daar 6 van te maken zal de slop space aangepast worden naar 1.6%
code:
1
echo 6 > /sys/module/zfs/parameters/spa_slop_shif

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
@Dadona Dank voor het antwoord. Ik had inmiddels wel een workaround gevonden (meer oude snapshots weggooien...), maar deze verklaring had ik nog niet gevonden.

Ben er nog niet eerder tegenaan gelopen, omdat ik pas begin dit jaar naar een actuele ZFS overgestapt ben en voorheen mijn NAS op een openindiana-versie uit 2011 had draaien. Daar kon ik gewoon de hele schijf vol gooien.

Fijn voor een volgende keer om te weten waar het vandaan komt en wat ik er aan kan doen!

  • Unicron
  • Registratie: November 2001
  • Laatst online: 24-08 17:50
Vraagje: Ik heb een ubuntu systeem met zfs als root en dan een mirror configuratie. Nu is 1 disk kapot. Normaal is het een kwestie van replacen, maar in geval van een zfs root zijn er 3 partitities op 1 disk. Ik zal dus meer moeten doen dan alleen de bpool en rpool resilveren naar de nieuwe disk. Waarschijnlijk zal ik een identieke partitietabel op de nieuwe disk moeten zetten, dan de fat32 partitie van ESP kopieren etc.

Heeft er iemand een tutorial hoe dit te doen?
Unicron schreef op zaterdag 26 september 2020 @ 20:54:
Vraagje: Ik heb een ubuntu systeem met zfs als root en dan een mirror configuratie. Nu is 1 disk kapot. Normaal is het een kwestie van replacen, maar in geval van een zfs root zijn er 3 partitities op 1 disk. Ik zal dus meer moeten doen dan alleen de bpool en rpool resilveren naar de nieuwe disk. Waarschijnlijk zal ik een identieke partitietabel op de nieuwe disk moeten zetten, dan de fat32 partitie van ESP kopieren etc.

Heeft er iemand een tutorial hoe dit te doen?
Precies zoals je zegt. Partitietabel clonen naar nieuwe disk en dan per pool replacen met partitie nummers i.p.v. volledige schijf.

Sinds de 2 dagen regel reageer ik hier niet meer

Volgens mij heeft parted een optie om een partitieconfig te clonen.

Even niets...


  • Unicron
  • Registratie: November 2001
  • Laatst online: 24-08 17:50
Thanks voor de snelle reactie. Hopelijk heb ik de nieuwe disk volgende week en kan ik het uitvoeren.

Ik ben wat aan het zoeken op het internet. Als het goed is kan ik de partitietabel clonen met sfdisk:
sfdisk -d /dev/sdX > parttable
sfdisk /dev/sdX < parttable

Dan is het een kwestie van de bpool en de rpool toevoegen en resilveren. De fat32 ESP partitie zal ik waarschijnlijk met dd?? ofzo moeten clonen.

Als ik de partitietabel clone, is er dan nog een probleem met bepaalde getallen die uniek moeten zijn, maar dat niet zijn door het clonen?
Unicron schreef op zaterdag 26 september 2020 @ 21:36:
Als ik de partitietabel clone, is er dan nog een probleem met bepaalde getallen die uniek moeten zijn, maar dat niet zijn door het clonen?
Je nieuwe partities moeten minstens net zo groot of groter zijn. Allemaal precies hetzelfde al zou je met volledige schijven werken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 14-09 18:11
Unicron schreef op zaterdag 26 september 2020 @ 21:36:
Als ik de partitietabel clone, is er dan nog een probleem met bepaalde getallen die uniek moeten zijn, maar dat niet zijn door het clonen?
Recent zoiets moeten doen, klopt inderdaad.
Procesgang is dat je de nieuwe disc met GPT moet initialiseren, erna de opbouw moet kopiëren, vervolgens het boot deel kopiëren (partitie 1 en 2 voor legacy en uefi boot) en tot slot de derde partitie aan de rpool moet toevoegen (attach, resilver, joy). Commando's/stappen (in dit geval is sdc de nieuwe disc):
  1. Replace the physical failed/offline drive, /dev/sdc
  2. Initialize Disk with GPT (/dev/sdc)
  3. Copy the partition table from /dev/sda to /dev/sdc
    sgdisk --replicate=/dev/sdc /dev/sda
  4. Ensure the GUIDs are randomized
    sgdisk --randomize-guids /dev/sdc
  5. Install the Grub on the new disk
    grub-install /dev/sdc
  6. Then replace/attach/... the disk in the ZFS pool, several options, opted for this one:
    zpool attach rpool /dev/disk/by-id/<oude disc>-part3 /dev/disk/by-id/<nieuwe disc>-part3
  7. Remove old disc
    zpool detach rpool <oude disc>
  8. Install grup failed for some reason on my end, therefore copied the set over using dd
    dd if=/dev/sda1 of=/dev/sdb1
    dd if=/dev/sda2 of=/dev/sdb2
In het Engels omdat ik misschien ooit dit soort zaken eens ergens in een blog post. Maar ja, dat is project #4534 :+ En uiteraard nog even de gebruikelijke disclaimers, test het zelf nog even, ik moet het binnenkort zelf nog even dubbelchecken, maar dit zou het moeten zijn.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Unicron
  • Registratie: November 2001
  • Laatst online: 24-08 17:50
Dadona schreef op zondag 27 september 2020 @ 17:39:
[...]
Recent zoiets moeten doen, klopt inderdaad.
Procesgang is dat je de nieuwe disc met GPT moet initialiseren, erna de opbouw moet kopiëren, vervolgens het boot deel kopiëren (partitie 1 en 2 voor legacy en uefi boot) en tot slot de derde partitie aan de rpool moet toevoegen (attach, resilver, joy). Commando's/stappen (in dit geval is sdc de nieuwe disc):
  1. Replace the physical failed/offline drive, /dev/sdc
  2. Initialize Disk with GPT (/dev/sdc)
  3. Copy the partition table from /dev/sda to /dev/sdc
    sgdisk --replicate=/dev/sdc /dev/sda
  4. Ensure the GUIDs are randomized
    sgdisk --randomize-guids /dev/sdc
  5. Install the Grub on the new disk
    grub-install /dev/sdc
  6. Then replace/attach/... the disk in the ZFS pool, several options, opted for this one:
    zpool attach rpool /dev/disk/by-id/<oude disc>-part3 /dev/disk/by-id/<nieuwe disc>-part3
  7. Remove old disc
    zpool detach rpool <oude disc>
  8. Install grup failed for some reason on my end, therefore copied the set over using dd
    dd if=/dev/sda1 of=/dev/sdb1
    dd if=/dev/sda2 of=/dev/sdb2
In het Engels omdat ik misschien ooit dit soort zaken eens ergens in een blog post. Maar ja, dat is project #4534 :+ En uiteraard nog even de gebruikelijke disclaimers, test het zelf nog even, ik moet het binnenkort zelf nog even dubbelchecken, maar dit zou het moeten zijn.
Thanks, ik vermoedde inderdaad al dat ik de UUID's moest randomizen. Zodra de disk binnen is ga ik het proberen.

Acties:
  • 0 Henk 'm!

  • kiekerjan
  • Registratie: September 2000
  • Laatst online: 11-09 13:49
Vraag over een degraded pool.
Ik had een defecte disk in de pool. Deze was simpelweg verdwenen. Ok, dacht ik, geen punt. Raidz2 dus ik haal een nieuwe disk en doe een replace.
Oude disk eruit, nieuwe erin, replace commando uitgevoerd.

Nu zie ik het volgende:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
kiekerjan@paranoidandroid:~$ sudo zpool status
  pool: clusterone
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Sep 27 18:20:47 2020
        1.64T scanned at 437M/s, 630G issued at 164M/s, 1.69T total
        105G resilvered, 36.47% done, 0 days 01:54:28 to go
config:

        NAME                                   STATE     READ WRITE CKSUM
        clusterone                             DEGRADED     0     0     0
          raidz2-0                             DEGRADED     0     0     0
            sdf1                               DEGRADED     0     0 2.11K  too many errors
            sda1                               ONLINE       0     0 2.11K  (resilvering)
            sdg1                               DEGRADED     0     0 2.09K  too many errors
            sdb1                               ONLINE       0     0 2.14K  (resilvering)
            sdd1                               DEGRADED     0     0 2.03K  too many errors
            replacing-5                        DEGRADED     0     0   105
              12164345398775943827             FAULTED      0     0     0  was /dev/sde1
              ata-ST3000LM024-2AN17R_WCK590JX  ONLINE       0     0     0  (resilvering)
        logs
          mirror-1                             ONLINE       0     0     0
            sdc5                               ONLINE       0     0     0
            sdc6                               ONLINE       0     0     0
        cache
          sdc7                                 ONLINE       0     0     0

errors: 523 data errors, use '-v' for a list


Ik snap niet wat ik fout heb gedaan, en ik vraag me af wat ik nu het beste kan doen?
De resilver loopt nog. Het lijkt me dat ik die het beste kan laten doorlopen?

De schade lijkt mee te vallen. De bestanden met errors zijn allemaal tijdelijke bestanden.

Nog wat details: dit is een Xeon quad core systeem met 16 GB ECC geheugen. Debian linux met ZFS geinstalleerd vanuit het Debian contrib repository. Kernel 5.7.0 met ZFS versie 0.8.4.

[ Voor 3% gewijzigd door kiekerjan op 27-09-2020 21:09 . Reden: details ]

These are my principles. If you don't like them I have others.


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
Een verdwenen disk is vaak een disk met teveel communicatie errors, dit moet je kunnen zien in je OS logs. Ik ben bang dat dit een symptoom is van een onderliggend probleem.
Alls 6 disks hebben ineens een paar duizend checksum errors, dat is geen toeval. Lijkt me dat je SATA controller kuren heeft?

Het is beter om pas te resilveren op het moment dat je het onderliggende probleem hebt gefixt.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • kiekerjan
  • Registratie: September 2000
  • Laatst online: 11-09 13:49
Ik zie in de logfiles niet terug dat er problemen waren met de SATA controllers of andere communicatie zaken. Ik zie nu wel dat zed tijdens boot meldt:
code:
1
2
zed: eid=1 class=statechange pool_guid=0xEA45DF2870F3BD69 vdev_path=/dev/sda1 vdev_state=UNAVAIL
zed: eid=2 class=statechange pool_guid=0xEA45DF2870F3BD69 vdev_path=/dev/sdb1 vdev_state=UNAVAIL


Ik zie echter niet waarom, alle schijven lijken "gewoon" voorbij te komen in de logfiles, geen foutmeldingen. (jaren geleden, toen deze server net nieuw was, heb ik idd problemen gehad met sata links die wegvielen. Dat was toen een combinatie van kapotte voeding en slechte sata drive bays. Die foutmeldingen waren makkelijk terug te vinden)

De 2 schijven die hier door zed gemeld worden zijn net de 2 vdevs die nog als ONLINE worden gerapporteerd, maar wel met de opmerking (resilvering). Hoe zit dat dan?
Het resilveren heb ik dus vannacht laten doorlopen, ik zie nu ook dat het aantal errors een stuk lager is??? Met name de data errors, er lijken dus een flink aantal minder bestanden verloren zijn gegaan.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
paranoidandroid:/var/log$ sudo zpool status
  pool: clusterone
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Mon Sep 28 07:36:56 2020
        1.68T scanned at 77.8M/s, 943G issued at 42.7M/s, 1.69T total
        158G resilvered, 54.50% done, 0 days 05:14:11 to go
config:

        NAME                                   STATE     READ WRITE CKSUM
        clusterone                             DEGRADED     0     0     0
          raidz2-0                             DEGRADED     0     0     0
            sdf1                               DEGRADED     0     0   182  too many errors
            sda1                               ONLINE       0     0   187  (resilvering)
            sdg1                               DEGRADED     0     0   182  too many errors
            sdb1                               ONLINE       0     0   188  (resilvering)
            sdd1                               DEGRADED     0     0    20  too many errors
            replacing-5                        DEGRADED     0     0 11.2K
              12164345398775943827             FAULTED      0     0     0  was /dev/sde1
              ata-ST3000LM024-2AN17R_WCK590JX  ONLINE       0     0     0  (resilvering)
        logs
          mirror-1                             ONLINE       0     0     0
            sdc5                               ONLINE       0     0     0
            sdc6                               ONLINE       0     0     0
        cache
          sdc7                                 ONLINE       0     0     0

errors: 11 data errors, use '-v' for a list

[ Voor 5% gewijzigd door kiekerjan op 28-09-2020 14:10 ]

These are my principles. If you don't like them I have others.


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:05
Ik ben niet bekend met zed, ik draai FreeBSD. Hopelijk kan iemand anders dat verklaren.

Ik zouceven de resilver afwachten nu, kijken wat er uiteindelijk uit komt. Het is nogal typisch dat je zoveel schijven in DEGRADED state hebt, maar wie weet komt de boel alsnog goed uit de resilver. Laat het ons even weten.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV

Pagina: 1 ... 198 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.