[ZFS] disk vervangen, hoe de pool weer importeren?

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
een van mijn vijf harde schijven in mijn raidz1-0 aray begaf het afgelopen weekend en ik probeer nu mijn zpool te herstellen maar dit lukt me niet. Ik heb van te voren de kapotte schijf vervangen met een nieuw exemplaar en het systeem geherstart.

Ik heb de volgende stappen doorlopen

root@nas:/home/lucas# zpool status -v
code:
1
no pools available


root@nas:/home/lucas# zpool import
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
   pool: naspool
     id: 3030059305965279629
  state: DEGRADED
 status: One or more devices contains corrupted data.
 action: The pool can be imported despite missing or damaged devices.  The
        fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
 config:

        naspool                                 DEGRADED
          raidz1-0                              DEGRADED
            sda                                 ONLINE
            scsi-SATA_ST3000DM001-1CH_Z1F3LC75  ONLINE
            ata-ST3000DM001-9YN166_Z1F0QJHV     ONLINE
            sdd                                 ONLINE
            sde                                 UNAVAIL


root@nas:/home/lucas# zpool import naspool
code:
1
2
cannot import 'naspool': pool may be in use from other system
use '-f' to import anyway


root@nas:/home/lucas# zpool import naspool -f
code:
1
2
3
cannot import 'naspool': I/O error
        Destroy and re-create the pool from
        a backup source.


Maar ik heb geen backup/export gemaakt van mijn naspool en weet niet hoe ik nu verder moet. Ben ik mijn data kwijt of is er nog licht aan de horizon?

root@nas:/home/lucas# uname -a
Linux nas 3.2.0-4-amd64 #1 SMP Debian 3.2.57-3 x86_64 GNU/Linux

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 00:39
Volgens mij moet je het 'zpool replace' commando gebruiken om een schijf te vervangen, maar vraag het voor de zekerheid eens hier, daar zitten de experts: Het grote ZFS topic

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Ik heb geprobeerd om de disk te replacen maar dit is me tot nu toe nog niet gelukt. Ik heb iig moeite om de GUID van de oude/kapotte disk te vinden

root@nas:/home/lucas# zdb
code:
1
cannot open '/etc/zfs/zpool.cache': No such file or directory


root@nas:/home/lucas# ls -l /dev/disk/by-id
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
total 0
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-SanDisk_SDSSDP128G_133230401711 -> ../../sdf
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-SanDisk_SDSSDP128G_133230401711-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-SanDisk_SDSSDP128G_133230401711-part2 -> ../../sdf2
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-SanDisk_SDSSDP128G_133230401711-part3 -> ../../sdf3
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-ST3000DM001-1CH166_W1F39CBE -> ../../sde
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-ST3000DM001-1CH166_Z1F3LC75 -> ../../sdb
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-1CH166_Z1F3LC75-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-1CH166_Z1F3LC75-part9 -> ../../sdb9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-ST3000DM001-9YN166_Z1F0PXHP -> ../../sdd
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0PXHP-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0PXHP-part9 -> ../../sdd9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-ST3000DM001-9YN166_Z1F0QJHV -> ../../sdc
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0QJHV-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0QJHV-part9 -> ../../sdc9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 ata-ST3000DM001-9YN166_Z1F0RGWW -> ../../sda
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0RGWW-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 ata-ST3000DM001-9YN166_Z1F0RGWW-part9 -> ../../sda9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_SanDisk_SDSSDP1133230401711 -> ../../sdf
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_SanDisk_SDSSDP1133230401711-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_SanDisk_SDSSDP1133230401711-part2 -> ../../sdf2
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_SanDisk_SDSSDP1133230401711-part3 -> ../../sdf3
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_ST3000DM001-1CH_W1F39CBE -> ../../sde
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_ST3000DM001-1CH_Z1F3LC75 -> ../../sdb
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-1CH_Z1F3LC75-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-1CH_Z1F3LC75-part9 -> ../../sdb9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_ST3000DM001-9YN_Z1F0PXHP -> ../../sdd
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0PXHP-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0PXHP-part9 -> ../../sdd9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_ST3000DM001-9YN_Z1F0QJHV -> ../../sdc
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0QJHV-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0QJHV-part9 -> ../../sdc9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 scsi-SATA_ST3000DM001-9YN_Z1F0RGWW -> ../../sda
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0RGWW-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 scsi-SATA_ST3000DM001-9YN_Z1F0RGWW-part9 -> ../../sda9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5000c5004d865cbb -> ../../sdd
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d865cbb-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d865cbb-part9 -> ../../sdd9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5000c5004d9b492d -> ../../sdc
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d9b492d-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d9b492d-part9 -> ../../sdc9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5000c5004d9c3fa6 -> ../../sda
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d9c3fa6-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c5004d9c3fa6-part9 -> ../../sda9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5000c500646bb32a -> ../../sdb
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c500646bb32a-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5000c500646bb32a-part9 -> ../../sdb9
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5000c50069abed23 -> ../../sde
lrwxrwxrwx 1 root root  9 Apr 29 09:23 wwn-0x5001b44a10bb94af -> ../../sdf
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5001b44a10bb94af-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5001b44a10bb94af-part2 -> ../../sdf2
lrwxrwxrwx 1 root root 10 Apr 28 17:30 wwn-0x5001b44a10bb94af-part3 -> ../../sdf3


root@nas:/home/lucas# zpool replace naspool scsi-SATA_ST3000DM001-1CH_W1F39CBE
code:
1
cannot open 'naspool': no such pool


Ik zal een berichtje achter laten in het ZFS topic.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Je hebt zo te zien geen partities op de schijven gemaakt? Want volgens mij is het toevoegen van een disk via zijn Linux identief (/dev/sdX) niet echt best practice.

Linux geeft de schijven gewoon in volgorde die letters, en daarom zal ZFS by default proberen de schijven zo te mounten.

Wat je kan proberen is de pool te importeren op GUID door middel van:

zpool import -d /dev/disk/by-id/ naspool


Dan probeert ZFS tenminste niet de nieuwe /dev/sde te mounten in je pool, daar komt denk ik je IO error namelijk van. In de ZFS specs staat namelijk dat /dev/sde in de pool hoort, maar de huidige /dev/sde bevat nog helemaal geen ZFS data. Tijdens het mounten gaat dat dus verkeerd omdat er nog geen metadata op die disk staat.

(gok ik 8-) )

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Op de nieuwe disk staan idd nog geen partities, ik ga er van uit dat dit gebeurd tijdens het resilveren, kopt dat?

Helaas werkt deze methode ook niet :(

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ naspool
code:
1
2
cannot import 'naspool': pool may be in use from other system
use '-f' to import anyway

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ naspool -f
code:
1
2
3
cannot import 'naspool': I/O error
        Destroy and re-create the pool from
        a backup source.

root@nas:/home/lucas#

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Uh, ZFS zegt dat hij een device heeft als onderdeel van de vdev (zie ook je eigen lijst, waarin /dev/sde als missing staat).

Als ZFS op partities gemaakt was, had daar /dev/sde1 gestaan...

ZFS heeft dus geen partities in gebruik?

Even niets...


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Wat ik bijzonder vind is dat de degraded pool niet te importeren is. Een RaidZ1 met 1 defecte disk moet toch nog toegankelijk zijn met een import -f ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Klopt, tenzij er dus iets mis gaat met de 'nieuwe' disk...
Dat is denk ik ook wat er mis gaat.

In je ZPOOL LIST staan schijven dwars door elkaar, de ene word via ID gezien, de ander via /dev/sdX methodes.

Hierdoor kan het goed zijn dat al je devices door elkaar geladen worden door ZFS.

Niet gek dat er dan I/O errors komen.

ZFS denkt misschien dat /dev/sda de data bevat van /dev/sdb of andersom.

Doe eens:

zpool import -d /dev/disk/by-id/


Dus zonder naspool direct, wat zie je dan?

[ Voor 80% gewijzigd door FireDrunk op 29-04-2014 12:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op dinsdag 29 april 2014 @ 12:23:
Klopt, tenzij er dus iets mis gaat met de 'nieuwe' disk...
Dat snap ik dus niet. Wat zou er bij een import met die nieuwe disk moeten gebeuren dan ? Daar gaat hij toch pas mee aan de slag bij een zpool replace commando ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
ZFS zoekt de disk nu op naam basis, namelijk /dev/sde ipv op GUID.

Als hij een nieuwe disk in het systeem prikt, en die heet toevallig ook /dev/sde dan denkt ZFS:
"Hey! Mijn disk is er weer! Joechee!"

Maar zodra hij er van gaat lezen gaat het natuurlijk mis, omdat de data niet klopt, vandaar de IO error.

Je moet dus zorgen dat ZFS de disk niet meer ziet, zodat hij de pool echt probeert te mounten zonder de disk.

(Tenminste, dat is wat ik DENK....)

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
pff, ben zo blij dat jullie mee denken, ik weet echt niet waar ik het moet zoeken

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
   pool: naspool
     id: 3030059305965279629
  state: DEGRADED
 status: One or more devices contains corrupted data.
 action: The pool can be imported despite missing or damaged devices.  The
        fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
 config:

        naspool                                 DEGRADED
          raidz1-0                              DEGRADED
            ata-ST3000DM001-9YN166_Z1F0RGWW     ONLINE
            scsi-SATA_ST3000DM001-1CH_Z1F3LC75  ONLINE
            ata-ST3000DM001-9YN166_Z1F0QJHV     ONLINE
            ata-ST3000DM001-9YN166_Z1F0PXHP     ONLINE
            sde                                 UNAVAIL

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Dit ziet er inderdaad goed uit. Zoals u_nix_we_all zegt, zou je deze pool moeten kunnen importeren.

Je kan het met -F proberen. Let wel op, dit kan potentieel data verwijderen, omdat er geprobeerd word de pool terug te zetten in tijd naar een werkende state!

 -F
Recovery  mode  for  a  non-importable   pool.
Attempt to  return  the pool to an importable
state by discarding the last few transactions.
Not  all  damaged  pools  can  be recovered by
using this option.  If  successful,  the  data
the discarded transactions is irretriev lost. 
This option is ignored if the  pool
is importable or already imported.

[ Voor 17% gewijzigd door FireDrunk op 29-04-2014 12:59 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Wat data verlies neem ik graag voor lief!
Helaas lukt het niet met de -F flag, de hoop is al laag gezonken :/

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ -F
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
   pool: naspool
     id: 3030059305965279629
  state: DEGRADED
 status: One or more devices contains corrupted data.
 action: The pool can be imported despite missing or damaged devices.  The
        fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
 config:

        naspool                                 DEGRADED
          raidz1-0                              DEGRADED
            ata-ST3000DM001-9YN166_Z1F0RGWW     ONLINE
            scsi-SATA_ST3000DM001-1CH_Z1F3LC75  ONLINE
            ata-ST3000DM001-9YN166_Z1F0QJHV     ONLINE
            ata-ST3000DM001-9YN166_Z1F0PXHP     ONLINE
            sde                                 UNAVAIL
root@nas:/home/lucas#


Kan het zijn dat ik de sde disk eerst in offline modus moet forceren zodat ik hem kan dan kan replacen?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Je moet wel de naam van de pool er nu weer bij doen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Importeer onder non-Linux OS? Daarna de disk vervangen en weer exporteren. Misschien kun je hem dan onder Linux importeren. De disk infrastructuur onder BSD is veel beter, kan zijn dat er iets misgaat wat specifiek is aan Linux.

Je kunt denk ik heel simpel een ZFSguru livecd booten en daar je pool importeren en de disk vervangen. Grote kans dat zodra je pool compleet is je deze wel onder Linux kunt importeren.

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
FireDrunk schreef op dinsdag 29 april 2014 @ 13:33:
Je moet wel de naam van de pool er nu weer bij doen.
root@nas:/mnt/data# zpool import -d /dev/disk/by-id/ naspool -f
code:
1
2
3
cannot import 'naspool': I/O error
        Destroy and re-create the pool from
        a backup source.


@CiPHER: Bedankt voor de tip, ga ik proberen

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
De disk infrastructuur van Linux is helemaal niet slechter, hooguit anders...
Zolang je /dev/disk/by-id/ of /dev/disk/by-partlabel/ blijft gebruiken werkt alles prima.

Wat CiPHER zegt over ZFSguru is wel een idee, even ZFSguru cdtje proberen...

Even niets...


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Is er later een disk toegevoegd aan de raidz vdev?

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
syl765 schreef op dinsdag 29 april 2014 @ 17:17:
Is er later een disk toegevoegd aan de raidz vdev?
Nee, enkel vervangen (sde)

probeer nu zfsguru op een bootable usb te zetten, wil ook niet lukken :/

[ Voor 16% gewijzigd door Simkin op 29-04-2014 18:17 ]


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
De oude pool importeren lukt helaas nog niet

Afbeeldingslocatie: http://i.imgur.com/QmdmvUR.png

Afbeeldingslocatie: http://i.imgur.com/FvtNW2U.png

Alle disks worden wel herkent

Afbeeldingslocatie: http://i.imgur.com/FNPhPH5.png

Ik kan de nieuwe disk niet gebruiken in een nieuwe pool (moet ik hem eerst formateren?)

Afbeeldingslocatie: http://i.imgur.com/qyJVoLT.png

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Heb je die disk vervangen terwijl het systeem uitstond ?
Het lijkt er op dat die nieuwe disk al in een pool (testpool) zat, en dat daarom de import van naspool ook niet lukt omdat die disk nu opeens van een andere pool is , ofzo ? :p

Ik zou eens proberen zonder die nieuwe disk aangesloten die naspool te importeren.


Edit: niet goed gekeken |:(

Edit2: die melding over conflicterende disklabels zou wel eens de clou kunnen zijn. (linux gparted, of bsd disklabel gebruiken denk ik)

Edit3: Of toch eens zonder die nieuwe disk erbij proberen ?

[ Voor 26% gewijzigd door u_nix_we_all op 29-04-2014 20:26 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 19:56
Probleem klinkt (vaag) bekend.. volgens mij heb ik dit tijdens mijn verschillende testjes ook wel eens gehad.
Wanneer ik een pool onder linux wilde importeren met /dev/disk/by-id, moest ik het pool-ID gebruken en niet de poolnaam. Is dat al eens geprobeerd?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Ah, dat komt volgens mij vanwege het niet kloppende HostID? Known issue toch?

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Werkt ook niet :(

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ 3030059305965279629
code:
1
2
cannot import 'naspool': pool may be in use from other system
use '-f' to import anyway

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ 3030059305965279629 -f
code:
1
2
3
4
cannot import 'naspool': I/O error
        Destroy and re-create the pool from
        a backup source.
root@nas:/home/lucas#

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Zegt dmesg iets over errors? Of zie je daar niets?

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Daar staat niets bijzonders in..

Acties:
  • 0 Henk 'm!

  • Rainmaker
  • Registratie: Augustus 2000
  • Laatst online: 14-07-2024

Rainmaker

RHCDS

Was de nieuwe disk ook ooit in gebruik binnen een ZFS pool? Of is het een hagelnieuwe disk?

Ik heb dit probleem ooit gehad omdat er nog metadata op een partitie staat.

Hierdoor weigerde de ZFS pool de disk te gebruiken, omdat er nog metadata op stond van een andere pool. Helaas slaat ZFS zijn metadata verspreid op de disk op, dus een simpele dd bs=1M count=1 is niet genoeg.

Zero de complete disk anders eens?

We are pentium of borg. Division is futile. You will be approximated.


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
De disk is hagelnieuw, niets mee gedaan, ook niet geformatteerd :/

Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 19:56
En met
code:
1
zpool import -fF

(pool recovery)?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:11
Andere optie.

Zorg dat er nog maar één schijf uit je pool is aangesloten en probeer de pool te importeren. Als dat lukt kan je verder. Als dat niet lukt, dan kan je kijken of er andere schijven zijn die een werkende pool metadata bezitten.

Waarschijnlijk gaat ZFS klagen over missende schijven. Hot-plug één voor één de andere schijf in en na elke online gebrachte schijf geef je een zpool online zodat de schijf weer wordt herkend door de pool. Kijk dan eens of je de pool weer zover werkend krijg tot die ene missende die je wil vervangen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 19:56
Simkin schreef op dinsdag 29 april 2014 @ 13:08:
Wat data verlies neem ik graag voor lief!
Helaas lukt het niet met de -F flag, de hoop is al laag gezonken :/

root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ -F
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
   pool: naspool
     id: 3030059305965279629
  state: DEGRADED
 status: One or more devices contains corrupted data.
 action: The pool can be imported despite missing or damaged devices.  The
        fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
 config:

        naspool                                 DEGRADED
          raidz1-0                              DEGRADED
            ata-ST3000DM001-9YN166_Z1F0RGWW     ONLINE
            scsi-SATA_ST3000DM001-1CH_Z1F3LC75  ONLINE
            ata-ST3000DM001-9YN166_Z1F0QJHV     ONLINE
            ata-ST3000DM001-9YN166_Z1F0PXHP     ONLINE
            sde                                 UNAVAIL
root@nas:/home/lucas#


Kan het zijn dat ik de sde disk eerst in offline modus moet forceren zodat ik hem kan dan kan replacen?
Als ik dit zo weer terug lees zou de pool met de -fF optie wel geimporteerd kunnen worden. Of zie ik een melding over het hoofd?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Dat probeerd hij ook steeds, maar hij krijgt een I/O Error.

Even niets...


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:11
Daarom ben ik benieuwd of er sowieso nog een schijf is met valide metadata op de pool mee te herkennen en importeren. Als alle individuele schijven een IO fout geven dan is het volgens mij een onhaalbare situatie geworden.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 19:56
Heb je de nieuwe schijf al weer eens ontkoppeld en het daarna nog een keer geprobeerd?

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
ik heb nu werkelijk alle opties gehad (ook -fF) :( het is vervelend maar ik heb zojuist de handdoek in de ring gegooid en een nieuwe pool aangemaakt met ZFSGuru (na alle disks gewiped te hebben). De pool heb ik vervolgens weer geïmporteerd onder Debian .

Erg jammer dit en wel een smet op mijn vertrouwen van ZFS, hopelijk gaat het vanaf nu beter.

Bedankt allemaal voor het meedenken, aan gebrek aan ondersteuning heeft het iig niet gelegen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Helaas, jammer. Heb je de pool nu netjes met GPT partitielabels aangemaakt? :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
Dit bedoel je?

code:
1
2
3
4
5
6
7
8
        NAME                                 STATE     READ WRITE CKSUM
        naspool                              ONLINE       0     0     0
          raidz1-0                           ONLINE       0     0     0
            ata-ST3000DM001-9YN166_Z1F0RGWW  ONLINE       0     0     0
            ata-ST3000DM001-1CH166_Z1F3LC75  ONLINE       0     0     0
            ata-ST3000DM001-9YN166_Z1F0QJHV  ONLINE       0     0     0
            ata-ST3000DM001-9YN166_Z1F0PXHP  ONLINE       0     0     0
            ata-ST3000DM001-1CH166_W1F39CBE  ONLINE       0     0     0


Wat ik wel raar vind is dat de performance, nu ik de pool met ZFSGuru gemaakt heb, niet ok is.
e.g. sabnzbd downloads komen niet boven de 3 MBs waar dat voorheen makkelijk 10MBs/ was. Ik merk ook dat het systeem traag is met shell navigatie en het openen van websites zodra hij aan het downloaden is. Het lijkt erop dat er ergens een bottleneck zit. :/ een volgende uitdaging voor het weekend

Kopieren gaat maar met 50MBs ipv 70MBs eerder
code:
1
2
3
4
5
root@nas:/mnt/data/Storage1/Video/Series/Fargo/Season 01# rsync --progress 1x01\ -\ The\ Crocodile\'s\ Dilemma.mkv /mnt/data/
1x01 - The Crocodile's Dilemma.mkv
  2520032696 100%   51.25MB/s    0:00:46 (xfer#1, to-check=0/1)

sent 2520340416 bytes  received 31 bytes  53059798.88 bytes/sec

Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 19:56
De vdev wel aangemaakt met ashift=12?
Even controleren met zdb | grep ashift.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
Dat is op ID, dat is niet echt platform onafhankelijk. Het werkt wel, maar is niet echt aan te raden in mijn ogen.

Gebruik liever GPT Partitie labels.

root@NAS:~# zpool status -v
  pool: datapool
 state: ONLINE
status: The pool is formatted using a legacy on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on software that does not support
        feature flags.
  scan: scrub repaired 0 in 13h43m with 0 errors on Mon Apr 14 08:28:47 2014
config:

        NAME            STATE     READ WRITE CKSUM
        datapool        ONLINE       0     0     0
          raidz1-0      ONLINE       0     0     0
            datapool-A  ONLINE       0     0     0
            datapool-B  ONLINE       0     0     0
            datapool-C  ONLINE       0     0     0
            datapool-D  ONLINE       0     0     0

[ Voor 73% gewijzigd door FireDrunk op 02-05-2014 09:20 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
root@nas:/mnt/data/Storage1/Video/Series/Fargo/Season 01# zdb | grep ashift
code:
1
           ashift: 12


Bedankt voor de tip, dan ga ik de pool opnieuw aanmaken!
Nog meer tips? Gewoon weer onder Debian doen?

@FireDrunk: Hoe maar je de pool eigenlijk aan op basis van GPT label?

[ Voor 14% gewijzigd door Simkin op 02-05-2014 09:45 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:39
gptfdisk gebruiken om partities te maken en deze een label te geven.
Daarna:

zpool create prutspool /dev/disk/by-partlabel/disk-A /dev/disk/by-partlabel/disk-B /dev/disk/by-partlabel/disk-C

of iets in die richting.

[ Voor 5% gewijzigd door FireDrunk op 02-05-2014 10:02 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:11
Simkin schreef op vrijdag 02 mei 2014 @ 08:10:
ik heb nu werkelijk alle opties gehad (ook -fF) :(
Zat mijn idee daar ook bij? Ben namelijk zelf ook nieuwsgierig of het geholpen had?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 17:58
CurlyMo schreef op vrijdag 02 mei 2014 @ 10:10:
[...]

Zat mijn idee daar ook bij? Ben namelijk zelf ook nieuwsgierig of het geholpen had?
Ja, ik had alle disks op 1 na verwijderd en kon de pool niet importeren

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:11
Met geen één van de disks?

Sinds de 2 dagen regel reageer ik hier niet meer

Pagina: 1