Acties:
  • +3 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
DXaroth schreef op zondag 22 oktober 2017 @ 20:21:
Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09
Geen Z ➡ Z2 maar is toch hele stap voorwaards voor ZFS. Zou belangrijk nadeel wegnemen.

Acties:
  • +1 Henk 'm!
Q schreef op zondag 22 oktober 2017 @ 23:02:
[...]


Geen Z ➡ Z2 maar is toch hele stap voorwaards voor ZFS. Zou belangrijk nadeel wegnemen.
Nu hopen dat ze dit ook weten te realiseren voor Z2.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

DXaroth schreef op zondag 22 oktober 2017 @ 20:21:
Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09
Oh, dat zou heel gaaf zijn!
Ben benieuwd of FreeNAS die feature ook gaat krijgen.

Nu ben ik een groot voorstander van goed plannen en ook thuis bouw ik een NAS met een vast aantal disks. Voor mij is het niet per-se een nadeel. (Zeker omdat je de disks zelf wel kunt swappen voor grotere exemplaren.) Maar toch, de feature zou denk ik voor veel mensen een van de nadelen van ZFS wegnemen.

Blijft wel dat expansion iets is dat je niet vaak en snel doet. Idealiter zijn je disks allemaal identiek. Je wil volgens mij niet je pool van 5T disks gaan uitbreiden met een compleet ander merk, capaciteit, snelheid, etc. (Al loop je bij een bestaande array dat risico ook natuurlijk. Knalt er een disk, wil je niet meteen je hele array vervangen.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
Merken mixen met disks is geen enkel issue voor thuis. Het is juist ideaal dat je met 3 disks kunt beginnen en kan groeien tot wat je kast aan kan. Het enige waar je op moet letten is dat de disks het zelfde aantal sectoren heeft of meer vergeleken met de andere disks.

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Nog een leuk dingetje gevonden, schijnbaar is iemand bezig met een Windows kernel-mode ZFS driver te bouwen:

https://github.com/lundman/zfsin

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 19-09 11:37

WeaZuL

Try embedded, choose ARM!

Mijn pool heeft de volgende status die ik niet zo goed begrijp:

root@pve:~# zpool status
  pool: tank1
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
	still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
	the pool may no longer be accessible by software that does not support
	the features. See zpool-features(5) for details.


Met name het action gedeelte, hoe kom ik erachter dat de software die ik gebruik nou wel of niet die features ondersteunt :?

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • +1 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

@WeaZuL jouw zpool is gebaseerd op een oudere versie van ZFS. Via zpool upgrade kan je deze pool upgraden naar de nieuwere versie. Je kan deze pool dan echter niet meer gebruiken in combinatie met een OS dat niet die nieuwste versie van ZFS ondersteund.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:51
Met andere woorden, als je de pool niet loskoppelt en aan een andere computer hangt (of aan een andere bootdisk, of herinstalleert met een ouder OS dan je nu draait) hangt is er niks aan de hand :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 19-09 11:37

WeaZuL

Try embedded, choose ARM!

Tsurany schreef op donderdag 26 oktober 2017 @ 15:01:
@WeaZuL jouw zpool is gebaseerd op een oudere versie van ZFS. Via zpool upgrade kan je deze pool upgraden naar de nieuwere versie. Je kan deze pool dan echter niet meer gebruiken in combinatie met een OS dat niet die nieuwste versie van ZFS ondersteund.
Paul schreef op donderdag 26 oktober 2017 @ 15:04:
Met andere woorden, als je de pool niet loskoppelt en aan een andere computer hangt (of aan een andere bootdisk, of herinstalleert met een ouder OS dan je nu draait) hangt is er niks aan de hand :)
Ok, er vanuit gaande dat mijn OS de nieuwe ZFS features wel ondersteund:

zpool get all tank1 | grep feature
tank1  feature@async_destroy          enabled                        local
tank1  feature@empty_bpobj            active                         local
tank1  feature@lz4_compress           active                         local
tank1  feature@multi_vdev_crash_dump  disabled                       local
tank1  feature@spacemap_histogram     active                         local
tank1  feature@enabled_txg            active                         local
tank1  feature@hole_birth             active                         local
tank1  feature@extensible_dataset     enabled                        local
tank1  feature@embedded_data          active                         local
tank1  feature@bookmarks              enabled                        local
tank1  feature@filesystem_limits      enabled                        local
tank1  feature@large_blocks           enabled                        local
tank1  feature@large_dnode            disabled                       local
tank1  feature@sha512                 disabled                       local
tank1  feature@skein                  disabled                       local
tank1  feature@edonr                  disabled                       local
tank1  feature@userobj_accounting     disabled                       local


zpool upgrade tank1
This system supports ZFS pool feature flags.

Enabled the following features on 'tank1':
  multi_vdev_crash_dump
  large_dnode
  sha512
  skein
  edonr
  userobj_accounting


zpool get all tank1 | grep feature
tank1  feature@async_destroy          enabled                        local
tank1  feature@empty_bpobj            active                         local
tank1  feature@lz4_compress           active                         local
tank1  feature@multi_vdev_crash_dump  enabled                        local
tank1  feature@spacemap_histogram     active                         local
tank1  feature@enabled_txg            active                         local
tank1  feature@hole_birth             active                         local
tank1  feature@extensible_dataset     active                         local
tank1  feature@embedded_data          active                         local
tank1  feature@bookmarks              enabled                        local
tank1  feature@filesystem_limits      enabled                        local
tank1  feature@large_blocks           enabled                        local
tank1  feature@large_dnode            enabled                        local
tank1  feature@sha512                 enabled                        local
tank1  feature@skein                  enabled                        local
tank1  feature@edonr                  enabled                        local
tank1  feature@userobj_accounting     active                         local


Bedankt voor de hulp! _/-\o_

[ Voor 31% gewijzigd door WeaZuL op 26-10-2017 15:10 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 13:53
Ik weet niet zeker of het hier hoort, maar ik heb een ZFS server (Linux) waarop ik containers draai d.m.v. LXD.

Ik heb bijvoorbeeld de volgende ZFS datasets:
tank/Multimedia
tank/Multimedia/Muziek
tank/Multimedia/Video
tank/Multimedia/Fotos

Wanneer ik nu een bind mount doe in de container van /data/Multimedia naar bijvoorbeeld /Multimedia, dan laat ie in de container alleen de inhoud van de ZFS dataset zelf zien (dus de inhoud van tank/Multimedia) maar geen subsets hiervan (Muziek, Videos en Fotos). Enig idee hoe ik dat wel zichtbaar kan maken, behalve dan elke dataset te moeten bind mounten?

Acties:
  • 0 Henk 'm!
Elk sub-filesystem is weer een nieuwe mountpoint, dus er zal ofwel een optie in LXD moeten zijn om een folder structuur inclusief (sub-)mountpoints die daar op zitten te sharen, ofwel je moet alle mountpoints doorgeven.

[ Voor 4% gewijzigd door FireDrunk op 27-10-2017 15:03 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 13:53
Daar was ik al bang voor.. net zoiets als met nfs dus eigenlijk. Zal eens een balletje in het lxd forum opgooien.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
The FreeBSD Foundation is pleased to announce a collaborative project with Delphix to implement one of the most requested ZFS features, to allow RAID-Z pools to be expanded one disk at a time. We’ve combined our resources with iXsystems and Delphix to bring this project to fruition. The RAID-Z Expansion project will allow OpenZFS users to incrementally add storage to their RAID pools, one device at a time. The expansion will happen online, in the background, with zero downtime, and while maintaining the redundancy and reliability of RAID-Z.

“From day one, ZFS has been about combining enterprise functionality with ease of use. This feature furthers that by making ZFS’s enterprise-grade RAID capability even easier to use, especially in smaller deployments, where it’s impractical to add a whole RAID-Z stripe at once,” said Matt Ahrens, one of the original ZFS designers. “On a personal note, after hearing requests for this feature for many years, I’m looking forward to working on this and grateful to the FreeBSD Foundation for making it a priority.”

“The basic ZFS building block is the pool, which is is often built using a RAID-Z volume built from five or more disks. Previously, a RAID-Z user who wanted more storage space had to add an entire new RAID-Z set of disks. This project will allow RAID-Z volumes in a pool to be expanded a single disk at a time. Adding this feature requires a deep knowledge of ZFS internals and significant development and testing time. Thus, its cost and complexity has prevented any single organization from pursuing its development,” adds Kirk McKusick, long-time filesystem developer and FreeBSD Foundation Board Director.

Allan Jude, a core team member at FreeBSD states, “This collaboration between the non-profit FreeBSD Foundation and industry partner Delphix towards the development of new cross-platform features, will benefit all OpenZFS vendors and consumers – showcasing the power of platform neutral open-source projects.”

“We are excited to help sponsor this work. The ability to seamlessly extend a ZFS pool using RAID-Z is a feature which will have immediate benefit to our TrueNAS and FreeNAS users around the world,” adds Kris Moore, Director of Engineering at iXsystems.

Improvements such as this continue to make ZFS on FreeBSD an attractive and powerful platform on which to develop enterprise-grade software for both large and small scale. RAID-Z expansion is expected to become available in FreeBSD 12.0.
https://www.freebsdfounda...ion-project-announcement/

Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 22:00
Mooi, nu maar hopen dat ze klaar zijn tegen dat ik moet uitbreiden. :P Gaat gelukkig nog lang duren.

Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
Nou nog migratie van mirror naar RAIDZ. Dat is zo ingrijpend dat ik niet verwacht dat het er komt.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Ik had/heb een pool die last heeft van corruptie. Daarom heb ik deze eerst een scrub gegeven. Daaruit bleek dan dat er veel read/write errors waren op 1 disk. Gelukkig had ik een hotspare klaar en heb ik "replace device" gedaan in zfsguru door die hotspare. Deze ochtend was hij klaar met resilveren maar nu zegt die nod steeds degraded. Moet ik nog een stap doen of gewoon nog even geduld hebben?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
pool: storagepool
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 2.43T in 15h16m with 382 errors on Tue Oct 31 08:44:37 2017
config:

    NAME                         STATE     READ WRITE CKSUM
    storagepool                  DEGRADED     0     0   763
      raidz2-0                   DEGRADED     0     0 1.49K
        gpt/StoragePool-disk1    ONLINE       0     0   166
        gpt/StoragePool-disk2    ONLINE       0     0    90
        replacing-2              FAULTED      0     0     0
          gpt/StoragePool-disk3  FAULTED     45    89   139  too many errors
          gpt/StoragePooldisk7   ONLINE       0     0     0
        gpt/StoragePool-disk4    ONLINE       0     0   146
        gpt/StoragePool-disk5    ONLINE       0     0    87
        gpt/StoragePool-disk6    ONLINE       0     0   242

errors: 382 data errors, use '-v' for a list


Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.

Acties:
  • 0 Henk 'm!
_JGC_ schreef op maandag 30 oktober 2017 @ 18:35:
Nou nog migratie van mirror naar RAIDZ. Dat is zo ingrijpend dat ik niet verwacht dat het er komt.
Daarvoor is block-level rewrite nodig. Voor het uitbreiden van RAIDZ niet.
fluppie007 schreef op dinsdag 31 oktober 2017 @ 08:58:
Ik had/heb een pool die last heeft van corruptie. Daarom heb ik deze eerst een scrub gegeven. Daaruit bleek dan dat er veel read/write errors waren op 1 disk. Gelukkig had ik een hotspare klaar en heb ik "replace device" gedaan in zfsguru door die hotspare. Deze ochtend was hij klaar met resilveren maar nu zegt die nod steeds degraded. Moet ik nog een stap doen of gewoon nog even geduld hebben?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
pool: storagepool
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 2.43T in 15h16m with 382 errors on Tue Oct 31 08:44:37 2017
config:

    NAME                         STATE     READ WRITE CKSUM
    storagepool                  DEGRADED     0     0   763
      raidz2-0                   DEGRADED     0     0 1.49K
        gpt/StoragePool-disk1    ONLINE       0     0   166
        gpt/StoragePool-disk2    ONLINE       0     0    90
        replacing-2              FAULTED      0     0     0
          gpt/StoragePool-disk3  FAULTED     45    89   139  too many errors
          gpt/StoragePooldisk7   ONLINE       0     0     0
        gpt/StoragePool-disk4    ONLINE       0     0   146
        gpt/StoragePool-disk5    ONLINE       0     0    87
        gpt/StoragePool-disk6    ONLINE       0     0   242

errors: 382 data errors, use '-v' for a list


Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
Na een replace zou hij automatisch de oude schijf uit de pool moeten gooien. Ik zou overigens eerst een memtest draaien om zeker te weten dat je geheugen niet brak is en daarna een scrub om te zien of de fouten weggaan.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Met checksum-errors op alle schijven is een memtest inderdaad wel aan te raden. En als memtest geen problemen aangeeft zou ik de schijfcontroller gaan verdenken.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Toen ik deze server gebouwd hebt heeft die 10 passes MemTest86+ gedraaid zonder probleem. Is van april dit jaar.
In de fileserver zitten 2 storage pools in over 2 IBM M1015 kaarten in IT mode.
ZFSguru / FreeNAS zitten in een VM met PCI passthrough van die M1015 kaarten. Server draait ESXi 6.5 U1.
Kan het misschien aan ESXi 6.5 liggen?

Acties:
  • +1 Henk 'm!
fluppie007 schreef op dinsdag 31 oktober 2017 @ 13:32:
Toen ik deze server gebouwd hebt heeft die 10 passes MemTest86+ gedraaid zonder probleem. Is van april dit jaar.
Wat zegt dat over het nu?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
fluppie007 schreef op dinsdag 31 oktober 2017 @ 08:58:


Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
Als je corruptie op alle disks ziet is dat meestal een signature mark van rot geheugen. Waarschijnlijk zijn al je disks nog goed maar is je geheugen rot.

Zoals aangeraden, nu een memtest draaien voor zeg een hele nacht en systeem verder niet gebruiken (naar schrijven).

Wat CiPHER betreft, die is helaas sinds April niet meer op het forum geweest (althans, niet meer gepost) :/

Acties:
  • 0 Henk 'm!

  • Aschtra
  • Registratie: Juni 2012
  • Laatst online: 22:52
Volgens mij had ik iets heel ergs gedaan in de ZFS community. Ik heb een HP Microserver Gen8 met een HP P212 Raid controller waarin ik een Raid5 heb geconfigureerd. Nu heb ik na een reboot ergens permanente errors. Had ik een topic aangemaakt en de 1e reactie was 'Heb je een hardware raid? Zo ja, enorm slecht idee'

Dus nu alles aan het veilig stellen, raid controller uit Microserver halen en in FreeNAS nieuwe volume maken met Software Raid :p

Wat ik mijn afvraag is of het volgende mogelijk is:
Ik heb nu 4X2TB schijven in de raid staan. Dit begint al aardig vol te raken dus ik wil naar 4X4TB in de toekomst.
Kan ik de 2TB schijven 1 voor 1 wisselen en laten rebuilden zodat alles 4X4 is en gebruikt die dan ook de 12TB voor de storage? Of werkt dat niet zo simpel.

[ Voor 26% gewijzigd door Aschtra op 01-11-2017 11:01 ]


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Nu moet ik enkel nog die rotte disk eruit gooien en dan inderdaad die MemTest86+ laten lopen.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Pool status
Pool name   storagepool
Status  DEGRADED
Description     One or more devices has experienced an error resulting in data corruption. Applications may be affected.
Action  Restore the file in question if possible. Otherwise restore the entire pool from backup.
See     http://illumos.org/msg/ZFS-8000-8A
Scrub   resilvered 2.43T in 15h17m with 380 errors on Wed Nov 1 04:48:50 2017

    Pool members    Status  Read
errors  Write
errors  Checksum
errors  Device operations
    storagepool     DEGRADED    0   0   381     
    raidz2-0    DEGRADED    0   0   762     
    gpt/StoragePool-disk1   ONLINE  0   0   1   
    gpt/StoragePool-disk2   ONLINE  0   0   2   
    replacing-2     DEGRADED    0   0   0   
    11954233235689202060
Details: was /dev/gpt/StoragePool-disk3     OFFLINE     0   0   0   
    gpt/StoragePooldisk7    ONLINE  0   0   0   
    gpt/StoragePool-disk4   ONLINE  0   0   1   
    gpt/StoragePool-disk5   ONLINE  0   0   0   
    gpt/StoragePool-disk6   ONLINE  0   0   0

[ Voor 4% gewijzigd door fluppie007 op 01-11-2017 11:07 ]


Acties:
  • 0 Henk 'm!
Aschtra schreef op woensdag 1 november 2017 @ 11:00:
Kan ik de 2TB schijven 1 voor 1 wisselen en laten rebuilden zodat alles 4X4 is en gebruikt die dan ook de 12TB voor de storage?
Ja

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

OpenZFS met native encryption in da house, anyone?

encryption=on

Ik ben benieuwd of jullie een oplossing hebben voor het volgende.

Hoe kan je een dataset mounten wanneer je deze vanaf een andere computer wilt benaderen, en daarna weer unmounten, zonder je secret op de server te hebben staan?

Bij voorkeur zoek ik iets zoals een id_rsa waarmee je passwordless kan inloggen over ssh. Maar als blijkt dat ik echt de enige op de wereld ben die dit wilt, dan kom ik er ws niet onderuit om een bash scriptje te maken voor iedere share, met een 3-tal ssh-commando's.



Een ander probleem is dat met sharesmb=yes iedere samba-gebruiker toegang heeft. Is er ook nog een soort rechtenbeheer waardoor alleen (een) bepaalde user(s) leesrechten hebben? Kan je ook een dataset delen op bepaalde mappen na?

[ Voor 20% gewijzigd door Sando op 01-11-2017 15:46 ]

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Wat betreft sharesmb, dat kan je toch gewoon op user / group niveau afkaarten met de rechter op files en directories? Doe dat iig om ze read only te houden ivm ransomware...

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Kortfragje schreef op woensdag 1 november 2017 @ 17:13:
dat kan je toch gewoon op user / group niveau afkaarten met de rechter op files en directories? Doe dat iig om ze read only te houden ivm ransomware...
Je kan geen group maken en die group lid maken van de sambagroup. Wat als je 50 gebruikers hebt die lid zijn van de samba-group, maar je wilt slechts 10 gebruikers toegang geven tot een bepaalde share?

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen. Maar dat heeft niet heel erg veel meer met ZFS te maken.

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Dat was mijn punt idd...
dcm360 schreef op woensdag 1 november 2017 @ 17:52:
Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen. Maar dat heeft niet heel erg veel meer met ZFS te maken.

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!
Sando schreef op woensdag 1 november 2017 @ 15:43:
OpenZFS met native encryption in da house, anyone?

encryption=on

Ik ben benieuwd of jullie een oplossing hebben voor het volgende.

Hoe kan je een dataset mounten wanneer je deze vanaf een andere computer wilt benaderen, en daarna weer unmounten, zonder je secret op de server te hebben staan?
Je kan via SSH toch een remote commando draaien waarmee je de mount doet?

Ik zou wel een (Z)FS willen kunnen mounten voor alleen mijn eigen SSH sessie. Dus ieder andere gebruiker zou dan niet bij de mountpoint moeten kunnen aangezien hij niet dezelfde sessie deelt met mij.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
fluppie007 schreef op woensdag 1 november 2017 @ 11:07:
Nu moet ik enkel nog die rotte disk eruit gooien en dan inderdaad die MemTest86+ laten lopen.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Pool status
Pool name   storagepool
Status  DEGRADED
Description     One or more devices has experienced an error resulting in data corruption. Applications may be affected.
Action  Restore the file in question if possible. Otherwise restore the entire pool from backup.
See     http://illumos.org/msg/ZFS-8000-8A
Scrub   resilvered 2.43T in 15h17m with 380 errors on Wed Nov 1 04:48:50 2017

    Pool members    Status  Read
errors  Write
errors  Checksum
errors  Device operations
    storagepool     DEGRADED    0   0   381     
    raidz2-0    DEGRADED    0   0   762     
    gpt/StoragePool-disk1   ONLINE  0   0   1   
    gpt/StoragePool-disk2   ONLINE  0   0   2   
    replacing-2     DEGRADED    0   0   0   
    11954233235689202060
Details: was /dev/gpt/StoragePool-disk3     OFFLINE     0   0   0   
    gpt/StoragePooldisk7    ONLINE  0   0   0   
    gpt/StoragePool-disk4   ONLINE  0   0   1   
    gpt/StoragePool-disk5   ONLINE  0   0   0   
    gpt/StoragePool-disk6   ONLINE  0   0   0
Mocht je geheugen inderdaad errors geven, schrijf dan die ene disk niet bij voorbaat af. Test hem nog een keer als het geheugen weer is vervangen/goed is.

Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

dcm360 schreef op woensdag 1 november 2017 @ 17:52:
Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen.
Zijn de (samba-)rechten van de groepen van de gebruikers in de groep dan ook van toepassing?

Map: share nobody:smbusers
  • Groep smbusers
    • User kees
      • Groep samba
Maar dat heeft niet heel erg veel meer met ZFS te maken.
Behalve dan dat het idee van sharesmb juist is dat de gegevens van de share in de pool staan waardoor je de pool kan exporten en importen.


CurlyMo schreef op woensdag 1 november 2017 @ 22:18:
[...]

Je kan via SSH toch een remote commando draaien waarmee je de mount doet?

Ik zou wel een (Z)FS willen kunnen mounten voor alleen mijn eigen SSH sessie. Dus ieder andere gebruiker zou dan niet bij de mountpoint moeten kunnen aangezien hij niet dezelfde sessie deelt met mij.
Maar dat wil ik dus automatiseren.

Ik wil cliendside (bijvoorbeeld) sshfs nas:/pool/share /mnt/share doen, waarbij op de server:
  • zfs mount pool/share
  • <password>
  • wait for remote umount
  • umount /pool/share
En dat password alleen bekend is op de client; bij voorkeur vanuit een password protected key (zoals id_rsa) ipv een raw text password die ergens op mijn client staat.

[ Voor 8% gewijzigd door Sando op 02-11-2017 13:13 ]

🇪🇺 Buy from EU (GoT)


Acties:
  • +1 Henk 'm!
Dat moet je prima in een script kunnen gieten via de reguliere ssh i.c.m. expect. Die laatste geeft je de mogelijkheid om geautomatiseerd te reageren op prompts.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!
@Sando Waarom dan niet gewoon NFSv4.1 icm Kerberos? Dan heb je een keyfile en kan je specifieke kerberos users rechten geven op een NFS share. Dat is de modernere variant om zoiets te doen.
Is ook nog eens een stuk sneller dan sshfs.

sshfs icm vage expect prompts klinkt mij ernstig als een hokkie-wokkie oplossing tbqfh.


Oh wacht, je wil het secret van de ZFS pool niet op de server hebben staan.

Is encrypted op de server met een password wel goed? Want dan maak je een 'vault' die encrypted is met de user zijn password (of een ander password), en on login, unlock je de vault, daarin staat het zfs secret, en mount je automatisch de pool.

Je kan sowieso custom scripting doen tijdens een SSH login, dat hoef je dus niet eens zelf te doen, je kan in de SSHd config extra scripts toevoegen (optie heet ForceCommand).
Dit zorgt er voor dat de user bij inloggen automatisch een scriptje doet (mits de user matched bijvoorbeeld).
Dat scriptje kan automatisch om het password vragen.

De key van de user gebruiken kan niet, want de key wordt nooit over de lijn gestuurd. Dus wat jij zei over id_rsa gebruiken, werkt niet.

[ Voor 59% gewijzigd door FireDrunk op 03-11-2017 10:17 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Q schreef op woensdag 1 november 2017 @ 23:44:
[...]


Mocht je geheugen inderdaad errors geven, schrijf dan die ene disk niet bij voorbaat af. Test hem nog een keer als het geheugen weer is vervangen/goed is.
Hij is nu aan de 6e pass bezig zonder errors. Draaitijd net geen 24h. Lijkt me dus dat het geheugen wel ok is en ik nu die disk moet kicken van de pool. Moet ik die netjes de-attachen of kan ik hem ook fysiek uit de server halen?

Acties:
  • 0 Henk 'm!
Beide kan, maar online replacen is het beste.

Even niets...


Acties:
  • 0 Henk 'm!

  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 17-09 09:53
hm, klopt dit:

source:
code:
1
2
3
4
zfs list
...
NAME                      USED  AVAIL  REFER  MOUNTPOINT
datastore/NAS_NFS        6.89T  3.41T  6.89T  /datastore/NAS_NFS


destination:
code:
1
2
3
4
zfs-list
...
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool/datastore             3.34T  8.74T  3.34T  /rpool/datastore


terwijl op hetzelfde moment:
code:
1
2
3
zfs send datastore/NAS_NFS@migrate | pv | ssh 192.168.0.101 zfs recv rpool/datastore
...
1.71TiB 5:51:38 [91.6MiB/s]


Word de dataset nu dubbel zo groot, of is het getal wat pv geeft niet helemaal goed?

/edit:

ah....

code:
1
2
3
root@pve01:~#  zfs get copies
NAME                                 PROPERTY  VALUE   SOURCE
rpool                                copies    2       local


Dat verklaart een hoop :P

[ Voor 18% gewijzigd door LiquidSmoke op 05-11-2017 14:46 ]


Acties:
  • 0 Henk 'm!
Lol :+ das een dure feature :p

Even niets...


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
pool: storagepool
 state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Nov  5 14:54:48 2017
        111G scanned out of 14.6T at 108M/s, 38h58m to go
        18.5G resilvered, 0.74% done
config:

    NAME                       STATE     READ WRITE CKSUM
    storagepool                ONLINE       0     0   120
      raidz2-0                 ONLINE       0     0   240
        gpt/StoragePool-disk1  ONLINE       0     0     0
        gpt/StoragePool-disk2  ONLINE       0     0     0
        gpt/StoragePooldisk7   ONLINE       0     0     0  (resilvering)
        gpt/StoragePool-disk4  ONLINE       0     0     0
        gpt/StoragePool-disk5  ONLINE       0     0     0
        gpt/StoragePool-disk6  ONLINE       0     0     0

errors: 163 data errors, use '-v' for a list


Nou hopelijk gaat dat goed, maar ben er niet zo gerust op met al die checksum errors...

Acties:
  • 0 Henk 'm!

  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 17-09 09:53
Gebeurde bij de installatie van Proxmox, dacht dat het aantal bootloaders bedoeld weren oid, het was al 2:00 :z

Is er een performance impact met deze setting?

Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
Ben aan het denken om te switchen naar ZFS; nu weer een Btrfs corruptie en ben er een beetje klaar mee. ;)

Ik heb twee HDD's die wil ik voorzien van encryptie. Ik lees dat deze er standaard in zou moeten zitten; geld dit ook voor OpenZFS (Linux)?

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
  pool: storagepool
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 2.43T in 15h45m with 380 errors on Mon Nov  6 06:40:40 2017
config:

    NAME                       STATE     READ WRITE CKSUM
    storagepool                ONLINE       0     0   337
      raidz2-0                 ONLINE       0     0   674
        gpt/StoragePool-disk1  ONLINE       0     0     0
        gpt/StoragePool-disk2  ONLINE       0     0     0
        gpt/StoragePooldisk7   ONLINE       0     0     0
        gpt/StoragePool-disk4  ONLINE       0     0     0
        gpt/StoragePool-disk5  ONLINE       0     0     0
        gpt/StoragePool-disk6  ONLINE       0     0     0

errors: Permanent errors have been detected in the following files:

        storagepool/SERVERSBS2011ZVOL:<0x1>
        storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>


Die (checksum) errors zitten dus in mijn zvols die via iscsi aan een virtuele SBS2011 aangeboden werden. Namelijk de backups en de Exchange DB.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
fluppie007 schreef op maandag 6 november 2017 @ 08:30:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
  pool: storagepool
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 2.43T in 15h45m with 380 errors on Mon Nov  6 06:40:40 2017
config:

    NAME                       STATE     READ WRITE CKSUM
    storagepool                ONLINE       0     0   337
      raidz2-0                 ONLINE       0     0   674
        gpt/StoragePool-disk1  ONLINE       0     0     0
        gpt/StoragePool-disk2  ONLINE       0     0     0
        gpt/StoragePooldisk7   ONLINE       0     0     0
        gpt/StoragePool-disk4  ONLINE       0     0     0
        gpt/StoragePool-disk5  ONLINE       0     0     0
        gpt/StoragePool-disk6  ONLINE       0     0     0

errors: Permanent errors have been detected in the following files:

        storagepool/SERVERSBS2011ZVOL:<0x1>
        storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>


Die (checksum) errors zitten dus in mijn zvols die via iscsi aan een virtuele SBS2011 aangeboden werden. Namelijk de backups en de Exchange DB.
Als je geheugen ook nog ECC geheugen is dan is rot geheugen waarschijnlijk niet de oorzaak.

Wat voor controller gebruik je? Zou die misschien te warm kunnen worden? Ik koel mijn controllers actief, anders worden ze zeker te heet vanwege de specifieke airflow of gebrek er aan in mijn behuizing.

Wat blijft over: sata/sas kabels, rotte voeding...

Ik zou die ZVOLS eigenlijk als corrupt/verloren beschouwen, je kunt vanuit SBS2011 een NTFS checkdisk doen of wat je gebruikt om eventueel te kijken of de schade te achterhalen is en dat je toch door kunt gaan.

Acties:
  • +1 Henk 'm!
Als de errors ontstaan door iets anders dan de harde schijven zelf, dan kunnen ze als sneeuw voor de zon weer verdwijnen wanneer het probleem is opgelost. Ik zou afschrijven dus niet doen voordat het probleem is gevonden.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
HollowGamer schreef op zondag 5 november 2017 @ 15:35:
Ben aan het denken om te switchen naar ZFS; nu weer een Btrfs corruptie en ben er een beetje klaar mee. ;)

Ik heb twee HDD's die wil ik voorzien van encryptie. Ik lees dat deze er standaard in zou moeten zitten; geld dit ook voor OpenZFS (Linux)?
http://datacorruption.net

:> ;)

Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
Dit gaat over RAID-5/6? ;)

Inmiddels overgestapt naar ZFS - wat top!
Vind zeker de datasets een mooie toevoeging, ook werkt nu encryptie op OpenZFS. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
HollowGamer schreef op maandag 6 november 2017 @ 21:46:
[...]

Dit gaat over RAID-5/6? ;)

Inmiddels overgestapt naar ZFS - wat top!
Vind zeker de datasets een mooie toevoeging, ook werkt nu encryptie op OpenZFS. :)
Het gaat over de implementatie van RAID5/6 in BTRFS.

OpenZFS voor Linux is fantastisch.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
HollowGamer schreef op maandag 6 november 2017 @ 21:46:
[...]
ook werkt nu encryptie op OpenZFS. :)
Dataset level encryption _/-\o_

Kan niet wachten om van mijn LUKS disks af te stappen.

Gebruik je ook encryption op je root pool?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
A1AD schreef op dinsdag 7 november 2017 @ 07:27:
[...]


Dataset level encryption _/-\o_

Kan niet wachten om van mijn LUKS disks af te stappen.

Gebruik je ook encryption op je root pool?
Ik heb geprobeerd dit aan te maken op root, maar dat lukte helaas niet.
Kan zijn dat ik een foutief commando heb gebruik, maar kom eigenlijk alleen deze tegen op de dataset.

Achteraf is het eigenlijk voor mij iets fijner. Heb bijvoorbeeld een map die als public (Series, foto's, etc.) - die hoeft niet encrypted te worden. Tevens zou je per dataset kunnen aangeven welke encryptie je wilt (wachtwoord of key).

Wat ik nog wil proberen is een SSD gebruiken om te boosten - heb nog een 'oude' liggen die is toch te klein:
https://wiki.archlinux.org/index.php/ZFS#SSD_Caching

Ben pas begonnen met ZFS, dus dit is meer uit eigen ervaring. Nog veel te leren, maar wat allemaal mogelijk is met ZFS vind ik nu al top. :)

[ Voor 11% gewijzigd door HollowGamer op 07-11-2017 09:20 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
HollowGamer schreef op dinsdag 7 november 2017 @ 09:02:
[...]

Ik heb geprobeerd dit aan te maken op root, maar dat lukte helaas niet.
Kan zijn dat ik een foutief commando heb gebruik, maar kom eigenlijk alleen deze tegen op de dataset.
We bedoelen toch beide root pool als in de pool/dataset waar je linux root systeem op draait?

Ik ben benieuwd hoe het juist in elkaar zit at boot time.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
A1AD schreef op dinsdag 7 november 2017 @ 12:11:
[...]


We bedoelen toch beide root pool als in de pool/dataset waar je linux root systeem op draait?

Ik ben benieuwd hoe het juist in elkaar zit at boot time.
Ah zo! Nee, ik heb een aparte SSD voor het OS (ext4 + luks) en daarnaast twee HDD's met ZFS (data pool).

Root laat ik eigenlijk altijd liever apart, stel die gaat kapot/corrupt, dan hoef ik alleen deze te vervangen. Backups van root maak ik op de HDD's, al zijn dit enkel config files.

Mocht ik dingen door elkaar excuses! Ben met ZFS nog net begonnen.

[ Voor 5% gewijzigd door HollowGamer op 07-11-2017 12:19 ]


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Lijkt wel van kwaad naar erger te gaan...

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
pool: storagepool                                                                                                                 
 state: DEGRADED                                                                                                                    
status: One or more devices has experienced an error resulting in data                                                              
        corruption.  Applications may be affected.                                                                                  
action: Restore the file in question if possible.  Otherwise restore the                                                            
        entire pool from backup.                                                                                                    
   see: http://illumos.org/msg/ZFS-8000-8A                                                                                          
  scan: scrub in progress since Tue Nov  7 10:05:32 2017                                                                            
        3.84T scanned out of 14.6T at 177M/s, 17h43m to go                                                                          
        0 repaired, 26.29% done                                                                                                     
config:                                                                                                                             
                                                                                                                                    
        NAME                       STATE     READ WRITE CKSUM                                                                       
        storagepool                DEGRADED     0     0  973K                                                                       
          raidz2-0                 DEGRADED     0     0 1.90M                                                                       
            gpt/StoragePool-disk1  DEGRADED     0     0     8  too many errors                                                      
            gpt/StoragePool-disk2  DEGRADED     0     0     7  too many errors                                                      
            gpt/StoragePooldisk7   DEGRADED     0     0     2  too many errors                                                      
            gpt/StoragePool-disk4  DEGRADED     0     0     8  too many errors                                                      
            gpt/StoragePool-disk5  DEGRADED     0     0    13  too many errors                                                      
            gpt/StoragePool-disk6  DEGRADED     0     0    14  too many errors                                                      
                                                                                                                                    
errors: Permanent errors have been detected in the following files:                                                                 
                                                                                                                                    
        storagepool/SERVERSBS2011ZVOL:<0x1>                                                                                         
        storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>

Acties:
  • +1 Henk 'm!
fluppie007 schreef op dinsdag 7 november 2017 @ 16:26:
Lijkt wel van kwaad naar erger te gaan...

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
pool: storagepool                                                                                                                 
 state: DEGRADED                                                                                                                    
status: One or more devices has experienced an error resulting in data                                                              
        corruption.  Applications may be affected.                                                                                  
action: Restore the file in question if possible.  Otherwise restore the                                                            
        entire pool from backup.                                                                                                    
   see: http://illumos.org/msg/ZFS-8000-8A                                                                                          
  scan: scrub in progress since Tue Nov  7 10:05:32 2017                                                                            
        3.84T scanned out of 14.6T at 177M/s, 17h43m to go                                                                          
        0 repaired, 26.29% done                                                                                                     
config:                                                                                                                             
                                                                                                                                    
        NAME                       STATE     READ WRITE CKSUM                                                                       
        storagepool                DEGRADED     0     0  973K                                                                       
          raidz2-0                 DEGRADED     0     0 1.90M                                                                       
            gpt/StoragePool-disk1  DEGRADED     0     0     8  too many errors                                                      
            gpt/StoragePool-disk2  DEGRADED     0     0     7  too many errors                                                      
            gpt/StoragePooldisk7   DEGRADED     0     0     2  too many errors                                                      
            gpt/StoragePool-disk4  DEGRADED     0     0     8  too many errors                                                      
            gpt/StoragePool-disk5  DEGRADED     0     0    13  too many errors                                                      
            gpt/StoragePool-disk6  DEGRADED     0     0    14  too many errors                                                      
                                                                                                                                    
errors: Permanent errors have been detected in the following files:                                                                 
                                                                                                                                    
        storagepool/SERVERSBS2011ZVOL:<0x1>                                                                                         
        storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>
Ik denk toch echt dat er iets mis is met je controller of kabels. Alle HDD's tegelijk is hoogst onwaarschijnlijk.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Enig idee of dat "te testen" is? Of enkel door een andere te steken. Zitten 2 IBM M1015 kaarten in die pc die via VT-D passthrough aan de FreeNAS VM worden doorgegeven.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
Je zou FreeNAS even bare-metal kunnen draaien vanaf een USB schijf of stick. Dat zou transparant zijn, maar dan haal je die VMware tussenlaag er toch tussenuit.

Al is het maar een bootable Linux met ZFS die recent genoeg is om je pool te importeren.

Ik draai zelf bare metal Linux met ZFS + 3 x M1015 zonder issues (wel dus gekoeld).

Acties:
  • 0 Henk 'm!
Pak dan tevens FreeBSD i.p.v. Linux. Je weet maar nooit.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
CurlyMo schreef op woensdag 8 november 2017 @ 07:16:
Pak dan tevens FreeBSD i.p.v. Linux. Je weet maar nooit.
Als je FreeNAS boot dan heb je toch BSD? ;)

Acties:
  • 0 Henk 'm!
Q schreef op woensdag 8 november 2017 @ 08:05:
[...]

Als je FreeNAS boot dan heb je toch BSD? ;)
Owja 8)7

Ik las in jouw posts alleen maar Linux en Linux.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Q schreef op dinsdag 7 november 2017 @ 23:31:
Je zou FreeNAS even bare-metal kunnen draaien vanaf een USB schijf of stick. Dat zou transparant zijn, maar dan haal je die VMware tussenlaag er toch tussenuit.

Al is het maar een bootable Linux met ZFS die recent genoeg is om je pool te importeren.

Ik draai zelf bare metal Linux met ZFS + 3 x M1015 zonder issues (wel dus gekoeld).
Onding heeft wel gewoon 4 maand probleemloos gedraaid. Doordat mijn ZFSguru installatie corrupt was geraakt en gezien alle services offline staan had ik voor FreeNAS gekozen. Sinds die FreeNAS gaat het precies harder mis. Ik las ook iets dat bepaalde firmwares slechter werken. Ik heb namelijk 2 kaarten en de kaart waar die 7 disks op hangen is de oudste. Ik denk zeker een 3-4j oud intussen. De andere is van dit jaar gekocht dus vermoedelijk met nieuwere firmware.
Welke firmware draai jij in/op jouw kaarten?

Acties:
  • 0 Henk 'm!
Ook zo'n kaart kan natuurlijk gewoon kapot gaan. Het is niet alsof die dingen almachtig zijn ofzo...

Firmware P20 lijkt mij de nieuwste. (Heb zelf ook al tijden niet meer geupgrade)

https://nguvu.org/freenas/Convert-LSI-HBA-card-to-IT-mode/
We are going to be using this card with FreeNAS 9.3.1 which requires v20 IT firmware to be installed. To download the correct file, head over to Broadcom’s product pages and select your model of HBA card, in my case the 9211 which is a 6Gb/s model.
EDIT: Here’s a direct link to make life a bit easier.

9211_8i_Package_P20IR_IT_Firmware_BIOS_for_MSDOS_Windows.zip

[ Voor 6% gewijzigd door FireDrunk op 08-11-2017 09:44 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:39
fluppie007 schreef op woensdag 8 november 2017 @ 09:38:
[...]


Onding heeft wel gewoon 4 maand probleemloos gedraaid. Doordat mijn ZFSguru installatie corrupt was geraakt en gezien alle services offline staan had ik voor FreeNAS gekozen. Sinds die FreeNAS gaat het precies harder mis. Ik las ook iets dat bepaalde firmwares slechter werken. Ik heb namelijk 2 kaarten en de kaart waar die 7 disks op hangen is de oudste. Ik denk zeker een 3-4j oud intussen. De andere is van dit jaar gekocht dus vermoedelijk met nieuwere firmware.
Welke firmware draai jij in/op jouw kaarten?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
root@nano:~# /opt/MegaRAID/MegaCli/MegaCli64 -AdpAllInfo -aAll | grep -i ver
                    Versions
Product Name    : ServeRAID M1015 SAS/SATA Controller
                Image Versions in Flash:
BIOS Version       : 4.30.00_4.12.05.00_0x05150000
Preboot CLI Version: 03.02-018:#%00008
WebBIOS Version    : 4.0-56-e_45-Rel
NVDATA Version     : 3.09.03-0034
FW Version         : 2.120.254-1520
Boot Block Version : 2.02.00.00-0001
Revertible Hot Spares           : Yes
                    Versions
Product Name    : ServeRAID M1015 SAS/SATA Controller
                Image Versions in Flash:
BIOS Version       : 4.30.00_4.12.05.00_0x05150000
Preboot CLI Version: 03.02-018:#%00008
WebBIOS Version    : 4.0-56-e_45-Rel
NVDATA Version     : 3.09.03-0034
FW Version         : 2.120.254-1520
Boot Block Version : 2.02.00.00-0001
Revertible Hot Spares           : Yes
                    Versions
Product Name    : ServeRAID M1015 SAS/SATA Controller
                Image Versions in Flash:
BIOS Version       : 4.30.00_4.12.05.00_0x05150000
Preboot CLI Version: 03.02-018:#%00008
WebBIOS Version    : 4.0-56-e_45-Rel
NVDATA Version     : 3.09.03-0034
FW Version         : 2.120.254-1520
Boot Block Version : 2.02.00.00-0001
Revertible Hot Spares           : Yes

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Zo, na enorm veel gepruts om de sas2flash.efi aan de praat te krijgen wegens de bekende PAL error icm een bootable DOS USB-stick op UEFI BIOS, is het me gelukt om de firmwares te updaten.
De oudere kaart, waar die "rotte" pool aan hangt had FW 12.00.00.00-IT en de recentere kaart had 20.00.04.00-IT. Intussen draaien beide kaarten 20.00.07.00-IT. Hopelijk lost dat mijn corruptie issues op...
Hij/FreeNAS11-U4 is de pool nu weer aan't resilveren en daarna kan ik eens een scrub lanceren en de iscsi verbindingen weer openzetten. Als dat allemaal lukt ga ik via windows een chkdsk laten draaien naar die drives. Hopelijk lukt dat en werkt alles weer naar behoren. To be continued...

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Ik probeer een duplicaat/kopie/backup van mij zvols te maken alvorens er nog verder aan te prutsen:

code:
1
zfs list


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
NAME                                           USED  AVAIL  REFER  MOUNTPOINT                                                       
freenas-boot                                   739M  37.8G    64K  none                                                             
freenas-boot/ROOT                              731M  37.8G    29K  none                                                             
freenas-boot/ROOT/Initial-Install                1K  37.8G   727M  legacy                                                           
freenas-boot/ROOT/Wizard-2017-10-20_12:16:28     1K  37.8G   727M  legacy                                                           
freenas-boot/ROOT/default                      731M  37.8G   727M  legacy                                                           
freenas-boot/grub                             6.28M  37.8G  6.28M  legacy                                                           
storagepool                                   9.90T   603G   304K  /mnt/storagepool                                                 
storagepool/SERVERSBS2011ZVOL                  251G   773G  81.9G  -                                                                
storagepool/SERVERSBS2011ZVOLBACKUP            251G   604G   251G  -                                                                
storagepool/share                             9.40T   603G  9.40T  /mnt/storagepool/share                                           
storagepool6tb                                4.65T  5.84T   202K  /mnt/storagepool6tb                                              
storagepool6tb/newsbs2011                      260G  6.09T   139K  -                                                                
storagepool6tb/newsbs2011backup                260G  6.09T   139K  -                                                                
storagepool6tb/share                          4.14T  5.84T  4.14T  /mnt/storagepool6tb/share


code:
1
2
3
zfs send storagepool/SERVERSBS2011ZVOL | zfs receive zfs receive storagepool6tb/newsbs2011

zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive zfs receive storagepool6tb/newsbs2011backup


code:
1
2
3
4
5
6
7
8
9
10
11
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive zfs receive storagepool6tb/newsbs2011backup
too many arguments
usage:
        receive|recv [-vnsFu] [-o <property>] ... [-x <property>] ... [-l <filesystem|volume>] ... <filesystem|volume|snapshot>
        receive|recv [-vnsFu] [-d | -e] [-o <property>] ... [-x <property>] ... [-l <filesystem|volume>] ... <filesystem>
        receive|recv -A <filesystem|volume>

For the property list, run: zfs set|get

For the delegated permission list, run: zfs allow|unallow
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': Broken pipe


Enig idee waar die broken pipe error vandaan komt?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ehm, aan de rechterzijde van de | heb je 'zfs receive' dubbel staan. Daar weet zfs een beetje weinig raad mee.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Facepalm...

code:
1
2
3
4
5
6
7
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive storagepool6tb/newsbs2011backup
cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists
must specify -F to overwrite it
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': signal received
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive -F storagepool6tb/newsbs2011backup
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': Input/output error
cannot receive new filesystem stream: checksum mismatch or incomplete stream


Dat is kei kapot of kan je geen ZFS volumes send/receiven :X?

Acties:
  • 0 Henk 'm!
Als het filesystem al bestaat, kan je natuurlijk niet 'live' syncen, want het filesystem is al online.
Op dat moment wil je snapshots syncen.

Dus:
zfs snapshot storagepool/SERVERSBS2011ZVOLBACKUP@full
zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup@full

Even niets...


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
code:
1
2
3
4
5
6
7
8
root@freenas:~ # zfs snapshot storagepool/SERVERSBS2011ZVOLBACKUP@full
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup@full
cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists
must specify -F to overwrite it
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': signal received
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup@full
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error
cannot receive new filesystem stream: checksum mismatch or incomplete stream


Helaas... Heeft ie nog steeds geen zin in :(

Acties:
  • 0 Henk 'm!

  • blobber
  • Registratie: Juli 2000
  • Niet online

blobber

Sol Lucet Omnibus

Correct me if I'm wrong, maar volgens mij moet je dit command gebruiken
code:
1
zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup

Je stuurt de snapshot SERVERSBS2011ZVOLBACKUP@full naar je filesystem storagepool6tb/newsbs2011backup dus geen @full aan de receive kant :)

To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour


Acties:
  • 0 Henk 'm!

  • blobber
  • Registratie: Juli 2000
  • Niet online

blobber

Sol Lucet Omnibus

Ik was met iets soortgelijks bezig, anders was het me niet opgevallen ;)

To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Ik vrees dat die zvol's echt om zeep zijn.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup
cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists
must specify -F to overwrite it
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': signal received
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error
cannot receive new filesystem stream: checksum mismatch or incomplete stream
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup14112017
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error
cannot receive new filesystem stream: checksum mismatch or incomplete stream
root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup14112017
warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error
cannot receive new filesystem stream: checksum mismatch or incomplete stream

Acties:
  • 0 Henk 'm!
Zitten er nog meer snapshots op de zvol anders dan full?

Even niets...


Acties:
  • 0 Henk 'm!
fluppie007 schreef op dinsdag 14 november 2017 @ 09:31:
Ik vrees dat die zvol's echt om zeep zijn.
Geef eens de output van:
code:
1
zfs list -t snapshot

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
code:
1
2
3
4
5
6
root@freenas:~ # zfs list -t snapshot
NAME                                            USED  AVAIL  REFER  MOUNTPOINT
freenas-boot/ROOT/default@2017-10-20-19:10:25  2.19M      -   727M  -
freenas-boot/ROOT/default@2017-10-20-21:16:28   614K      -   727M  -
storagepool/SERVERSBS2011ZVOLBACKUP@full           0      -   251G  -
root@freenas:~ #


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
  pool: storagepool
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 2.43T in 19h57m with 380 errors on Sat Nov 11 13:59:07 2017
config:

        NAME                       STATE     READ WRITE CKSUM
        storagepool                DEGRADED     0     0   386
          raidz2-0                 DEGRADED     0     0   772
            gpt/StoragePool-disk1  DEGRADED     0     0     0  too many errors
            gpt/StoragePool-disk2  DEGRADED     0     0     0  too many errors
            gpt/StoragePooldisk7   ONLINE       0     0     0
            gpt/StoragePool-disk4  DEGRADED     0     0     0  too many errors
            gpt/StoragePool-disk5  DEGRADED     0     0     0  too many errors
            gpt/StoragePool-disk6  DEGRADED     0     0     0  too many errors

errors: Permanent errors have been detected in the following files:

        storagepool/SERVERSBS2011ZVOL:<0x1>
        storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>
        storagepool/SERVERSBS2011ZVOLBACKUP@full:<0x1>

  pool: storagepool6tb
 state: ONLINE
status: The pool is formatted using a legacy on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on software that does not support feature
        flags.
  scan: scrub repaired 0 in 6h52m with 0 errors on Sun Oct 22 06:52:17 2017
config:

        NAME                          STATE     READ WRITE CKSUM
        storagepool6tb                ONLINE       0     0     0
          raidz1-0                    ONLINE       0     0     0
            gpt/StoragePool6TB-disk1  ONLINE       0     0     0
            gpt/StoragePool6TB-disk2  ONLINE       0     0     0
            gpt/StoragePool6TB-disk3  ONLINE       0     0     0

errors: No known data errors

[ Voor 74% gewijzigd door fluppie007 op 14-11-2017 10:40 ]


Acties:
  • 0 Henk 'm!
En storagepool6tb?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Staat er toch onder?

Even niets...


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 20:19
Zeg ik heb al een tijd een FreeNAS systeempje welke ik ook al een hele tijd niet heb geupdated (draai nu 9.10.1) ivm problemen met de VirtualBox "functionaliteit".

Inmiddels loop ik toch wel tegen wat performance dingetjes aan op mn VM's en wil ik het anders gaan doen.

Maar: de nieuwste FreeNAS (coral) is weer terug gedraaid dus wat is nou wijsheid?

- Updaten naar FreeNAS 11 en dan met dat nieuwe iohyve/docker aan de slag
- ESXi installeren en daar een FreeNAS VM op maken met pass-through naar de disk controller (en dus de VM's buiten FreeNAS om regelen, al dan niet via iscsi lun oid)
- Wachten tot coral er is (maar voor zover ik weet is er nog geen release bekend)

De VM's hoef ik niet perséé over te zetten, Linux VM zal altijd wel te doen zijn gok ik maar mijn windows test systeempje installeer ik wel opnieuw.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
Mattie112 schreef op woensdag 15 november 2017 @ 16:10:
Zeg ik heb al een tijd een FreeNAS systeempje welke ik ook al een hele tijd niet heb geupdated (draai nu 9.10.1) ivm problemen met de VirtualBox "functionaliteit".

Inmiddels loop ik toch wel tegen wat performance dingetjes aan op mn VM's en wil ik het anders gaan doen.

Maar: de nieuwste FreeNAS (coral) is weer terug gedraaid dus wat is nou wijsheid?

- Updaten naar FreeNAS 11 en dan met dat nieuwe iohyve/docker aan de slag
- ESXi installeren en daar een FreeNAS VM op maken met pass-through naar de disk controller (en dus de VM's buiten FreeNAS om regelen, al dan niet via iscsi lun oid)
- Wachten tot coral er is (maar voor zover ik weet is er nog geen release bekend)

De VM's hoef ik niet perséé over te zetten, Linux VM zal altijd wel te doen zijn gok ik maar mijn windows test systeempje installeer ik wel opnieuw.
Proxmox installeren. Geen gedoe met vtd. ZFS op de host regelen en bind mounten naar je LXC's d:)b

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
Dat bind mounten moet ik nog goed zien werken. Het werkt volgens mij niet voor ZFS subvolumes, en je moet met de hand de config wijzigen, want via de GUI kan het niet.

Of ik mis iets :+

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
FireDrunk schreef op woensdag 15 november 2017 @ 17:35:
Dat bind mounten moet ik nog goed zien werken. Het werkt volgens mij niet voor ZFS subvolumes, en je moet met de hand de config wijzigen, want via de GUI kan het niet.

Of ik mis iets :+
Sja, via cli inderdaad 1 regeltje per mount toevoegen aan je lxc config :o.

Je bind mount uiteraard datasets(zoals je zelf ergens eens hebt aangegeven: mouten per dataset (child) en niet enkel je "root" dataset).

Ik gebruik het ondertussen al enkel jaren zo. Werkt heerlijk.

Mijn setup is nog steeds actueel buiten dat ik nu sanoid gebruik.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
Niet de mogelijke snapshot lijst of zijn die er niet?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
2 pools op 1 systeem, dus zijn zfs list is van alle snapshots.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op woensdag 15 november 2017 @ 18:35:
2 pools op 1 systeem, dus zijn zfs list is van alle snapshots.
Als dat zo is, dan heb je gelijk.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 20:19
A1AD schreef op woensdag 15 november 2017 @ 17:09:
[...]


Proxmox installeren. Geen gedoe met vtd. ZFS op de host regelen en bind mounten naar je LXC's d:)b
Dus als ik het goed begrijp draai je Proxmox als "hypervisor" én doet die zelf ook het ZFS beheren? Maar dus ook geen FreeNAS functionaliteit (shares, users, etc). Maar omdat je containers kan draaien (tov VM's) voegt het weinig overhead toe om die services in een losse container te draaien?

Zeg ik het dan goed?

Maar is dat dan geen drama met configuren? Kijk ik ben zeker niet vies van de commandline (in tegendeel) maar een goede UI om gewoon even heel simpel wat shares aan te maken voegt imo wel wat toe!

Denk dat ik eens ga kijken om wat hardware bij elkaar te sprokkelen om het in elk geval eens te installeren/te kijken.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
Mattie112 schreef op zondag 19 november 2017 @ 10:28:
[...]


Dus als ik het goed begrijp draai je Proxmox als "hypervisor" én doet die zelf ook het ZFS beheren? Maar dus ook geen FreeNAS functionaliteit (shares, users, etc). Maar omdat je containers kan draaien (tov VM's) voegt het weinig overhead toe om die services in een losse container te draaien?

Zeg ik het dan goed?

Maar is dat dan geen drama met configuren? Kijk ik ben zeker niet vies van de commandline (in tegendeel) maar een goede UI om gewoon even heel simpel wat shares aan te maken voegt imo wel wat toe!

Denk dat ik eens ga kijken om wat hardware bij elkaar te sprokkelen om het in elk geval eens te installeren/te kijken.
Je zegt het goed, ik heb een LXC met samba functionaliteit om de shares te configureren. De samba config is zo eenvoudig dat je echt geen GUI nodig hebt, maar dat is natuurlijk allemaal afhankelijk van je linux ervaring. (Het is wel een zeer leuk platform om je linux kennis bij te schroeven)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 20:19
A1AD schreef op zondag 19 november 2017 @ 10:59:
[...]


Je zegt het goed, ik heb een LXC met samba functionaliteit om de shares te configureren. De samba config is zo eenvoudig dat je echt geen GUI nodig hebt, maar dat is natuurlijk allemaal afhankelijk van je linux ervaring. (Het is wel een zeer leuk platform om je linux kennis bij te schroeven)
Oh ja daar kom ik zeker wel uit hoor, het is puur hoeveel tijd/zin ik heb voor thuis om dit allemaal op te zetten. Dat is toch wel een voordeeltje van FreeNAS imo, een hoop is daar wel al geregeld. Heb zelf nog een Windows VM voor wat windows-only stuff en dat ik makkelijk een remote desktopje kan openen en een Debian VM door powerdns/asterisk en geloof nog een paar scriptjes.

Maar waar nu vooral de Windows VM ook een "verzamelbak" is is opsplitsen natuurlijk uiteindelijk wel mooier, minder gedoe bij een herinstall of een restore.

Maargoed heb het inmiddels even op een VM geinstalleerd dus ik ga eens kijken wat je er zoal mee kan! In elk geval bedankt voor de suggestie!

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 18-09 11:46
Mattie112 schreef op zondag 19 november 2017 @ 11:05:
[...]

Heb zelf nog een Windows VM voor wat windows-only stuff en dat ik makkelijk een remote desktopje kan openen.
Daar gebruik ik x2go server voor (op een debian MATE LXC) en dan x2go client op je eigen pc (win/lin), remote desktop achtig iets voor efficiënte lxc's _/-\o_

- Deze advertentie is geblokkeerd door Pi-Hole -


  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 20:19
Mja, dat gaat wel iets makkelijker dan met mijn FreeNAS / virtualbox oplossing ja. VM's daar zijn wat aan de trage kant :p

Heb je toevallig ervaring met het importeren van al bestaande ZFS pools? Wil waarschijnlijk ook wel een SSD toevoegen voor cache maar als het importeren zelf niet kan dan houd het sowieso even op op dit moment.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • +1 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Mattie112 schreef op donderdag 23 november 2017 @ 10:09:
Mja, dat gaat wel iets makkelijker dan met mijn FreeNAS / virtualbox oplossing ja. VM's daar zijn wat aan de trage kant :p

Heb je toevallig ervaring met het importeren van al bestaande ZFS pools? Wil waarschijnlijk ook wel een SSD toevoegen voor cache maar als het importeren zelf niet kan dan houd het sowieso even op op dit moment.
Gaat prima , mijn ZFS pool is destijds begonnen op FreeBSD , heb em wegens experimenten zelfs nog in Illumos kunnen importen en gebruiken en daarna in Proxmox met ZFS on Linux kunnen importen

Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

Situatie:
ESXi server met daarop Ubuntu 16.04 VM met ZFS die middels passthrough aangeboden worden.

Het lijkt er sinds vanochtend op dat of de controller waar mijn datastore voor ESXi kapot is of de SSD waar de vm's op staan is overleden (of alle twee).

Nu zijn de disken die worden aangeboden apart en heb niet het idee dat daar iets mis mee was (altijd goede waardes) en vroeg me af of die zo weer te importeren zijn?

Mogelijk op een nieuwe machine?

Heel erg zal het niet zijn omdat er genoeg backups zijn maar ter lering en vermaak wel leuk om te zien hoe ZFS is zulke gevallen werkt.

[ Voor 0% gewijzigd door stuffer op 28-11-2017 13:21 . Reden: typo ]

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!
Als het een passthrough schijf was dan gaat dat wel lukken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

Is dat heel simpel gezegd: zpool import poolnaam?

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!
Yep

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

Zo makkelijk kan het zijn:-)

Ik laat het weten als er weer leven in zit.

-------------------
Edit: @CurlyMo
ESXi wilde weer booten van zijn datastore dus: zpool import poolname niet gebruikt ter lering en vermaak. Waar het probleem heeft gezeten....geen idee....

[ Voor 56% gewijzigd door stuffer op 29-11-2017 16:29 ]

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 19-09 11:37

WeaZuL

Try embedded, choose ARM!

Ik heb de sinds een tijdje continu last van
TID         PRIO  USER         DISK READ  DISK WRITE  SWAPIN  IO    COMMAND   
15:24:26   758 be/0 root        0.00 K/s    0.00 K/s  0.00 % 99.99 % [z_null_int]
15:37:11     7 be/4 root        0.00 K/s    0.00 K/s  0.00 % 99.99 % [ksoftirqd/0]
in iotop.

Is een issue voor op Github zfsonlinux, echter nog geen oplossing. Zijn er meer die hier last van hebben?
Op Github geven ze aan dat snapshots verwijderen mogelijk een oplossing is, eens kijken of dat verschil maakt. :?

Edit, net alle snapshots verwijderd en een reboot erachteraan, geen verschil :/

[ Voor 8% gewijzigd door WeaZuL op 30-11-2017 15:49 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 13-09 23:36
ik heb de volgende esxi server draaien:

#ProductPrijsSubtotaal
1Intel Xeon E5649 Boxed€ 0,-€ 0,-
1Supermicro X8STi-F€ 286,19€ 286,19
4Samsung Spinpoint F4 EcoGreen HD155UI, 1,5TB€ 0,-€ 0,-
5Samsung Spinpoint F4 EG HD204UI, 2TB€ 0,-€ 0,-
1Digital Devices DuoFlex C/C2/T/T2 + Octopus Twin-CI *Bundel*€ 399,-€ 399,-
64 gb ram ----
1Supermicro AOC-SAT2-MV8€ 126,40€ 126,40
1OCZ Agility 3 120GB€ 0,-€ 0,-
1supermicro servercase met 15 hd slots en 3x 380 watt voeding----
Bekijk collectie
Importeer producten
Totaal€ 811,59

Nu heb ik op deze vmware esxi server nas4free in een vm geinstalleerd en de supermicro sata controller/onboard sata controller middels pass through direct aan de vm gegeven. Hierbij merk ik op dat dat de supermicro sata controller een pci-x kaart in een pci slot is dus max ongeveer 100 mb/s doet.
Nu is het ook mijn bedoeling dat de esxi server zijn datastore op de nas4free zet middels NFS.
Nu heb ik de volgende configuratie in gedachten:
  • zfs pool van 4x 1,5tb hd op de onboard controller en deze gebruiken voor de esxi datastore en werkdata
  • zfs pool van 5x 2tb hd op de supermicro sata controller en deze gebruiken voor de langdurige data opslag (films/muziek/archief/backup)
nu heb ik die ssd nog is het zinvol om die als cache te gebruiken? Want ik las dat die ssd geen snelheidswonder is

als jullie nog tips opmerkingen of dingen hebben waar ik rekening mee moet houden dan hoor ik dat graag

Acties:
  • 0 Henk 'm!

  • Phorcys
  • Registratie: April 2013
  • Laatst online: 21:59
Wellicht dat iemand me kan helpen. Ik heb nu een Zfsguru vm in hyper-v draaien met 2 Pools via een IBM m1015 iT mode en de schijven zijn dmv disk passtrpugh doorgegeven aan de vm. Nu wil ik een hp microserver gen10 aanschaffen en Zfsguru installeren zonder een hypervisor.

Om de Pools te importen, is het een kwestie van m1015 overzetten naar de nieuwe machine en pool import doen of moeten er nog extra handelingen gedaan worden, of is het helemaal niet mogelijk omdat je van een virtuele machine met disk passtrough gaat naar een fysieke machine?

Alvast bedankt!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 17-09 17:30
Jammer dat het topic een beetje doodgebloed lijkt.

Ik vraag me af of een Samsung 850 EVO geschikt is voor SLOG doeleinden. Dit ivm met de discussie aangaande stroomuitval etc.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1

Pagina: 1 ... 181 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.