Acties:
  • 0 Henk 'm!
Je kan een schijf altijd weer online zetten, zolang ZFS maar 'gelooft' dat hij ooit onderdeel heeft uitgemaakt van de pool. Daarna start je een scrub, en gaat ZFS controleren wat de verschillen zijn met de disk ten opzichte van wat er op zou moeten staan.

Als je geen scrub start, is de disk gewoon direct weer terug, maar zal je tijdens lees en schrijf acties potentieel checksum errors zien.

Als ZFS de disk niet meer accepteert (omdat je *alle* uberblocks eraf gegooid hebt) moet je de disk replacen

Dus ipv zpool online /dev/disk/disk-a doe je:
zpool replace oude-id /dev/disk/disk-a

Zelfde effect, ander commando :)

[ Voor 22% gewijzigd door FireDrunk op 06-01-2016 10:45 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Dus een offline disk -> badblocks -w disk -> online disk -> scrub zou moeten werken? Geen replace disk nodig?
Als ik in de man page kijk lijkt me die ook nodig, daar zfs de oude disk niet meer zou herkennen na overschrijven?

NB : een detach bij nader inzien zal wel geheel niet werken daar dat alleen bij mirrors gebruikt kan worden maar niet bij raidz pools..

Acties:
  • 0 Henk 'm!
Ik ken badblocks persoonlijk niet. Maar als het doet wat ik denk dat het doet, kan dat prima ja.

Even niets...


Acties:
  • 0 Henk 'm!

  • bakker_be
  • Registratie: Oktober 2009
  • Laatst online: 16-10-2024
Hallo,
ik van de dagen tussen kerst en nieuw gebruik gemaakt om mijn Windows domain controller om te toveren tot een ZFS NAS. Ik heb hiervoor de NAS4Free distributie gekozen. Omdat ik deze machine zo veel mogelijk van de "permanente services" wil laten vervullen (SABnzbd+, SickRAGE, Headphones, LMS) ben ik al snel bij het "jail" concept uitgekomen, en hiervoor dus ook de jail management extension "thebrig" geïnstalleerd. Dit werkt prima, ik heb een jail waarin SABnzbd+ draait en verbinding krijgt met de usenetserver, so far so good dus.
Eén ding krijg ik echter momenteel niet aan de praat, en dat is toegang vanuit de jail naar de data directories buiten de jail. Zo lang dit niet in orde geraakt kan ik dus er niet voor zorgen dat er vanuit de LMS-jail muziek kan gespeeld worden die door de SABnzbd-jail gedownload werd en op de juiste plaats gezet werd, om maar een voorbeeld te geven.
Mijn config:
OS: NAS4free 10.2.0.2 (revision 2235) x64-embedded
CPU: AMD Athlon(tm) II X2 250 Processor
MB: ASRock 760GM-GS3
RAM: 8GB
DATAPOOL: 4x TOSHIBA MD04ACA400 in Raidz1 vdev. Een 2de vdev van 4x SAMSUNG HD204UI komt hier in de toekomst nog bij, zodra de hierop reeds aanwezige data overgezet is. Al deze schijven hangen aan een IBM M1015.

Wat ik wil bekomen:
In de datapool zijn verschillende basis directories aangemaakt voor de verschillende types content:
Afbeeldingslocatie: http://s9.postimg.org/oqhcjq3wr/ZFS_DIRS.jpg
Ik zou dus eigenlijk bijvoorbeeld /mnt/DefaultPool/Music/ toegankelijk willen maken voor zowel de SABnzbd- als de LMS-jail. Ik heb me hier al suf op gezocht maar vind het niet :(

Save the trees, eat beaver!


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:54

Compizfox

Bait for wenchmarks

FireDrunk schreef op woensdag 06 januari 2016 @ 07:25:
[...]
Wat de RAID controller wel kan is zien dat de stripe niet volledig is (door een scrub (check in mdadm)).
Simpel gezegd: de RAID controller leest gewoon alle stripes in, en waar hij geen data krijgt, kan hij data terugschrijven in theorie (maar dat doet voor zover ik weet alleen mdadm).

Waar hij wel data terugkrijgt maar de data is foutief, weet hij niet of de parity niet klopt (want die mismatch), of de data niet klopt (want de parity mismatched :+)

Daar zit het grote euvel. Dat eerste probleem is overkomelijk want je hebt je redundancy om de data te reconstrueren (je krijgt immers data + geen data). Het tweede probleem is veel lastiger, want je krijgt twee versies van je data waar je niet weet welke waar is.
Volgens mij was het argument van die kerel op Reddit zo ongeveer dat alle bitrot veroorzaakt wordt door bitflips op de HDD. De HDD zal dit dus dan ofwel zelf corrigeren via z'n interne ECC, ofwel melden aan de RAID-controller dat de sector niet gelezen kan worden. Het idee was dat de RAID-controller bij zo'n geval dan weet aan welke HDD het ligt.

Of dat inderdaad zo is weet ik niet, maar ik ben wel benieuwd naar hoe het dan écht zit. Als bitrot/silent corruption niet wordt veroorzaakt door bitflips op de HDD, waardoor dan wel? Als het veroorzaakt wordt door een bitflip in het RAM, zou je verwachten dat die fout naar alle HDDs (dus ook naar de parity) geschreven wordt toch?

Met andere woorden: Door welke reden anders dan een bitflip op een HDD (door straling of whatever) kan een mismatch tussen data en parity nog meer veroorzaakt worden?

[ Voor 5% gewijzigd door Compizfox op 06-01-2016 12:28 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
FireDrunk schreef op woensdag 06 januari 2016 @ 07:25:
[...]
Nou, daar wil ik wel eens bewijs van zien
Afbeeldingslocatie: https://lh3.googleusercontent.com/VpBhWQrX08dOvMVhBnc_HdEzW1DtsA-kkX0ipW3Q4IRyc4HUQJNb5vmXZ0jixc4KBunxxSKdihPOI3wBoqiESOlCarZMB085oY7TnTpgi-eM__Zz_U4ASfXlsM_lx_pp0iDtxNkNaAeB0iTJttNgU3W4jxE7jsOdpSZhXE-5YoKUbWSqRhcRwQ2ZIaRgNO42anDxiCoSscqKCXFlV2rn627_GPLWGNqWluff6bkad-JicbMBqLIJ7RLl8TVMaglAK4IbE95illax0tpUciCR-6Clwm7VTC7SGzbvnyr97JY4mOaNQ5ny46CF2Bk3pN9N2kLWupgdJFzY4kxTeEZ6JY-XOndRJo3e8wSEW9TX6NU-W7EfGF6pZIDV7LKSt4AhcDsfmQS9VeUr3UfQAraK3AxNiYxHp5aankKOSeOhETJVtiQwQmo7EMvJWc2TRS5hHbCVkzYvnfqpvCa4oF482Oqa5mEBCLVF53XNwmXEObCRnmN-4UcK3riW4Pl4yJ80xap4bDW26PiaSGU3Y_RkpEHLMdPa6rmPiaqLrKJACsqAS0ExVNGmf4mfZ6opdUdWjjO4=w717-h208-no
naar mijn ervaring detecteert de Areca controller bovenstaande juist d.w.z. ik vink normaliter beide opties aan en wanneer er een bad block is rapporteert de controller dat. In de praktijk zie ik zo weinig pariteits fouten dat ik mij hierin mogelijk vergis.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
idef1x schreef op woensdag 06 januari 2016 @ 09:06:
Noobvraagje:
Ik heb een disk in een raidz2 pool (ZFS on linux) die een pending sector geeft die maar niet wil verdwijnen, (1 is niet veel, maar om nu elke dag een mailtje van smart te krijgen is ook weer zo wat ;) ) dus dacht ik deze maar eens geheel te overschrijven/controleren met "badblocks -w" oid
Bad sectors in gebieden die ZFS niet in gebruik heeft, kunnen geen kwaad. Ze verdwijnen vanzelf zodra ZFS die gebieden in gebruik gaat nemen; dus als ze worden overschreven.

Van belang is dat je een ZFS scrub uitvoert en de output daarvan (en zpool status -x) kun je laten mailen. Elke dag de SMART output mailen lijkt mij onzinnig.

Wil je er echt vanaf, kun je ook je hele ZFS pool vol laten schrijven met een zerofile en die vervolgens verwijderen. Maar je kunt ook gewoon je SMART mails stopzetten dat heeft niet zoveel nut. Je draait niet voor niets ZFS. Je bent immuun voor bad sectors zolang je een redundante ZFS pool hebt.

Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
FireDrunk schreef op woensdag 06 januari 2016 @ 12:08:
Ik ken badblocks persoonlijk niet. Maar als het doet wat ik denk dat het doet, kan dat prima ja.
badblocks checkt je disk op badblocks ;) Zeg maar de -c optie bij mkfs.ext4
Met de -w optie schrijft ie een 4 tal patterns naar elk blok (kan ook een gedeelte selecteren) en als dat goed gaat iedereen blij en anders geeft ie weer welke blokken niet goed gingen. M.a.w. Ik dacht zo mijn disk geheel vol te schrijven/testen met die patterns in de hoop dat ie de pending sector in ieder geval realloceert en ik van die pending af zou zijn.

Afijn ik probeer het wel even uit op de backup zfs machine...Die is inmiddels wel gewend opnieuw een pool in zijn geheel overgepompt te krijgen :+
Verwijderd schreef op woensdag 06 januari 2016 @ 14:04:
[...]

Bad sectors in gebieden die ZFS niet in gebruik heeft, kunnen geen kwaad. Ze verdwijnen vanzelf zodra ZFS die gebieden in gebruik gaat nemen; dus als ze worden overschreven.

Van belang is dat je een ZFS scrub uitvoert en de output daarvan (en zpool status -x) kun je laten mailen. Elke dag de SMART output mailen lijkt mij onzinnig.

Wil je er echt vanaf, kun je ook je hele ZFS pool vol laten schrijven met een zerofile en die vervolgens verwijderen. Maar je kunt ook gewoon je SMART mails stopzetten dat heeft niet zoveel nut. Je draait niet voor niets ZFS. Je bent immuun voor bad sectors zolang je een redundante ZFS pool hebt.
scrub had ik al gedaan ook in de hoop dat ie wellicht gelijk zou verdwijnen, maar dat gebeurd dus kennelijk pas als zfs de sector gebruikt/wil gebruiken.

Tsja die smartd daemon bestond niet voor niets, dus had het maar aangezet als in beter voor niets gewaarschuwd dan te laat ;)
Zal smart mails maar uitzetten dan en geheel op zfs gaan vertrouwen...moet kunnen met raidz2 8)

Dank maar weer voor de toelichting.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Het periodiek opslaan van de SMART data van je disks heeft wel toegevoegde waarde. Maar dagelijks mails krijgen over een onleesbare sector in ongebruikte ruimte heeft geen enkele zin. Ik zou smartd - de daemon dus - helemaal niet gebruiken. Alleen smartctl oftewel zelf querien. Als je daar eens per maand van je disks eens naar kijkt en de waarden hiervan opslaat, heb je wel iets om bijvoorbeeld kabelfouten en andere waarde over een langere tijd te kunnen volgen.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 06 januari 2016 @ 14:38:
Het periodiek opslaan van de SMART data van je disks heeft wel toegevoegde waarde. Maar dagelijks mails krijgen over een onleesbare sector in ongebruikte ruimte heeft geen enkele zin. Ik zou smartd - de daemon dus - helemaal niet gebruiken. Alleen smartctl oftewel zelf querien. Als je daar eens per maand van je disks eens naar kijkt en de waarden hiervan opslaat, heb je wel iets om bijvoorbeeld kabelfouten en andere waarde over een langere tijd te kunnen volgen.
:Y

root@nas:/EVO500/Logging# ls -lah
total 316K
drwxr-xr-x 2 root root    8 Jan  1 21:00 .
drwxr-xr-x 4 bart bart    4 Sep 23 16:12 ..
-rw-r--r-- 1 root root  225 Jan  5 21:00 SMART_Daily_012016.log
-rw-r--r-- 1 root root 6.5K Dec 31 21:00 SMART_Daily_122015.log
-rw-r--r-- 1 root root  59K Jul 31 21:00 smart_daily_201507.log
-rw-r--r-- 1 root root  73K Aug 31 21:00 smart_daily_201508.log
-rw-r--r-- 1 root root  76K Sep 30 21:00 smart_daily_201509.log
-rw-r--r-- 1 root root  15K Oct  6 21:00 smart_daily_201510.log


root@nas:~# cat smartstatus_log.sh
#!/bin/bash
export PATH=$PATH:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games
DATUM='date +%d-%m-%Y/%H:%M'

MONTHYEAR=$(date +%m%Y)

$DATUM >> /EVO500/Logging/SMART_Daily_$MONTHYEAR.log

/root/showtools/show disk -mSsftHPrRC >>  /EVO500/Logging/SMART_Daily_$MONTHYEAR.log


Recent is het blijkbaar wel weer stuk gegaan zag ik net, dus dat maar even gefixed door de path variable juist te zetten in het script, die vond opeens hdparm niet meer dewelke aangeroepen wordt door dat script van Q om een smart tabelletje te krijgen.


root@nas:~# cat /EVO500/Logging/SMART_Daily_012016.log
01-01-2016/21:00
Error: is hdparm installed?
02-01-2016/21:00
Error: is hdparm installed?
03-01-2016/21:00
Error: is hdparm installed?
04-01-2016/21:00
Error: is hdparm installed?
05-01-2016/21:00
Error: is hdparm installed?
06-01-2016/14:47
-----------------------------------------------------------------------------------------------------------------
| Dev | Model                     | Serial Number        | GB   | Firmware | Temp | Hours | PS | RS | RSE | CRC |
-----------------------------------------------------------------------------------------------------------------
| sda | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 20   | 8038  | 0  | 0  | ?   | 0   |
| sdb | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 21   | 8951  | 0  | 0  | ?   | 0   |
| sdc | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 20   | 17819 | 0  | 0  | ?   | 0   |
| sdd | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 19   | 8951  | 0  | 0  | ?   | 0   |
| sde | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 20   | 8948  | 0  | 0  | ?   | 0   |
| sdf | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 19   | 8951  | 0  | 0  | ?   | 0   |
| sdg | M4-CT128M4SSD2            | XXXXXXXXXXXXXXXXXXXX | 128  | 070H     | 0    | 17707 | 0  | 0  | 0   | 0   |
| sdh | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 19   | 17822 | 0  | 0  | ?   | 0   |
| sdi | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 19   | 17822 | 0  | 0  | ?   | 0   |
| sdj | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 20   | 17824 | 0  | 0  | ?   | 0   |
| sdk | ST4000DM000-1F2168        | XXXXXXXX             | 4000 | CC52     | 19   | 17819 | 0  | 0  | ?   | 0   |
| sdl | M4-CT128M4SSD2            | XXXXXXXXXXXXXXXXXXXX | 128  | 0309     | 0    | 24248 | 0  | 0  | 0   | 0   |
| sdm | M4-CT128M4SSD2            | XXXXXXXXXXXXXXXXXXXX | 128  | 0309     | 0    | 24289 | 0  | 0  | 0   | 0   |
| sdn | Samsung SSD 840 EVO 250GB | xxxxxxxxxxxxxxx      | 250  | EXT0AB0Q | ?    | 29832 | ?  | 0  | ?   | 1   |
| sdo | Crucial_CT120M500SSD1     | xxxxxxxxxxxx         | 120  | MU03     | 26   | 17537 | 0  | 9  | 25  | 3   |
| sdp | Samsung SSD 840 EVO 500GB | xxxxxxxxxxxxxxx      | 500  | EXT0AB0Q | ?    | 25901 | ?  | 0  | ?   | 67  |
-----------------------------------------------------------------------------------------------------------------

Acties:
  • 0 Henk 'm!
Daar heb ik CollectD voor :+

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Mja, maar dat script geeft je dus maar beperkte informatie. Het periodiek bijhouden van de SER en RRER kan ook nuttig zijn, met name de genormaliseerde waarden. Als die verslechteren t.o.v. het verleden is dat ook een teken van ouderdom/slijtage. En dat kan ook nuttig zijn in het beoordelen of je een disk op het einde van zijn garantieperiode toch nog even RMA wilt sturen, bijvoorbeeld.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 06 januari 2016 @ 15:16:
Mja, maar dat script geeft je dus maar beperkte informatie. Het periodiek bijhouden van de SER en RRER kan ook nuttig zijn, met name de genormaliseerde waarden. Als die verslechteren t.o.v. het verleden is dat ook een teken van ouderdom/slijtage. En dat kan ook nuttig zijn in het beoordelen of je een disk op het einde van zijn garantieperiode toch nog even RMA wilt sturen, bijvoorbeeld.
Oooooooooooh Louwrentius/Q uuuhuuu? :+

Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
HyperBart schreef op woensdag 06 januari 2016 @ 14:53:
[...]


root@nas:/EVO500/Logging# ls -lah
total 316K
drwxr-xr-x 2 root root    8 Jan  1 21:00 .
drwxr-xr-x 4 bart bart    4 Sep 23 16:12 ..
-rw-r--r-- 1 root root  225 Jan  5 21:00 SMART_Daily_012016.log
-rw-r--r-- 1 root root 6.5K Dec 31 21:00 SMART_Daily_122015.log
-rw-r--r-- 1 root root  59K Jul 31 21:00 smart_daily_201507.log
-rw-r--r-- 1 root root  73K Aug 31 21:00 smart_daily_201508.log
-rw-r--r-- 1 root root  76K Sep 30 21:00 smart_daily_201509.log
-rw-r--r-- 1 root root  15K Oct  6 21:00 smart_daily_201510.log


root@nas:~# cat smartstatus_log.sh
#!/bin/bash
export PATH=$PATH:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games
DATUM='date +%d-%m-%Y/%H:%M'

MONTHYEAR=$(date +%m%Y)

$DATUM >> /EVO500/Logging/SMART_Daily_$MONTHYEAR.log

/root/showtools/show disk -mSsftHPrRC >>  /EVO500/Logging/SMART_Daily_$MONTHYEAR.log
Is het script ondertussen gewijzigd ofzo dat je logging namen hebt van maandjaar en jaarmaand door elkaar?
Ziet er verder overigens wel handig uit...valt dat scriptje ergens te downloaden (voor die tabel)? Scheelt mij weer het wiel opnieuw uit te vinden enzo ;)

Acties:
  • 0 Henk 'm!
idef1x schreef op woensdag 06 januari 2016 @ 18:18:
[...]

Is het script ondertussen gewijzigd ofzo dat je logging namen hebt van maandjaar en jaarmaand door elkaar?
Ziet er verder overigens wel handig uit...valt dat scriptje ergens te downloaden (voor die tabel)? Scheelt mij weer het wiel opnieuw uit te vinden enzo ;)
Mjaaaaa }:| . Ik heb ergens eens wat te enthousiast zitten rm -Rf'en en toen is er eentje gesneuveld, snel even opnieuw begonnen.

Dat scriptje heb je nu al, maar die tabel vorm dat komt van een tooltje wat Q/Louwrentius heeft geschreven:

https://github.com/louwrentius/showtools

Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
HyperBart schreef op donderdag 07 januari 2016 @ 10:24:
[...]

Dat scriptje heb je nu al, maar die tabel vorm dat komt van een tooltje wat Q/Louwrentius heeft geschreven:

https://github.com/louwrentius/showtools
Dank je! _/-\o_

Acties:
  • 0 Henk 'm!
Ik heb recent gemerkt dat na reboots de ZFS module niet meer standaard ingeladen wordt.

Ik moet altijd even manueel een modprobe doen om ergens in /sbin zfs in te laden, daarna werkt alles prima.

Dit probleem manifesteert zich na een aantal updates/upgrades op Ubuntu 14.04.3 LTS.

Iemand een ideetje?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
staat die module niet in /etc/modules.conf of een equivalente file?

Acties:
  • 0 Henk 'm!
Als het goed is doet een service dat voor je... iets van zfs-mount dacht ik?

Even niets...


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
HyperBart schreef op vrijdag 08 januari 2016 @ 15:47:
Ik heb recent gemerkt dat na reboots de ZFS module niet meer standaard ingeladen wordt.

Ik moet altijd even manueel een modprobe doen om ergens in /sbin zfs in te laden, daarna werkt alles prima.

Dit probleem manifesteert zich na een aantal updates/upgrades op Ubuntu 14.04.3 LTS.

Iemand een ideetje?
Ik had het laatst ook en hij bleek niet genoeg ruimte aan het begin van mijn boot disk te hebben voor een update-grub.
Heb toen een partitie van een 4MB aan het begin van de disk (USB stick overigens) gezet en de rest opgeschoven/wat ingekrompen. Op die 4MB partitie de "bios_grub" flag aangezet en opnieuw update-grub en grub-install gedaan. Daarna deed ie het bij weer automatisch. Ik moet er wel bij vermelden dat dit ook iets te maken had met dat ik mijn boot disk voorzien had van een GPT. Dat scheen ermee te maken hebben gehad.

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Er is al vaker in dit topic gediscussieerd over de betrouwbaarheid en stabiliteit van ZoL t.o.v. ZFS in combinatie met FreeBSD en afgeleide distributies zoals ZFSguru,FreeNAS, NAS4Free etc.

Zelf overweeg ik de migratie van een dedicated ZFS NAS4Free NAS naar een ZoL oplossing (in combinatie met Proxmox of KVM met virt-manager).

Klopt mijn aanname dat ZoL anno 2016 dusdanig betrouwbaar en stabiel is voor thuisgebruik, dat er weinig redenen zijn om niet te migreren?
De setup waarin ik ZFS ga gebruiken is erg eenvoudig: 1 vdev per disk en geen RAID-Z/dedup/compressie/encryptie/TRIM/...

ik zie net dat ZFS 0.6.5.4 voor linux enkele uren geleden uitgebracht is

[ Voor 12% gewijzigd door sloth op 09-01-2016 12:24 ]


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
sloth schreef op zaterdag 09 januari 2016 @ 12:20:
Er is al vaker in dit topic gediscussieerd over de betrouwbaarheid en stabiliteit van ZoL t.o.v. ZFS in combinatie met FreeBSD en afgeleide distributies zoals ZFSguru,FreeNAS, NAS4Free etc.

Zelf overweeg ik de migratie van een dedicated ZFS NAS4Free NAS naar een ZoL oplossing (in combinatie met Proxmox of KVM met virt-manager).

Klopt mijn aanname dat ZoL anno 2016 dusdanig betrouwbaar en stabiel is voor thuisgebruik, dat er weinig redenen zijn om niet te migreren?
De setup waarin ik ZFS ga gebruiken is erg eenvoudig: 1 vdev per disk en geen RAID-Z/dedup/compressie/encryptie/TRIM/...

ik zie net dat ZFS 0.6.5.4 voor linux enkele uren geleden uitgebracht is
Ik beheer zakelijk een up to date ZoL systeem en overweeg thuis ook weer een ZFS systeem op te zetten maar dat gaat absoluut FreeBSD draaien. ZoL geeft na bijna elke update van het systeem problemen (omdat de kernel module niet voor de juiste kernel versie is gecompileerd) en het geheugenbeheer is ook niet op het zelfde niveau (wat resulteert in vastlopers en performance problemen). Mijn ervaringen met FreeBSD zijn op dat gebied stukken beter.

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
We zijn op mijn werk bezig met het opzetten van een Hyper-V platform, onze eerste inzet was Synology om de ISCSI luns te hosten, dat ging goed... tot er wat meer druk op het platform kwam. We willen nu eigenlijk mooie Dell 2U servers kopen en gebruiken met ZFS. Iemand goede of juist slechte ervaringen met ZFS en ISCSI/Hyper-V?

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-09 07:42
Bigs schreef op zaterdag 09 januari 2016 @ 13:40:
[...]


Ik beheer zakelijk een up to date ZoL systeem en overweeg thuis ook weer een ZFS systeem op te zetten maar dat gaat absoluut FreeBSD draaien. ZoL geeft na bijna elke update van het systeem problemen (omdat de kernel module niet voor de juiste kernel versie is gecompileerd) en het geheugenbeheer is ook niet op het zelfde niveau (wat resulteert in vastlopers en performance problemen). Mijn ervaringen met FreeBSD zijn op dat gebied stukken beter.
Wij verwijderen oude ZOL en installeren daarna ZOL weer opnieuw in de nieuwe versie. Doen we dat niet eindigt Jessie met kernel panic, best lastig in DC. ;)
Buiten dat draait betreffend systeem wel stabiel en performed prima. Maar ben met je eens dat FreeBSD in deze lekkerder werkt.

specs


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
sloth schreef op zaterdag 09 januari 2016 @ 12:20:
Zelf overweeg ik de migratie van een dedicated ZFS NAS4Free NAS naar een ZoL oplossing (in combinatie met Proxmox of KVM met virt-manager).

Klopt mijn aanname dat ZoL anno 2016 dusdanig betrouwbaar en stabiel is voor thuisgebruik, dat er weinig redenen zijn om niet te migreren?
Ik draai al maanden Proxmox op een test machine zonder problemen. Toegegeven deze staat niet 24/7 te draaien maar ik heb er al aardig wat met gespeeld.

Ik ben momenteel nieuwe spullen aan het verzamelen voor een nieuwe Proxmox aio ZFS NAS en zeg ESX vaarwel.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
DennusB schreef op zaterdag 09 januari 2016 @ 13:50:
We zijn op mijn werk bezig met het opzetten van een Hyper-V platform, onze eerste inzet was Synology om de ISCSI luns te hosten, dat ging goed... tot er wat meer druk op het platform kwam. We willen nu eigenlijk mooie Dell 2U servers kopen en gebruiken met ZFS. Iemand goede of juist slechte ervaringen met ZFS en ISCSI/Hyper-V?
Als jullie een Windows Shop zijn, waarom dan geen Windows 2012 + storage spaces met SSD als storage tier voor read/write cache? Sorry dat ik je vraag niet beantwoord - ik heb niet echt een antwoord - maar ik ben benieuwd.

[ Voor 7% gewijzigd door Q op 09-01-2016 22:27 ]


Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Q schreef op zaterdag 09 januari 2016 @ 22:26:
[...]


Als jullie een Windows Shop zijn, waarom dan geen Windows 2012 + storage spaces met SSD als storage tier voor read/write cache? Sorry dat ik je vraag niet beantwoord - ik heb niet echt een antwoord - maar ik ben benieuwd.
Eerlijk antwoord: omdat er geen ervaring mee Is bij ons, wel met ZFS. Wat voor voordelen bied 2012 precies tegenover ZFS?

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
DennusB schreef op zaterdag 09 januari 2016 @ 23:01:
[...]


Eerlijk antwoord: omdat er geen ervaring mee Is bij ons, wel met ZFS. Wat voor voordelen bied 2012 precies tegenover ZFS?
Het wordt ondersteund op windows 8)7 en er zijn genoeg sysadmins die gewoon niet overweg kunnen (of willen) met linux.. daarnaast is er qua ZFS maar 2 niveaus: hobby projecten (zoals ZFSGuru) waarbij support gelimiteerd is, maar gratis, of "Enterprise" zoals Nexenta, waarbij je grof betaald voor de storage die je wilt.. Als het bedrijf toch al vol zit met windows licenties, dan is het 'makkelijker' om een windows storage bak op te zetten dan om het risico aan te gaan met "community-supported" software, of de licentie kosten van de "enterprise" software.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:26

BCC

al gevraagd

[ Voor 89% gewijzigd door BCC op 10-01-2016 08:24 ]

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
DXaroth schreef op zondag 10 januari 2016 @ 01:03:
[...]


Het wordt ondersteund op windows 8)7 en er zijn genoeg sysadmins die gewoon niet overweg kunnen (of willen) met linux.. daarnaast is er qua ZFS maar 2 niveaus: hobby projecten (zoals ZFSGuru) waarbij support gelimiteerd is, maar gratis, of "Enterprise" zoals Nexenta, waarbij je grof betaald voor de storage die je wilt.. Als het bedrijf toch al vol zit met windows licenties, dan is het 'makkelijker' om een windows storage bak op te zetten dan om het risico aan te gaan met "community-supported" software, of de licentie kosten van de "enterprise" software.
Ja, dat ben ik met je eens. Ik zal me eens inlezen morgen om te kijken of het een optie is voor ons!
Thanks voor de informatie :)

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
DennusB schreef op zondag 10 januari 2016 @ 10:04:
[...]


Ja, dat ben ik met je eens. Ik zal me eens inlezen morgen om te kijken of het een optie is voor ons!
Thanks voor de informatie :)
Het probleem wat storage spaces heeft is dat zijn foutdetectie enorm inferieur is aan wat op linux te vinden is (btrfs/zfs), al is het wel aanzienlijk verbeterd de laatste jaren. echter support WSS geen dedup of compressie, die beide wel te vinden zijn in ZFS (tenzij dit recentelijk wel beschikbaar is geworden).

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
DXaroth schreef op zondag 10 januari 2016 @ 12:14:
[...]


Het probleem wat storage spaces heeft is dat zijn foutdetectie enorm inferieur is aan wat op linux te vinden is (btrfs/zfs), al is het wel aanzienlijk verbeterd de laatste jaren. echter support WSS geen dedup of compressie, die beide wel te vinden zijn in ZFS (tenzij dit recentelijk wel beschikbaar is geworden).
Goed om te weten, nu gebruiken we dedup & compressie momenteel sowieso niet, dus ik neem het wel mee maar het zal er niet om hangen denk ik! Thanks voor je info :)

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
DXaroth schreef op zondag 10 januari 2016 @ 12:14:
[...]


Het probleem wat storage spaces heeft is dat zijn foutdetectie enorm inferieur is aan wat op linux te vinden is (btrfs/zfs), al is het wel aanzienlijk verbeterd de laatste jaren. echter support WSS geen dedup of compressie, die beide wel te vinden zijn in ZFS (tenzij dit recentelijk wel beschikbaar is geworden).
De rest van de wereld draait al jaren prima op server hardware Dell / HP met genoemde software, dus ik zou mij daar geen moment druk over maken.

ZFS dedup is iet wat ik niet zou inzetten, ik lees teveel ellende. Windows storage spaces doet ook dedup en is supported by MS. Bedoeld voor Hyper-V. Als dedup zo'n issue is kun je beter een 'echte' SAN met dedup support hebben staan. Compressie is meestal niet zo belangrijk, het hangt van de situatie af maar als de storage een volume voor virtual machines is, dan zie ik weinig nut.

Zelfbouw op basis van ZFS in een bedrijfsomgeving vind ik zelf best tricky, ik zou het standaard nooit doen. Alleen als ik een hele goede reden heb waarom een 'echte' SAN of anders Storage Spaces niet zou werken. De aanschafkosten van de hardware zijn maar een deel ban het verhaal. Het gaat om het hele plaatje inclusief ondersteuning, onderhoud, etc.

Een SAN heeft dual-controllers, harde schijven met dual-ports, ECC overal op, je kunt met zelfbouw + ZFS nooit de kwaliteit van een SAN benaderen. Even ter context.

[ Voor 20% gewijzigd door Q op 10-01-2016 13:59 ]


Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Q schreef op zondag 10 januari 2016 @ 13:54:
[...]
Zelfbouw op basis van ZFS in een bedrijfsomgeving vind ik zelf best tricky, ik zou het standaard nooit doen. Alleen als ik een hele goede reden heb waarom een 'echte' SAN of anders Storage Spaces niet zou werken. De aanschafkosten van de hardware zijn maar een deel ban het verhaal. Het gaat om het hele plaatje inclusief ondersteuning, onderhoud, etc.
Het gaat uiteraard niet om zelfbouw hardware, dat zullen dan gewoon vrij dikke Dell machines met 32/64GB RAM en 2 Xeon CPU's worden, het gaat meer om "Zelfbouw" qua software.

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Dat begrijp ik, ik noem ook Dell / HP, maar dan nog moet je je heel goed afvragen waar het voor is en wat je wilt. ZFS zou niet eens in mijn hoofd opkomen.

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Q schreef op zondag 10 januari 2016 @ 14:00:
Dat begrijp ik, ik noem ook Dell / HP, maar dan nog moet je je heel goed afvragen waar het voor is en wat je wilt. ZFS zou niet eens in mijn hoofd opkomen.
Oke :) Duidelijk verhaal! Ik heb er maar even een dedicated topic over geopend : Snelle en veilige storage voor Hyper-V nodig, hoe?

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

Verwijderd

Ls,
Ik weet niet of ik hier een noobvraag mag stellen, maar hierbij toch maar gedaan.
Omdat ik met ZFS aan de gang wil ben ik aan het experimenteren met Freenas.
Vooral om te kijken wat er fout kan gaan en wat ik daarmee dan moet doen.
Beter eerst testen dan straks met alle data erop.
Een half jaar geleden heb ik ook een test gedaan, compleet met plex jail etc. Werkte allemaal. Nu echter met een zwaardere pc.
Nu loop ik in het begin echter al vast. Nieuwste versie (9.3) geïnstalleerd, kan via web interface inloggen, daarna storage, users en shares etc aangemaakt.
Ik krijg het echter met geen mogelijkheid voor elkaar om van win7 pc op een share aan te loggen (via verkenner). Wat ik ook aan groups, users enzo aanmaak, het werkt niet, terwijl het de vorige keer in no time draaide. Met guest account lijk ik access te krijgen maar met geen mogelijkheid schrijf rechten.
Iemand tips?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Wat is de permissie op een map die je probeert te benaderden? (ls -l /maplocatie)
En ik neem aan dat je het over smb hebt? Wat is de configuratie daarvan?
(Het is niet echt zfs gerelateerd, maar je zou snel op weg moeten kunnen.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
In welke modus staat Samba? Ik weet niet of je dat in FreeNAS in kan stellen, maar Samba kent twee vormen van authenticatie (per-share en per-user). Wat jij beschrijft, wil kunnen inloggen op de machine, maar niet bij de shares kunnen, klinkt alsof de verkeerde Samba modus aan staat.

FreeNAS regelt volgens mij de rechten die je users geeft per share. Maar als die optie in Samba dus verkeerd staat worden die rechten genegeerd...

Even niets...


Acties:
  • 0 Henk 'm!

  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-09 14:23
bakker_be schreef op woensdag 06 januari 2016 @ 12:21:
Hallo,
ik van de dagen tussen kerst en nieuw gebruik gemaakt om mijn Windows domain controller om te toveren tot een ZFS NAS. Ik heb hiervoor de NAS4Free distributie gekozen. Omdat ik deze machine zo veel mogelijk van de "permanente services" wil laten vervullen (SABnzbd+, SickRAGE, Headphones, LMS) ben ik al snel bij het "jail" concept uitgekomen, en hiervoor dus ook de jail management extension "thebrig" geïnstalleerd. Dit werkt prima, ik heb een jail waarin SABnzbd+ draait en verbinding krijgt met de usenetserver, so far so good dus.
Eén ding krijg ik echter momenteel niet aan de praat, en dat is toegang vanuit de jail naar de data directories buiten de jail. Zo lang dit niet in orde geraakt kan ik dus er niet voor zorgen dat er vanuit de LMS-jail muziek kan gespeeld worden die door de SABnzbd-jail gedownload werd en op de juiste plaats gezet werd, om maar een voorbeeld te geven.
Mijn config:
OS: NAS4free 10.2.0.2 (revision 2235) x64-embedded
CPU: AMD Athlon(tm) II X2 250 Processor
MB: ASRock 760GM-GS3
RAM: 8GB
DATAPOOL: 4x TOSHIBA MD04ACA400 in Raidz1 vdev. Een 2de vdev van 4x SAMSUNG HD204UI komt hier in de toekomst nog bij, zodra de hierop reeds aanwezige data overgezet is. Al deze schijven hangen aan een IBM M1015.

Wat ik wil bekomen:
In de datapool zijn verschillende basis directories aangemaakt voor de verschillende types content:
[afbeelding]
Ik zou dus eigenlijk bijvoorbeeld /mnt/DefaultPool/Music/ toegankelijk willen maken voor zowel de SABnzbd- als de LMS-jail. Ik heb me hier al suf op gezocht maar vind het niet :(
FreeNas doet dat met bind mounts (mount -t bind src dst --> mount -t bind /mnt/vol01/Downloads/Bittorent /mnt/vol01/jails/transmission/mnt/Download)

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

De update naar ZFS 0.6.5.4 ging hier eens weer eens mis op mijn CentOS 7 installatie. Nu maar weer een rollback gedaan naar de vorige versie. De laatste updates gaat het telkens mis. Stiekem best wel vervelend.

Laatste weken ook telkens checksum errors na een scrub. Wilde de nieuwe reversie van firmware 20 voor mijn LSI2308 eens proberen, maar volgens mij is die nog steeds buggy. Binnenkort maar weer downgraden naar versie 19 dus.

[ Voor 35% gewijzigd door FREAKJAM op 11-01-2016 10:11 ]

is everything cool?


Acties:
  • 0 Henk 'm!

Verwijderd

Dadona en Firedrunk,
Dank voor jullie reactie.
Vanavond weer een paar uur geprobeerd het werkend te krijgen, maar dat is niet gelukt.
Ik had er wellicht bij moeten vertellen dat het om Windows CIFS shares in Freenas gaat.
Alles volgens het boekje (video's) ingericht, maar niet werken.
Alle dummy zaken, zoals firewall die in de we zit, uitgesloten.
In windows verkenner zie ik de verschillende shares die ik heb aangemaakt.
Inloggen wil niet. Userid/password popup komt wel, maar geen enkele combi werkt.
Ik moet iets over het hoofd zien, maar weet niet wat.

Acties:
  • 0 Henk 'm!
Heb je de aangemaakte users aan de shares gekoppeld?

Even niets...


Acties:
  • 0 Henk 'm!
Wat zeggen de samba logs?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 22:45
Ik heb ook een soortgelijk probleem met Windows 7 en zfsguru.
Een share mappen via net use werkt bij mij wel:

code:
1
net use DRIVELETTER: \\hostnaam\sharenaam password /USER:username


Misschien voor jou ook?

[ Voor 6% gewijzigd door RudolfR op 12-01-2016 21:21 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
Verwijderd schreef op dinsdag 12 januari 2016 @ 01:25:
Dadona en Firedrunk,
Dank voor jullie reactie.
Vanavond weer een paar uur geprobeerd het werkend te krijgen, maar dat is niet gelukt.
Ik had er wellicht bij moeten vertellen dat het om Windows CIFS shares in Freenas gaat.
Alles volgens het boekje (video's) ingericht, maar niet werken.
Als je me een SSH sessie (of teamviewer) kan bezorgen wil ik er wel eens naar kijken. Doe maar P.M.

Ik heb al verschillende FN servers geïnstalleerd en de rechten kunnen af en toe wel eens vervelend doen. Zeker als je niet gewoon bent om met linux permissies te werken.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
Wat een groot nadeel van Windows is: Als je eenmaal een SMB connectie met een correct password gelegd hebt naar een server, kan je niet makkelijk een nieuwe connectie maken met een 2e set username/password.

Bedenk dus: Als je zowel anonieme toegang als username/password based login doet, moet je zorgen dat je windows machine bij boot, direct de goede username/password combinatie probeert. Zodra je met je filebrowser naar de server gaat, zal Windows proberen anoniem in te loggen, en kan je niet meer met een username en password inloggen tot je reboot.

Dit komt omdat SMB (onder Windows) een kernel protocol is, en niet per-user in userspace...

Even niets...


Acties:
  • +1 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
FireDrunk schreef op woensdag 13 januari 2016 @ 07:41:
Zodra je met je filebrowser naar de server gaat, zal Windows proberen anoniem in te loggen, en kan je niet meer met een username en password inloggen tot je reboot.
of een
net use \\server /delete /yes
eventueel gevolgd door een
net use \\server /user:Goalseeker *


Ja, je moet er voor naar de command line, maar het scheelt je een reboot en er vervolgens nog niet bij kunnen omdat je filebrowser wederom met de verkeerde username inlogt :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Ik heb regelmatig gehad, dat zelfs na het verbreken van de geslaagde netwerkverbinding ik nog steeds niet een nieuwe mount kon maken, tot ik gereboot had. Als het deleten nu eindelijk wel een 'goed opgeruimde' samba state oplevert, ben ik weer een beetje tevreden over Windows :)

[ Voor 4% gewijzigd door FireDrunk op 13-01-2016 08:11 ]

Even niets...


Acties:
  • 0 Henk 'm!
Voor de mensen die het nog niet wisten (ik in ieder geval niet...).
zfs_vdev_min_pending en zfs_vdev_max_pending zijn uit ZFS gehaald (op alle platformen).
Ze zijn vervangen door een aantal nieuwe zaken rondom max_active en min_active.

Uitgebreide uitleg: https://github.com/freebs...e031efa5efac183effaa34R38

Even niets...


Acties:
  • +1 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
Edit Ik heb een oorzaak/fix zie einde van mijn post

Ik heb een interessant probleem met zfs on linux.
Ik heb een volle pool (0k vrij) en ik kan er niets meer van verwijderen met bijv een rm.
Dat geeft op zicht niet het is een test omgeving, maar als ik een andere pool op het zelfde systeem net zo vol gooi kan ik gewoon nog bestanden verwijderen. Nu wil ik graag weten wat er mis is, maar ik kan niets vinden dat niet in de haak is. Kunnen jullie helpen met trouble shooten?

Edit ik ben meer geïnteresseerd in wat het probleem is dan in een oplossing. Oplossingen kan ik zelf zo wel verzinnen aangezien het toch test data is.

Scrubben gaat probleemloos geen enkele fout.
De block sum = gelijk aan de space maps

64gb ram
ubuntu 15.10
zfs v0.6.4.2-0ubuntu1.1, ZFS pool version 5000, ZFS filesystem version 5

zpool status

pool: tank0
state: ONLINE
scan: scrub in progress since Mon Jan 11 11:42:15 2016
4.78T scanned out of 21.4T at 691M/s, 7h0m to go
0 repaired, 22.34% done
config:

NAME STATE READ WRITE CKSUM
tank0 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
F0 ONLINE 0 0 0
F3 ONLINE 0 0 0
F2 ONLINE 0 0 0
F1 ONLINE 0 0 0
F7 ONLINE 0 0 0
F6 ONLINE 0 0 0

errors: No known data errors


zpool get all
NAME PROPERTY VALUE SOURCE
tank0 size 21.8T -
tank0 capacity 98% -
tank0 altroot - default
tank0 health ONLINE -
tank0 guid 9034185262091936598 default
tank0 version - default
tank0 bootfs - default
tank0 delegation on default
tank0 autoreplace off default
tank0 cachefile - default
tank0 failmode wait default
tank0 listsnapshots off default
tank0 autoexpand off default
tank0 dedupditto 0 default
tank0 dedupratio 1.00x -
tank0 free 348G -
tank0 allocated 21.4T -
tank0 readonly off -
tank0 ashift 12 local
tank0 comment - default
tank0 expandsize - -
tank0 freeing 0 default
tank0 fragmentation 59% -
tank0 leaked 0 default
tank0 feature@async_destroy enabled local
tank0 feature@empty_bpobj enabled local
tank0 feature@lz4_compress active local
tank0 feature@spacemap_histogram active local
tank0 feature@enabled_txg active local
tank0 feature@hole_birth active local
tank0 feature@extensible_dataset enabled local
tank0 feature@embedded_data active local
tank0 feature@bookmarks enabled local

zfs get all

NAME PROPERTY VALUE SOURCE
tank0 type filesystem -
tank0 creation Mon Dec 21 8:58 2015 -
tank0 used 17.1T -
tank0 available 0 -
tank0 referenced 17.1T -
tank0 compressratio 1.00x -
tank0 mounted yes -
tank0 quota none default
tank0 reservation none default
tank0 recordsize 128K default
tank0 mountpoint /tank0 default
tank0 sharenfs off default
tank0 checksum on default
tank0 compression off default
tank0 atime on default
tank0 devices on default
tank0 exec on default
tank0 setuid on default
tank0 readonly off default
tank0 zoned off default
tank0 snapdir hidden default
tank0 aclinherit restricted default
tank0 canmount on default
tank0 xattr on default
tank0 copies 1 default
tank0 version 5 -
tank0 utf8only off -
tank0 normalization none -
tank0 casesensitivity sensitive -
tank0 vscan off default
tank0 nbmand off default
tank0 sharesmb off default
tank0 refquota none default
tank0 refreservation none default
tank0 primarycache all default
tank0 secondarycache all default
tank0 usedbysnapshots 0 -
tank0 usedbydataset 17.1T -
tank0 usedbychildren 15.8M -
tank0 usedbyrefreservation 0 -
tank0 logbias latency default
tank0 dedup off default
tank0 mlslabel none default
tank0 sync standard default
tank0 refcompressratio 1.00x -
tank0 written 17.1T -
tank0 logicalused 17.1T -
tank0 logicalreferenced 17.1T -
tank0 snapdev hidden default
tank0 acltype off default
tank0 context none default
tank0 fscontext none default
tank0 defcontext none default
tank0 rootcontext none default
tank0 relatime off default
tank0 redundant_metadata all default
tank0 overlay off default


Ok hoe het helemaal zit ben ik nog niet helemaal achter, maar ik heb wel een fix die goed genoeg is om niet meer met het probleem te zitten.
Zfs houd een reserve aan hoe vol je schijf mag zitten. In zfs on linux 0.64 is dat 1,6% vanaf 0.65 is het 3,2 procent. Ik zat op 0,64 en dus op 1,6 procent als ik deze omlaag haal naar ,8% kan ik weer schrijven en bestanden verwijderen. Uiteraard heb ik hem hier na op 3,2 % gezet daar is vast een reden voor dat ze dat verhoogd hebben waarschijnlijk de problemen die ik ondervond.

Het is nog steeds niet duidelijk waarom ik in de ene pool niet meer kan verwijderen en in de andere pool wel terwijl ze beiden vol zitten. Mocht ik dit vinden zal ik het ook posten.

Hoe doe je dit?
Je moet de spa_slop_shift parameter aan passen.
Deze staat bij mij in /sys/module/zfs/paramters/spa_slop_shift in 0,64 is het 6 in 0,65 staat ie op 5
Je komt bij het percentage door 100/2^6 dat is dus 100/64=1,56 % en 100/2^5=3.125 Ik heb hem tijdelijk op 7 gezet want hij stond toen ik mijn disks vol zette op 6.
Je kunt hetm instellen door /etc/modprobe.d/zfs.conf aan te maken en daar de volgende regel in te zetten.
options zfs spa_slop_shift=Getal
Je kunt rebooten om hem te laten gelden of door de zfs module te verwijderen en weer toe te voegen.
Vervolgens kun je de waarde checken door /sys/modules/zfs/paramters/spa_slop_shift uit te lezen.

Ik ga er van uit dat ze spa_slop_shift om hoog hebben gezet om het probleem dat ik heb te voorkomen.
fix is dus zet hem op 5 of installeer ZoL 0,65 waar ie standaard al op 5 staat.

Mocht je trouwens upgraden van 0,64 naar 0,65 check even of je pool minder dan 97% gevuld is anders heb je hommeles die met bovenstaande te fixen.

[ Voor 12% gewijzigd door kaaas op 15-01-2016 13:25 ]


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Bedoel je het verwijderen van bestanden met rm? Als hij echt nokkie vol is dan kan het wel kloppen dat je niets kunt verwijderen gezien de copy-on-write natuur van ZFS. Je zult denk ik een van je datasets moeten verwijderen om weer verder te kunnen (als dat wel gaat).

Zie je nergens iets in de logs?

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Mocht je snapshots hebben staan, dan kun je proberen deze te verwijderen.

Acties:
  • 0 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
Ik was ook tot de conclusie gekomen dat door de copy on write natuur dit het probleem zou kunnen zijn.
Als ik echter een identieke pool vol schrijf heb ik het probleem niet. Plus dat ik zou het niet echt handig vinden als zfs hier geen rekening mee houd.

Welke log raad je aan en waar zou ik naar moeten kijken?

Acties:
  • 0 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
Nope geen snapshots

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Het is mij trouwens nog nooit gelukt een ZFS pool vol te schrijven, meestal kakte de performance bij >80% vol zodanig in dat er niet meer mee te werken viel. Dat het jou wel lukt is wel een soort van vooruitgang :)

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
kaaas schreef op woensdag 13 januari 2016 @ 10:26:
...
Als ik echter een identieke pool vol schrijf heb ik het probleem niet.
Dat is wel vreemd, je zou denken dat als alles identiek verloopt, het resultaat ook identiek zou moeten zijn.
Plus dat ik zou het niet echt handig vinden als zfs hier geen rekening mee houd.
Rekening houden kan je eventueel ook zelf.

Acties:
  • 0 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
Ik kan geen data sets verwijderen ik heb 1 pool en geen onderliggende data sets. Ik zou de pool kunnen verwijderen, maar dan weet ik alsnog niet wat er aan de hand is.

Ik zou inderdaad een quota kunnen instellen, maar dan is niet zeker dat het niet meer gebeurd aangezien ik nog niet weet wat exact het probleem is.

Ik zoek geen oplossing maar de oorzaak van het probleem

[ Voor 8% gewijzigd door kaaas op 13-01-2016 10:55 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
21TB aan test data :o 8)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
@ bigs ja met een rm de performance blijft behoorlijk lang goed tot +- 95%,de laatste 100 mb gaan heel langzaam

[ Voor 16% gewijzigd door kaaas op 13-01-2016 11:18 ]


Acties:
  • 0 Henk 'm!

  • ESteg
  • Registratie: November 2000
  • Laatst online: 22-09 08:52
Verwijderd schreef op dinsdag 05 januari 2016 @ 22:22:
De LiveCD is om mee te booten. Tijdens de eerste installatiestap kies je welke versie je wilt installeren. Daar kun je 005 kiezen. Je hebt dus niet continu een nieuwe livecd nodig. Je kunt met de LiveCD of USB stick alle versies installeren. Ik zou voor 10.2.005 of 10.3.005 gaan.
Ben de eerste stappen met ESXi aan het zetten en zodoende weer met de LiveCD bezig... maar ik zie bij de installatie alleen nog maar .004 versies in de lijst staan, geen .005?

Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 08-09 16:54
Wat zitten spelen met snapshots en replicatie (op FreeNAS). Werkt allemaal prima, maar toch een paar lessons learned:
- Eea werkt niet out of the box onder IPv6. Jammer, want de beoogde off-site lokatie is goed IPv6 benaderbaar.
- De handleiding klopt niet in de zin dat de dataset aan beide kanten moet bestaan, en dezelfde naam moet hebben.

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ESteg schreef op vrijdag 15 januari 2016 @ 09:12:
Ben de eerste stappen met ESXi aan het zetten en zodoende weer met de LiveCD bezig... maar ik zie bij de installatie alleen nog maar .004 versies in de lijst staan, geen .005?
Dat is vreemd; heb je wel een werkende internetverbinding, want dat is nodig om de nieuwe database te downloaden. Je kunt dit ook handmatig doen: op de System->Preferences->Advanced zie je een knop om de database handmatig te updaten. Probeer dat eens en kijk dan of je versies 005 en 006 (zojuist uitgekomen) ziet. Versie 10.3.006 lijkt mij de beste versie.

Acties:
  • 0 Henk 'm!
ijdod schreef op zaterdag 16 januari 2016 @ 14:05:
- De handleiding klopt niet in de zin dat de dataset aan beide kanten moet bestaan, en dezelfde naam moet hebben.
Je kan een snapshot prima een andere naam geven. Hier heet de root pool /rpool, maar op mijn backup schijf staat alles onder /backup/server

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 20:48
Klein beetje offtopic:

Vandaag staat mijn NAS precies 3 jaar onafgebroken aan. Draait nog steeds ZFSguru 0.2.0 beta9 op Freebsd 9.1-004. Het wordt binnenkort toch een keer tijd om te gaan updaten. Al zit ik te twijfelen of ik misschien zelf Freebsd ga installeren of toch weer ZFSguru pak.

Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 02:01
Ik heb sinds kort een herinstallatie van ZFSGuru gedaan.
Nu heb ik om de server automatisch uit te laten schakelen in /etc/crontab de volgende regel toegevoegd:

code:
1
2
# Auto shutdown server at 2.00am
00  2   *   *   *   root    /sbin/shutdown now -h


De server gaat echter niet uit.
Ook als ik server handmatig dit commando geef werkt het niet.

Heeft iemand een idee wat ik verkeerd doe?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Shutdown -h now moet het wezen.

is everything cool?


Acties:
  • +1 Henk 'm!

  • Cruise Control
  • Registratie: Juli 2003
  • Laatst online: 26-07-2024
En met 'shutdown -p now' schakel je ook nog de hardware uit.

Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 08-09 16:54
CurlyMo schreef op zaterdag 16 januari 2016 @ 16:25:
[...]

Je kan een snapshot prima een andere naam geven. Hier heet de root pool /rpool, maar op mijn backup schijf staat alles onder /backup/server
Onder FreeNAS moet de datasetnaam hetzelfde zijn voor replicatie, anders werkt het simpelweg niet. De root mag idd anders heten. De handleiding gebruikt wel andere namen voor de root (local en remote), maar laat de dataset in het midden. Er wordt ook geen stap vermeldt dit aan te maken. Er wordt geimpliceert dat local/files te repliceren is naar remote, zonder dat op remote de dataset files bestaat.

Geen groot issue verder, maar wel even puzzelen.

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 02:01
En met 'shutdown -p now' schakel je ook nog de hardware uit.
Ik zag het inderdaad op de man page.

Stom dat ik het commando verkeerd in mijn hoofd heb zitten (kennelijk begin ik oud te worden) :X

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@jbhc: volgens mij is het op andere unices wel -h van Halt geweest; dus het kan zijn dat je het wel goed hebt onthouden maar van een andere UNIX distro.
krijn1985 schreef op zaterdag 16 januari 2016 @ 17:31:
Vandaag staat mijn NAS precies 3 jaar onafgebroken aan. Draait nog steeds ZFSguru 0.2.0 beta9 op Freebsd 9.1-004. Het wordt binnenkort toch een keer tijd om te gaan updaten. Al zit ik te twijfelen of ik misschien zelf Freebsd ga installeren of toch weer ZFSguru pak.
Zojuist is 10.3.006 uitgekomen dus dat kan een prima kandidaat zijn voor een upgrade. Vanilla FreeBSD kan natuurlijk ook. Alleen mis je dan wel de tweaks die soms wel nuttig zijn. Bijvoorbeeld dat onder vanilla BSD je gemakkelijk je GPT labels verliest bij ZFS en hij gptid gaat gebruiken bijvoorbeeld. Voor systemen waar ik geen web-interface wil, gebruik ik zelf alsnog ZFSguru omdat ik daardoor heel makkelijk kan upgraden naar een nieuwere versie zonder te hoeven compileren. Het geeft meer een appliance gevoel. Dat gezegd, als je heel veel via de shell doet kun je opzich prima vanilla FreeBSD met Root-on-ZFS proberen.

In de komende versie van ZFSguru komt ook de Root-on-RAM distributie beschikbaar, die het OS zelf in RAM draait vanaf tmpfs. Dat geeft voordelen zoals dat problemen met je disk (kabelproblemen) je OS niet onderuit kan halen, en performancevoordelen. Ook kun je bijvoorbeeld van een USB stick booten zonder dat er geschreven wordt naar de USB stick; alleen tijdens het afsluiten wordt het profiel geupdate. Dat soort dingen heeft vanilla BSD nog niet.

Sommige addons hebben een leuke web-interface. Maar als je al die extra's niet gebruikt, kun je ook prima vanilla BSD overwegen. Sinds pkgNG is het beheer van de packages een stuk eenvoudiger en freebsd-update kan je enigszins helpen met systeemupdates - al is het bijwerken van configuratiebestanden soms nog wel een heikel punt.

Acties:
  • 0 Henk 'm!

  • ESteg
  • Registratie: November 2000
  • Laatst online: 22-09 08:52
Verwijderd schreef op zaterdag 16 januari 2016 @ 14:33:
[...]

Dat is vreemd; heb je wel een werkende internetverbinding, want dat is nodig om de nieuwe database te downloaden. Je kunt dit ook handmatig doen: op de System->Preferences->Advanced zie je een knop om de database handmatig te updaten. Probeer dat eens en kijk dan of je versies 005 en 006 (zojuist uitgekomen) ziet. Versie 10.3.006 lijkt mij de beste versie.
Sterk... internetverbinding werkte volgens mij prima, maar om de een of andere reden heeft hij nu wél de database geupdate, zie de 006 versies nu inderdaad ook. Heeft zichzelf mooi opgelost :)

ZFSguru draait hier al jaren als een zonnetje trouwens, thanks voor jullie werk daaraan. Nu dus sinds kort virtueel op ESXi met een LSI 9341-8i, geflasht naar een 9300-8i HBA die via VT-d doorgegeven is aan de ZFSguru VM. Werkte direct perfect, had ik tijden eerder moeten doen :)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Leuk om te horen. :)

Acties:
  • 0 Henk 'm!
ijdod schreef op zaterdag 16 januari 2016 @ 22:45:
[...]

Onder FreeNAS moet de datasetnaam hetzelfde zijn voor replicatie, anders werkt het simpelweg niet. De root mag idd anders heten. De handleiding gebruikt wel andere namen voor de root (local en remote), maar laat de dataset in het midden. Er wordt ook geen stap vermeldt dit aan te maken. Er wordt geimpliceert dat local/files te repliceren is naar remote, zonder dat op remote de dataset files bestaat.

Geen groot issue verder, maar wel even puzzelen.
Welk commando gebruik je uiteindelijk?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 08-09 16:54
CurlyMo schreef op zondag 17 januari 2016 @ 08:13:
[...]

Welk commando gebruik je uiteindelijk?
Standaard GUI. Sluit absoluut niet uit dat eea een FreeNAS GUI beperking is.

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 20:48
Verwijderd schreef op zondag 17 januari 2016 @ 01:02:

Zojuist is 10.3.006 uitgekomen dus dat kan een prima kandidaat zijn voor een upgrade. Vanilla FreeBSD kan natuurlijk ook. Alleen mis je dan wel de tweaks die soms wel nuttig zijn. Bijvoorbeeld dat onder vanilla BSD je gemakkelijk je GPT labels verliest bij ZFS en hij gptid gaat gebruiken bijvoorbeeld. Voor systemen waar ik geen web-interface wil, gebruik ik zelf alsnog ZFSguru omdat ik daardoor heel makkelijk kan upgraden naar een nieuwere versie zonder te hoeven compileren. Het geeft meer een appliance gevoel. Dat gezegd, als je heel veel via de shell doet kun je opzich prima vanilla FreeBSD met Root-on-ZFS proberen.

In de komende versie van ZFSguru komt ook de Root-on-RAM distributie beschikbaar, die het OS zelf in RAM draait vanaf tmpfs. Dat geeft voordelen zoals dat problemen met je disk (kabelproblemen) je OS niet onderuit kan halen, en performancevoordelen. Ook kun je bijvoorbeeld van een USB stick booten zonder dat er geschreven wordt naar de USB stick; alleen tijdens het afsluiten wordt het profiel geupdate. Dat soort dingen heeft vanilla BSD nog niet.

Sommige addons hebben een leuke web-interface. Maar als je al die extra's niet gebruikt, kun je ook prima vanilla BSD overwegen. Sinds pkgNG is het beheer van de packages een stuk eenvoudiger en freebsd-update kan je enigszins helpen met systeemupdates - al is het bijwerken van configuratiebestanden soms nog wel een heikel punt.
Misschien to slecht geluk door te zeggen dat hij 3 jaar aanstaat. Op dit moment staat hij nog ewl aan, maar kom er niet meer bij. Ssh zegt dat fingerprint veranderd is, de webinterface kom ik niet bij nu. Waarschijnlijk dus even scherm gaan aansluiten en toetsenbord.

Ik snap hier niks van, vanacht nog 150GB weggeschreven naar mijn nas voor backup.

Als ik je bovenstaande verhaal zo lees ga ik dan toch weer voor ZFSguru. Het draait prima en de web-interface is wel handig. Al ga ik denk ik wel zelfs Sabnzbd etc installeren inplaats van de service vanuit ZFSguru gebruiken. Had namelijk nogal problemen met updaten.

update: Of ik let niet goed op, maar waar kan ik de 10.3.006 image downloaden? Zie alleen 10.2.003 op de download pagina op zfsguru.com.

UPDATE 2: Nou dan na 3 jaar en een dag dus een restart gedaan en alles werkt weer gewoon. Hoef ik gelukkig vandaag niet alles weer opnieuw te installeren en kan ik daar toch een keer de tijd voor nemen.

UPDATE 3: Ik snap er echt even niks meer van. Denk ok doet het weer, haal alles los (toetsenbord en scherm) en ja hoor kom er weer niet bij en kan weer niet verbinden via SSH. Plug ik mijn toetsenbord en scherm weer in krijg ik weer geen beeld en wil mijn USB toetsenbord het niet doen. Snap er echt even niks van. Ik wil hem eigenlijk niet zomaar uitzetten vai de Powerknop, maar zonder ssh/web-interface//fysieke toegang wordt het toch lastig.

Enige idee welke logs ik zou moeten nalopen voor eventuele problemen?

[ Voor 16% gewijzigd door krijn1985 op 17-01-2016 16:13 ]


Acties:
  • 0 Henk 'm!

  • joslohuis
  • Registratie: December 2011
  • Laatst online: 16:39
Ik heb ZFSguru 3.1 met 10.3.006 draaien, heb problemen gehad met een disk, vervangen en ZFSGuru opnieuw geïnstalleerd en de pools geïmporteerd. Daarna een scrub gedraaid en de pool ziet er goed uit.
Ik krijg op het status scherm de volgende 2 meldingen, deze had ik ook al voordat de disk vervangen is en ik ZFSGuru opnieuw geïnstalleerd heb.

Tar error extracting GuruDB, item: general/index.ser
Downloaded GuruDB rejected: invalid array structure

Powered by ZFSguru version 0.3.1
Running official system image 10.3.006 featuring FreeBSD 10.2-STABLE with ZFS v5000.
Running Root-on-ZFS distribution.

Weet iemand wat er niet goed gaat en hoe ik dit kan oplossen?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@krijn1985

Ben wel benieuwd. :)

Als je wilt kun je ook via DM een bericht sturen, dan help ik je persoonlijk met het tot leven wekken cq. bestuderen van je probleem, om dit topic te ontlasten. Want het is niet direct relevant/interessant voor anderen denk ik.

Over SABnzbd, die is juist geupdate in de nieuwe versies; ik zou toch even proberen of de service in ZFSguru build 005 en 006 niet goed voor je werken. Ook de andere addon services die eerst gebundeld kwamen met SAB zijn flink onder handen genomen. Ook NZBget - nieuw in 006 - zou goed moeten werken. Je kunt altijd nog los installeren mocht je toch tegen problemen aanlopen. Ben alleen wel benieuwd welke.

De LiveCD wordt niet geupdate met elke nieuwe build. Maar dat geeft niet, je kunt prima de LiveCD van build 003 gebruiken om vervolgens tijdens de eerste installatiestap build 006 te downloaden en die te selecteren. Je hebt dus niet elke keer een up-to-date LiveCD of USB stick nodig. Een oude is prima. Je hebt wel een nieuwere nodig als bijvoorbeeld je niet kunt booten of je netwerkinterface niet wordt herkend bijvoorbeeld. Afgezien daarvan maakt een oudere LiveCD of USB stick niets uit.

Update: de LiveCD met 10.3.006 build is al wel upload zie ik: bravo.zfsguru.com/livecd/ZFSguru-LiveCD-10.3.006-amd64-normal.iso

[ Voor 5% gewijzigd door Verwijderd op 17-01-2016 16:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
joslohuis schreef op zondag 17 januari 2016 @ 16:27:
Ik heb ZFSguru 3.1 met 10.3.006 draaien, heb problemen gehad met een disk, vervangen en ZFSGuru opnieuw geïnstalleerd en de pools geïmporteerd. Daarna een scrub gedraaid en de pool ziet er goed uit.
Ik krijg op het status scherm de volgende 2 meldingen, deze had ik ook al voordat de disk vervangen is en ik ZFSGuru opnieuw geïnstalleerd heb.
Probeer eens handmatig een nieuwe database te downloaden, misschien is het downloaden halverwege onderbroken ofzo en heb je een onvolledige database.

System->Preferences->Advanced en klik op de knop Refresh database.

Acties:
  • 0 Henk 'm!

  • joslohuis
  • Registratie: December 2011
  • Laatst online: 16:39
Verwijderd schreef op zondag 17 januari 2016 @ 16:30:
[...]

Probeer eens handmatig een nieuwe database te downloaden, misschien is het downloaden halverwege onderbroken ofzo en heb je een onvolledige database.

System->Preferences->Advanced en klik op de knop Refresh database.
Heb ik gedaan maar heeft niet geholpen, na de refresh aantal minuten gewacht en dan een herstart gedaan

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Kun je eens inloggen via SSH (zie: Access->SSH pagina) en dan uitvoeren:

sha512 /usr/local/www/zfsguru/config/zfsguru.gurudb

Begint de checksum met '5aa32' ?

Acties:
  • 0 Henk 'm!

  • joslohuis
  • Registratie: December 2011
  • Laatst online: 16:39
Verwijderd schreef op zondag 17 januari 2016 @ 17:31:
Kun je eens inloggen via SSH (zie: Access->SSH pagina) en dan uitvoeren:

sha512 /usr/local/www/zfsguru/config/zfsguru.gurudb

Begint de checksum met '5aa32' ?
de uitkomst van sha512
SHA512 (/usr/local/www/zfsguru/config/zfsguru.gurudb) = 5aa32c0ec0d6b2d47eaf64154dd2fa5bd5001d2c271b17ebe57ad0c949264eef715010b2c6dada28cd73b7e9f71afc7e4fc5cba1f115ad84cc5faa26423b740e

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Kun je me via DM de volgende informatie sturen:

Output van het commando 'df -h'

En verifiëren of je met een verse LiveCD het probleem ook kunt repliceren, dus gebruik te maken van de LiveCD URL die ik drie berichten hierboven heb gepost. Je hoeft geen installatie uit te voeren. Gewoon skip welcome wizard. Kijken of je dan de melding krijgt. Zo niet, dan handmatig updaten met System->Preferences->Advanced en klik op de Refresh database knop.

Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 20:48
Om dan hier even een update te geven was mijn probleem met ZFSguru blijkbaar veroorzaakt door mijn laptop die op een of andere manier het IP adres van mijn NAS claimt. Waarom geen idee, als ik in IP config kijken zie ik namelijk een heel ander ip adres dan mijn NAS ip adres. Maar er stond toch een reinstall geplanned, dus hopelijk is het daarna opgelost.

@CiPHER nog bedankt voor de hulp.

Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Heeft iemand een idee hoe het kan in ZFSGuru dat ik wel bestanden op een File System kan opslaan, de beschikbare ruimte wel goed wordt getoond als zijnde bezet, maar zodra ik ga bladeren in de Files browser dan toont hij niks?

Ik kwam erachter toen ik Plex als service installeerde, deze toonde continue 0 bestanden in de gekozen bibliotheek map.

Zodra ik toen de permissions gereset heb via het Advanced tabblad (777 op directories, 666 op files) everyone werden ze wel getoond.

Heb ik als gebruiker een fout gemaakt tijdens het aanmaken van het file systeem? Of heb ik een fout gemaakt met de rechten?

Wanna play?


Acties:
  • 0 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
F-Tim schreef op maandag 18 januari 2016 @ 22:15:
Heeft iemand een idee hoe het kan in ZFSGuru dat ik wel bestanden op een File System kan opslaan, de beschikbare ruimte wel goed wordt getoond als zijnde bezet, maar zodra ik ga bladeren in de Files browser dan toont hij niks?

Ik kwam erachter toen ik Plex als service installeerde, deze toonde continue 0 bestanden in de gekozen bibliotheek map.

Zodra ik toen de permissions gereset heb via het Advanced tabblad (777 op directories, 666 op files) everyone werden ze wel getoond.

Heb ik als gebruiker een fout gemaakt tijdens het aanmaken van het file systeem? Of heb ik een fout gemaakt met de rechten?
Dat zal ongetwijfeld een probleem zijn met de rechten. Een directory listing vereist dat de gebruiker de read permissie heeft op die directory, terwijl de executable permissie nodig is om naar de directory te traversen (info: https://www.freebsd.org/doc/handbook/permissions.html). Je kunt dit oplossen met 777 op de directories, maar het is netter (en veiliger) om de minimale permissies toe te passen en eventueel je user aan een group toe te voegen.

[ Voor 14% gewijzigd door narotic op 18-01-2016 22:35 . Reden: sorry, ben aan 't kloten ]

- = Step Into The Pit | Industrial Strength = -


Acties:
  • 0 Henk 'm!
Plex draait volgens mij onder een eigen user, als je die user aan de groep toevoegt die je normaal gesproken gebruikt, ben je vrij snel klaar. Vaak zijn de default permissies ofwel 775 of 755 (of 664 of 644 voor files).

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
En dan nu de hamvraag, hoe doe ik dat op de juiste manier?

Als ik namelijk naar de Files\Permissions\Ownership pagina ga, dan kan ik wel Owners (of een group als owner) instellen, maar ik kan geen gebruikers aan groups toevoegen. En de plex gebruiker is een system account...

Wel heb ik via Access\Users een groep aangemaakt, ik denk dan voeg ik aan die group de Plex user toe, maar dat kan dus niet :)

Ik draai gewoon het meest recente release system image 10.2.006

Edit:

Het ligt overigens niet aan Plex an sich, alle files die ik via de Samba (anonieme guest user met read-write) share naar het file system kopieer zijn nooit zichtbaar in de File Browser.
Nieuwe directories worden wél getoond. Lege directories worden getoond als "Total: 0", directories met files erin worden blanco getoond in de File Browser.

Zodra ik dan de permissies reset (777 + 666) dan ziet Plex in ieder geval wél de (nieuwe) content, maar dat zou ik dan elke keer moeten doen en dat lijkt me niet bepaald handig :P
Als ik geen permissies reset, dan ziet Plex enkel ook alleen de oude content.

[ Voor 39% gewijzigd door F-Tim op 19-01-2016 10:34 ]

Wanna play?


Acties:
  • 0 Henk 'm!
Plex draait onder een user die niet bij die data kan. De manier waarop ZFSguru de permissies zet is volgens mij op share niveau en niet op filesystem niveau.
Kan je je smb.conf eens posten?

(/usr/local/samba/smb.conf uit mijn hoofd)

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Zo, weer wat nieuws geleerd! PuTTy en SSH... :9
Dat scheelt me de volgende keer het aansluiten van een monitor en tobo bij een eventuele upgrade naar een nieuwe installatie!
Hieronder de file contents (/usr/local/etc/smb.conf)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
# Please put comments on their own line starting with a # char.
# Do not remove the next line! Doing so will prevent ZFSguru parsing this file
#======================= Global Settings =====================================

[global]
workgroup = WORKGROUP
server string = Fractal Design Node 304
netbios name = Node304
security = share
passdb backend = tdbsam
load printers = no
log file = /var/log/samba/log.%m
log level = 2
max log size = 50

# regular user account used to store Samba files
guest account = share

# default permissions (can be set in share for share-specific configuration)
create mask = 0660
directory mask = 0770

# this may impact performance; at the time of writing,
# ZFS is not very optimized with sendfile (double memory copy)
use sendfile = no

# asynchronous I/O (improves performance on multiqueue I/O)
aio read size = 2048
aio write size = 2048
aio write behind = true

# fix free space reporting for ZFS filesystems
dfree command = /usr/local/www/zfsguru/scripts/dfree "%P"

# uncomment the following to enable symbolic links even outside of share path
#follow symlinks = yes
#wide links = yes
#unix extensions = no

# socket options
# try enabling and adapting if you encounter performance problems
#socket options = IPTOS_LOWDELAY TCP_NODELAY SO_SNDBUF=65536 SO_RCVBUF=65536

# please do not remove the next line! Required by ZFSguru
#============================ Share Definitions ==============================

[Data]
path = /tank/data
comment =
guest ok = no
read only = yes
write list = @share
browseable = yes

[Media]
path = /tank/media
comment =
guest ok = yes
read only = no
write list = @share
browseable = yes

Wanna play?


Acties:
  • 0 Henk 'm!
# default permissions (can be set in share for share-specific configuration)
create mask = 0660
directory mask = 0770

Dit is het probleem. Nieuwe files worden aangemaakt zonder leesrechten voor "Everyone".
Zoals de beschrijving al aangeeft, kan je dat dus wijzigen per share.

664/775 zou je probleem oplossen.

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
FireDrunk schreef op dinsdag 19 januari 2016 @ 12:37:
# default permissions (can be set in share for share-specific configuration)
create mask = 0660
directory mask = 0770

...
Met die 2 regels aangepast werkt het idd wel :) Thanx!

...Althans in Plex ziet hij gewoon netjes de files... in de web file browser werkt het nog steeds niet helemaal 100%. Maar ik gok dat het daar meer aan de bestandsgrootte ligt dan aan de permissies. Kleine bestanden worden wel getoond, maar grote MP4 files niet.... dus ik vermoed dat het in die hoek zit. Geverifieerd door een .mp4 file te kopieren, deze wordt niet getoond, maar een .txt file wel. Uiteraard beide ná de juiste rechten gezet in de .conf te hebben. Dus ik gok dat dit een ZFSguru beperking is, of dat ik iets over het hoofd zie nu.

Wat ik me wel afvraag, waarom zou ik hier niet gewoon 666/777 instellen?
Met 664/775 mag enkel de oorspronkelijke gebruiker erin schrijven/verwijderen toch?

Daarom stel je toch nou net per gebruiker de read/write permissions in? Dat zou toch per gebruiker per share moeten zijn, en niet op file/share niveau?

Wanna play?


Acties:
  • 0 Henk 'm!
666/777 is Everyone (in Windows termen), dus echt alle users. Bijvoorbeeld: Apache users, of welke willekeurige user dan ook die op je systeem bestaat. Niet handig voor virussen ofwel veiligheidslekken in je software.

(Als je dat perse wil, is 664/775 veel beter, want dan is het alleen lezen voor iedereen, ipv ook edit/remove).

Als je niet bang bent voor virussen of indringers kan je in theorie 777 doen ja.

Thuis heb ik 660/770 en een groep "Thuis" waar 2 'gewone' users in zitten en voor elke download applicatie een user (Dus de transmission user zit ook in de groep "Thuis").

Daarnaast heb ik in zoveel mogelijk applicaties ingesteld dat ze de rechten user:thuis op files zetten die ze aanmaken (ipv vaak de default user:user_default_group).

[ Voor 23% gewijzigd door FireDrunk op 19-01-2016 14:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
FireDrunk schreef op dinsdag 19 januari 2016 @ 14:19:
666/777 is Everyone (in Windows termen), dus echt alle users. Bijvoorbeeld: Apache users, of welke willekeurige user dan ook die op je systeem bestaat. Niet handig voor virussen ofwel veiligheidslekken in je software.

(Als je dat perse wil, is 664/775 veel beter, want dan is het alleen lezen voor iedereen, ipv ook edit/remove).

Als je niet bang bent voor virussen of indringers kan je in theorie 777 doen ja.

Thuis heb ik 660/770 en een groep "Thuis" waar 2 'gewone' users in zitten en voor elke download applicatie een user (Dus de transmission user zit ook in de groep "Thuis").

Daarnaast heb ik in zoveel mogelijk applicaties ingesteld dat ze de rechten user:thuis op files zetten die ze aanmaken (ipv vaak de default user:user_default_group).
Dat is dus wat ik in principe ook wil, alleen hoe krijg ik het dan zo ingesteld dat als ik een bestand kopieer, ofwel als een anonieme gebruiker op share X ofwel als ingelogde gebruiker op share Y, hij de rechten instelt op de gekozen groep? Een gebruiker kan ik wel lid maken van een groep, maar dan behoudt alsnog die gebruiker de rechten, waarbij anoniem dus géén lid is van een groep en dus ook géén link bevat.

En dan als vervolgvraag, hoe koppel ik het systeem account "Plex" dan aan die groep? Want dan zou ik dus wel 660/770 kunnen handhaven (cq. de default value wat in de smb.conf staat), maar zou ik wel met alle applicaties erbij kunnen komen?

Moet dat met Access > Shares > [Kies Share] > Advanced > Write list / Insert new variable?

Wanna play?


Acties:
  • 0 Henk 'm!
Samba honoreert volgens mij de default groep, dus als je van de Samba user de default groep omzet naar de "Thuis" groep zou samba dat moeten gebruiken volgens mij.

Commando's:
gpasswd -a user groep


Dus bijvoorbeeld:
gpasswd -a plex thuis


ZFSguru 'Share Groepen' zijn volgens mij iets anders dan Filesystem groepen zoals ik ze noem. ZFSguru kan wel met filesystem groepen overweg, maar heeft zijn eigen 'visie' over hoe het zou moeten werken die niet strookt met wat ik hier weerspiegel.

[ Voor 20% gewijzigd door FireDrunk op 19-01-2016 14:43 ]

Even niets...


Acties:
  • 0 Henk 'm!
Ook oudgedienden blijven niet gespaard:

  pool: stavanger
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: scrub repaired 24K in 7h43m with 0 errors on Sun Jan 17 09:43:33 2016
config:

        NAME                 STATE     READ WRITE CKSUM
        stavanger            ONLINE       0     0     0
          raidz2-0           ONLINE       0     0     0
            disk1-XXXXXXXX   ONLINE       0     0     0
            disk2-XXXXXXXX   ONLINE       0     0     0
            disk3-XXXXXXXX   ONLINE       0     0     0
            disk4-XXXXXXXX   ONLINE       0     0     1
            disk5-XXXXXXXX   ONLINE       0     0     1
            disk6-XXXXXXXX   ONLINE       0     0     1
            disk7-XXXXXXXX   ONLINE       0     0     1
            disk8-XXXXXXXX   ONLINE       0     0     1
            disk9-XXXXXXXX   ONLINE       0     0     1
            disk10-XXXXXXXX  ONLINE       0     0     0
        cache
          PART-EVO250-L2ARC  ONLINE       0     0     0


Euh :/ , 6 disks die ineens allemaal één foutje geven vind ik wel spectaculair. Ik moet straks even kijken of er een verband bestaat tussen de disks die fouten geven en op welke controller ze hangen. Kabelprobleem lijkt me sterk want dat zou impliceren dat er op heel korte termijn 2 SAS-SATA kabels defect geraakt zijn. Controller lijkt me nog het meest aannemelijk op voorwaarde dat ze allemaal op die ene controller hangen.

[ Voor 10% gewijzigd door HyperBart op 19-01-2016 15:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik zou meteen Memtest86+ gaan draaien want RAM errors ontdek je vaak doordat je checksum errors willekeurig over je disks hebt. Een defecte kabel zou zoiets niet mogen veroorzaken omdat je dan een CRC error krijgt, en dat uit zich in read of write errors, niet in checksum errors!

Acties:
  • 0 Henk 'm!
Neen inderdaad dat van die kabels had ik ook al zo goed als uitgesloten, maar ik ben er nog niet zeker van dat er niks mis kan zijn met de controller(?) .

Even kijken of memtest86+ nog mee geïnstalleerd staat met Ubuntu, dan kan ik het snel starten straks. Wat ik wel raar vind is dat het over 6 opeenvolgende disks gebeurd is, en niet over 6 disks verspreid over de pool, waardoor ik het idee heb dat er ergens een common factor is.

Er waren hier wat collega-Tweakers die één keer per week scrubben wat "te" vonden, maar als ik dit nu zie heb ik zoiets van "beter een scrub te weinig dan eentje te veel". Dit probleem stelt zich trouwens minder als een maand geleden want ik denk dat ik toen ongeveer de laatste scrub heb gedraaid.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Memtest86+ moet je uitvoeren tijdens het booten; er zijn ook memtest utilities die kunnen draaien als het OS geboot is, maar dat werkt niet goed. Memtest86+ (of zonder plus, weet ik niet meer) wordt wel meegeleverd met de Ubuntu ISO bijvoorbeeld. Anders zijn er genoeg utilities (ISO of USB image) waardoor je Memtest86+ kunt booten.

Haha ok. :P
SMART ook gecontroleerd op kabelfouten enzo?

[ Voor 8% gewijzigd door Verwijderd op 19-01-2016 15:36 ]


Acties:
  • 0 Henk 'm!
Ja, ik ken ze wel, maar ik denk dat Ubuntu ze ook mee installeert en dat je vanuit GRUB dan Memtest86+ kan runnen. Moet het even nakijken. Ben bekend met hoe een Memtest te runnen ;)

Ik moet wel zeggen dat de laatste tijd/dagen/weken media die ik wou afspelen op de HTPC heel traag op gang kwam. Vroeger had ik dat sporadisch wel eens omdat 10 disks één voor één moesten upspinnen, maar ik heb de indruk dat het erger geworden is, ik heb dan ook soms de indruk dat het precies is alsof ZFS ligt te wachten op disks die relatief traag hun IO terugsturen. Maar dit is ook alleen maar buikgevoel en gissen.
Verwijderd schreef op dinsdag 19 januari 2016 @ 15:32:
SMART ook gecontroleerd op kabelfouten enzo?
Zal straks even kijken in de logging :*)

Memtest draait nu, straks even verder kijken. Ben benieuwd of er in memtest ECC errors oid gaan opduiken, want nu ben ik wel eens benieuwd naar het hoe of wat van dit probleem.

[ Voor 78% gewijzigd door HyperBart op 19-01-2016 15:51 ]

Pagina: 1 ... 166 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.