Gewoon een heel grote verzameling snoertjes
Even niets...
Ha dat is jammer. Ik had zoiets inmiddels ook al gelezen op https://blogs.oracle.com/...ows_previous_versions_to1FireDrunk schreef op dinsdag 11 juni 2013 @ 08:05:
De geavanceerde versiebeheer tools van Windows zijn niet werkend te krijgen onder FreeBSD/ZFS voor zover ik weet. Onder Solaris een beetje, daar kan je de snapshots iig laten zien in het windows "Previous Versions" menu van een share.
Ik vraag me af, of je die kopieeractie die nu gebeurt door middel van een backup schema, kan wijzigen zodat deze gebeurt op het moment dat je een file opslaat. Ik denk niet dat je zoveel ingewikkelde scripts moet willen bouwen.
Wat je kan doen, is 5 minuten nadat je windows 2008 server gesynced heeft, automatisch een snapshot maken op zfs niveau. Dan heb je na elke sync een snapshot.
Dus dan zou ik Solaris moeten gebruiken, mits ik die windows feauture zou willen kunnen gebruiken. Dat is een afweging die zelf ik moet maken.
Hoe gebruiken de meeste hier hun ZFS machine? Als main-fileserver of als backupserver?
Ik vind het een beetje zonde om altijd een tweede aparte fileserver (in geval van ZFS) te laten draaien namelijk. Dat is ook de reden dat ik slechts eenmaal per dag een backup maak, dan hoeft die machine bijna niet aan te staan.
Ik gebruik nu een Windows bak met een aantal Hyper-V machines die nu als main-fileserver dient alle pc's in huis trekken hier hun content vanaf maar hij doet ook dienst als domainserver, DNS/DHCP/TMGserver, airvideoserver en nog wat spullen. Die moet altijd aanstaan. Zou heel mooi zijn als ik hier ZFS bij kon hangen maar had begrepen dat ik het me dan gewoon te moeilijk maak en dan heeft ZFS geen directe toegang tot de disks.
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Als er silent corruption optreedt in je Windows bak, zal je ZFS bak dat niet detecteren omdat hij de data die vanaf Windows komt gewoon voor waarheid aanneemt...
Je bent dus nooit zeker van je data tenzij je alle backups bewaard, en oneindig terug kan gaan in de tijd...
[ Voor 4% gewijzigd door FireDrunk op 11-06-2013 11:44 ]
Even niets...
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Even niets...
Maar niet always on.
Misschien dat ik het als volgt ga doen. Ik gebruik toch al DFS-Namespace.
Nu
WinServer (always on, DFS-defaultshare)
Backupserver (alleen aan bij wolpacket, DFS-backupshare)
Nieuw
WinServer (always on, DFS-backupshare)
ZFSserver (alleen aan op vaste tijden, DFS-defaultshare)
ZFS wordt dan de defaultshare, en synct dit gewoon altijd door naar de windows bak welke dan de "backup"share is.
Is de ZFS offline dan redirect DFS automatisch naar de windows bak. Probleem opgelost. Wel is er dan nog steeds een kleine kans op niet detecteerde bitrot maar die kans is dan veel kleiner omdat de ZFS back op de drukke tijden toch wel draait.
Ja soms is het leuk om ingewikkelde dingen te bedenken
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Desnoods ga je ESXi gebruiken en draai je zowel ZFS als Windows op 1 host, waarbij Windows een iSCSi volume heeft op je ZFS machine...
Best of both worlds...
Even niets...
Ik heb 2 server, op 1 installeer ik services en dat gaat goed, de andere blijft maar aangeven dat hij ze aan het installeren is, alles waar ik op klik blijft staan (maanden nu al)
Het zal wel geen kwaad kunnen, maar ik heb er eerder iets over gevraagd en nooit een antwoord gekregen. Het lijkt me dan maar het handigst om alles opnieuw te installeren.
Maar ik wil natuurlijk wel de bestaande pools terug krijgen zonder data verlies,
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Exporteren is wel iets netter
Koppel anders voor de zekerheid je data disks los, weet je zeker dat het niet mis kan gaan.
[ Voor 24% gewijzigd door FireDrunk op 11-06-2013 17:55 ]
Even niets...
Bijgevolg merkt ZFS deze vdev aan als "degraded". In ZFSguru krijg ik de mogelijkheid om de twee devices te removen of te replacen. Mag ik dat zomaar, dat removen? Omdat mijn vdev degraded is ben ik niet meer zo snel om even iets te removen/replacen... Het ding is: ze zijn door ZFSguru wel al aangemerkt als "removed".
Mijn M4 komt ook niet meer tevoorschijn onder disks...
[ssh@zfsguru /home/ssh]$ zpool status hulk pool: hulk state: DEGRADED status: One or more devices has been removed by the administrator. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Online the device using 'zpool online' or replace the device with 'zpool replace'. scan: scrub canceled on Tue May 21 14:11:55 2013 config: NAME STATE READ WRITE CKSUM hulk DEGRADED 0 0 0 raidz1-0 ONLINE 0 0 0 gpt/bay1 ONLINE 0 0 0 gpt/bay2 ONLINE 0 0 0 gpt/bay3 ONLINE 0 0 0 gpt/bay4 ONLINE 0 0 0 gpt/bay5 ONLINE 0 0 0 logs 14429619560257163279 REMOVED 0 0 0 was /dev/gpt/ZIL cache 2430380979461610196 REMOVED 0 0 0 was /dev/gpt/L2ARC errors: No known data errors
EDIT: No balls, no glory. beide devices geremoved. Alles terug groen, veiligheidshalve maar een scrub aan het draaien. Die is nu gestaag aan het stijgen qua snelheid... Nachtje door laten doen....
[ Voor 67% gewijzigd door HyperBart op 11-06-2013 23:35 ]
http://blogs.everycity.co...low-zfs-send-zfs-receive/
http://www.aisecure.net/2...emental-backups-over-ssh/
Lijkt me wel geen ideale ingesteldheid als het over storage en dergelijke gaat. Anderzijds elke zichzelf respecterende tweaker heeft natuurlijk een backupHyperBart schreef op dinsdag 11 juni 2013 @ 23:16:
EDIT: No balls, no glory. beide devices geremoved.
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Wat adviseren jullie voor backup oplossing met een ZFS OI systeem?
Ik ben van plan om een indentieek systeem te bouwen en deze de bestanden heen weer te laten kopieeren. Mocht er wat mis zijn met de hoofd server dan kan zou ik willen wisselen naar de backup server. Het moet dus direcht beschikbare data zijn, inclusief NTFS rechten.
Ik heb rsync onderzocht maar daar kopieeren de NTFS rechten niet mee (las ik)..
De devices waren toch al "removed" en de rest van mijn vdev was nog compleet healthy, dus er was geen gevaar. Beetje logisch nagedacht en huppa. En dat tweede was sowieso ook het geval. Er ligt in mijn nachtkastje een offline 2TB disk waar ik onregelmatig periodiek een zfs send/receive naar doe.Wouter.S schreef op woensdag 12 juni 2013 @ 10:03:
[...]
Lijkt me wel geen ideale ingesteldheid als het over storage en dergelijke gaat. Anderzijds elke zichzelf respecterende tweaker heeft natuurlijk een backup
Is dit erg nefast of kan het niet zoveel kwaad ? Vermoedelijk best ashift=9 gewoon laten?
Nee, kan geen kwaad, ik zou ze je pool juist optimaliseren voor 4K.
Een 512b sector schijf heeft geen last van 4k opdrachten, terwijl een 4k schijf wel last heeft van 512k opdrachten.
5 schijven in RAIDZ1 is inderdaad de beste optie.
Even niets...
Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]
Even niets...
Ik heb 2 Intel 320's (120GB). Ik wil ze inrichten met elk 3 partities. Een reguliere ZFS partie waarop een mirrored pool licht (rootpool), een ZIL en een L2ARC partitie.
De ZIL's in Mirror en de L2ARC partities striped (beide aan de pool toegevoegd).
Zoals FireDrunk als eens beschreef in: FireDrunk in "Het grote ZFS topic"
Hierdoor krijg je eigenlijk de perfecte setup. Data gescheiden van OS, mirrored ZIL, striped L2ARC. Dus, safe, snel, en functioneel.
Nu leest dat gemakkelijk weg en snap ik functioneel heel goed wat je doet. Maar heb nog niet helemaal door hoe je dat configureert met ZFS (praktische gezien). Kan iemand mij daar mee helpen.
Snelheid doet er niet zo heel veel toe. Heb wel vergeleken en de latency is vergelijkbaar tussen de schijven. Ze zijn bovendien ook allemaal 5400rpm en 3x667 platters.
Volgens mij moet je dan partities aanmaken op beiden SSD's en deze dmv mdadm in RAID0 en RAID1 zetten.Neptunus schreef op woensdag 12 juni 2013 @ 16:44:
Praktische hulp gezocht:
Ik heb 2 Intel 320's (120GB). Ik wil ze inrichten met elk 3 partities. Een reguliere ZFS partie waarop een mirrored pool licht (rootpool), een ZIL en een L2ARC partitie.
De ZIL's in Mirror en de L2ARC partities striped (beide aan de pool toegevoegd).
Zoals FireDrunk als eens beschreef in: FireDrunk in "Het grote ZFS topic"
Hierdoor krijg je eigenlijk de perfecte setup. Data gescheiden van OS, mirrored ZIL, striped L2ARC. Dus, safe, snel, en functioneel.
Nu leest dat gemakkelijk weg en snap ik functioneel heel goed wat je doet. Maar heb nog niet helemaal door hoe je dat configureert met ZFS (praktische gezien). Kan iemand mij daar mee helpen.
Sinds mijn reinstall is het blijkbaar nu wel weer mogelijk om een disk hot te removen...
Nu dus nog op zoek gaan (en alle hulp is daarbij geapprecieerd) naar volgende functionaliteit:
Maak ieder uur een snapshot van een voorbepaalde set van filesystems op mijn "main" pool met als naam DDMMYYYHH00, send deze snapshot naar een pool genaamd "spiegeltje" en verwijder vervolgens deze snapshot op de "main" pool.
Volgens mij is dit ook voor een groep andere Tweakers een welkome functionaliteit. Want ik krijg soms het gevoel dat veel mede-ZFS-gebruikers hier geen backups meer nemen onder het motto: "OMGWTFBBQLAZERPEWPEWFUCKDISSHIT ZFS is keirobuust dus ik mot heulemoal geen backups meer maken".
Well no
Met een minimale investering in twee recente +1TB disks kan je volgens mij al redelijk safe je meest kritieke data backuppen naar een mirrored pool. Om de zoveel tijd (en dat kies je zelf) plug je gewoon je andere (op remote locatie gestockeerde) disk terug in, zet je 'm online, en de resilver doet de rest. In mijn optiek het meest efficient... Je kan zelfs nog switchen tussen de disks om de wear and tear wat te "levellen".
mdadm? Onder FreeBSD? Of gaat dit over ZFS-on-Linux?Basz0r schreef op woensdag 12 juni 2013 @ 17:06:
[...]
Volgens mij moet je dan partities aanmaken op beiden SSD's en deze dmv mdadm in RAID0 en RAID1 zetten.
Kun je ze eigenlijk niet gewoon via ZFS zelf in een vdev pleuren en dan die vdev toevoegen als L2ARC of zo?
@HyperBart: Naar mijn mening is off-site backup bijna het enige soort backup wat redelijk nut heeft om naast ZFS te gebruiken.
ZFS beschermt je namelijk tegen schijfuitval, bitrot en andere corrupties, maar niet tegen onbedoeld verwijderen van je data, een ontplofte server, diefstal of brand in je huis.
ZFS snapshots kunnen je al weer beschermen tegen onbedoeld verwijderen van data, maar je zit nog steeds met het probleem dat je data toch écht weg is als je hele server boem doet.
Het gaat mij ook dan weer te ver om speciaal een tweede server neer te zetten voor backups, en daarmee vang je nog steeds het (kleine) risico van brand of diefstal niet op.
Laatst kwam ik DataHaven tegen. Dit is een gratis backupoplossing waarmee je backupruimte deelt tussen gebruikers onder het motto "voor wat hoort wat". Als jij 100 GB ruimte aanbied voor anderen om hun backups op te gooien, mag jij ook bij anderen voor 100 GB backuppen. Uiteraard is het redundant verdeeld over meerdere gebruikers en ge-encrypt.
Als jij veel meer ruimte aanbied dan je zelf gebruikt kun je er ook nog eens geld verdienen aan je serverfarm.
Je kunt het een beetje zien alles BuddyBackup, maar dan met randoms ipv met vrienden.
Leek mij ideaal dit project, maar het is alleen jammer dat het erg klein is (niet alleen het project zelf, maar ook de community) en het niet echt werkt bij mij (http://datahaven.net/foru...01affeb7741827229ef1c9062)
Mocht dit project trouwens doodgaan, zijn er Tweakers die geïnteresseerd zijn om aan BuddyBackup te doen?
Natuurlijk is off-site backup alleen maar interessant als er een deftige symmetrische internetverbinding ligt, maar als alles volgens planning loopt komt er hier binnenkort een 100/100 glas-lijntje
[ Voor 73% gewijzigd door Compizfox op 12-06-2013 22:20 ]
Gewoon een heel grote verzameling snoertjes
Had me er nog niet genoeg in verdiept, ging er vanuit dat mdadm ook zou werken onder FreeBSD. Heb het even opgezocht, maar voor FreeBSD is dat GEOM.Compizfox schreef op woensdag 12 juni 2013 @ 22:07:
[...]
mdadm? Onder FreeBSD? Of gaat dit over ZFS-on-Linux?
Je kan gewoon 3 partities aanmaken op je SSD.
Van de eerste partitie op elke SSD maak je een pool om je basis installatie op te doen.
De 2e en 3e partitie (op de ene SSD) noem je ZIL1,L2ARC1 en (op de andere SSD) ZIL2, L2ARC2 (of -A/-B wat je wil
De ZIL voeg je via de commandline met een iets ander commando dan ZFSguru standaard doet.
zpool add datapool log mirror gpt/ZIL1 gpt/ZIL2
Voor de L2ARC doe je:
zpool add datapool cache gpt/L2ARC1 zpool add datapool cache gpt/L2ARC2
Als mensen er behoefte aan hebben, kan ik wel een keer een screenshot maken van zo'n setup in de partitie manager van ZFSguru?
LET WEL OP: DOE DIT NIET ZOMAAR OP JE DATAPOOL MAAR EXPIRIMENTEER EERST MET TEST SYSTEMEN EN/OF TEST POOLS!
[ Voor 12% gewijzigd door FireDrunk op 13-06-2013 08:30 ]
Even niets...
Graag, dat is erg handig.FireDrunk schreef op donderdag 13 juni 2013 @ 08:25:
Ho stop, zfs en GEOM hoef je helemaal niet te mixen.
Je kan gewoon 3 partities aanmaken op je SSD.
Van de eerste partitie op elke SSD maak je een pool om je basis installatie op te doen.
De 2e en 3e partitie (op de ene SSD) noem je ZIL1,L2ARC1 en (op de andere SSD) ZIL2, L2ARC2 (of -A/-B wat je wil)
De ZIL voeg je via de commandline met een iets ander commando dan ZFSguru standaard doet.
zpool add datapool log mirror gpt/ZIL1 gpt/ZIL2
Voor de L2ARC doe je:
zpool add datapool cache gpt/L2ARC1 zpool add datapool cache gpt/L2ARC2
Als mensen er behoefte aan hebben, kan ik wel een keer een screenshot maken van zo'n setup in de partitie manager van ZFSguru?
LET WEL OP: DOE DIT NIET ZOMAAR OP JE DATAPOOL MAAR EXPIRIMENTEER EERST MET TEST SYSTEMEN EN/OF TEST POOLS!
[ Voor 7% gewijzigd door FireDrunk op 13-06-2013 08:46 ]
Even niets...
Partitioneer eerst je SSD's op deze manier:

LET OP: De groottes hier zijn fictief en geen representatie voor je eigen setup, bedenk zelf goed hoeveel ruimte je wil geven aan elk deel (root, ZIL en L2ARC). ZFSGuru neemt zelf doorgaans minder dan 1GB in beslag, maar als je services gaat installeren kan dat nog best groeien. Voor ZIL is 4GB doorgaans ruim voldoende, en als je krap zit is 2GB ook nog wel te doen. Voor L2ARC geld meestal hoe meer hoe beter, maar bedenk je wel dat je meer geheugen gebruik krijgt door het gebruik van L2ARC. ZFSGuru berekend van te voren ook netjes hoeveel meer geheugen je nodig hebt. Wordt dit meer dan 50% van het geheugen dat de machine uberhaupt heeft, is er een kans dat je dit in sequentiele transfers gaat zien.
Maak daarna een rootpool aan:

Label daarna ook je data disks, waarna je dit overhoud:

Maak daarna je data pool aan:

Voeg de L2ARC toe:

Na testen krijg je dit:

Daarna ziet je data pool er zo uit:

Voer via de commandline dit commando uit:

En je pool ziet er daarna zo uit:

Hierna kan je de reguliere setup volgen en de installatie wijzen naar rootpool
Even niets...
of is het gewoon een kwestie van iso naar usb en livecd gebruiken?
[ Voor 12% gewijzigd door matty___ op 13-06-2013 09:57 ]
USB stick doorgeven aan een VM, ZFSGuru ISO downloaden, installeren naar USB stick.
Klaar.
[ Voor 5% gewijzigd door FireDrunk op 13-06-2013 10:41 ]
Even niets...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| Jun 13 09:27:22 meterkast kernel: [40436.859104] sd 7:0:2:0: [sdl] Unhandled sense code Jun 13 09:27:22 meterkast kernel: [40436.859117] sd 7:0:2:0: [sdl] Jun 13 09:27:22 meterkast kernel: [40436.859118] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 13 09:27:22 meterkast kernel: [40436.859119] sd 7:0:2:0: [sdl] Jun 13 09:27:22 meterkast kernel: [40436.859119] Sense Key : Hardware Error [current] Jun 13 09:27:22 meterkast kernel: [40436.859121] sd 7:0:2:0: [sdl] Jun 13 09:27:22 meterkast kernel: [40436.859123] Add. Sense: Internal target failure Jun 13 09:27:22 meterkast kernel: [40436.859124] sd 7:0:2:0: [sdl] CDB: Jun 13 09:27:22 meterkast kernel: [40436.859125] Read(10): 28 00 00 00 0a 10 00 00 10 00 Jun 13 09:27:22 meterkast kernel: [40436.859130] end_request: critical target error, dev sdl, sector 2576 Jun 13 09:27:22 meterkast kernel: [40436.861275] sd 7:0:2:0: [sdl] Unhandled sense code Jun 13 09:27:22 meterkast kernel: [40436.861276] sd 7:0:2:0: [sdl] Jun 13 09:27:22 meterkast kernel: [40436.861277] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 13 09:27:22 meterkast kernel: [40436.861278] sd 7:0:2:0: [sdl] Jun 13 09:27:22 meterkast kernel: [40436.861278] Sense Key : Hardware Error [current] |
Ik heb alle kabeltjes al gecheckt, zitten allemaal goed.. Na een reboot gaat het even goed, maar zodra er daadwerkelijk wat op de schijf gedaan wordt wordt ie als faulted aangemerkt..
ik had een vraag die ik zo even niet kan terug vinden:
ik draai nu (sinds een week of wat) een ESXi server met daarop onder andere FreeNAS met een 4 disk ZFS pool. Deze zijn rechtstreeks op het mobo aangesloten en worden doorgegeven aan FreeNAS. Ooit wil ik in de toekomst deze 4 HDDs overzetten naar een IBM M1015 kaart. Nu is mijn vraag: kan dit zonder data verlies of moet ik dan de pool weer opnieuw aanmaken en ben ik alles kwijt?
Mijn excuses als dit niet het juiste topic is, maar het leek mij hier meer geslaagd dan in het ESX topic.
Even niets...
dmv RDM via vmdk files met behulp van vmkfstools (zoals op deze link is beschreven)FireDrunk schreef op donderdag 13 juni 2013 @ 11:54:
Hoe heb je de schijven ' direct ' doorgegeven aan FreeNAS?
Wel kan je gewoon je disks op een M1015 hangen en daarna je pool weer gewoon gebruiken. Dit kan dus gewoon zonder dataverlies.
Even niets...
Physical RDM of virtual RDM?robobeat schreef op donderdag 13 juni 2013 @ 12:02:
[...]
dmv RDM via vmdk files met behulp van vmkfstools (zoals op deze link is beschreven)
Gewoon een heel grote verzameling snoertjes
man zpool ?Nism0 schreef op donderdag 13 juni 2013 @ 13:13:
Heeft iemand toevallig ook een SSD ZIL & L2ARC Tutorial voor OpenIndiana /napp-it?
Wat wil je precies weten ? Napp-it heeft menu-items om een device aan een pool toe te voegen, als cache (L2ARC) of als log (ZIL). Ik weet niet of je daar ook eerst je SSD kunt partitioneren om 1 SSD voor beide te gebruiken, anders zul je dat via de commandline moeten doen denk ik.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Ja hoor, op het moment dat je pool staat te wachten op een ZIL write, gebeurt er toch niets, en voor de rest word je ZIL niet aangesproken, dus kan L2ARC vrolijk aan het werk. Je SSD word dus om-en-om gebruikt voor ZIL en L2ARC, niet tegelijkertijd.
SSD's zonder supercaps zijn niet veilig voor gebruik als ZIL, het risico is dat als de power uitvalt, je pool een paar minuten aan writes kwijt kan raken (worst-case, in de praktijk eerder enkele seconden).
Voor een data array met films en zo geen enkel probleem want je hebt dan hooguit een kapotte film. Bij een VMware NFS pool is het wat lastiger
[ Voor 7% gewijzigd door FireDrunk op 13-06-2013 14:08 ]
Even niets...
Maar hoe gaat dat precies in zijn werk.u_nix_we_all schreef op donderdag 13 juni 2013 @ 14:06:
[...]
man zpool ?![]()
Wat wil je precies weten ? Napp-it heeft menu-items om een device aan een pool toe te voegen, als cache (L2ARC) of als log (ZIL). Ik weet niet of je daar ook eerst je SSD kunt partitioneren om 1 SSD voor beide te gebruiken, anders zul je dat via de commandline moeten doen denk ik.
Moet ik dan eerst op een test machine openindiana installeren en dan daar de SSD's aanhangen en de partieties en pools aanmaken. en dan deze SSD's in mijn storage bak hangen en de installatie van Openindiana opniew doen op de nieuwe SSD's met de nieuw aangemaakte boot partities?
Hangt er vanaf wat je precies wilt. Als je alleen de L2ARC en ZIL op de SSD wilt hebben, zou je het prima zonder herinstallatie kunnen doen.Nism0 schreef op donderdag 13 juni 2013 @ 14:16:
[...]
Maar hoe gaat dat precies in zijn werk.
Moet ik dan eerst op een test machine openindiana installeren en dan daar de SSD's aanhangen en de partieties en pools aanmaken. en dan deze SSD's in mijn storage bak hangen en de installatie van Openindiana opniew doen op de nieuwe SSD's met de nieuw aangemaakte boot partities?
Als je ook je root op de SSD wilt hebben, denk ik dat je het handigst opnieuw kunt installeren. Vooraf je SSD partitioneren kan, maar volgens mij moet je wel een BSD-label gebruiken om te kunnen booten. Ik denk dat het dan het handigst is om vanuit de installer in een CLI handmatig te partitioneren. Niet echt gebruikersvriendelijk allemaal waarschijnlijk, maar dat is een beetje inherent aan open-indiana, hoog DIY gehalte ...
Oh, @FireDrunk:
Zou het nog nut hebben om de L2ARC partities eerst in een stripe te zetten voordat je ze als cache toevoegt ? Zo wordt het voor caches > blocksize lekker over de 2 verdeeld, of zou het cachealgorithme daar zelf rekening mee houden ?
Edit
Uh, ja, maar niet met elke zpool-versie geloof ik ?HyperBart schreef op donderdag 13 juni 2013 @ 14:37:
Joah, gewoon remove doen, ZFS handelt dan alles af en stampt em er uit...
[ Voor 8% gewijzigd door u_nix_we_all op 13-06-2013 14:39 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Maar nooit getest, of benchmarks op gedaan. Misschien interessant om een keer te testen.
Even niets...
wat ik nu dus kan zien is het een virtual RDM...
ik heb gebruik gemaakt van de optie -r (in de link staat -z, maar dit is niet de tut die ik heb gebruikt). Voor nu loopt het nog erg stabiel en snel (trek vanaf mijn eigen bak makkelijk 100MB/s met een 10GB file over het netwerk), maar ik hoop eind van de maand een M1015 aan te kunnen schaffen.
Even niets...
Even niets...
Toch is het niet zo. Ze worden als block devices doorgeven en je guest krijgt dus geen echte schijf te zien. Dit betekent dat S.M.A.R.T.-data kunt uitlezen, je geen APM/AAM-parameters kan veranderen van de HDDs, je ze niet kan downspinnen en afhandeling van UREs en bad sectors vaak problematisch gaat.robobeat schreef op donderdag 13 juni 2013 @ 15:41:
tja, wat ik kan zien in mijn freenas is dat deze mijn schijven herkent alsof ze rechtstreeks zijn aangesloten...
Gewoon een heel grote verzameling snoertjes
Probleem alleen is dat ik de machine nu niet offline kan gooien om de kabels te vervangen... Wordt ook al router gebruikt (jaja, is in dit soort gevallen niet handig) en er wordt nu net veel data richting EC2 gekopieerd..
[ Voor 48% gewijzigd door B2 op 14-06-2013 09:57 ]
Klopt ja, maar ik ga er van uit dat de meesten onder ons v28 draaien?u_nix_we_all schreef op donderdag 13 juni 2013 @ 14:38:
[...]
Uh, ja, maar niet met elke zpool-versie geloof ik ?
Verwijderd
* webfreakz.nl is onbekend met ESX installs.
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Foutcode?Verwijderd schreef op zaterdag 15 juni 2013 @ 22:13:
Zojuist mijn intel g630 vervangen met een i5 2500k omdat ik hoopte hiermee krachtigere VM's te kunnen draaien. Bij het opnieuw opstarten van de server werkte de VM nog alleen merkte ik niet echt verschil in de performance. Helaas kan ik nu helemaal geen VM's meer draaien, omdat elke keer als ik er een aanmaak of er een opstart ik een fout krijg. Is hier een verklaarbare reden voor?
Performance ook getest, meer CPU's toegevoegd?
Waarvoor voor de I5 2500K gekozen? Deze heeft geen VT-D, mits je mobo dat ondersteunt is dat leuk spelen met ESX(I)
Verwijderd
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
| Exception Object
(
[message:protected] => The virtual machine 'Windows' has terminated unexpectedly during startup with exit code 1
[string:Exception:private] =>
[code:protected] => 0
[file:protected] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
[line:protected] => 2290
[trace:Exception:private] => Array
(
[0] => Array
(
[file] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
[line] => 918
[function] => remote_progressGet
[class] => vboxconnector
[type] => ->
[args] => Array
(
[0] => Array
(
[progress] => 609f22f17fe2111f-00000000000006ea
[_persist] => Array
(
[vboxHandle] => 609f22f17fe2111f-00000000000006e8
)
[fn] => progressGet
)
)
)
[1] => Array
(
[file] => /usr/local/www/phpvirtualbox/lib/ajax.php
[line] => 306
[function] => __call
[class] => vboxconnector
[type] => ->
[args] => Array
(
[0] => progressGet
[1] => Array
(
[0] => Array
(
[progress] => 609f22f17fe2111f-00000000000006ea
[_persist] => Array
(
[vboxHandle] => 609f22f17fe2111f-00000000000006e8
)
[fn] => progressGet
)
[1] => Array
(
[0] => Array
(
[data] => Array
(
[responseData] => Array
(
[progress] => 609f22f17fe2111f-00000000000006ea
[info] => Array
(
[completed] => 1
[canceled] =>
[description] => Starting VM
[operationDescription] => Creating process for virtual machine "Windows" (headless)
[timeRemaining] => Array
(
)
[timeElapsed] => Array
(
[days] => 15872
[hours] => 10
[minutes] => 29
[seconds] => 57
)
[percent] => 0
)
)
[success] => 1
[key] => b4863d2664764dc00ff22c83b2d23842
)
[errors] => Array
(
)
[persist] => Array
(
)
[messages] => Array
(
)
)
)
)
)
)
[2] => Array
(
[file] => /usr/local/www/phpvirtualbox/lib/ajax.php
[line] => 306
[function] => progressGet
[class] => vboxconnector
[type] => ->
[args] => Array
(
[0] => Array
(
[progress] => 609f22f17fe2111f-00000000000006ea
[_persist] => Array
(
[vboxHandle] => 609f22f17fe2111f-00000000000006e8
)
[fn] => progressGet
)
[1] => Array
(
[0] => Array
(
[data] => Array
(
[responseData] => Array
(
[progress] => 609f22f17fe2111f-00000000000006ea
[info] => Array
(
[completed] => 1
[canceled] =>
[description] => Starting VM
[operationDescription] => Creating process for virtual machine "Windows" (headless)
[timeRemaining] => Array
(
)
[timeElapsed] => Array
(
[days] => 15872
[hours] => 10
[minutes] => 29
[seconds] => 57
)
[percent] => 0
)
)
[success] => 1
[key] => b4863d2664764dc00ff22c83b2d23842
)
[errors] => Array
(
)
[persist] => Array
(
)
[messages] => Array
(
)
)
)
)
)
)
[previous:Exception:private] =>
) |
Ik heb één of 2 maanden geleden een scrub gedraaid, en op de piek haalde hij snelheden à 540MB/s, maar sinds ik mijn laatste scrub heb gedraaid doet hij maximaal iets van een 100 tot 120MB/s...
Ah dacht even dat je VMware draaide, zo te zien VirtualBox.Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
Voordeel van VT-D is dat je devices direct kan doorgeven aan je VM's. HDD's kan je direct doorgeven naar je VM in VMware ipv RDM (Raw Device Mapping)
Niks mis met je 2500K in je setup, met je foutcode kan ik je helaas niet helpen. Kan op google wel genoeg vinden.
Driver voor een CPU?webfreakz.nl schreef op zondag 16 juni 2013 @ 11:09:
Heeft je installatie wel een driver voor de nieuwe processor?
* webfreakz.nl is onbekend met ESX installs.
PCI-e passthrough.Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
Gewoon een heel grote verzameling snoertjes
Controleer de tijd eens van je server en VM. Verder staat er niet echt een foutmelding in deze error, alleen dat je VM unexpectedly gestopt is. Kijk even in de logs van VirtualBox zelf, daar staat misschien iets meer.Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194Exception Object ( [message:protected] => The virtual machine 'Windows' has terminated unexpectedly during startup with exit code 1 [string:Exception:private] => [code:protected] => 0 [file:protected] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php [line:protected] => 2290 [trace:Exception:private] => Array ( [0] => Array ( [file] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php [line] => 918 [function] => remote_progressGet [class] => vboxconnector [type] => -> [args] => Array ( [0] => Array ( [progress] => 609f22f17fe2111f-00000000000006ea [_persist] => Array ( [vboxHandle] => 609f22f17fe2111f-00000000000006e8 ) [fn] => progressGet ) ) ) [1] => Array ( [file] => /usr/local/www/phpvirtualbox/lib/ajax.php [line] => 306 [function] => __call [class] => vboxconnector [type] => -> [args] => Array ( [0] => progressGet [1] => Array ( [0] => Array ( [progress] => 609f22f17fe2111f-00000000000006ea [_persist] => Array ( [vboxHandle] => 609f22f17fe2111f-00000000000006e8 ) [fn] => progressGet ) [1] => Array ( [0] => Array ( [data] => Array ( [responseData] => Array ( [progress] => 609f22f17fe2111f-00000000000006ea [info] => Array ( [completed] => 1 [canceled] => [description] => Starting VM [operationDescription] => Creating process for virtual machine "Windows" (headless) [timeRemaining] => Array ( ) [timeElapsed] => Array ( [days] => 15872 [hours] => 10 [minutes] => 29 [seconds] => 57 ) [percent] => 0 ) ) [success] => 1 [key] => b4863d2664764dc00ff22c83b2d23842 ) [errors] => Array ( ) [persist] => Array ( ) [messages] => Array ( ) ) ) ) ) ) [2] => Array ( [file] => /usr/local/www/phpvirtualbox/lib/ajax.php [line] => 306 [function] => progressGet [class] => vboxconnector [type] => -> [args] => Array ( [0] => Array ( [progress] => 609f22f17fe2111f-00000000000006ea [_persist] => Array ( [vboxHandle] => 609f22f17fe2111f-00000000000006e8 ) [fn] => progressGet ) [1] => Array ( [0] => Array ( [data] => Array ( [responseData] => Array ( [progress] => 609f22f17fe2111f-00000000000006ea [info] => Array ( [completed] => 1 [canceled] => [description] => Starting VM [operationDescription] => Creating process for virtual machine "Windows" (headless) [timeRemaining] => Array ( ) [timeElapsed] => Array ( [days] => 15872 [hours] => 10 [minutes] => 29 [seconds] => 57 ) [percent] => 0 ) ) [success] => 1 [key] => b4863d2664764dc00ff22c83b2d23842 ) [errors] => Array ( ) [persist] => Array ( ) [messages] => Array ( ) ) ) ) ) ) [previous:Exception:private] => )
Even niets...
Verwijderd
Bij het opstarten krijg ik onderin wel een groene balk te zien bij de naam van de VM met alle gegevens.
Verder is het enige andere de pop-up met "The virtaul machine 'Windows' has terminated unexpectedly during startup with exit code 1'.
Als ik vervolgens bij de logs kijk zijn deze leeg. Ook als ik op refresh druk.
Kan je niet meer logs vinden op het filesystem?
[ Voor 58% gewijzigd door FireDrunk op 17-06-2013 09:43 ]
Even niets...
Verwijderd
Heb nu al een aantal keer gewisseld van virtualbox (X) naar de normale met en zonder vnc functie.
Ik zat er aan te denken om maar een nieuwe install te doen van 9.1-005. Heb er nog de install van 9.1-004 op staan. Kan ik dan gewoon terug naar de oude install van 9.1-004 en vervolgens de nieuwe install verwijderen?
Ben van 3x 500gb naar 3x 2tb gegaan. Maar na het resilveren van de derde / laatste schijf is er geen nieuwe ruimte bijgekomen.
Reboot geprobeerd maar geeft niets extra's weer. Mis ik misschien nog iets?
Je kan de installatie van 9.1-005 ernaast zetten ja. Als je terug wil, moet je bij de instellingen even je bootable filesystem terugzetten naar 9.1-004 en rebooten, daarna kan je hem verwijderen, mocht dat je probleem niet oplossen.Verwijderd schreef op maandag 17 juni 2013 @ 11:04:
Bij de logs van het filesysteem kan ik ook niks vinden.
Heb nu al een aantal keer gewisseld van virtualbox (X) naar de normale met en zonder vnc functie.
Ik zat er aan te denken om maar een nieuwe install te doen van 9.1-005. Heb er nog de install van 9.1-004 op staan. Kan ik dan gewoon terug naar de oude install van 9.1-004 en vervolgens de nieuwe install verwijderen?
Even niets...
zpool get expandsize <pool>
# stel in dat ZFS de devices tot maximumgrootte gebruiken:
zpool set autoexpand=yes
# zorg dat ZFS je schijven volop benut voor beide schijven:
zpool online -e <pool> <device>
# controleer of je pool weer groot is en de expandsize weer klein of 0:
zpool get expandsize <pool>
Volgens mij heb ik data te winnen, maar krijg de autoexpand functie niet aan de praat.Verwijderd schreef op maandag 17 juni 2013 @ 13:46:
# dit geeft de huidige te winnen ruimte weer:
zpool get expandsize <pool>
# stel in dat ZFS de devices tot maximumgrootte gebruiken:
zfs set autoexpand=yes
# zorg dat ZFS je schijven volop benut voor beide schijven:
zpool online -e <pool> <device>
# controleer of je pool weer groot is en de expandsize weer klein of 0:
zpool get expandsize <pool>
Heb daarna een export en import geprobeerd, maar bij export krijg ik een busy melding.
[root@zfsguru /home/ssh]# zpool get expandsize ZFS1
NAME PROPERTY VALUE SOURCE
ZFS1 expandsize 4.09T -
[root@zfsguru /home/ssh]# zfs set autoexpand=yes ZFS1
cannot set property for 'ZFS1': invalid property 'autoexpand'
[root@zfsguru /home/ssh]# zpool export ZFS1
cannot unmount '/var/log': Device busy
Top! t werkt nu. De volledige grootte is beschikbaar. Thanks!!Verwijderd schreef op maandag 17 juni 2013 @ 14:14:
pardon:
zpool set autoexpand=yes <pool>
export is niet nodig
Wat wel een issue is, dat die schijfruimte die die map gebruikte, niet wordt vrijgegeven. De data is onvindbaar/weg, maar volgens ZFS is de schijfruimte niet vrijgekomen.
Wat ik al geprobeerd heb:
- Dataset verwijderd (map nog steeds weg)
- Scrub (0 fouten)
- Pool detached en weer ge-importeerd (geen verschil)
Zoals ik al zei, de data die in die map stond hoeft niet terug, maar ik wil wel de schijfruimte terug zonder dat ik de hele pool destroy en opnieuw aanmaak..
Die heb ik niet. Niet van voor de wijziging en ook niet eentje die de schijfruimte inneemt nu..
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
You saved my day.u_nix_we_all schreef op maandag 17 juni 2013 @ 19:51:
Klinkt meer als een zfs die gemount wordt op de bestaande directory, dus umount <naampje> ?
Even niets...
It is not recommended to spin down drives that are pools or part of pools in ZFS.
Dat gezegd, ben ik zelf ook niet zo heel erg fan van spindown. Het probleem is dat je een wachttijd hebt, dat die wachttijd lang kan zijn omdat ZFS per stuk de schijven opspint; al kun je daar een scriptje voor gebruiken. En dan heb je nog mogelijk last van instabielevoltagelijnen als gevolg van opspinnen. Zo vind mijn overige schijf die altijd spinup blijft het niet leuk zodra ik zoveel schijven opspin. Die zou dan eigenlijk aan een andere voedings rail moeten hangen maar dat kan in mijn geval niet.
Het is dus gewoon een beetje uitproberen of spindown in een individuele situatie goed werkt of niet. Maar om als algemeen advies het af te raden? Dan moet je met betere argumenten komen. Waarschijnlijk heeft de auteur van dat stukje er zelf problemen mee gehad. En hij praat ook over USB adapters en spindown problemen; USB->SATA adapters hebben hun eigen problemen, wat toch enigszins los staat van dit vraagstuk. Kortom, beetje geklets als je het mij vraagt.
MIjn ervaring is dat ik geen problemen heb met spindown zoals daar beschreven. De drives spinnen altijd weer netjes op, als ik de pool aanspreek. Ik heb de schijven niet via USB aangesloten, dus daar kan ik geen commentaar op geven, maar eerlijk gezegd vind ik dat je voor een NAS geen USB-disks moet gebruiken.Neptunus schreef op dinsdag 18 juni 2013 @ 13:38:
Wat vinden jullie van deze stelling en wat zijn jullie ervaringen?
It is not recommended to spin down drives that are pools or part of pools in ZFS.
Ik merk soms wel dat de vertraging in sommige applicaties een probleempje kan zijn. Als ik bijvoorbeeld een file download met mijn browser, direct naar de NFS-share op de NAS, wil dat soms niet omdat de pool niet snel genoeg beschikbaar is.
Ik denk dat mijn NAS ruim 90% van de tijd de disks stil heeft staan, dingen als torrents enzo download ik eerst naar de os-disk, een 2,5" diskje, zodat daarvoor mijn pool met 4x3TB niet gebruikt wordt.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
zfs create -o encryption=on <naam>
lukt, maar bestaande datasets herkent ZFS als zijnde al toegevoegd. (dataset already exists).
Ik draai ZFS op Solaris in virtualbox
(uname -a sunos 5.11 11.1) ik denk dus solaris 11.1
[edit]
met zfs set help wat verder,
encryption is readonly >> no can do encryptie op bestaande files?
[ Voor 14% gewijzigd door amx op 18-06-2013 19:25 ]
Ik neem aan dat encryptie zo'n beetje dezelfde beperkingen heeft als dedup en compressie, en dan klopt dat ja.amx schreef op dinsdag 18 juni 2013 @ 19:21:
no can do encryptie op bestaande files?
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
of zelfs zfs Send/Receive
[ Voor 23% gewijzigd door FireDrunk op 18-06-2013 20:16 ]
Even niets...
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Maar dat zijn ze sowieso al
[ Voor 34% gewijzigd door FireDrunk op 18-06-2013 20:21 ]
Even niets...
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Hangt helemaal vanaf waar ZFS gebruikt wordt natuurlijk... Thuis is dit prima, als de NAS/SAN rebooten betekend dat ik vervolgens problemen heb met 40 VMs en dat er 300 mensen uit hun neus zitten te eten...Neptunus schreef op dinsdag 18 juni 2013 @ 13:38:
Wat vinden jullie van deze stelling en wat zijn jullie ervaringen?
It is not recommended to spin down drives that are pools or part of pools in ZFS.
Als je 1 pool hebt van 10 schijven in 1 vdev, kan die VDEV maar 1 IO aannemen voordat de disks gaan opspinnen. Als je een pool hebt met 4 vdev's van 4 schijven, zullen er als er genoeg IO requests naar toe gestuurd worden zeer waarschijnlijk 4 schijven tegelijk opgestuurd worden.
Zeker weten doe ik het niet, ik heb het nooit geprobeerd, maar verwacht deze logica.
Als ik genoeg schijven had, had ik het getest, maar helaas ben ik niet meer zo dik bezaait met schijven...
Even niets...
Ik kan je verhaal bevestigen. Heb zelf 10 hdd's, deze spinnen 1 voor 1 op als ze in spindown staan en de ZFS share benaderd wordt.FireDrunk schreef op donderdag 20 juni 2013 @ 08:14:
Wat belangrijk is bij spindown is te bedenken hoeveel IO's er ge-queued worden.
Als je 1 pool hebt van 10 schijven in 1 vdev, kan die VDEV maar 1 IO aannemen voordat de disks gaan opspinnen. Als je een pool hebt met 4 vdev's van 4 schijven, zullen er als er genoeg IO requests naar toe gestuurd worden zeer waarschijnlijk 4 schijven tegelijk opgestuurd worden.
Zeker weten doe ik het niet, ik heb het nooit geprobeerd, maar verwacht deze logica.
Als ik genoeg schijven had, had ik het getest, maar helaas ben ik niet meer zo dik bezaait met schijven...
Even niets...
Net even testje gedaan. Ik heb het idee dat het allemaal sneller verloopt. Als ik op mijn powermeter kijk, dan lijkt het er op dat met twee vdev's er interdaad twee hdd's aangaan. Steeds achter elkaar twee tot ze alle 10 bij zijn.Ik heb nog geen live omgeving dus kon snel even mijn config aanpassen.FireDrunk schreef op donderdag 20 juni 2013 @ 12:12:
Dat begrijp ik, enige wat we dan nog moeten bevestigen is dat als je meerdere vdev's hebt, de spinup concurrent word.
PS ik worstel alleen nog een beetje met
FireDrunk in "Het grote ZFS topic"
vraag me af of het allemaal niet onnodig complex wordt op deze manier. Wil bij problemen met mijn disken niet last hebben van een onnodig complexe configuratie waardoor een recover actie bijna onmogelijk wordt.
Wat vinden jullie hiervan?
Mocht het echt stoek gaan, pak je je disks op en doe je een geforceerde import. Dan mekkert hij dat je devices mist (je log devices) maar je kan nog wel bij je data.
Even niets...
http://www.vgleaks.com/so...station-4-os-development/
Het schijnt dus dat het PS4 OS FreeBSD 9.0 gebaseerd is. Betekend dit dan dat Sony bv. UFS of ZFS kan gebruiken? Ik weet dat het gaat om slechts 1 HDD, maar was benieuwd of het licentie-technisch mogelijk is, omdat er geloof ik ook een NAS fabrikant is dat ZFS als optie aanbiedt op haar systemen.
Even niets...
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.