Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09
Geen Z ➡ Z2 maar is toch hele stap voorwaards voor ZFS. Zou belangrijk nadeel wegnemen.DXaroth schreef op zondag 22 oktober 2017 @ 20:21:
Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09
Nu hopen dat ze dit ook weten te realiseren voor Z2.Q schreef op zondag 22 oktober 2017 @ 23:02:
[...]
Geen Z ➡ Z2 maar is toch hele stap voorwaards voor ZFS. Zou belangrijk nadeel wegnemen.
Sinds de 2 dagen regel reageer ik hier niet meer
Oh, dat zou heel gaaf zijn!DXaroth schreef op zondag 22 oktober 2017 @ 20:21:
Het lijkt er op alsof OpenZFS bezig is met pool expansion en balancing: https://twitter.com/OpenZFS/status/921042446275944448?s=09
Ben benieuwd of FreeNAS die feature ook gaat krijgen.
Nu ben ik een groot voorstander van goed plannen en ook thuis bouw ik een NAS met een vast aantal disks. Voor mij is het niet per-se een nadeel. (Zeker omdat je de disks zelf wel kunt swappen voor grotere exemplaren.) Maar toch, de feature zou denk ik voor veel mensen een van de nadelen van ZFS wegnemen.
Blijft wel dat expansion iets is dat je niet vaak en snel doet. Idealiter zijn je disks allemaal identiek. Je wil volgens mij niet je pool van 5T disks gaan uitbreiden met een compleet ander merk, capaciteit, snelheid, etc. (Al loop je bij een bestaande array dat risico ook natuurlijk. Knalt er een disk, wil je niet meteen je hele array vervangen.)
Ná Scaoll. - Don’t Panic.
Merken mixen met disks is geen enkel issue voor thuis. Het is juist ideaal dat je met 3 disks kunt beginnen en kan groeien tot wat je kast aan kan. Het enige waar je op moet letten is dat de disks het zelfde aantal sectoren heeft of meer vergeleken met de andere disks.
Nog een leuk dingetje gevonden, schijnbaar is iemand bezig met een Windows kernel-mode ZFS driver te bouwen:
https://github.com/lundman/zfsin
https://github.com/lundman/zfsin
Mijn pool heeft de volgende status die ik niet zo goed begrijp:
Met name het action gedeelte, hoe kom ik erachter dat de software die ik gebruik nou wel of niet die features ondersteunt
root@pve:~# zpool status pool: tank1 state: ONLINE status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(5) for details.
Met name het action gedeelte, hoe kom ik erachter dat de software die ik gebruik nou wel of niet die features ondersteunt
NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict
@WeaZuL jouw zpool is gebaseerd op een oudere versie van ZFS. Via zpool upgrade kan je deze pool upgraden naar de nieuwere versie. Je kan deze pool dan echter niet meer gebruiken in combinatie met een OS dat niet die nieuwste versie van ZFS ondersteund.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Met andere woorden, als je de pool niet loskoppelt en aan een andere computer hangt (of aan een andere bootdisk, of herinstalleert met een ouder OS dan je nu draait) hangt is er niks aan de hand
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Tsurany schreef op donderdag 26 oktober 2017 @ 15:01:
@WeaZuL jouw zpool is gebaseerd op een oudere versie van ZFS. Via zpool upgrade kan je deze pool upgraden naar de nieuwere versie. Je kan deze pool dan echter niet meer gebruiken in combinatie met een OS dat niet die nieuwste versie van ZFS ondersteund.
Ok, er vanuit gaande dat mijn OS de nieuwe ZFS features wel ondersteund:Paul schreef op donderdag 26 oktober 2017 @ 15:04:
Met andere woorden, als je de pool niet loskoppelt en aan een andere computer hangt (of aan een andere bootdisk, of herinstalleert met een ouder OS dan je nu draait) hangt is er niks aan de hand
zpool get all tank1 | grep feature tank1 feature@async_destroy enabled local tank1 feature@empty_bpobj active local tank1 feature@lz4_compress active local tank1 feature@multi_vdev_crash_dump disabled local tank1 feature@spacemap_histogram active local tank1 feature@enabled_txg active local tank1 feature@hole_birth active local tank1 feature@extensible_dataset enabled local tank1 feature@embedded_data active local tank1 feature@bookmarks enabled local tank1 feature@filesystem_limits enabled local tank1 feature@large_blocks enabled local tank1 feature@large_dnode disabled local tank1 feature@sha512 disabled local tank1 feature@skein disabled local tank1 feature@edonr disabled local tank1 feature@userobj_accounting disabled local
zpool upgrade tank1 This system supports ZFS pool feature flags. Enabled the following features on 'tank1': multi_vdev_crash_dump large_dnode sha512 skein edonr userobj_accounting
zpool get all tank1 | grep feature tank1 feature@async_destroy enabled local tank1 feature@empty_bpobj active local tank1 feature@lz4_compress active local tank1 feature@multi_vdev_crash_dump enabled local tank1 feature@spacemap_histogram active local tank1 feature@enabled_txg active local tank1 feature@hole_birth active local tank1 feature@extensible_dataset active local tank1 feature@embedded_data active local tank1 feature@bookmarks enabled local tank1 feature@filesystem_limits enabled local tank1 feature@large_blocks enabled local tank1 feature@large_dnode enabled local tank1 feature@sha512 enabled local tank1 feature@skein enabled local tank1 feature@edonr enabled local tank1 feature@userobj_accounting active local
Bedankt voor de hulp!
[ Voor 31% gewijzigd door WeaZuL op 26-10-2017 15:10 ]
NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict
Ik weet niet zeker of het hier hoort, maar ik heb een ZFS server (Linux) waarop ik containers draai d.m.v. LXD.
Ik heb bijvoorbeeld de volgende ZFS datasets:
tank/Multimedia
tank/Multimedia/Muziek
tank/Multimedia/Video
tank/Multimedia/Fotos
Wanneer ik nu een bind mount doe in de container van /data/Multimedia naar bijvoorbeeld /Multimedia, dan laat ie in de container alleen de inhoud van de ZFS dataset zelf zien (dus de inhoud van tank/Multimedia) maar geen subsets hiervan (Muziek, Videos en Fotos). Enig idee hoe ik dat wel zichtbaar kan maken, behalve dan elke dataset te moeten bind mounten?
Ik heb bijvoorbeeld de volgende ZFS datasets:
tank/Multimedia
tank/Multimedia/Muziek
tank/Multimedia/Video
tank/Multimedia/Fotos
Wanneer ik nu een bind mount doe in de container van /data/Multimedia naar bijvoorbeeld /Multimedia, dan laat ie in de container alleen de inhoud van de ZFS dataset zelf zien (dus de inhoud van tank/Multimedia) maar geen subsets hiervan (Muziek, Videos en Fotos). Enig idee hoe ik dat wel zichtbaar kan maken, behalve dan elke dataset te moeten bind mounten?
Elk sub-filesystem is weer een nieuwe mountpoint, dus er zal ofwel een optie in LXD moeten zijn om een folder structuur inclusief (sub-)mountpoints die daar op zitten te sharen, ofwel je moet alle mountpoints doorgeven.
[ Voor 4% gewijzigd door FireDrunk op 27-10-2017 15:03 ]
Even niets...
Daar was ik al bang voor.. net zoiets als met nfs dus eigenlijk. Zal eens een balletje in het lxd forum opgooien.
https://www.freebsdfounda...ion-project-announcement/The FreeBSD Foundation is pleased to announce a collaborative project with Delphix to implement one of the most requested ZFS features, to allow RAID-Z pools to be expanded one disk at a time. We’ve combined our resources with iXsystems and Delphix to bring this project to fruition. The RAID-Z Expansion project will allow OpenZFS users to incrementally add storage to their RAID pools, one device at a time. The expansion will happen online, in the background, with zero downtime, and while maintaining the redundancy and reliability of RAID-Z.
“From day one, ZFS has been about combining enterprise functionality with ease of use. This feature furthers that by making ZFS’s enterprise-grade RAID capability even easier to use, especially in smaller deployments, where it’s impractical to add a whole RAID-Z stripe at once,” said Matt Ahrens, one of the original ZFS designers. “On a personal note, after hearing requests for this feature for many years, I’m looking forward to working on this and grateful to the FreeBSD Foundation for making it a priority.”
“The basic ZFS building block is the pool, which is is often built using a RAID-Z volume built from five or more disks. Previously, a RAID-Z user who wanted more storage space had to add an entire new RAID-Z set of disks. This project will allow RAID-Z volumes in a pool to be expanded a single disk at a time. Adding this feature requires a deep knowledge of ZFS internals and significant development and testing time. Thus, its cost and complexity has prevented any single organization from pursuing its development,” adds Kirk McKusick, long-time filesystem developer and FreeBSD Foundation Board Director.
Allan Jude, a core team member at FreeBSD states, “This collaboration between the non-profit FreeBSD Foundation and industry partner Delphix towards the development of new cross-platform features, will benefit all OpenZFS vendors and consumers – showcasing the power of platform neutral open-source projects.”
“We are excited to help sponsor this work. The ability to seamlessly extend a ZFS pool using RAID-Z is a feature which will have immediate benefit to our TrueNAS and FreeNAS users around the world,” adds Kris Moore, Director of Engineering at iXsystems.
Improvements such as this continue to make ZFS on FreeBSD an attractive and powerful platform on which to develop enterprise-grade software for both large and small scale. RAID-Z expansion is expected to become available in FreeBSD 12.0.
Mooi, nu maar hopen dat ze klaar zijn tegen dat ik moet uitbreiden.
Ik had/heb een pool die last heeft van corruptie. Daarom heb ik deze eerst een scrub gegeven. Daaruit bleek dan dat er veel read/write errors waren op 1 disk. Gelukkig had ik een hotspare klaar en heb ik "replace device" gedaan in zfsguru door die hotspare. Deze ochtend was hij klaar met resilveren maar nu zegt die nod steeds degraded. Moet ik nog een stap doen of gewoon nog even geduld hebben?
Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| pool: storagepool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: resilvered 2.43T in 15h16m with 382 errors on Tue Oct 31 08:44:37 2017 config: NAME STATE READ WRITE CKSUM storagepool DEGRADED 0 0 763 raidz2-0 DEGRADED 0 0 1.49K gpt/StoragePool-disk1 ONLINE 0 0 166 gpt/StoragePool-disk2 ONLINE 0 0 90 replacing-2 FAULTED 0 0 0 gpt/StoragePool-disk3 FAULTED 45 89 139 too many errors gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 146 gpt/StoragePool-disk5 ONLINE 0 0 87 gpt/StoragePool-disk6 ONLINE 0 0 242 errors: 382 data errors, use '-v' for a list |
Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
Daarvoor is block-level rewrite nodig. Voor het uitbreiden van RAIDZ niet._JGC_ schreef op maandag 30 oktober 2017 @ 18:35:
Nou nog migratie van mirror naar RAIDZ. Dat is zo ingrijpend dat ik niet verwacht dat het er komt.
Na een replace zou hij automatisch de oude schijf uit de pool moeten gooien. Ik zou overigens eerst een memtest draaien om zeker te weten dat je geheugen niet brak is en daarna een scrub om te zien of de fouten weggaan.fluppie007 schreef op dinsdag 31 oktober 2017 @ 08:58:
Ik had/heb een pool die last heeft van corruptie. Daarom heb ik deze eerst een scrub gegeven. Daaruit bleek dan dat er veel read/write errors waren op 1 disk. Gelukkig had ik een hotspare klaar en heb ik "replace device" gedaan in zfsguru door die hotspare. Deze ochtend was hij klaar met resilveren maar nu zegt die nod steeds degraded. Moet ik nog een stap doen of gewoon nog even geduld hebben?
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 pool: storagepool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: resilvered 2.43T in 15h16m with 382 errors on Tue Oct 31 08:44:37 2017 config: NAME STATE READ WRITE CKSUM storagepool DEGRADED 0 0 763 raidz2-0 DEGRADED 0 0 1.49K gpt/StoragePool-disk1 ONLINE 0 0 166 gpt/StoragePool-disk2 ONLINE 0 0 90 replacing-2 FAULTED 0 0 0 gpt/StoragePool-disk3 FAULTED 45 89 139 too many errors gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 146 gpt/StoragePool-disk5 ONLINE 0 0 87 gpt/StoragePool-disk6 ONLINE 0 0 242 errors: 382 data errors, use '-v' for a list
Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
Sinds de 2 dagen regel reageer ik hier niet meer
Met checksum-errors op alle schijven is een memtest inderdaad wel aan te raden. En als memtest geen problemen aangeeft zou ik de schijfcontroller gaan verdenken.
Toen ik deze server gebouwd hebt heeft die 10 passes MemTest86+ gedraaid zonder probleem. Is van april dit jaar.
In de fileserver zitten 2 storage pools in over 2 IBM M1015 kaarten in IT mode.
ZFSguru / FreeNAS zitten in een VM met PCI passthrough van die M1015 kaarten. Server draait ESXi 6.5 U1.
Kan het misschien aan ESXi 6.5 liggen?
In de fileserver zitten 2 storage pools in over 2 IBM M1015 kaarten in IT mode.
ZFSguru / FreeNAS zitten in een VM met PCI passthrough van die M1015 kaarten. Server draait ESXi 6.5 U1.
Kan het misschien aan ESXi 6.5 liggen?
Wat zegt dat over het nu?fluppie007 schreef op dinsdag 31 oktober 2017 @ 13:32:
Toen ik deze server gebouwd hebt heeft die 10 passes MemTest86+ gedraaid zonder probleem. Is van april dit jaar.
Sinds de 2 dagen regel reageer ik hier niet meer
Als je corruptie op alle disks ziet is dat meestal een signature mark van rot geheugen. Waarschijnlijk zijn al je disks nog goed maar is je geheugen rot.fluppie007 schreef op dinsdag 31 oktober 2017 @ 08:58:
Off-topic: Is er trouwens nog wat van CiPHER vernomen? ZFSguru project lijkt echt wel dood. Maar in FreeNAS kon ik niet zometeen deze GUI settings vinden om de pools te herstellen.
Zoals aangeraden, nu een memtest draaien voor zeg een hele nacht en systeem verder niet gebruiken (naar schrijven).
Wat CiPHER betreft, die is helaas sinds April niet meer op het forum geweest (althans, niet meer gepost)

Volgens mij had ik iets heel ergs gedaan in de ZFS community. Ik heb een HP Microserver Gen8 met een HP P212 Raid controller waarin ik een Raid5 heb geconfigureerd. Nu heb ik na een reboot ergens permanente errors. Had ik een topic aangemaakt en de 1e reactie was 'Heb je een hardware raid? Zo ja, enorm slecht idee'
Dus nu alles aan het veilig stellen, raid controller uit Microserver halen en in FreeNAS nieuwe volume maken met Software Raid
Wat ik mijn afvraag is of het volgende mogelijk is:
Ik heb nu 4X2TB schijven in de raid staan. Dit begint al aardig vol te raken dus ik wil naar 4X4TB in de toekomst.
Kan ik de 2TB schijven 1 voor 1 wisselen en laten rebuilden zodat alles 4X4 is en gebruikt die dan ook de 12TB voor de storage? Of werkt dat niet zo simpel.
Dus nu alles aan het veilig stellen, raid controller uit Microserver halen en in FreeNAS nieuwe volume maken met Software Raid
Wat ik mijn afvraag is of het volgende mogelijk is:
Ik heb nu 4X2TB schijven in de raid staan. Dit begint al aardig vol te raken dus ik wil naar 4X4TB in de toekomst.
Kan ik de 2TB schijven 1 voor 1 wisselen en laten rebuilden zodat alles 4X4 is en gebruikt die dan ook de 12TB voor de storage? Of werkt dat niet zo simpel.
[ Voor 26% gewijzigd door Aschtra op 01-11-2017 11:01 ]
Nu moet ik enkel nog die rotte disk eruit gooien en dan inderdaad die MemTest86+ laten lopen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| Pool status Pool name storagepool Status DEGRADED Description One or more devices has experienced an error resulting in data corruption. Applications may be affected. Action Restore the file in question if possible. Otherwise restore the entire pool from backup. See http://illumos.org/msg/ZFS-8000-8A Scrub resilvered 2.43T in 15h17m with 380 errors on Wed Nov 1 04:48:50 2017 Pool members Status Read errors Write errors Checksum errors Device operations storagepool DEGRADED 0 0 381 raidz2-0 DEGRADED 0 0 762 gpt/StoragePool-disk1 ONLINE 0 0 1 gpt/StoragePool-disk2 ONLINE 0 0 2 replacing-2 DEGRADED 0 0 0 11954233235689202060 Details: was /dev/gpt/StoragePool-disk3 OFFLINE 0 0 0 gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 1 gpt/StoragePool-disk5 ONLINE 0 0 0 gpt/StoragePool-disk6 ONLINE 0 0 0 |
[ Voor 4% gewijzigd door fluppie007 op 01-11-2017 11:07 ]
JaAschtra schreef op woensdag 1 november 2017 @ 11:00:
Kan ik de 2TB schijven 1 voor 1 wisselen en laten rebuilden zodat alles 4X4 is en gebruikt die dan ook de 12TB voor de storage?
Sinds de 2 dagen regel reageer ik hier niet meer
OpenZFS met native encryption in da house, anyone?
encryption=on
Ik ben benieuwd of jullie een oplossing hebben voor het volgende.
Hoe kan je een dataset mounten wanneer je deze vanaf een andere computer wilt benaderen, en daarna weer unmounten, zonder je secret op de server te hebben staan?
Bij voorkeur zoek ik iets zoals een id_rsa waarmee je passwordless kan inloggen over ssh. Maar als blijkt dat ik echt de enige op de wereld ben die dit wilt, dan kom ik er ws niet onderuit om een bash scriptje te maken voor iedere share, met een 3-tal ssh-commando's.
Een ander probleem is dat met sharesmb=yes iedere samba-gebruiker toegang heeft. Is er ook nog een soort rechtenbeheer waardoor alleen (een) bepaalde user(s) leesrechten hebben? Kan je ook een dataset delen op bepaalde mappen na?
encryption=on
Ik ben benieuwd of jullie een oplossing hebben voor het volgende.
Hoe kan je een dataset mounten wanneer je deze vanaf een andere computer wilt benaderen, en daarna weer unmounten, zonder je secret op de server te hebben staan?
Bij voorkeur zoek ik iets zoals een id_rsa waarmee je passwordless kan inloggen over ssh. Maar als blijkt dat ik echt de enige op de wereld ben die dit wilt, dan kom ik er ws niet onderuit om een bash scriptje te maken voor iedere share, met een 3-tal ssh-commando's.
Een ander probleem is dat met sharesmb=yes iedere samba-gebruiker toegang heeft. Is er ook nog een soort rechtenbeheer waardoor alleen (een) bepaalde user(s) leesrechten hebben? Kan je ook een dataset delen op bepaalde mappen na?
[ Voor 20% gewijzigd door Sando op 01-11-2017 15:46 ]
🇪🇺 Buy from EU (GoT)
Wat betreft sharesmb, dat kan je toch gewoon op user / group niveau afkaarten met de rechter op files en directories? Doe dat iig om ze read only te houden ivm ransomware...
Je kan geen group maken en die group lid maken van de sambagroup. Wat als je 50 gebruikers hebt die lid zijn van de samba-group, maar je wilt slechts 10 gebruikers toegang geven tot een bepaalde share?Kortfragje schreef op woensdag 1 november 2017 @ 17:13:
dat kan je toch gewoon op user / group niveau afkaarten met de rechter op files en directories? Doe dat iig om ze read only te houden ivm ransomware...
🇪🇺 Buy from EU (GoT)
Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen. Maar dat heeft niet heel erg veel meer met ZFS te maken.
Dat was mijn punt idd...
dcm360 schreef op woensdag 1 november 2017 @ 17:52:
Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen. Maar dat heeft niet heel erg veel meer met ZFS te maken.
Je kan via SSH toch een remote commando draaien waarmee je de mount doet?Sando schreef op woensdag 1 november 2017 @ 15:43:
OpenZFS met native encryption in da house, anyone?
encryption=on
Ik ben benieuwd of jullie een oplossing hebben voor het volgende.
Hoe kan je een dataset mounten wanneer je deze vanaf een andere computer wilt benaderen, en daarna weer unmounten, zonder je secret op de server te hebben staan?
Ik zou wel een (Z)FS willen kunnen mounten voor alleen mijn eigen SSH sessie. Dus ieder andere gebruiker zou dan niet bij de mountpoint moeten kunnen aangezien hij niet dezelfde sessie deelt met mij.
Sinds de 2 dagen regel reageer ik hier niet meer
Mocht je geheugen inderdaad errors geven, schrijf dan die ene disk niet bij voorbaat af. Test hem nog een keer als het geheugen weer is vervangen/goed is.fluppie007 schreef op woensdag 1 november 2017 @ 11:07:
Nu moet ik enkel nog die rotte disk eruit gooien en dan inderdaad die MemTest86+ laten lopen.
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 Pool status Pool name storagepool Status DEGRADED Description One or more devices has experienced an error resulting in data corruption. Applications may be affected. Action Restore the file in question if possible. Otherwise restore the entire pool from backup. See http://illumos.org/msg/ZFS-8000-8A Scrub resilvered 2.43T in 15h17m with 380 errors on Wed Nov 1 04:48:50 2017 Pool members Status Read errors Write errors Checksum errors Device operations storagepool DEGRADED 0 0 381 raidz2-0 DEGRADED 0 0 762 gpt/StoragePool-disk1 ONLINE 0 0 1 gpt/StoragePool-disk2 ONLINE 0 0 2 replacing-2 DEGRADED 0 0 0 11954233235689202060 Details: was /dev/gpt/StoragePool-disk3 OFFLINE 0 0 0 gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 1 gpt/StoragePool-disk5 ONLINE 0 0 0 gpt/StoragePool-disk6 ONLINE 0 0 0
Zijn de (samba-)rechten van de groepen van de gebruikers in de groep dan ook van toepassing?dcm360 schreef op woensdag 1 november 2017 @ 17:52:
Dan zet je ze in een apartje groep, en zet je met chown en chmod de rechten dusdanig op de map van die share dat enkel de gebruikers in die groep erbij mogen.
Map: share nobody:smbusers
- Groep smbusers
- User kees
- Groep samba
- User kees
Behalve dan dat het idee van sharesmb juist is dat de gegevens van de share in de pool staan waardoor je de pool kan exporten en importen.Maar dat heeft niet heel erg veel meer met ZFS te maken.
Maar dat wil ik dus automatiseren.CurlyMo schreef op woensdag 1 november 2017 @ 22:18:
[...]
Je kan via SSH toch een remote commando draaien waarmee je de mount doet?
Ik zou wel een (Z)FS willen kunnen mounten voor alleen mijn eigen SSH sessie. Dus ieder andere gebruiker zou dan niet bij de mountpoint moeten kunnen aangezien hij niet dezelfde sessie deelt met mij.
Ik wil cliendside (bijvoorbeeld) sshfs nas:/pool/share /mnt/share doen, waarbij op de server:
- zfs mount pool/share
- <password>
- wait for remote umount
- umount /pool/share
[ Voor 8% gewijzigd door Sando op 02-11-2017 13:13 ]
🇪🇺 Buy from EU (GoT)
Dat moet je prima in een script kunnen gieten via de reguliere ssh i.c.m. expect. Die laatste geeft je de mogelijkheid om geautomatiseerd te reageren op prompts.
Sinds de 2 dagen regel reageer ik hier niet meer
@Sando Waarom dan niet gewoon NFSv4.1 icm Kerberos? Dan heb je een keyfile en kan je specifieke kerberos users rechten geven op een NFS share. Dat is de modernere variant om zoiets te doen.
Is ook nog eens een stuk sneller dan sshfs.
sshfs icm vage expect prompts klinkt mij ernstig als een hokkie-wokkie oplossing tbqfh.
Oh wacht, je wil het secret van de ZFS pool niet op de server hebben staan.
Is encrypted op de server met een password wel goed? Want dan maak je een 'vault' die encrypted is met de user zijn password (of een ander password), en on login, unlock je de vault, daarin staat het zfs secret, en mount je automatisch de pool.
Je kan sowieso custom scripting doen tijdens een SSH login, dat hoef je dus niet eens zelf te doen, je kan in de SSHd config extra scripts toevoegen (optie heet ForceCommand).
Dit zorgt er voor dat de user bij inloggen automatisch een scriptje doet (mits de user matched bijvoorbeeld).
Dat scriptje kan automatisch om het password vragen.
De key van de user gebruiken kan niet, want de key wordt nooit over de lijn gestuurd. Dus wat jij zei over id_rsa gebruiken, werkt niet.
Is ook nog eens een stuk sneller dan sshfs.
sshfs icm vage expect prompts klinkt mij ernstig als een hokkie-wokkie oplossing tbqfh.
Oh wacht, je wil het secret van de ZFS pool niet op de server hebben staan.
Is encrypted op de server met een password wel goed? Want dan maak je een 'vault' die encrypted is met de user zijn password (of een ander password), en on login, unlock je de vault, daarin staat het zfs secret, en mount je automatisch de pool.
Je kan sowieso custom scripting doen tijdens een SSH login, dat hoef je dus niet eens zelf te doen, je kan in de SSHd config extra scripts toevoegen (optie heet ForceCommand).
Dit zorgt er voor dat de user bij inloggen automatisch een scriptje doet (mits de user matched bijvoorbeeld).
Dat scriptje kan automatisch om het password vragen.
De key van de user gebruiken kan niet, want de key wordt nooit over de lijn gestuurd. Dus wat jij zei over id_rsa gebruiken, werkt niet.
[ Voor 59% gewijzigd door FireDrunk op 03-11-2017 10:17 ]
Even niets...
Hij is nu aan de 6e pass bezig zonder errors. Draaitijd net geen 24h. Lijkt me dus dat het geheugen wel ok is en ik nu die disk moet kicken van de pool. Moet ik die netjes de-attachen of kan ik hem ook fysiek uit de server halen?Q schreef op woensdag 1 november 2017 @ 23:44:
[...]
Mocht je geheugen inderdaad errors geven, schrijf dan die ene disk niet bij voorbaat af. Test hem nog een keer als het geheugen weer is vervangen/goed is.
Beide kan, maar online replacen is het beste.
Even niets...
hm, klopt dit:
source:
destination:
terwijl op hetzelfde moment:
Word de dataset nu dubbel zo groot, of is het getal wat pv geeft niet helemaal goed?
/edit:
ah....
Dat verklaart een hoop
source:
code:
1
2
3
4
| zfs list ... NAME USED AVAIL REFER MOUNTPOINT datastore/NAS_NFS 6.89T 3.41T 6.89T /datastore/NAS_NFS |
destination:
code:
1
2
3
4
| zfs-list ... NAME USED AVAIL REFER MOUNTPOINT rpool/datastore 3.34T 8.74T 3.34T /rpool/datastore |
terwijl op hetzelfde moment:
code:
1
2
3
| zfs send datastore/NAS_NFS@migrate | pv | ssh 192.168.0.101 zfs recv rpool/datastore ... 1.71TiB 5:51:38 [91.6MiB/s] |
Word de dataset nu dubbel zo groot, of is het getal wat pv geeft niet helemaal goed?
/edit:
ah....
code:
1
2
3
| root@pve01:~# zfs get copies NAME PROPERTY VALUE SOURCE rpool copies 2 local |
Dat verklaart een hoop
[ Voor 18% gewijzigd door LiquidSmoke op 05-11-2017 14:46 ]
Lol
das een dure feature
Even niets...
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
| pool: storagepool state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Sun Nov 5 14:54:48 2017 111G scanned out of 14.6T at 108M/s, 38h58m to go 18.5G resilvered, 0.74% done config: NAME STATE READ WRITE CKSUM storagepool ONLINE 0 0 120 raidz2-0 ONLINE 0 0 240 gpt/StoragePool-disk1 ONLINE 0 0 0 gpt/StoragePool-disk2 ONLINE 0 0 0 gpt/StoragePooldisk7 ONLINE 0 0 0 (resilvering) gpt/StoragePool-disk4 ONLINE 0 0 0 gpt/StoragePool-disk5 ONLINE 0 0 0 gpt/StoragePool-disk6 ONLINE 0 0 0 errors: 163 data errors, use '-v' for a list |
Nou hopelijk gaat dat goed, maar ben er niet zo gerust op met al die checksum errors...
Gebeurde bij de installatie van Proxmox, dacht dat het aantal bootloaders bedoeld weren oid, het was al 2:00

Is er een performance impact met deze setting?
Ben aan het denken om te switchen naar ZFS; nu weer een Btrfs corruptie en ben er een beetje klaar mee. 
Ik heb twee HDD's die wil ik voorzien van encryptie. Ik lees dat deze er standaard in zou moeten zitten; geld dit ook voor OpenZFS (Linux)?
Ik heb twee HDD's die wil ik voorzien van encryptie. Ik lees dat deze er standaard in zou moeten zitten; geld dit ook voor OpenZFS (Linux)?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| pool: storagepool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: resilvered 2.43T in 15h45m with 380 errors on Mon Nov 6 06:40:40 2017 config: NAME STATE READ WRITE CKSUM storagepool ONLINE 0 0 337 raidz2-0 ONLINE 0 0 674 gpt/StoragePool-disk1 ONLINE 0 0 0 gpt/StoragePool-disk2 ONLINE 0 0 0 gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 0 gpt/StoragePool-disk5 ONLINE 0 0 0 gpt/StoragePool-disk6 ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: storagepool/SERVERSBS2011ZVOL:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP:<0x1> |
Die (checksum) errors zitten dus in mijn zvols die via iscsi aan een virtuele SBS2011 aangeboden werden. Namelijk de backups en de Exchange DB.
Als je geheugen ook nog ECC geheugen is dan is rot geheugen waarschijnlijk niet de oorzaak.fluppie007 schreef op maandag 6 november 2017 @ 08:30:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 pool: storagepool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: resilvered 2.43T in 15h45m with 380 errors on Mon Nov 6 06:40:40 2017 config: NAME STATE READ WRITE CKSUM storagepool ONLINE 0 0 337 raidz2-0 ONLINE 0 0 674 gpt/StoragePool-disk1 ONLINE 0 0 0 gpt/StoragePool-disk2 ONLINE 0 0 0 gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 ONLINE 0 0 0 gpt/StoragePool-disk5 ONLINE 0 0 0 gpt/StoragePool-disk6 ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: storagepool/SERVERSBS2011ZVOL:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>
Die (checksum) errors zitten dus in mijn zvols die via iscsi aan een virtuele SBS2011 aangeboden werden. Namelijk de backups en de Exchange DB.
Wat voor controller gebruik je? Zou die misschien te warm kunnen worden? Ik koel mijn controllers actief, anders worden ze zeker te heet vanwege de specifieke airflow of gebrek er aan in mijn behuizing.
Wat blijft over: sata/sas kabels, rotte voeding...
Ik zou die ZVOLS eigenlijk als corrupt/verloren beschouwen, je kunt vanuit SBS2011 een NTFS checkdisk doen of wat je gebruikt om eventueel te kijken of de schade te achterhalen is en dat je toch door kunt gaan.
Als de errors ontstaan door iets anders dan de harde schijven zelf, dan kunnen ze als sneeuw voor de zon weer verdwijnen wanneer het probleem is opgelost. Ik zou afschrijven dus niet doen voordat het probleem is gevonden.
Sinds de 2 dagen regel reageer ik hier niet meer
http://datacorruption.netHollowGamer schreef op zondag 5 november 2017 @ 15:35:
Ben aan het denken om te switchen naar ZFS; nu weer een Btrfs corruptie en ben er een beetje klaar mee.
Ik heb twee HDD's die wil ik voorzien van encryptie. Ik lees dat deze er standaard in zou moeten zitten; geld dit ook voor OpenZFS (Linux)?
Dit gaat over RAID-5/6?
Inmiddels overgestapt naar ZFS - wat top!
Vind zeker de datasets een mooie toevoeging, ook werkt nu encryptie op OpenZFS.
Het gaat over de implementatie van RAID5/6 in BTRFS.HollowGamer schreef op maandag 6 november 2017 @ 21:46:
[...]
Dit gaat over RAID-5/6?
Inmiddels overgestapt naar ZFS - wat top!
Vind zeker de datasets een mooie toevoeging, ook werkt nu encryptie op OpenZFS.
OpenZFS voor Linux is fantastisch.
Dataset level encryption
Kan niet wachten om van mijn LUKS disks af te stappen.
Gebruik je ook encryption op je root pool?
- Deze advertentie is geblokkeerd door Pi-Hole -
Ik heb geprobeerd dit aan te maken op root, maar dat lukte helaas niet.A1AD schreef op dinsdag 7 november 2017 @ 07:27:
[...]
Dataset level encryption
Kan niet wachten om van mijn LUKS disks af te stappen.
Gebruik je ook encryption op je root pool?
Kan zijn dat ik een foutief commando heb gebruik, maar kom eigenlijk alleen deze tegen op de dataset.
Achteraf is het eigenlijk voor mij iets fijner. Heb bijvoorbeeld een map die als public (Series, foto's, etc.) - die hoeft niet encrypted te worden. Tevens zou je per dataset kunnen aangeven welke encryptie je wilt (wachtwoord of key).
Wat ik nog wil proberen is een SSD gebruiken om te boosten - heb nog een 'oude' liggen die is toch te klein:
https://wiki.archlinux.org/index.php/ZFS#SSD_Caching
Ben pas begonnen met ZFS, dus dit is meer uit eigen ervaring. Nog veel te leren, maar wat allemaal mogelijk is met ZFS vind ik nu al top.
[ Voor 11% gewijzigd door HollowGamer op 07-11-2017 09:20 ]
We bedoelen toch beide root pool als in de pool/dataset waar je linux root systeem op draait?HollowGamer schreef op dinsdag 7 november 2017 @ 09:02:
[...]
Ik heb geprobeerd dit aan te maken op root, maar dat lukte helaas niet.
Kan zijn dat ik een foutief commando heb gebruik, maar kom eigenlijk alleen deze tegen op de dataset.
Ik ben benieuwd hoe het juist in elkaar zit at boot time.
- Deze advertentie is geblokkeerd door Pi-Hole -
Ah zo! Nee, ik heb een aparte SSD voor het OS (ext4 + luks) en daarnaast twee HDD's met ZFS (data pool).A1AD schreef op dinsdag 7 november 2017 @ 12:11:
[...]
We bedoelen toch beide root pool als in de pool/dataset waar je linux root systeem op draait?
Ik ben benieuwd hoe het juist in elkaar zit at boot time.
Root laat ik eigenlijk altijd liever apart, stel die gaat kapot/corrupt, dan hoef ik alleen deze te vervangen. Backups van root maak ik op de HDD's, al zijn dit enkel config files.
Mocht ik dingen door elkaar excuses! Ben met ZFS nog net begonnen.
[ Voor 5% gewijzigd door HollowGamer op 07-11-2017 12:19 ]
Lijkt wel van kwaad naar erger te gaan...
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| pool: storagepool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: scrub in progress since Tue Nov 7 10:05:32 2017 3.84T scanned out of 14.6T at 177M/s, 17h43m to go 0 repaired, 26.29% done config: NAME STATE READ WRITE CKSUM storagepool DEGRADED 0 0 973K raidz2-0 DEGRADED 0 0 1.90M gpt/StoragePool-disk1 DEGRADED 0 0 8 too many errors gpt/StoragePool-disk2 DEGRADED 0 0 7 too many errors gpt/StoragePooldisk7 DEGRADED 0 0 2 too many errors gpt/StoragePool-disk4 DEGRADED 0 0 8 too many errors gpt/StoragePool-disk5 DEGRADED 0 0 13 too many errors gpt/StoragePool-disk6 DEGRADED 0 0 14 too many errors errors: Permanent errors have been detected in the following files: storagepool/SERVERSBS2011ZVOL:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP:<0x1> |
Ik denk toch echt dat er iets mis is met je controller of kabels. Alle HDD's tegelijk is hoogst onwaarschijnlijk.fluppie007 schreef op dinsdag 7 november 2017 @ 16:26:
Lijkt wel van kwaad naar erger te gaan...
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 pool: storagepool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: scrub in progress since Tue Nov 7 10:05:32 2017 3.84T scanned out of 14.6T at 177M/s, 17h43m to go 0 repaired, 26.29% done config: NAME STATE READ WRITE CKSUM storagepool DEGRADED 0 0 973K raidz2-0 DEGRADED 0 0 1.90M gpt/StoragePool-disk1 DEGRADED 0 0 8 too many errors gpt/StoragePool-disk2 DEGRADED 0 0 7 too many errors gpt/StoragePooldisk7 DEGRADED 0 0 2 too many errors gpt/StoragePool-disk4 DEGRADED 0 0 8 too many errors gpt/StoragePool-disk5 DEGRADED 0 0 13 too many errors gpt/StoragePool-disk6 DEGRADED 0 0 14 too many errors errors: Permanent errors have been detected in the following files: storagepool/SERVERSBS2011ZVOL:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP:<0x1>
Sinds de 2 dagen regel reageer ik hier niet meer
Enig idee of dat "te testen" is? Of enkel door een andere te steken. Zitten 2 IBM M1015 kaarten in die pc die via VT-D passthrough aan de FreeNAS VM worden doorgegeven.
Je zou FreeNAS even bare-metal kunnen draaien vanaf een USB schijf of stick. Dat zou transparant zijn, maar dan haal je die VMware tussenlaag er toch tussenuit.
Al is het maar een bootable Linux met ZFS die recent genoeg is om je pool te importeren.
Ik draai zelf bare metal Linux met ZFS + 3 x M1015 zonder issues (wel dus gekoeld).
Al is het maar een bootable Linux met ZFS die recent genoeg is om je pool te importeren.
Ik draai zelf bare metal Linux met ZFS + 3 x M1015 zonder issues (wel dus gekoeld).
Pak dan tevens FreeBSD i.p.v. Linux. Je weet maar nooit.
Sinds de 2 dagen regel reageer ik hier niet meer
Als je FreeNAS boot dan heb je toch BSD?CurlyMo schreef op woensdag 8 november 2017 @ 07:16:
Pak dan tevens FreeBSD i.p.v. Linux. Je weet maar nooit.
Owja

Ik las in jouw posts alleen maar Linux en Linux.
Sinds de 2 dagen regel reageer ik hier niet meer
Onding heeft wel gewoon 4 maand probleemloos gedraaid. Doordat mijn ZFSguru installatie corrupt was geraakt en gezien alle services offline staan had ik voor FreeNAS gekozen. Sinds die FreeNAS gaat het precies harder mis. Ik las ook iets dat bepaalde firmwares slechter werken. Ik heb namelijk 2 kaarten en de kaart waar die 7 disks op hangen is de oudste. Ik denk zeker een 3-4j oud intussen. De andere is van dit jaar gekocht dus vermoedelijk met nieuwere firmware.Q schreef op dinsdag 7 november 2017 @ 23:31:
Je zou FreeNAS even bare-metal kunnen draaien vanaf een USB schijf of stick. Dat zou transparant zijn, maar dan haal je die VMware tussenlaag er toch tussenuit.
Al is het maar een bootable Linux met ZFS die recent genoeg is om je pool te importeren.
Ik draai zelf bare metal Linux met ZFS + 3 x M1015 zonder issues (wel dus gekoeld).
Welke firmware draai jij in/op jouw kaarten?
Ook zo'n kaart kan natuurlijk gewoon kapot gaan. Het is niet alsof die dingen almachtig zijn ofzo...
Firmware P20 lijkt mij de nieuwste. (Heb zelf ook al tijden niet meer geupgrade)
https://nguvu.org/freenas/Convert-LSI-HBA-card-to-IT-mode/
Firmware P20 lijkt mij de nieuwste. (Heb zelf ook al tijden niet meer geupgrade)
https://nguvu.org/freenas/Convert-LSI-HBA-card-to-IT-mode/
We are going to be using this card with FreeNAS 9.3.1 which requires v20 IT firmware to be installed. To download the correct file, head over to Broadcom’s product pages and select your model of HBA card, in my case the 9211 which is a 6Gb/s model.
EDIT: Here’s a direct link to make life a bit easier.
9211_8i_Package_P20IR_IT_Firmware_BIOS_for_MSDOS_Windows.zip
[ Voor 6% gewijzigd door FireDrunk op 08-11-2017 09:44 ]
Even niets...
fluppie007 schreef op woensdag 8 november 2017 @ 09:38:
[...]
Onding heeft wel gewoon 4 maand probleemloos gedraaid. Doordat mijn ZFSguru installatie corrupt was geraakt en gezien alle services offline staan had ik voor FreeNAS gekozen. Sinds die FreeNAS gaat het precies harder mis. Ik las ook iets dat bepaalde firmwares slechter werken. Ik heb namelijk 2 kaarten en de kaart waar die 7 disks op hangen is de oudste. Ik denk zeker een 3-4j oud intussen. De andere is van dit jaar gekocht dus vermoedelijk met nieuwere firmware.
Welke firmware draai jij in/op jouw kaarten?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
| root@nano:~# /opt/MegaRAID/MegaCli/MegaCli64 -AdpAllInfo -aAll | grep -i ver Versions Product Name : ServeRAID M1015 SAS/SATA Controller Image Versions in Flash: BIOS Version : 4.30.00_4.12.05.00_0x05150000 Preboot CLI Version: 03.02-018:#%00008 WebBIOS Version : 4.0-56-e_45-Rel NVDATA Version : 3.09.03-0034 FW Version : 2.120.254-1520 Boot Block Version : 2.02.00.00-0001 Revertible Hot Spares : Yes Versions Product Name : ServeRAID M1015 SAS/SATA Controller Image Versions in Flash: BIOS Version : 4.30.00_4.12.05.00_0x05150000 Preboot CLI Version: 03.02-018:#%00008 WebBIOS Version : 4.0-56-e_45-Rel NVDATA Version : 3.09.03-0034 FW Version : 2.120.254-1520 Boot Block Version : 2.02.00.00-0001 Revertible Hot Spares : Yes Versions Product Name : ServeRAID M1015 SAS/SATA Controller Image Versions in Flash: BIOS Version : 4.30.00_4.12.05.00_0x05150000 Preboot CLI Version: 03.02-018:#%00008 WebBIOS Version : 4.0-56-e_45-Rel NVDATA Version : 3.09.03-0034 FW Version : 2.120.254-1520 Boot Block Version : 2.02.00.00-0001 Revertible Hot Spares : Yes |
Zo, na enorm veel gepruts om de sas2flash.efi aan de praat te krijgen wegens de bekende PAL error icm een bootable DOS USB-stick op UEFI BIOS, is het me gelukt om de firmwares te updaten.
De oudere kaart, waar die "rotte" pool aan hangt had FW 12.00.00.00-IT en de recentere kaart had 20.00.04.00-IT. Intussen draaien beide kaarten 20.00.07.00-IT. Hopelijk lost dat mijn corruptie issues op...
Hij/FreeNAS11-U4 is de pool nu weer aan't resilveren en daarna kan ik eens een scrub lanceren en de iscsi verbindingen weer openzetten. Als dat allemaal lukt ga ik via windows een chkdsk laten draaien naar die drives. Hopelijk lukt dat en werkt alles weer naar behoren. To be continued...
De oudere kaart, waar die "rotte" pool aan hangt had FW 12.00.00.00-IT en de recentere kaart had 20.00.04.00-IT. Intussen draaien beide kaarten 20.00.07.00-IT. Hopelijk lost dat mijn corruptie issues op...
Hij/FreeNAS11-U4 is de pool nu weer aan't resilveren en daarna kan ik eens een scrub lanceren en de iscsi verbindingen weer openzetten. Als dat allemaal lukt ga ik via windows een chkdsk laten draaien naar die drives. Hopelijk lukt dat en werkt alles weer naar behoren. To be continued...
Ik probeer een duplicaat/kopie/backup van mij zvols te maken alvorens er nog verder aan te prutsen:
Enig idee waar die broken pipe error vandaan komt?
code:
1
| zfs list |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| NAME USED AVAIL REFER MOUNTPOINT freenas-boot 739M 37.8G 64K none freenas-boot/ROOT 731M 37.8G 29K none freenas-boot/ROOT/Initial-Install 1K 37.8G 727M legacy freenas-boot/ROOT/Wizard-2017-10-20_12:16:28 1K 37.8G 727M legacy freenas-boot/ROOT/default 731M 37.8G 727M legacy freenas-boot/grub 6.28M 37.8G 6.28M legacy storagepool 9.90T 603G 304K /mnt/storagepool storagepool/SERVERSBS2011ZVOL 251G 773G 81.9G - storagepool/SERVERSBS2011ZVOLBACKUP 251G 604G 251G - storagepool/share 9.40T 603G 9.40T /mnt/storagepool/share storagepool6tb 4.65T 5.84T 202K /mnt/storagepool6tb storagepool6tb/newsbs2011 260G 6.09T 139K - storagepool6tb/newsbs2011backup 260G 6.09T 139K - storagepool6tb/share 4.14T 5.84T 4.14T /mnt/storagepool6tb/share |
code:
1
2
3
| zfs send storagepool/SERVERSBS2011ZVOL | zfs receive zfs receive storagepool6tb/newsbs2011 zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive zfs receive storagepool6tb/newsbs2011backup |
code:
1
2
3
4
5
6
7
8
9
10
11
| root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive zfs receive storagepool6tb/newsbs2011backup too many arguments usage: receive|recv [-vnsFu] [-o <property>] ... [-x <property>] ... [-l <filesystem|volume>] ... <filesystem|volume|snapshot> receive|recv [-vnsFu] [-d | -e] [-o <property>] ... [-x <property>] ... [-l <filesystem|volume>] ... <filesystem> receive|recv -A <filesystem|volume> For the property list, run: zfs set|get For the delegated permission list, run: zfs allow|unallow warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': Broken pipe |
Enig idee waar die broken pipe error vandaan komt?
Ehm, aan de rechterzijde van de | heb je 'zfs receive' dubbel staan. Daar weet zfs een beetje weinig raad mee.
Facepalm...
Dat is kei kapot of kan je geen ZFS volumes send/receiven
?
code:
1
2
3
4
5
6
7
| root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive storagepool6tb/newsbs2011backup cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists must specify -F to overwrite it warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': signal received root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP | zfs receive -F storagepool6tb/newsbs2011backup warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP': Input/output error cannot receive new filesystem stream: checksum mismatch or incomplete stream |
Dat is kei kapot of kan je geen ZFS volumes send/receiven

Als het filesystem al bestaat, kan je natuurlijk niet 'live' syncen, want het filesystem is al online.
Op dat moment wil je snapshots syncen.
Dus:
Op dat moment wil je snapshots syncen.
Dus:
zfs snapshot storagepool/SERVERSBS2011ZVOLBACKUP@full zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup@full
Even niets...
code:
1
2
3
4
5
6
7
8
| root@freenas:~ # zfs snapshot storagepool/SERVERSBS2011ZVOLBACKUP@full root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup@full cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists must specify -F to overwrite it warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': signal received root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup@full warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error cannot receive new filesystem stream: checksum mismatch or incomplete stream |
Helaas... Heeft ie nog steeds geen zin in
Correct me if I'm wrong, maar volgens mij moet je dit command gebruiken
Je stuurt de snapshot SERVERSBS2011ZVOLBACKUP@full naar je filesystem storagepool6tb/newsbs2011backup dus geen @full aan de receive kant
code:
1
| zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup |
Je stuurt de snapshot SERVERSBS2011ZVOLBACKUP@full naar je filesystem storagepool6tb/newsbs2011backup dus geen @full aan de receive kant
To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour
Ah, idd, my bad
Even niets...
Ik was met iets soortgelijks bezig, anders was het me niet opgevallen
To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour
Ik vrees dat die zvol's echt om zeep zijn.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
| root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup cannot receive new filesystem stream: destination 'storagepool6tb/newsbs2011backup' exists must specify -F to overwrite it warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': signal received root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error cannot receive new filesystem stream: checksum mismatch or incomplete stream root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive -F storagepool6tb/newsbs2011backup14112017 warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error cannot receive new filesystem stream: checksum mismatch or incomplete stream root@freenas:~ # zfs send storagepool/SERVERSBS2011ZVOLBACKUP@full | zfs receive storagepool6tb/newsbs2011backup14112017 warning: cannot send 'storagepool/SERVERSBS2011ZVOLBACKUP@full': Input/output error cannot receive new filesystem stream: checksum mismatch or incomplete stream |
Zitten er nog meer snapshots op de zvol anders dan full?
Even niets...
Geef eens de output van:fluppie007 schreef op dinsdag 14 november 2017 @ 09:31:
Ik vrees dat die zvol's echt om zeep zijn.
code:
1
| zfs list -t snapshot |
Sinds de 2 dagen regel reageer ik hier niet meer
code:
1
2
3
4
5
6
| root@freenas:~ # zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT freenas-boot/ROOT/default@2017-10-20-19:10:25 2.19M - 727M - freenas-boot/ROOT/default@2017-10-20-21:16:28 614K - 727M - storagepool/SERVERSBS2011ZVOLBACKUP@full 0 - 251G - root@freenas:~ # |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
| pool: storagepool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: resilvered 2.43T in 19h57m with 380 errors on Sat Nov 11 13:59:07 2017 config: NAME STATE READ WRITE CKSUM storagepool DEGRADED 0 0 386 raidz2-0 DEGRADED 0 0 772 gpt/StoragePool-disk1 DEGRADED 0 0 0 too many errors gpt/StoragePool-disk2 DEGRADED 0 0 0 too many errors gpt/StoragePooldisk7 ONLINE 0 0 0 gpt/StoragePool-disk4 DEGRADED 0 0 0 too many errors gpt/StoragePool-disk5 DEGRADED 0 0 0 too many errors gpt/StoragePool-disk6 DEGRADED 0 0 0 too many errors errors: Permanent errors have been detected in the following files: storagepool/SERVERSBS2011ZVOL:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP:<0x1> storagepool/SERVERSBS2011ZVOLBACKUP@full:<0x1> pool: storagepool6tb state: ONLINE status: The pool is formatted using a legacy on-disk format. The pool can still be used, but some features are unavailable. action: Upgrade the pool using 'zpool upgrade'. Once this is done, the pool will no longer be accessible on software that does not support feature flags. scan: scrub repaired 0 in 6h52m with 0 errors on Sun Oct 22 06:52:17 2017 config: NAME STATE READ WRITE CKSUM storagepool6tb ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 gpt/StoragePool6TB-disk1 ONLINE 0 0 0 gpt/StoragePool6TB-disk2 ONLINE 0 0 0 gpt/StoragePool6TB-disk3 ONLINE 0 0 0 errors: No known data errors |
[ Voor 74% gewijzigd door fluppie007 op 14-11-2017 10:40 ]
En storagepool6tb?
Sinds de 2 dagen regel reageer ik hier niet meer
Staat er toch onder?
Even niets...
Zeg ik heb al een tijd een FreeNAS systeempje welke ik ook al een hele tijd niet heb geupdated (draai nu 9.10.1) ivm problemen met de VirtualBox "functionaliteit".
Inmiddels loop ik toch wel tegen wat performance dingetjes aan op mn VM's en wil ik het anders gaan doen.
Maar: de nieuwste FreeNAS (coral) is weer terug gedraaid dus wat is nou wijsheid?
- Updaten naar FreeNAS 11 en dan met dat nieuwe iohyve/docker aan de slag
- ESXi installeren en daar een FreeNAS VM op maken met pass-through naar de disk controller (en dus de VM's buiten FreeNAS om regelen, al dan niet via iscsi lun oid)
- Wachten tot coral er is (maar voor zover ik weet is er nog geen release bekend)
De VM's hoef ik niet perséé over te zetten, Linux VM zal altijd wel te doen zijn gok ik maar mijn windows test systeempje installeer ik wel opnieuw.
Inmiddels loop ik toch wel tegen wat performance dingetjes aan op mn VM's en wil ik het anders gaan doen.
Maar: de nieuwste FreeNAS (coral) is weer terug gedraaid dus wat is nou wijsheid?
- Updaten naar FreeNAS 11 en dan met dat nieuwe iohyve/docker aan de slag
- ESXi installeren en daar een FreeNAS VM op maken met pass-through naar de disk controller (en dus de VM's buiten FreeNAS om regelen, al dan niet via iscsi lun oid)
- Wachten tot coral er is (maar voor zover ik weet is er nog geen release bekend)
De VM's hoef ik niet perséé over te zetten, Linux VM zal altijd wel te doen zijn gok ik maar mijn windows test systeempje installeer ik wel opnieuw.
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Proxmox installeren. Geen gedoe met vtd. ZFS op de host regelen en bind mounten naar je LXC'sMattie112 schreef op woensdag 15 november 2017 @ 16:10:
Zeg ik heb al een tijd een FreeNAS systeempje welke ik ook al een hele tijd niet heb geupdated (draai nu 9.10.1) ivm problemen met de VirtualBox "functionaliteit".
Inmiddels loop ik toch wel tegen wat performance dingetjes aan op mn VM's en wil ik het anders gaan doen.
Maar: de nieuwste FreeNAS (coral) is weer terug gedraaid dus wat is nou wijsheid?
- Updaten naar FreeNAS 11 en dan met dat nieuwe iohyve/docker aan de slag
- ESXi installeren en daar een FreeNAS VM op maken met pass-through naar de disk controller (en dus de VM's buiten FreeNAS om regelen, al dan niet via iscsi lun oid)
- Wachten tot coral er is (maar voor zover ik weet is er nog geen release bekend)
De VM's hoef ik niet perséé over te zetten, Linux VM zal altijd wel te doen zijn gok ik maar mijn windows test systeempje installeer ik wel opnieuw.
- Deze advertentie is geblokkeerd door Pi-Hole -
Dat bind mounten moet ik nog goed zien werken. Het werkt volgens mij niet voor ZFS subvolumes, en je moet met de hand de config wijzigen, want via de GUI kan het niet.
Of ik mis iets
Of ik mis iets
Even niets...
Sja, via cli inderdaad 1 regeltje per mount toevoegen aan je lxc configFireDrunk schreef op woensdag 15 november 2017 @ 17:35:
Dat bind mounten moet ik nog goed zien werken. Het werkt volgens mij niet voor ZFS subvolumes, en je moet met de hand de config wijzigen, want via de GUI kan het niet.
Of ik mis iets
Je bind mount uiteraard datasets(zoals je zelf ergens eens hebt aangegeven: mouten per dataset (child) en niet enkel je "root" dataset).
Ik gebruik het ondertussen al enkel jaren zo. Werkt heerlijk.
Mijn setup is nog steeds actueel buiten dat ik nu sanoid gebruik.
- Deze advertentie is geblokkeerd door Pi-Hole -
Niet de mogelijke snapshot lijst of zijn die er niet?FireDrunk schreef op woensdag 15 november 2017 @ 08:36:
Staat er toch onder?
Sinds de 2 dagen regel reageer ik hier niet meer
2 pools op 1 systeem, dus zijn zfs list is van alle snapshots.
Even niets...
Als dat zo is, dan heb je gelijk.FireDrunk schreef op woensdag 15 november 2017 @ 18:35:
2 pools op 1 systeem, dus zijn zfs list is van alle snapshots.
Sinds de 2 dagen regel reageer ik hier niet meer
Dus als ik het goed begrijp draai je Proxmox als "hypervisor" én doet die zelf ook het ZFS beheren? Maar dus ook geen FreeNAS functionaliteit (shares, users, etc). Maar omdat je containers kan draaien (tov VM's) voegt het weinig overhead toe om die services in een losse container te draaien?A1AD schreef op woensdag 15 november 2017 @ 17:09:
[...]
Proxmox installeren. Geen gedoe met vtd. ZFS op de host regelen en bind mounten naar je LXC's
Zeg ik het dan goed?
Maar is dat dan geen drama met configuren? Kijk ik ben zeker niet vies van de commandline (in tegendeel) maar een goede UI om gewoon even heel simpel wat shares aan te maken voegt imo wel wat toe!
Denk dat ik eens ga kijken om wat hardware bij elkaar te sprokkelen om het in elk geval eens te installeren/te kijken.
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Je zegt het goed, ik heb een LXC met samba functionaliteit om de shares te configureren. De samba config is zo eenvoudig dat je echt geen GUI nodig hebt, maar dat is natuurlijk allemaal afhankelijk van je linux ervaring. (Het is wel een zeer leuk platform om je linux kennis bij te schroeven)Mattie112 schreef op zondag 19 november 2017 @ 10:28:
[...]
Dus als ik het goed begrijp draai je Proxmox als "hypervisor" én doet die zelf ook het ZFS beheren? Maar dus ook geen FreeNAS functionaliteit (shares, users, etc). Maar omdat je containers kan draaien (tov VM's) voegt het weinig overhead toe om die services in een losse container te draaien?
Zeg ik het dan goed?
Maar is dat dan geen drama met configuren? Kijk ik ben zeker niet vies van de commandline (in tegendeel) maar een goede UI om gewoon even heel simpel wat shares aan te maken voegt imo wel wat toe!
Denk dat ik eens ga kijken om wat hardware bij elkaar te sprokkelen om het in elk geval eens te installeren/te kijken.
- Deze advertentie is geblokkeerd door Pi-Hole -
Oh ja daar kom ik zeker wel uit hoor, het is puur hoeveel tijd/zin ik heb voor thuis om dit allemaal op te zetten. Dat is toch wel een voordeeltje van FreeNAS imo, een hoop is daar wel al geregeld. Heb zelf nog een Windows VM voor wat windows-only stuff en dat ik makkelijk een remote desktopje kan openen en een Debian VM door powerdns/asterisk en geloof nog een paar scriptjes.A1AD schreef op zondag 19 november 2017 @ 10:59:
[...]
Je zegt het goed, ik heb een LXC met samba functionaliteit om de shares te configureren. De samba config is zo eenvoudig dat je echt geen GUI nodig hebt, maar dat is natuurlijk allemaal afhankelijk van je linux ervaring. (Het is wel een zeer leuk platform om je linux kennis bij te schroeven)
Maar waar nu vooral de Windows VM ook een "verzamelbak" is is opsplitsen natuurlijk uiteindelijk wel mooier, minder gedoe bij een herinstall of een restore.
Maargoed heb het inmiddels even op een VM geinstalleerd dus ik ga eens kijken wat je er zoal mee kan! In elk geval bedankt voor de suggestie!
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Daar gebruik ik x2go server voor (op een debian MATE LXC) en dan x2go client op je eigen pc (win/lin), remote desktop achtig iets voor efficiënte lxc'sMattie112 schreef op zondag 19 november 2017 @ 11:05:
[...]
Heb zelf nog een Windows VM voor wat windows-only stuff en dat ik makkelijk een remote desktopje kan openen.
- Deze advertentie is geblokkeerd door Pi-Hole -
Mja, dat gaat wel iets makkelijker dan met mijn FreeNAS / virtualbox oplossing ja. VM's daar zijn wat aan de trage kant 
Heb je toevallig ervaring met het importeren van al bestaande ZFS pools? Wil waarschijnlijk ook wel een SSD toevoegen voor cache maar als het importeren zelf niet kan dan houd het sowieso even op op dit moment.
Heb je toevallig ervaring met het importeren van al bestaande ZFS pools? Wil waarschijnlijk ook wel een SSD toevoegen voor cache maar als het importeren zelf niet kan dan houd het sowieso even op op dit moment.
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Gaat prima , mijn ZFS pool is destijds begonnen op FreeBSD , heb em wegens experimenten zelfs nog in Illumos kunnen importen en gebruiken en daarna in Proxmox met ZFS on Linux kunnen importenMattie112 schreef op donderdag 23 november 2017 @ 10:09:
Mja, dat gaat wel iets makkelijker dan met mijn FreeNAS / virtualbox oplossing ja. VM's daar zijn wat aan de trage kant
Heb je toevallig ervaring met het importeren van al bestaande ZFS pools? Wil waarschijnlijk ook wel een SSD toevoegen voor cache maar als het importeren zelf niet kan dan houd het sowieso even op op dit moment.
Situatie:
ESXi server met daarop Ubuntu 16.04 VM met ZFS die middels passthrough aangeboden worden.
Het lijkt er sinds vanochtend op dat of de controller waar mijn datastore voor ESXi kapot is of de SSD waar de vm's op staan is overleden (of alle twee).
Nu zijn de disken die worden aangeboden apart en heb niet het idee dat daar iets mis mee was (altijd goede waardes) en vroeg me af of die zo weer te importeren zijn?
Mogelijk op een nieuwe machine?
Heel erg zal het niet zijn omdat er genoeg backups zijn maar ter lering en vermaak wel leuk om te zien hoe ZFS is zulke gevallen werkt.
ESXi server met daarop Ubuntu 16.04 VM met ZFS die middels passthrough aangeboden worden.
Het lijkt er sinds vanochtend op dat of de controller waar mijn datastore voor ESXi kapot is of de SSD waar de vm's op staan is overleden (of alle twee).
Nu zijn de disken die worden aangeboden apart en heb niet het idee dat daar iets mis mee was (altijd goede waardes) en vroeg me af of die zo weer te importeren zijn?
Mogelijk op een nieuwe machine?
Heel erg zal het niet zijn omdat er genoeg backups zijn maar ter lering en vermaak wel leuk om te zien hoe ZFS is zulke gevallen werkt.
[ Voor 0% gewijzigd door stuffer op 28-11-2017 13:21 . Reden: typo ]
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Als het een passthrough schijf was dan gaat dat wel lukken.
Sinds de 2 dagen regel reageer ik hier niet meer
Is dat heel simpel gezegd: zpool import poolnaam?
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Zo makkelijk kan het zijn:-)
Ik laat het weten als er weer leven in zit.
-------------------
Edit: @CurlyMo
ESXi wilde weer booten van zijn datastore dus: zpool import poolname niet gebruikt ter lering en vermaak. Waar het probleem heeft gezeten....geen idee....
Ik laat het weten als er weer leven in zit.
-------------------
Edit: @CurlyMo
ESXi wilde weer booten van zijn datastore dus: zpool import poolname niet gebruikt ter lering en vermaak. Waar het probleem heeft gezeten....geen idee....
[ Voor 56% gewijzigd door stuffer op 29-11-2017 16:29 ]
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Ik heb de sinds een tijdje continu last van in iotop.
Is een issue voor op Github zfsonlinux, echter nog geen oplossing. Zijn er meer die hier last van hebben?
Op Github geven ze aan dat snapshots verwijderen mogelijk een oplossing is, eens kijken of dat verschil maakt.
Edit, net alle snapshots verwijderd en een reboot erachteraan, geen verschil
TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND 15:24:26 758 be/0 root 0.00 K/s 0.00 K/s 0.00 % 99.99 % [z_null_int] 15:37:11 7 be/4 root 0.00 K/s 0.00 K/s 0.00 % 99.99 % [ksoftirqd/0]
Is een issue voor op Github zfsonlinux, echter nog geen oplossing. Zijn er meer die hier last van hebben?
Op Github geven ze aan dat snapshots verwijderen mogelijk een oplossing is, eens kijken of dat verschil maakt.
Edit, net alle snapshots verwijderd en een reboot erachteraan, geen verschil

[ Voor 8% gewijzigd door WeaZuL op 30-11-2017 15:49 ]
NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict
ik heb de volgende esxi server draaien:
Nu heb ik op deze vmware esxi server nas4free in een vm geinstalleerd en de supermicro sata controller/onboard sata controller middels pass through direct aan de vm gegeven. Hierbij merk ik op dat dat de supermicro sata controller een pci-x kaart in een pci slot is dus max ongeveer 100 mb/s doet.
Nu is het ook mijn bedoeling dat de esxi server zijn datastore op de nas4free zet middels NFS.
Nu heb ik de volgende configuratie in gedachten:
als jullie nog tips opmerkingen of dingen hebben waar ik rekening mee moet houden dan hoor ik dat graag
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5649 Boxed | € 0,- | € 0,- |
1 | Supermicro X8STi-F | € 286,19 | € 286,19 |
4 | Samsung Spinpoint F4 EcoGreen HD155UI, 1,5TB | € 0,- | € 0,- |
5 | Samsung Spinpoint F4 EG HD204UI, 2TB | € 0,- | € 0,- |
1 | Digital Devices DuoFlex C/C2/T/T2 + Octopus Twin-CI *Bundel* | € 399,- | € 399,- |
6 | 4 gb ram | -- | -- |
1 | Supermicro AOC-SAT2-MV8 | € 126,40 | € 126,40 |
1 | OCZ Agility 3 120GB | € 0,- | € 0,- |
1 | supermicro servercase met 15 hd slots en 3x 380 watt voeding | -- | -- |
Bekijk collectie Importeer producten | Totaal | € 811,59 |
Nu heb ik op deze vmware esxi server nas4free in een vm geinstalleerd en de supermicro sata controller/onboard sata controller middels pass through direct aan de vm gegeven. Hierbij merk ik op dat dat de supermicro sata controller een pci-x kaart in een pci slot is dus max ongeveer 100 mb/s doet.
Nu is het ook mijn bedoeling dat de esxi server zijn datastore op de nas4free zet middels NFS.
Nu heb ik de volgende configuratie in gedachten:
- zfs pool van 4x 1,5tb hd op de onboard controller en deze gebruiken voor de esxi datastore en werkdata
- zfs pool van 5x 2tb hd op de supermicro sata controller en deze gebruiken voor de langdurige data opslag (films/muziek/archief/backup)
als jullie nog tips opmerkingen of dingen hebben waar ik rekening mee moet houden dan hoor ik dat graag
Wellicht dat iemand me kan helpen. Ik heb nu een Zfsguru vm in hyper-v draaien met 2 Pools via een IBM m1015 iT mode en de schijven zijn dmv disk passtrpugh doorgegeven aan de vm. Nu wil ik een hp microserver gen10 aanschaffen en Zfsguru installeren zonder een hypervisor.
Om de Pools te importen, is het een kwestie van m1015 overzetten naar de nieuwe machine en pool import doen of moeten er nog extra handelingen gedaan worden, of is het helemaal niet mogelijk omdat je van een virtuele machine met disk passtrough gaat naar een fysieke machine?
Alvast bedankt!
Om de Pools te importen, is het een kwestie van m1015 overzetten naar de nieuwe machine en pool import doen of moeten er nog extra handelingen gedaan worden, of is het helemaal niet mogelijk omdat je van een virtuele machine met disk passtrough gaat naar een fysieke machine?
Alvast bedankt!
Jammer dat het topic een beetje doodgebloed lijkt.
Ik vraag me af of een Samsung 850 EVO geschikt is voor SLOG doeleinden. Dit ivm met de discussie aangaande stroomuitval etc.
Ik vraag me af of een Samsung 850 EVO geschikt is voor SLOG doeleinden. Dit ivm met de discussie aangaande stroomuitval etc.
Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.