Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 12-10 16:52

Ravefiend

Carpe diem!

Phuncz schreef op zaterdag 17 augustus 2013 @ 12:40:
[...]
Hmm bizar, dus FreeNAS 9.1 heeft gewoon geen mogelijkheid om 4K drives correct te benutten ? Wat een brol.
Zie ook dit: https://support.freenas.org/ticket/2404

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat had ik gezien ja, hetgeen me verontrust is dit:

Milestone set to 9.2.0-RELEASE
Priority changed from critical to minor

Blijkbaar is het bijzaak. Het frustrerende is dat je niet later even kan omschakelen, maar je moet je zfs pool dus opnieuw aanmaken. Daar zijn wel oplossingen voor maar die ondersteunen zij zelf niet waardoor elke getroffen gebruiker zelf mag oplossen ipv. dat zij een echte oplossing bedenken. Feitelijk laten ze je nu een half jaar ofzo wachten tot je FreeNAS nog eens kan overwegen als je moderne hardware hebt.

De methode die zij hebben geimplementeerd met 9.1 is de sector size uitlezen van de disk, echter geeft die dus 9 kansen op 10 een 512byte sector size aan wegens compatibiliteit van de disk.

Nu hebben ze het quasi onmogelijk gemaakt om met FreeNAS 4K disks te ondersteunen tenzij je zelf aan de slag gaat.

[ Voor 7% gewijzigd door Phuncz op 17-08-2013 13:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
En vooral dit:
Priority: minor
:+

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op zaterdag 17 augustus 2013 @ 12:40:
[...]

Dan stap ik maar over op ZFSguru, deze blijkt wél bij de tijd te zijn. Helaas geen ervaring mee maar dat zal wel snel veranderen :)
Persoonlijk vind ik NAS4free makkelijker dan ZFSguru.
NAS4free heeft een uitgebreide handleiding en kan ook met 4K overweg.

Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Een vraagje:

Het was al even geleden sinds ik nog eens de webcfg had geopend. Maar ik zag nu dat ik niet meer de services kan raadplegen...

ERROR: service directory /zfsguru/zfsguru/services/9.1-005 does not exist!

Dit moet door de update gebeurd zijn die ik een aantal maanden geleden heb doorgevoerd..
Kan iemand me zeggen hoe ik dit kan aanpassen zodat hij naar de juiste locatie verwijst?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zaterdag 17 augustus 2013 @ 13:22:
[...]


Persoonlijk vind ik NAS4free makkelijker dan ZFSguru.
NAS4free heeft een uitgebreide handleiding en kan ook met 4K overweg.
Thx, heb deze momenteel lopen en ben bezig er 1,6TB naar te kopiëren (duurt ~24u). Voorlopig lijkt alles het te doen zoals het hoort maar moet het nog in diepte bekijken. Nu vooral testen of de boel betrouwbaar loopt.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@Geckx: leg even in een DM-berichtje naar mij uit wat je precies hebt gedaan/veranderd en welke versies (systeem + web) je precies gebruikt.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 17 augustus 2013 @ 11:52:
Dat werkt zo niet, alleen middels een hack in OpenSolaris dacht ik.

Pool aanmaken in ZFSguru is het beste wat je kunt doen denk ik, en in FreeNAS importeren. Dan heb je ook partities, zoals het hoort, ipv ruwe devicenodes; dat is vies.
Das echt klets. Ik vind ruwe devices in een RAID array stoppen juist veel netter... waarom wil je een partitie als je er daarna toch weer raid op zet... tenzij je specifieke sizes wil of er van wil booten, vind ik het echt overbodig.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Om heel veel redenen zijn partities duidelijk beter.
  • Je kunt je partitie een duidelijke naam geven zoals Samsung-disk1. Als je hiermee je disks labelt, weet je zeker welke disk bij welke devicenaam hoort. In Solaris is het helemaal erg met dat c0d1t10 weet ik veel codes. Zo kun je gemakkelijk menselijke fouten maken wat ernstige gevolgen kan hebben.
  • Partities beschermt je tegen corruptie aan het einde van de disk. Bijvoorbeeld Areca die bij JBOD mode de volledige grootte geeft maar bij een single disk array er 512 bytes (een sector) afsnoept. Dat gaat ZFS en welk ander software RAID niet leuk vinden. Silicon Image idem en mogelijk ook andere FakeRAID.
  • Partities voorkomt dat je disk niet nét een paar kilobyte te klein is wanneer je hem wilt vervangen met een reserve disk. ZFSguru reserveert altijd minimaal 1 megabyte aan het einde.
  • Partities betekent dat je later vrijheid hebt om nog GEOM modules aan te sluiten, zoals encryptie of geom gate of noem maar op. Al deze modules kosten net één sector. Met ruwe devices heb je geen enkele ruimte vrij en gaat dat dus niet lukken zonder dataverlies.
  • Partities voorkomen ook dat je fouten maakt. ZFSguru is zo ontworpen dat het via de GUI alleen maar met partities of GEOM labels werkt, zodat je nooit een pool kunt aanmaken op een niet geïnitialiseerde disk. Ook dit is ter voorkoming van user error.
  • GPT partities heb je nodig om bootable te zijn, nodig voor Root-on-ZFS.
Kortom, ik vind het geen klets. Er zijn best redenen waarom partities beter zijn, en eigenlijk helemaal geen redenen om het niet te doen. Enige nadelen die ik ken zijn 2MB minder opslagruimte per disk en incompatibiliteit met Solaris-OS.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Ik denk dat je in grote lijnen gelijk hebt, maar er zijn een paar puntjes waar ik toch nog wat over wil zeggen.
In Solaris is het helemaal erg met dat c0d1t10 weet ik veel codes. Zo kun je gemakkelijk menselijke fouten maken wat ernstige gevolgen kan hebben.
Als je Solaris een beetje kent zijn die namen juist hardstikke duidelijk, voor mij zijn de devicenamen van FreeBSD minder duidelijk wanneer ik een pool van gehele devices importeer. Is maar net waar je mee gewend bent te werken.
Partities voorkomen ook dat je fouten maakt. ZFSguru is zo ontworpen dat het via de GUI alleen maar met partities of GEOM labels werkt, zodat je nooit een pool kunt aanmaken op een niet geïnitialiseerde disk. Ook dit is ter voorkoming van user error.
Ongeveer datzelfde argument heb ik bij OpenSolaris (Nexenta) gebruikt zien worden om alleen gebruik van hele disks ipv partities te ondersteunen. Minder complexiteit, minder kans op fouten.
Enige nadelen die ik ken zijn 2MB minder opslagruimte per disk en incompatibiliteit met Solaris-OS.
Ik heb het even nagezocht, Solaris en IllumOS kunnen wel met GPT-labels omgaan, alleen booten van GPT gaat niet, daarvoor moet je solaris slices gebruiken. Verder zijn partities geen probleem.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
u_nix_we_all schreef op zaterdag 17 augustus 2013 @ 22:58:
Als je Solaris een beetje kent zijn die namen juist hardstikke duidelijk
Ik begrijp inderdaad dat je bedoelt dat in de naamgeving er een duidelijke structuur en logica zit. Echter, mijn punt is juist dat met een hele rits aan disks het menselijk brein makkelijker fouten maakt met dit soort namen, versus zelfgekozen namen zoals 'samsung-disk3'.
Ongeveer datzelfde argument heb ik bij OpenSolaris (Nexenta) gebruikt zien worden om alleen gebruik van hele disks ipv partities te ondersteunen. Minder complexiteit, minder kans op fouten.
Heb je het hier over menselijke fouten? Complexiteit, kun je dat toelichten? Ik ben helemaal voor lagere technische complexiteit, een van de redenen waarom ik 'tegen' Sandforce-technologie ben, maar partities is niet rocketscience, dat wordt enorm veel gebruikt en is gewoon prima geimplementeerd. De technische complexiteit daarvan weegt denk ik ruimschoots op tegen de voordelen. Voor de gebruiker is of hoeft het niet complexer te zijn, zeker niet wanneer je werkt met een product als ZFSguru waarin dit mijns inziens erg gemakkelijk is gemaakt. Geef een disk een naam en klik op de knop.

Je zegt dat bij Solaris-platform (ik gooi al die Solaris achtigen even op één hoop) met dezelfde argumentatie voor whole disks is gekozen. Maar het argument bij ZFSguru is nu juist dat de gebruiker zelf een handeling moet verrichten op een disk, voordat je iets met die disk kunt doen via de ZFSguru GUI. Uitzondering is als er al een pool op staat, dat kan ZFSguru prima gebruiken en importeren. Maar iets aanmaken op ZFSguru kan alleen als je als gebruiker een naam aan die disk geeft. Het argument hierbij is dus dat een disk vanuit een ander OS/platform dus niet zomaar te selecteren is voor het aanmaken van een pool. Als dat wel zo zou zijn, kun je hiermee heel gemakkelijk bestaande data vernietigen door het verkeerde vinkje te zetten wanneer je een pool aanmaakt.

ZFSguru wil dat een disk een naam heeft. Dus ook een disk met GPT partities zonder label, is niet zomaar te gebruiken voor het aanmaken van een nieuwe pool. Dit allemaal in lijn met de filosofie dat een gebruiker de disk eerst moet 'activeren' voor gebruik met ZFSguru en met het oog op voorkoming van user error.
Ik heb het even nagezocht, Solaris en IllumOS kunnen wel met GPT-labels omgaan, alleen booten van GPT gaat niet, daarvoor moet je solaris slices gebruiken. Verder zijn partities geen probleem.
Solaris ondersteunt geen GPT-partities van type freebsd-zfs. Dit terwijl FreeBSD wel GPT partities van Linux en Solaris ondersteunt. Niet booten van GPT betekent volgens mij ook problemen met EFI-BIOS.

[ Voor 6% gewijzigd door Verwijderd op 17-08-2013 23:42 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
En dan nog een ander goed argument: Windows.

Als je een disk zonder partitietabel in Windows steekt, en je let even niet op bij de vraag of je wilt "Initialiseren" dan is je hele disk onbruikbaar voor je het weet. Met een partitietabel en een partitie met een type dat Windows niet kent, krijg je 'em enkel niet te zien in Verkenner. Al je data is in dit geval nog veilig.

Die reden, samen met minimale afwijkingen in ruimte, hebben ervoor gezorgd dat ik toch maar voor partities ben gegaan op mijn Linux software RAID set. Voor mijn ZFS set heb ik wel gekozen voor volledige disk, maar ik weet eigenlijk niet waarom ik dat toen gedaan heb :P Gemak denk ik :)

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Verwijderd schreef op zaterdag 17 augustus 2013 @ 23:40:
[...]

Ik begrijp inderdaad dat je bedoelt dat in de naamgeving er een duidelijke structuur en logica zit. Echter, mijn punt is juist dat met een hele rits aan disks het menselijk brein makkelijker fouten maakt met dit soort namen, versus zelfgekozen namen zoals 'samsung-disk3'.
Dat is inderdaad een mooi voordeel van gebruik van partities
Heb je het hier over menselijke fouten? Complexiteit, kun je dat toelichten? Ik ben helemaal voor lagere technische complexiteit, een van de redenen waarom ik 'tegen' Sandforce-technologie ben, maar partities is niet rocketscience, dat wordt enorm veel gebruikt en is gewoon prima geimplementeerd. De technische complexiteit daarvan weegt denk ik ruimschoots op tegen de voordelen. Voor de gebruiker is of hoeft het niet complexer te zijn, zeker niet wanneer je werkt met een product als ZFSguru waarin dit mijns inziens erg gemakkelijk is gemaakt. Geef een disk een naam en klik op de knop.

Je zegt dat bij Solaris-platform (ik gooi al die Solaris achtigen even op één hoop) met dezelfde argumentatie voor whole disks is gekozen. Maar het argument bij ZFSguru is nu juist dat de gebruiker zelf een handeling moet verrichten op een disk, voordat je iets met die disk kunt doen via de ZFSguru GUI. Uitzondering is als er al een pool op staat, dat kan ZFSguru prima gebruiken en importeren. Maar iets aanmaken op ZFSguru kan alleen als je als gebruiker een naam aan die disk geeft. Het argument hierbij is dus dat een disk vanuit een ander OS/platform dus niet zomaar te selecteren is voor het aanmaken van een pool. Als dat wel zo zou zijn, kun je hiermee heel gemakkelijk bestaande data vernietigen door het verkeerde vinkje te zetten wanneer je een pool aanmaakt.

ZFSguru wil dat een disk een naam heeft. Dus ook een disk met GPT partities zonder label, is niet zomaar te gebruiken voor het aanmaken van een nieuwe pool. Dit allemaal in lijn met de filosofie dat een gebruiker de disk eerst moet 'activeren' voor gebruik met ZFSguru en met het oog op voorkoming van user error.
Als je uitgaat van ZFS op Solaris en de doelgroep daarvan, en dan de initiele keuze moet maken om met hele disks of met partities of slices daarvan te werken, dan lijkt me de keuze van whole disks minder complexe disk-configuraties te geven. Ook replacement e.d. zijn minder complex als een disk niet eerst gelabeld moet worden. Het argument van fool-proof is daar waarschijnlijk minder van belang,omdat de doelgroep meer beheerders dan gebruikers zijn. En bij gebruik van een disk die al in een pool is opgenomen volgt sowieso wel een melding.
Solaris ondersteunt geen GPT-partities van type freebsd-zfs. Dit terwijl FreeBSD wel GPT partities van Linux en Solaris ondersteunt. Niet booten van GPT betekent volgens mij ook problemen met EFI-BIOS.
FYI: https://www.illumos.org/issues/934 , dus dat is ook al een tijdje gefixed.
Ondersteuning voor EFI (en GPT)om van te booten is idd nog wel een probleem, maar verder zijn er weinig problemen met (Open)Solaris en importeren van zpools. Andersom wel even opletten omdat FreeBSD nog niet overal v5000 ondersteunt >:)

Edit @Xudonax:
Ja, dat is precies wat ik bedoel met doelgroep. ZFS op Solaris gaat er niet van uit dat je die disk daarna in een windows-systeem gaat hangen :P

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Ik heb ZFSguru draaien en nu wil ik automatisch een push notificaties ontvangen wanneer er problemen zijn met mijn server (processor te warm, hd kapot enz. ).
Deze zou ik graag willen ontvangen op mijn android telefoon.

Misschien hebben jullie hier al ervaringen mee?
Is misschien Splunk in combinatie met Notify My Android een goed idee? Of zit er al standaard iets voor in ZFSguru?

Ik krijg al notificaties binnen op Notify My Android wanneer Sickbeard iets heeft gedownload en dat vind ik tot nu toe goed werken.

[ Voor 4% gewijzigd door ilovebrewski op 19-08-2013 12:29 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hoe werken Datasets qua free/used space ? De weergave in Windows is "vaag".

Ik had een eerste dataset aangemaak (dataset1) en er 3.0TB aan files opgeslaan van de 7.02 TB.
Daarna heb ik twee datasets bijgemaakt.

De weergave van de vrije ruimte is als volgt onder Windows 7:
SMB share 1 (dataset1): 3.91 TB free / 7.02 TB total
SMB share 2 (dataset3): 3.91 TB free / 3.95 TB total
SMB share 3 (dataset2): 3.91 TB free / 3.97 TB total

NAS4free --> Disks | ZFS | Pools | Management:
code:
1
2
Name    Size    Used    Free    Capacity
zpool   10.9T   3.22T   3.91T   44%


NAS4free --> Disks | ZFS | Datasets | Information:
code:
1
2
3
4
5
NAME             USED  AVAIL  REFER  MOUNTPOINT
zpool           3.22T  3.91T   336K  /mnt/zpool
zpool/dataset1  3.12T  3.91T  3.12T  /mnt/zpool/dataset1
zpool/dataset2  42.8G  3.91T  42.8G  /mnt/zpool/dataset2
zpool/dataset3  59.3G  3.91T  59.3G  /mnt/zpool/dataset3


Kan ik dit op een nette manier wegwerken dmv. quota bijvoorbeeld ?

[ Voor 16% gewijzigd door Phuncz op 18-08-2013 18:38 ]


Acties:
  • 0 Henk 'm!
Als je een quota zet kleiner dan de size die het nu is wel ja, maar anders blijf je denk ik met dezelfde waardes zitten. Het heeft volgens te maken met de hoeveelheid data die het dataset in kan nemen naast de andere datasets. Of je iets aan die waarde hebt, vraag ik mij ook wel eens af...

Even niets...


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

Even een vraagje over ZFSGuru.

Klopt het dat je zelf via putty een nfs mount moet aanmaken? Ik kreeg het via de web interface niet voor elkaar en ik vindt het ook niet duidelijk wat het mountpoint moet zijn die in ESXi moet aangeven.

Ik heb het nu opgelost (ik weet niet of dit de juiste oplossing is want ik een een windows man) met mount_nfs. Na een reboot blijft de mount bestaan en werkt het gelukkig :).

Ook moest ik mn iscsi service herstarten na het instellen voordat esxi hem zag.

Maar al met al doet alles het nu in mn 2e ml110 g7 (de eerste gebruik ik voor esxi). nu alleen nog fiber tussen de 2 machines..

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!
Je moet Share via NFS aanzetten en bij opties -maproot=0:0 als optie meegeven.

ESXi wil geforceerd als root je NFS share mounten, en by default mag dat niet in BSD.

Als je die optie gebruikt werkt ZFSguru prima icm ESXi.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

Aha... dat is een goede tip.

Maar mijn oplossing is slecht/niet goed? mount_nfs commando? of krijg ik later eventueel problemen?

en nog even een vraag over de mountpoint die ik in esxi moet ingeven. is dat dan hetzelfde als de sharename? dus bv /NFS/share ?

[ Voor 36% gewijzigd door Mezz0 op 19-08-2013 11:10 . Reden: taalvoud ]

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!
Ik snap niet zo goed waar je mount_nfs hebt gebruikt? Op de ZFSguru machine of op je ESXi host?

Even niets...


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

ik heb het op mn Zfsguru machine gebruikt om mn share te mounten

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!
:?

Waarom zou je dat willen?

Even niets...


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

Misschien vertel ik het fout.

Ik heb dus 2 machines. 1 x zfsguru en 1 x esxi. Nu wil ik mn esxi laten connecten met NFS van de zfsguru.
Toen ik de eerste keer dit probeerde moest ik een mountpoint en server invullen op de esxi om mee te connecten (dit werkte dus niet).
Hierna op internet gezocht hoe ik dit kan doen en daarmee veel FreeBSD oplossingen gevonden en 1 daarvan gaf aan dat ik mount_nfs moest uitvoeren op de zfsguru. Dit heb ik uitgevoerd en toen kon ik verbinding krijgen vanaf de esxi naar de nfs mount. Alleen was eigenlijk mn vraag of ik dit nu wel goed had gedaan

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!

  • MdBruin
  • Registratie: Maart 2011
  • Laatst online: 12-05-2024
Je zal eerst de NFS share moeten aanmaken op de zfsguru machine (kan via de webinterface) en daarna kan je deze op de ESXI via configuration -> storage -> add storage -> Network File System toevoegen

Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

@MdBruin: Dat snap ik en de share had ik via de webinterface ook aangemaakt maar daarna kon ik deze niet vinden via de esxi config. (via de manier die je aangeeft). Wat ik heb moeten doen is een mountpoint aanmaken met mount_nfs /NFS/share /media/nfs (geen flauw idee hoe maar het werkt)

Maar vanavond ga ik via de web interface trachten met -maproot=0:0

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Kort vraagje.. Ik draai nu al een jaar een productieserver met ZFS en 2 SSD's. Ik ben zeer tevreden over de performance van deze ESXi datastore.

Tijd om wat redundancy in te gaan bouwen! Ik heb thuis een fileserver staan met 7 WD 2002FYPS/WD 2003FYYS gekoppeld aan een veel te dure Adaptec RAID controller (erfenis van voordat ik met ZFS in aanraking kwam...).

Ik wil wat gaan uitbreiden en tegelijkertijd omschakelen naar ZFS. Ik wil graag gaan voor een RAID-Z pool, dus dat houdt in 9 disks. Kan ik desktop disks combineren met de huidige RE4 disks? Bijvoorbeeld met WD20EZRX disks?

Ik bespeur hier een zekere mate van onethische logica.


Acties:
  • 0 Henk 'm!

  • MdBruin
  • Registratie: Maart 2011
  • Laatst online: 12-05-2024
Apart, heb het net even geprobeerd, leverde bij mij geen problemen op.

Een nieuw file system aangemaakt op m'n pool
Deze geshared via NFS
Op de esxi volgens de stappen welke ik hierboven heb vermeld.

voorbeeldje

ZFSguru ip = 192.168.1.1
Poolnaam = Pool1
Shared folder = Test

Onder de ESXI add NFS storage geeft je dan in
Server 192.168.1.1
Folder /Pool1/Test/
Datastore Test

Voor de record
ESXI 5.1 free
ZFSguru 0.2.0-beta8

[ Voor 13% gewijzigd door MdBruin op 19-08-2013 16:37 . Reden: quote toegevoegd ]


Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 23-08 14:48
Goed, ik heb dus net iets stoms gedaan: omdat m'n FreeNAS GUI niet meer werkte dacht ik even te resetten naar Factory Settings. Hierdoor is de pool dus ook verdwenen blijkbaar. Oeps...

Ik heb wat rondgegoogled en ondertussen alles geprobeerd met auto-import en "zpool import". Zonder succes helaas. Auto-import kan geen pool vinden, en hetzelfde verhaal via de shell. "zpool import [naamvanpool]" geeft aan dat er bgeen pools met die naam bestaan. Ik heb ook geprobeerd via een andere FreeNAS installatie erbij te komen, maar ook die vindt niets.

Via Google wordt ik helaas niet veel wijzer.. Waarschijnlijk Google ik verkeerd, maar misschien kunnen jullie me helpen. Mijn Specs:

FreeNAS 8.3.1 met een pool bestaande uit 3 1TB disks in raidz config.

Toevoeging: Ik kan de disks WEL zien. Auto-import doet nog steeds niets, ook niet na nog een reset.

[ Voor 6% gewijzigd door TheMOD op 19-08-2013 17:32 ]


Acties:
  • 0 Henk 'm!

  • MdBruin
  • Registratie: Maart 2011
  • Laatst online: 12-05-2024
TheMOD schreef op maandag 19 augustus 2013 @ 17:06:

Via Google wordt ik helaas niet veel wijzer.. Waarschijnlijk Google ik verkeerd, maar misschien kunnen jullie me helpen. Mijn Specs:

FreeNAS 8.3.1 met een pool bestaande uit 3 1TB disks in raidz config.

Toevoeging: Ik kan de disks WEL zien. Auto-import doet nog steeds niets, ook niet na nog een reset.
Op het freenas forum las ik dat je het ook via de console kunt doen.
Hiervoor gebruik je het volgende commando

zpool import

Heb met freenas i.c.m. zfs geen ervaring aangezien ik hiervoor ZFSguru gebruik ;)

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
MdBruin schreef op maandag 19 augustus 2013 @ 18:07:
[...]


Op het freenas forum las ik dat je het ook via de console kunt doen.
Hiervoor gebruik je het volgende commando

zpool import

Heb met freenas i.c.m. zfs geen ervaring aangezien ik hiervoor ZFSguru gebruik ;)
Als de zpool niet netjes ge-exporteerd is, zul je waarschijnlijk "zpool import -f <naam>" moeten gebruiken.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
Dat gaat volgens mij niet helpen want hij vindt de pool gewoon al niet met "zpool import". Normaal zou de output van zo een commando moeten zijn

# zpool import
 pool: tank
    id: 11809215114195894163
 state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:

        tank        ONLINE
          mirror-0  ONLINE
            c1t0d0  ONLINE
            c1t1d0  ONLINE


Als die niks vindt dan begin ik een beetje te vrezen voor je data :s .

Die -f is alleen als je 'm effectief WIL importeren en hij is niet exportable gemarkeerd door het vorige systeem.

Acties:
  • 0 Henk 'm!

  • TheNephilim
  • Registratie: September 2005
  • Laatst online: 09-10 15:13

TheNephilim

Wtfuzzle

HyperBart schreef op maandag 19 augustus 2013 @ 19:34:
Die -f is alleen als je 'm effectief WIL importeren en hij is niet exportable gemarkeerd door het vorige systeem.
Dat is volgens mij het geval als ik z'n bericht zo lees.

Acties:
  • 0 Henk 'm!
TheMOD schreef op maandag 19 augustus 2013 @ 17:06:
Auto-import kan geen pool vinden, en hetzelfde verhaal via de shell. "zpool import [naamvanpool]" geeft aan dat er bgeen pools met die naam bestaan. Ik heb ook geprobeerd via een andere FreeNAS installatie erbij te komen, maar ook die vindt niets.
@TheMOD: doe eens

zpool import


En post de output hier eens. Je zet ook een "\" voor de naam van je pool, dat is al fout ;) . Dat zag ik nu ook pas.

Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 23-08 14:48
Thx for the answers guys! Helaas nog niet veel verder. De output van "zpool import" is nada, niets. Die \ ervoor is een typfout. Ik heb hetzelfde probleem ook op de FreeNAS forums geplaatst, daar geleerd dat RDM en FreeNAS een combination born to fail is. :( Weer wat geleerd... Maar ik wil nog steeds graag m'n data terug.

Ondertussen heb ik het met 9.1 geprobeerd, zonder succes. Ik probeer nu FreeNAS naast ESXi te installeren om te kijken of ik zo de RDM kan omzeilen en FreeNAS de schijven te laten herkennen.

http://forums.freenas.org...port-does-not-help.14435/

Acties:
  • 0 Henk 'm!
Heb je je disk config gesynced? Want anders ziet FreeNAS die schijven nog niet volgens mij.
Je moet denk ik nog even een force sync doen in de webinterface.

Even niets...


Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 23-08 14:48
FireDrunk schreef op maandag 19 augustus 2013 @ 19:49:
Heb je je disk config gesynced? Want anders ziet FreeNAS die schijven nog niet volgens mij.
Je moet denk ik nog even een force sync doen in de webinterface.
FireDrunk, wat bedoel je precies?

Ik heb net geprobeerd met een baremetal installatie naast ESXi, en met 9.1 i.p.v. 8.3.1. Geen succes. Ik hoop dat iemand van jullie nog wat weet, want ik begin nu wel erg te vrezen voor m'n data...

EDIT: Ik zie nu pas dat gpart alleen ada1 en da0 herkent. wat respectievelijk een random hdd en de usb met de installatie zijn. Kan dat zijn waarom FreeNAS ze niet oppikt?
EDIT2: Met geen mogelijkheid krijg ik zfs zo ver dat hij de betreffende disks herkend als zfs zijnde. Is dit the forceren op een of andere manier?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
Geom name: ada0 Providers: 1.
Name: ada0 Mediasize: 1000204886016 (931G)
Sectorsize: 512
Mode: r0w0e0
fwsectors: 63
fwheads: 16

Geom name: ada1
Providers: 1.
Name: ada1
Mediasize: 1000204886016 (931G)
Sectorsize: 512
Mode: r0w0e0
fwsectors: 63
fwheads: 16

Geom name: ada2
Providers: 1.
Name: ada2
Mediasize: 1000204886016 (931G)
Sectorsize: 512
Mode: r0w0e0
fwsectors: 63
fwheads: 16

Geom name: ada3
Providers: 1.
Name: ada3
Mediasize: 1000204886016 (931G)
Sectorsize: 512
Mode: r0w0e0
fwsectors: 63
fwheads: 16


code:
1
2
3
4
5
6
7
8
[root@freenas ~]# gpart status
Name Status Components
ada1s1 OK ada1
da0s1 OK da0
da0s2 OK da0
da0s3 OK da0
da0s4 OK da0
da0s1a OK da0s1


code:
1
2
3
4
5
6
7
[root@freenas ~]# camcontrol devlist
<SAMSUNG HD103SI 1AG01118> at scbus2 target 0 lun 0 (pass0,ada0)
<SAMSUNG HD103SJ 1AJ10001> at scbus3 target 0 lun 0 (pass1,ada1)
<SAMSUNG HD103SI 1AG01113> at scbus4 target 0 lun 0 (pass2,ada2)
<SAMSUNG HD103SI 1AG01113> at scbus5 target 0 lun 0 (pass3,ada3)
<JetFlash Transcend 4GB 8.07> at scbus6 target 0 lun 0 (pass4,da0)
[root@freenas ~]#

[ Voor 10% gewijzigd door TheMOD op 19-08-2013 21:12 ]


Acties:
  • 0 Henk 'm!

  • MdBruin
  • Registratie: Maart 2011
  • Laatst online: 12-05-2024
Aangezien je zo te lezen het op een esxi server draait zou je nog het volgende kunnen proberen.
Download eens de iso van ZFSguru en laat deze eens opstarten in je freenas vm.
Als de cd is opgestart kan je naar het opgegeven IP-adres gaan en daar eens proberen of ZFSguru de pool wil herkennen (tijdens de installatie kan er naar bestaande pools gezocht worden).
Mogelijk dat ZFSguru je pool herkent en wil mounten, dan kan je deze vervolgens via de interface weer netjes unmounten en dan kijken of je eigen freenas deze weer wil herkennen.

Acties:
  • 0 Henk 'm!
In de FreeNAS interface kan je bij disk management op de knop Clear config and read Config from disks drukken ergens.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 26-09 16:04

Mezz0

ESXi-ZFS-NAS

FireDrunk en MdBruin bedankt!. de optie -maproot=0:0 en het koppelen werkt op mn esxi. Maar stond dit ergens in een handleiding van ZFSguru? want ik hoor het nu voor het eerst.

Maar het werkt! :)

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!
Is meer een BSD issue, minder van ZFSguru, maar inderdaad, het zou een vinkje kunnen zijn (Make compatible with ESXi)

Even niets...


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Misschien een beetje een noob vraagje, maar ik zit ook te klooien met zfs. Ik had al een Pool met allemaal losse schijven. 4x 1TB en 1x 2TB, allemaal als single disk stripe vdev in 1 pool (ja dus zonder redundantie).

Nu wil ik dat anders gaan doen. Ik heb wat extra schijven.
Ik zat te denken aan 4x 1TB in raidZ1 en 5x2TB in raidZ1 en die samen nemen om 1 11TB opslag te krijgen.

Bij pools (ik draai nas4free overigens) heb ik al 2 de vdevs aangemaakt. Bij pools/management kan ik wel 2 afzonderlijke pools maken, maar als ik ze samen in 1 pool wil zetten (al dan niet met vdev add) krijg ik een error
"mismatched replication level: pool uses 4-way raidz and new vdev uses 5-way raidz"

Nu lees ik hier en daar wat over het forcen van deze actie (-f), maar ik weet niet of dat verstandig is.

Mijn wens ik eigenlijk heel simpel. Die 2 raidz1 vdevs krijgen als 1 opslaglocatie.
moet ik dan gewoon die vdev add forceren (met -f) of toch op een andere manier?

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ik weet niet hoe dit in NAS4Free gaat maar ik heb hetzelfde gedaan in FreeNAS. Daarbij heb ik eerst een pool aangemaakt met een vdev van 5x1TB RAIDZ1 en deze vervolgens uitgebreid met een vdev van 4x1.5TB RAIDZ1, dat werkte prima.
Neem aan dat het uitbreiden op deze manier ook met NAS4Free moet kunnen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
ik kan ook kiezen voor "vdev add" zodra ik een pool aanmaak met 1 vdev. Al ik dan de andere vdev kies krijg ik deze melding:

vdev add...
invalid vdev specification
use '-f' to override the following errors:
mismatched replication level: pool uses 4-way raidz and new vdev uses 5-way raidz

is het verstandig om dit te forceren? of kan het beter op een andere manier

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
De reden dat je die waarschuwing krijgt is dat je in feite de redundancy van je hele pool vermindert. Door een RAIDZ2 en RAIDZ1 in 1 pool te gooien kan de pool in het slechtste geval slechts de uitval van 1 schijf opvangen. Daarom zul je in de meeste gevallen je RAIDZ2 pool met een RAIDZ2 vdev willen uitbreiden.

[edit]
Ohnee het is allebei RAIDZ1. Dan snap ik het niet :) Enige probleem is dan misschien dat je verschillende stripe sites krijgt?

[ Voor 17% gewijzigd door Bigs op 21-08-2013 11:17 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Hij wilt RAIDZ1 uitbreiden met RAIDZ1, dus dat valt mee. Ja je verminderd de redundantie want het uitvallen van vdev1 zorgt er voor dat de data op vdev2 ook waardeloos wordt, maar deze error zou je opzich niet moeten krijgen wanneer je wilt uitbreiden.
Het lijkt erop alsof je deze vdev als mirror van die eerste aanmaakt en hij daarom een error geeft. Of is NAS4Free gewoon waziger dan FreeNAS in deze?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Oh wacht, misschien weet ik het al.

De Z1 van de 2TB schijven heeft advanced format aanstaan.
Misschien dat hij dat niet leuk vind

edit:

nee dat is het niet. ook zonder advanced format doet hij het niet.
Hij vraagt dus echt toestemming voor het verschil in aantal schijven

[ Voor 35% gewijzigd door timberleek op 21-08-2013 11:31 ]


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Bigs schreef op woensdag 21 augustus 2013 @ 11:12:
De reden dat je die waarschuwing krijgt is dat je in feite de redundancy van je hele pool vermindert. Door een RAIDZ2 en RAIDZ1 in 1 pool te gooien kan de pool in het slechtste geval slechts de uitval van 1 schijf opvangen. Daarom zul je in de meeste gevallen je RAIDZ2 pool met een RAIDZ2 vdev willen uitbreiden.
Het is niet zo dat als je een vdev Z1 raid toevoegd aan een pool met een Z2 vdev dat je dan op de pool maar 1 schijf kan missen.
De redundantie Z1,2 of 3 is per vdev en niet pool breed.
Je kan dus nog steeds twee schijven missen uit de Z2 vdev in de pool.

Het is wel zo dat je de vdev's beter hetzelfde kunt houden inderdaad.

Maar het toevoegen van verschillende vdev's met verschillende raid levels is gewoon mogelijk, en per vdev kun je het aantal disks missen welke de raid versie toestaat. Of het allemaal verstandig is is een andere vraag maar het kan wel.

@timberleek
http://docs.oracle.com/cd...817-2271/gazgc/index.html

Het is een waarschuwing voor een niet aan te raden configuratie, niks meer niks minder.
Maar als zpool deze waarschuwing geeft is het aan jou om te bepalen of je ermee kunt leven of niet.
Houd er wel rekening mee dat deze waarschuwingen niet voor niets opgenomen zijn in de code.


gr
Johan

[ Voor 41% gewijzigd door syl765 op 21-08-2013 11:44 ]


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Er is geen verschil in raid level. het is allebei raidz1, alleen een met 4 (1TB) disks en een met 5 (2TB) disks

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
timberleek schreef op woensdag 21 augustus 2013 @ 11:27:
Oh wacht, misschien weet ik het al.

De Z1 van de 2TB schijven heeft advanced format aanstaan.
Misschien dat hij dat niet leuk vind

edit:

nee dat is het niet. ook zonder advanced format doet hij het niet.
Hij vraagt dus echt toestemming voor het verschil in aantal schijven
Doe je wel een zpool add, en niet perongeluk een zpool attach ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
http://docs.oracle.com/cd...817-2271/gazgc/index.html

Het is een waarschuwing voor een niet aan te raden configuratie, niks meer niks minder.
Maar als zpool deze waarschuwing geeft is het aan jou om te bepalen of je ermee kunt leven of niet.
Houd er wel rekening mee dat deze waarschuwingen niet voor niets opgenomen zijn in de code.

Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Nee ik doe echt add, vdev add om precies te zijn. vdev attach bestaat niet in die lijst, alleen "gewoon" attach.

de oracle link zegt:
While this configuration is allowed, mismatched levels of redundancy result in unused space on the larger device

hoezo ongebruikte ruimte? vult hij de 2TB schijven dan tot hetzelfde niveau als de 1TB schijven ofzo?

Hoe moet je dit dan doen?
Ik wil gewoon een grote storage pool overhouden

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Even goed lezen.
The command also warns you about creating a mirrored or RAID-Z pool using devices of different sizes. While this configuration is allowed, mismatched levels of redundancy result in unused space on the larger device, and requires the -f option to override the warning.
Dit is als je schijven in een vdev gebruikt welke niet van gelijke grote zijn.
Dit is in jou geval niet aan de orde. Als je een vdev maakt van 4 x 1 TB schijven en 1 x een 2 TB schijf, ook dan krijg je deze melding.
En waarschijnlijk gebruikt zpool en zeker in een mirrored configuratie 1 TB van de 2 TB schijf dan niet.

In jou geval geeft zpool alleen een waarschuwing dat je een vdev hebt van 4 schijven en dat je er een vdev van 5 schijven bij wilt plaatsen.
zpool geeft deze waarschuwing omdat deze configuratie niet optimaal is.
Maar aangezien zfs erg flexibel is kan je het gewoon doen door de -f mee te geven en de waarschuwing te negeren.
Ik weet niet of je nog een sata poort vrij hebt, maar je zou van die eerste vdev ook een 5 disk Z1 vdev kunnen maken door een extra 1TB disk erbij te doen. (WAARSCHUWING!!! mocht je dit willen zul je de pool moeten destroyen en de vdev opnieuw moeten aan maken.)

gr
johan

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het ligt misschien aan mij maar kan je niet gewoon een 2de pool aanmaken ?

Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Ja dat kan, maar dan heb ik in samba enzo weer 2 directories. ik wil 1 grote directory krijgen

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Zekers, dat kan.
Maar dan heb je twee pools, die elk een eigen mountpoint hebben.
Het mooiste is 1 grote pool van al je disks.

gr
Johan

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als het dan zo zeer in 1 pool moet, kan je toch ook met partitionering werken:
vdev 1: RAIDZ1 van 4x 1TB partities op 1TB schijven
vdev 2: RAIDZ1 van 5x 1TB partities op 2TB schijven (1ste partitie)
vdev 3: RAIDZ1 van 5x 1TB partities op 2TB schijven (2de partitie)

Dan heb je je 11TB toch of zit ik hier fout ?

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Zou inderdaad moeten werken, echter hou je dezelfde melding!.. en het is een beetje vies.

De melding komt doordat er een vdev bestaande uit 4 schijven en een vdev bestaande uit 5 schijven word gebruikt.
Het is niet de grote van de schijf waar zpool over struikelt, het is het aantal devices binnen de vdev.

gr
Johan

[ Voor 6% gewijzigd door syl765 op 21-08-2013 13:38 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar als je twee (of drie) vdevs aanmaakt met allemaal RAIDZ1 of Z2, heb je toch helemaal geen last van de verschillende RAID-levels ? Want je maakt geen nieuwe RAID van de twee of drie vdevs. Je maakt dan (zover ik weet) een JBOD structuur van RAIDZ1- of Z2-vdevs.

[ Voor 14% gewijzigd door Phuncz op 21-08-2013 13:50 ]


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
klopt, dat is ook de bedoeling.

Hij valt ook niet over het raid niveau, maar over het feit dat de ene vdev 4 disks heeft en de andere 5

Acties:
  • 0 Henk 'm!
Dat maakt wel uit, maar niet zo heel veel hoor... Sequentieel doen ze toch wel genoeg, en ik ga er niet van uit dat hij er complete virtualisatie farms op gaat draaien...

Even niets...


Acties:
  • 0 Henk 'm!

  • timberleek
  • Registratie: Juli 2009
  • Laatst online: 08-09 22:13
Nee het gaat om een NAS. Puur films, series en muziek beschikbaar stellen voor huisgenoten en mijzelf (al dan niet via vpn).

Voor vitualisatie heb ik 2 andere esxi servers

Acties:
  • 0 Henk 'm!
Dan maakt 2 vdevs geen kont uit.

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
Hoe kan je een zfsguru bootable usb disk maken op en voor een fysieke bak? Vroeger bij mn esx was het gewoon mounten maar blijkbaar wil zfs niet booten van mn usb-stick.

Kan ook zijn omdat ik heel de avond wat hardware probleempjes heb zitten troubleshooten :z

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Het maakt over het algemeen niet uit hoeveel vdevs een pool heeft.
Wat van belang is, is meer het feit of de vdevs dezelfde samenstelling hebben.
Dan presteerd een pool op zijn best.

Ga je mirrored, raidz1,2en3 mixen dan komt dat de performance niet ten goede.
Als je vdevs configureerd met verschillende hoeveelheid schijven, dan kan dat de performance ook negatief beinvloeden.

Het kan allemaal wel, maar verstandig is anders in een productie opstelling.
Maar voor thuis muziek en films delen als nas dan zal dat niet heel erg zijn.

Gr
Johan

[ Voor 7% gewijzigd door syl765 op 21-08-2013 22:05 ]


Acties:
  • 0 Henk 'm!
Rooke schreef op woensdag 21 augustus 2013 @ 21:30:
Hoe kan je een zfsguru bootable usb disk maken op en voor een fysieke bak? Vroeger bij mn esx was het gewoon mounten maar blijkbaar wil zfs niet booten van mn usb-stick.

Kan ook zijn omdat ik heel de avond wat hardware probleempjes heb zitten troubleshooten :z
ZFSguru cd booten, USB stick er in, pool maken op USB stick, ZFSguru installeren op pool.
Als je hem daarna wil gebruiken boot je van die USB stick, maak je een nieuwe pool op de disk(s) die je wil gebruiken, kiest opnieuw setup, en past daarna in het speciale boot menu, de pool aan waar default van opgestart word (bootfs parameter).

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
Jammer dat het nog steeds zo moet :) Moet dus ook nog ergens mn optische drive opsnorren maar dan installeer ik zfsguru wel gelijk op de ssd.

Any job you can do in your pajamas is not the hardest job in the world.


  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Kan je dat met YUMI niet maken?
http://www.pendrivelinux.com/yumi-multiboot-usb-creator/
Kan met de meeste bootable iso's wel overweg.
Volgens mij werkt dat niet, want de ZFSguru LiveCD verwacht een /dev/cdrom device volgens mij om vanaf te lezen.

Even niets...


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
Dergelijk tooltje had ik al gebruikt maar geen succes :)

Any job you can do in your pajamas is not the hardest job in the world.


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Rooke schreef op donderdag 22 augustus 2013 @ 13:02:
Jammer dat het nog steeds zo moet :)
Hmm vreemd. Heb het zo gedaan:
0. twee USB-sticks zoeken, minimaal 512MB, gebruik de snellere (lezen) stick als #2
1. NAS4Free-x64-LiveUSB-9.1.0.1.847.img downloaden
2. met Win32imager bovenstaande image op USB-stick 1 zetten (512MB stick is genoeg)
3. USB-stick 1 & 2 in de PC steken en opstarten van USB-stick 1
4. install --> Embedded Installation kies USB stick 2

Dit vond ik ook handig: pricewatch: Startech 2 Port USB Motherboard Header Adapter

[ Voor 11% gewijzigd door Phuncz op 22-08-2013 13:48 ]


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
dat is een img, das anders :)

Any job you can do in your pajamas is not the hardest job in the world.


Verwijderd

Topicstarter
Rooke schreef op donderdag 22 augustus 2013 @ 13:02:Moet dus ook nog ergens mn optische drive opsnorren maar dan installeer ik zfsguru wel gelijk op de ssd.
Leuke tip om gelijk van alle cd's af te zijn: een externe behuizing die .iso bestanden als cdrom/dvdrom kan aanbieden via USB. Hoef je nooit meer cdtjes te branden.

Ik heb dus zo'n pricewatch: Zalman VE300 Black Virtual Drive en dat werkt prima! Je kunt het zowel als hardeschijf als CD/DVD gebruiken, je hebt gewoon een _iso mapje waar de .iso bestanden in staan. Superhandig!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ah sorry, zie nu pas dat je ZFSguru zei, ik las NAS4free... 8)7

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk eerder concentratiegebrek :)

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 07:01
Verwijderd schreef op donderdag 22 augustus 2013 @ 13:59:
[...]

Ik heb dus zo'n pricewatch: Zalman VE300 Black Virtual Drive en dat werkt prima! Je kunt het zowel als hardeschijf als CD/DVD gebruiken, je hebt gewoon een _iso mapje waar de .iso bestanden in staan. Superhandig!
Dat apparaat gebruik ik ook al een tijdje, werkt inderdaad perfect. Is ook nog eens usb3.0, dus een iso'tje staat er zo op.
Pas wel op met windows installaties, hij zet nog wel eens een partitie op 'hidden'. Erg leuk..
Gewoon even instellen dat ie tijdelijk alleen als ODD gebruikt kan worden.

Voor de hyper-v gebruikers onder ons: hij kan ook vhd's mounten.

Verwijderd

Nexenta et.al hebben zeer zeker wel "AD" integratie. Dus dat plaatje is niet correct, zie smbadm(1M). Verder "exporteren", er wordt gebruik gemaakt van features flags dus ik begrijp niet zo goed wat dat GTP gedoe er mee te maken heeft, zou je dat kunnen uitleggen? En je kunt KVM op nexenta draaien maar dat is alleen iets dat intern nog wordt gebruikt - maar niets houdt je tegen.

Default heeft ondersteunt het async_destroy, empty_bpobj en iets wat nog niet als put in illumos zit special vdevs en vdevs props:

vdev-get <property | all> <pool><vdev name | GUID>
vdev-set <property=value> <pool><vdev name | GUID>
cos-alloc <pool> <cos name | ID>
cos-free <pool> <cos name | ID>
cos-list <pool>
cos-get <property | all> <pool><cos name | ID>
cos-set <property=value> <pool><cos name | ID>

Verwijderd

Trouwens, zijn er nog mensen die interrupt problemen tegenkomen? Een tijdje terug had ik met FreeNAS het probleem dat ik ondanks het aanpassen van /boot/loader.conf met de welbekende msi en msix settings alsnog interrupt storms kreeg. Nu ik wegens een overleden HDD N4F opnieuw moet installeren, heeft deze hier ook last van. Hardwarematig is er niets veranderd, en het enige verschil is een upgrade van N4F9.1.0.1.xxx (iets van 500, 600 of 700) naar N4F9.1.0.1.847

Acties:
  • 0 Henk 'm!
mkroes schreef op donderdag 22 augustus 2013 @ 18:48:
[...]
Voor de hyper-v gebruikers onder ons: hij kan ook vhd's mounten.
DAT is cool en wist ik nog niet :o

Acties:
  • 0 Henk 'm!

  • Farmie
  • Registratie: December 2007
  • Laatst online: 12-10 11:25
Ik heb enkele vraagjes/problemen/tips ivm ZFSGuru.

- Momenteel is het zo dat als ik mijn systeem opstart dat ik niet automatisch kan verbinden via de Netbios naam (standaard ZFSGURU ?), dus enkel via het ingesteld IP adres. Enkel wanneer ik de Samba service stop en herstart (in de webgui) kan ik ondmiddellijk wel verbinden via //zfsguru naar mijn shares.
Iemand hetzelfde probleem? Ik heb niets veranderd in de samba config.

- Zijn er mogelijkheden (al dan niet in de Zfsguru webgui) om een scriptje uit te voeren? Zo heb ik een scriptje dat bestanden van de ene HD naar de andere HD moved (op basis van bestandsnaam naar de juiste map) en de rechten goed zet. Nu moet ik dit in CLI uitvoeren, maar het zou handig zijn moest dit in de gui van ZFSGuru kunnen of in een andere soort webgui. Ik ken Webmin, maar dat is iets te uitgebreid om zo'n simpele dingen uit te voeren.

Acties:
  • 0 Henk 'm!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 07:01
HyperBart schreef op vrijdag 23 augustus 2013 @ 10:04:
[...]

DAT is cool en wist ik nog niet :o
Is zeker grappig, je kan er zelfs van booten. even een distro op vhd installeren en je hebt het altijd bij de hand.

Acties:
  • 0 Henk 'm!

  • MdBruin
  • Registratie: Maart 2011
  • Laatst online: 12-05-2024
Farmie schreef op vrijdag 23 augustus 2013 @ 10:14:
Ik heb enkele vraagjes/problemen/tips ivm ZFSGuru.
.....

- Zijn er mogelijkheden (al dan niet in de Zfsguru webgui) om een scriptje uit te voeren? Zo heb ik een scriptje dat bestanden van de ene HD naar de andere HD moved (op basis van bestandsnaam naar de juiste map) en de rechten goed zet. Nu moet ik dit in CLI uitvoeren, maar het zou handig zijn moest dit in de gui van ZFSGuru kunnen of in een andere soort webgui. Ik ken Webmin, maar dat is iets te uitgebreid om zo'n simpele dingen uit te voeren.
Met je eerste vraag kan ik je niet helpen, geen idee wat dat veroorzaakt aangezien ik zelf altijd het ip-adres gebruik.
Misschien even handig als je vermeld welke versie je van ZFSguru draaid.

Je tweede vraag is relatief makelijk te beantwoorden.
Linux/FreeBSD maken gebruik van crontab om taken automatisch te laten afhandelen.
Je kan hierin een script laten uitvoeren op een door jou gekozen tijd.

Dit kan je doen door in de shell te gaan van je ZFSguru machine.
Standaard staat ee als text editor geïnstalleerd.

Bijv.
mkdir /usr/local/scripts --> maakt een directory scripts aan in /usr/local (vind het persoonlijk makkelijk om alle scripts ergens centraal op een linux/FreeBSD machine op te slaan, scheeld zoeken als je iets wilt aanpassen)
cd /usr/local/scripts
ee backup.sh

voer hier je commando's in welke je automatisch wilt laten uitvoeren bijv
cp /pool1/datastore/filetobackup /pool2/backup/backupnaam
druk op esc als je al je commando's hebt ingevuld en kiest voor leave editor en daarna voor save changes
om het script te kunnen laten uitvoeren moet je deze eerst de rechten hiervoor geven dat doe je met
chmod +x backup.sh

daarna kan je het script toevoegen aan crontab om deze automatisch te laten uitvoeren
ee /etc/crontab

voeg aan het einde een regel toe om het script te laten uitvoeren bijv.
0 0 * * * root /usr/local/scripts/backup.sh

Op deze manier zal het script elke dag om 0:00 automatisch worden uitgevoerd.

nadat je ook deze hebt opgeslagen zal je crontab opnieuw moeten starten zodat je nieuw taak ook wordt meegenomen, dit doe je met het volgende commando

/etc/rc.d/cron restart

Hier is een uitgebreidere uitleg te vinden m.b.t. crontab en de tijdfunctie
http://caleudum.com/change-and-restart-crontab-on-freebsd/

Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Na een systeem update gisteren een probleempje tegen gekomen met ZFS-on-Linux, ZFS mount zijn filesystems niet meer automatisch. Even een zfs mount -a doen en alles is weer goed, dus mountpoint en andere configuraties lijken goed te staan. Even door dit topic gezocht, maar het enige wat ik kon vinden was even zfs-mount opnieuw toevoegen aan update-rc.d, maar dat heeft geen beterschap gebracht. Iemand nog ideeën? Indien niet pas ik er een mouw aan, maar het zou wel zo leuk zijn als het terug werkt zoals het hoort ;)

Acties:
  • 0 Henk 'm!

  • magistus
  • Registratie: December 2001
  • Laatst online: 28-09 11:57
/etc/default/zfs bekeken?

[ Voor 19% gewijzigd door magistus op 23-08-2013 14:27 . Reden: cruft weg ]


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Probleem is opgelost, hij was naar 'no' veranderd :|

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
Ik probeer vanuit zfsguru een samba share te mounten waar mn autoTVprocess.cfg staat maar loop tegen de volgende error aan:

command: mount_smbfs -I 10.2.50.116 //rooke@fdmbuntu01/sickbeard /mnt
output:

[ssh@zfsguru ~]$ mount_smbfs -I 10.2.50.116 //rooke@fdmbuntu01/sickbeard /mnt
Warning: no cfg file(s) found.
mount_smbfs: can not setup kernel iconv table (ISO8859-1:tolower): syserr = Operation not permitted

Met sudo lijkt ie wel iets uit te voeren maar mounten doet die niet. Las net al op een ander forum dat ik in de loader.conf moet rommelen maar daar ben ik niet echt comfortabel mee :P


of waarom ik de autoTVprocess.cfg.sample niet kan renamen naar autoTVprocess.cfg in zfsguru :+

[ Voor 6% gewijzigd door FDMK op 23-08-2013 18:24 ]

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!
gebruik geen sudo
maar su.

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
oh Scheelt inderdaad :) maar mount vervolgens niet, althans komt niet in /mnt te staan

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!
maak eens een directory aan in /mnt en mount hem daar op

mkdir /mnt/samba_mount
mount -t cifs -l 10.2.50.116 //rooke@fdmbuntu01/sickbeard /mnt/samba_mount

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
root@zfsguru /home/ssh]# mkdir /mnt/samba_mount
mkdir: /mnt/samba_mount: RPC struct is bad

Verd*mme, mn kennis qua nix/bsd rijkt niet verder dan directories en files kopieren, verwijderen, renamen en wat rechten spul. :/

[ Voor 35% gewijzigd door FDMK op 23-08-2013 19:08 ]

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!
ah, er zit al iets op /mnt wat ofwel stoek is, ofwel al gemount is.
ff rebooten, en een directory aanmaken.

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 12-10 16:40
FireDrunk schreef op vrijdag 23 augustus 2013 @ 19:12:
ah, er zit al iets op /mnt wat ofwel stoek is, ofwel al gemount is.
ff rebooten, en een directory aanmaken.
Rebooten hielp voor de mkdir.

[root@zfsguru /home/ssh]# mount -t cifs -l 10.2.50.116 //rooke@fdmbuntu01/sickbeard /mnt/samba_mount
usage: mount [-adflpruvw] [-F fstab] [-o options] [-t ufs | external_type]
mount [-dfpruvw] special | node
mount [-dfpruvw] [-o options] [-t ufs | external_type] special node


Zoals jij zegt is ook de manier hoe ik het had gevonden en zou sense maken volgens de uitleg maar...

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 02-10 16:04
	NAME                STATE     READ WRITE CKSUM
	megatron            ONLINE       0     0     0
	  raidz2-0          ONLINE       0     0     0
	    label/W1F1YSQY  ONLINE       0     0     0
	    label/W1F237XS  ONLINE       0     0     0
	    label/W1F21FWW  ONLINE       0     0     0
	    label/W1F237ZJ  ONLINE       0     0     0
	    label/W1F234YT  ONLINE       0     0     0
	    label/W1F1V3PK  ONLINE       0     0     0
	  raidz2-1          ONLINE       0     0     0
	    label/Z1F10M6E  ONLINE       0     0     0
	    label/Z1F0Z9DJ  ONLINE       0     0     0
	    label/Z1F0YA0W  ONLINE       0     0     0
	    label/Z1F10L3K  ONLINE       0     0     0
	    label/Z1F0ZSA3  ONLINE       0     0     0
	    label/Z1F0Y0HB  ONLINE       0     0     0

ZFSguru 0.2.0-beta8 (9.1-006) pool benchmark
Pool            : megatron (32.5T, 0% full)
Test size       : 64 GiB
normal read	: 600 MB/s
normal write	: 943 MB/s
lzjb read	: 5 GB/s
lzjb write	: 2 GB/s
gzip read	: 5 GB/s
gzip write	: 2 GB/s
I/O bandwidth	: 31 GB/s

Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 02-10 16:04
Rooke schreef op vrijdag 23 augustus 2013 @ 22:30:
Zoals jij zegt is ook de manier hoe ik het had gevonden en zou sense maken volgens de uitleg maar...
Volgens mij moet je toch echt mount_smbfs gebruiken.

Acties:
  • 0 Henk 'm!
mount -t smb wijst naar mount_smbfs
mount -t cifs wijst naar mount_cifs

Zo werkt mount. Ik kan het hier niet voor je testen, ik heb geen ZFSguru, en mijn Vanilla FreeBSD heeft geen SMB client :+




On another note: Dat vervloekte kut freebsd 8-)

root@NAS:/usr/local/etc/rc.d # ls -lah zfs*
-rwxrwxrwx  1 root  wheel   711B Aug 24 10:20 zfsiostat
root@NAS:/usr/local/etc/rc.d # ./zfsiostat
./zfsiostat: Command not found.
root@NAS:/usr/local/etc/rc.d #


Ik dacht dat Microsoft goed was met nutteloze foutmeldingen, maar momenteel staat BSD toch *ECHT* met *STIP* bovenaan...

Kut OS...

[ Voor 51% gewijzigd door FireDrunk op 24-08-2013 12:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Vanilla FreeBSD heeft gewoon mount_smbfs hoor. ;)

Ik zelf gebruik altijd een regel in /etc/fstab om smbfs te mounten, maar handmatig moet het ook gewoon kunnen.

@revox862: dat lijken mij prima scores?

@FireDrunk: als dat een script is, check of je dashbang wel goed staat. #!/bin/sh maar je gebruikt wellicht wat anders. Slechte foutmeldingen kun je op alle OS vinden.

[ Voor 30% gewijzigd door Verwijderd op 24-08-2013 12:28 ]


Acties:
  • 0 Henk 'm!
root@NAS:~ # mount_
mount_cd9660  mount_fusefs  mount_mfs     mount_msdosfs mount_nfs     mount_nullfs  mount_oldnfs  mount_udf     mount_unionfs

Nee hoor... (dit is FreeBSD 10.0)

Ja is een rc.d script, en er staat gewoon #!/bin/sh bovenin.

[ Voor 5% gewijzigd door FireDrunk op 24-08-2013 12:54 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Probeer het script eens aan te roepen met:
/bin/sh zfsiostat

Stuur me anders eens de inhoud ervan via een DM bericht, dan kan ik het hier op FreeBSD 9.1 proberen. Omdat je FreeBSD-CURRENT gebruikt verklaart dat misschien ook dat jij geen mount_smbfs hebt.

Acties:
  • 0 Henk 'm!
Je hebt een DM, (sh [filename] werkte en gaf een aantal foutmeldingen).

Waarom het met sh wel werkt en met ./ niet is mij een raadsel, maar goed... Het is BSD, er is wel meer dat ik niet begrijp... 8-)

Even niets...


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Ik dacht dat Microsoft goed was met nutteloze foutmeldingen, maar momenteel staat BSD toch *ECHT* met *STIP* bovenaan...

Kut OS...
Nou Microsoft mag echt niet klagen hoor!!! over een naar OS gesproken.!!
http://doub.home.xs4all.nl/help.JPG

En dan in de event viewer!
Bij iedere foutmelding een link plaatsen
More Information: Event Log Online Help....
En als je daar op klikt. krijg je altijd hetvolgende
Details
Id: 1101
Bron: .NET Runtime Optimization Service

Helaas
Er is momenteel geen extra informatie beschikbaar over dit probleem in de berichten van het fouten- en gebeurtenislogboek of in de Knowledge Base-database. U kunt de koppelingen in het ondersteuningsgedeelte gebruiken om te zoeken of er ergens anders meer informatie beschikbaar is.


--------------------------------------------------------------------------------


Bedankt voor het zoeken naar informatie over dit bericht. Hiermee helpt u ons vast te stellen op welke punten meer informatie nodig is.
Dus gewoon weer googlelen op het id nummer en je komt op de goede pagina.!

Ik vind FreeBSD toch echt een heel fijn OS.
Gelukkig is er voor iedereen iets wat hem of haar aantrekt.
Houd er ook rekening mee dat FreeBSD 10 een ontwikkel omgeving is.
Misschien ben je wel een bugje tegen gekomen.

[ Voor 49% gewijzigd door syl765 op 26-08-2013 08:59 ]

Pagina: 1 ... 84 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.