De nieuwe beta3 livecd heeft een nieuwe system image (9.0-004) die op FreeBSD 9.0-RELEASE (dus de final) is gebaseerd. Deze is beter dan de RC-versie die op de beta2 livecd stond. De 9.0-004 krijgt zodra beta4 uit komt ook de volgende service addons:vargo schreef op donderdag 26 januari 2012 @ 10:21:
[...]
Ik heb mijn backup NAS up-and-running gekregen met ZFSguru beta2
- Ajaxplorer
- Virtio (KVM/Virtualbox PV drivers; met name handig voor goede virtualbox networking performance icm paravirtualized network adapter van Virtualbox)
- Virtualbox
- iSCSI-target
- SABnzbd + SickBeard + CouchPotato + Headphones
- netatalk (voor mac users die native mac shares en timemachine willen gebruiken)
ZFS heeft een beveiliging ingebouwd bij commando's zoals zpool create, waarmee je een nieuwe pool maakt. Als er bestaande niet-destroyed pools op de disk staan, dan faalt je zpool create commando. Dus als je een pool hebt vernietigd dan kun je zo weer de disk overschrijven, maar als de disk nog een bestaande pool bevat die je niet hebt geimporteerd, kun je die disk niet zomaar gebruiken om een nieuwe pool aan te maken.Waar ik tegenaan liep was dat mijn disks vroeger onderdeel waren van een oude test pool. Gevolg: er werden oude, corrupte pools gevonden op het moment dat ik een nieuwe pool probeerde aan te maken. Uiteindelijk moest ik terug naar de command line. Zelfs eencode:ging niet. Oplossing:
1 zpool destroy -f myOldPoolcode:
1 zpool create -f myNewPool etc
Die beveiliging is natuurlijk gemaakt om menselijke fouten te voorkomen. Als je namelijk merkt dat je disks een bestaande config bevatten, moet je specifiek het -f commando gebruiken bij een zfs create commando om die disks te mogen gebruiken. In ZFSguru zie je daar op Pools->Create een checkbox voor (sinds beta2 of beta3 geloof ik), als je die aanvinkt dan gebruikt ZFSguru de -f optie om gebruik van de geselecteerde schijven te forceren (-f staat voor force of "use force").
Het is dus opzettelijk lastig gemaakt om een disk met een bestaande ZFS config zomaar te overschrijven met een andere ZFS pool. Dan moet je eerst zelf duidelijk aangeven dat je een beveiliging wilt omzeilen voordat je die disks zomaar kunt overschrijven.
Andere methoden om bestaande disks te wipen:
- importeer alle pools die je kunt en destroy/vernietig deze daarna; dan komen de disks weer vrij
- doe een zero-write op de disks via de Disks pagina. Dit kan met zowel de nieuwe partition map editor als de oude quick format helemaal onderaan de pagina.
Net zoals hierboven: het inbouwen van beveiligingen.Wat me verder opviel is dat ik geen nieuwe pool kon creeren zolang de disks geen gpt/geom partitie hebben. Vanaf de command line kan ik echter direct de disks aanwijzen:code:
1 zfs create myNewPool raidz /dev/disk1 /dev/disk2 .../dev/disk8'
Voordeel hiervan is dat ik de pool rechtstreeks in mijn opensolaris bak kan hangen (of openindiana in de nabije toekomst).
Waarom moet je in ZFSguru GPT/GEOM formatted disks hebben?
Een partitie is een teken dat je duidelijk aangeeft wat op een disk staat, iets wat andere OS kunnen herkennen. Doe je namelijk wat jij zegt en je hangt je schijf in een Windows bak, dan vraagt Windows je om die schijven te 'initialiseren'. Nou dat klinkt onschuldig, activeer de schijven maar ja, denk je. Bij het bevestigen van die actie heb je ZFS data overschreven en kan je pool dus al corrupt zijn! Gebruik je een MBR of GPT partitie, dan geniet je extra bescherming omdat Windows een partitie ziet van een 'vreemd' besturingssysteem (zowel MBR als GPT hebben id codes die OS/filesystem-specifiek zijn); die zal die partitie dan met rust laten. Bovendien kun je zo alsnog een Windows partitie aanmaken en zo heb je een cross-platform veilige indeling voor je hardeschijven.
Ander voordeel is dat je met GPT partities of met GEOM labels een naam kunt toewijzen aan elke disk. Dus je hebt een pool genaamd "tank" met daarin disks met de naam samsung1, samsung2, etc. Dat is een stuk beter dan /dev/c0d0s1e0 of wat dan ook; want welke schijf was dat ook alweer? Je kunt zelf een naam kiezen.
Je voorkomt menselijke fouten doordat je een check hebt welke disks je mee werkt. Ook kun je makkelijker zien welke schijf kapot is, aangezien je de schijven makkelijk kunt nummeren hoe ze fysiek in je kast zitten. Als schijf samsung3 niet meer werkt volgens ZFS dan kun je in je kast direct aanwijzen welke schijf dat moet zijn; aangenomen dat je je schijven een naam hebt gegeven die dat mogelijk maakt of labels hebt geplakt. Zelf heb ik gewoon de bovenste schijf = samsung1 in mijn geval, en zo gaat het naar onderen toe. Best makkelijk en voldoet voor mij prima.
Laatste argument is specifiek voor je systeem. Gebruik je 'FakeRAID' kaartjes zoals Promise, JMicron en vooral Silicon Image, dan kan het nodig zijn om de laatste 512 bytes niet te gebruiken omdat de FakeRAID die ruimte overschrijft en soms niet kan booten als ZFS vervolgens weer de ruimte terug-overschrijft, zoals ik een keer heb ervaren. Hardware RAID lost dat op door de target device die het OS te zien krijgt ook één sector (512 bytes) kleiner te maken. Maar FakeRAID kan dat niet omdat alle non-Windows OS gewoon een SATA controller zien.
Ook hebben GPT partities een kopie van al hun data; waardoor als je het begin overschrijft of het einde niet gelijk je partitietabel kwijt bent, maar er nog gewoon een kopie aanwezig is.
ZFSguru accepteert kale disks als ze buiten ZFSguru om zijn aangemaakt, maar bijvoorbeeld een pool maken via ZFSguru kan alleen met disks die een label hebben.
Wat je zei over OpenSolaris: als je je disks met GEOM formatteert heb je een label én de disks werken prima onder Solaris. Dat staat ook aangegeven op de disks pagina bij advantages/disadvantages.
ZFSguru wordt inderdaad al redelijk volwassen nu 0.2 nadert. Inmiddels toch een aardige verzameling aan functionaliteit opgebouwd. Oh trouwens, jullie mogen ook 'mijn' nieuwe feature testen in beta3+: de disk benchmarks die een HDtune-achtig grafiekje geven. Was erg leuk om te maken kan ik je zeggen.Verder trouwens complimenten voor ZFSguru; het maakt je systeem echt een NAS appliance.

