Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 09:27

BCC

Eh ja, sorry voor de onduidelijkheid. Verkeer tussen je vps en je bigstorage telt niet mee en je moet dus ZFS op ZFS draaien.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
BCC schreef op vrijdag 15 april 2016 @ 16:41:
Eh ja, sorry voor de onduidelijkheid. Verkeer tussen je vps en je bigstorage telt niet mee en je moet dus ZFS op ZFS draaien.
Krijg je tegenwoordig niet ook gratis snapshots op je vps?

Acties:
  • 0 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
base_ schreef op vrijdag 15 april 2016 @ 16:14:
[...]


Hoe mount je die ZFS in een TransIP VPS? Ik zie bij TransIP wel een heel verhaal over linux davfs2, geen idee wat de FreeBSD support is. Daarnaast: ik neem aan dat data tussen de stack en VPS gewoon als internet verkeer meegeteld wordt? incremental (file of blockbased) backup lijkt me dan ook noodzakelijk.
FreeBSD kan webdav mounten via WDFS. Dit werkt op zich prima bij mij met Stack voor dagelijkse rsync backups vanaf een TransIP VPS. Je merkt uiteraard wel dat er een latency is.

Send/receive streams van ZFS snapshots kunnen natuurlijk altijd van/naar een file op je webdav mount. Ik heb het echter nooit geprobeerd, dus ik weet niet hoe soepel dat gaat.

- = Step Into The Pit | Industrial Strength = -


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 21-09 16:44
matty___ schreef op vrijdag 15 april 2016 @ 20:27:
[...]

Krijg je tegenwoordig niet ook gratis snapshots op je vps?
Ja een stuk of 6 per dag met 2 dagen retentie oid (backups, gaat dus niet verder als 2 dagen terug) en vanaf de op een na goedkoopste VPS ook een permanente snapshot.
Stack lijkt leuk maar bigstorage is de betere oplossing, hierbij valt de data ook zeker buiten het internetverkeer.
Daarnaast is een rsync naar offsite toch ook wel fijn (mochten de dijken breken ofzo ;))

Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
offtopic:
Kom je bij het restoren (of zelfs backuppen) niet in de knel met een datalimiet van 1 of 2TB per maand?

Acties:
  • 0 Henk 'm!

  • soulcrusher
  • Registratie: Augustus 2009
  • Laatst online: 20-09 17:42
Ik heb sinds mijn upgrade naar 10.2.006 met ZFSGuru 0.3.1 het probleem dat Transmission niet meer naar mappen op een share wil downloaden, wat hij bij mijn vorige installatie wel deed. Hij geeft bij het downloaden aan Permission Denied. Mijn share staat overigens ingesteld dat iedereen volledig toegang heeft.

Ik zie dat één download map eigenaar transmission:transmission heeft en één map heeft als eigenaar soulcrusher:share. Ik neem aan dat de transmission service onder de groep wheel valt, maar hij wil niet downloaden als ik de volgende eigenaars instel:
soulcrusher:share
share:share
transmission:transmission
transmission:wheel

Hoe kan ik dit probleem oplossen?

iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wat is precies je target? Heb je zelf permissies veranderd? Zo nee, wat als je een chmod 777 op de directory doet?

Acties:
  • 0 Henk 'm!

  • soulcrusher
  • Registratie: Augustus 2009
  • Laatst online: 20-09 17:42
Mijn target is /zfsraid/share/Torrent. chmod 777 geprobeerd maar nog steeds permission error. /usr/local/etc/transmission/home/Downloads werkt overigens gewoon wel (met als map eigenaar transmission:transmission)

Qua permissies heb ik nooit iets gewijzigd geloof ik.

[ Voor 11% gewijzigd door soulcrusher op 17-04-2016 20:06 ]

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
kaaas schreef op vrijdag 15 april 2016 @ 13:13:
Ik heb een vraag over de bruikbare ruimte in zfs als iemand weet hoe het precies zit ik ben erg benieuwd.

Met een 6x4TB raidz heb ik een beschikbare schijf ruimte van 17TiB
MAaar volgens mijn berekeningen zou ik 17,6 Tib moeten hebben.
24TB - 4 = 20 TB =18.18989404 TiB
haal daar de 3.125% spa_slop_shift reservering van af en ik kom op 17.6TiB uit.
Maar ik heb 17TiB beschikbaar waar is mijn .6 TiB

En hoe kun je deze beschikbare ruimte vergelijken met bijv een md raid5 hiermee kom je met de zelfde disks uit op 19TiB wat nogal een verschil is waar komt dit vandaan. En hoe kan het dat als je bij raid 5 1 disk voor paritie gebruikt je op 19Tib uit komt dat zou 18.2 moeten zijn.
Helaas is je 4TB hdd niet 4TiB groot. Dus je berekening gaat niet op..
Elke TB is maar 931 GB en geen 1000 GB.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
Beste Jacovn

Daar ben ik van op de hoogte als je had mee gerekend had je dit ook gezien. Bijv 20 TB is 18,2 TiB.
Mijn vraag is dan ook niet het TB TiB verschil maar ,6TiB die ik kwijt ben in zfs en niet kan plaatsen en hoe het kan dat een md 5 raid ,7 TiB meer heeft dan je zou denken.

Als mijn berekeningen niet duidelijk genoeg zijn laat het weten. dan schrijf ik het verder uit.

Acties:
  • 0 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
Behalve parity en reservering moet je ook nog rekening houden met padding en metadata. Ik kan het je om eerlijk te zijn niet exact voorrekenen, maar hier kun je informatie en spreadsheets vinden welke aangeven dat 5+1 RAID-Z een parity-overhead van 20% heeft (uitgaande van 4KiB sectors, recordsize=128KiB en compression=no) in plaats van de 16.667% die je zou verwachten.

Zoals ook in het gelinkte artikel staat, zou ik me er echter niet teveel zorgen over maken. In 9 van de 10 toepassingen wil je immers compression=lz4 gebruiken en de berekening klopt dan sowieso niet meer vanwege variabele sectorsizes. Daarnaast win je met een beetje geluk die paar procent verlies makkelijk terug met compressie.

[ Voor 43% gewijzigd door narotic op 18-04-2016 02:41 ]

- = Step Into The Pit | Industrial Strength = -


Acties:
  • +1 Henk 'm!

  • wmn79
  • Registratie: April 2007
  • Laatst online: 21-09 15:56
Compizfox schreef op vrijdag 15 april 2016 @ 14:46:
[...]

Ik gebruik het met duplicity als off-site backup :)

Als je hulp nodig hebt met duplicity kan ik je misschien wel helpen.

Echter, denk niet dat er ook support komt voor ZFS send/receive. Stack is onderhuids wel ZFS-backed, maar dat betekent niet dat je als gebruiker ook direct bij die laag kunt. Voor gebruikers is het gewoon WebDav...
Bedankt, hulp kan ik zeker gebruiken. Ik stuur je wel even een PM. Wil de backup doen vanuit een FreeNAS jail.

Acties:
  • +1 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
kaaas schreef op zondag 17 april 2016 @ 22:51:
...Bijv 20 TB is 18,2 TiB. Mijn vraag is dan ook niet het TB TiB verschil maar ,6TiB die ik kwijt ben in zfs en niet kan plaatsen en hoe het kan dat een md 5 raid ,7 TiB meer heeft dan je zou denken.
Het is zelfs nog vreemder.
Als je je 6x4TB RAIDz1 zou vergelijken met een 7x4TB RAIDz2 dan zou je op basis van recordsize, parity wat voor ZFS overhead dan ook, verwachten dat je netto exact hetzelfde overhoud maar dat is niet zo.
Bij RAIDz1 moet je nog 5% aftrekken en bij RAIDz2 gaat dat naar de 10%.
Waar het blijft weet ik niet. Ik heb het geaccepteerd als extra ZFS overhead.

Hoe was je RAID5 MD geformateerd? Ik weet wel dat als ik ext4 formateer je een reserverings percentage op kan geven voor root. mkfs.ext4 /dev/sdx1 -m 0 (voor 0 procent). Verder kan ik het niet verklaren

PC specs


Acties:
  • +1 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
@ riwi en narcotic
Bedankt voor de info ik ga de link lezen en kijken hoe de md raid 5 was geformatteerd.
Jammer genoeg heb ik niets aan de lz4 compressie het is 2 bit ruis data daar valt niets aan te comprimeren.

Acties:
  • +1 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
In dat geval kun je veel ruimte besparen door de files naar /dev/random te symlinken :+

Offtopic:
Zonder gekkigheid, aan wat voor toepassing moet ik denken dat je tig TB aan random ruis op wilt slaan? Astronomie?

- = Step Into The Pit | Industrial Strength = -


Acties:
  • +1 Henk 'm!

  • kaaas
  • Registratie: Oktober 2008
  • Laatst online: 19-09 23:48
jup astronomie. Goede goed hoe kom je daar zo bij?

Acties:
  • +1 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
Stukje geluk denk ik. Astronomie was zo snel de enige toepassing die ik kon bedenken waarbij je zulke gigantische hoeveelheden ruis opslaat.

- = Step Into The Pit | Industrial Strength = -


Acties:
  • +1 Henk 'm!
NAME        SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
VM_TIER_2   476G   172G   304G         -    80%    36%  1.78x  ONLINE  -


Crap, ik moet hier misschien toch iets mee :P

Even niets...


Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
80% FRAG. Dus nu defrag.exe runnen?

Acties:
  • +1 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
Of gewoon op BPR wachten... en wachten... en wachten.

Hoe verhoudt die 1.78x dedup zich tot compressratio?

- = Step Into The Pit | Industrial Strength = -


Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
Comment op mijn blog:
Brian Ewell • 23 days ago
Not having block-pointer-rewriting is ZFS' Achilles heel, as it would solve pretty much all of ZFS' shortcomings. The problem is that AFAIK it's pretty much impossible to implement.

[ Voor 5% gewijzigd door Q op 22-04-2016 16:47 ]


Acties:
  • +1 Henk 'm!
narotic schreef op vrijdag 22 april 2016 @ 16:15:
Of gewoon op BPR wachten... en wachten... en wachten.

Hoe verhoudt die 1.78x dedup zich tot compressratio?
1.10x

Dedup van de andere pool is veel leuker :)
NAME        SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
VM_TIER_1   119G  9.39G   110G         -     9%     7%  4.35x  ONLINE  -
Q schreef op vrijdag 22 april 2016 @ 16:47:
Comment op mijn blog:
[...]
Mwoh, als ik zie hoe (fucking) veel problemen er zijn met BTRFS' Rebalance functie, ben ik stiekem wel blij dat ZFS dat niet heeft.

Oplossing zou zijn om alle VM's te migreren naar mijn tweede VM pool (2 SSD's in mirror) en dan even het filesystem en de lun opnieuw aanmaken.

Maar meh, tijd enzo... Haal nog steeds ~80.000 IOPS via iSCSI, dus merk er weinig van.

[ Voor 12% gewijzigd door FireDrunk op 22-04-2016 17:06 ]

Even niets...


Acties:
  • +1 Henk 'm!
Na weer een paar van die mini-pc's gesponserd te hebben gekregen ben ik nu aan het testen of ik mijn Hummingboard Base i2eX (Dual Core) 1GB ($ 100,-) kan vervangen door een Hummingboard Pro i4x4 (Quad Core) 4GB ($ 190,-) voor mijn offsite backup.

Het probleem bij de i2eX was dat hij mijn maandelijkse scrub niet overleefde. Rond de 30% kreeg ik telkens I/O errors. Geheel is via USB aangesloten. Het minimaliseren van het aantal snapshots hielp niet. Uitzetten van deduplicatie en compressie ook niet.

Bij i2eX had ik ook nog wat ZFS dingen getuned om met het weinige geheugen om te gaan. Op de i4x4 draai ik alles met zijn default waarden. Nu aan het testen met mijn locale externe backup schijf waar dezelfde info staat als mijn offsite backup schijf, maar dan niet gelimiteerd in het aantal snapshot dat hij mag opslaan en waarop dedup en compressie aan staat. Dus gelijk een flinke test voor het nieuwe systeem.

Scrub draait nog steeds lekker:
code:
1
2
3
.  scan: scrub in progress since Sun Apr 24 14:28:19 2016
    53.0G scanned out of 727G at 6.07M/s, 31h34m to go
    0 repaired, 7.30% done


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
top - 17:15:34 up  2:53,  2 users,  load average: 2.90, 3.04, 3.15
Tasks: 214 total,   1 running, 213 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us, 27.8 sy,  0.0 ni, 65.1 id,  2.0 wa,  2.4 hi,  2.7 si,  0.0 st
%Cpu1  :  0.0 us, 21.6 sy,  0.0 ni, 71.8 id,  5.0 wa,  1.7 hi,  0.0 si,  0.0 st
%Cpu2  :  0.0 us, 24.7 sy,  0.0 ni, 72.0 id,  1.7 wa,  0.3 hi,  1.3 si,  0.0 st
%Cpu3  :  0.7 us, 39.8 sy,  0.0 ni, 58.2 id,  0.0 wa,  1.3 hi,  0.0 si,  0.0 st
KiB Mem:   3883224 total,   818992 used,  3064232 free,     3836 buffers
KiB Swap:   250876 total,        0 used,   250876 free.   197212 cached Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
  416 root       0 -20       0      0      0 S  30.0  0.0  20:21.93 spl_kmem_cache
 1924 root       0 -20       0      0      0 S  20.5  0.0  30:40.86 z_rd_int_4
 1922 root       0 -20       0      0      0 S  19.2  0.0  30:30.89 z_rd_int_2
 1927 root       0 -20       0      0      0 S  15.7  0.0  30:30.03 z_rd_int_7
 1919 root       0 -20       0      0      0 S   6.2  0.0   4:58.80 z_rd_iss
  167 root      20   0       0      0      0 D   4.6  0.0   7:31.66 usb-storage
 1967 root      20   0       0      0      0 D   2.3  0.0   4:29.64 txg_sync


code:
1
2
3
4
.             total       used       free     shared    buffers     cached
Mem:          3792        799       2992          0          3        192
-/+ buffers/cache:        603       3188
Swap:          244          0        244



Op de i2eX was de doorvoersnelheid nooit hoger dan 1.5M/s. Een scrub duurt dan erg lang:
code:
1
  scan: scrub repaired 0 in 179h24m with 0 errors on Sun Apr 24 14:24:29 2016


De i4x4 vraagt wel een hoop meer stroom waardoor ik hem op de powersave governor moet draaien om hem nog aan een USB poort te kunnen hangen.

Voor het geld kan je overigens beter een Intel NUC kopen :P
#ProductPrijsSubtotaal
1Intel NUC NUC5CPYH€ 127,95€ 127,95
1Team Group TMD3L8G1333HC9-S01€ 24,95€ 24,95
1Transcend HSD370 16GB€ 24,47€ 24,47
Bekijk collectie
Importeer producten
Totaal€ 177,37

[ Voor 53% gewijzigd door CurlyMo op 24-04-2016 17:24 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Ik kan wel alles gaan testen, wanneer het niet in dokumentatie te vinden is, maar wat gebeurd er als je het volgende doet:

- zpool aanmaken met naam tank
- creeer een paar datasets/subvolumes
- maak een recursive snapshot van de pool: zfs snapshtot -r tank
- stuur die over naar een backup ZFS server met btrfs send/receive
- doe nog wat snapshots als boven
- stuur incrementals over van de pool naar de backup server (zfs send -R -I tank@snap_prev tank@snap_last | ssh backupsrv "zfs receive -F backuppool"

Zo ver werkt alles prima, maar nu:
- creeer een nieuw subvolume/dataset
- creeer een snapshot als boven
- stuur incremental van de pool over naar de backup server ?

Gaat dat werken of breekt ie af of sloopt ie de boel omdat er nog geen snapshot van de nieuwe subvol/dataset bestaat op de backup server?

Of moet je maar per dataset snapshots oversturen ipv de hele pool?

Acties:
  • +1 Henk 'm!
Met -F (hoofdletter) worden alle target filesystems toch keihard aangemaakt en overschreven als ze al bestonden?

Even niets...


Acties:
  • +1 Henk 'm!
In dat specifieke geval kan je beter een individuele snapshot sturen en daarna weer de recursieve. Zoals FireDrunk ook al zegt, kan je de -F optie gebruiken, maar die prepareert je doel alsof het de eerste stream was waardoor je al je oude snapshots verliest.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Ik begreep dat de -F ervoor zorgde dat de receiver desnoods een rollback doet naar de laatste snapshot als ze niet overeenkomen. Dat lijkt ook goed te werken als ik eens een snapshot op de receiver maak en dan weer van de originele een incremental stuur. De receiver verwijderd zijn eigen gemaakte snapshot en de bol is weer in lijn met elkaar. Aan de hoeveelheid netwerk verkeer te zien stuurt ie niet de hele snapshot over.

Met individuele snapshots moet ik er aan denken dat ik de nieuwe datasets in de backuplijst plaats....en dat vergeet ik nog wel eens ..(ik word ook een dagje ouder :P )

Acties:
  • +1 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik heb mijn FreeNAS machine na een blikseminslag een tijd niet gebruikt. De machine is een maand geleden ge-upgrade naar FreeNAS 9.3, toen klapte hij eruit tijdens een scrub inmiddels heb ik alle hardware twee x getest en een brakke voeding vervangen.
Nu draait de machine weer ik liep alleen tegen wat zaken aan waar ik toch wat vragen aan over heb gehouden.
De data op deze machine is verder niet van belang maar mijn basic understanding van ZFS is weer een weggezakt dus het weer in de lucht krijgen van deze machine leek me een leuke praktijk oefening :).

De oudste en primary pool is een raidz van 3x 2TB WD green power schijven, deze pool gaat al een aantal iteraties van het systeem mee. Na het initieel opstarten van de machine was deze pool niet gemount want er miste een schijf:
 zpool import
   pool: TANK
     id: 8931747936348276010
  state: UNAVAIL
 status: One or more devices are missing from the system.
 action: The pool cannot be imported. Attach the missing
        devices and try again.
   see: http://illumos.org/msg/ZFS-8000-6X
 config:

        TANK              UNAVAIL  missing device
          raidz1-0        ONLINE
            gpt/2TB-WD03  ONLINE
            gpt/2TB-WD02  ONLINE
            gpt/2TB-WD01  ONLINE

        Additional devices are known to be part of this pool, though their
        exact configuration cannot be determined.


Ooit heb ik een 64GB als volgens mij L2ARC gekoppeld aan deze pool en blijkbaar was deze SSD niet beschikbaar waardoor de pool niet gemount kon worden. Alle drie de western digital schijven waren wel present, ik was in de veronderstelling dat een pool met een ontbrekende L2ARC wel te mounten is?
De -m switch bij een import is voor ontbrekende ZIL?

Na het vervangen van een S-ATA kabel was de SSD weer beschikbaar, echter kon ik de pool nog niet mounten. Uiteindelijk heb ik via de FreeNAS Gui een detach gedaan, vervolgens een reboot en toen een zpool import TANK welke wel succesvol was.

# zpool status TANK
  pool: TANK
 state: ONLINE
status: The pool is formatted using a legacy on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on software that does not support feature
        flags.
  scan: scrub in progress since Sun Jan 31 11:11:39 2016
        2.02T scanned out of 4.18T at 160M/s, 3h55m to go
        0 repaired, 48.29% done
config:

        NAME                                          STATE     READ WRITE CKSUM
        TANK                                          ONLINE       0     0     0
          raidz1-0                                    ONLINE       0     0     0
            gpt/2TB-WD03                              ONLINE       0     0     0
            gpt/2TB-WD02                              ONLINE       0     0     0
            gpt/2TB-WD01                              ONLINE       0     0     0
          gptid/23773e95-26f0-11e3-9192-485b3980e661  ONLINE       0     0     0

errors: No known data errors

Zie ik het goed dat de SSD eigenlijk als single disk vdev is opgenomen in de pool TANK?
Om dit te herstellen moet ik de pool vernietigen en vervolgens opnieuw opbouwen lijkt mij.
Wat is de makkelijkste manier om te achterhalen of de SSD als SLOG of L2ARC is ingezet?

Nu viel mij op dat de SSD via een id gekoppeld is in plaats van een custom label, de labels kan ik natuurlijk meteen rechttrekken als ik een nieuwe pool moet opbouwen maar de vraag is wat is nu de beste methode?
Ik zag dat iemand hier de serienummers van zijn disks opnam in het label, dat wil ik ook gaan doen.
Wat was de reden dat disk voorzien van een GPT label en dan volledig toekennen aan een pool niet verstandig was, partitielabels genieten de voorkeur geloof ik?

Acties:
  • +1 Henk 'm!
Als je verschillende merken schijven mixt kan het veiliger zijn om met partities te werken omdat je de grootte van de partitie zelf kan kiezen.

Ook heb je met GPT controler over wat er in het label staat, dus kan je het voor jezelf herkenbaarder maken.
Maar het is subjectief, partities hebben niet perse technische voordelen boven een ID.

Enige directe verschil wat ik zou kunnen bedenken is dat een ID kan veranderen potentieel als je een schijf op een andere controller hangt in sommige gevallen.

Maar in veel gevallen kan je ZFS alsnog naar de goede disk wijzen.

Even niets...


Acties:
  • +1 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Oke thanks, ga even kijken naar partitie labels in FreeBSD.
Moet de pool toch opnieuw opbouwen want op dit moment bestaat de pool uit een stripe en een raidz vdev :P.

Ik heb onder Linux wel eens een zpool gebouwd op basis van /dev/disk/by-partlabel, nu weet ik niet meer precies waarom. Bij FreeBSD kan ik gewoon de disk initialiseren met GPT, daarna een ZFS partitie aanmaken en dan de pool bouwen op basis van /dev/gpt/<gpt-labels>?

[ Voor 44% gewijzigd door dutch_warrior op 27-04-2016 15:13 ]


Acties:
  • +1 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
Ja.

Dat is ook bijvoorbeeld hoe 't gedaan wordt in de FreeBSD RootOnZFS guide. In het kort:
gpart create -s gpt ad0
gpart add -s 60G -t freebsd-zfs -l somelabel ad0
zpool create zroot /dev/gpt/somelabel

Uiteraard device, label en partitie grootte aanpassen aan je specifieke situatie. Je kunt natuurlijk de size ook gewoon helemaal weglaten als je de hele schijf wilt gebruiken.

[ Voor 11% gewijzigd door narotic op 27-04-2016 16:28 ]

- = Step Into The Pit | Industrial Strength = -


Acties:
  • +1 Henk 'm!

  • XAEROCOOL
  • Registratie: Februari 2011
  • Laatst online: 01:28
Hallo,

Ik heb problemen met desktop service van zfsguru:
Name Gnome
Category Desktop
Product version 3.16.2
Service serial number 1
System version 10.2.003
Platform amd64
Installation page Installation page
Installation path /services/X-gnome
Service data size 0 B
License GPL
Security none
Dependencies dep-X
dep-codecpack
Conflicts with

Als ik op start klik krijg ik het volgende error:
could not start service X-gnome!

Ik heb geprobeerd om de services te herinstalleren, systeem te herstarten maar ik krijg steeds hetzelfde error.
Weet iemand wat het probleem kan zijn? Moet ik andere informatie leveren? Alvast bedankt.

Acties:
  • +1 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 15-09 20:20
Even snel een vraag.
Ik had voorheen een ZFS Raid- Z Linux system met 3x 3TB en dit draaide prima.
Nu had ik 1 van die schijven nodig voor iets anders (uiteraard eerst even de belangrijkste gegevens die erop stonden opzij gezet) en nu wil ik voorlopig met 2 schijven verder.
Wil het opnieuw opbouwen.
Lijkt me dat een ZFS mirror de beste optie is of zijn er nog andere (zfs) opties?

Acties:
  • +1 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:52
Je wil de hele pool afbreken en met 2 schijven opnieuw beginnen? Dan zou ik inderdaad een mirror maken :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • +1 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 15-09 20:20
Ja inderdaad.
Dan wordt het een mirror. Binnenkort aan beginnen.

Acties:
  • +2 Henk 'm!

  • jvhaarst
  • Registratie: Maart 2000
  • Laatst online: 03-09 15:28

jvhaarst

Eendracht maakt macht

Ik heb iets raars :

code:
1
2
3
4
5
6
7
8
root@scratch:~# zfs list -t snapshot 
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
scratch/data@2016-04-04_00.00.00--1d  25.7T      -  92.3T  -
root@scratch:~# zfs destroy scratch/data@2016-04-04_00.00.00--1d
cannot destroy snapshot scratch/data@2016-04-04_00.00.00--1d: dataset is busy
root@scratch:~# zfs holds -r scratch/data@2016-04-04_00.00.00--1d
NAME                                  TAG  TIMESTAMP
root@scratch:~#


Dat is op zich al irritant, maar iedere snapshot die ik weggooi lijkt te worden toegevoegd aan deze.
Het kan zijn gekomen doordat de array helemaal vol was (en ik met moeite de boel heb kunnen redden).

Heeft iemand een idee hoe ik die snapshot weg krijg ?
Het liefst zonder reboot, er zijn iets van 10 mensen die op die array aan het werk zijn.

If you don’t have enough time, stop watching TV.


Acties:
  • +1 Henk 'm!
Ook geen clones gemaakt van die snapshot? Geen mountpoints? Niemand die er naar toe is gegaan via de .zfs map?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!
lsof | grep scratch

geprobeerd?

Even niets...


Acties:
  • +1 Henk 'm!

  • jvhaarst
  • Registratie: Maart 2000
  • Laatst online: 03-09 15:28

jvhaarst

Eendracht maakt macht

CurlyMo schreef op woensdag 11 mei 2016 @ 07:25:
Ook geen clones gemaakt van die snapshot? Geen mountpoints? Niemand die er naar toe is gegaan via de .zfs map?
Allemaal niet,, kijk maar:
(clones)
code:
1
2
3
4
5
6
root@scratch:/scratch/data# zfs list
NAME                  USED  AVAIL  REFER  MOUNTPOINT
scratch               103T  3.84T  60.6K  /scratch
scratch/clc           848G  3.84T   848G  /scratch/clc
scratch/data          102T  3.84T  70.0T  /scratch/data
scratch/reservation  60.6K  3.84T  60.6K  /scratch/reservation

(mounts)
code:
1
2
3
4
root@scratch:/scratch/data# mount | grep scratch
scratch/clc on /scratch/clc type zfs (rw)
scratch/data on /scratch/data type zfs (rw)
scratch/reservation on /scratch/reservation type zfs (rw)

En via .zfs er naar toe werkt om de een of andere reden ook niet :
code:
1
2
root@scratch:/scratch/data/.zfs/snapshot# cd 2016-04-04_00.00.00--1d
-su: cd: 2016-04-04_00.00.00--1d: Too many levels of symbolic links


Ik ben bang dat ik toch niet onder een reboot uit kom, er is te veel aan de hand om dat niet te proberen.

If you don’t have enough time, stop watching TV.


Acties:
  • 0 Henk 'm!
Kan je die symbolic links eens laten zien? Dat is namelijk al raar.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • jvhaarst
  • Registratie: Maart 2000
  • Laatst online: 03-09 15:28

jvhaarst

Eendracht maakt macht

lsof doet het niet, er hangt ook nog een NFS mount...
Maar ik ben met de hand door de processlist gegaan en alle logins/shells gekilled die niet mijn eigen login shell waren, en toen kon ik dus wel die snapshot verwijderen.

Wat heb ik nu geleerd ?
1) Check of er toch nog ergens een proces draait dat de snapshot op de een of andere manier in gebruik heeft
2) Snapshots zijn bereikbaar via de .zfs directory, en die kun je met een ls niet zien..

If you don’t have enough time, stop watching TV.


Acties:
  • 0 Henk 'm!
ls -lah zou dacht ik de .zfs directory moeten laten zien?

Er is ook een snapdir property.

(Copy paste van iemand anders:)
elhana@stellarwind:/media/test/gzip$ sudo zfs set snapdir=visible test/gzip
elhana@stellarwind:/media/test/gzip$ ls -la
&#1080;&#1090;&#1086;&#1075;&#1086; 42
drwxr-xr-x  3 elhana elhana  3 &#1085;&#1086;&#1103;&#1073;. 16 18:26 .
drwxr-xr-x 12 root   root   12 &#1076;&#1077;&#1082;.  12 21:00 ..
drwxrwxr-x  6 elhana elhana  9 &#1076;&#1077;&#1082;.  19 21:04 source
dr-xr-xr-x  1 root   root    0 &#1076;&#1077;&#1082;.  14 22:04 .zfs

elhana@stellarwind:/media/test/gzip$ sudo zfs set snapdir=hidden test/gzip
elhana@stellarwind:/media/test/gzip$ ls -la
&#1080;&#1090;&#1086;&#1075;&#1086; 42
drwxr-xr-x  3 elhana elhana  3 &#1085;&#1086;&#1103;&#1073;. 16 18:26 .
drwxr-xr-x 12 root   root   12 &#1076;&#1077;&#1082;.  12 21:00 ..
drwxrwxr-x  6 elhana elhana  9 &#1076;&#1077;&#1082;.  19 21:04 source

[ Voor 88% gewijzigd door FireDrunk op 11-05-2016 10:35 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jvhaarst
  • Registratie: Maart 2000
  • Laatst online: 03-09 15:28

jvhaarst

Eendracht maakt macht

Ik denk dat voor dit volume de snapdir op hidden stond, en dan kun je hem niet meer zin.
Ik heb net getest, met snapdir=visible is ie gewoon zichtbaar.
Ik laat het maar hidden, voor de meeste gebruikers is het alleen maar verwarrend.

If you don’t have enough time, stop watching TV.


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
ZoL 0.6.5.7 is gereleased.
https://github.com/zfsonlinux/zfs/releases


Supported Kernels

Compatible with 2.6.32 - 4.6 Linux kernels.

Bug Fixes

Fix SPL build failure on PowerPC zfsonlinux/spl#516
Fix user namespaces uid/gid mapping zfsonlinux/zfs#4177
Fix ZPL miswrite of default POSIX ACL zfsonlinux/zfs#4520
Linux 4.5 and 4.6 compatibility zfsonlinux/zfs#4537 zfsonlinux/zfs#4489
Ensure /dev/disk/by-partlabel gets correctly populated zfsonlinux/zfs#4517
Utilities now work reliably with newly created partitions zfsonlinux/zfs#3708
Import now reliably uses device names stored in label zfsonlinux/zfs#3043
Fix possible deadlock in zfs_secpolicy_write_perms ioctl zfsonlinux/zfs#4554
Fix inverted logic on none elevator comparison zfsonlinux/zfs#4507
Add 32 bit FS_IOC32_{GET|SET}FLAGS compat ioctls for PPC zfsonlinux/zfs#4477

[ Voor 85% gewijzigd door riwi op 13-05-2016 16:02 ]

PC specs


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Onderstaande een vraag die vermoedelijk al vaker is gesteld in dit topic, echter heb ik dit niet direct kunnen vinden in de laatste pagina's.

Oke, ik heb enkele weken geleden mijn nieuwe ESX (6.0) doos binnen gekregen. Ik wil hier doormiddel van een M1015 HBA disken gaan doorzetten naar een toekomstige NAS server.

Nu wil ik graag aan de slag met ZFS, ik kan uit de voeten met linux CLI maar van FreeBSD heb ik geen/weinig kennis. Opzich hoef dat geen probleem te zijn als er een redelijke community/documentatie achter zit.

Nu weet ik dat veel mensen hier Freenas gebruiken, ik heb dit geinstalleerd om te kijken en het ziet er opzich prima uit. Echter vind ik het een erg groot nadeel dat Freenas overgenomen is door een bedrijf dus wie weet wat de toekomst brengt? Wordt dit uiteindelijk een betaald product of niet?

Daarnaast gekeken naar Nexentastor, deze heeft een datalimiet van 18TB, ik zit echter met 4*4TB disken al aan 16TB (in raid-z 12TB) dus dit is voor mij geen echte optie.

Een andere optie is Napp-it, ziet er erg leuk uit. Ik heb alleen het idee dat er een behoorlijke duitstalige community achter zit, en laat nou net mijn duits niet al te best zijn. Voor de rest redelijk positief over dit product.

Daarnaast heb je nog nas4free. Hoe ik het begrijp is dit een opensource alternatief van Freenas. Het wordt dus apart van freenas ontwikkeld mocht freenas ooit betaald worden of wat dan ook.

Mijn keuze geniet op dit moment nas4free. Hebben jullie nog tips met betrekking tot het maken van de juiste keuze voor het OS/Software voor ZFS?

Acties:
  • 0 Henk 'm!
FreeNAS overgenomen door een bedrijf? FreeNAS is al jaaaaren van ixSystems? FreeNAS is al jaren een betaald product, alleen heeft dat de naam TrueNAS... Daar is de afgelopen jaren weinig in veranderd.

ixSystems is juist toonaangevend als het gaat om de manier waarop ze Open Source ontwikkelingen stimuleren maar toch hun geld kunnen verdienen door goed support te verkopen.

Nexenta(Stor) en Napp-It zijn leuke ontwikkelingen, maar bedenk wel dat die ten grondslag liggen aan (Open)Solaris. Als je dacht dat FreeBSD exostisch was, berg je dan maar voor Solaris :)

NAS4Free is net zo open source als FreeNAS, het is een illusie dat het beter is.

Nogmaals: FreeNAS is gratis en Open Source, en wordt echt niet zomaar ongedaan gemaakt, die strategie is al heel lang ongewijzigd.

tl;dr; Gewoon voor FreeNAS gaan, dat is een prima, veilige, en stabiele keuze.

Mocht je de broncode zoeken: staat gewoon hier -> https://github.com/freenas/freenas

[ Voor 4% gewijzigd door FireDrunk op 17-05-2016 09:59 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Helder, dan ga ik toch eens met Freenas spelen.

Eerst mijn M1015 flashen naar IT mode, dat was mij recent nog niet gelukt 8)7

Acties:
  • +1 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Zit je net te denken om maar LUKS op een ZVOL te zetten (geen zin om mijn hele pool naar een pool op LUKS te migreren), komt er "binnenkort" wellicht native encryptie voor ZFS on Linux:
https://github.com/zfsonlinux/zfs/pull/4329

Zou mooi zijn :9~

Acties:
  • 0 Henk 'm!

  • Centropy
  • Registratie: Oktober 2007
  • Niet online

Centropy

Let there be light.

Goedendag, ik wil,eventueel zfsguru gaan gebruiken met een 24disk array, nou heb ik een paar vragen die me nog niet helemaal duidelijk zijn.

Wat gebeurt er als de hardware qua moederbord of controller stuk gaat, kan je dan alles aan een andere mobo en of controller hangen? Maakt de port plaats nog uit bij herplaatsing? En wat als je installatie ofwel je OS Inc instellingen het begeeft? Kan je dan herinstalleren en je array opnieuw koppelen zonder data verlies?

Verder las ik dat je niet zomaar verschillende disksizes kan gebruiken en die dan ook ten volste benutten... Maar kon je wel verschillende arrays koppelen tot 1 grote pool?

Mijn huidige disk set wordt 16x 2TB en 8x 4TB ik wil sowieso een dubbele schijfuitval mogelijk hebben zonder data verlies ( zoals raid 6)

En in het allerslechtste geval, wat is mogelijk qua data recovery bij een ramp?

Tnx in advance

Beter 1 hand in de lucht, dan geen hand!


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Centropy schreef op woensdag 18 mei 2016 @ 17:39:
Goedendag, ik wil,eventueel zfsguru gaan gebruiken met een 24disk array, nou heb ik een paar vragen die me nog niet helemaal duidelijk zijn.

Wat gebeurt er als de hardware qua moederbord of controller stuk gaat, kan je dan alles aan een andere mobo en of controller hangen?
Dat kan gewoon. Alleen Windows doet moeilijk bij nieuwe hardware; maar vrijwel alle non-Windows operating systems kun je gewoon aan andere hardware hangen en daarbij wordt de hardware opnieuw gedetecteerd. Dus opnieuw te installeren hoeft niet.

Ook je data is veilig bij ZFS - alle informatie die nodig is om bij je data te kunnen, staat op de disks zelf. Je bent dus niet afhankelijk van specifieke hardware (behalve de schijven zelf, uiteraard).
Maakt de port plaats nog uit bij herplaatsing?
Bij BSD (inclusief ZFSguru) maakt dat niet uit. Wel bij ZFS-on-Linux wat op dit vlak niet helemaal probleemloos werkt. Bij andere poorten zul je een 'corrupted data' melding krijgen. Dat klinkt ernstiger dan het is: gewoon even opnieuw de pool importeren en het zou weer moeten werken.
En wat als je installatie ofwel je OS Inc instellingen het begeeft? Kan je dan herinstalleren en je array opnieuw koppelen zonder data verlies?
Ja, dat kan. Je bent dus niet afhankelijk van het OS.
Verder las ik dat je niet zomaar verschillende disksizes kan gebruiken en die dan ook ten volste benutten... Maar kon je wel verschillende arrays koppelen tot 1 grote pool?
Dat klopt. Althans, het eerste punt: stel je hebt vier disks van 1TB,2TB, 3TB en 4TB, en je maakt daar een RAID-Z (zeg maar RAID5) van, dan gebruikt ZFS slechts 4x 1TB. Maar je kunt ook striping gebruiken dus zonder redundancy bescherming en dan wordt de capaciteit gewoon opgeteld, dus in totaal 10TB opslag zou bovenstaand voorbeeld opleveren. Maar met 24 disks wil je natuurlijk wel redundancy!

Wat jij arrays noemt, wordt in ZFS jargon 'vdevs' genoemd: virtual devices. Een 'pool' kan vervolgens één of meerdere vdevs bevatten. De pool is datgene waarbij alle beschikbare ruimte als één geheel beschikbaar is. Dus stel je hebt een pool met een vdev van 10x 4TB in RAID-Z2 en een vdev van 14x 6TB in RAID-Z3, ik noem maar wat, dan heb je de beschikbare opslagruimte van beide vdevs bij elkaar opgeteld als één geheel beschikbaar.

De vdevs in dezelfde pool mogen verschillen van disk grootte, disk aantal en redundancy level. Dus je kunt RAID-Z2 en RAID-Z3 combineren als je dat wilt.

Bedenk wel: als één vdev stuk is, zoals drie disks dood in de RAID-Z2 vdev, dan is alle opslag van de pool ontoegankelijk. Dus je kunt niet meer bij de data die op de RAID-Z3 vdev wordt opgeslagen. Sommigen kiezen om deze reden om aparte pools te maken. Nadeel is wel dat de vrije ruimte nu apart wordt gerekend en niet als één geheel beschikbaar is, evenals dat je iets qua snelheid inboet al mag dat het probleem niet zijn. Je kunt wel configureren dat beide pools meetellen voor de juiste combinatie.
Mijn huidige disk set wordt 16x 2TB en 8x 4TB ik wil sowieso een dubbele schijfuitval mogelijk hebben zonder data verlies ( zoals raid 6)
Je kiest waarschijnlijk voor 8 en 16 omdat dit vaak het aantal beschikbare poorten per controller is. Maar dat hoeft niet. Je kunt een vdev ook over meerdere controllers uitsmeren. Punt is dat ZFS onder omstandigheden efficiënter werkt met een specifiek aantal disks.

RAID-Z: 3,5,9,17 disks
RAID-Z2: 4,6,10,18 disks
RAID-Z3: 5,7,11,19 disks

Een RAID-Z2 van 10 disks is een beetje de sweet spot; 20% overhead met toch dubbele parity bescherming. Voor heel veel disks is een RAID-Z3 van 19 disks ook te overwegen. Of twee maal RAID-Z2 van elk 10 disks.

Kortom, moet het persé 24 disks zijn of hoe denk je daarover?
En in het allerslechtste geval, wat is mogelijk qua data recovery bij een ramp?
Bij ZFS is het ongeveer alles of niets. Of je hebt toegang tot alle data, of je hele pool is ontoegankelijk en je kunt recovery vergeten. Alle recovery die redelijkerwijs mogelijk is, doet ZFS automatisch al. Maar zodra cruciale filesystem metadata corrupt is, is gelijk je hele pool ontoegankelijk. Technisch gezien kun je met 'zdb' nog wat prutsen, maar ik zou je hoop daarop niet vestigen.

Gaat het niet om metadata maar om bad sectors, dan is ZFS daar heel coulant mee. Corruptie op je disks kan ZFS prima mee dealen. In het ergste geval zal een file stuk gaan.

Voor jouw build zou ik wel aanraden om een goede machine met ECC geheugen te overwegen. Een supermicro moederbord bijvoorbeeld. Gezien de prijzen van de disks maakt dat niet zoveel uit op de totaalprijs.

Succes met je build! :)

Overigens, ben je van plan heel veel posts te maken, kun je ook overwegen een eigen topic te beginnen. Dat mag gewoon, mits je een beetje uitgebreide startpost maakt.

Acties:
  • 0 Henk 'm!

  • Centropy
  • Registratie: Oktober 2007
  • Niet online

Centropy

Let there be light.

Verwijderd schreef op woensdag 18 mei 2016 @ 18:08:
[...]

Dat kan gewoon. Alleen Windows doet moeilijk bij nieuwe hardware; maar vrijwel alle non-Windows operating systems kun je gewoon aan andere hardware hangen en daarbij wordt de hardware opnieuw gedetecteerd. Dus opnieuw te installeren hoeft niet.

Ook je data is veilig bij ZFS - alle informatie die nodig is om bij je data te kunnen, staat op de disks zelf. Je bent dus niet afhankelijk van specifieke hardware (behalve de schijven zelf, uiteraard).


[...]

Bij BSD (inclusief ZFSguru) maakt dat niet uit. Wel bij ZFS-on-Linux wat op dit vlak niet helemaal probleemloos werkt. Bij andere poorten zul je een 'corrupted data' melding krijgen. Dat klinkt ernstiger dan het is: gewoon even opnieuw de pool importeren en het zou weer moeten werken.


[...]

Ja, dat kan. Je bent dus niet afhankelijk van het OS.


[...]

Maar met 24 disks wil je natuurlijk wel redundancy!


De vdevs in dezelfde pool mogen verschillen van disk grootte, disk aantal en redundancy level. Dus je kunt RAID-Z2 en RAID-Z3 combineren als je dat wilt.


[...]

Je kiest waarschijnlijk voor 8 en 16 omdat dit vaak het aantal beschikbare poorten per controller is. Maar dat hoeft niet. Je kunt een vdev ook over meerdere controllers uitsmeren. Punt is dat ZFS onder omstandigheden efficiënter werkt met een specifiek aantal disks.

RAID-Z: 3,5,9,17 disks
RAID-Z2: 4,6,10,18 disks
RAID-Z3: 5,7,11,19 disks

Een RAID-Z2 van 10 disks is een beetje de sweet spot; 20% overhead met toch dubbele parity bescherming. Voor heel veel disks is een RAID-Z3 van 19 disks ook te overwegen. Of twee maal RAID-Z2 van elk 10 disks.

Kortom, moet het persé 24 disks zijn of hoe denk je daarover?


[...]


Succes met je build.
Zo vanaf een iPad is het lastig editen in de quote, maar ik zit met die specifieke set disks omdat 3 nassen (8bays) vervangen gaan worden voor 1 grote Back-up diy nas die 1 grote opslag moet bieden, deze word snachts dan bijgewerkt vanaf een andere locatie als zijnde offsite Back-up van de hoofd nas waarvan gewerkt word.

Met oog op groei zal einde dit jaar dan een vdef vervangen gaat worden die uit dan dus bijv 5x 2tb eruit voor 5x 6Tb.

Er staan een paar mooie controllers te koop op v&a maar twijfel nog welke... Staat ook een 24p op....

Heel erg bedankt alvast voor je geweldige uitleg...

Ps: er is ook een supermicro bordje met 17x sata

pricewatch: Supermicro A1SA7-2750F (retail)

Beter 1 hand in de lucht, dan geen hand!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
Zoals je misschien hebt gezien heb ik 24 disks waarbij er 18 in een raidz2 vdev zitten en ook nog eens 6 in een raidz2 vdev. Dus totaal 4 disks kwijt aan parity.

ZFS verdeelt de data mooi over de vdevs naar verhouding, dat werkt goed.

Zelf Zou ik nu een 24-disk raidz3 testen met de large_blocks feature.

Acties:
  • 0 Henk 'm!

  • Centropy
  • Registratie: Oktober 2007
  • Niet online

Centropy

Let there be light.

Q schreef op woensdag 18 mei 2016 @ 18:47:
Zoals je misschien hebt gezien heb ik 24 disks waarbij er 18 in een raidz2 vdev zitten en ook nog eens 6 in een raidz2 vdev. Dus totaal 4 disks kwijt aan parity.

ZFS verdeelt de data mooi over de vdevs naar verhouding, dat werkt goed.

Zelf Zou ik nu een 24-disk raidz3 testen met de large_blocks feature.
Ja zeker, heb gesmuld van je blog! Zal nu ik net heb gelezen hoe het wat specifieker werkt je details van setup is goed doornemen!

Beter 1 hand in de lucht, dan geen hand!


Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 19-09 09:06
Ik heb een probleem met auto-mounten na een ZFS receive. Wellicht kunnen jullie er je licht eens over laten schijnen.

De situatie:
  • de ZFS pool op mijn thuisserver heet storage
  • storage/home wordt gemount op /home
Ik maak d.m.v. ZFS send/receive backups van een colocated server. Deze komen terecht in storage/BackupsColo, dus /home (ZFS filesystem storage/home, ja ik gebruik op beide een pool die storage heet) op de colo server komt in storage/BackupsColo/home op mijn thuisserver.

Na een reboot van de thuisserver loop ik tegen het volgende probleem aan: storage/BackupsColo/home wordt op /home gemount (want ik laat alle ZFS properties meekomen in de send/receive), en vervolgens wordt storage/home daaroverheen gemount.

Dat lijkt me niet ideal. Ik kan storage/BackupsColo/home ook niet unmounten, want dan krijg ik de melding:
code:
1
2
$ sudo umount storage/BackupsColo/home
umount: cannot unmount storage/BackupsColo/home -- storage/home is mounted over it on the same point


Beide servers draaien Ubuntu met ZoL.

Acties:
  • 0 Henk 'm!
Optie 1. werken met legacy mountpoints en de mountpoint zelf in je fstab zetten. Dit is het beste.
Optie 2. canmount=off instellen en zfs recv met de -u parameter wat mounten uitzet bij het ontvangen van je snapshot.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 19-09 09:06
CurlyMo schreef op donderdag 19 mei 2016 @ 11:29:
Optie 1. werken met legacy mountpoints en de mountpoint zelf in je fstab zetten. Dit is het beste.
Dat zou dan alleen op de colobak hoeven, want voor die filesystems wordt de (dan lege) property mountpoint dan naar de thuisserver ge-send en worden die FS-en dus niet gemount bij een reboot, correct? Voor de lokale FS-en op de thuisserver kan mounten dan gewoon via de ZFS property mountpoint blijven gebeuren.
Optie 2. canmount=off instellen en zfs recv met de -u parameter wat mounten uitzet bij het ontvangen van je snapshot.
Als ik voor deze optie zou kiezen (voor de FS-en op de coloserver), zou dat dan niet betekenen dat de FS-en op die bak dan niet automatisch gemount worden bij een reboot?

Acties:
  • 0 Henk 'm!

  • narotic
  • Registratie: Maart 2002
  • Laatst online: 02-11-2021
Totdat ZoL de -x en -o opties implementeert om properties on the fly in zfs receive aan te passen zijn er helaas niet veel opties.

In mijn situatie heb ik er omheen kunnen werken door mountpoint expliciet te zetten op de target dataset. Dat werkt alleen als de onderliggende datasets vervolgens die lokale mountpoint inheriten.

In jouw geval dat je een root dataset stuurt en hoogstwaarschijnlijk een lokale mountpoint=/home hebt op storage/home werkt dat dus niet.

Edit:
Wellicht dat je ook canmount=noauto kunt gebruiken op de backup dataset en vervolgens (als je dat wilt) de dataset handmatig mounten met zfs mount -o mountpoint=/BackupsColo/home storage/BackupsColo/home (evt. via fstab, rc.local, pam_mount, whatever...).

[ Voor 18% gewijzigd door narotic op 20-05-2016 12:16 ]

- = Step Into The Pit | Industrial Strength = -


Acties:
  • 0 Henk 'm!
ph0t0nix schreef op vrijdag 20 mei 2016 @ 11:21:
[...]
Dat zou dan alleen op de colobak hoeven, want voor die filesystems wordt de (dan lege) property mountpoint dan naar de thuisserver ge-send en worden die FS-en dus niet gemount bij een reboot, correct? Voor de lokale FS-en op de thuisserver kan mounten dan gewoon via de ZFS property mountpoint blijven gebeuren.
Klopt

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Ik heb een volume aangemaakt met hier een 8Tb disk. Deze heeft mijn complete synology nas als backup staan.

Nu wil ik de schijven van mijn synology (4x4TB) in mijn freenas zetten. De disken zijn netjes zichtbaar.

Nu wil ik een nieuw volume aanmaken maar ik krijg niet de optie voor raid-z, ik mag alleen striped, mirrored etc. Weet iemand hoe ik naast een reeds bestaand volume een nieuw raid-z volume mag aanmaken? De freenas documentation zegt daar vrij weinig over.

Acties:
  • +1 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Met 2 schijven kan je geen raid-z(1,2,3) maken daar zijn meer schijven(minimaal 3 dus) voor nodig.
Mirror wel, kan er ook 1 schijf mee stoppen zonder je data kwijt te raken.

De schijf die al in gebruik is kan je er niet meer bij betrekken.


Never mind, verkeerd gelezen. :z

[ Voor 8% gewijzigd door tweedebas op 22-05-2016 20:55 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:28

Compizfox

Bait for wenchmarks

tweedebas schreef op zondag 22 mei 2016 @ 19:55:
Met 2 schijven kan je geen raid-z(1,2,3) maken daar zijn meer schijven(minimaal 3 dus) voor nodig.
Mirror wel, kan er ook 1 schijf mee stoppen zonder je data kwijt te raken.

De schijf die al in gebruik is kan je er niet meer bij betrekken.
Hij had toch 4 schijven? Daarmee moet RAID-Z wel kunnen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Met 2 disks kan RAID-Z ook. Heb je niks aan tov mirror, maar 't kan wel :P

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:28

Compizfox

Bait for wenchmarks

CyBeR schreef op zondag 22 mei 2016 @ 19:59:
Met 2 disks kan RAID-Z ook. Heb je niks aan tov mirror, maar 't kan wel :P
Voor RAID-Z1 heb je minimaal 3 schijven nodig toch? Ik kan me niet voorstellen hoe RAID-Z1 zou moeten werken met 2 schijven.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Heel simpel: een mirror maar dan met de bits naar de 2e disk gexor'ed. 't is een special case in de code.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Oke hele stomme actie 8)7 |:(

Als ik mijn 4 disken toevoeg komen deze automatisch als 2x2 of 4x1 (mirrored of stripe dus).

Aan de rechter kant zie je dan een grafische weergave en als je met dat balkje gaat verschuiven naar een reeks van 4 kan je dus wel raidz instellen.

Stomstomstom. |:(

Acties:
  • 0 Henk 'm!
Wauw, ze knutselen nog flink aan BTRFS
Hi Linus,

My for-linus-4.7 branch:

git://git.kernel.org/pub/scm/linux/kernel/git/mason/linux-btrfs.git for-linus-4.7

Has our merge window series of cleanups and fixes. These target a wide
range of issues, but do include some important fixes for qgroups,
O_DIRECT, and fsync handling. Jeff Mahoney moved around a few
definitions to make them easier for userland to consume.

Also whiteout support is included now that issues with overlayfs have
been cleared up.

I have one more fix pending for page faults during btrfs_copy_from_user,
but I wanted to get this bulk out the door first.

David Sterba (28) commits (+343/-247):
btrfs: introduce raid-type to error-code table, for minimum device constraint (+16/-1)
btrfs: switch to common message helpers in open_ctree, adjust messages (+50/-52)
btrfs: reuse existing variable in scrub_stripe, reduce stack usage (+9/-10)
btrfs: send: use vmalloc only as fallback for clone_sources_tmp (+8/-5)
btrfs: pass number of devices to btrfs_check_raid_min_devices (+20/-15)
btrfs: use dynamic allocation for root item in create_subvol (+37/-28)
btrfs: use existing device constraints table btrfs_raid_array (+9/-14)
btrfs: clone: use vmalloc only as fallback for nodesize bufer (+8/-5)
btrfs: send: use temporary variable to store allocation size (+8/-6)
btrfs: make find_workspace warn if there are no workspaces (+14/-0)
btrfs: rename and document compression workspace members (+19/-16)
btrfs: send: use vmalloc only as fallback for clone_roots (+7/-4)
btrfs: add read-only check to sysfs handler of features (+3/-0)
btrfs: send: use vmalloc only as fallback for read_buf (+7/-4)
btrfs: send: use vmalloc only as fallback for send_buf (+7/-4)
btrfs: ioctl: reorder exclusive op check in RM_DEV (+11/-12)
btrfs: ioctl: reorder exclusive op check in RM_DEV (+11/-12)
btrfs: add write protection to SET_FEATURES ioctl (+13/-3)
btrfs: kill unused writepage_io_hook callback (+16/-24)
btrfs: rename btrfs_find_device_by_user_input (+13/-10)
btrfs: build fixup for qgroup_account_snapshot (+5/-0)
btrfs: sysfs: protect reading label by lock (+7/-1)
btrfs: make find_workspace always succeed (+12/-8)
btrfs: preallocate compression workspaces (+16/-0)
btrfs: add check to sysfs handler of label (+3/-0)
btrfs: rename __check_raid_min_devices (+2/-2)
btrfs: GFP_NOFS does not GFP_HIGHMEM (+4/-4)
btrfs: rename flags for vol args v2 (+8/-7)

Anand Jain (20) commits (+449/-381):
btrfs: fix lock dep warning, move scratch dev out of device_list_mutex and uuid_mutex (+12/-5)
btrfs: fix lock dep warning move scratch super outside of chunk_mutex (+5/-4)
btrfs: make use of btrfs_scratch_superblocks() in btrfs_rm_device() (+13/-64)
btrfs: enhance btrfs_find_device_by_user_input() to check device path (+3/-4)
btrfs: cleanup assigning next active device with a check (+48/-22)
btrfs: create helper function __check_raid_min_devices() (+32/-19)
btrfs: create helper btrfs_find_device_by_user_input() (+23/-23)
btrfs: clean up and optimize __check_raid_min_device() (+19/-24)
btrfs: create a helper function to read the disk super (+52/-35)
btrfs: rename btrfs_std_error to btrfs_handle_fs_error (+31/-31)
btrfs: pass the right error code to the btrfs_std_error (+2/-2)
btrfs: make use of btrfs_find_device_by_user_input() (+37/-63)
btrfs: move error handling code together in ctree.h (+40/-38)
btrfs: refactor btrfs_dev_replace_start for reuse (+41/-23)
btrfs: s_bdev is not null after missing replace (+6/-3)
btrfs: remove unused function btrfs_assert() (+0/-1)
btrfs: introduce device delete by devid (+73/-5)
btrfs: optimize check for stale device (+2/-1)
btrfs: remove save_error_info() (+6/-10)
btrfs: use fs_info directly (+4/-4)

Filipe Manana (13) commits (+404/-180):
Btrfs: fix race between fsync and direct IO writes for prealloc extents (+37/-6)
Btrfs: fix empty symlink after creating symlink and fsync parent dir (+1/-1)
Btrfs: add semaphore to synchronize direct IO writes with fsync (+77/-118)
Btrfs: fix inode leak on failure to setup whiteout inode in rename (+6/-6)
Btrfs: fix for incorrect directory entries after fsync log replay (+8/-5)
Btrfs: fix race between block group relocation and nocow writes (+81/-1)
Btrfs: fix number of transaction units for renames with whiteout (+8/-1)
Btrfs: don't wait for unrelated IO to finish before relocation (+38/-19)
Btrfs: pin logs earlier when doing a rename exchange operation (+4/-4)
Btrfs: don't do unnecessary delalloc flushes when relocating (+79/-7)
Btrfs: unpin logs if rename exchange operation fails (+36/-2)
Btrfs: unpin log if rename operation fails (+27/-1)
Btrfs: pin log earlier when renaming (+2/-9)

Jeff Mahoney (8) commits (+1161/-1090):
btrfs: uapi/linux/btrfs.h migration, move struct btrfs_ioctl_defrag_range_args (+37/-32)
btrfs: uapi/linux/btrfs_tree.h migration, item types and defines (+967/-948)
btrfs: uapi/linux/btrfs.h migration, document subvol flags (+14/-3)
btrfs: uapi/linux/btrfs.h migration, move BTRFS_LABEL_SIZE (+1/-1)
btrfs: uapi/linux/btrfs.h migration, move balance flags (+64/-46)
btrfs: uapi/linux/btrfs.h migration, move feature flags (+31/-25)
btrfs: uapi/linux/btrfs.h migration, qgroup limit flags (+21/-9)
btrfs: uapi/linux/btrfs_tree.h, use __u8 and __u64 (+26/-26)

Liu Bo (4) commits (+39/-15):
Btrfs: make mapping->writeback_index point to the last written page (+26/-6)
Btrfs: do not create empty block group if we have allocated data (+8/-1)
Btrfs: cleanup error handling in extent_write_cached_pages (+2/-5)
Btrfs: fix divide error upon chunk's stripe_len (+3/-3)

Luis de Bethencourt (3) commits (+25/-11):
btrfs: fix mixed block count of available space (+13/-3)
btrfs: avoid overflowing f_bfree (+5/-1)
btrfs: fix typos in comments (+7/-7)

Scott Talbert (1) commits (+2/-0):
btrfs: fix memory leak during RAID 5/6 device replacement

Adam Borowski (1) commits (+1/-1):
btrfs: fix int32 overflow in shrink_delalloc().

Luke Dashjr (1) commits (+24/-2):
btrfs: bugfix: handle FS_IOC32_{GETFLAGS,SETFLAGS,GETVERSION} in btrfs_ioctl

Satoru Takeuchi (1) commits (+3/-3):
btrfs: Simplify conditions about compress while mapping btrfs flags to inode flags

Ashish Samant (1) commits (+1/-1):
btrfs: Fix BUG_ON condition in scrub_setup_recheck_block()

Zygo Blaxell (1) commits (+15/-3):
btrfs: don't force mounts to wait for cleaner_kthread to delete one or more subvolumes

Vincent Stehlé (1) commits (+1/-1):
Btrfs: fix fspath error deallocation

Qu Wenruo (1) commits (+105/-24):
btrfs: qgroup: Fix qgroup accounting when creating snapshot

Dan Carpenter (1) commits (+6/-0):
btrfs: send: silence an integer overflow warning

Geert Uytterhoeven (1) commits (+20/-21):
Btrfs: Refactor btrfs_lock_cluster() to kill compiler warning

Josef Bacik (1) commits (+16/-2):
Btrfs: remove BUG_ON()'s in btrfs_map_block

Chandan Rajendra (1) commits (+3/-1):
Btrfs: __btrfs_buffered_write: Pass valid file offset when releasing delalloc space

Dan Fuhry (1) commits (+257/-7):
btrfs: add support for RENAME_EXCHANGE and RENAME_WHITEOUT

Austin S. Hemmelgarn (1) commits (+2/-4):
btrfs: allow balancing to dup with multi-device

Total: (90) commits (+2877/-1994)

fs/btrfs/backref.c | 2 +-
fs/btrfs/btrfs_inode.h | 10 +
fs/btrfs/compression.c | 85 ++-
fs/btrfs/ctree.c | 6 +-
fs/btrfs/ctree.h | 1123 +++------------------------------------
fs/btrfs/delayed-inode.c | 2 +-
fs/btrfs/dev-replace.c | 101 ++--
fs/btrfs/dev-replace.h | 4 +-
fs/btrfs/disk-io.c | 130 ++---
fs/btrfs/extent-tree.c | 167 +++++-
fs/btrfs/extent_io.c | 82 +--
fs/btrfs/extent_io.h | 1 -
fs/btrfs/file.c | 6 +-
fs/btrfs/inode-item.c | 2 +-
fs/btrfs/inode.c | 466 +++++++++++++---
fs/btrfs/ioctl.c | 198 +++++--
fs/btrfs/ordered-data.c | 26 +-
fs/btrfs/ordered-data.h | 6 +-
fs/btrfs/relocation.c | 13 +-
fs/btrfs/root-tree.c | 4 +-
fs/btrfs/scrub.c | 25 +-
fs/btrfs/send.c | 62 ++-
fs/btrfs/super.c | 60 ++-
fs/btrfs/sysfs.c | 14 +-
fs/btrfs/transaction.c | 138 ++++-
fs/btrfs/tree-log.c | 74 +--
fs/btrfs/volumes.c | 454 +++++++++-------
fs/btrfs/volumes.h | 57 +-
include/uapi/linux/btrfs.h | 188 ++++++-
include/uapi/linux/btrfs_tree.h | 966 +++++++++++++++++++++++++++++++++
30 files changed, 2678 insertions(+), 1794 deletions(-)
Dat zijn een hoooop wijzigingen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
FireDrunk schreef op maandag 23 mei 2016 @ 07:38:
Wauw, ze knutselen nog flink aan BTRFS

Dat zijn een hoooop wijzigingen :)
Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?

Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 19-09 09:06
narotic schreef op vrijdag 20 mei 2016 @ 12:04:
Totdat ZoL de -x en -o opties implementeert om properties on the fly in zfs receive aan te passen zijn er helaas niet veel opties.
Dat is interessant om te lezen. Ik wist niet van het bestaan van deze opties in Oracle's ZFS. Als ik mijn snelle google-zoektocht moet geloven zitten deze opties ook (nog) niet in FreeBSD's ZFS.

Ik zal eens met canmount spelen. Voorlopig even wachten tot de laatste grote ZFS snapshot gesynct is voor ik kan rebooten. Opeens is 50 Mb downstream niet meer zo veel... :/

Acties:
  • 0 Henk 'm!
Weet iemand of er al goede grafische tools zijn voor ZFS Snapshot management? Ik zou best met de CLI willen werken, maar soms is het overzichtelijker dat je zowel source als target kan zien qua snapshot lijst.

Hoeft niet super uitgebreid te zijn, alleen een lijstje met welke snapshots er zijn, en welke met elkaar corresponderen, zou al voldoende zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 21-09 19:36
Q schreef op maandag 23 mei 2016 @ 14:41:
[...]


Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
Hmm dat doet mij inderdaad weer twijfelen :) Ik had namelijk net het plan opgevat om een Nas te bouwen op basis van BTRFS via Rockstor.

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
Faddermakker schreef op dinsdag 24 mei 2016 @ 08:13:
[...]

Hmm dat doet mij inderdaad weer twijfelen :) Ik had namelijk net het plan opgevat om een Nas te bouwen op basis van BTRFS via Rockstor.
https://btrfs.wiki.kernel...hp/FAQ#Is_btrfs_stable.3F

Short answer: Maybe.

Daar doe ik het niet voor. Als je je eigen product nog niet vertrouwd, toedels!

Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Q schreef op dinsdag 24 mei 2016 @ 09:15:
[...]


https://btrfs.wiki.kernel...hp/FAQ#Is_btrfs_stable.3F

Short answer: Maybe.

Daar doe ik het niet voor. Als je je eigen product nog niet vertrouwd, toedels!
Je moet ook wel de vervolg tekst lezen onder de maybe ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:24
idef1x schreef op dinsdag 24 mei 2016 @ 15:17:
[...]

Je moet ook wel de vervolg tekst lezen onder de maybe ;)
Daar staat niets relevants. Ze staan niet voor hun eigen product, de laffaards. >:)

Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 21-09 11:44
Iemand een idee hoe Ubuntu 16.04 eigenlijk standaard ZFS ondersteund? Ik probeerde laatst een recentere kernel te compileren en installeren, maar na daarmee geboot te zijn werkte ZFS niet meer. Wel nadat ik zfs-dkms installeerde, maar dat zou niet nodig moeten zijn lijkt me.

Afijn blijf wel even bij de default Ubuntu 16.04 kernel dan. Doet het eigenlijk ook al voldoende ;)

Acties:
  • 0 Henk 'm!
Ubuntu doet nog altijd ZFS als kernel module volgens mij, want echt in de kernel zelf mee compileren doet ZoL nog niet dacht ik (en mag ook niet volgens mij, maar dat is een andere discussie).

Even niets...


Acties:
  • +1 Henk 'm!

  • Mmore
  • Registratie: Oktober 2006
  • Laatst online: 19-09 17:23
Faddermakker schreef op dinsdag 24 mei 2016 @ 08:13:
[...]

Hmm dat doet mij inderdaad weer twijfelen :) Ik had namelijk net het plan opgevat om een Nas te bouwen op basis van BTRFS via Rockstor.
Gewoon doen, niks mis mee. Ik heb zelf een 16-bay setup met 64TB raw storage over BtrFS en heb er echt van alles en nog wat mee gedaan. Disks eruit trekken om recovery te testen, Raid levels converten van raid1 naar raid0 en weer terug (draai nu raid6) en files verwijderd om via snapshots dingen weer terug te halen. Is niet kapot te krijgen en gezien de hoeveel data die eruit draait (dataset van ongeveer 20TB) super snel. O+

De enige disclaimer is dat je niet schuw moet zijn voor de CLI want bijvoorbeeld recovery maar ook veel andere zaken zit nog niet in de Rockstor Webui, dus daarvoor moet je echt verbinding maken met de terminal om commands uit te voeren. :)

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 09:27

BCC

Q schreef op maandag 23 mei 2016 @ 14:41:
[...]


Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
Het voordeel dat zol heeft is dat Sun/BSD alle logica al heeft uitgedacht en ze dus "alleen maar" een api moeten implementeren. BTRFS is naast zichzelf implementeren ook nog bezig zichzelf uit te vinden, en dat kost uiteraard veel meer tijd.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Centropy
  • Registratie: Oktober 2007
  • Niet online

Centropy

Let there be light.

Ik ben bijna zover om mijn build te gaan gebruiken, maar ben op het laatste moment toch waarschijnlijk over qua plan op freenas omdat daar de rsync al volledig in verwerkt zit (vanplaats zfsguru). Ik heb dit nodig omdat ik mijn build wil syncen met een Synology nas.

Verder ben ik erg benieuwd of mensen ervaring hebben met een grof van een vdef uit je pool.
Dus stel ik heb 2 vdefs van 8x 2TB en wil er in upgraden naar 8x8TB kan ik dan 1 voor 1 vervangen, rebuilden tot ik dat 8x gedaan heb en dan een grow uitvoeren zodat ik de capaciteit er bij krijg?
Het gaat hier overigens om RaidZ2 vdefs.

Beter 1 hand in de lucht, dan geen hand!


Acties:
  • 0 Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

BCC schreef op vrijdag 27 mei 2016 @ 14:50:
[...]

Het voordeel dat zol heeft is dat Sun/BSD alle logica al heeft uitgedacht en ze dus "alleen maar" een api moeten implementeren. BTRFS is naast zichzelf implementeren ook nog bezig zichzelf uit te vinden, en dat kost uiteraard veel meer tijd.
Volgens mij heeft Sun (BSD? the fuck?) er minder lang over gedaan om ZFS stable te krijgen dan btrfs hoor.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@centropy

Ja je kan gewoon de disks vervangen door grotere schijven, in een raidz2 zou je het per twee kunnen doen maar 1 voor 1 is veiliger.

Het volgende commanda laat zien of autoexpand aan staat.
code:
1
zpool get autoexpand <poolnaam>

Met het volgende commando zet je het aan als het uit staat.
code:
1
zpool set autoexpand=on <poolnaam>


Als de laatste disk geresilvered is dan zal de ruimte beschikbaar zijn. met het volgende commando kun je dat zien.

code:
1
zpool get expandsize  <poolnaam>


met het volgende commando voeg je de ruimte ook toe

code:
1
zpool online -e <poolnaam> gpt/<labelnaam> gpt/<labelnaam>

[ Voor 19% gewijzigd door syl765 op 06-06-2016 22:39 . Reden: even wat toevoegingen. ]


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Q schreef op maandag 23 mei 2016 @ 14:41:
[...]


Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
Dat vraag ik me voor HAMMER2 af.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-09 18:08
Foutje

[ Voor 98% gewijzigd door A1AD op 06-06-2016 22:09 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Centropy
  • Registratie: Oktober 2007
  • Niet online

Centropy

Let there be light.

syl765 schreef op maandag 06 juni 2016 @ 20:30:
@centropy

Ja je kan gewoon de disks vervangen door grotere schijven, in een raidz2 zou je het per twee kunnen doen maar 1 voor 1 is veiliger.

Het volgende commanda laat zien of autoexpand aan staat.
code:
1
zpool get autoexpand <poolnaam>

Met het volgende commando zet je het aan als het uit staat.
code:
1
zpool set autoexpand=on <poolnaam>


Als de laatste disk geresilvered is dan zal de ruimte beschikbaar zijn. met het volgende commando kun je dat zien.

code:
1
zpool get expandsize  <poolnaam>


met het volgende commando voeg je de ruimte ook toe

code:
1
zpool online -e <poolnaam> gpt/<labelnaam> gpt/<labelnaam>
Tnx ik ga er mee aan de gang!

Beter 1 hand in de lucht, dan geen hand!


Acties:
  • 0 Henk 'm!
Iemand nog commentaar op deze set voor een offsite backup bij familie?
#ProductPrijsSubtotaal
1ASRock C70M1€ 35,95€ 35,95
1Inter-Tech ITX SY-800€ 30,-€ 30,-
2Sandisk Cruzer Fit 8GB Zwart€ 5,02€ 10,04
1Crucial CT102464BA160B€ 25,95€ 25,95
1be quiet! System Power 7 300W€ 39,-€ 39,-
Bekijk collectie
Importeer producten
Totaal€ 140,94


Goedkoper dan de NUC en makkelijker te voorzien van meerdere schijven voor een mirror. Om een beetje vriendelijk te zijn voor het stroomverbruik zou een Pico ook nog kunnen voor € 10 meer, maar of dat een merkbaar verschil gaat maken...

#ProductPrijsSubtotaal
1Mini-box picoPSU 80 + 60W Adapter Power Kit€ 49,95€ 49,95
Bekijk collectie
Importeer producten
Totaal€ 49,95

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
Ben vrij nieuw met ZFS. Maar vroeg me af, zou ik FreeNAS kunnen installeren binnen een VMware box, en dan de schijven pass-thru zetten?! ZFS luistert nogal nauw, las ik (als in: het moet echt 100% pass-thru zijn, of dingen gaan vreselijk mis).

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
albatross schreef op dinsdag 14 juni 2016 @ 12:13:
Ben vrij nieuw met ZFS. Maar vroeg me af, zou ik FreeNAS kunnen installeren binnen een VMware box, en dan de schijven pass-thru zetten?! ZFS luistert nogal nauw, las ik (als in: het moet echt 100% pass-thru zijn, of dingen gaan vreselijk mis).
Heb je dan ook 90% pass-thru :P

Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
matty___ schreef op dinsdag 14 juni 2016 @ 13:00:
[...]

Heb je dan ook 90% pass-thru :P
In zekere zin wel: een (mogelijk) onderliggende RAID controller zou ook write-cache operaties op die schijven kunnen uitvoeren. En ook Windows zou zich er mee kunnen bemoeien (flushen en zo). Het is dus vitaal dat in zo'n pass-thru situatie *niemand* zich verder met die schijven bemoeit, behalve FreeNAS.

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • +2 Henk 'm!
Ja dat kan, maar dat is niet getest op het niveau dat ZFS op andere fronten getest wordt.
Er is zoiets als Raw Device Mapping, wat je in staat stelt om ruwe schijven door te geven.

Persoonlijk heb ik het met ESXi icm SAS en AHCI geprobeerd en werkte het in eerste instantie prima.
Ook technisch heb ik er geen directe nadelen van ondervonden. Er zijn wel technisch betere oplossingen zoals het gebruik van VT-d.

Simpele oplossing is tegenwoordig een NVME SSD te kopen, waardoor je daar je Datastore op kan leggen. Dan kan je (in veel gevallen) daarna je onboard AHCI controller doorgeven aan een VM.

Even niets...


Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
FireDrunk schreef op dinsdag 14 juni 2016 @ 13:23:

Simpele oplossing is tegenwoordig een NVME SSD te kopen, waardoor je daar je Datastore op kan leggen. Dan kan je (in veel gevallen) daarna je onboard AHCI controller doorgeven aan een VM.
Ja, dat klinkt als een goede oplossing. :) Dan blijft Windows er in ieder geval van af.

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • +1 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
albatross schreef op dinsdag 14 juni 2016 @ 12:13:
Ben vrij nieuw met ZFS. Maar vroeg me af, zou ik FreeNAS kunnen installeren binnen een VMware box, en dan de schijven pass-thru zetten?! ZFS luistert nogal nauw, las ik (als in: het moet echt 100% pass-thru zijn, of dingen gaan vreselijk mis).
Ik draai zelfs VMware met ZFS er onder, het moederbord had een aparte LSI controller voor de disks, dus ik heb die hele controller via VT-d doorgegeven aan mn storage instance, werkt als een zonnetje moet ik zeggen.

RDM heb ik mezelf nooit aan gewaagd, hoewel ik genoeg gezien heb waar het wel werkt lijkt het me toch iets te iffy voor mn storage...

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
RDM is niet zo raw als het klinkt (er zit een behoorlijke virtualisatielaag tussen om het aan je guest te presenteren). Het zou voor ZFS best kunnen werken maar standaard werkt het niet op lokale HBA's en bovendien mis je zaken als SMART dus het is denk ik niet echt aan te bevelen.

Acties:
  • 0 Henk 'm!

  • albatross
  • Registratie: September 2006
  • Laatst online: 11-06 16:43
DXaroth schreef op dinsdag 14 juni 2016 @ 14:39:
[...]


Ik draai zelfs VMware met ZFS er onder, het moederbord had een aparte LSI controller voor de disks, dus ik heb die hele controller via VT-d doorgegeven aan mn storage instance, werkt als een zonnetje moet ik zeggen.
Hoe bedoel je 'er onder'? Toch niet de datastore zelf, neem ik aan. Dus LSI controller pass-thru gegeven, en vervolgens een ZFS-aware OS geinstalleerd (zoals FreeNAS), en die de controller gegeven?

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:28

Compizfox

Bait for wenchmarks

Bigs schreef op dinsdag 14 juni 2016 @ 14:46:
RDM is niet zo raw als het klinkt (er zit een behoorlijke virtualisatielaag tussen om het aan je guest te presenteren). Het zou voor ZFS best kunnen werken maar standaard werkt het niet op lokale HBA's en bovendien mis je zaken als SMART dus het is denk ik niet echt aan te bevelen.
Je hebt twee soorten RDM. Virtual RDM is inderdaad niet zo raw (de schijven worden als block devices doorgegeven) maar physical RDM wel. SMART werkt daarmee ook gewoon.

RDM werkt ook op lokale HBAs via de command line.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Je hebt gelijk.. dan is Physical RDM inderdaad een prima optie.

Acties:
  • 0 Henk 'm!
Ik lees in het DIY NAS forum dat een AMD C70 niet echt de beste keus is voor een NAS. Maar voor een offsite backup zal het toch wel prima zijn? Nu kom ik van een Raspberry Pi achtige oplossing :p

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 09:27

BCC

Apple heeft een nieuw fs en het is helaas geen ZFS 😔 Gemiste kans voor Apple

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • +1 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
albatross schreef op dinsdag 14 juni 2016 @ 14:49:
[...]


Hoe bedoel je 'er onder'? Toch niet de datastore zelf, neem ik aan. Dus LSI controller pass-thru gegeven, en vervolgens een ZFS-aware OS geinstalleerd (zoals FreeNAS), en die de controller gegeven?
Ik draai ZFS op een instance in VMware, via ZoL op een Ubuntu 14.04 (moet echt een keer updaten naar 16.04 maar ben er nogal huiverig voor.. van ZoL naar een Ubuntu-build van ZFS, brr)

Acties:
  • 0 Henk 'm!
CurlyMo schreef op dinsdag 14 juni 2016 @ 21:36:
Ik lees in het DIY NAS forum dat een AMD C70 niet echt de beste keus is voor een NAS. Maar voor een offsite backup zal het toch wel prima zijn? Nu kom ik van een Raspberry Pi achtige oplossing :p
C70 is wel echt *heel* oud. Kan je niet beter een nieuwe Celeron nemen? (N3150 ofzo).

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op dinsdag 14 juni 2016 @ 22:47:
[...]

C70 is wel echt *heel* oud. Kan je niet beter een nieuwe Celeron nemen? (N3150 ofzo).
Goedkoopste is twee keer zo duur en dat voor alleen externe backup.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Ik heb freenas draaien op een ESX bak met een IBM 1015 hba gepassthrought.
Nu moet ik alleen alles ombouwen in een andere kast.

Ik weet niet 100% zeker of het iets uitmaakt dat ik alle kabels van de disken los ga maken, natuurlijk zorg ik er wel voor dat elke disk de zelfde kabel heeft op de HBA.

Normaal gesproken met een normale computer maakt dit niets uit maar met Freenas/ESX/HBA combo weet ik dit niet zeker :z

Kan iemand dit verifieren?
Pagina: 1 ... 173 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.