Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Krijg je tegenwoordig niet ook gratis snapshots op je vps?BCC schreef op vrijdag 15 april 2016 @ 16:41:
Eh ja, sorry voor de onduidelijkheid. Verkeer tussen je vps en je bigstorage telt niet mee en je moet dus ZFS op ZFS draaien.
FreeBSD kan webdav mounten via WDFS. Dit werkt op zich prima bij mij met Stack voor dagelijkse rsync backups vanaf een TransIP VPS. Je merkt uiteraard wel dat er een latency is.base_ schreef op vrijdag 15 april 2016 @ 16:14:
[...]
Hoe mount je die ZFS in een TransIP VPS? Ik zie bij TransIP wel een heel verhaal over linux davfs2, geen idee wat de FreeBSD support is. Daarnaast: ik neem aan dat data tussen de stack en VPS gewoon als internet verkeer meegeteld wordt? incremental (file of blockbased) backup lijkt me dan ook noodzakelijk.
Send/receive streams van ZFS snapshots kunnen natuurlijk altijd van/naar een file op je webdav mount. Ik heb het echter nooit geprobeerd, dus ik weet niet hoe soepel dat gaat.
- = Step Into The Pit | Industrial Strength = -
Ja een stuk of 6 per dag met 2 dagen retentie oid (backups, gaat dus niet verder als 2 dagen terug) en vanaf de op een na goedkoopste VPS ook een permanente snapshot.matty___ schreef op vrijdag 15 april 2016 @ 20:27:
[...]
Krijg je tegenwoordig niet ook gratis snapshots op je vps?
Stack lijkt leuk maar bigstorage is de betere oplossing, hierbij valt de data ook zeker buiten het internetverkeer.
Daarnaast is een rsync naar offsite toch ook wel fijn (mochten de dijken breken ofzo
Kom je bij het restoren (of zelfs backuppen) niet in de knel met een datalimiet van 1 of 2TB per maand?
Ik zie dat één download map eigenaar transmission:transmission heeft en één map heeft als eigenaar soulcrusher:share. Ik neem aan dat de transmission service onder de groep wheel valt, maar hij wil niet downloaden als ik de volgende eigenaars instel:
soulcrusher:share
share:share
transmission:transmission
transmission:wheel
Hoe kan ik dit probleem oplossen?
Qua permissies heb ik nooit iets gewijzigd geloof ik.
[ Voor 11% gewijzigd door soulcrusher op 17-04-2016 20:06 ]
Helaas is je 4TB hdd niet 4TiB groot. Dus je berekening gaat niet op..kaaas schreef op vrijdag 15 april 2016 @ 13:13:
Ik heb een vraag over de bruikbare ruimte in zfs als iemand weet hoe het precies zit ik ben erg benieuwd.
Met een 6x4TB raidz heb ik een beschikbare schijf ruimte van 17TiB
MAaar volgens mijn berekeningen zou ik 17,6 Tib moeten hebben.
24TB - 4 = 20 TB =18.18989404 TiB
haal daar de 3.125% spa_slop_shift reservering van af en ik kom op 17.6TiB uit.
Maar ik heb 17TiB beschikbaar waar is mijn .6 TiB
En hoe kun je deze beschikbare ruimte vergelijken met bijv een md raid5 hiermee kom je met de zelfde disks uit op 19TiB wat nogal een verschil is waar komt dit vandaan. En hoe kan het dat als je bij raid 5 1 disk voor paritie gebruikt je op 19Tib uit komt dat zou 18.2 moeten zijn.
Elke TB is maar 931 GB en geen 1000 GB.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Daar ben ik van op de hoogte als je had mee gerekend had je dit ook gezien. Bijv 20 TB is 18,2 TiB.
Mijn vraag is dan ook niet het TB TiB verschil maar ,6TiB die ik kwijt ben in zfs en niet kan plaatsen en hoe het kan dat een md 5 raid ,7 TiB meer heeft dan je zou denken.
Als mijn berekeningen niet duidelijk genoeg zijn laat het weten. dan schrijf ik het verder uit.
Zoals ook in het gelinkte artikel staat, zou ik me er echter niet teveel zorgen over maken. In 9 van de 10 toepassingen wil je immers compression=lz4 gebruiken en de berekening klopt dan sowieso niet meer vanwege variabele sectorsizes. Daarnaast win je met een beetje geluk die paar procent verlies makkelijk terug met compressie.
[ Voor 43% gewijzigd door narotic op 18-04-2016 02:41 ]
- = Step Into The Pit | Industrial Strength = -
Bedankt, hulp kan ik zeker gebruiken. Ik stuur je wel even een PM. Wil de backup doen vanuit een FreeNAS jail.Compizfox schreef op vrijdag 15 april 2016 @ 14:46:
[...]
Ik gebruik het met duplicity als off-site backup
Als je hulp nodig hebt met duplicity kan ik je misschien wel helpen.
Echter, denk niet dat er ook support komt voor ZFS send/receive. Stack is onderhuids wel ZFS-backed, maar dat betekent niet dat je als gebruiker ook direct bij die laag kunt. Voor gebruikers is het gewoon WebDav...
Het is zelfs nog vreemder.kaaas schreef op zondag 17 april 2016 @ 22:51:
...Bijv 20 TB is 18,2 TiB. Mijn vraag is dan ook niet het TB TiB verschil maar ,6TiB die ik kwijt ben in zfs en niet kan plaatsen en hoe het kan dat een md 5 raid ,7 TiB meer heeft dan je zou denken.
Als je je 6x4TB RAIDz1 zou vergelijken met een 7x4TB RAIDz2 dan zou je op basis van recordsize, parity wat voor ZFS overhead dan ook, verwachten dat je netto exact hetzelfde overhoud maar dat is niet zo.
Bij RAIDz1 moet je nog 5% aftrekken en bij RAIDz2 gaat dat naar de 10%.
Waar het blijft weet ik niet. Ik heb het geaccepteerd als extra ZFS overhead.
Hoe was je RAID5 MD geformateerd? Ik weet wel dat als ik ext4 formateer je een reserverings percentage op kan geven voor root. mkfs.ext4 /dev/sdx1 -m 0 (voor 0 procent). Verder kan ik het niet verklaren
Bedankt voor de info ik ga de link lezen en kijken hoe de md raid 5 was geformatteerd.
Jammer genoeg heb ik niets aan de lz4 compressie het is 2 bit ruis data daar valt niets aan te comprimeren.
Offtopic:
Zonder gekkigheid, aan wat voor toepassing moet ik denken dat je tig TB aan random ruis op wilt slaan? Astronomie?
- = Step Into The Pit | Industrial Strength = -
- = Step Into The Pit | Industrial Strength = -
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT VM_TIER_2 476G 172G 304G - 80% 36% 1.78x ONLINE -
Crap, ik moet hier misschien toch iets mee
Even niets...
Hoe verhoudt die 1.78x dedup zich tot compressratio?
- = Step Into The Pit | Industrial Strength = -
Brian Ewell • 23 days ago
Not having block-pointer-rewriting is ZFS' Achilles heel, as it would solve pretty much all of ZFS' shortcomings. The problem is that AFAIK it's pretty much impossible to implement.
[ Voor 5% gewijzigd door Q op 22-04-2016 16:47 ]
1.10xnarotic schreef op vrijdag 22 april 2016 @ 16:15:
Of gewoon op BPR wachten... en wachten... en wachten.
Hoe verhoudt die 1.78x dedup zich tot compressratio?
Dedup van de andere pool is veel leuker
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT VM_TIER_1 119G 9.39G 110G - 9% 7% 4.35x ONLINE -
Mwoh, als ik zie hoe (fucking) veel problemen er zijn met BTRFS' Rebalance functie, ben ik stiekem wel blij dat ZFS dat niet heeft.
Oplossing zou zijn om alle VM's te migreren naar mijn tweede VM pool (2 SSD's in mirror) en dan even het filesystem en de lun opnieuw aanmaken.
Maar meh, tijd enzo... Haal nog steeds ~80.000 IOPS via iSCSI, dus merk er weinig van.
[ Voor 12% gewijzigd door FireDrunk op 22-04-2016 17:06 ]
Even niets...
Het probleem bij de i2eX was dat hij mijn maandelijkse scrub niet overleefde. Rond de 30% kreeg ik telkens I/O errors. Geheel is via USB aangesloten. Het minimaliseren van het aantal snapshots hielp niet. Uitzetten van deduplicatie en compressie ook niet.
Bij i2eX had ik ook nog wat ZFS dingen getuned om met het weinige geheugen om te gaan. Op de i4x4 draai ik alles met zijn default waarden. Nu aan het testen met mijn locale externe backup schijf waar dezelfde info staat als mijn offsite backup schijf, maar dan niet gelimiteerd in het aantal snapshot dat hij mag opslaan en waarop dedup en compressie aan staat. Dus gelijk een flinke test voor het nieuwe systeem.
Scrub draait nog steeds lekker:
1
2
3
| . scan: scrub in progress since Sun Apr 24 14:28:19 2016 53.0G scanned out of 727G at 6.07M/s, 31h34m to go 0 repaired, 7.30% done |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| top - 17:15:34 up 2:53, 2 users, load average: 2.90, 3.04, 3.15 Tasks: 214 total, 1 running, 213 sleeping, 0 stopped, 0 zombie %Cpu0 : 0.0 us, 27.8 sy, 0.0 ni, 65.1 id, 2.0 wa, 2.4 hi, 2.7 si, 0.0 st %Cpu1 : 0.0 us, 21.6 sy, 0.0 ni, 71.8 id, 5.0 wa, 1.7 hi, 0.0 si, 0.0 st %Cpu2 : 0.0 us, 24.7 sy, 0.0 ni, 72.0 id, 1.7 wa, 0.3 hi, 1.3 si, 0.0 st %Cpu3 : 0.7 us, 39.8 sy, 0.0 ni, 58.2 id, 0.0 wa, 1.3 hi, 0.0 si, 0.0 st KiB Mem: 3883224 total, 818992 used, 3064232 free, 3836 buffers KiB Swap: 250876 total, 0 used, 250876 free. 197212 cached Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 416 root 0 -20 0 0 0 S 30.0 0.0 20:21.93 spl_kmem_cache 1924 root 0 -20 0 0 0 S 20.5 0.0 30:40.86 z_rd_int_4 1922 root 0 -20 0 0 0 S 19.2 0.0 30:30.89 z_rd_int_2 1927 root 0 -20 0 0 0 S 15.7 0.0 30:30.03 z_rd_int_7 1919 root 0 -20 0 0 0 S 6.2 0.0 4:58.80 z_rd_iss 167 root 20 0 0 0 0 D 4.6 0.0 7:31.66 usb-storage 1967 root 20 0 0 0 0 D 2.3 0.0 4:29.64 txg_sync |
1
2
3
4
| . total used free shared buffers cached Mem: 3792 799 2992 0 3 192 -/+ buffers/cache: 603 3188 Swap: 244 0 244 |
Op de i2eX was de doorvoersnelheid nooit hoger dan 1.5M/s. Een scrub duurt dan erg lang:
1
| scan: scrub repaired 0 in 179h24m with 0 errors on Sun Apr 24 14:24:29 2016 |
De i4x4 vraagt wel een hoop meer stroom waardoor ik hem op de powersave governor moet draaien om hem nog aan een USB poort te kunnen hangen.
Voor het geld kan je overigens beter een Intel NUC kopen
# | Product | Prijs | Subtotaal |
1 | Intel NUC NUC5CPYH | € 127,95 | € 127,95 |
1 | Team Group TMD3L8G1333HC9-S01 | € 24,95 | € 24,95 |
1 | Transcend HSD370 16GB | € 24,47 | € 24,47 |
Bekijk collectie Importeer producten | Totaal | € 177,37 |
[ Voor 53% gewijzigd door CurlyMo op 24-04-2016 17:24 ]
Sinds de 2 dagen regel reageer ik hier niet meer
- zpool aanmaken met naam tank
- creeer een paar datasets/subvolumes
- maak een recursive snapshot van de pool: zfs snapshtot -r tank
- stuur die over naar een backup ZFS server met btrfs send/receive
- doe nog wat snapshots als boven
- stuur incrementals over van de pool naar de backup server (zfs send -R -I tank@snap_prev tank@snap_last | ssh backupsrv "zfs receive -F backuppool"
Zo ver werkt alles prima, maar nu:
- creeer een nieuw subvolume/dataset
- creeer een snapshot als boven
- stuur incremental van de pool over naar de backup server ?
Gaat dat werken of breekt ie af of sloopt ie de boel omdat er nog geen snapshot van de nieuwe subvol/dataset bestaat op de backup server?
Of moet je maar per dataset snapshots oversturen ipv de hele pool?
Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
Met individuele snapshots moet ik er aan denken dat ik de nieuwe datasets in de backuplijst plaats....en dat vergeet ik nog wel eens ..(ik word ook een dagje ouder
Nu draait de machine weer ik liep alleen tegen wat zaken aan waar ik toch wat vragen aan over heb gehouden.
De data op deze machine is verder niet van belang maar mijn basic understanding van ZFS is weer een weggezakt dus het weer in de lucht krijgen van deze machine leek me een leuke praktijk oefening
De oudste en primary pool is een raidz van 3x 2TB WD green power schijven, deze pool gaat al een aantal iteraties van het systeem mee. Na het initieel opstarten van de machine was deze pool niet gemount want er miste een schijf:
zpool import pool: TANK id: 8931747936348276010 state: UNAVAIL status: One or more devices are missing from the system. action: The pool cannot be imported. Attach the missing devices and try again. see: http://illumos.org/msg/ZFS-8000-6X config: TANK UNAVAIL missing device raidz1-0 ONLINE gpt/2TB-WD03 ONLINE gpt/2TB-WD02 ONLINE gpt/2TB-WD01 ONLINE Additional devices are known to be part of this pool, though their exact configuration cannot be determined.
Ooit heb ik een 64GB als volgens mij L2ARC gekoppeld aan deze pool en blijkbaar was deze SSD niet beschikbaar waardoor de pool niet gemount kon worden. Alle drie de western digital schijven waren wel present, ik was in de veronderstelling dat een pool met een ontbrekende L2ARC wel te mounten is?
De -m switch bij een import is voor ontbrekende ZIL?
Na het vervangen van een S-ATA kabel was de SSD weer beschikbaar, echter kon ik de pool nog niet mounten. Uiteindelijk heb ik via de FreeNAS Gui een detach gedaan, vervolgens een reboot en toen een zpool import TANK welke wel succesvol was.
# zpool status TANK pool: TANK state: ONLINE status: The pool is formatted using a legacy on-disk format. The pool can still be used, but some features are unavailable. action: Upgrade the pool using 'zpool upgrade'. Once this is done, the pool will no longer be accessible on software that does not support feature flags. scan: scrub in progress since Sun Jan 31 11:11:39 2016 2.02T scanned out of 4.18T at 160M/s, 3h55m to go 0 repaired, 48.29% done config: NAME STATE READ WRITE CKSUM TANK ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 gpt/2TB-WD03 ONLINE 0 0 0 gpt/2TB-WD02 ONLINE 0 0 0 gpt/2TB-WD01 ONLINE 0 0 0 gptid/23773e95-26f0-11e3-9192-485b3980e661 ONLINE 0 0 0 errors: No known data errors
Zie ik het goed dat de SSD eigenlijk als single disk vdev is opgenomen in de pool TANK?
Om dit te herstellen moet ik de pool vernietigen en vervolgens opnieuw opbouwen lijkt mij.
Wat is de makkelijkste manier om te achterhalen of de SSD als SLOG of L2ARC is ingezet?
Nu viel mij op dat de SSD via een id gekoppeld is in plaats van een custom label, de labels kan ik natuurlijk meteen rechttrekken als ik een nieuwe pool moet opbouwen maar de vraag is wat is nu de beste methode?
Ik zag dat iemand hier de serienummers van zijn disks opnam in het label, dat wil ik ook gaan doen.
Wat was de reden dat disk voorzien van een GPT label en dan volledig toekennen aan een pool niet verstandig was, partitielabels genieten de voorkeur geloof ik?
Ook heb je met GPT controler over wat er in het label staat, dus kan je het voor jezelf herkenbaarder maken.
Maar het is subjectief, partities hebben niet perse technische voordelen boven een ID.
Enige directe verschil wat ik zou kunnen bedenken is dat een ID kan veranderen potentieel als je een schijf op een andere controller hangt in sommige gevallen.
Maar in veel gevallen kan je ZFS alsnog naar de goede disk wijzen.
Even niets...
Moet de pool toch opnieuw opbouwen want op dit moment bestaat de pool uit een stripe en een raidz vdev
Ik heb onder Linux wel eens een zpool gebouwd op basis van /dev/disk/by-partlabel, nu weet ik niet meer precies waarom. Bij FreeBSD kan ik gewoon de disk initialiseren met GPT, daarna een ZFS partitie aanmaken en dan de pool bouwen op basis van /dev/gpt/<gpt-labels>?
[ Voor 44% gewijzigd door dutch_warrior op 27-04-2016 15:13 ]
Dat is ook bijvoorbeeld hoe 't gedaan wordt in de FreeBSD RootOnZFS guide. In het kort:
gpart create -s gpt ad0 gpart add -s 60G -t freebsd-zfs -l somelabel ad0 zpool create zroot /dev/gpt/somelabel
Uiteraard device, label en partitie grootte aanpassen aan je specifieke situatie. Je kunt natuurlijk de size ook gewoon helemaal weglaten als je de hele schijf wilt gebruiken.
[ Voor 11% gewijzigd door narotic op 27-04-2016 16:28 ]
- = Step Into The Pit | Industrial Strength = -
Ik heb problemen met desktop service van zfsguru:
Name Gnome
Category Desktop
Product version 3.16.2
Service serial number 1
System version 10.2.003
Platform amd64
Installation page Installation page
Installation path /services/X-gnome
Service data size 0 B
License GPL
Security none
Dependencies dep-X
dep-codecpack
Conflicts with
Als ik op start klik krijg ik het volgende error:
could not start service X-gnome!
Ik heb geprobeerd om de services te herinstalleren, systeem te herstarten maar ik krijg steeds hetzelfde error.
Weet iemand wat het probleem kan zijn? Moet ik andere informatie leveren? Alvast bedankt.
Ik had voorheen een ZFS Raid- Z Linux system met 3x 3TB en dit draaide prima.
Nu had ik 1 van die schijven nodig voor iets anders (uiteraard eerst even de belangrijkste gegevens die erop stonden opzij gezet) en nu wil ik voorlopig met 2 schijven verder.
Wil het opnieuw opbouwen.
Lijkt me dat een ZFS mirror de beste optie is of zijn er nog andere (zfs) opties?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Dan wordt het een mirror. Binnenkort aan beginnen.
1
2
3
4
5
6
7
8
| root@scratch:~# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT scratch/data@2016-04-04_00.00.00--1d 25.7T - 92.3T - root@scratch:~# zfs destroy scratch/data@2016-04-04_00.00.00--1d cannot destroy snapshot scratch/data@2016-04-04_00.00.00--1d: dataset is busy root@scratch:~# zfs holds -r scratch/data@2016-04-04_00.00.00--1d NAME TAG TIMESTAMP root@scratch:~# |
Dat is op zich al irritant, maar iedere snapshot die ik weggooi lijkt te worden toegevoegd aan deze.
Het kan zijn gekomen doordat de array helemaal vol was (en ik met moeite de boel heb kunnen redden).
Heeft iemand een idee hoe ik die snapshot weg krijg ?
Het liefst zonder reboot, er zijn iets van 10 mensen die op die array aan het werk zijn.
If you don’t have enough time, stop watching TV.
Sinds de 2 dagen regel reageer ik hier niet meer
lsof | grep scratch
geprobeerd?
Even niets...
Allemaal niet,, kijk maar:CurlyMo schreef op woensdag 11 mei 2016 @ 07:25:
Ook geen clones gemaakt van die snapshot? Geen mountpoints? Niemand die er naar toe is gegaan via de .zfs map?
(clones)
1
2
3
4
5
6
| root@scratch:/scratch/data# zfs list NAME USED AVAIL REFER MOUNTPOINT scratch 103T 3.84T 60.6K /scratch scratch/clc 848G 3.84T 848G /scratch/clc scratch/data 102T 3.84T 70.0T /scratch/data scratch/reservation 60.6K 3.84T 60.6K /scratch/reservation |
(mounts)
1
2
3
4
| root@scratch:/scratch/data# mount | grep scratch scratch/clc on /scratch/clc type zfs (rw) scratch/data on /scratch/data type zfs (rw) scratch/reservation on /scratch/reservation type zfs (rw) |
En via .zfs er naar toe werkt om de een of andere reden ook niet :
1
2
| root@scratch:/scratch/data/.zfs/snapshot# cd 2016-04-04_00.00.00--1d -su: cd: 2016-04-04_00.00.00--1d: Too many levels of symbolic links |
Ik ben bang dat ik toch niet onder een reboot uit kom, er is te veel aan de hand om dat niet te proberen.
If you don’t have enough time, stop watching TV.
Sinds de 2 dagen regel reageer ik hier niet meer
Maar ik ben met de hand door de processlist gegaan en alle logins/shells gekilled die niet mijn eigen login shell waren, en toen kon ik dus wel die snapshot verwijderen.
Wat heb ik nu geleerd ?
1) Check of er toch nog ergens een proces draait dat de snapshot op de een of andere manier in gebruik heeft
2) Snapshots zijn bereikbaar via de .zfs directory, en die kun je met een ls niet zien..
If you don’t have enough time, stop watching TV.
Er is ook een snapdir property.
(Copy paste van iemand anders:)
elhana@stellarwind:/media/test/gzip$ sudo zfs set snapdir=visible test/gzip elhana@stellarwind:/media/test/gzip$ ls -la итого 42 drwxr-xr-x 3 elhana elhana 3 нояб. 16 18:26 . drwxr-xr-x 12 root root 12 дек. 12 21:00 .. drwxrwxr-x 6 elhana elhana 9 дек. 19 21:04 source dr-xr-xr-x 1 root root 0 дек. 14 22:04 .zfs elhana@stellarwind:/media/test/gzip$ sudo zfs set snapdir=hidden test/gzip elhana@stellarwind:/media/test/gzip$ ls -la итого 42 drwxr-xr-x 3 elhana elhana 3 нояб. 16 18:26 . drwxr-xr-x 12 root root 12 дек. 12 21:00 .. drwxrwxr-x 6 elhana elhana 9 дек. 19 21:04 source
[ Voor 88% gewijzigd door FireDrunk op 11-05-2016 10:35 ]
Even niets...
Ik heb net getest, met snapdir=visible is ie gewoon zichtbaar.
Ik laat het maar hidden, voor de meeste gebruikers is het alleen maar verwarrend.
If you don’t have enough time, stop watching TV.
https://github.com/zfsonlinux/zfs/releases
Supported Kernels
Compatible with 2.6.32 - 4.6 Linux kernels.
Bug Fixes
Fix SPL build failure on PowerPC zfsonlinux/spl#516
Fix user namespaces uid/gid mapping zfsonlinux/zfs#4177
Fix ZPL miswrite of default POSIX ACL zfsonlinux/zfs#4520
Linux 4.5 and 4.6 compatibility zfsonlinux/zfs#4537 zfsonlinux/zfs#4489
Ensure /dev/disk/by-partlabel gets correctly populated zfsonlinux/zfs#4517
Utilities now work reliably with newly created partitions zfsonlinux/zfs#3708
Import now reliably uses device names stored in label zfsonlinux/zfs#3043
Fix possible deadlock in zfs_secpolicy_write_perms ioctl zfsonlinux/zfs#4554
Fix inverted logic on none elevator comparison zfsonlinux/zfs#4507
Add 32 bit FS_IOC32_{GET|SET}FLAGS compat ioctls for PPC zfsonlinux/zfs#4477
[ Voor 85% gewijzigd door riwi op 13-05-2016 16:02 ]
Oke, ik heb enkele weken geleden mijn nieuwe ESX (6.0) doos binnen gekregen. Ik wil hier doormiddel van een M1015 HBA disken gaan doorzetten naar een toekomstige NAS server.
Nu wil ik graag aan de slag met ZFS, ik kan uit de voeten met linux CLI maar van FreeBSD heb ik geen/weinig kennis. Opzich hoef dat geen probleem te zijn als er een redelijke community/documentatie achter zit.
Nu weet ik dat veel mensen hier Freenas gebruiken, ik heb dit geinstalleerd om te kijken en het ziet er opzich prima uit. Echter vind ik het een erg groot nadeel dat Freenas overgenomen is door een bedrijf dus wie weet wat de toekomst brengt? Wordt dit uiteindelijk een betaald product of niet?
Daarnaast gekeken naar Nexentastor, deze heeft een datalimiet van 18TB, ik zit echter met 4*4TB disken al aan 16TB (in raid-z 12TB) dus dit is voor mij geen echte optie.
Een andere optie is Napp-it, ziet er erg leuk uit. Ik heb alleen het idee dat er een behoorlijke duitstalige community achter zit, en laat nou net mijn duits niet al te best zijn. Voor de rest redelijk positief over dit product.
Daarnaast heb je nog nas4free. Hoe ik het begrijp is dit een opensource alternatief van Freenas. Het wordt dus apart van freenas ontwikkeld mocht freenas ooit betaald worden of wat dan ook.
Mijn keuze geniet op dit moment nas4free. Hebben jullie nog tips met betrekking tot het maken van de juiste keuze voor het OS/Software voor ZFS?
ixSystems is juist toonaangevend als het gaat om de manier waarop ze Open Source ontwikkelingen stimuleren maar toch hun geld kunnen verdienen door goed support te verkopen.
Nexenta(Stor) en Napp-It zijn leuke ontwikkelingen, maar bedenk wel dat die ten grondslag liggen aan (Open)Solaris. Als je dacht dat FreeBSD exostisch was, berg je dan maar voor Solaris
NAS4Free is net zo open source als FreeNAS, het is een illusie dat het beter is.
Nogmaals: FreeNAS is gratis en Open Source, en wordt echt niet zomaar ongedaan gemaakt, die strategie is al heel lang ongewijzigd.
tl;dr; Gewoon voor FreeNAS gaan, dat is een prima, veilige, en stabiele keuze.
Mocht je de broncode zoeken: staat gewoon hier -> https://github.com/freenas/freenas
[ Voor 4% gewijzigd door FireDrunk op 17-05-2016 09:59 ]
Even niets...
Eerst mijn M1015 flashen naar IT mode, dat was mij recent nog niet gelukt

https://github.com/zfsonlinux/zfs/pull/4329
Zou mooi zijn
Wat gebeurt er als de hardware qua moederbord of controller stuk gaat, kan je dan alles aan een andere mobo en of controller hangen? Maakt de port plaats nog uit bij herplaatsing? En wat als je installatie ofwel je OS Inc instellingen het begeeft? Kan je dan herinstalleren en je array opnieuw koppelen zonder data verlies?
Verder las ik dat je niet zomaar verschillende disksizes kan gebruiken en die dan ook ten volste benutten... Maar kon je wel verschillende arrays koppelen tot 1 grote pool?
Mijn huidige disk set wordt 16x 2TB en 8x 4TB ik wil sowieso een dubbele schijfuitval mogelijk hebben zonder data verlies ( zoals raid 6)
En in het allerslechtste geval, wat is mogelijk qua data recovery bij een ramp?
Tnx in advance
Beter 1 hand in de lucht, dan geen hand!
Dat kan gewoon. Alleen Windows doet moeilijk bij nieuwe hardware; maar vrijwel alle non-Windows operating systems kun je gewoon aan andere hardware hangen en daarbij wordt de hardware opnieuw gedetecteerd. Dus opnieuw te installeren hoeft niet.Centropy schreef op woensdag 18 mei 2016 @ 17:39:
Goedendag, ik wil,eventueel zfsguru gaan gebruiken met een 24disk array, nou heb ik een paar vragen die me nog niet helemaal duidelijk zijn.
Wat gebeurt er als de hardware qua moederbord of controller stuk gaat, kan je dan alles aan een andere mobo en of controller hangen?
Ook je data is veilig bij ZFS - alle informatie die nodig is om bij je data te kunnen, staat op de disks zelf. Je bent dus niet afhankelijk van specifieke hardware (behalve de schijven zelf, uiteraard).
Bij BSD (inclusief ZFSguru) maakt dat niet uit. Wel bij ZFS-on-Linux wat op dit vlak niet helemaal probleemloos werkt. Bij andere poorten zul je een 'corrupted data' melding krijgen. Dat klinkt ernstiger dan het is: gewoon even opnieuw de pool importeren en het zou weer moeten werken.Maakt de port plaats nog uit bij herplaatsing?
Ja, dat kan. Je bent dus niet afhankelijk van het OS.En wat als je installatie ofwel je OS Inc instellingen het begeeft? Kan je dan herinstalleren en je array opnieuw koppelen zonder data verlies?
Dat klopt. Althans, het eerste punt: stel je hebt vier disks van 1TB,2TB, 3TB en 4TB, en je maakt daar een RAID-Z (zeg maar RAID5) van, dan gebruikt ZFS slechts 4x 1TB. Maar je kunt ook striping gebruiken dus zonder redundancy bescherming en dan wordt de capaciteit gewoon opgeteld, dus in totaal 10TB opslag zou bovenstaand voorbeeld opleveren. Maar met 24 disks wil je natuurlijk wel redundancy!Verder las ik dat je niet zomaar verschillende disksizes kan gebruiken en die dan ook ten volste benutten... Maar kon je wel verschillende arrays koppelen tot 1 grote pool?
Wat jij arrays noemt, wordt in ZFS jargon 'vdevs' genoemd: virtual devices. Een 'pool' kan vervolgens één of meerdere vdevs bevatten. De pool is datgene waarbij alle beschikbare ruimte als één geheel beschikbaar is. Dus stel je hebt een pool met een vdev van 10x 4TB in RAID-Z2 en een vdev van 14x 6TB in RAID-Z3, ik noem maar wat, dan heb je de beschikbare opslagruimte van beide vdevs bij elkaar opgeteld als één geheel beschikbaar.
De vdevs in dezelfde pool mogen verschillen van disk grootte, disk aantal en redundancy level. Dus je kunt RAID-Z2 en RAID-Z3 combineren als je dat wilt.
Bedenk wel: als één vdev stuk is, zoals drie disks dood in de RAID-Z2 vdev, dan is alle opslag van de pool ontoegankelijk. Dus je kunt niet meer bij de data die op de RAID-Z3 vdev wordt opgeslagen. Sommigen kiezen om deze reden om aparte pools te maken. Nadeel is wel dat de vrije ruimte nu apart wordt gerekend en niet als één geheel beschikbaar is, evenals dat je iets qua snelheid inboet al mag dat het probleem niet zijn. Je kunt wel configureren dat beide pools meetellen voor de juiste combinatie.
Je kiest waarschijnlijk voor 8 en 16 omdat dit vaak het aantal beschikbare poorten per controller is. Maar dat hoeft niet. Je kunt een vdev ook over meerdere controllers uitsmeren. Punt is dat ZFS onder omstandigheden efficiënter werkt met een specifiek aantal disks.Mijn huidige disk set wordt 16x 2TB en 8x 4TB ik wil sowieso een dubbele schijfuitval mogelijk hebben zonder data verlies ( zoals raid 6)
RAID-Z: 3,5,9,17 disks
RAID-Z2: 4,6,10,18 disks
RAID-Z3: 5,7,11,19 disks
Een RAID-Z2 van 10 disks is een beetje de sweet spot; 20% overhead met toch dubbele parity bescherming. Voor heel veel disks is een RAID-Z3 van 19 disks ook te overwegen. Of twee maal RAID-Z2 van elk 10 disks.
Kortom, moet het persé 24 disks zijn of hoe denk je daarover?
Bij ZFS is het ongeveer alles of niets. Of je hebt toegang tot alle data, of je hele pool is ontoegankelijk en je kunt recovery vergeten. Alle recovery die redelijkerwijs mogelijk is, doet ZFS automatisch al. Maar zodra cruciale filesystem metadata corrupt is, is gelijk je hele pool ontoegankelijk. Technisch gezien kun je met 'zdb' nog wat prutsen, maar ik zou je hoop daarop niet vestigen.En in het allerslechtste geval, wat is mogelijk qua data recovery bij een ramp?
Gaat het niet om metadata maar om bad sectors, dan is ZFS daar heel coulant mee. Corruptie op je disks kan ZFS prima mee dealen. In het ergste geval zal een file stuk gaan.
Voor jouw build zou ik wel aanraden om een goede machine met ECC geheugen te overwegen. Een supermicro moederbord bijvoorbeeld. Gezien de prijzen van de disks maakt dat niet zoveel uit op de totaalprijs.
Succes met je build!
Overigens, ben je van plan heel veel posts te maken, kun je ook overwegen een eigen topic te beginnen. Dat mag gewoon, mits je een beetje uitgebreide startpost maakt.
Zo vanaf een iPad is het lastig editen in de quote, maar ik zit met die specifieke set disks omdat 3 nassen (8bays) vervangen gaan worden voor 1 grote Back-up diy nas die 1 grote opslag moet bieden, deze word snachts dan bijgewerkt vanaf een andere locatie als zijnde offsite Back-up van de hoofd nas waarvan gewerkt word.Verwijderd schreef op woensdag 18 mei 2016 @ 18:08:
[...]
Dat kan gewoon. Alleen Windows doet moeilijk bij nieuwe hardware; maar vrijwel alle non-Windows operating systems kun je gewoon aan andere hardware hangen en daarbij wordt de hardware opnieuw gedetecteerd. Dus opnieuw te installeren hoeft niet.
Ook je data is veilig bij ZFS - alle informatie die nodig is om bij je data te kunnen, staat op de disks zelf. Je bent dus niet afhankelijk van specifieke hardware (behalve de schijven zelf, uiteraard).
[...]
Bij BSD (inclusief ZFSguru) maakt dat niet uit. Wel bij ZFS-on-Linux wat op dit vlak niet helemaal probleemloos werkt. Bij andere poorten zul je een 'corrupted data' melding krijgen. Dat klinkt ernstiger dan het is: gewoon even opnieuw de pool importeren en het zou weer moeten werken.
[...]
Ja, dat kan. Je bent dus niet afhankelijk van het OS.
[...]
Maar met 24 disks wil je natuurlijk wel redundancy!
De vdevs in dezelfde pool mogen verschillen van disk grootte, disk aantal en redundancy level. Dus je kunt RAID-Z2 en RAID-Z3 combineren als je dat wilt.
[...]
Je kiest waarschijnlijk voor 8 en 16 omdat dit vaak het aantal beschikbare poorten per controller is. Maar dat hoeft niet. Je kunt een vdev ook over meerdere controllers uitsmeren. Punt is dat ZFS onder omstandigheden efficiënter werkt met een specifiek aantal disks.
RAID-Z: 3,5,9,17 disks
RAID-Z2: 4,6,10,18 disks
RAID-Z3: 5,7,11,19 disks
Een RAID-Z2 van 10 disks is een beetje de sweet spot; 20% overhead met toch dubbele parity bescherming. Voor heel veel disks is een RAID-Z3 van 19 disks ook te overwegen. Of twee maal RAID-Z2 van elk 10 disks.
Kortom, moet het persé 24 disks zijn of hoe denk je daarover?
[...]
Succes met je build.
Met oog op groei zal einde dit jaar dan een vdef vervangen gaat worden die uit dan dus bijv 5x 2tb eruit voor 5x 6Tb.
Er staan een paar mooie controllers te koop op v&a maar twijfel nog welke... Staat ook een 24p op....
Heel erg bedankt alvast voor je geweldige uitleg...
Ps: er is ook een supermicro bordje met 17x sata
pricewatch: Supermicro A1SA7-2750F (retail)
Beter 1 hand in de lucht, dan geen hand!
ZFS verdeelt de data mooi over de vdevs naar verhouding, dat werkt goed.
Zelf Zou ik nu een 24-disk raidz3 testen met de large_blocks feature.
Ja zeker, heb gesmuld van je blog! Zal nu ik net heb gelezen hoe het wat specifieker werkt je details van setup is goed doornemen!Q schreef op woensdag 18 mei 2016 @ 18:47:
Zoals je misschien hebt gezien heb ik 24 disks waarbij er 18 in een raidz2 vdev zitten en ook nog eens 6 in een raidz2 vdev. Dus totaal 4 disks kwijt aan parity.
ZFS verdeelt de data mooi over de vdevs naar verhouding, dat werkt goed.
Zelf Zou ik nu een 24-disk raidz3 testen met de large_blocks feature.
Beter 1 hand in de lucht, dan geen hand!
De situatie:
- de ZFS pool op mijn thuisserver heet storage
- storage/home wordt gemount op /home
Na een reboot van de thuisserver loop ik tegen het volgende probleem aan: storage/BackupsColo/home wordt op /home gemount (want ik laat alle ZFS properties meekomen in de send/receive), en vervolgens wordt storage/home daaroverheen gemount.
Dat lijkt me niet ideal. Ik kan storage/BackupsColo/home ook niet unmounten, want dan krijg ik de melding:
1
2
| $ sudo umount storage/BackupsColo/home umount: cannot unmount storage/BackupsColo/home -- storage/home is mounted over it on the same point |
Beide servers draaien Ubuntu met ZoL.
Optie 2. canmount=off instellen en zfs recv met de -u parameter wat mounten uitzet bij het ontvangen van je snapshot.
Sinds de 2 dagen regel reageer ik hier niet meer
Dat zou dan alleen op de colobak hoeven, want voor die filesystems wordt de (dan lege) property mountpoint dan naar de thuisserver ge-send en worden die FS-en dus niet gemount bij een reboot, correct? Voor de lokale FS-en op de thuisserver kan mounten dan gewoon via de ZFS property mountpoint blijven gebeuren.CurlyMo schreef op donderdag 19 mei 2016 @ 11:29:
Optie 1. werken met legacy mountpoints en de mountpoint zelf in je fstab zetten. Dit is het beste.
Als ik voor deze optie zou kiezen (voor de FS-en op de coloserver), zou dat dan niet betekenen dat de FS-en op die bak dan niet automatisch gemount worden bij een reboot?Optie 2. canmount=off instellen en zfs recv met de -u parameter wat mounten uitzet bij het ontvangen van je snapshot.
In mijn situatie heb ik er omheen kunnen werken door mountpoint expliciet te zetten op de target dataset. Dat werkt alleen als de onderliggende datasets vervolgens die lokale mountpoint inheriten.
In jouw geval dat je een root dataset stuurt en hoogstwaarschijnlijk een lokale mountpoint=/home hebt op storage/home werkt dat dus niet.
Edit:
Wellicht dat je ook canmount=noauto kunt gebruiken op de backup dataset en vervolgens (als je dat wilt) de dataset handmatig mounten met zfs mount -o mountpoint=/BackupsColo/home storage/BackupsColo/home (evt. via fstab, rc.local, pam_mount, whatever...).
[ Voor 18% gewijzigd door narotic op 20-05-2016 12:16 ]
- = Step Into The Pit | Industrial Strength = -
Kloptph0t0nix schreef op vrijdag 20 mei 2016 @ 11:21:
[...]
Dat zou dan alleen op de colobak hoeven, want voor die filesystems wordt de (dan lege) property mountpoint dan naar de thuisserver ge-send en worden die FS-en dus niet gemount bij een reboot, correct? Voor de lokale FS-en op de thuisserver kan mounten dan gewoon via de ZFS property mountpoint blijven gebeuren.
Sinds de 2 dagen regel reageer ik hier niet meer
Nu wil ik de schijven van mijn synology (4x4TB) in mijn freenas zetten. De disken zijn netjes zichtbaar.
Nu wil ik een nieuw volume aanmaken maar ik krijg niet de optie voor raid-z, ik mag alleen striped, mirrored etc. Weet iemand hoe ik naast een reeds bestaand volume een nieuw raid-z volume mag aanmaken? De freenas documentation zegt daar vrij weinig over.
Mirror wel, kan er ook 1 schijf mee stoppen zonder je data kwijt te raken.
De schijf die al in gebruik is kan je er niet meer bij betrekken.
Never mind, verkeerd gelezen.

[ Voor 8% gewijzigd door tweedebas op 22-05-2016 20:55 ]
Hij had toch 4 schijven? Daarmee moet RAID-Z wel kunnen.tweedebas schreef op zondag 22 mei 2016 @ 19:55:
Met 2 schijven kan je geen raid-z(1,2,3) maken daar zijn meer schijven(minimaal 3 dus) voor nodig.
Mirror wel, kan er ook 1 schijf mee stoppen zonder je data kwijt te raken.
De schijf die al in gebruik is kan je er niet meer bij betrekken.
Gewoon een heel grote verzameling snoertjes
All my posts are provided as-is. They come with NO WARRANTY at all.
Voor RAID-Z1 heb je minimaal 3 schijven nodig toch? Ik kan me niet voorstellen hoe RAID-Z1 zou moeten werken met 2 schijven.CyBeR schreef op zondag 22 mei 2016 @ 19:59:
Met 2 disks kan RAID-Z ook. Heb je niks aan tov mirror, maar 't kan wel
Gewoon een heel grote verzameling snoertjes
All my posts are provided as-is. They come with NO WARRANTY at all.


Als ik mijn 4 disken toevoeg komen deze automatisch als 2x2 of 4x1 (mirrored of stripe dus).
Aan de rechter kant zie je dan een grafische weergave en als je met dat balkje gaat verschuiven naar een reeks van 4 kan je dus wel raidz instellen.
Stomstomstom.

Dat zijn een hoooop wijzigingenHi Linus,
My for-linus-4.7 branch:
git://git.kernel.org/pub/scm/linux/kernel/git/mason/linux-btrfs.git for-linus-4.7
Has our merge window series of cleanups and fixes. These target a wide
range of issues, but do include some important fixes for qgroups,
O_DIRECT, and fsync handling. Jeff Mahoney moved around a few
definitions to make them easier for userland to consume.
Also whiteout support is included now that issues with overlayfs have
been cleared up.
I have one more fix pending for page faults during btrfs_copy_from_user,
but I wanted to get this bulk out the door first.
David Sterba (28) commits (+343/-247):
btrfs: introduce raid-type to error-code table, for minimum device constraint (+16/-1)
btrfs: switch to common message helpers in open_ctree, adjust messages (+50/-52)
btrfs: reuse existing variable in scrub_stripe, reduce stack usage (+9/-10)
btrfs: send: use vmalloc only as fallback for clone_sources_tmp (+8/-5)
btrfs: pass number of devices to btrfs_check_raid_min_devices (+20/-15)
btrfs: use dynamic allocation for root item in create_subvol (+37/-28)
btrfs: use existing device constraints table btrfs_raid_array (+9/-14)
btrfs: clone: use vmalloc only as fallback for nodesize bufer (+8/-5)
btrfs: send: use temporary variable to store allocation size (+8/-6)
btrfs: make find_workspace warn if there are no workspaces (+14/-0)
btrfs: rename and document compression workspace members (+19/-16)
btrfs: send: use vmalloc only as fallback for clone_roots (+7/-4)
btrfs: add read-only check to sysfs handler of features (+3/-0)
btrfs: send: use vmalloc only as fallback for read_buf (+7/-4)
btrfs: send: use vmalloc only as fallback for send_buf (+7/-4)
btrfs: ioctl: reorder exclusive op check in RM_DEV (+11/-12)
btrfs: ioctl: reorder exclusive op check in RM_DEV (+11/-12)
btrfs: add write protection to SET_FEATURES ioctl (+13/-3)
btrfs: kill unused writepage_io_hook callback (+16/-24)
btrfs: rename btrfs_find_device_by_user_input (+13/-10)
btrfs: build fixup for qgroup_account_snapshot (+5/-0)
btrfs: sysfs: protect reading label by lock (+7/-1)
btrfs: make find_workspace always succeed (+12/-8)
btrfs: preallocate compression workspaces (+16/-0)
btrfs: add check to sysfs handler of label (+3/-0)
btrfs: rename __check_raid_min_devices (+2/-2)
btrfs: GFP_NOFS does not GFP_HIGHMEM (+4/-4)
btrfs: rename flags for vol args v2 (+8/-7)
Anand Jain (20) commits (+449/-381):
btrfs: fix lock dep warning, move scratch dev out of device_list_mutex and uuid_mutex (+12/-5)
btrfs: fix lock dep warning move scratch super outside of chunk_mutex (+5/-4)
btrfs: make use of btrfs_scratch_superblocks() in btrfs_rm_device() (+13/-64)
btrfs: enhance btrfs_find_device_by_user_input() to check device path (+3/-4)
btrfs: cleanup assigning next active device with a check (+48/-22)
btrfs: create helper function __check_raid_min_devices() (+32/-19)
btrfs: create helper btrfs_find_device_by_user_input() (+23/-23)
btrfs: clean up and optimize __check_raid_min_device() (+19/-24)
btrfs: create a helper function to read the disk super (+52/-35)
btrfs: rename btrfs_std_error to btrfs_handle_fs_error (+31/-31)
btrfs: pass the right error code to the btrfs_std_error (+2/-2)
btrfs: make use of btrfs_find_device_by_user_input() (+37/-63)
btrfs: move error handling code together in ctree.h (+40/-38)
btrfs: refactor btrfs_dev_replace_start for reuse (+41/-23)
btrfs: s_bdev is not null after missing replace (+6/-3)
btrfs: remove unused function btrfs_assert() (+0/-1)
btrfs: introduce device delete by devid (+73/-5)
btrfs: optimize check for stale device (+2/-1)
btrfs: remove save_error_info() (+6/-10)
btrfs: use fs_info directly (+4/-4)
Filipe Manana (13) commits (+404/-180):
Btrfs: fix race between fsync and direct IO writes for prealloc extents (+37/-6)
Btrfs: fix empty symlink after creating symlink and fsync parent dir (+1/-1)
Btrfs: add semaphore to synchronize direct IO writes with fsync (+77/-118)
Btrfs: fix inode leak on failure to setup whiteout inode in rename (+6/-6)
Btrfs: fix for incorrect directory entries after fsync log replay (+8/-5)
Btrfs: fix race between block group relocation and nocow writes (+81/-1)
Btrfs: fix number of transaction units for renames with whiteout (+8/-1)
Btrfs: don't wait for unrelated IO to finish before relocation (+38/-19)
Btrfs: pin logs earlier when doing a rename exchange operation (+4/-4)
Btrfs: don't do unnecessary delalloc flushes when relocating (+79/-7)
Btrfs: unpin logs if rename exchange operation fails (+36/-2)
Btrfs: unpin log if rename operation fails (+27/-1)
Btrfs: pin log earlier when renaming (+2/-9)
Jeff Mahoney (commits (+1161/-1090):
btrfs: uapi/linux/btrfs.h migration, move struct btrfs_ioctl_defrag_range_args (+37/-32)
btrfs: uapi/linux/btrfs_tree.h migration, item types and defines (+967/-948)
btrfs: uapi/linux/btrfs.h migration, document subvol flags (+14/-3)
btrfs: uapi/linux/btrfs.h migration, move BTRFS_LABEL_SIZE (+1/-1)
btrfs: uapi/linux/btrfs.h migration, move balance flags (+64/-46)
btrfs: uapi/linux/btrfs.h migration, move feature flags (+31/-25)
btrfs: uapi/linux/btrfs.h migration, qgroup limit flags (+21/-9)
btrfs: uapi/linux/btrfs_tree.h, use __u8 and __u64 (+26/-26)
Liu Bo (4) commits (+39/-15):
Btrfs: make mapping->writeback_index point to the last written page (+26/-6)
Btrfs: do not create empty block group if we have allocated data (+8/-1)
Btrfs: cleanup error handling in extent_write_cached_pages (+2/-5)
Btrfs: fix divide error upon chunk's stripe_len (+3/-3)
Luis de Bethencourt (3) commits (+25/-11):
btrfs: fix mixed block count of available space (+13/-3)
btrfs: avoid overflowing f_bfree (+5/-1)
btrfs: fix typos in comments (+7/-7)
Scott Talbert (1) commits (+2/-0):
btrfs: fix memory leak during RAID 5/6 device replacement
Adam Borowski (1) commits (+1/-1):
btrfs: fix int32 overflow in shrink_delalloc().
Luke Dashjr (1) commits (+24/-2):
btrfs: bugfix: handle FS_IOC32_{GETFLAGS,SETFLAGS,GETVERSION} in btrfs_ioctl
Satoru Takeuchi (1) commits (+3/-3):
btrfs: Simplify conditions about compress while mapping btrfs flags to inode flags
Ashish Samant (1) commits (+1/-1):
btrfs: Fix BUG_ON condition in scrub_setup_recheck_block()
Zygo Blaxell (1) commits (+15/-3):
btrfs: don't force mounts to wait for cleaner_kthread to delete one or more subvolumes
Vincent Stehlé (1) commits (+1/-1):
Btrfs: fix fspath error deallocation
Qu Wenruo (1) commits (+105/-24):
btrfs: qgroup: Fix qgroup accounting when creating snapshot
Dan Carpenter (1) commits (+6/-0):
btrfs: send: silence an integer overflow warning
Geert Uytterhoeven (1) commits (+20/-21):
Btrfs: Refactor btrfs_lock_cluster() to kill compiler warning
Josef Bacik (1) commits (+16/-2):
Btrfs: remove BUG_ON()'s in btrfs_map_block
Chandan Rajendra (1) commits (+3/-1):
Btrfs: __btrfs_buffered_write: Pass valid file offset when releasing delalloc space
Dan Fuhry (1) commits (+257/-7):
btrfs: add support for RENAME_EXCHANGE and RENAME_WHITEOUT
Austin S. Hemmelgarn (1) commits (+2/-4):
btrfs: allow balancing to dup with multi-device
Total: (90) commits (+2877/-1994)
fs/btrfs/backref.c | 2 +-
fs/btrfs/btrfs_inode.h | 10 +
fs/btrfs/compression.c | 85 ++-
fs/btrfs/ctree.c | 6 +-
fs/btrfs/ctree.h | 1123 +++------------------------------------
fs/btrfs/delayed-inode.c | 2 +-
fs/btrfs/dev-replace.c | 101 ++--
fs/btrfs/dev-replace.h | 4 +-
fs/btrfs/disk-io.c | 130 ++---
fs/btrfs/extent-tree.c | 167 +++++-
fs/btrfs/extent_io.c | 82 +--
fs/btrfs/extent_io.h | 1 -
fs/btrfs/file.c | 6 +-
fs/btrfs/inode-item.c | 2 +-
fs/btrfs/inode.c | 466 +++++++++++++---
fs/btrfs/ioctl.c | 198 +++++--
fs/btrfs/ordered-data.c | 26 +-
fs/btrfs/ordered-data.h | 6 +-
fs/btrfs/relocation.c | 13 +-
fs/btrfs/root-tree.c | 4 +-
fs/btrfs/scrub.c | 25 +-
fs/btrfs/send.c | 62 ++-
fs/btrfs/super.c | 60 ++-
fs/btrfs/sysfs.c | 14 +-
fs/btrfs/transaction.c | 138 ++++-
fs/btrfs/tree-log.c | 74 +--
fs/btrfs/volumes.c | 454 +++++++++-------
fs/btrfs/volumes.h | 57 +-
include/uapi/linux/btrfs.h | 188 ++++++-
include/uapi/linux/btrfs_tree.h | 966 +++++++++++++++++++++++++++++++++
30 files changed, 2678 insertions(+), 1794 deletions(-)
Even niets...
Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?FireDrunk schreef op maandag 23 mei 2016 @ 07:38:
Wauw, ze knutselen nog flink aan BTRFS
Dat zijn een hoooop wijzigingen
Dat is interessant om te lezen. Ik wist niet van het bestaan van deze opties in Oracle's ZFS. Als ik mijn snelle google-zoektocht moet geloven zitten deze opties ook (nog) niet in FreeBSD's ZFS.narotic schreef op vrijdag 20 mei 2016 @ 12:04:
Totdat ZoL de -x en -o opties implementeert om properties on the fly in zfs receive aan te passen zijn er helaas niet veel opties.
Ik zal eens met canmount spelen. Voorlopig even wachten tot de laatste grote ZFS snapshot gesynct is voor ik kan rebooten. Opeens is 50 Mb downstream niet meer zo veel...

Hoeft niet super uitgebreid te zijn, alleen een lijstje met welke snapshots er zijn, en welke met elkaar corresponderen, zou al voldoende zijn.
Even niets...
Hmm dat doet mij inderdaad weer twijfelenQ schreef op maandag 23 mei 2016 @ 14:41:
[...]
Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
Any job you can do in your pajamas is not the hardest job in the world.
https://btrfs.wiki.kernel...hp/FAQ#Is_btrfs_stable.3FFaddermakker schreef op dinsdag 24 mei 2016 @ 08:13:
[...]
Hmm dat doet mij inderdaad weer twijfelenIk had namelijk net het plan opgevat om een Nas te bouwen op basis van BTRFS via Rockstor.
Short answer: Maybe.
Daar doe ik het niet voor. Als je je eigen product nog niet vertrouwd, toedels!
Je moet ook wel de vervolg tekst lezen onder de maybeQ schreef op dinsdag 24 mei 2016 @ 09:15:
[...]
https://btrfs.wiki.kernel...hp/FAQ#Is_btrfs_stable.3F
Short answer: Maybe.
Daar doe ik het niet voor. Als je je eigen product nog niet vertrouwd, toedels!
Daar staat niets relevants. Ze staan niet voor hun eigen product, de laffaards.idef1x schreef op dinsdag 24 mei 2016 @ 15:17:
[...]
Je moet ook wel de vervolg tekst lezen onder de maybe
Afijn blijf wel even bij de default Ubuntu 16.04 kernel dan. Doet het eigenlijk ook al voldoende
Even niets...
Gewoon doen, niks mis mee. Ik heb zelf een 16-bay setup met 64TB raw storage over BtrFS en heb er echt van alles en nog wat mee gedaan. Disks eruit trekken om recovery te testen, Raid levels converten van raid1 naar raid0 en weer terug (draai nu raid6) en files verwijderd om via snapshots dingen weer terug te halen. Is niet kapot te krijgen en gezien de hoeveel data die eruit draait (dataset van ongeveer 20TB) super snel.Faddermakker schreef op dinsdag 24 mei 2016 @ 08:13:
[...]
Hmm dat doet mij inderdaad weer twijfelenIk had namelijk net het plan opgevat om een Nas te bouwen op basis van BTRFS via Rockstor.
De enige disclaimer is dat je niet schuw moet zijn voor de CLI want bijvoorbeeld recovery maar ook veel andere zaken zit nog niet in de Rockstor Webui, dus daarvoor moet je echt verbinding maken met de terminal om commands uit te voeren.
Het voordeel dat zol heeft is dat Sun/BSD alle logica al heeft uitgedacht en ze dus "alleen maar" een api moeten implementeren. BTRFS is naast zichzelf implementeren ook nog bezig zichzelf uit te vinden, en dat kost uiteraard veel meer tijd.Q schreef op maandag 23 mei 2016 @ 14:41:
[...]
Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Verder ben ik erg benieuwd of mensen ervaring hebben met een grof van een vdef uit je pool.
Dus stel ik heb 2 vdefs van 8x 2TB en wil er in upgraden naar 8x8TB kan ik dan 1 voor 1 vervangen, rebuilden tot ik dat 8x gedaan heb en dan een grow uitvoeren zodat ik de capaciteit er bij krijg?
Het gaat hier overigens om RaidZ2 vdefs.
Beter 1 hand in de lucht, dan geen hand!
Volgens mij heeft Sun (BSD? the fuck?) er minder lang over gedaan om ZFS stable te krijgen dan btrfs hoor.BCC schreef op vrijdag 27 mei 2016 @ 14:50:
[...]
Het voordeel dat zol heeft is dat Sun/BSD alle logica al heeft uitgedacht en ze dus "alleen maar" een api moeten implementeren. BTRFS is naast zichzelf implementeren ook nog bezig zichzelf uit te vinden, en dat kost uiteraard veel meer tijd.
All my posts are provided as-is. They come with NO WARRANTY at all.
Ja je kan gewoon de disks vervangen door grotere schijven, in een raidz2 zou je het per twee kunnen doen maar 1 voor 1 is veiliger.
Het volgende commanda laat zien of autoexpand aan staat.
1
| zpool get autoexpand <poolnaam> |
Met het volgende commando zet je het aan als het uit staat.
1
| zpool set autoexpand=on <poolnaam> |
Als de laatste disk geresilvered is dan zal de ruimte beschikbaar zijn. met het volgende commando kun je dat zien.
1
| zpool get expandsize <poolnaam> |
met het volgende commando voeg je de ruimte ook toe
1
| zpool online -e <poolnaam> gpt/<labelnaam> gpt/<labelnaam> |
[ Voor 19% gewijzigd door syl765 op 06-06-2016 22:39 . Reden: even wat toevoegingen. ]
Dat vraag ik me voor HAMMER2 af.Q schreef op maandag 23 mei 2016 @ 14:41:
[...]
Tja. Zou willen dat BTRFS een een keertje stabiel wordt. Waarom moet dit zo lang duren?
[ Voor 98% gewijzigd door A1AD op 06-06-2016 22:09 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Tnx ik ga er mee aan de gang!syl765 schreef op maandag 06 juni 2016 @ 20:30:
@centropy
Ja je kan gewoon de disks vervangen door grotere schijven, in een raidz2 zou je het per twee kunnen doen maar 1 voor 1 is veiliger.
Het volgende commanda laat zien of autoexpand aan staat.
code:
1 zpool get autoexpand <poolnaam>
Met het volgende commando zet je het aan als het uit staat.
code:
1 zpool set autoexpand=on <poolnaam>
Als de laatste disk geresilvered is dan zal de ruimte beschikbaar zijn. met het volgende commando kun je dat zien.
code:
1 zpool get expandsize <poolnaam>
met het volgende commando voeg je de ruimte ook toe
code:
1 zpool online -e <poolnaam> gpt/<labelnaam> gpt/<labelnaam>
Beter 1 hand in de lucht, dan geen hand!
# | Product | Prijs | Subtotaal |
1 | ASRock C70M1 | € 35,95 | € 35,95 |
1 | Inter-Tech ITX SY-800 | € 30,- | € 30,- |
2 | Sandisk Cruzer Fit 8GB Zwart | € 5,02 | € 10,04 |
1 | Crucial CT102464BA160B | € 25,95 | € 25,95 |
1 | be quiet! System Power 7 300W | € 39,- | € 39,- |
Bekijk collectie Importeer producten | Totaal | € 140,94 |
Goedkoper dan de NUC en makkelijker te voorzien van meerdere schijven voor een mirror. Om een beetje vriendelijk te zijn voor het stroomverbruik zou een Pico ook nog kunnen voor € 10 meer, maar of dat een merkbaar verschil gaat maken...
# | Product | Prijs | Subtotaal |
1 | Mini-box picoPSU 80 + 60W Adapter Power Kit | € 49,95 | € 49,95 |
Bekijk collectie Importeer producten | Totaal | € 49,95 |
Sinds de 2 dagen regel reageer ik hier niet meer
i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW
Heb je dan ook 90% pass-thrualbatross schreef op dinsdag 14 juni 2016 @ 12:13:
Ben vrij nieuw met ZFS. Maar vroeg me af, zou ik FreeNAS kunnen installeren binnen een VMware box, en dan de schijven pass-thru zetten?! ZFS luistert nogal nauw, las ik (als in: het moet echt 100% pass-thru zijn, of dingen gaan vreselijk mis).
In zekere zin wel: een (mogelijk) onderliggende RAID controller zou ook write-cache operaties op die schijven kunnen uitvoeren. En ook Windows zou zich er mee kunnen bemoeien (flushen en zo). Het is dus vitaal dat in zo'n pass-thru situatie *niemand* zich verder met die schijven bemoeit, behalve FreeNAS.
i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW
Er is zoiets als Raw Device Mapping, wat je in staat stelt om ruwe schijven door te geven.
Persoonlijk heb ik het met ESXi icm SAS en AHCI geprobeerd en werkte het in eerste instantie prima.
Ook technisch heb ik er geen directe nadelen van ondervonden. Er zijn wel technisch betere oplossingen zoals het gebruik van VT-d.
Simpele oplossing is tegenwoordig een NVME SSD te kopen, waardoor je daar je Datastore op kan leggen. Dan kan je (in veel gevallen) daarna je onboard AHCI controller doorgeven aan een VM.
Even niets...
Ja, dat klinkt als een goede oplossing.FireDrunk schreef op dinsdag 14 juni 2016 @ 13:23:
Simpele oplossing is tegenwoordig een NVME SSD te kopen, waardoor je daar je Datastore op kan leggen. Dan kan je (in veel gevallen) daarna je onboard AHCI controller doorgeven aan een VM.
i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW
Ik draai zelfs VMware met ZFS er onder, het moederbord had een aparte LSI controller voor de disks, dus ik heb die hele controller via VT-d doorgegeven aan mn storage instance, werkt als een zonnetje moet ik zeggen.albatross schreef op dinsdag 14 juni 2016 @ 12:13:
Ben vrij nieuw met ZFS. Maar vroeg me af, zou ik FreeNAS kunnen installeren binnen een VMware box, en dan de schijven pass-thru zetten?! ZFS luistert nogal nauw, las ik (als in: het moet echt 100% pass-thru zijn, of dingen gaan vreselijk mis).
RDM heb ik mezelf nooit aan gewaagd, hoewel ik genoeg gezien heb waar het wel werkt lijkt het me toch iets te iffy voor mn storage...
Hoe bedoel je 'er onder'? Toch niet de datastore zelf, neem ik aan. Dus LSI controller pass-thru gegeven, en vervolgens een ZFS-aware OS geinstalleerd (zoals FreeNAS), en die de controller gegeven?DXaroth schreef op dinsdag 14 juni 2016 @ 14:39:
[...]
Ik draai zelfs VMware met ZFS er onder, het moederbord had een aparte LSI controller voor de disks, dus ik heb die hele controller via VT-d doorgegeven aan mn storage instance, werkt als een zonnetje moet ik zeggen.
i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 4090 MASTER | Dark Power 13 1300W | Samsung 980/860/970/990 Pro | Logitech Z-906 | Phanteks Evolv X | Dell AW3821DW
Je hebt twee soorten RDM. Virtual RDM is inderdaad niet zo raw (de schijven worden als block devices doorgegeven) maar physical RDM wel. SMART werkt daarmee ook gewoon.Bigs schreef op dinsdag 14 juni 2016 @ 14:46:
RDM is niet zo raw als het klinkt (er zit een behoorlijke virtualisatielaag tussen om het aan je guest te presenteren). Het zou voor ZFS best kunnen werken maar standaard werkt het niet op lokale HBA's en bovendien mis je zaken als SMART dus het is denk ik niet echt aan te bevelen.
RDM werkt ook op lokale HBAs via de command line.
Gewoon een heel grote verzameling snoertjes
Sinds de 2 dagen regel reageer ik hier niet meer
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
Ik draai ZFS op een instance in VMware, via ZoL op een Ubuntu 14.04 (moet echt een keer updaten naar 16.04 maar ben er nogal huiverig voor.. van ZoL naar een Ubuntu-build van ZFS, brr)albatross schreef op dinsdag 14 juni 2016 @ 14:49:
[...]
Hoe bedoel je 'er onder'? Toch niet de datastore zelf, neem ik aan. Dus LSI controller pass-thru gegeven, en vervolgens een ZFS-aware OS geinstalleerd (zoals FreeNAS), en die de controller gegeven?
C70 is wel echt *heel* oud. Kan je niet beter een nieuwe Celeron nemen? (N3150 ofzo).CurlyMo schreef op dinsdag 14 juni 2016 @ 21:36:
Ik lees in het DIY NAS forum dat een AMD C70 niet echt de beste keus is voor een NAS. Maar voor een offsite backup zal het toch wel prima zijn? Nu kom ik van een Raspberry Pi achtige oplossing
Even niets...
Goedkoopste is twee keer zo duur en dat voor alleen externe backup.FireDrunk schreef op dinsdag 14 juni 2016 @ 22:47:
[...]
C70 is wel echt *heel* oud. Kan je niet beter een nieuwe Celeron nemen? (N3150 ofzo).
Sinds de 2 dagen regel reageer ik hier niet meer
Nu moet ik alleen alles ombouwen in een andere kast.
Ik weet niet 100% zeker of het iets uitmaakt dat ik alle kabels van de disken los ga maken, natuurlijk zorg ik er wel voor dat elke disk de zelfde kabel heeft op de HBA.
Normaal gesproken met een normale computer maakt dit niets uit maar met Freenas/ESX/HBA combo weet ik dit niet zeker

Kan iemand dit verifieren?
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.