Sinds de 2 dagen regel reageer ik hier niet meer
ZFS snapshots heb ik wel aan gedacht, maar dat geeft in mijn ogen net zoveel rompslomp als rsync. Je moet toch op één of andere manier zelf gaan borgen dat het gebeurt, bijhouden welke points je hebt en daar dingen uit halen.
Misschien heb ik gewoon nog te weinig kennis maar het voelt alsof je gewoon veel minder grip hebt.
Met een serieuze tool kies je een restorepoint en eventueel files en die restore je op een gekozen locatie. Vaak is het met snapshotmechanismen zo dat je een specifiek snapshot ergens moet restoren en daarna kijken of je de bestanden eruit kunt kopiëren. Je kunt dan ook niet even zoeken in welk restorepoint/snapshot een bestand nog wel zat.
Daarnaast is opslag niet altijd even efficiënt. Nu wordt op blockniveau bepaald wat gebackupped moet worden en dat incrementeel bijgehouden. Alleen delta's nemen ruimte in, ook als je de backupvolumes offsite zou plaatsen. Als je met zfs send een snapshot elders neer zet, heb je dan niet gewoon de gehele ruimte nodig? Een kopie van de snapshothistorie ergens plaatsen is een stuk lastiger volgens mij.
Maar goed, correct me if I'm wrong.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Zelf stuur ik wekelijks een incrementele snapshot naar mijn backuplocatie, en de snapshots ouder dan een maand verwijder ik (op de eerste van de maand na).
You're wrong.
ZFS snapshotsZFS snapshots heb ik wel aan gedacht, maar dat geeft in mijn ogen net zoveel rompslomp als rsync.
- zijn gemaakt binnen 1 seconde.
- nemen geen ruimte in bij geen veranderingen.
Volgens mij is er niks makkelijker dan een exacte kopie van je mappen structuur doorbladeren. Het borgen doe je inderdaad zelf, maar is super simpel. Zie mijn eigen scripts hieronder.Je moet toch op één of andere manier zelf gaan borgen dat het gebeurt, bijhouden welke points je hebt en daar dingen uit halen.
Serieuzer dan ZFS native code?Met een serieuze tool kies je een restorepoint en eventueel files en die restore je op een gekozen locatie.
ZFS snapshots zijn gewoon door te zoeken alsof je door je huidige FS structuur aan het bladeren bent. Het is namelijk een exacte kopie van dat moment tijd. Dus exact is ook echt exact.Vaak is het met snapshotmechanismen zo dat je een specifiek snapshot ergens moet restoren en daarna kijken of je de bestanden eruit kunt kopiëren. Je kunt dan ook niet even zoeken in welk restorepoint/snapshot een bestand nog wel zat.
Nee hoor. Ik zou echt even inlezen op ZFS snapshots. Alles wat jij dacht dat jouw backuptool beter deed, doet ZFS dus native.Daarnaast is opslag niet altijd even efficiënt. Nu wordt op blockniveau bepaald wat gebackupped moet worden en dat incrementeel bijgehouden. Alleen delta's nemen ruimte in, ook als je de backupvolumes offsite zou plaatsen. Als je met zfs send een snapshot elders neer zet, heb je dan niet gewoon de gehele ruimte nodig? Een kopie van de snapshothistorie ergens plaatsen is een stuk lastiger volgens mij.
snapshots maken
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
| #!/usr/bin/env bash DATE=$(date +"GMT-%Y.%m.%d-%H.%M.%S"); FOLDERS=( "shared/Fotografie" "shared/Video/Persoonlijk" "shared/Gedeeld" "user1/Hobby" "user1/Werk" "user1/Persoonlijk" "user1/School" "user2/Hobby" "user2/Werk" "user2/Persoonlijk" "user2/School" ); USERS=("user2" "user1") for F in ${FOLDERS[@]}; do ROOT=$(echo $F | cut -d "/" -f 1); DIR=${F/$ROOT\//}; zfs snapshot data/users/$F@$DATE if [ $ROOT = "shared" ]; then for U in ${USERS[@]}; do if [ ! -d /data/users/snapshots/$U/$DIR ]; then su -m $U -c "mkdir -p /data/users/snapshots/$U/$DIR" fi su -m $U -c "ln -s /data/users/$F/.zfs/snapshot/$DATE /data/users/snapshots/$U/$DIR/" done else if [ ! -d /data/users/snapshots/$F ]; then su -m $ROOT -c "mkdir -p /data/users/snapshots/$F" fi su -m $ROOT -c "ln -s /data/users/$F/.zfs/snapshot/$DATE /data/users/snapshots/$F/" fi done zfs snapshot data/www@$DATE zfs snapshot data/programs@$DATE zfs snapshot -r rpool@$DATE zfs snapshot -r data/users/mail@$DATE |
snapshots verwijderen
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
| #!/usr/bin/env bash DELETEOLDERTHAN=7776000 WEEKOLDERTHAN=2592000 FOLDERS=( "shared/Fotografie" "shared/Video/Persoonlijk" "shared/Gedeeld" "user1/Hobby" "user1/Werk" "user1/Persoonlijk" "user1/School" "user2/Hobby" "user2/Werk" "user2/Persoonlijk" "user2/School" ); USERS=("user2" "user1") SNAPSHOTS=$(zfs list -t snapshot -r -o name -s creation data); CURTS=$(date +"%s"); for S in ${SNAPSHOTS[@]}; do if [ $S != "NAME" ]; then SNAP=${S##*@}; ROOT=${S%%@*}; SNAPTS=$(date -j -f "GMT-%Y.%m.%d-%H.%M.%S" "$SNAP" +"%s") SNAPWD=$(date -j -f "GMT-%Y.%m.%d-%H.%M.%S" "$SNAP" +"%u") for F in ${FOLDERS[@]}; do FROOT=$(echo $F | cut -d "/" -f 1); DIR=${F/$FROOT\//}; if [ $ROOT = "data/users/$F" ]; then if [ $(($CURTS-$WEEKOLDERTHAN)) -gt $SNAPTS ]; then if [ $(($CURTS-$DELETEOLDERTHAN)) -gt $SNAPTS ] || [ $SNAPWD -ne 7 ]; then zfs destroy $ROOT@$SNAP; for U in ${USERS[@]}; do if [ -d /data/users/snapshots/$U/$DIR ]; then if [ -L /data/users/snapshots/$U/$DIR/$SNAP ]; then rm /data/users/snapshots/$U/$DIR/$SNAP; fi fi done fi fi fi done if [ $ROOT = "data/www" ] || [ $ROOT = "data/programs" ]; then if [ $(($CURTS-$WEEKOLDERTHAN)) -gt $SNAPTS ]; then if [ $(($CURTS-$DELETEOLDERTHAN)) -gt $SNAPTS ] || [ $SNAPWD -ne 7 ]; then zfs destroy $ROOT@$SNAP; fi fi fi fi done; |
Dit levert deze structuur op:
1
2
3
4
| [root@server ~]# ls -Al /data/users/snapshots/ total 24 drwxr-xr-x 9 root wheel 9 Aug 15 2014 user1 drwxr-xr-x 9 root wheel 9 Aug 15 2014 user2 |
1
2
3
4
5
6
7
8
9
| [root@server ~]# ls -Al /data/users/snapshots/user1/ total 84 drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 Fotografie drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 Gedeeld drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 Hobby drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 Persoonlijk drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 School drwxr-xr-x+ 3 user1 users 3 Aug 13 2014 Video drwxr-xr-x+ 2 user1 users 42 Jul 22 00:00 Werk |
1
2
3
4
5
6
7
| [root@server ~]# ls -Al /data/users/snapshots/user1/Hobby/ total 20 ... lrwxr-xr-x 1 user1 users 63 Jul 19 00:00 GMT-2015.07.19-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.19-00.00.00 lrwxr-xr-x 1 user1 users 63 Jul 20 00:00 GMT-2015.07.20-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.20-00.00.00 lrwxr-xr-x 1 user1 users 63 Jul 21 00:00 GMT-2015.07.21-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.21-00.00.00 lrwxr-xr-x 1 user1 users 63 Jul 22 00:00 GMT-2015.07.22-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.22-00.00.00 |
1
2
3
4
5
| [root@server ~]# ls -Al /data/users/snapshots/user1/Hobby/GMT-2015.07.22-00.00.00/ total 84 drwxr-x---+ 7 user1 users 9 Apr 21 23:32 ICT drwxr-x---+ 8 user1 users 9 Jun 20 2014 Muziek drwxr-x---+ 4 user1 users 34 Jul 3 22:32 Reizen |
De daadwerkelijke data:
1
2
3
4
5
| [root@server ~]# ls -Al /data/users/user1/Hobby/ total 84 drwxr-x---+ 7 user1 users 9 Apr 21 23:32 ICT drwxr-x---+ 8 user1 users 9 Jun 20 2014 Muziek drwxr-x---+ 4 user1 users 34 Jul 3 22:32 Reizen |
Elke gebruiker kan trouwens bladeren door zijn eigen snapshot map via samba. Het opzetten is wat werk, maar als dat dan werkt, dan kan je er ook op vertrouwen dat het werkt.
Sinds de 2 dagen regel reageer ik hier niet meer
Dat is inderdaad een groot voordeel, kan ik zelfs historie bewaren van bestanden waar ik normaal geen ruimte voor over heb.CurlyMo schreef op woensdag 22 juli 2015 @ 14:35:
ZFS snapshots
- zijn gemaakt binnen 1 seconde.
- nemen geen ruimte in bij geen veranderingen.
Klopt, dat ondersteunt Idera dan ook middels een webinterface. Voordeel boven ZFS is dan dat de borging en scheduling er óók gewoon ingebakken zit.Volgens mij is er niks makkelijker dan een exacte kopie van je mappen structuur doorbladeren. Het borgen doe je inderdaad zelf, maar is super simpel. Zie mijn eigen scripts hieronder.
Feitelijk alsof je al een restorepoint compleet in een subfolder gerestored hebt dus. Dat kan handig zijn, als je het eenmaal gevonden hebt kan je het dus direct benaderen in plaats van dat je eerst nog een restore moet doen.ZFS snapshots zijn gewoon door te zoeken alsof je door je huidige FS structuur aan het bladeren bent. Het is namelijk een exacte kopie van dat moment tijd. Dus exact is ook echt exact.
Ik ga me zeker nog even verder inlezen, want het ziet er sowieso interessant uit. Maar je stelling is helaas niet waar, zie bijvoorbeeld:Nee hoor. Ik zou echt even inlezen op ZFS snapshots. Alles wat jij dacht dat jouw backuptool beter deed, doet ZFS dus native.
• Saving snapshots – Use the zfs send and zfs receive commands to send and receive a ZFS snapshot. You can save incremental changes between snapshots, but you cannot restore files individually. You must restore the entire file system snapshot. These commands do not provide a complete backup solution for saving your ZFS data.
Het grote struikelblok wat ik nog denk te zien is de offsite kopie van je backupdata. Nu kan ik de disksafes ergens anders plaatsen en terughalen als ik dat wil. Dit zijn gewoon bestanden die je waar dan ook neer kunt zetten, zij bevatten alle data en restorepoints.
In het geval van ZFS snapshots moet je die zo te lezen per stuk verzenden naar een ander ZFS volume, ik kan dus niet simpel zeggen dat ik op mijn werk een externe HD heb liggen met een kopietje van de volledige backupset. Of wel.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Dat kan prima. Alleen moet dat handmatig. Als ik dus bijv. een vakantieplanning wil terughalen van 24 mei 2015, dan ga ik via verkenner naar mijn snapshots share en dan vervolgens:Gonadan schreef op woensdag 22 juli 2015 @ 14:44:
• Saving snapshots – Use the zfs send and zfs receive commands to send and receive a ZFS snapshot. You can save incremental changes between snapshots, but you cannot restore files individually. You must restore the entire file system snapshot. These commands do not provide a complete backup solution for saving your ZFS data.
1
| \\SERVER\snapshots\Hobby\GMT-2015.05.24-00.00.00\Reizen\vakantieplannen.odt |
Als je daadwerkelijk je hele snapshot wil terugzetten dan doe je dat met:
1
| zfs rollback /data/users/user1/Hobby@GMT-2015.05.24-00.00.00 |
Dat terugzetten is ook binnen een paar seconde gebeurt. Zo restore ik wel eens mijn hele server systeem schijf als het upgraden niet helemaal gaat zoals ik wilde. Ik draai dan binnen een paar seconde weer op de oude situatie voor de upgrade.
Dat hangt van de inrichting van je ZFS af. Als jij alle data wil backuppen naar een externe ZFS HDD dan send/receive je gewoon de root van je ZFS. Alle onderliggende ZFS' worden dan meegestuurd en je hebt dan dus een daadwerkelijke 1-op-1 kopie van je data.In het geval van ZFS snapshots moet je die zo te lezen per stuk verzenden naar een ander ZFS volume, ik kan dus niet simpel zeggen dat ik op mijn werk een externe HD heb liggen met een kopietje van de volledige backupset. Of wel.
[ Voor 13% gewijzigd door CurlyMo op 22-07-2015 15:00 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Qua vervanging van de backup binnen de server klinkt het wel interessant, een frontendje voor die snapshot dir is ook zo gemaakt.
Hoe ga je dan om met retentie en samenvoegen van snapshots? Je wilt niet alle snapshots eindeloos bewaren. Samenvoegen zal overigens niet nodig zijn binnen ZFS vermoed ik.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
1
| zfspool/dataset |
Dan maak je een snapshot, en die send je naar een backup
1
2
3
| zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_07_22 |
Dat doe je na een maand nog is
1
2
3
4
5
| zfspool/dataset@2015_07_22 zfspool/dataset@2015_08_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_08_22 |
en nog is
1
2
3
4
5
6
7
| zfspool/dataset@2015_07_22 zfspool/dataset@2015_08_22 zfspool/dataset@2015_09_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_08_22 zfspoolbc/dataset@2015_09_22 |
Kan ik dan de tussenliggende snapshot verwijderen en een maand later het volgende hebben?
1
2
3
4
5
| zfspool/dataset@2015_07_22 zfspool/dataset@2015_10_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22 |
of het volgende:
1
2
3
4
| zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22 |
en dan deze aanmaken?
1
2
3
4
5
| zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22 zfspoolbc/dataset@2015_11_22 |
Of is dit niet hoe het werkt?
Ik begrijp dat dit niet mogelijk is (initiele snapshot op je origineel verwijderen en dan incremental backuppen, je moet de eerst versie behouden?
1
2
3
4
5
| zfspool/dataset@2015_10_22 zfspool/dataset@2015_11_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22 |
Samenvoegen zou raar zijn want dan ga je de geschiedenis herschrijven.Gonadan schreef op woensdag 22 juli 2015 @ 15:43:
Hoe ga je dan om met retentie en samenvoegen van snapshots? Je wilt niet alle snapshots eindeloos bewaren. Samenvoegen zal overigens niet nodig zijn binnen ZFS vermoed ik.
De retentie maak je zelf. Ik heb voor mijn data set:
- snapshots van elke 24 uur voor een maand.
- ouder dan één maand, snapshots van 1 week voor nog 3 maanden.
Op mijn backup bewaar ik snapshots zolang ik er ruimte voor heb. Als de schijf vol begint te raken, dan verwijder ik oude snapshots. Hier zit wel een limiet aan. Dus als de # snapshots / schijfruimte niet meer in balans is, dan krijg ik een mail en wordt het tijd voor vervanging van mijn backup schijven.
- Op de data pool kan ik max. 4 maanden terug. Dus de oudste snapshot op die ZFS is van 26 april 2015.
- Mijn oudste snapshot op mijn backup ZFS is van 4 september 2014.
- Mijn oudste snapshot op mijn offsite backup ZFS is 4 september 2014
JaKortfragje schreef op woensdag 22 juli 2015 @ 15:50:
Maar dat is dus iets dat ik me afvroeg, stel je hebt een filesystem en maakt een snapshot
Kan ik dan de tussenliggende snapshot verwijderen en een maand later het volgende hebben?
code:
1 2 3 4 5 zfspool/dataset@2015_07_22 zfspool/dataset@2015_10_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22
Kan ookof het volgende:
code:
1 2 3 4 zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22
Dat hangt er vanaf wat de bron van 2015_11_22 is. Je kan natuurlijk altijd een snapshot aanmaken op je backup ZFS. Of dat verstandig is is een andere vraag. Want als je dat eenmaal gedaan hebt, dan kan je geen incremental snapshots meer sturen. Je zult dan eerst 2015_10_22 en 2015_11_22 moeten verwijderen. Bijv.:en dan deze aanmaken?
code:
1 2 3 4 5 zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22 zfspoolbc/dataset@2015_11_22
Of is dit niet hoe het werkt?
1
2
3
4
5
| zfspool/dataset@2015_07_22 zfspoolbc/dataset@2015_12_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_12_22 |
Je verwijderd dus eerst 10 en 11 en stuur daarna het verschil weer door tussen 7 en 12.
Dit kan ook prima. Zoal ik al aangaf heeft mijn backup ZFS veel meer snapshots dan mijn data ZFS. Het is wel belangrijk dat je in beide gevallen 2015_10_22 behoud, anders kan je nergens op aansluiten. De volgende incremental send/receive zal dus zijn tussen 2015_10_22 en 2015_11_22. Het maakt voor ZFS niet uit wat daar nog voor ligt op de backup ZFS.Ik begrijp dat dit niet mogelijk is (initiele snapshot op je origineel verwijderen en dan incremental backuppen, je moet de eerst versie behouden?
code:
1 2 3 4 5 zfspool/dataset@2015_10_22 zfspool/dataset@2015_11_22 zfspoolbc/dataset@2015_07_22 zfspoolbc/dataset@2015_10_22
Sinds de 2 dagen regel reageer ik hier niet meer
ZFS snapshots zijn niet incrementeel maar een direct benaderbare weergave van dat moment, maar wel incrementeel opgeslagen. Dus alleen delta kost ruimte.
Daardoor is samenvoegen geen issue, dat is niet nodig c.q. gebeurt automatisch als je een snapshot verwijdert. Ruimte komt dan direct vrij.
ZFS send om een backupvolume te hebben vereist dat de andere kant ook ZFS is. Mijn beoogde offsite kan dus niet 'gewoon een externde hd' zijn.
Dan twee vragen:
• kan het maken van zo'n snapshot falen?
• kan je zien welke ruimte er gebruikt wordt door delta's en hoe je ruimte kunt terugwinnen?
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| gertdus@KarelDoorman:~$ zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT zfspool/backup@2014_08_31 73.2M - 319G - zfspool/backup@2015_06_15 87.9M - 384G - zfspool/cartoons@2014_08_28 2.58M - 270G - zfspool/films@2014_08_28 42.9G - 705G - zfspool/kindertv@2014_08_28 1.27M - 187G - zfspool/muziek@2014_08_28 79.5M - 798G - zfspool/series@2014_08_28 4.59M - 1.18T - zfspool/software@2014_08_28 42.3M - 468G - zfspool/werk@2015_06_15 1.01G - 1.81T - gertdus@KarelDoorman:~$ zfs list NAME USED AVAIL REFER MOUNTPOINT zfspool 6.53T 10.5T 432K /zfspool zfspool/backup 384G 640G 384G /zfspool/backup zfspool/cartoons 313G 711G 313G /zfspool/cartoons zfspool/films 771G 1.25T 728G /zfspool/films zfspool/kindertv 189G 835G 189G /zfspool/kindertv zfspool/miscellaneous 216G 134G 216G /zfspool/miscellaneous zfspool/muziek 798G 226G 798G /zfspool/muziek zfspool/series 1.39T 1.61T 1.39T /zfspool/series zfspool/software 496G 528G 495G /zfspool/software zfspool/werk 1.81T 4.19T 1.81T /zfspool/werk gertdus@KarelDoorman:~$ |
used is (zoals ik het begrijp) extra ruimte die vereist is bovenop wat de dataset zelf gebruikt (tweede list)
[ Voor 36% gewijzigd door Kortfragje op 22-07-2015 16:29 ]
Gonadan schreef op woensdag 22 juli 2015 @ 16:19:
ZFS snapshots zijn niet incrementeel maar en een direct benaderbare weergave van dat moment, maar wel incrementeel opgeslagen. Dus alleen delta kost ruimte.
KloptDaardoor is samenvoegen geen issue, dat is niet nodig c.q. gebeurt automatisch als je een snapshot verwijdert. Ruimte komt dan direct vrij.
Dat kan wel. Maar niet naar jouw wens. Je kan snapshots ook wegschrijven naar bestanden, alleen kan je die bestanden dan niet doorbladeren.ZFS send om een backupvolume te hebben vereist dat de andere kant ook ZFS is. Mijn beoogde offsite kan dus niet 'gewoon een externde hd' zijn.
1. Nee, want het maken van zo'n snapshot kost geen ruimte. Wat kan gebeuren is dat je schijf sneller vol raakt als je een 1T video verwijderd en weer opnieuw aanmaakt. Die 1T blijft in gebruik totdat je de snapshot verwijderd.Dan twee vragen:
• kan het maken van zo'n snapshot falen?
• kan je zien welke ruimte er gebruikt wordt door delta's en hoe je ruimte kunt terugwinnen?
2. Ja. Dat kan je allemaal lezen in de ZFS documentatie.
Sinds de 2 dagen regel reageer ik hier niet meer
Nou, misschien wel. Mijn wens is dat ik kan bladeren, maar dat hoeft niet per definitie offsite. De offsite is zuiver om ook offsite nog spul te hebben. Het moet dus mogelijk zijn om die snapshots ook weer bruikbaar te kunnen maken, ook al is mijn server afgefikt. Kan dat met ZFS?CurlyMo schreef op woensdag 22 juli 2015 @ 16:44:
Dat kan wel. Maar niet naar jouw wens. Je kan snapshots ook wegschrijven naar bestanden, alleen kan je die bestanden dan niet doorbladeren.
Opslaan als bestanden geeft mij het gevoel dat je feitelijk gewoon de actuele situatie van dat snapshot als één grote file weg zet. Dat kost dus evenveel ruimte als de snapshot op schijf zou innemen als je hem zou restoren. Je bent dan het voordeel van alleen de delta's opslaan kwijt lijkt me?
Maar dat geldt voor elke backupoplossing, dus feitelijk moet je net als normaal gewoon je schijfruimte gebruik monitoren.1. Nee, want het maken van zo'n snapshot kost geen ruimte. Wat kan gebeuren is dat je schijf sneller vol raakt als je een 1T video verwijderd en weer opnieuw aanmaakt. Die 1T blijft in gebruik totdat je de snapshot verwijderd.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
De uitvoer van zfs send gaat naar stdout. Die stdout kan je dus overal naar toe lussen. Simpele voorbeelden:Gonadan schreef op woensdag 22 juli 2015 @ 16:50:
Nou, misschien wel. Mijn wens is dat ik kan bladeren, maar dat hoeft niet per definitie offsite. De offsite is zuiver om ook offsite nog spul te hebben. Het moet dus mogelijk zijn om die snapshots ook weer bruikbaar te kunnen maken, ook al is mijn server afgefikt. Kan dat met ZFS?
Opslaan als bestanden geeft mij het gevoel dat je feitelijk gewoon de actuele situatie van dat snapshot als één grote file weg zet. Dat kost dus evenveel ruimte als de snapshot op schijf zou innemen als je hem zou restoren. Je bent dan het voordeel van alleen de delta's opslaan kwijt lijkt me?
1
2
3
| zfs send | zfs recieve zfs send > /offsitebackup/snapshot1 zfs send | mbuffer | ssh ... zfs receive |
Als je delta wil opslaan, dan kan dat dus ook. Je krijgt dan 1 groot snapshot bestand en allemaal kleine delta bestanden. Het probleem is alleen dat je minder makkelijk oude snapshots kan verwijderen. Stel je hebt drie snapshots in bestanden opgeslagen: snapshot1.0, snapshot1.1, snapshot1.2. Snapshot 1.0 is de basis en snapshot 1.1 en 1.2 zijn delta's. Als je vervolgens snapshot 1.0 wil verwijderen, dan zul je moeten zorgen dat je snapshot 1.1 opnieuw aanmaakt, anders hebben je delta's geen basis meer. Het beheren van snapshots opgeslagen in bestanden brengt dus veel meer complexiteit met zich mee dan gewoon een offsite ZFS backup schijf hebben. Dan regelt ZFS zelf alles automatisch als je oude snapshots verwijderd.
Klopt.Maar dat geldt voor elke backupoplossing, dus feitelijk moet je net als normaal gewoon je schijfruimte gebruik monitoren.
Die offsite backup zou overigens zo simpel kunnen zijn als een Raspberry Pi 2 met een ZFS externe HDD. Zo doe ik dat ook.
[ Voor 3% gewijzigd door CurlyMo op 22-07-2015 16:59 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Je kunt natuurlijk ook redeneren dat je offsite lang niet zoveel restorepoints nodig hebt als onsite, maar dat is weer een andere discussie.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Standaard wel opgeslagen, maar bij het verzenden naar een andere ZFS of bestand moet je wel expliciet opgeven welke delta's hij moet genereren. Zie ook daarvoor de documentatie.Gonadan schreef op woensdag 22 juli 2015 @ 17:15:
Ah op die manier. Op ZFS is elke backup standaard incremental opgeslagen waardoor je dat onderscheid niet hoeft te maken, voor andere opslagmanieren moet je specifiek -i meegeven en dan zelf borgen dat het goed komt. Inderdaad ruk om te beheren.
R1soft Idera Free

Sinds de 2 dagen regel reageer ik hier niet meer
Een aantal dingen die mij het e.e.a. erg aangenaam maken:
- Automatische snapshots van mijn 'belangrijke-data'-dataset (en al zijn child-datasets) met zfs-auto-snapshot, elke: 15min (laatste 4 worden bewaard), 60min (laatste 24 worden bewaard), dag (31 worden bewaard), maand (volgens mij allemaal bewaard, even checken
)
- Alle monthly en daily snapshots worden naar een offsite backup gestuurd (vriendje met een soortgelijk ZFS systeem)
- De .zfs/snapshots map gelinked naar een normale map welke gedeeld wordt via NFS/Samba, op deze manier kan elke gebruiker gewoon zelf zijn historie door kijken en eventueel bestanden kopieren/terugzetten. (Dit werkt echt perfect, en is veel inzichtelijker dan bijv. Dropbox file history)
- Owncloud webinterface, welke ook bij de genoemde snapshots kan
- Syncthing (BTSync alternatief) voor synchronisatie van mappen over de server, meerdere laptops, PC's etc. De mappen die Syncthing synct zitten uiteraard onder de backup-dataset en worden dus ge-snapshot en gebackupped.
Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
Jep, dat gebruik ik ook. Best leuk.FireDrunk schreef op woensdag 22 juli 2015 @ 20:14:
Punt 3 kan toch ook via samba en previous versions? Dan kan je met windows in ieder geval op een vrij coole manier je vorige versie van een document terugzetten
Wat is 'jullie implementatie'? De methode die FireDrunk noemt gebrukt nog steeds gewoon (automatisch aangemaakte) ZFS snapshots, Samba's shadow_copy VFS module (heet "Previous Versions" in Windows clients) is slechts een manier om die snapshots bereikbaar te maken vanaf Windows clients.CurlyMo schreef op woensdag 22 juli 2015 @ 20:56:
Dat is echt veel omslachtiger dan onze implementatie
Gewoon een heel grote verzameling snoertjes
Ik bedoel de manier waarop je de snapshots beschikbaar maakt aan de eindgebruiker. In vind Previous Versions niet lekker werken. Met mijn manier bedoel ik het beschikbaar maken van de snapshots als aparte samba share.Compizfox schreef op woensdag 22 juli 2015 @ 22:40:
Wat is 'jullie implementatie'?
Sinds de 2 dagen regel reageer ik hier niet meer
Persoonlijk vind ik dat een van de meest gebruikers-dankbare feature die ZFS voor Jan met de Pet kan bieden. "Uw bestanden? Ja hoor, die kan u zelf even terugvissen uit onze gearchiveerde versies, via Previous Versions. Klik rmk, eigenschappen, kijk eens, allemaal chronologisch geordend".CurlyMo schreef op woensdag 22 juli 2015 @ 23:39:
[...]
Ik bedoel de manier waarop je de snapshots beschikbaar maakt aan de eindgebruiker. In vind Previous Versions niet lekker werken. Met mijn manier bedoel ik het beschikbaar maken van de snapshots als aparte samba share.
Goed, jouw oplossing doet het ook hoor, maar ik vind die "vervuilender" in het vaak al aanwezige oerwoud van shares in een organisatie. Voor thuis? Ok, maakt wat minder uit.
En nog even complimenten met al jouw scripts hier. Als mijn migratie voltooid is dan moet ik terug eens kijken om je backup scriptje in productie te nemen...
pool: stavanger state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Thu Jul 23 00:07:48 2015 41.4G scanned out of 17.2T at 375M/s, 13h18m to go 3.94G resilvered, 0.24% done config: NAME STATE READ WRITE CKSUM stavanger DEGRADED 0 0 0 raidz2-0 DEGRADED 0 0 0 disk1-xxxxxxxx ONLINE 0 0 0 disk2-xxxxxxxx ONLINE 0 0 0 disk3-xxxxxxxx ONLINE 0 0 0 disk4-xxxxxxxx ONLINE 0 0 0 disk5-xxxxxxxx ONLINE 0 0 0 disk6-xxxxxxxx ONLINE 0 0 0 disk7-xxxxxxxx ONLINE 0 0 0 disk8-xxxxxxxx ONLINE 0 0 0 disk9-xxxxxxxx ONLINE 0 0 0 replacing-9 OFFLINE 0 0 0 /media/RAMDISK/5TBFILESPARSE OFFLINE 0 0 0 disk10-xxxxxxxx ONLINE 0 0 0 (resilvering)

Grote voordeel van Previous Versions volgens mij is dat je die kan leveren uit een hoger gelegen snapshot.
Dus stel je hebt een /home met daarin 5000 gebruikers, hoef je niet 5000 snapshots te maken en elk snapshot te sharen. Je kan in de settings van samba aangeven dat je het bovenliggende snapshot wil gebruiken.
Als je dat snapshot direct shared, share je weer alle directories in dat snapshot.
Als je maar een paar homedrives hebt, kan je die natuurlijk prima los snapshotten
Even niets...
Vanwaar deze toevoeging? Zover zijn we nog lang niet want qua gebruiksgemak wint hij het nog met straatlengtes. Maar ik ga mij zeker verder inlezen want het klinkt erg interessant. Desnoods beperk ik de offsite backup tot de fullbackups, ofwel non-incremental snapshots.
Je hebt mij wel overtuigd om dit serieus te gaan proberen, native in je FS is toch wel heel tof.
Leuk om te lezen. Een groot deel is identiek aan dat van mij, behalven dan de ZFS snapshotimplementatie.DRAFTER86 schreef op woensdag 22 juli 2015 @ 18:11:
Hier werkt de (Ubuntu 14.04) thuis-server met ZFS-on-Linux ook al maanden probleemloos.
Een aantal dingen die mij het e.e.a. erg aangenaam maken:
- Automatische snapshots van mijn 'belangrijke-data'-dataset (en al zijn child-datasets) met zfs-auto-snapshot, elke: 15min (laatste 4 worden bewaard), 60min (laatste 24 worden bewaard), dag (31 worden bewaard), maand (volgens mij allemaal bewaard, even checken
)
- Alle monthly en daily snapshots worden naar een offsite backup gestuurd (vriendje met een soortgelijk ZFS systeem)
- De .zfs/snapshots map gelinked naar een normale map welke gedeeld wordt via NFS/Samba, op deze manier kan elke gebruiker gewoon zelf zijn historie door kijken en eventueel bestanden kopieren/terugzetten. (Dit werkt echt perfect, en is veel inzichtelijker dan bijv. Dropbox file history)
- Owncloud webinterface, welke ook bij de genoemde snapshots kan
- Syncthing (BTSync alternatief) voor synchronisatie van mappen over de server, meerdere laptops, PC's etc. De mappen die Syncthing synct zitten uiteraard onder de backup-dataset en worden dus ge-snapshot en gebackupped.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Heb je gelijk in.FireDrunk schreef op donderdag 23 juli 2015 @ 06:50:
Het een sluit het ander niet uit. Je kan zowel Previous Versions gebruiken als je snapshots via een losse share beschikbaar maken.
Totdat het niet bleek te werken met ZFSGonadan schreef op donderdag 23 juli 2015 @ 10:23:
Vanwaar deze toevoeging? Zover zijn we nog lang niet want qua gebruiksgemak wint hij het nog met straatlengtes.
Waarom non-incremental? Wat is het voordeel?Maar ik ga mij zeker verder inlezen want het klinkt erg interessant. Desnoods beperk ik de offsite backup tot de fullbackups, ofwel non-incremental snapshots.
Jammer dat die tweakers hier de keuzes van iemand zo in twijfel kunnen trekkenJe hebt mij wel overtuigd om dit serieus te gaan proberen, native in je FS is toch wel heel tof.
Sinds de 2 dagen regel reageer ik hier niet meer
Tot ik het niet aan de praat kreeg met een apart volume.CurlyMo schreef op donderdag 23 juli 2015 @ 11:24:
Totdat het niet bleek te werken met ZFSHeb je al eens gekeken naar die rdiff-backup GUI?
Heb ik naar gekeken inderdaad, maar lijkt een window based GUI te zijn en geen webinterface. Ik draai geen windowmanagers op mijn server.
Gemak.Waarom non-incremental? Wat is het voordeel?
Als ik het goed begrijpen heb zijn er twee opties:
• offsite ZFS volume zodat het feitelijk een replicatie is van je onsite snapshots.
• offsite non-ZFS opslag zodat je de snapshots specifiek als bestanden gaat opslaan.
Optie twee is qua hardware veel simpeler te realiseren, een externe HD is al voldoende. Voor ZFS moet je toch een OS hebben wat ertussen zit om het te ondersteunen.
In het geval van optie twee moet je zelf bepalen wanneer je incremental stuurt en borgen dat je snapshotstructuur consistent blijft zodat je incrementals nuttig zijn. Als je simpelweg alleen full stuurt kan je een retentie bepalen en op basis daarvan een vaste hoeveelheid points bewaren. Hoef je niet na te denken over de incrementals.
Maargoed, stap 1 is inlezen over het snapshotten en dat inrichten, stap 2 is offsite.
lol ja, dit keer pakt het inderdaad wel goed uit.Jammer dat die tweakers hier de keuzes van iemand zo in twijfel kunnen trekken
Toch moet ik wel zeggen dat het erg vaak niet goed uit pakt en het meer voor een offtopic discussie zorgt.
Overigens zie ik veel mensen die losse mountpoints hebben voor delen van de pool, wat is daar het voordeel van?
[ Voor 3% gewijzigd door Gonadan op 23-07-2015 12:26 ]
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Dit moet je toch meer toelichten. Kan dat backup systeem geen ZFS draaien? Vrijwel alle Linuxes kunnen dat...Gonadan schreef op donderdag 23 juli 2015 @ 12:21:
Optie twee is qua hardware veel simpeler te realiseren, een externe HD is al voldoende. Voor ZFS moet je toch een OS hebben wat ertussen zit om het te ondersteunen.
Sinds de 2 dagen regel reageer ik hier niet meer
Zonder ZFS volstaat een externe HD op mijn werk die op maandagochtend de snapshot van die nacht binnen trekt bijvoorbeeld.
Maar hoe zit het nu met:
Gonadan schreef op donderdag 23 juli 2015 @ 12:21:
Overigens zie ik veel mensen die losse mountpoints hebben voor delen van de pool, wat is daar het voordeel van?
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Wat voor een systeem is dat? Als jij op dat systeem het zo kan configureren dat je snapshots binnen kan en mag trekken, is het dan niet mogelijk om zfs te installereren? Dat eerste zal in de meeste bedrijfsnetwerken al niet mogen namelijk.Gonadan schreef op donderdag 23 juli 2015 @ 12:38:
Zonder ZFS volstaat een externe HD op mijn werk die op maandagochtend de snapshot van die nacht binnen trekt bijvoorbeeld.
Sinds de 2 dagen regel reageer ik hier niet meer
Een ander voorbeeld zou cloudopslag zijn. Simpel snapshot bestanden uploaden is geen probleem, wil je ZFS draaien dan heb je niet genoeg aan opslag maar moet je een server gaan afnemen.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Sinds de 2 dagen regel reageer ik hier niet meer
/pool/movies -> /mnt/share/movies
/pool/downloads -> /mnt/share/downloads
/pool/titties -> /mnt/share/titties
en dan share je /mnt/share/ in samba.
Dan worden andere delen van /pool/* niet gedeeld.
Dat *kan*, maar hoeft niet perse een voordeel te zijn.
Even niets...
Het nut van snapshots zie ik niet zomaar verdwijnen, die kan je net zo blijven gebruiken als normaal. Je mist alleen wel het voordeel van incrementeel opslaan, waardoor het belachelijk veel ruimte inneemt als je álle snapshots offsite zou willen zetten.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Dus als je A->B->C->D->E hebt, kan je aan de andere kant alleen A->E hebben.
Even niets...
Niet alleen ruimte, maar ook tijd. Je moet elke keer al je data over een (internet / usb / netwerk) lijn sturen. Mijn offsite backup ligt bij een familielid. Zou ik elke nacht alles oversturen, dan zou ik denk ik een paar dagen bezig zijn. Nu is het elke nacht maar 5 tot 10 minuten.Gonadan schreef op donderdag 23 juli 2015 @ 13:58:
Wellicht, maar dat neemt niet weg dat het meer investering in zowel spullen als tijd is.
Het nut van snapshots zie ik niet zomaar verdwijnen, die kan je net zo blijven gebruiken als normaal. Je mist alleen wel het voordeel van incrementeel opslaan, waardoor het belachelijk veel ruimte inneemt als je álle snapshots offsite zou willen zetten.
Dus de tijd en geld die je zegt kwijt te zijn aan een nieuw systeem (€ 35,-) win je lang en breed terug met incremental snapshots.
Sinds de 2 dagen regel reageer ik hier niet meer
Overigens kan je alsnog met incrementals gaan werken, maar dan moet je gewoon één volle laten staan. Is het uploadargument weer van de baan. Maar dan kost het je meer aandacht.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Kan je top -HS doen? Ik heb hetzelfde fenomeen, wat bij mij veroorzaakt wordt door ACPI interrupts (oid).johann1982 schreef op donderdag 23 juli 2015 @ 15:24:
Dag allen,
Ik heb op zfsguru (10.1-001; 0.2.0-rc) last van hoge cpu load. Meestal rond de 1,0.
Ik heb geen speciale services draaien, wel samba met AD en een paar users tegelijkertijd (dus de hogere smbd lijkt me niet zo raar).
Hier top -S :
[afbeelding]
Iemand een idee waarom de load zo hoog is ?
Thx !
Johan
Transip biedt nu een Blade + 2TB blockstorage aan voor 20 euro/mnd. Ik draai hier nu ZFS op. Het is ZFS op ZFS, maar de snelheden zijn best prima. Incremental oversturen werkt ook als een malle.Gonadan schreef op donderdag 23 juli 2015 @ 13:08:
Doet niet echt ter zake, het is maar een voorbeeld. Maar stel dat ik dat zou doen dan is het een windows laptop. Snapshots binnen trekken is dan geen probleem, ZFS installeren en configureren al snel wel.
Een ander voorbeeld zou cloudopslag zijn. Simpel snapshot bestanden uploaden is geen probleem, wil je ZFS draaien dan heb je niet genoeg aan opslag maar moet je een server gaan afnemen.
Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.
avdpeijl schreef op donderdag 23 juli 2015 @ 16:11:
[...]
Kan je top -HS doen? Ik heb hetzelfde fenomeen, wat bij mij veroorzaakt wordt door ACPI interrupts (oid).

Ps: Moederbord is supermicro X9SRL-F met een Xeon 2609V2 processor.
Even niets...
BIOS geupdate en inderdaad, cpu load zakt nu mooi naar lage waardes, dus dat lijkt in orde.FireDrunk schreef op donderdag 23 juli 2015 @ 17:07:
BIOS up to date?
Thanks !
Naaah, jammer: ik maak gebruik van ASRock E3C224D4I-14S board met BIOS op v2.0 en later v2.1.
Alles draait goed met throttle down van CPU op ZFSguru 10.1-001. Met de upgrade naar 10.1-002 is het mooie werk van powerd weer verloren gegaan:

Bios wijziging heeft niet geholpen. Instellingen rondom ACPI aan/uit in de Bios hebben ook niet geholpen. Iemand nog een idee (behalve wachten op update ZFSguru)?
Even niets...
/mnt/tank/media
Daarnaast komen dan blijkbaar alle services met elk hun jail en eigen storage, waarbij de jail een soort van gevirtualizeerd O/S binnen je eigenlijke O/S die er los van staat, of zie ik dit verkeerd? Zo heb ik nu
/mnt/tank/jails/transmission/media
Ik slaag er niet direct in om torrents te laten aankomen op mijn share aangezien deze niet zichtbaar is voor transmission.
[ Voor 11% gewijzigd door SanderH_ op 24-07-2015 18:47 ]
Even niets...
drwxr-xr-x 3 www www 3 Jul 21 17:44 .plugins drwxr-xr-x 2 root wheel 17 Jul 21 17:57 .transmission_1.meta drwxr-xr-x 5 root wheel 5 Jul 21 17:45 .warden-files-cache drwxr-xr-x 18 root wheel 22 Jul 21 17:45 .warden-template-pluginjail--x64 drwxr-xr-x 18 root wheel 22 Jul 21 17:45 transmission_1
Onder welke user draait transmission?
Wat je nu laat zien is buiten de jail volgens mij...
Heb je zelf dat mountpoint in die map gezet? Want dat werkt niet meteen, je moet expliciet opgeven dat die storage beschikbaar is voor de jail...
[ Voor 53% gewijzigd door FireDrunk op 24-07-2015 20:01 ]
Even niets...
[ Voor 10% gewijzigd door Dadona op 24-07-2015 20:04 ]
EDIT: nvm, gelukt
[ Voor 17% gewijzigd door SanderH_ op 24-07-2015 20:35 ]
Ik heb hier geen tijdspad voor maar gezien de omvang van de huidige fileserver wil ik de ZFS PC schaalbaar opzetten. Heb deze week op Tweakers een behuizing gekocht waar ik in eerste instantie 12 x 4 TB onder ZFS in wil draaien.
Basis is Supermicro moederbod met ECC RAM en een E5-2603 CPU. Hierin komt in eerste instantie een IBM serveraid M1015 om samen met de onboard SATA aansluitingen de 12 schijven te kunnen gebruiken. Later is het de bedoeling om via meerdere HBA kaarten en SAS expanders meer schijven aan te sluiten.
Ik heb nu een paar vragen m.b.t. ZFS,
1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
2) stel dat ik nu Freenas kies kan ik dan later makkelijk switchen naar ZFSGuru of Nas4free?
3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.
Gezien de weersverwachting verwacht ik de boel dit weekend in elkaar te zetten dus adviezen zijn welkom
Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
De volgende release van ZFSGuru komt als ik het goed het volgende maand uit. En je hebt natuurlijke de luxe dat één van de devs hier op het forum zit
raidz2 lijkt me inderdaad ideaal. Qua aantal vdev's gebruiken er veel de bekende (2^n + parity) formule. Al zijn er dan weer die dit een beetje tegenspreken3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
Je kan verschillende partities aanmaken en dan een deel voor je O/S gebruiken, en dan een ander deel voor L2ARC. Eventueel nog een derde deel voor ZIL, maar dat wordt wel allemaal wat krap op een 30GB SSD. Het zijn trouwens leuke perks maar zeker niet noodzakelijk en blijkbaar erg afhankelijk van hoe je gebruik maakt van je data.4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.
Bij FreeNAS heb je geen volledige versie van FreeBSD toch? Dat vind ik persoonlijk het grootste nadeel. Ook lopen ze nogal achter qua FreeBSD (ze zitten op 9.3)SanderH_ schreef op vrijdag 24 juli 2015 @ 22:34:
[...]
Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.
Gewoon een heel grote verzameling snoertjes
Daarnaast zit ZFSguru bijvoorbeeld reeds op 10.1 terwijl FreeNAS volhardt in de boosheid. Ik heb eerder deze week er wat achter zitten zoeken en vond deze reply (wel al bijna 1 jaar oud ondertussen):
1. We have more modest goals for the next major release (live updates, NFSv4, basic UI cleanup, setup Wizard) and 10.1 will not be ready by then (October). We wouldn't base a release on 10.0 because conventional wisdom has always been that FreeBSD's first major release on any new branch is not a good target for serious production use. The project needs time for the early-adopters to find the sharper edges and grind them off, after which the next release is almost always a lot better. That makes FreeBSD 9.3 the right foundation for the next release of FreeNAS.
2. The goals for FreeNAS-10 (based on 10.1) are rather more significant, and we need more time to work on them. Entirely new UI. Entirely new "middleware". GUI support for Bhyve virtual machines (think "jails" that can run entirely different OSes). Those are just a few of the things on the roadmap for FreeNAS 10. There's basically a huge amount of work going in to FreeNAS-10, and it's not going to be done by October 2014. Roughly speaking, it will be more like July 2015 before that release is really ready to see the light of day.
bron
Je moet ook eens even bij FireDrunk horen, die heeft dan weer heel positieve ervaringen met Fedora + ZFS. Goed, ik ben heel tevreden van Ubuntu en heb weinig te klagen maar ik heb dan ook geen super-complexe setup. Ik hou mijn hart vast als ik ooit moet gaan kloten met rechten, maar voorlopig is user "bart" nog voldoende om alle services hier van data-prik te voorzienSanderH_ schreef op vrijdag 24 juli 2015 @ 22:34:
[...]
Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.
De volgende release van ZFSGuru komt als ik het goed het volgende maand uit. En je hebt natuurlijke de luxe dat één van de devs hier op het forum zitZFSGuru is ook wel vrij uitgebreid qua plugins en de webinterface vind ik beter dan deze van FreeNAS. Het is maar wat je verkiest.
Meh, met dat soort disk-aantallen zou ik toch naar de goede aantallen neigen, Q (Louwrentius) heeft daar ook nog wel wat over te vertellen: http://louwrentius.com/74...ased-on-zfs-on-linux.html (zie Capacity), maar er is dacht ik ook ergens een stukje van hem waar hij nog vertelt over space wat verloren gaat (of ben ik nu in de war met iets anders?[...]
raidz2 lijkt me inderdaad ideaal. Qua aantal vdev's gebruiken er veel de bekende (2^n + parity) formule. Al zijn er dan weer die dit een beetje tegenspreken

Euhm, OCZ is een van de laatste SSD's die ik iemand zou aanraden om met zo iets belangrijks als ZIL SLOG device toe te vertrouwen[...]
Je kan verschillende partities aanmaken en dan een deel voor je O/S gebruiken, en dan een ander deel voor L2ARC. Eventueel nog een derde deel voor ZIL, maar dat wordt wel allemaal wat krap op een 30GB SSD. Het zijn trouwens leuke perks maar zeker niet noodzakelijk en blijkbaar erg afhankelijk van hoe je gebruik maakt van je data.

Bekend migratiepad, maar bij was het indertijd van een Qnap naar ZFS. Welke kast heb je aangeschaft?BartNL schreef op vrijdag 24 juli 2015 @ 20:50:
heb tot nu toe een fileserver met HW raid draaien. Ben van plan daarnaast een pure NAS te bouwen gebaseerd op ZFS. Idee is om uiteindelijk alle opslag van de fileserver naar ZFS te migreren en de applicaties op een download PC onder windows te laten draaien.
Ik heb hier geen tijdspad voor maar gezien de omvang van de huidige fileserver wil ik de ZFS PC schaalbaar opzetten. Heb deze week op Tweakers een behuizing gekocht waar ik in eerste instantie 12 x 4 TB onder ZFS in wil draaien.
Je weet dat je echt wel een HEEL beefy CPU hebt voor zoiets relatief simpel als ZFS? Of ga je er ook nog wat anders op draaien? Heb je nog iets van zuinigheid op het oog? Eventueel een E3?Basis is Supermicro moederbod met ECC RAM en een E5-2603 CPU. Hierin komt in eerste instantie een IBM serveraid M1015 om samen met de onboard SATA aansluitingen de 12 schijven te kunnen gebruiken. Later is het de bedoeling om via meerdere HBA kaarten en SAS expanders meer schijven aan te sluiten.
Beetje smaken en kleuren, je kan altijd beginnen met wat je wil en even spelen, wil je iets anders? Zpool export, nieuwe installatie, zpool import en go go go...Ik heb nu een paar vragen m.b.t. ZFS,
1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
Zie hierboven, export import, klaar... Vaak gedaan indertijd bij (vooral) ZFSguru en FreeNAS.2) stel dat ik nu Freenas kies kan ik dan later makkelijk switchen naar ZFSGuru of Nas4free?
Vanaf disks groter dan 2TB vind ik het wel het overwegen waard om naar dubbele pariteit te gaan. Hout vasthouden, ik heb tot nu toe met 4TB spindles nog niks aan de hand gehad, maar met 10 disks in één VDEV (de kleinste logische eenheid waarop je pariteit kan definiëren) heb ik nu wel geopteerd voor een RAIDZ2. Ik ben een te grote angsthaas om tijdens een rebuild van een disk te moeten hopen dat er niks gebeurt met de rest van de disks. Mijn meest kritieke data (lees: persoonlijke foto's en video's van familie) heb ik dubbel gebackupped en als de rest er aan door vliegt vloek ik eens HEEL HEEL HEEL hard, maar ik jank me geen oog uit, hoogstens een maandje licht grumpy3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
Bootschijf en eventueel als "scratch" partitie voor downloads om ze daarna door te sluizen naar je spinning pool. Zo doe ik het, gaan je disks relatief snel in spindown en worden ze vaak maar een keer per nacht wakker (als er een download binnenkomt is het vaak dat er redelijk snel een andere binnen komt of totaal niets meer, hoe dan ook resulteert dat vaak in slechts een keer opspinnen in de nacht als je dan download)4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.
Als ZIL zou ik die krengen van OCZ niet gebruiken. Je kan altijd CiPHER eens aanspreken daarover, die is heel lovend over OCZ >:)
Succes!Gezien de weersverwachting verwacht ik de boel dit weekend in elkaar te zetten dus adviezen zijn welkom
Pro-tip: als je een SSD gebruikt voor L2ARC en je zet je hele media/film filesystem op secondary cache = metadata only, dan kan je lekker snel browsen door je films en series, zonder dat je moet wachten tot je disks eerst opspinnen. Met een 10 disk array zoals bij mij, of 12 zoals bij jou, kan het soms wel eens frustrerend zijn dat je niet direct kan gaan kiezen wat je wil kijken. Als je dan de film start, ok, dan moet je wat geduld uitoefenen, maar dan is het ook snel even op pauze gezet terwijl je nog de nodige drank en versnaperingen gaat halen...
Bij mijn migratie afgelopen week van 5 x 4TB naar 10 x 4TB had ik de afgelopen dagen geen L2ARC... De commentaar van vrouwlief volgde al redelijk snel... "Seg, waarom duurt da laden van die films en series lijsten zo lang"

Net maar die L2ARC SSD-partitie terug toegevoegd...
[ Voor 6% gewijzigd door HyperBart op 25-07-2015 01:21 ]
ik heb kasten met 24 schijven dus doe liefst iets met een veelvoud van 4 of 6. Wat ik er van begrijp zijn disk aantallen bij sequentieel lezen / schrijven van minder belang en vooral van belang voor een setup met veel IOPS.HyperBart schreef op zaterdag 25 juli 2015 @ 01:13:
[...]
Meh, met dat soort disk-aantallen zou ik toch naar de goede aantallen neigen, Q (Louwrentius) heeft daar ook nog wel wat over te vertellen: http://louwrentius.com/74...ased-on-zfs-on-linux.html (zie Capacity), maar er is dacht ik ook ergens een stukje van hem waar hij nog vertelt over space wat verloren gaat (of ben ik nu in de war met iets anders?)
ik ga op basis van advies en ervaring uiteindelijk wel moderne SSD(s) gebruiken. In eerste instantie wordt het alleen uitproberen.Euhm, OCZ is een van de laatste SSD's die ik iemand zou aanraden om met zo iets belangrijks als ZIL SLOG device toe te vertrouwen. Laat dat SLOG-device dan helemaal vallen, zeker als je het systeem alleen maar als NAS gebruikt...
een Norco 4U met 16 slots.Bekend migratiepad, maar bij was het indertijd van een Qnap naar ZFS. Welke kast heb je aangeschaft?
ik verwacht dat de E5 relatief zuinig is. Keuze socket 2011-3 omdat ik denk veel PCIe sloten nodig te hebben om straks HBA kaarten en mogelijk 10Gb netwerk kwijt te kunnen.Je weet dat je echt wel een HEEL beefy CPU hebt voor zoiets relatief simpel als ZFS? Of ga je er ook nog wat anders op draaien? Heb je nog iets van zuinigheid op het oog? Eventueel een E3?
misschien wel een idee omdat ook gewoon te proberen.Beetje smaken en kleuren, je kan altijd beginnen met wat je wil en even spelen, wil je iets anders? Zpool export, nieuwe installatie, zpool import en go go go...
Wanneer filebrowsen sneller gaat wil ik dat zeker toepassen. Ik verwacht dat de HTPC's hier onder OpenElec lokaal metadata cachen.Pro-tip: als je een SSD gebruikt voor L2ARC en je zet je hele media/film filesystem op secondary cache = metadata only, dan kan je lekker snel browsen door je films en series, zonder dat je moet wachten tot je disks eerst opspinnen.
Dank voor je input. Zit nog op de pakketbezorger te wachten (als die al op zaterdag bezorgt...) dus heb nog de tijd

De koppelverkoop van Freenas met iXsystems lijkt mij als zelfbouwer niet ideaal. Zie op Freenas forum net te vaak voorbij komen dat je beste iets kant-en-klaar van iXSystems kunt kopen. ZFSGuru lijkt mij qua setup en forum dan een stuk sympathieker.
Stable releases zoals FreeNAS zullen altijd minder hardware ondersteunen dan bleeding edge technologie...
Even niets...
Ik gebruik noctua nb-u9b se2 coolers (socket 1155)
http://www.noctua.at/main...iew&products_id=32&lng=en
Die passen prima in een 4U.
Voor socket 2011 moet je een ander type hebben, de opvolger nh-u9s is ook voor socket 2011.
Je kunt desnoods push pull met 2 fans doen.
TDP is 140 watt voor socket 2011.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Je hoort niemand klagen dat Debian zo ontzettend slecht is qua hardware ondersteuning. Tuurlijk loopt het iets achter, maar 99% vam de hardware werkt prima.
Vooral dingen als de laatste generatie GPUs zullen niet werken. (Niet in 3d modus, die werken prima in VESA mode...)
Ik denk niet dat je je druk hoeft te maken om FreeNAS te gebruiken als het je gaat om hardwareondersteuning.
ZFSguru zit vol met bugs en security issues, dus het is maar net wat je liever hebt
Even niets...
@jacovn, thanks heb al een scythe big shuriken besteld.
[ Voor 13% gewijzigd door BartNL op 28-07-2015 08:43 ]
Die kaart wordt vanaf FreeBSD 9.1 ondersteund (ixgbe driver), dus je kunt gewoon FreeNAS gebruiken als je dat wilt.BartNL schreef op dinsdag 28 juli 2015 @ 08:33:
GPU interesseert me niet, specifiek gaat er een 10Gb Intel X540-T2 in.
@jacovn, thanks heb al een scythe big shuriken besteld.
Begrijp me niet verkeerd, zfsguru werkt...BartNL schreef op dinsdag 28 juli 2015 @ 20:35:
Wat mij tot nu toe qua ZFS tegen heeft gehouden zijn handmatige installaties, ik wil voor gemak en degelijkheid en wil een ZFSGuru LiveCD iso gebruiken. Ik hoop dat die ook vanaf flash usb stick werkt. Ga in eerste instantie testen met 12 x 4TB in een Norco RPC-4216 kast. Wanneer ik daar vertrouwen in heb gaat deze setup mijn bestaande HW raid setup vervangen.
Maar als je ook maar iets van een up to date systeem wilt hebben... met het systeem dat ze hebben bedacht moet je dus steeds een image over het huidige systeem heen "gooien" (maar die discussie is al genoeg keren geweest tussen zfsguru developers en diverse GoT users hier
Dan vind ik de ontwerpkeuze voor ZFSguru veel eenvoudiger, telkens een nieuwe installatie. Het enige dat nog wel mist is de Migration Manager, waardoor je met een muisklik je hele configuratie naar je nieuwe installatie kunt meenemen. Dat wordt de volgende major feature na de 0.3 release. Daarmee is het ontwerp van installeren in ZFSguru volgens de filosofie van Jason afgerond.
Zelf doe ik vaak genoeg een ZFSguru installatie om vervolgens zelf te updaten. Nu er binnenkort (over enkele dagen) regelmatig systeemversies worden uitgebracht, zou dat niet meer hoeven en kan ik wanneer ik wil makkelijk updaten naar een nieuwe versie.
Hardware support voor bepaalde NICs bijvoorbeeld is een grote reden. In 10.1 worden niet alle moderne NICs ondersteund; 10.2 weer wel. Pas enkele dagen geleden is die gebranched; voorheen was dat 10-STABLE. Dus dat betekent dat je wel -STABLE moet draaien voor moderne hardware support. Ook dat is bij ZFSguru veel beter geregeld. Want freebsd-update kan niet updaten naar -STABLE of -CURRENT - alleen releases zoals releng/10.1.
Verwijderd schreef op dinsdag 28 juli 2015 @ 23:07:
Dat klopt, maar handmatig updaten duurt toch veel langer? En als je dat goed wilt doen moet je mergemaster draaien om alle configuratie te updaten. Dat is echt helemaal een ramp en is eigenlijk niet te doen.
Precies, terug naar ZFS.Dutch2007 schreef op dinsdag 28 juli 2015 @ 22:03:
[...]
maar die discussie is al genoeg keren geweest tussen zfsguru developers en diverse GoT users hier
Sinds de 2 dagen regel reageer ik hier niet meer
Voor de liefhebbers, nog de Q2 2015 status report van ZFSguru:
https://www.freebsd.org/n...5-04-2015-06.html#ZFSguru
Het verschil is dat de ontwikkelaars van de andere distro's hier niet aanwezig zijn en er dus vrijwel nooit discussies (met de ontwikkelaars) ontstaan over de keuzes die gemaakt wordenVerwijderd schreef op dinsdag 28 juli 2015 @ 23:16:
Om je eraan te herinneren: dit topic is ook bedoeld voor alle NAS platforms (FreeNAS, NAS4Free, ZFSguru, napp-it) totdat het topic gesplitst wordt
Daarnaast is vrijwel alles al in dat andere topic gezegd.
Sinds de 2 dagen regel reageer ik hier niet meer
Verder, als je een probleem hebt met mij, mijn afwegingen inzake moderaties of anderszins, kun je dit beter buiten het topic doen. Zo kunnen we hier over ZFS-gerelateerde onderwerpen discussiëren.
Verwijderd schreef op dinsdag 28 juli 2015 @ 23:22:
Zo kunnen we hier over ZFS-gerelateerde onderwerpen discussiëren.

Sinds de 2 dagen regel reageer ik hier niet meer
Nu zegt deze pagina van Microsoft dat je middels de commands onderaan de pagina smb2 en smb3 aan kan zetten in Windows 7. Ik vraag me nu af of dit ook echt zo is, of dat het max protocol nu echt smb3 is.
https://support.microsoft.com/en-us/kb/2696547
Quid est fili?!
Als je windows 7 pc legaal is... kan je ZELF ;-) gratis upgraden naar windows 10, heb je ook SMB3 en hoef niets aan te passenjoopworst schreef op donderdag 30 juli 2015 @ 15:45:
Een hele andere vraag: Ik draai Freenas 9.3 en gebruik smb/cifs voor sharing. Nu wil ik graag smb3 gebruiken op mijn Windows 7 machine. Ik lees dat dit pas bij Win 8 geïntroduceerd is, dus zeer waarschijnlijk niet voor Windows 7 beschikbaar is.
Nu zegt deze pagina van Microsoft dat je middels de commands onderaan de pagina smb2 en smb3 aan kan zetten in Windows 7. Ik vraag me nu af of dit ook echt zo is, of dat het max protocol nu echt smb3 is.
https://support.microsoft.com/en-us/kb/2696547
OS: ubuntu 14.04
Een half jaar geleden is een van mijn schijven overleden, gelukkig had ik ZFS dus geen dataverlies. Echter na het terugzetten van de nieuwe disk ziet mijn pool is zo uit.(dit staat nu al een half jaartje zo, ik vond het tijd om het weer correct te krijgen))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
| pool: pool state: ONLINE status: Some supported features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(5) for details. scan: scrub in progress since Sat Jul 25 23:00:04 2015 2.60T scanned out of 8.95T at 150M/s, 12h17m to go 0 repaired, 29.01% done config: NAME STATE READ WRITE CKSUM pool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-WDC_WD20EARX-00PASB0_WD-WCAZAA032642 ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M4FJD115 ONLINE 0 0 0 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M3237416 ONLINE 0 0 0 sdb ONLINE 0 0 0 ata-WDC_WD20EFRX-68AX9N0_WD-WCC300359484 ONLINE 0 0 0 ata-WDC_WD20EFRX-68AX9N0_WD-WCC300374991 ONLINE 0 0 0 |
Volgens ZFSonlinux moet het op deze manier http://zfsonlinux.org/faq.html#HowDoISetupVdevIdConf met een /etc/zfs/zdev_id.conf
Voor ik zaken verander die niet correct zijn, hoor ik graag van iemand of mijn configuratie goed is. Zie hieronder.
1
2
3
4
5
6
7
8
9
10
| /etc/zfs/zdev_id.conf # disk by-dev # name alias FFJD115 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M4FJD115 alias 980820 /dev/disk/by-id/ata-WDC_WD20EARX-00PASB0_WD-WMAZA4980820 alias 374991 /dev/disk/by-id/ata-WDC_WD20EFRX-68AX9N0_WD-WCC300374991 alias 032642 /dev/disk/by-id/ata-WDC_WD20EARX-00PASB0_WD-WCAZAA032642 alias 359484 /dev/disk/by-id/ata-WDC_WD20EFRX-68AX9N0_WD-WCC300359484 alias 237416 /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M3237416 |
Als ik hierna
sudo zpool export pool
sudo zpool import -d /dev/disk/by-vdev pool
invoer, komt het dan goed? Of moet ik de initiele stap met udevadm trigger ook uitvoeren?
----
Alvast bedankt
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Bedoel je, zfs export pool of sdb? En dan weer vervolgens 1 disk impoteren?
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Sinds de 2 dagen regel reageer ik hier niet meer
Het was trouwens 'zpool import -d /dev/disk/by-id'
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Had niet verwacht anno 2015 echt een CD te moeten branden.
Daarna is het ontbreken van een handleiding wat mij betreft een tegenvaller.
Installatie is gelukt maar ik heb wel een 250GB SSD gebruikt als ZFSGuru bootdisk. Ik had verwacht ergens een partitionering optie tegen te komen maar die heb ik blijkbaar over het hoofd gezien.
Twijfel ook of de raid5 test pool wel juist is aangemaakt maar die lijkt wel gewoon te werken.
Verder heb ik nog wat moeite met de rechten op de shares maar dat is denk ik omdat security model op "share-level security" staat terwijl ik on windows user level security gebruik.
Tot slot heb ik moeite met ontbreken van power saving opties. Wanneer ik 60 schijven aan deze server ga hangen is het wel de bedoel;ing dat pools die ik niet gebruik in spindown gaan. Of wanneer er helemaal activiteit is zou ik de fileserver in zijn geheel naar standby willen gaan.
Van bovenstaande items gaat ontbreken power saving voor mij denk ik lastigste te accepteren zijn. Ga de server zo nog meten qua verbruik.
Positieve is dat ZFSGuru redelijk probleemloos installeert en dat alle hardware lijkt te werken.
Je bent 1 dag te vroegBartNL schreef op zaterdag 01 augustus 2015 @ 10:41:
ZFSGuru 10.1-002 up-and-running en ik moet nog wennen denk ik.
denk dat het een FreeBSD problem is..SanderH_ schreef op zaterdag 01 augustus 2015 @ 11:12:
[...]
Je bent 1 dag te vroegVandaag kwam normaal gezien de 0.3 release uit zodat je gwn met een .ISO kan booten.
als ik yummi linux booter gebruik... start ie ook de setup en als ie dan wilt installeren (net na de 1e keer bootloader..)
vindt ie niet direct de CD ...
Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9
https://www.freebsd.org/d.../network-aggregation.html
Even niets...
Tijdens de welcome wizard kun je alleen maar hele disks gebruiken - maar als je die skipt en gewoon op de Disks pagina je disks formatteert, kun je vervolgens op de Pools pagina je pool aanmaken op die partities. Alleen de welcome wizard ziet hele disks. Dit is om dingen extra simpel te houden. In de toekomst wilde Jason het hele pool-gebeuren van de welcome wizard naar de installatie verhuizen, en daar ook opties voor partitionering te geven. Maar dit alles kun je nu al op de Disks pagina met een Partition Magic-achtige partitieeditor wat denk ik best fijn werkt.BartNL schreef op zaterdag 01 augustus 2015 @ 10:41:
Installatie is gelukt maar ik heb wel een 250GB SSD gebruikt als ZFSGuru bootdisk. Ik had verwacht ergens een partitionering optie tegen te komen maar die heb ik blijkbaar over het hoofd gezien.
Met share-level security moet je een user/password opgeven per Share, dat kan dus verschillen per share. Bij user-level security niet en krijg je één inlogscherm wanneer je de server opvraagt (\\<IP>).Verder heb ik nog wat moeite met de rechten op de shares maar dat is denk ik omdat security model op "share-level security" staat terwijl ik on windows user level security gebruik.
ZFSguru user-management voor Samba werkt met Share-level security. Je kunt ook andere modellen gebruiken, maar dan moet je ook zelf het management doen.
Spindown kan gedeeltelijk op de Disks->Advanced pagina, maar het liefst gebruik je de functionaliteit van het ZFSguru tuning script. Dat kun je aanpassen op de shell door een configuratiebestand aan te passen.Tot slot heb ik moeite met ontbreken van power saving opties. Wanneer ik 60 schijven aan deze server ga hangen is het wel de bedoel;ing dat pools die ik niet gebruik in spindown gaan. Of wanneer er helemaal activiteit is zou ik de fileserver in zijn geheel naar standby willen gaan.
Van bovenstaande items gaat ontbreken power saving voor mij denk ik lastigste te accepteren zijn. Ga de server zo nog meten qua verbruik.
Concreet volg je de instructies op Access->SSH om in te loggen en root te worden, daarna voer je uit:
ee /etc/rc.conf
Dan ga je het /etc/rc.conf bestand editen. Maak hier geen fouten in! Escape krijg je een menu voor exit & save.
Scroll naar beneden naar:
Waarschuwing: de code hieronder is van de nieuwe 0.3 release; de oude release noemt het gewoon zfsguru_spindown_enable dus zonder tuning in de naam. Dus niet letterlijk copypasten naar een 0.2 installatie! Gewoon aanpassen dus van NO YES maken en 7200 seconden veranderen en de disk namen uitbreiden is dus wat je dient te doen om spindown werkend te krijgen:
1
2
3
4
5
| # To enable your disks to spindown whenever inactive for a number of seconds, # configure both the timer (in seconds) and the disks you want to be spun down. zfsguru_tuning_spindown_enable="NO" zfsguru_tuning_spindown_disks="ada0 ada1 ada2 ada3" zfsguru_tuning_spindown_timer="7200" |
Pas dit aan en herstart de server. Controleer of het werkt. De timer zou ik eerst op 120 (2 minuten) zetten ofzo, om te controleren of het werkt.
[ Voor 6% gewijzigd door Verwijderd op 01-08-2015 15:22 ]
hele idee is nu nog om wat te testen dus maakt het niet veel uit. Qua hardware is de ZFS setup nu wel klaar om mijn windows hw raid fileserver te vervangen. Qua software twijfel ik daar nog wel aan. Moet sowieso nog eens kijken hoe ik falende schijf kan vervangen.SanderH_ schreef op zaterdag 01 augustus 2015 @ 11:12:
[...]Je bent 1 dag te vroegVandaag kwam normaal gezien de 0.3 release uit zodat je gwn met een .ISO kan booten.
dank voor de uitgebreide reactie. Ik ga je adviezen uitproberen.
[ Voor 28% gewijzigd door BartNL op 01-08-2015 13:15 ]
Dit functioneert niet met de schijven die aan een HBA hangen. Althans bij mij niet. Voor die schijven zul je het programmaatje 'spindown' moeten installeren;Verwijderd schreef op zaterdag 01 augustus 2015 @ 12:08:
code:
1 2 3 4 5 # To enable your disks to spindown whenever inactive for a number of seconds, # configure both the timer (in seconds) and the disks you want to be spun down. zfsguru_tuning_spindown_enable="NO" zfsguru_tuning_spindown_disks="ada0 ada1 ada2 ada3" zfsguru_tuning_spindown_timer="7200"
1
| cd /usr/ports/sysutils/spindown/ && make install clean |
[ Voor 0% gewijzigd door Kriss1981 op 01-08-2015 15:29 . Reden: typo ]
Spindown, het programma waar je op doelt en wat ook disks op SAS controllers kan downspinnen, is al standaard geïnstalleerd en hoef je dus enkel te configureren in /etc/rc.conf.
Wat ik wilde is om spindown ook in de ZFSguru tuning scripts te integreren, dan hoef je dit niet meer apart te doen. En vervolgens de tuning script vanuit de web-interface te laten bedienen. Dan is spindown netjes geregeld.
Zou met veel schijven wel handig zijn wanneer spindown ZFS schijjven dan vanuit tuning scripts kan worden ingesteld
Op zich is een beetje ervaring met het systeem ook niet slecht. Een configuratiebestand editen in UNIX is een leuke eerste stap voor mensen met weinig ervaring met non-Windows. De filosofie die ik aanhang is dat je de belangrijkste dingen makkelijk werkend krijgt met de web-interface, en dat je daarnaast nog zelf wat kunt rommelen en experimenteren op de shell en voorzichtig je kennis uitbreiden.
Voor zover je dat wilt natuurlijk - ZFSguru is ontwikkeld als appliance dus ook dat je er weinig omkijken naar hebt. Maar de motorkap is niet dichtgelast - je kunt zelf experimenteren en rommelen en dat vind ik ook een grote plus. Je kunt een beetje je eigen leercurve bepalen.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
| [root@zfsguru ~]# zpool import pool: megatron id: 15968001314369920076 state: UNAVAIL status: The pool was last accessed by another system. action: The pool cannot be imported due to damaged devices or data. see: http://illumos.org/msg/ZFS-8000-EY config: megatron UNAVAIL insufficient replicas raidz2-0 UNAVAIL insufficient replicas 3696415625357608203 UNAVAIL cannot open 256855108142544473 UNAVAIL cannot open 9876212926117453952 UNAVAIL cannot open 17204388102636442365 UNAVAIL cannot open 11609571459009580272 UNAVAIL cannot open 14811534167121443723 UNAVAIL cannot open [root@zfsguru ~]# zpool import -f megatron cannot import 'megatron': no such pool or dataset Destroy and re-create the pool from a backup source. [root@zfsguru ~]# zpool destroy megatron cannot open 'megatron': no such pool |
De schijven zijn inmiddels gebruikt voor een andere pool.
[ Voor 57% gewijzigd door FireDrunk op 06-08-2015 16:19 ]
Even niets...
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.