Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 14:01:
offtopic:
Ohjee, standaard risico van GoT, je keuzes worden onder de loep genomen plaats van het probleem.
Dat komt volgens mij omdat je het middel als probleem bent gaan zien. Een timemachine achtige setup kan super makkelijk met ZFS. Daar heb je geen closed-source tools voor nodig.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
De strategie heeft jaren naar tevredenheid gewerkt, toen ik Bacula zat was heeft Idera het ook prima gedaan. Pas nu ik een ZFS-volume gebruik als opslag in plaats van losse schijven heb ik mot. Normaal gesproken draai je dan de laatste change terug maar dat lijkt mij ook niet ideaal.

ZFS snapshots heb ik wel aan gedacht, maar dat geeft in mijn ogen net zoveel rompslomp als rsync. Je moet toch op één of andere manier zelf gaan borgen dat het gebeurt, bijhouden welke points je hebt en daar dingen uit halen.

Misschien heb ik gewoon nog te weinig kennis maar het voelt alsof je gewoon veel minder grip hebt.
Met een serieuze tool kies je een restorepoint en eventueel files en die restore je op een gekozen locatie. Vaak is het met snapshotmechanismen zo dat je een specifiek snapshot ergens moet restoren en daarna kijken of je de bestanden eruit kunt kopiëren. Je kunt dan ook niet even zoeken in welk restorepoint/snapshot een bestand nog wel zat.

Daarnaast is opslag niet altijd even efficiënt. Nu wordt op blockniveau bepaald wat gebackupped moet worden en dat incrementeel bijgehouden. Alleen delta's nemen ruimte in, ook als je de backupvolumes offsite zou plaatsen. Als je met zfs send een snapshot elders neer zet, heb je dan niet gewoon de gehele ruimte nodig? Een kopie van de snapshothistorie ergens plaatsen is een stuk lastiger volgens mij.

Maar goed, correct me if I'm wrong. ;)

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Volgens mij kan je gewoon de delta tussen twee snapshots neerzetten waar je maar wil, voorwaarde is wel dat als je het terug wil zetten dat je wel de 'vanaf' snapshot-state beschikbaar moet hebben.

Zelf stuur ik wekelijks een incrementele snapshot naar mijn backuplocatie, en de snapshots ouder dan een maand verwijder ik (op de eerste van de maand na).

Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 14:20:
Maar goed, correct me if I'm wrong. ;)
You're wrong.
ZFS snapshots heb ik wel aan gedacht, maar dat geeft in mijn ogen net zoveel rompslomp als rsync.
ZFS snapshots
- zijn gemaakt binnen 1 seconde.
- nemen geen ruimte in bij geen veranderingen.
Je moet toch op één of andere manier zelf gaan borgen dat het gebeurt, bijhouden welke points je hebt en daar dingen uit halen.
Volgens mij is er niks makkelijker dan een exacte kopie van je mappen structuur doorbladeren. Het borgen doe je inderdaad zelf, maar is super simpel. Zie mijn eigen scripts hieronder.
Met een serieuze tool kies je een restorepoint en eventueel files en die restore je op een gekozen locatie.
Serieuzer dan ZFS native code?
Vaak is het met snapshotmechanismen zo dat je een specifiek snapshot ergens moet restoren en daarna kijken of je de bestanden eruit kunt kopiëren. Je kunt dan ook niet even zoeken in welk restorepoint/snapshot een bestand nog wel zat.
ZFS snapshots zijn gewoon door te zoeken alsof je door je huidige FS structuur aan het bladeren bent. Het is namelijk een exacte kopie van dat moment tijd. Dus exact is ook echt exact.
Daarnaast is opslag niet altijd even efficiënt. Nu wordt op blockniveau bepaald wat gebackupped moet worden en dat incrementeel bijgehouden. Alleen delta's nemen ruimte in, ook als je de backupvolumes offsite zou plaatsen. Als je met zfs send een snapshot elders neer zet, heb je dan niet gewoon de gehele ruimte nodig? Een kopie van de snapshothistorie ergens plaatsen is een stuk lastiger volgens mij.
Nee hoor. Ik zou echt even inlezen op ZFS snapshots. Alles wat jij dacht dat jouw backuptool beter deed, doet ZFS dus native.

snapshots maken
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
#!/usr/bin/env bash

DATE=$(date +"GMT-%Y.%m.%d-%H.%M.%S");
FOLDERS=(
"shared/Fotografie"
"shared/Video/Persoonlijk"
"shared/Gedeeld"
"user1/Hobby"
"user1/Werk"
"user1/Persoonlijk"
"user1/School"
"user2/Hobby"
"user2/Werk"
"user2/Persoonlijk"
"user2/School"
);
USERS=("user2" "user1")

for F in ${FOLDERS[@]}; do
        ROOT=$(echo $F | cut -d "/" -f 1);
        DIR=${F/$ROOT\//};
        zfs snapshot data/users/$F@$DATE
        if [ $ROOT = "shared" ]; then
                for U in ${USERS[@]}; do
                        if [ ! -d /data/users/snapshots/$U/$DIR ]; then
                                su -m $U -c "mkdir -p /data/users/snapshots/$U/$DIR"
                        fi
                        su -m $U -c "ln -s /data/users/$F/.zfs/snapshot/$DATE /data/users/snapshots/$U/$DIR/"
                done
        else
                if [ ! -d /data/users/snapshots/$F ]; then
                        su -m $ROOT -c "mkdir -p /data/users/snapshots/$F"
                fi
                su -m $ROOT -c "ln -s /data/users/$F/.zfs/snapshot/$DATE /data/users/snapshots/$F/"
        fi
done
zfs snapshot data/www@$DATE
zfs snapshot data/programs@$DATE
zfs snapshot -r rpool@$DATE
zfs snapshot -r data/users/mail@$DATE


snapshots verwijderen
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
#!/usr/bin/env bash
DELETEOLDERTHAN=7776000
WEEKOLDERTHAN=2592000
FOLDERS=(
"shared/Fotografie"
"shared/Video/Persoonlijk"
"shared/Gedeeld"
"user1/Hobby"
"user1/Werk"
"user1/Persoonlijk"
"user1/School"
"user2/Hobby"
"user2/Werk"
"user2/Persoonlijk"
"user2/School"
);
USERS=("user2" "user1")

SNAPSHOTS=$(zfs list -t snapshot -r -o name -s creation data);
CURTS=$(date +"%s");

for S in ${SNAPSHOTS[@]}; do
        if [ $S != "NAME" ]; then
                SNAP=${S##*@};
                ROOT=${S%%@*};
                SNAPTS=$(date -j -f "GMT-%Y.%m.%d-%H.%M.%S" "$SNAP" +"%s")
                SNAPWD=$(date -j -f "GMT-%Y.%m.%d-%H.%M.%S" "$SNAP" +"%u")
                for F in ${FOLDERS[@]}; do
                        FROOT=$(echo $F | cut -d "/" -f 1);
                        DIR=${F/$FROOT\//};
                        if [ $ROOT = "data/users/$F" ]; then
                                if [ $(($CURTS-$WEEKOLDERTHAN)) -gt $SNAPTS ]; then
                                        if [ $(($CURTS-$DELETEOLDERTHAN)) -gt $SNAPTS ] || [ $SNAPWD -ne 7 ]; then
                                                zfs destroy $ROOT@$SNAP;
                                                for U in ${USERS[@]}; do
                                                        if [ -d /data/users/snapshots/$U/$DIR ]; then
                                                                if [ -L /data/users/snapshots/$U/$DIR/$SNAP ]; then
                                                                        rm /data/users/snapshots/$U/$DIR/$SNAP;
                                                                fi
                                                        fi
                                                done
                                        fi
                                fi
                        fi
                done
                if [ $ROOT = "data/www" ] || [ $ROOT = "data/programs" ]; then
                        if [ $(($CURTS-$WEEKOLDERTHAN)) -gt $SNAPTS ]; then
                                if [ $(($CURTS-$DELETEOLDERTHAN)) -gt $SNAPTS ] || [ $SNAPWD -ne 7 ]; then
                                        zfs destroy $ROOT@$SNAP;
                                fi
                        fi
                fi
        fi
done;


Dit levert deze structuur op:
code:
1
2
3
4
[root@server ~]# ls -Al /data/users/snapshots/
total 24
drwxr-xr-x  9 root  wheel  9 Aug 15  2014 user1
drwxr-xr-x  9 root  wheel  9 Aug 15  2014 user2


code:
1
2
3
4
5
6
7
8
9
[root@server ~]# ls -Al /data/users/snapshots/user1/
total 84
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 Fotografie
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 Gedeeld
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 Hobby
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 Persoonlijk
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 School
drwxr-xr-x+ 3 user1  users   3 Aug 13  2014 Video
drwxr-xr-x+ 2 user1  users  42 Jul 22 00:00 Werk


code:
1
2
3
4
5
6
7
[root@server ~]# ls -Al /data/users/snapshots/user1/Hobby/
total 20
...
lrwxr-xr-x  1 user1  users  63 Jul 19 00:00 GMT-2015.07.19-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.19-00.00.00
lrwxr-xr-x  1 user1  users  63 Jul 20 00:00 GMT-2015.07.20-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.20-00.00.00
lrwxr-xr-x  1 user1  users  63 Jul 21 00:00 GMT-2015.07.21-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.21-00.00.00
lrwxr-xr-x  1 user1  users  63 Jul 22 00:00 GMT-2015.07.22-00.00.00 -> /data/users/user1/Hobby/.zfs/snapshot/GMT-2015.07.22-00.00.00


code:
1
2
3
4
5
[root@server ~]# ls -Al /data/users/snapshots/user1/Hobby/GMT-2015.07.22-00.00.00/
total 84
drwxr-x---+ 7 user1  users   9 Apr 21 23:32 ICT
drwxr-x---+ 8 user1  users   9 Jun 20  2014 Muziek
drwxr-x---+ 4 user1  users  34 Jul  3 22:32 Reizen


De daadwerkelijke data:
code:
1
2
3
4
5
[root@server ~]# ls -Al /data/users/user1/Hobby/
total 84
drwxr-x---+ 7 user1  users   9 Apr 21 23:32 ICT
drwxr-x---+ 8 user1  users   9 Jun 20  2014 Muziek
drwxr-x---+ 4 user1  users  34 Jul  3 22:32 Reizen


Elke gebruiker kan trouwens bladeren door zijn eigen snapshot map via samba. Het opzetten is wat werk, maar als dat dan werkt, dan kan je er ook op vertrouwen dat het werkt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
CurlyMo schreef op woensdag 22 juli 2015 @ 14:35:
ZFS snapshots
- zijn gemaakt binnen 1 seconde.
- nemen geen ruimte in bij geen veranderingen.
Dat is inderdaad een groot voordeel, kan ik zelfs historie bewaren van bestanden waar ik normaal geen ruimte voor over heb. :P
Volgens mij is er niks makkelijker dan een exacte kopie van je mappen structuur doorbladeren. Het borgen doe je inderdaad zelf, maar is super simpel. Zie mijn eigen scripts hieronder.
Klopt, dat ondersteunt Idera dan ook middels een webinterface. Voordeel boven ZFS is dan dat de borging en scheduling er óók gewoon ingebakken zit.
ZFS snapshots zijn gewoon door te zoeken alsof je door je huidige FS structuur aan het bladeren bent. Het is namelijk een exacte kopie van dat moment tijd. Dus exact is ook echt exact.
Feitelijk alsof je al een restorepoint compleet in een subfolder gerestored hebt dus. Dat kan handig zijn, als je het eenmaal gevonden hebt kan je het dus direct benaderen in plaats van dat je eerst nog een restore moet doen.
Nee hoor. Ik zou echt even inlezen op ZFS snapshots. Alles wat jij dacht dat jouw backuptool beter deed, doet ZFS dus native.
Ik ga me zeker nog even verder inlezen, want het ziet er sowieso interessant uit. Maar je stelling is helaas niet waar, zie bijvoorbeeld:
• Saving snapshots – Use the zfs send and zfs receive commands to send and receive a ZFS snapshot. You can save incremental changes between snapshots, but you cannot restore files individually. You must restore the entire file system snapshot. These commands do not provide a complete backup solution for saving your ZFS data.

Het grote struikelblok wat ik nog denk te zien is de offsite kopie van je backupdata. Nu kan ik de disksafes ergens anders plaatsen en terughalen als ik dat wil. Dit zijn gewoon bestanden die je waar dan ook neer kunt zetten, zij bevatten alle data en restorepoints.

In het geval van ZFS snapshots moet je die zo te lezen per stuk verzenden naar een ander ZFS volume, ik kan dus niet simpel zeggen dat ik op mijn werk een externe HD heb liggen met een kopietje van de volledige backupset. Of wel. :P

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • +1 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 14:44:
• Saving snapshots – Use the zfs send and zfs receive commands to send and receive a ZFS snapshot. You can save incremental changes between snapshots, but you cannot restore files individually. You must restore the entire file system snapshot. These commands do not provide a complete backup solution for saving your ZFS data.
Dat kan prima. Alleen moet dat handmatig. Als ik dus bijv. een vakantieplanning wil terughalen van 24 mei 2015, dan ga ik via verkenner naar mijn snapshots share en dan vervolgens:
code:
1
\\SERVER\snapshots\Hobby\GMT-2015.05.24-00.00.00\Reizen\vakantieplannen.odt


Als je daadwerkelijk je hele snapshot wil terugzetten dan doe je dat met:
code:
1
zfs rollback /data/users/user1/Hobby@GMT-2015.05.24-00.00.00

Dat terugzetten is ook binnen een paar seconde gebeurt. Zo restore ik wel eens mijn hele server systeem schijf als het upgraden niet helemaal gaat zoals ik wilde. Ik draai dan binnen een paar seconde weer op de oude situatie voor de upgrade.
In het geval van ZFS snapshots moet je die zo te lezen per stuk verzenden naar een ander ZFS volume, ik kan dus niet simpel zeggen dat ik op mijn werk een externe HD heb liggen met een kopietje van de volledige backupset. Of wel. :P
Dat hangt van de inrichting van je ZFS af. Als jij alle data wil backuppen naar een externe ZFS HDD dan send/receive je gewoon de root van je ZFS. Alle onderliggende ZFS' worden dan meegestuurd en je hebt dan dus een daadwerkelijke 1-op-1 kopie van je data.

[ Voor 13% gewijzigd door CurlyMo op 22-07-2015 15:00 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Je knipt nu net het voor mij essentiële stuk eruit. :D

Qua vervanging van de backup binnen de server klinkt het wel interessant, een frontendje voor die snapshot dir is ook zo gemaakt. ;)

Hoe ga je dan om met retentie en samenvoegen van snapshots? Je wilt niet alle snapshots eindeloos bewaren. Samenvoegen zal overigens niet nodig zijn binnen ZFS vermoed ik.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Maar dat is dus iets dat ik me afvroeg, stel je hebt een filesystem en maakt een snapshot

code:
1
zfspool/dataset


Dan maak je een snapshot, en die send je naar een backup
code:
1
2
3
zfspool/dataset@2015_07_22

zfspoolbc/dataset@2015_07_22


Dat doe je na een maand nog is
code:
1
2
3
4
5
zfspool/dataset@2015_07_22
zfspool/dataset@2015_08_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_08_22


en nog is
code:
1
2
3
4
5
6
7
zfspool/dataset@2015_07_22
zfspool/dataset@2015_08_22
zfspool/dataset@2015_09_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_08_22
zfspoolbc/dataset@2015_09_22



Kan ik dan de tussenliggende snapshot verwijderen en een maand later het volgende hebben?
code:
1
2
3
4
5
zfspool/dataset@2015_07_22
zfspool/dataset@2015_10_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22


of het volgende:
code:
1
2
3
4
zfspool/dataset@2015_07_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22


en dan deze aanmaken?
code:
1
2
3
4
5
zfspool/dataset@2015_07_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22
zfspoolbc/dataset@2015_11_22


Of is dit niet hoe het werkt?

Ik begrijp dat dit niet mogelijk is (initiele snapshot op je origineel verwijderen en dan incremental backuppen, je moet de eerst versie behouden?
code:
1
2
3
4
5
zfspool/dataset@2015_10_22
zfspool/dataset@2015_11_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Om een incrementele snapshot over te zetten, moeten de zender en ontvanger dat doen vanaf dezelfde snapshot. Dus om de delta tussen @2015_06_10 en @2015_06_17 over te zetten, heb je op beide pools de snapshot @2015_06_10 nodig. Welke andere snapshots aanwezig zijn aan beide kanten maakt als het goed is niet uit.

Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 15:43:
Hoe ga je dan om met retentie en samenvoegen van snapshots? Je wilt niet alle snapshots eindeloos bewaren. Samenvoegen zal overigens niet nodig zijn binnen ZFS vermoed ik.
Samenvoegen zou raar zijn want dan ga je de geschiedenis herschrijven.

De retentie maak je zelf. Ik heb voor mijn data set:
- snapshots van elke 24 uur voor een maand.
- ouder dan één maand, snapshots van 1 week voor nog 3 maanden.

Op mijn backup bewaar ik snapshots zolang ik er ruimte voor heb. Als de schijf vol begint te raken, dan verwijder ik oude snapshots. Hier zit wel een limiet aan. Dus als de # snapshots / schijfruimte niet meer in balans is, dan krijg ik een mail en wordt het tijd voor vervanging van mijn backup schijven.

- Op de data pool kan ik max. 4 maanden terug. Dus de oudste snapshot op die ZFS is van 26 april 2015.
- Mijn oudste snapshot op mijn backup ZFS is van 4 september 2014.
- Mijn oudste snapshot op mijn offsite backup ZFS is 4 september 2014
Kortfragje schreef op woensdag 22 juli 2015 @ 15:50:
Maar dat is dus iets dat ik me afvroeg, stel je hebt een filesystem en maakt een snapshot

Kan ik dan de tussenliggende snapshot verwijderen en een maand later het volgende hebben?
code:
1
2
3
4
5
zfspool/dataset@2015_07_22
zfspool/dataset@2015_10_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22
Ja
of het volgende:
code:
1
2
3
4
zfspool/dataset@2015_07_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22
Kan ook
en dan deze aanmaken?
code:
1
2
3
4
5
zfspool/dataset@2015_07_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22
zfspoolbc/dataset@2015_11_22


Of is dit niet hoe het werkt?
Dat hangt er vanaf wat de bron van 2015_11_22 is. Je kan natuurlijk altijd een snapshot aanmaken op je backup ZFS. Of dat verstandig is is een andere vraag. Want als je dat eenmaal gedaan hebt, dan kan je geen incremental snapshots meer sturen. Je zult dan eerst 2015_10_22 en 2015_11_22 moeten verwijderen. Bijv.:
code:
1
2
3
4
5
zfspool/dataset@2015_07_22
zfspoolbc/dataset@2015_12_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_12_22

Je verwijderd dus eerst 10 en 11 en stuur daarna het verschil weer door tussen 7 en 12.
Ik begrijp dat dit niet mogelijk is (initiele snapshot op je origineel verwijderen en dan incremental backuppen, je moet de eerst versie behouden?
code:
1
2
3
4
5
zfspool/dataset@2015_10_22
zfspool/dataset@2015_11_22

zfspoolbc/dataset@2015_07_22
zfspoolbc/dataset@2015_10_22
Dit kan ook prima. Zoal ik al aangaf heeft mijn backup ZFS veel meer snapshots dan mijn data ZFS. Het is wel belangrijk dat je in beide gevallen 2015_10_22 behoud, anders kan je nergens op aansluiten. De volgende incremental send/receive zal dus zijn tussen 2015_10_22 en 2015_11_22. Het maakt voor ZFS niet uit wat daar nog voor ligt op de backup ZFS.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Resumerend:

ZFS snapshots zijn niet incrementeel maar een direct benaderbare weergave van dat moment, maar wel incrementeel opgeslagen. Dus alleen delta kost ruimte.

Daardoor is samenvoegen geen issue, dat is niet nodig c.q. gebeurt automatisch als je een snapshot verwijdert. Ruimte komt dan direct vrij.

ZFS send om een backupvolume te hebben vereist dat de andere kant ook ZFS is. Mijn beoogde offsite kan dus niet 'gewoon een externde hd' zijn.

Dan twee vragen:
• kan het maken van zo'n snapshot falen?
• kan je zien welke ruimte er gebruikt wordt door delta's en hoe je ruimte kunt terugwinnen?

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Vraag 1 weet ik niet, vraag 2 kan idd
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
gertdus@KarelDoorman:~$ zfs list -t snapshot
NAME                               USED  AVAIL  REFER  MOUNTPOINT
zfspool/backup@2014_08_31         73.2M      -   319G  -
zfspool/backup@2015_06_15         87.9M      -   384G  -
zfspool/cartoons@2014_08_28       2.58M      -   270G  -
zfspool/films@2014_08_28          42.9G      -   705G  -
zfspool/kindertv@2014_08_28       1.27M      -   187G  -
zfspool/muziek@2014_08_28         79.5M      -   798G  -
zfspool/series@2014_08_28         4.59M      -  1.18T  -
zfspool/software@2014_08_28       42.3M      -   468G  -
zfspool/werk@2015_06_15           1.01G      -  1.81T  -
gertdus@KarelDoorman:~$ zfs list
NAME                    USED  AVAIL  REFER  MOUNTPOINT
zfspool                6.53T  10.5T   432K  /zfspool
zfspool/backup          384G   640G   384G  /zfspool/backup
zfspool/cartoons        313G   711G   313G  /zfspool/cartoons
zfspool/films           771G  1.25T   728G  /zfspool/films
zfspool/kindertv        189G   835G   189G  /zfspool/kindertv
zfspool/miscellaneous   216G   134G   216G  /zfspool/miscellaneous
zfspool/muziek          798G   226G   798G  /zfspool/muziek
zfspool/series         1.39T  1.61T  1.39T  /zfspool/series
zfspool/software        496G   528G   495G  /zfspool/software
zfspool/werk           1.81T  4.19T  1.81T  /zfspool/werk
gertdus@KarelDoorman:~$


used is (zoals ik het begrijp) extra ruimte die vereist is bovenop wat de dataset zelf gebruikt (tweede list)

[ Voor 36% gewijzigd door Kortfragje op 22-07-2015 16:29 ]

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 16:19:
ZFS snapshots zijn niet incrementeel maar en een direct benaderbare weergave van dat moment, maar wel incrementeel opgeslagen. Dus alleen delta kost ruimte.
Daardoor is samenvoegen geen issue, dat is niet nodig c.q. gebeurt automatisch als je een snapshot verwijdert. Ruimte komt dan direct vrij.
Klopt
ZFS send om een backupvolume te hebben vereist dat de andere kant ook ZFS is. Mijn beoogde offsite kan dus niet 'gewoon een externde hd' zijn.
Dat kan wel. Maar niet naar jouw wens. Je kan snapshots ook wegschrijven naar bestanden, alleen kan je die bestanden dan niet doorbladeren.
Dan twee vragen:
• kan het maken van zo'n snapshot falen?
• kan je zien welke ruimte er gebruikt wordt door delta's en hoe je ruimte kunt terugwinnen?
1. Nee, want het maken van zo'n snapshot kost geen ruimte. Wat kan gebeuren is dat je schijf sneller vol raakt als je een 1T video verwijderd en weer opnieuw aanmaakt. Die 1T blijft in gebruik totdat je de snapshot verwijderd.
2. Ja. Dat kan je allemaal lezen in de ZFS documentatie.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
CurlyMo schreef op woensdag 22 juli 2015 @ 16:44:
Dat kan wel. Maar niet naar jouw wens. Je kan snapshots ook wegschrijven naar bestanden, alleen kan je die bestanden dan niet doorbladeren.
Nou, misschien wel. Mijn wens is dat ik kan bladeren, maar dat hoeft niet per definitie offsite. De offsite is zuiver om ook offsite nog spul te hebben. Het moet dus mogelijk zijn om die snapshots ook weer bruikbaar te kunnen maken, ook al is mijn server afgefikt. Kan dat met ZFS?

Opslaan als bestanden geeft mij het gevoel dat je feitelijk gewoon de actuele situatie van dat snapshot als één grote file weg zet. Dat kost dus evenveel ruimte als de snapshot op schijf zou innemen als je hem zou restoren. Je bent dan het voordeel van alleen de delta's opslaan kwijt lijkt me?
1. Nee, want het maken van zo'n snapshot kost geen ruimte. Wat kan gebeuren is dat je schijf sneller vol raakt als je een 1T video verwijderd en weer opnieuw aanmaakt. Die 1T blijft in gebruik totdat je de snapshot verwijderd.
Maar dat geldt voor elke backupoplossing, dus feitelijk moet je net als normaal gewoon je schijfruimte gebruik monitoren.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 16:50:
Nou, misschien wel. Mijn wens is dat ik kan bladeren, maar dat hoeft niet per definitie offsite. De offsite is zuiver om ook offsite nog spul te hebben. Het moet dus mogelijk zijn om die snapshots ook weer bruikbaar te kunnen maken, ook al is mijn server afgefikt. Kan dat met ZFS?

Opslaan als bestanden geeft mij het gevoel dat je feitelijk gewoon de actuele situatie van dat snapshot als één grote file weg zet. Dat kost dus evenveel ruimte als de snapshot op schijf zou innemen als je hem zou restoren. Je bent dan het voordeel van alleen de delta's opslaan kwijt lijkt me?
De uitvoer van zfs send gaat naar stdout. Die stdout kan je dus overal naar toe lussen. Simpele voorbeelden:
code:
1
2
3
zfs send | zfs recieve
zfs send > /offsitebackup/snapshot1
zfs send | mbuffer | ssh ... zfs receive

Als je delta wil opslaan, dan kan dat dus ook. Je krijgt dan 1 groot snapshot bestand en allemaal kleine delta bestanden. Het probleem is alleen dat je minder makkelijk oude snapshots kan verwijderen. Stel je hebt drie snapshots in bestanden opgeslagen: snapshot1.0, snapshot1.1, snapshot1.2. Snapshot 1.0 is de basis en snapshot 1.1 en 1.2 zijn delta's. Als je vervolgens snapshot 1.0 wil verwijderen, dan zul je moeten zorgen dat je snapshot 1.1 opnieuw aanmaakt, anders hebben je delta's geen basis meer. Het beheren van snapshots opgeslagen in bestanden brengt dus veel meer complexiteit met zich mee dan gewoon een offsite ZFS backup schijf hebben. Dan regelt ZFS zelf alles automatisch als je oude snapshots verwijderd.
Maar dat geldt voor elke backupoplossing, dus feitelijk moet je net als normaal gewoon je schijfruimte gebruik monitoren.
Klopt.

Die offsite backup zou overigens zo simpel kunnen zijn als een Raspberry Pi 2 met een ZFS externe HDD. Zo doe ik dat ook.

[ Voor 3% gewijzigd door CurlyMo op 22-07-2015 16:59 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Ah op die manier. Op ZFS is elke backup standaard incremental opgeslagen waardoor je dat onderscheid niet hoeft te maken, voor andere opslagmanieren moet je specifiek -i meegeven en dan zelf borgen dat het goed komt. Inderdaad ruk om te beheren.

Je kunt natuurlijk ook redeneren dat je offsite lang niet zoveel restorepoints nodig hebt als onsite, maar dat is weer een andere discussie. :P

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 22 juli 2015 @ 17:15:
Ah op die manier. Op ZFS is elke backup standaard incremental opgeslagen waardoor je dat onderscheid niet hoeft te maken, voor andere opslagmanieren moet je specifiek -i meegeven en dan zelf borgen dat het goed komt. Inderdaad ruk om te beheren.
Standaard wel opgeslagen, maar bij het verzenden naar een andere ZFS of bestand moet je wel expliciet opgeven welke delta's hij moet genereren. Zie ook daarvoor de documentatie.

R1soft Idera Free ;w

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 15:26
Hier werkt de (Ubuntu 14.04) thuis-server met ZFS-on-Linux ook al maanden probleemloos.
Een aantal dingen die mij het e.e.a. erg aangenaam maken:
  • Automatische snapshots van mijn 'belangrijke-data'-dataset (en al zijn child-datasets) met zfs-auto-snapshot, elke: 15min (laatste 4 worden bewaard), 60min (laatste 24 worden bewaard), dag (31 worden bewaard), maand (volgens mij allemaal bewaard, even checken :) )
  • Alle monthly en daily snapshots worden naar een offsite backup gestuurd (vriendje met een soortgelijk ZFS systeem)
  • De .zfs/snapshots map gelinked naar een normale map welke gedeeld wordt via NFS/Samba, op deze manier kan elke gebruiker gewoon zelf zijn historie door kijken en eventueel bestanden kopieren/terugzetten. (Dit werkt echt perfect, en is veel inzichtelijker dan bijv. Dropbox file history)
  • Owncloud webinterface, welke ook bij de genoemde snapshots kan
  • Syncthing (BTSync alternatief) voor synchronisatie van mappen over de server, meerdere laptops, PC's etc. De mappen die Syncthing synct zitten uiteraard onder de backup-dataset en worden dus ge-snapshot en gebackupped.

Acties:
  • 0 Henk 'm!
Punt 3 kan toch ook via samba en previous versions? Dan kan je met windows in ieder geval op een vrij coole manier je vorige versie van een document terugzetten :)

Even niets...


Acties:
  • 0 Henk 'm!
Dat is echt veel omslachtiger dan onze implementatie :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 24-09 22:49

Compizfox

Bait for wenchmarks

FireDrunk schreef op woensdag 22 juli 2015 @ 20:14:
Punt 3 kan toch ook via samba en previous versions? Dan kan je met windows in ieder geval op een vrij coole manier je vorige versie van een document terugzetten :)
Jep, dat gebruik ik ook. Best leuk.
CurlyMo schreef op woensdag 22 juli 2015 @ 20:56:
Dat is echt veel omslachtiger dan onze implementatie :)
Wat is 'jullie implementatie'? De methode die FireDrunk noemt gebrukt nog steeds gewoon (automatisch aangemaakte) ZFS snapshots, Samba's shadow_copy VFS module (heet "Previous Versions" in Windows clients) is slechts een manier om die snapshots bereikbaar te maken vanaf Windows clients.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
Ik bedoel de manier waarop je de snapshots beschikbaar maakt aan de eindgebruiker. In vind Previous Versions niet lekker werken. Met mijn manier bedoel ik het beschikbaar maken van de snapshots als aparte samba share.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
CurlyMo schreef op woensdag 22 juli 2015 @ 23:39:
[...]

Ik bedoel de manier waarop je de snapshots beschikbaar maakt aan de eindgebruiker. In vind Previous Versions niet lekker werken. Met mijn manier bedoel ik het beschikbaar maken van de snapshots als aparte samba share.
Persoonlijk vind ik dat een van de meest gebruikers-dankbare feature die ZFS voor Jan met de Pet kan bieden. "Uw bestanden? Ja hoor, die kan u zelf even terugvissen uit onze gearchiveerde versies, via Previous Versions. Klik rmk, eigenschappen, kijk eens, allemaal chronologisch geordend".

Goed, jouw oplossing doet het ook hoor, maar ik vind die "vervuilender" in het vaak al aanwezige oerwoud van shares in een organisatie. Voor thuis? Ok, maakt wat minder uit.

En nog even complimenten met al jouw scripts hier. Als mijn migratie voltooid is dan moet ik terug eens kijken om je backup scriptje in productie te nemen...

  pool: stavanger
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
	continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Thu Jul 23 00:07:48 2015
    41.4G scanned out of 17.2T at 375M/s, 13h18m to go
    3.94G resilvered, 0.24% done
config:

	NAME                                STATE     READ WRITE CKSUM
	stavanger                           DEGRADED     0     0     0
	  raidz2-0                          DEGRADED     0     0     0
	    disk1-xxxxxxxx                  ONLINE       0     0     0
	    disk2-xxxxxxxx                  ONLINE       0     0     0
	    disk3-xxxxxxxx                  ONLINE       0     0     0
	    disk4-xxxxxxxx                  ONLINE       0     0     0
	    disk5-xxxxxxxx                  ONLINE       0     0     0
	    disk6-xxxxxxxx                  ONLINE       0     0     0
	    disk7-xxxxxxxx                  ONLINE       0     0     0
	    disk8-xxxxxxxx                  ONLINE       0     0     0
	    disk9-xxxxxxxx                  ONLINE       0     0     0
	    replacing-9                     OFFLINE      0     0     0
	      /media/RAMDISK/5TBFILESPARSE  OFFLINE      0     0     0
	      disk10-xxxxxxxx               ONLINE       0     0     0  (resilvering)


oOo

Acties:
  • 0 Henk 'm!
Het een sluit het ander niet uit. Je kan zowel Previous Versions gebruiken als je snapshots via een losse share beschikbaar maken.

Grote voordeel van Previous Versions volgens mij is dat je die kan leveren uit een hoger gelegen snapshot.
Dus stel je hebt een /home met daarin 5000 gebruikers, hoef je niet 5000 snapshots te maken en elk snapshot te sharen. Je kan in de settings van samba aangeven dat je het bovenliggende snapshot wil gebruiken.

Als je dat snapshot direct shared, share je weer alle directories in dat snapshot.

Als je maar een paar homedrives hebt, kan je die natuurlijk prima los snapshotten :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Ik heb er een tijdje geleden mee gespeeld, maar ik vond het grote nadeel dat bij het hernoemen van de map (de file mogelijk ook, dat weet ik niet meer) de 'previous versions' functionaliteit niet meer werkt. Of heb ik iets over het hoofd gezien dat er dan iets met de snapshots had moeten gebeuren ofzo?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Vanwaar deze toevoeging? Zover zijn we nog lang niet want qua gebruiksgemak wint hij het nog met straatlengtes. Maar ik ga mij zeker verder inlezen want het klinkt erg interessant. Desnoods beperk ik de offsite backup tot de fullbackups, ofwel non-incremental snapshots.

Je hebt mij wel overtuigd om dit serieus te gaan proberen, native in je FS is toch wel heel tof. :)
DRAFTER86 schreef op woensdag 22 juli 2015 @ 18:11:
Hier werkt de (Ubuntu 14.04) thuis-server met ZFS-on-Linux ook al maanden probleemloos.
Een aantal dingen die mij het e.e.a. erg aangenaam maken:
  • Automatische snapshots van mijn 'belangrijke-data'-dataset (en al zijn child-datasets) met zfs-auto-snapshot, elke: 15min (laatste 4 worden bewaard), 60min (laatste 24 worden bewaard), dag (31 worden bewaard), maand (volgens mij allemaal bewaard, even checken :) )
  • Alle monthly en daily snapshots worden naar een offsite backup gestuurd (vriendje met een soortgelijk ZFS systeem)
  • De .zfs/snapshots map gelinked naar een normale map welke gedeeld wordt via NFS/Samba, op deze manier kan elke gebruiker gewoon zelf zijn historie door kijken en eventueel bestanden kopieren/terugzetten. (Dit werkt echt perfect, en is veel inzichtelijker dan bijv. Dropbox file history)
  • Owncloud webinterface, welke ook bij de genoemde snapshots kan
  • Syncthing (BTSync alternatief) voor synchronisatie van mappen over de server, meerdere laptops, PC's etc. De mappen die Syncthing synct zitten uiteraard onder de backup-dataset en worden dus ge-snapshot en gebackupped.
Leuk om te lezen. Een groot deel is identiek aan dat van mij, behalven dan de ZFS snapshotimplementatie. :D

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 23 juli 2015 @ 06:50:
Het een sluit het ander niet uit. Je kan zowel Previous Versions gebruiken als je snapshots via een losse share beschikbaar maken.
Heb je gelijk in.
Gonadan schreef op donderdag 23 juli 2015 @ 10:23:
Vanwaar deze toevoeging? Zover zijn we nog lang niet want qua gebruiksgemak wint hij het nog met straatlengtes.
Totdat het niet bleek te werken met ZFS :) Heb je al eens gekeken naar die rdiff-backup GUI?
Maar ik ga mij zeker verder inlezen want het klinkt erg interessant. Desnoods beperk ik de offsite backup tot de fullbackups, ofwel non-incremental snapshots.
Waarom non-incremental? Wat is het voordeel?
Je hebt mij wel overtuigd om dit serieus te gaan proberen, native in je FS is toch wel heel tof. :)
Jammer dat die tweakers hier de keuzes van iemand zo in twijfel kunnen trekken :P

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
CurlyMo schreef op donderdag 23 juli 2015 @ 11:24:
Totdat het niet bleek te werken met ZFS :) Heb je al eens gekeken naar die rdiff-backup GUI?
Tot ik het niet aan de praat kreeg met een apart volume.

Heb ik naar gekeken inderdaad, maar lijkt een window based GUI te zijn en geen webinterface. Ik draai geen windowmanagers op mijn server. :P
Waarom non-incremental? Wat is het voordeel?
Gemak.

Als ik het goed begrijpen heb zijn er twee opties:
• offsite ZFS volume zodat het feitelijk een replicatie is van je onsite snapshots.
• offsite non-ZFS opslag zodat je de snapshots specifiek als bestanden gaat opslaan.

Optie twee is qua hardware veel simpeler te realiseren, een externe HD is al voldoende. Voor ZFS moet je toch een OS hebben wat ertussen zit om het te ondersteunen.

In het geval van optie twee moet je zelf bepalen wanneer je incremental stuurt en borgen dat je snapshotstructuur consistent blijft zodat je incrementals nuttig zijn. Als je simpelweg alleen full stuurt kan je een retentie bepalen en op basis daarvan een vaste hoeveelheid points bewaren. Hoef je niet na te denken over de incrementals.

Maargoed, stap 1 is inlezen over het snapshotten en dat inrichten, stap 2 is offsite.
Jammer dat die tweakers hier de keuzes van iemand zo in twijfel kunnen trekken :P
lol ja, dit keer pakt het inderdaad wel goed uit. :P

Toch moet ik wel zeggen dat het erg vaak niet goed uit pakt en het meer voor een offtopic discussie zorgt. :)

Overigens zie ik veel mensen die losse mountpoints hebben voor delen van de pool, wat is daar het voordeel van?

[ Voor 3% gewijzigd door Gonadan op 23-07-2015 12:26 ]

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Gonadan schreef op donderdag 23 juli 2015 @ 12:21:
Optie twee is qua hardware veel simpeler te realiseren, een externe HD is al voldoende. Voor ZFS moet je toch een OS hebben wat ertussen zit om het te ondersteunen.
Dit moet je toch meer toelichten. Kan dat backup systeem geen ZFS draaien? Vrijwel alle Linuxes kunnen dat...

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Dat is precies wat ik bedoel, je moet dan een systeem offsite hebben draaien.
Zonder ZFS volstaat een externe HD op mijn werk die op maandagochtend de snapshot van die nacht binnen trekt bijvoorbeeld.

Maar hoe zit het nu met:
Gonadan schreef op donderdag 23 juli 2015 @ 12:21:
Overigens zie ik veel mensen die losse mountpoints hebben voor delen van de pool, wat is daar het voordeel van?

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Gonadan schreef op donderdag 23 juli 2015 @ 12:38:
Zonder ZFS volstaat een externe HD op mijn werk die op maandagochtend de snapshot van die nacht binnen trekt bijvoorbeeld.
Wat voor een systeem is dat? Als jij op dat systeem het zo kan configureren dat je snapshots binnen kan en mag trekken, is het dan niet mogelijk om zfs te installereren? Dat eerste zal in de meeste bedrijfsnetwerken al niet mogen namelijk.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Doet niet echt ter zake, het is maar een voorbeeld. Maar stel dat ik dat zou doen dan is het een windows laptop. Snapshots binnen trekken is dan geen probleem, ZFS installeren en configureren al snel wel.

Een ander voorbeeld zou cloudopslag zijn. Simpel snapshot bestanden uploaden is geen probleem, wil je ZFS draaien dan heb je niet genoeg aan opslag maar moet je een server gaan afnemen.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Dan de laatste vraag hierover. Is het niet mogelijk om ergens een Raspberry Pi neer te leggen met ZFS en een externe HDD? Waar dan ook? Een groot deel van het nut van snapshots voor offsite backup verdwijnt als je niet incremental kan zenden.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Voordeel kan zijn dat je meerdere delen van je pool via 1 samba share kan publiceren.

/pool/movies -> /mnt/share/movies
/pool/downloads -> /mnt/share/downloads
/pool/titties -> /mnt/share/titties

en dan share je /mnt/share/ in samba.
Dan worden andere delen van /pool/* niet gedeeld.

Dat *kan*, maar hoeft niet perse een voordeel te zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Wellicht, maar dat neemt niet weg dat het meer investering in zowel spullen als tijd is.

Het nut van snapshots zie ik niet zomaar verdwijnen, die kan je net zo blijven gebruiken als normaal. Je mist alleen wel het voordeel van incrementeel opslaan, waardoor het belachelijk veel ruimte inneemt als je álle snapshots offsite zou willen zetten. :)

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!
Je kan een snapshot overhevelen zonder alle tussenliggende snapshots over te moeten hevelen.

Dus als je A->B->C->D->E hebt, kan je aan de andere kant alleen A->E hebben.

Even niets...


Acties:
  • 0 Henk 'm!
Gonadan schreef op donderdag 23 juli 2015 @ 13:58:
Wellicht, maar dat neemt niet weg dat het meer investering in zowel spullen als tijd is.

Het nut van snapshots zie ik niet zomaar verdwijnen, die kan je net zo blijven gebruiken als normaal. Je mist alleen wel het voordeel van incrementeel opslaan, waardoor het belachelijk veel ruimte inneemt als je álle snapshots offsite zou willen zetten. :)
Niet alleen ruimte, maar ook tijd. Je moet elke keer al je data over een (internet / usb / netwerk) lijn sturen. Mijn offsite backup ligt bij een familielid. Zou ik elke nacht alles oversturen, dan zou ik denk ik een paar dagen bezig zijn. Nu is het elke nacht maar 5 tot 10 minuten.

Dus de tijd en geld die je zegt kwijt te zijn aan een nieuw systeem (€ 35,-) win je lang en breed terug met incremental snapshots.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 14:35

Gonadan

Admin Beeld & Geluid, Harde Waren
Het kost geen tijd, ik hoef er geen aandacht aan te besteden. Je verhoogt hooguit het risico omdat de snapshot nog niet veilig gesteld is. :)

Overigens kan je alsnog met incrementals gaan werken, maar dan moet je gewoon één volle laten staan. Is het uploadargument weer van de baan. Maar dan kost het je meer aandacht. ;)

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Dag allen,

Ik heb op zfsguru (10.1-001; 0.2.0-rc) last van hoge cpu load. Meestal rond de 1,0.
Ik heb geen speciale services draaien, wel samba met AD en een paar users tegelijkertijd (dus de hogere smbd lijkt me niet zo raar).

Hier top -S :
Afbeeldingslocatie: http://s4.postimg.org/as64ea8el/del1.jpg

Iemand een idee waarom de load zo hoog is ?

Thx !

Johan

Acties:
  • 0 Henk 'm!

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 23-09 13:48
johann1982 schreef op donderdag 23 juli 2015 @ 15:24:
Dag allen,

Ik heb op zfsguru (10.1-001; 0.2.0-rc) last van hoge cpu load. Meestal rond de 1,0.
Ik heb geen speciale services draaien, wel samba met AD en een paar users tegelijkertijd (dus de hogere smbd lijkt me niet zo raar).

Hier top -S :
[afbeelding]

Iemand een idee waarom de load zo hoog is ?

Thx !

Johan
Kan je top -HS doen? Ik heb hetzelfde fenomeen, wat bij mij veroorzaakt wordt door ACPI interrupts (oid).

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 13:02

BCC

Gonadan schreef op donderdag 23 juli 2015 @ 13:08:
Doet niet echt ter zake, het is maar een voorbeeld. Maar stel dat ik dat zou doen dan is het een windows laptop. Snapshots binnen trekken is dan geen probleem, ZFS installeren en configureren al snel wel.

Een ander voorbeeld zou cloudopslag zijn. Simpel snapshot bestanden uploaden is geen probleem, wil je ZFS draaien dan heb je niet genoeg aan opslag maar moet je een server gaan afnemen.
Transip biedt nu een Blade + 2TB blockstorage aan voor 20 euro/mnd. Ik draai hier nu ZFS op. Het is ZFS op ZFS, maar de snelheden zijn best prima. Incremental oversturen werkt ook als een malle.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
avdpeijl schreef op donderdag 23 juli 2015 @ 16:11:
[...]


Kan je top -HS doen? Ik heb hetzelfde fenomeen, wat bij mij veroorzaakt wordt door ACPI interrupts (oid).
Afbeeldingslocatie: http://s29.postimg.org/3lxpmhz9z/del1.jpg


Ps: Moederbord is supermicro X9SRL-F met een Xeon 2609V2 processor.

Acties:
  • 0 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
BIOS geupdate en inderdaad, cpu load zakt nu mooi naar lage waardes, dus dat lijkt in orde.

Thanks !

Acties:
  • 0 Henk 'm!

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 23-09 13:48
Naaah, jammer: ik maak gebruik van ASRock E3C224D4I-14S board met BIOS op v2.0 en later v2.1.
Alles draait goed met throttle down van CPU op ZFSguru 10.1-001. Met de upgrade naar 10.1-002 is het mooie werk van powerd weer verloren gegaan:

Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/21558895/screenshot2.png

Bios wijziging heeft niet geholpen. Instellingen rondom ACPI aan/uit in de Bios hebben ook niet geholpen. Iemand nog een idee (behalve wachten op update ZFSguru)?

Acties:
  • 0 Henk 'm!
In bios acpi op v3.0 forceren? Kan op sommige borden.

Even niets...


Acties:
  • 0 Henk 'm!

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 23-09 13:48
Nee, dat gaat helaas niet. Enige optie die er is: ACPI HPET TABLE enable/disable. Heeft geen resultaat bij mij. Toevallig ook nieuw BIOS update gevonden (v3.20), maar zonder resultaat.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
Welke mappenstructuur gebruiken jullie? Ik gebruik nu FreeNAS en daar draait alles in jails dus heb ik nu momenteel deze folder waar ik ook mijn shares aan koppel:

/mnt/tank/media


Daarnaast komen dan blijkbaar alle services met elk hun jail en eigen storage, waarbij de jail een soort van gevirtualizeerd O/S binnen je eigenlijke O/S die er los van staat, of zie ik dit verkeerd? Zo heb ik nu

/mnt/tank/jails/transmission/media


Ik slaag er niet direct in om torrents te laten aankomen op mijn share aangezien deze niet zichtbaar is voor transmission.

[ Voor 11% gewijzigd door SanderH_ op 24-07-2015 18:47 ]


Acties:
  • 0 Henk 'm!
Dat kan nog met rechten te maken hebben. Wat voor rechten heeft het mountpoint in je jail?

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
drwxr-xr-x   3 www   www     3 Jul 21 17:44 .plugins
drwxr-xr-x   2 root  wheel  17 Jul 21 17:57 .transmission_1.meta
drwxr-xr-x   5 root  wheel   5 Jul 21 17:45 .warden-files-cache
drwxr-xr-x  18 root  wheel  22 Jul 21 17:45 .warden-template-pluginjail--x64
drwxr-xr-x  18 root  wheel  22 Jul 21 17:45 transmission_1

Acties:
  • 0 Henk 'm!
Tja, dat zou er wel eens wat mee te maken kunnen hebben...
Onder welke user draait transmission?

Wat je nu laat zien is buiten de jail volgens mij...

Heb je zelf dat mountpoint in die map gezet? Want dat werkt niet meteen, je moet expliciet opgeven dat die storage beschikbaar is voor de jail...

[ Voor 53% gewijzigd door FireDrunk op 24-07-2015 20:01 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Kun je iets meer uitleggen over wat nu precies de bedoeling is? Welke share zou zichtbaar moeten zijn en waar? Betreffende bovenstaand. De permissies van de map zijn zo dat ongeacht de user van transmission de map zelf te zien zou moeten zijn (ook others staat op readable). Dus daar zou het niet moeten zitten. Maar het klinkt eerder alsof transmission gewoon de share niet kan zien. Welke shares worden geëxporteerd?

[ Voor 10% gewijzigd door Dadona op 24-07-2015 20:04 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
Bedoeling was om de bestanden die transmission binnenhaalt direct in een folder te plaatsen die zich buiten de jail bevindt, namelijk de folder waarvoor ik shares heb aangemaakt (/mnt/tank/media).

EDIT: nvm, gelukt :9 Moest blijkbaar de transmission service even herstarten

[ Voor 17% gewijzigd door SanderH_ op 24-07-2015 20:35 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
heb tot nu toe een fileserver met HW raid draaien. Ben van plan daarnaast een pure NAS te bouwen gebaseerd op ZFS. Idee is om uiteindelijk alle opslag van de fileserver naar ZFS te migreren en de applicaties op een download PC onder windows te laten draaien.
Ik heb hier geen tijdspad voor maar gezien de omvang van de huidige fileserver wil ik de ZFS PC schaalbaar opzetten. Heb deze week op Tweakers een behuizing gekocht waar ik in eerste instantie 12 x 4 TB onder ZFS in wil draaien.
Basis is Supermicro moederbod met ECC RAM en een E5-2603 CPU. Hierin komt in eerste instantie een IBM serveraid M1015 om samen met de onboard SATA aansluitingen de 12 schijven te kunnen gebruiken. Later is het de bedoeling om via meerdere HBA kaarten en SAS expanders meer schijven aan te sluiten.

Ik heb nu een paar vragen m.b.t. ZFS,
1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
2) stel dat ik nu Freenas kies kan ik dan later makkelijk switchen naar ZFSGuru of Nas4free?
3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.

Gezien de weersverwachting verwacht ik de boel dit weekend in elkaar te zetten dus adviezen zijn welkom :)

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.

De volgende release van ZFSGuru komt als ik het goed het volgende maand uit. En je hebt natuurlijke de luxe dat één van de devs hier op het forum zit ;) ZFSGuru is ook wel vrij uitgebreid qua plugins en de webinterface vind ik beter dan deze van FreeNAS. Het is maar wat je verkiest.
3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
raidz2 lijkt me inderdaad ideaal. Qua aantal vdev's gebruiken er veel de bekende (2^n + parity) formule. Al zijn er dan weer die dit een beetje tegenspreken
4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.
Je kan verschillende partities aanmaken en dan een deel voor je O/S gebruiken, en dan een ander deel voor L2ARC. Eventueel nog een derde deel voor ZIL, maar dat wordt wel allemaal wat krap op een 30GB SSD. Het zijn trouwens leuke perks maar zeker niet noodzakelijk en blijkbaar erg afhankelijk van hoe je gebruik maakt van je data.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 24-09 22:49

Compizfox

Bait for wenchmarks

SanderH_ schreef op vrijdag 24 juli 2015 @ 22:34:
[...]

Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.
Bij FreeNAS heb je geen volledige versie van FreeBSD toch? Dat vind ik persoonlijk het grootste nadeel. Ook lopen ze nogal achter qua FreeBSD (ze zitten op 9.3)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
Weet ik. Het is inderdaad een wat gestripte versie maar voor mijn gebruik ruim voldoende.

Daarnaast zit ZFSguru bijvoorbeeld reeds op 10.1 terwijl FreeNAS volhardt in de boosheid. Ik heb eerder deze week er wat achter zitten zoeken en vond deze reply (wel al bijna 1 jaar oud ondertussen):
1. We have more modest goals for the next major release (live updates, NFSv4, basic UI cleanup, setup Wizard) and 10.1 will not be ready by then (October). We wouldn't base a release on 10.0 because conventional wisdom has always been that FreeBSD's first major release on any new branch is not a good target for serious production use. The project needs time for the early-adopters to find the sharper edges and grind them off, after which the next release is almost always a lot better. That makes FreeBSD 9.3 the right foundation for the next release of FreeNAS.

2. The goals for FreeNAS-10 (based on 10.1) are rather more significant, and we need more time to work on them. Entirely new UI. Entirely new "middleware". GUI support for Bhyve virtual machines (think "jails" that can run entirely different OSes). Those are just a few of the things on the roadmap for FreeNAS 10. There's basically a huge amount of work going in to FreeNAS-10, and it's not going to be done by October 2014. Roughly speaking, it will be more like July 2015 before that release is really ready to see the light of day.

bron

Acties:
  • 0 Henk 'm!
SanderH_ schreef op vrijdag 24 juli 2015 @ 22:34:
[...]
Ik gebruik nog maar enkele dagen FreeNAS na jaren enkel CLI te gebruiken op mijn headless Debian systeem, en ik vind het eerlijk gezegd wel een verademing dat je een overzichtelijke webinterface achter de hand hebt waar je vrij vlug dingen kan gaan checken of aanpassen. Je kan nog altijd onder de motorkap gaan kijken via de Shell. Enigste minpunt dat ik tot nu toe heb gemerkt is dat deze Shell in de webinterface heel erg buggy is in FreeNAS. Ik gebruik gewoon PuTTy.

De volgende release van ZFSGuru komt als ik het goed het volgende maand uit. En je hebt natuurlijke de luxe dat één van de devs hier op het forum zit ;) ZFSGuru is ook wel vrij uitgebreid qua plugins en de webinterface vind ik beter dan deze van FreeNAS. Het is maar wat je verkiest.
Je moet ook eens even bij FireDrunk horen, die heeft dan weer heel positieve ervaringen met Fedora + ZFS. Goed, ik ben heel tevreden van Ubuntu en heb weinig te klagen maar ik heb dan ook geen super-complexe setup. Ik hou mijn hart vast als ik ooit moet gaan kloten met rechten, maar voorlopig is user "bart" nog voldoende om alle services hier van data-prik te voorzien
[...]

raidz2 lijkt me inderdaad ideaal. Qua aantal vdev's gebruiken er veel de bekende (2^n + parity) formule. Al zijn er dan weer die dit een beetje tegenspreken
Meh, met dat soort disk-aantallen zou ik toch naar de goede aantallen neigen, Q (Louwrentius) heeft daar ook nog wel wat over te vertellen: http://louwrentius.com/74...ased-on-zfs-on-linux.html (zie Capacity), maar er is dacht ik ook ergens een stukje van hem waar hij nog vertelt over space wat verloren gaat (of ben ik nu in de war met iets anders? :X )
[...]

Je kan verschillende partities aanmaken en dan een deel voor je O/S gebruiken, en dan een ander deel voor L2ARC. Eventueel nog een derde deel voor ZIL, maar dat wordt wel allemaal wat krap op een 30GB SSD. Het zijn trouwens leuke perks maar zeker niet noodzakelijk en blijkbaar erg afhankelijk van hoe je gebruik maakt van je data.
Euhm, OCZ is een van de laatste SSD's die ik iemand zou aanraden om met zo iets belangrijks als ZIL SLOG device toe te vertrouwen :/ . Laat dat SLOG-device dan helemaal vallen, zeker als je het systeem alleen maar als NAS gebruikt...
BartNL schreef op vrijdag 24 juli 2015 @ 20:50:
heb tot nu toe een fileserver met HW raid draaien. Ben van plan daarnaast een pure NAS te bouwen gebaseerd op ZFS. Idee is om uiteindelijk alle opslag van de fileserver naar ZFS te migreren en de applicaties op een download PC onder windows te laten draaien.
Ik heb hier geen tijdspad voor maar gezien de omvang van de huidige fileserver wil ik de ZFS PC schaalbaar opzetten. Heb deze week op Tweakers een behuizing gekocht waar ik in eerste instantie 12 x 4 TB onder ZFS in wil draaien.
Bekend migratiepad, maar bij was het indertijd van een Qnap naar ZFS. Welke kast heb je aangeschaft?
Basis is Supermicro moederbod met ECC RAM en een E5-2603 CPU. Hierin komt in eerste instantie een IBM serveraid M1015 om samen met de onboard SATA aansluitingen de 12 schijven te kunnen gebruiken. Later is het de bedoeling om via meerdere HBA kaarten en SAS expanders meer schijven aan te sluiten.
Je weet dat je echt wel een HEEL beefy CPU hebt voor zoiets relatief simpel als ZFS? Of ga je er ook nog wat anders op draaien? Heb je nog iets van zuinigheid op het oog? Eventueel een E3?
Ik heb nu een paar vragen m.b.t. ZFS,
1) welke ZFS distro is meest geschikt om puur dataopslag te draaien. Ik heb Freenas geprobeerd en dat zou nu mijn eerste keus zijn. ZFSGuru lijkt mij ook een mogelijkheid maar ben bang dat dit allerlei opties heeft die ik niet nodig heb. Nas4free lijkt mij minder doorontwikkeld dan Freenas.
Beetje smaken en kleuren, je kan altijd beginnen met wat je wil en even spelen, wil je iets anders? Zpool export, nieuwe installatie, zpool import en go go go...
2) stel dat ik nu Freenas kies kan ik dan later makkelijk switchen naar ZFSGuru of Nas4free?
Zie hierboven, export import, klaar... Vaak gedaan indertijd bij (vooral) ZFSguru en FreeNAS.
3) wat is met 12 schijven beste ZFS setup waarbij mijn prioriteit ligt bij opslag van 20-40GB grote video bestanden die via maximaal drie HT-PC's worden afgespeeld. Mijn eigen idee is om raidz2 te gebruiken omdat dit vergelijkbaar is qua redundantie aan raid6 wat ik momenteel gebruik.
Vanaf disks groter dan 2TB vind ik het wel het overwegen waard om naar dubbele pariteit te gaan. Hout vasthouden, ik heb tot nu toe met 4TB spindles nog niks aan de hand gehad, maar met 10 disks in één VDEV (de kleinste logische eenheid waarop je pariteit kan definiëren) heb ik nu wel geopteerd voor een RAIDZ2. Ik ben een te grote angsthaas om tijdens een rebuild van een disk te moeten hopen dat er niks gebeurt met de rest van de disks. Mijn meest kritieke data (lees: persoonlijke foto's en video's van familie) heb ik dubbel gebackupped en als de rest er aan door vliegt vloek ik eens HEEL HEEL HEEL hard, maar ik jank me geen oog uit, hoogstens een maandje licht grumpy ;) .
4) ik ga van een oude 30GB OCZ Core series v2 SSD booten, kan ik die ook voor caching o.i.d. inzetten of wat is optimaal gebruik van SSD en of RAM voor ZFS? Hierbij zijn de kosten binnen grenzen voor mij van minder belang da performance en betrouwbaarheid.
Bootschijf en eventueel als "scratch" partitie voor downloads om ze daarna door te sluizen naar je spinning pool. Zo doe ik het, gaan je disks relatief snel in spindown en worden ze vaak maar een keer per nacht wakker (als er een download binnenkomt is het vaak dat er redelijk snel een andere binnen komt of totaal niets meer, hoe dan ook resulteert dat vaak in slechts een keer opspinnen in de nacht als je dan download)
Als ZIL zou ik die krengen van OCZ niet gebruiken. Je kan altijd CiPHER eens aanspreken daarover, die is heel lovend over OCZ >:)
Gezien de weersverwachting verwacht ik de boel dit weekend in elkaar te zetten dus adviezen zijn welkom :)
Succes!

Pro-tip: als je een SSD gebruikt voor L2ARC en je zet je hele media/film filesystem op secondary cache = metadata only, dan kan je lekker snel browsen door je films en series, zonder dat je moet wachten tot je disks eerst opspinnen. Met een 10 disk array zoals bij mij, of 12 zoals bij jou, kan het soms wel eens frustrerend zijn dat je niet direct kan gaan kiezen wat je wil kijken. Als je dan de film start, ok, dan moet je wat geduld uitoefenen, maar dan is het ook snel even op pauze gezet terwijl je nog de nodige drank en versnaperingen gaat halen...

Bij mijn migratie afgelopen week van 5 x 4TB naar 10 x 4TB had ik de afgelopen dagen geen L2ARC... De commentaar van vrouwlief volgde al redelijk snel... "Seg, waarom duurt da laden van die films en series lijsten zo lang" :O .
Net maar die L2ARC SSD-partitie terug toegevoegd...

[ Voor 6% gewijzigd door HyperBart op 25-07-2015 01:21 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
HyperBart schreef op zaterdag 25 juli 2015 @ 01:13:
[...]
Meh, met dat soort disk-aantallen zou ik toch naar de goede aantallen neigen, Q (Louwrentius) heeft daar ook nog wel wat over te vertellen: http://louwrentius.com/74...ased-on-zfs-on-linux.html (zie Capacity), maar er is dacht ik ook ergens een stukje van hem waar hij nog vertelt over space wat verloren gaat (of ben ik nu in de war met iets anders? :X )
ik heb kasten met 24 schijven dus doe liefst iets met een veelvoud van 4 of 6. Wat ik er van begrijp zijn disk aantallen bij sequentieel lezen / schrijven van minder belang en vooral van belang voor een setup met veel IOPS.
Euhm, OCZ is een van de laatste SSD's die ik iemand zou aanraden om met zo iets belangrijks als ZIL SLOG device toe te vertrouwen :/ . Laat dat SLOG-device dan helemaal vallen, zeker als je het systeem alleen maar als NAS gebruikt...
ik ga op basis van advies en ervaring uiteindelijk wel moderne SSD(s) gebruiken. In eerste instantie wordt het alleen uitproberen.
Bekend migratiepad, maar bij was het indertijd van een Qnap naar ZFS. Welke kast heb je aangeschaft?
een Norco 4U met 16 slots.
Je weet dat je echt wel een HEEL beefy CPU hebt voor zoiets relatief simpel als ZFS? Of ga je er ook nog wat anders op draaien? Heb je nog iets van zuinigheid op het oog? Eventueel een E3?
ik verwacht dat de E5 relatief zuinig is. Keuze socket 2011-3 omdat ik denk veel PCIe sloten nodig te hebben om straks HBA kaarten en mogelijk 10Gb netwerk kwijt te kunnen.
Beetje smaken en kleuren, je kan altijd beginnen met wat je wil en even spelen, wil je iets anders? Zpool export, nieuwe installatie, zpool import en go go go...
misschien wel een idee omdat ook gewoon te proberen.
Pro-tip: als je een SSD gebruikt voor L2ARC en je zet je hele media/film filesystem op secondary cache = metadata only, dan kan je lekker snel browsen door je films en series, zonder dat je moet wachten tot je disks eerst opspinnen.
Wanneer filebrowsen sneller gaat wil ik dat zeker toepassen. Ik verwacht dat de HTPC's hier onder OpenElec lokaal metadata cachen.

Dank voor je input. Zit nog op de pakketbezorger te wachten (als die al op zaterdag bezorgt...) dus heb nog de tijd O-)

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
denk dat SiComputers zijn niet zo'n beste naam eer aan doet. Gisteren beloven ze per mail dat DPD op zaterdag bezorgt maar vandaag wel DPD aan de deur maar niet met de bestelling van SiComputers. Voordeel is wel dat ik nog wat meer bedenktijd heb voor de ZFS setup.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Ondertussen meeste hardware binnen maar CPU koeler blijkt niet in de 4U kast te passen. Wat verder ingelezen en mogelijk dat ik toch met ZFSGuru start. Wat ik er van begrijp draait dat op laatste FreeBSD en ondersteund daarmee modernere hardware.
De koppelverkoop van Freenas met iXsystems lijkt mij als zelfbouwer niet ideaal. Zie op Freenas forum net te vaak voorbij komen dat je beste iets kant-en-klaar van iXSystems kunt kopen. ZFSGuru lijkt mij qua setup en forum dan een stuk sympathieker.

Acties:
  • 0 Henk 'm!
Mwoh, dat valt wel mee hoor. Tis niet zo dat niks werkt... FreeNAS draait op FreeBSD 9.3 en er is een beta voor 10.1 dacht ik.

Stable releases zoals FreeNAS zullen altijd minder hardware ondersteunen dan bleeding edge technologie...

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
@bartnl
Ik gebruik noctua nb-u9b se2 coolers (socket 1155)
http://www.noctua.at/main...iew&products_id=32&lng=en

Die passen prima in een 4U.
Voor socket 2011 moet je een ander type hebben, de opvolger nh-u9s is ook voor socket 2011.
Je kunt desnoods push pull met 2 fans doen.

TDP is 140 watt voor socket 2011.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@FireDrunk: het is toch altijd wel zo dat FreeNAS minimaal één major versie achterloopt op ZFSguru en toch echt wel iets conservatiever is - vandaar dat ik het vaak de Debian van FreeBSD heb genoemd. Zelf draai ik vrijwel altijd -STABLE en dat is wel een voordeel van ZFSguru zeker binnenkort met de aanstaande releases voor alle gangbare branches (10.0, 10.1, 10.2, 10.3, 11.0).

Acties:
  • 0 Henk 'm!
Dat weet ik wel, het ging mij er om dat hij bang is voor hardware ondersteuning...
Je hoort niemand klagen dat Debian zo ontzettend slecht is qua hardware ondersteuning. Tuurlijk loopt het iets achter, maar 99% vam de hardware werkt prima.

Vooral dingen als de laatste generatie GPUs zullen niet werken. (Niet in 3d modus, die werken prima in VESA mode...)

Ik denk niet dat je je druk hoeft te maken om FreeNAS te gebruiken als het je gaat om hardwareondersteuning.

ZFSguru zit vol met bugs en security issues, dus het is maar net wat je liever hebt :)

Even niets...


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
GPU interesseert me niet, specifiek gaat er een 10Gb Intel X540-T2 in.

@jacovn, thanks heb al een scythe big shuriken besteld.

[ Voor 13% gewijzigd door BartNL op 28-07-2015 08:43 ]


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
BartNL schreef op dinsdag 28 juli 2015 @ 08:33:
GPU interesseert me niet, specifiek gaat er een 10Gb Intel X540-T2 in.

@jacovn, thanks heb al een scythe big shuriken besteld.
Die kaart wordt vanaf FreeBSD 9.1 ondersteund (ixgbe driver), dus je kunt gewoon FreeNAS gebruiken als je dat wilt.

Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 24-09 10:39
als je de GUI van ZFS-guru wilt kan je ook gewoon een kale FREEBSD 10.1-xxxx installeren (kan ook gewoon als ZFS-on-Root en dan zelf php + lighthttpd installeren, evt de files van zfsguru voor de webgui pakken en je kan zelf gewoon je freebsd updaten en via de gui e.e.a. beheren als je dat wilt :)

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
+1, ook een optie

Staat trouwens hier erg mooi beschreven.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Wat mij tot nu toe qua ZFS tegen heeft gehouden zijn handmatige installaties, ik wil voor gemak en degelijkheid en wil een ZFSGuru LiveCD iso gebruiken. Ik hoop dat die ook vanaf flash usb stick werkt. Ga in eerste instantie testen met 12 x 4TB in een Norco RPC-4216 kast. Wanneer ik daar vertrouwen in heb gaat deze setup mijn bestaande HW raid setup vervangen.

Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 24-09 10:39
BartNL schreef op dinsdag 28 juli 2015 @ 20:35:
Wat mij tot nu toe qua ZFS tegen heeft gehouden zijn handmatige installaties, ik wil voor gemak en degelijkheid en wil een ZFSGuru LiveCD iso gebruiken. Ik hoop dat die ook vanaf flash usb stick werkt. Ga in eerste instantie testen met 12 x 4TB in een Norco RPC-4216 kast. Wanneer ik daar vertrouwen in heb gaat deze setup mijn bestaande HW raid setup vervangen.
Begrijp me niet verkeerd, zfsguru werkt...

Maar als je ook maar iets van een up to date systeem wilt hebben... met het systeem dat ze hebben bedacht moet je dus steeds een image over het huidige systeem heen "gooien" (maar die discussie is al genoeg keren geweest tussen zfsguru developers en diverse GoT users hier

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat klopt, maar handmatig updaten duurt toch veel langer? En als je dat goed wilt doen moet je mergemaster draaien om alle configuratie te updaten. Dat is echt helemaal een ramp en is eigenlijk niet te doen.

Dan vind ik de ontwerpkeuze voor ZFSguru veel eenvoudiger, telkens een nieuwe installatie. Het enige dat nog wel mist is de Migration Manager, waardoor je met een muisklik je hele configuratie naar je nieuwe installatie kunt meenemen. Dat wordt de volgende major feature na de 0.3 release. Daarmee is het ontwerp van installeren in ZFSguru volgens de filosofie van Jason afgerond.

Zelf doe ik vaak genoeg een ZFSguru installatie om vervolgens zelf te updaten. Nu er binnenkort (over enkele dagen) regelmatig systeemversies worden uitgebracht, zou dat niet meer hoeven en kan ik wanneer ik wil makkelijk updaten naar een nieuwe versie.

Hardware support voor bepaalde NICs bijvoorbeeld is een grote reden. In 10.1 worden niet alle moderne NICs ondersteund; 10.2 weer wel. Pas enkele dagen geleden is die gebranched; voorheen was dat 10-STABLE. Dus dat betekent dat je wel -STABLE moet draaien voor moderne hardware support. Ook dat is bij ZFSguru veel beter geregeld. Want freebsd-update kan niet updaten naar -STABLE of -CURRENT - alleen releases zoals releng/10.1.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 28 juli 2015 @ 23:07:
Dat klopt, maar handmatig updaten duurt toch veel langer? En als je dat goed wilt doen moet je mergemaster draaien om alle configuratie te updaten. Dat is echt helemaal een ramp en is eigenlijk niet te doen.
Dutch2007 schreef op dinsdag 28 juli 2015 @ 22:03:
[...]
maar die discussie is al genoeg keren geweest tussen zfsguru developers en diverse GoT users hier
Precies, terug naar ZFS.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Om je eraan te herinneren: dit topic is ook bedoeld voor alle NAS platforms (FreeNAS, NAS4Free, ZFSguru, napp-it) totdat het topic gesplitst wordt. Ik was bezig met een nieuw 'zelfbouw NAS' topic om dit te bewerkstelligen, maar ben mijn uitgebreide startpost kwijtgeraakt door een Firefox-crash, en door de POST-submit wordt die form-data door Firefox niet onthouden. Dus helaas.

Voor de liefhebbers, nog de Q2 2015 status report van ZFSguru:
https://www.freebsd.org/n...5-04-2015-06.html#ZFSguru

Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 28 juli 2015 @ 23:16:
Om je eraan te herinneren: dit topic is ook bedoeld voor alle NAS platforms (FreeNAS, NAS4Free, ZFSguru, napp-it) totdat het topic gesplitst wordt
Het verschil is dat de ontwikkelaars van de andere distro's hier niet aanwezig zijn en er dus vrijwel nooit discussies (met de ontwikkelaars) ontstaan over de keuzes die gemaakt worden ;)

Daarnaast is vrijwel alles al in dat andere topic gezegd.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Zoveel gebeurt dat ook niet in dit topic. Maar als mensen vragen hebben over ZFSguru of ik denk dat ik iets nuttigs kan toevoegen daaromtrent, dan doe ik dat. Ik ben vooral ook gebruiker en help iedereen met ZFS echt niet alleen de mensen die ZFSguru draaien.

Verder, als je een probleem hebt met mij, mijn afwegingen inzake moderaties of anderszins, kun je dit beter buiten het topic doen. Zo kunnen we hier over ZFS-gerelateerde onderwerpen discussiëren.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 28 juli 2015 @ 23:22:
Zo kunnen we hier over ZFS-gerelateerde onderwerpen discussiëren.
:Y :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • joopworst
  • Registratie: Oktober 2004
  • Laatst online: 06-06 09:20
Een hele andere vraag: Ik draai Freenas 9.3 en gebruik smb/cifs voor sharing. Nu wil ik graag smb3 gebruiken op mijn Windows 7 machine. Ik lees dat dit pas bij Win 8 geïntroduceerd is, dus zeer waarschijnlijk niet voor Windows 7 beschikbaar is.

Nu zegt deze pagina van Microsoft dat je middels de commands onderaan de pagina smb2 en smb3 aan kan zetten in Windows 7. Ik vraag me nu af of dit ook echt zo is, of dat het max protocol nu echt smb3 is.

https://support.microsoft.com/en-us/kb/2696547

Quid est fili?!


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 24-09 10:39
joopworst schreef op donderdag 30 juli 2015 @ 15:45:
Een hele andere vraag: Ik draai Freenas 9.3 en gebruik smb/cifs voor sharing. Nu wil ik graag smb3 gebruiken op mijn Windows 7 machine. Ik lees dat dit pas bij Win 8 geïntroduceerd is, dus zeer waarschijnlijk niet voor Windows 7 beschikbaar is.

Nu zegt deze pagina van Microsoft dat je middels de commands onderaan de pagina smb2 en smb3 aan kan zetten in Windows 7. Ik vraag me nu af of dit ook echt zo is, of dat het max protocol nu echt smb3 is.

https://support.microsoft.com/en-us/kb/2696547
Als je windows 7 pc legaal is... kan je ZELF ;-) gratis upgraden naar windows 10, heb je ook SMB3 en hoef niets aan te passen :)

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Ik heb een vraag over /etc/zfs/vdev_id.conf

OS: ubuntu 14.04

Een half jaar geleden is een van mijn schijven overleden, gelukkig had ik ZFS dus geen dataverlies. Echter na het terugzetten van de nieuwe disk ziet mijn pool is zo uit.(dit staat nu al een half jaartje zo, ik vond het tijd om het weer correct te krijgen))

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
  pool: pool
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
    still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(5) for details.
  scan: scrub in progress since Sat Jul 25 23:00:04 2015
    2.60T scanned out of 8.95T at 150M/s, 12h17m to go
    0 repaired, 29.01% done
config:

    NAME                                          STATE     READ WRITE CKSUM
    pool                                          ONLINE       0     0     0
      raidz2-0                                    ONLINE       0     0     0
        ata-WDC_WD20EARX-00PASB0_WD-WCAZAA032642  ONLINE       0     0     0
        ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M4FJD115  ONLINE       0     0     0
        ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M3237416  ONLINE       0     0     0
        sdb                                       ONLINE       0     0     0
        ata-WDC_WD20EFRX-68AX9N0_WD-WCC300359484  ONLINE       0     0     0
        ata-WDC_WD20EFRX-68AX9N0_WD-WCC300374991  ONLINE       0     0     0


Volgens ZFSonlinux moet het op deze manier http://zfsonlinux.org/faq.html#HowDoISetupVdevIdConf met een /etc/zfs/zdev_id.conf

Voor ik zaken verander die niet correct zijn, hoor ik graag van iemand of mijn configuratie goed is. Zie hieronder.

code:
1
2
3
4
5
6
7
8
9
10
/etc/zfs/zdev_id.conf

# disk by-dev
# name
alias FFJD115       /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M4FJD115
alias 980820        /dev/disk/by-id/ata-WDC_WD20EARX-00PASB0_WD-WMAZA4980820
alias 374991        /dev/disk/by-id/ata-WDC_WD20EFRX-68AX9N0_WD-WCC300374991
alias 032642        /dev/disk/by-id/ata-WDC_WD20EARX-00PASB0_WD-WCAZAA032642
alias 359484        /dev/disk/by-id/ata-WDC_WD20EFRX-68AX9N0_WD-WCC300359484
alias 237416        /dev/disk/by-id/ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M3237416


Als ik hierna
sudo zpool export pool
sudo zpool import -d /dev/disk/by-vdev pool


invoer, komt het dan goed? Of moet ik de initiele stap met udevadm trigger ook uitvoeren?

----
Alvast bedankt d:)b , een pooltje aanmaken was zo gedaan, dit lijkt toch wat spannender.. :)

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Als de schijf al zichtbaar is onder /dev/disk/by-id is het voldoende om "zfs export ; zfs import -d /dev/disk/by-id" te doen lijkt me. De rest kun je achterwege laten.

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Die schijf is nu gewoon listed als dev/disk/by-id/ata-WDC_WD20EARX-00PASB0_WD-WMAZA4980820

Bedoel je, zfs export pool of sdb? En dan weer vervolgens 1 disk impoteren?

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!
zpool export pool

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Thanks.

Het was trouwens 'zpool import -d /dev/disk/by-id' :)

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
ZFSGuru 10.1-002 up-and-running en ik moet nog wennen denk ik.
Had niet verwacht anno 2015 echt een CD te moeten branden.
Daarna is het ontbreken van een handleiding wat mij betreft een tegenvaller.
Installatie is gelukt maar ik heb wel een 250GB SSD gebruikt als ZFSGuru bootdisk. Ik had verwacht ergens een partitionering optie tegen te komen maar die heb ik blijkbaar over het hoofd gezien.
Twijfel ook of de raid5 test pool wel juist is aangemaakt maar die lijkt wel gewoon te werken.
Verder heb ik nog wat moeite met de rechten op de shares maar dat is denk ik omdat security model op "share-level security" staat terwijl ik on windows user level security gebruik.
Tot slot heb ik moeite met ontbreken van power saving opties. Wanneer ik 60 schijven aan deze server ga hangen is het wel de bedoel;ing dat pools die ik niet gebruik in spindown gaan. Of wanneer er helemaal activiteit is zou ik de fileserver in zijn geheel naar standby willen gaan.
Van bovenstaande items gaat ontbreken power saving voor mij denk ik lastigste te accepteren zijn. Ga de server zo nog meten qua verbruik.

Positieve is dat ZFSGuru redelijk probleemloos installeert en dat alle hardware lijkt te werken.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 24-09 12:58
BartNL schreef op zaterdag 01 augustus 2015 @ 10:41:
ZFSGuru 10.1-002 up-and-running en ik moet nog wennen denk ik.
Je bent 1 dag te vroeg :9 Vandaag kwam normaal gezien de 0.3 release uit zodat je gwn met een .ISO kan booten.

Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 24-09 10:39
SanderH_ schreef op zaterdag 01 augustus 2015 @ 11:12:
[...]


Je bent 1 dag te vroeg :9 Vandaag kwam normaal gezien de 0.3 release uit zodat je gwn met een .ISO kan booten.
denk dat het een FreeBSD problem is..

als ik yummi linux booter gebruik... start ie ook de setup en als ie dan wilt installeren (net na de 1e keer bootloader..)

vindt ie niet direct de CD ...

Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 08-09 13:54

Hakker

a.k.a The Dude

Ik draai Freebsd 10.0.1 nog en zit hier op campzone op het moment maar ik zou graag een tijdelijke trunk willen maken. Nu is de switch wel zo ingesteld maar hoe kan ik hem tijdelijk zonder vast ip een trunk te maken van 2 nic (em0 en em1).

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
BartNL schreef op zaterdag 01 augustus 2015 @ 10:41:
Installatie is gelukt maar ik heb wel een 250GB SSD gebruikt als ZFSGuru bootdisk. Ik had verwacht ergens een partitionering optie tegen te komen maar die heb ik blijkbaar over het hoofd gezien.
Tijdens de welcome wizard kun je alleen maar hele disks gebruiken - maar als je die skipt en gewoon op de Disks pagina je disks formatteert, kun je vervolgens op de Pools pagina je pool aanmaken op die partities. Alleen de welcome wizard ziet hele disks. Dit is om dingen extra simpel te houden. In de toekomst wilde Jason het hele pool-gebeuren van de welcome wizard naar de installatie verhuizen, en daar ook opties voor partitionering te geven. Maar dit alles kun je nu al op de Disks pagina met een Partition Magic-achtige partitieeditor wat denk ik best fijn werkt.
Verder heb ik nog wat moeite met de rechten op de shares maar dat is denk ik omdat security model op "share-level security" staat terwijl ik on windows user level security gebruik.
Met share-level security moet je een user/password opgeven per Share, dat kan dus verschillen per share. Bij user-level security niet en krijg je één inlogscherm wanneer je de server opvraagt (\\<IP>).

ZFSguru user-management voor Samba werkt met Share-level security. Je kunt ook andere modellen gebruiken, maar dan moet je ook zelf het management doen.
Tot slot heb ik moeite met ontbreken van power saving opties. Wanneer ik 60 schijven aan deze server ga hangen is het wel de bedoel;ing dat pools die ik niet gebruik in spindown gaan. Of wanneer er helemaal activiteit is zou ik de fileserver in zijn geheel naar standby willen gaan.
Van bovenstaande items gaat ontbreken power saving voor mij denk ik lastigste te accepteren zijn. Ga de server zo nog meten qua verbruik.
Spindown kan gedeeltelijk op de Disks->Advanced pagina, maar het liefst gebruik je de functionaliteit van het ZFSguru tuning script. Dat kun je aanpassen op de shell door een configuratiebestand aan te passen.

Concreet volg je de instructies op Access->SSH om in te loggen en root te worden, daarna voer je uit:

ee /etc/rc.conf

Dan ga je het /etc/rc.conf bestand editen. Maak hier geen fouten in! Escape krijg je een menu voor exit & save.

Scroll naar beneden naar:

Waarschuwing: de code hieronder is van de nieuwe 0.3 release; de oude release noemt het gewoon zfsguru_spindown_enable dus zonder tuning in de naam. Dus niet letterlijk copypasten naar een 0.2 installatie! Gewoon aanpassen dus van NO YES maken en 7200 seconden veranderen en de disk namen uitbreiden is dus wat je dient te doen om spindown werkend te krijgen:

code:
1
2
3
4
5
# To enable your disks to spindown whenever inactive for a number of seconds,
# configure both the timer (in seconds) and the disks you want to be spun down.
zfsguru_tuning_spindown_enable="NO"
zfsguru_tuning_spindown_disks="ada0 ada1 ada2 ada3"
zfsguru_tuning_spindown_timer="7200"

Pas dit aan en herstart de server. Controleer of het werkt. De timer zou ik eerst op 120 (2 minuten) zetten ofzo, om te controleren of het werkt.

[ Voor 6% gewijzigd door Verwijderd op 01-08-2015 15:22 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
SanderH_ schreef op zaterdag 01 augustus 2015 @ 11:12:
[...]Je bent 1 dag te vroeg :9 Vandaag kwam normaal gezien de 0.3 release uit zodat je gwn met een .ISO kan booten.
hele idee is nu nog om wat te testen dus maakt het niet veel uit. Qua hardware is de ZFS setup nu wel klaar om mijn windows hw raid fileserver te vervangen. Qua software twijfel ik daar nog wel aan. Moet sowieso nog eens kijken hoe ik falende schijf kan vervangen.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
dank voor de uitgebreide reactie. Ik ga je adviezen uitproberen.

[ Voor 28% gewijzigd door BartNL op 01-08-2015 13:15 ]


Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 24-09 15:30
Verwijderd schreef op zaterdag 01 augustus 2015 @ 12:08:
code:
1
2
3
4
5
# To enable your disks to spindown whenever inactive for a number of seconds,
# configure both the timer (in seconds) and the disks you want to be spun down.
zfsguru_tuning_spindown_enable="NO"
zfsguru_tuning_spindown_disks="ada0 ada1 ada2 ada3"
zfsguru_tuning_spindown_timer="7200"
Dit functioneert niet met de schijven die aan een HBA hangen. Althans bij mij niet. Voor die schijven zul je het programmaatje 'spindown' moeten installeren;

code:
1
cd /usr/ports/sysutils/spindown/ && make install clean

[ Voor 0% gewijzigd door Kriss1981 op 01-08-2015 15:29 . Reden: typo ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat klopt, werkt niet op alle controllers. Al zijn er voor bepaalde LSI controllers in 'head' (11-CURRENT) toevoegingen die dit wel mogelijk zouden moeten maken. Heb ik niet getest.

Spindown, het programma waar je op doelt en wat ook disks op SAS controllers kan downspinnen, is al standaard geïnstalleerd en hoef je dus enkel te configureren in /etc/rc.conf.

Wat ik wilde is om spindown ook in de ZFSguru tuning scripts te integreren, dan hoef je dit niet meer apart te doen. En vervolgens de tuning script vanuit de web-interface te laten bedienen. Dan is spindown netjes geregeld.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Ik gebruik nu een IBM1015 in IT mode en bedoeling is om er straks nog 2x een LSI 9200-16e in IT mode bij te zetten om de JBOD expanders op aan te sluiten. Ga een s met dat spindown aan de gang.
Zou met veel schijven wel handig zijn wanneer spindown ZFS schijjven dan vanuit tuning scripts kan worden ingesteld ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat kan nu al, maar in de toekomst kun je dat allemaal vanuit de web-interface doen ipv /etc/rc.conf. Bovendien werkt het dan automatisch ook voor disks achter speciale controllers.

Op zich is een beetje ervaring met het systeem ook niet slecht. Een configuratiebestand editen in UNIX is een leuke eerste stap voor mensen met weinig ervaring met non-Windows. De filosofie die ik aanhang is dat je de belangrijkste dingen makkelijk werkend krijgt met de web-interface, en dat je daarnaast nog zelf wat kunt rommelen en experimenteren op de shell en voorzichtig je kennis uitbreiden.

Voor zover je dat wilt natuurlijk - ZFSguru is ontwikkeld als appliance dus ook dat je er weinig omkijken naar hebt. Maar de motorkap is niet dichtgelast - je kunt zelf experimenteren en rommelen en dat vind ik ook een grote plus. Je kunt een beetje je eigen leercurve bepalen.

Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 24-09 16:16
Hoe raak ik dit kwijt?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[root@zfsguru ~]# zpool import
   pool: megatron
     id: 15968001314369920076
  state: UNAVAIL
 status: The pool was last accessed by another system.
 action: The pool cannot be imported due to damaged devices or data.
   see: http://illumos.org/msg/ZFS-8000-EY
 config:

    megatron                  UNAVAIL  insufficient replicas
      raidz2-0                UNAVAIL  insufficient replicas
        3696415625357608203   UNAVAIL  cannot open
        256855108142544473    UNAVAIL  cannot open
        9876212926117453952   UNAVAIL  cannot open
        17204388102636442365  UNAVAIL  cannot open
        11609571459009580272  UNAVAIL  cannot open
        14811534167121443723  UNAVAIL  cannot open

[root@zfsguru ~]# zpool import -f megatron
cannot import 'megatron': no such pool or dataset
    Destroy and re-create the pool from
    a backup source.

[root@zfsguru ~]# zpool destroy megatron
cannot open 'megatron': no such pool

De schijven zijn inmiddels gebruikt voor een andere pool.

Acties:
  • 0 Henk 'm!
Zit in je zpool.cache, gok de als je die opnieuw aanmaakt, je oude pool weg is.

[ Voor 57% gewijzigd door FireDrunk op 06-08-2015 16:19 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 24-09 16:16
Hoe doe ik dat?
Pagina: 1 ... 154 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.