Voor mijn storage thuis wil ik iets nieuws gaan bouwen, en ik wil graag gebruik maken van ZFS. Als OS kies ik FreeBSD AMD64, op een dual core AMD3800+ met 3GB ram.
Wat ik in grote lijn wil is: storage met raid5 redundancy die kan groeien.
Na wat experimenteren en proberen ben ik op het volgende uitgekomen:
Met graid5(-pp) maak ik met de eerste 4 1TB schijven een raid5 volume:
graid5 label -v -s 131072 graid5a da0 da1 da2 da3 (mijn os staat op ad0).
Die zet ik dan in een ZFS pool om het makkelijk te beheren en het te kunnen laten groeien:
zpool create bigvol /dev/raid5/graid5a
/bigvol is dan ~3TB groot
Later kan ik dan met nog een set van 4 extra schijven zo'n nieuwe set maken:
graid5 label -v -s 131072 graid5b da4 da5 da6 da7
en die kan in de ZFS pool toegevoegd worden met:
zpool add bigvol /dev/raid5/graid5b
/bigvol is nu ~6TB groot.
Een drive uit een van de graid5 sets vervangen bij defect werkt zonder problemen in simulaties (vmware), ZFS merkt er niets van zolang graid5 genoeg drives in iedere set heeft, maar er kan er dus 1 falen per set.
Ik heb ook alternatieven bekeken natuurlijk. Ik dacht eerst dat het allemaal met ZFS alleen zou moeten kunnen, maar het groei/redundancy aspect gaat dan stuk. Je kan idd heel makkelijk een raidz aanmaken van 4*1TB, maar als je daar later nog een drive bij 'add' dan maakt die niet deel uit van die raidz configuratie, maar staat er los naast. Hij telt wel mee in de storage, maar is dus niet redundant.
Met ZFS een 2e raidz bij een 1e joinen kan ook niet:
vbsd# zpool create tank1 raidz da0 da1 da2 da3
vbsd# zpool create tank2 raidz da4 da5 da6 da7
vbsd# zpool create bigtank tank1
cannot use '/dev/tank1': must be a GEOM provider
Dus, wat vinden jullie van de ZFS / geom_raid5 combo?
Ik weet dat FreeBSD nog wel wat getuned moet worden voor optimaal ZFS etc en dat geom_raid5 nog niet officieel in de release zit, maar ik heb er wel vertrouwen in en wil het proberen.
edit: ik zit behoorlijk verkeerd qua forum zie ik nu.. sorry, er werd zoveel over freebsd, graid5 en zfs gesproken..
Wat ik in grote lijn wil is: storage met raid5 redundancy die kan groeien.
Na wat experimenteren en proberen ben ik op het volgende uitgekomen:
Met graid5(-pp) maak ik met de eerste 4 1TB schijven een raid5 volume:
graid5 label -v -s 131072 graid5a da0 da1 da2 da3 (mijn os staat op ad0).
Die zet ik dan in een ZFS pool om het makkelijk te beheren en het te kunnen laten groeien:
zpool create bigvol /dev/raid5/graid5a
/bigvol is dan ~3TB groot
Later kan ik dan met nog een set van 4 extra schijven zo'n nieuwe set maken:
graid5 label -v -s 131072 graid5b da4 da5 da6 da7
en die kan in de ZFS pool toegevoegd worden met:
zpool add bigvol /dev/raid5/graid5b
/bigvol is nu ~6TB groot.
Een drive uit een van de graid5 sets vervangen bij defect werkt zonder problemen in simulaties (vmware), ZFS merkt er niets van zolang graid5 genoeg drives in iedere set heeft, maar er kan er dus 1 falen per set.
Ik heb ook alternatieven bekeken natuurlijk. Ik dacht eerst dat het allemaal met ZFS alleen zou moeten kunnen, maar het groei/redundancy aspect gaat dan stuk. Je kan idd heel makkelijk een raidz aanmaken van 4*1TB, maar als je daar later nog een drive bij 'add' dan maakt die niet deel uit van die raidz configuratie, maar staat er los naast. Hij telt wel mee in de storage, maar is dus niet redundant.
Met ZFS een 2e raidz bij een 1e joinen kan ook niet:
vbsd# zpool create tank1 raidz da0 da1 da2 da3
vbsd# zpool create tank2 raidz da4 da5 da6 da7
vbsd# zpool create bigtank tank1
cannot use '/dev/tank1': must be a GEOM provider
Dus, wat vinden jullie van de ZFS / geom_raid5 combo?
Ik weet dat FreeBSD nog wel wat getuned moet worden voor optimaal ZFS etc en dat geom_raid5 nog niet officieel in de release zit, maar ik heb er wel vertrouwen in en wil het proberen.
edit: ik zit behoorlijk verkeerd qua forum zie ik nu.. sorry, er werd zoveel over freebsd, graid5 en zfs gesproken..