Ik moet zeggen, ik zie door de bomen een beetje het bos niet meer, en ik kan ook met heel wat googlen niet echt concrete antwoorden vinden dus ik hoop dat jullie me een beetje op weg kunnen helpen.
Ter info, ik heb op dit moment nog géén NAS, ben me dus nog aan het orienteren op wat ik wil gaan starten zodat ik in 1 klap de goede start maak mét voldoende toekomstige upgrade mogelijkheden.
RAID5/6 wordt overal afgeraden omdat het ontzettend veel tijd kost om een array met disks met veel TB's te repairen en dus je risico erg groot wordt dat er tijdens een repair fouten optreden en je alsnog je hele array verloren bent. Zodoende ben ik via een vriend op ZFS uitgekomen en ben ik me hier op gaan orienteren.
Wat ik heb liggen thuis, 2x WD Red 3TB en 2x WD Red 4TB. de 3TB's zijn ongebruikt, de 4TB's staan beide vol. Op dit moment dus een 8TB aan data die bij een schijfcrash letterlijk weg is. Zodoende dus ook steeds meer de neiging om een goed (zelfbouw) NAS in te richten.
Aangezien ZFS geen Online Capacity Expansion kent was mijn intiele plan om 1x een 3TB en 1x 4TB disk erbij te kopen, 2 diskpools te maken. Starten met 3x 3TB in één RAID-Z1 (dus 6TB beschikbaar), dan de data van de 4TB's kopieren naar de NAS en andere externe disks die ik heb liggen. Dan van de 3x 4TB een 2de RAID-Z1 diskpool maken (dus 8TB beschikbaar) en dán de beide diskpools aan elkaar knopen zodat er 1 grote 14TB set beschikbaar was als NAS. Immers, tijdens de initialisatie van een diskpool wordt alle data verwijderd en dus was mijn idee om het in 2 stappen te doen.
Voor mijn gevoel waren de voordelen als volgt:
- Meer disks, dus hogere performance met schrijven
- 2 parity disks, dus technisch gezien mogen 2 schijven crashen (mits ze uit 2 diskpools komen, als 2 schijven uit 1 diskpool crashen ben k alsnog de sjaak en is alle 14TB verloren), een soort van RAID-Z1½ dus...
- 1 grote dataset in plaats van 2 kleinere waarover ik zelf de data zou gaan verdelen.
Nadeel:
- bij een volgende (replacement) upgrade zou ik automatisch weer 3x 4TB moeten kopen, en dan kom ik op 16TB beschikbare ruimte uit. (6TB en 8TB zijn op t moment veel te duur, en ik verwacht niet dat die veel zullen gaan dalen in prijs), wat me bij de volgende situatie bracht....
Alternatief zat ik te twijfelen om 3x WD Red 4TB bij te kopen, en dan een 5-disk RAID-Z1 array te maken met als totaal 16TB ruimte.
Nadelen t.o.v. eerdere configuratie:
- Initieel (marginaal) duurder dan eerder genoemde configuratie
- 1 parity disk, dus bij 2 disk crashes is écht alles weg
Voordelen
- "Maar" 5 disks in plaats van 6, dus eventueel ruimte om een SSD als caching toe te voegen aan het array (uitgaande van een 6 SATA mobo)?
- Meer effectieve opslag ruimte (16TB vs 14TB).
- 2x 3TB Red's 'over', met als gevolg dat ik daar nog kritische data op zou kunnen backuppen (Foto's bv) en die op 2 geolocaties kan bewaren.
- Met het upgradepad van de eerste optie in het achterhoofd is dit op lange termijn goedkoper mocht ik de 14TB vol krijgen.
Opvolgend ben ik op zoek gegaan naar ZFS Reliability calculators online om te bepalen wat hierin wijsheid was. Immers, je wil een zo efficient mogelijke reliability - schijfruimte - kosten verdeling. Helaas is hier niks van te vinden online, de calculators die ik vind hebben allen slechts de mogelijkheid om 1 diskpool aan te maken en dáár de reliability van te berekenen. En ik heb er een flink aantal gezocht... heb ook een Excel sheet gevonden, maar daar werd ik niet heel erg wijs uit.
Ik loop dus een beetje vast en vind ik meer vragen dan antwoorden. Voor ik dus nóg verder ga en nóg meer vragen dan antwoorden ga krijgen wil ik hier om wat ervaringsdeskundigen vragen.
- Kloppen mijn aannames, voor- en nadelen? En dan met name ook m.b.t. de 2 parity disks en de meer redundantie bij mijn 1ste oplossing? Of heft het koppelen van de diskpools dit weer op?
- Wat zou de voorkeur hebben? En nog veel belangrijker waarom?
- Is het stripen van een diskpool überhaupt mogelijk met behoud van data?
- Is er een mogelijkheid om de data te verdelen nadat de pools gekoppeld zijn? Ik las wel dat je een map kon kopieren binnen het array, dan zou de nieuwe variant verdeeld worden binnen het array, en dan de oorspronkelijke (niet verdeelde) map verwijderen.
Ik hoop dat jullie me op gang kunnen helpen en ik een goeie start kan maken als ik met een NAS ga beginnen
Het NAS is voor thuisgebruik en het maakt dus niet uit als ik bij een disk crash 1 dag tijd kwijt ben om mijn array op te bouwen. Immers, als tijd een issue was, dan zou RAID10 met 8x 4TB disks de voorkeur genieten om op de 16TB uit te komen.