sdk1985 schreef op vrijdag 7 juli 2017 @ 21:32:
[...]
Klopt. Is ver
der ook niet zo relevant. Het achterliggen
de doel is het veiligstellen van je data. ZFS is daar een tool van. Een tool die overigens in theorie ook weer te combineren is met snapraid.
Ik vind het in zoverre relevant dat door het al te creatief oprekken van termen, mensen die niet of nauwelijks bekend zijn met
de werkelijke en oorspronkelijke
definitie in verwarring wor
den gebracht.
Ik zie dat bij OwnCloud gebeuren maar ook bij VPN. Hoe vaak ik niet uit
de context moet opmaken welk type VPN mensen bedoelen als ze vragen om "welke VPN moet ik gebruiken". Ik antwoord standaard met dingen als "OpenVPN" maar dat blijken ze dan toch weer niet te bedoelen.
Same shit for OwnCloud. "Ik heb mijn eigen cloud" en dan hebben mensen OwnCloud op een PC thuis die dienst doet als server gezet en een portforward in hun firewall aangemaakt zodat ze er van buitenaf bij kunnen.
Daarom vind ik het ook raar dat SnapRAID zichzelf SnapRAID noemt terwijl het geen reet (RAID)

met RAID te maken heeft. Bij RAID gaat het dui
delijk om een Array en "je data synchen naar een an
dere fysieke lokatie" heeft weinig met een array te maken.
[...]
Vermoed dat de meeste thuis NAS geen realtime data verwerken maar dat dit schoksgewijs gaat (foto's, video's, tv series, backups van computers, enz). Je kunt overigens ook prima 10x per dag een sync draaien als je dat zou willen.
Tuurlijk, maar ik zie dan niet echt een voor
deel ten opzichte van zeg ZFS waarbij je via zfs send je data ook op een an
dere plek kunt zetten. Ok, dat is wel naar een an
dere machine en niet naar willekeurige disks op
dezelf
de machine.
[...]
Nou nee want je kunt ook beginnen met 3 disks en 1 pariteit schijf en dan upgraden naar 6 disks met 1 pariteit schijf (zie ook voorbeeld onder). Deze schijven kunnen bovendien elke schijf zijn die je toevallig nog hebt liggen of in een ander systeem hebt zitten. Toen ik mijn NAS ging vernieuwen vorige zomer heb ik alleen 2 8 TB schijven aangeschaft en de rest (totaal boven de 20 TB) was er allemaal al. Als ik dit met ZFS had willen bewerkstelligen had ik een paar duizend euro moeten investeren (alles vervangen door 8 TB schijven of evt een stapje lager met 6 TB). Dat werd me wat te dol voor een thuis nas.
Ook dalen de kosten per GB over tijd waardoor je totale investering lager uitvalt. Circa 275 euro voor 8 TB, daar hadden we in 2011 nog niet op gerekend. Hoe langer je wacht, des te goedkoper het wordt.
Of een 3x4T array gebouwd en als die vol was geweest, een 2e 3x4T array. Je hebt niet snel een aaneengesloten block van meer
dere T's nodig. Ook zou je als je 3x4T vol raakt, dat spul online kunnen vervangen door 3x6T of 3x8T. Het enige dat je niet kunt is het aantal disks in
de array veran
deren en d'r an
dere willekeurige disks aan hangen die je al in huis hebt.
[...]
Zo even een paar redenen
-opstart kosten
Wanneer ik voor ZFS gekozen had dan was mijn eerste investering al hoger. Immers dat vereist 4 nieuwe 6 TB schijven zonder SMR. Dat zijn dus niet alleen meer nieuwe schijven maar ook duurdere schijven. Zo even uit het hoofd heb ik 880 euro aan schijven gekocht voor 16 TB + Parity + 8 TB aan losse disks. Een ZFS van 6 TB had me op dat moment 1100 aan schijven gekost en dan was het netto 14 TB geworden. ECC laat ik dan even achterwege.
-upgrade kosten
Als ik met mijn 20 TB snapraid morgen ruimte tekort heb dan kan ik 8 TB extra plaatsen voor minder dan 230 euro.
Bij ZFS zou ik dan moeten gaan upgraden van 4x 6 TB naar 4x 8 TB. Dat kost me dan 4x 265= 1060 euro. Dat is 5x meer... Dan moet je daarna nog maar hopen dat je de oude 4x 6 TB nog ergens kwijt kunt (V&A, 150 per stuk?).
Alles wat je noemt zijn verschillen van SnapRAID ten opzichte van ongeveer alles dat klassieke RAID levels aan bied of iets dat daar op lijkt. Het is zijn geen verschillen van van SnapRAID ten opzichte van ZFS specifiek.
Maar goed, je hebt gelijk dat je d'r met SnapRAID makkelijker even een willekeurige disk aan kunt toevoegen en daarmee kosten kunt besparen. Yet, hoe gaat SnapRAID om met als je disks vol raken? Slaat het zijn parity informatie over meer
dere disks op, of heb je specifieke parity disks waar je parity data op is geslagen? Ofwel, lijkt het meer op RAID-5 of lijkt het meer op RAID-4? (
http://www.acnc.com/raidedu/4)
Aan
de an
dere kant, in mijn beleving is het grote verschil vooral dat als je een klassieke RAID setup pakt (of ZFS), je meer moet plannen en uitbreidingen meer schoksgewijs gaan. Je bouwt een array, dan heb je een hele tijd geen kosten, dan loopt je array vol en dan vervang je die disks of je zet er een 2e array naast. Dat zijn kosten die dan opeens fors hoog zijn, maar ook kosten die je jaren niet hebt. Je koopt niet ie
der jaar een diskje er bij, je koopt 5 jaar geen disks en dan opeens 3 of 4.
-Verbruik
Zoals gezegd wanneer je 1 file nodig hebt gaat bij ZFS alles spinnen.
Ook dat is geen voor ZFS unieke eigenschap.

-Levensduur
Schijven blijven mechanische dingen dus als jij een schijf hebt met al je ou
de 'rommel' dan staat die schijf vooral stil en gaat hij alleen aan voor
de sync. Zo heb ik er nog een 7200.11 3 TB in gebruik met 35.000 uren. Nu draait hij echter vrijwel geen uren meer. In mijn ervaring kun je dan erg lang doen met schijven. Ik heb nog ergens 2x 40 GB IBM raid 0 die het
de laatste keer dat ik keek nog
deden

.
De levensduur van een schijf neemt af als 'ie veel spindown krijgt en opstarten kost relatief veel stroom. In the end zou het wel eens duur
der kunnen zijn je disks regelmatig te downspinnen dan ze te laten draaien omdat je disks eer
der aan vervanging toe zijn en tij
dens opstarten vrij veel stroom vreten.
Draaiuren zijn niet zo spannend, aantal start-stop cycles wel.
-Datarecovery
Losse schijven buiten raid kunnen in mijn ervaring goed worden recovered. Met ZFS is dat zo ver ik weet niet mogelijk. Mocht ik het mis hebben dan hoor ik het graag.
Ik
denk dat je daar in
derdaad zeker gelijk in kunt hebben. Voor disaster recovery heb je dan normaliter ook offsite backups en backup naar tape. Ok, dat laatste in een privé situatie waarschijnlijk niet, maar in een bedrijfssituatie zeker.
SnapRAID lijkt 100% toegespitst op privé (hobbymatig) gebruik. In een bedrijf zou ik het met wat je verteld en wat ik gelezen heb niet willen tegen komen. Op
de eoa manier heb ik daar nooit zulke warme gevoelens bij en gebruik ik liever technieken die ook bedrijfsmatig wor
den ingezet.
Dat zijn aardig wat op en aanmerkingen waar verder weinig tegenover staat. Uniek aan ZFS was natuurlijk de bitrot bescherming. Maar daar heb je geen ZFS meer voor nodig.
ZFS is volgens mij juist re
delijk uniek in zijn bitrot bescherming. Misschien dat btrfs het kan, maar dan houd het ook wel zo'n beetje op.
ZFS is primair bedoeld om dataverlies te voorkomen maar ze hebben ook mechanismen ingebouwd waardoor ZFS, met
de juiste vormen van read- en write caching, bloed en bloed snel is. Dat is wel een eigenschap van ZFS specifiek en een van
de re
denen waarom ZFS om optimaal te performen wat meer geheugen wil hebben. Het word er sneller door omdat het, veel meer dan bijvoorbeeld mdadm, cached in geheugen.
Qua ECC, dat is nauwelijks duur
der dan non-ECC dus vind ik niet cht een argument.
2green schreef op vrijdag 7 juli 2017 @ 21:35:
[...]
RAID stond toch voor een Redundant Array of In
dependable Disks? Is eigenlijk precies wat snapRAID doet, daarnaast meeliften of een beken
de metho
de (verzamel)naam is ook geen verkeer
de marketing.
Je mag kiezen:
- Redundant Array of Independant Disks
- Redundant Array of Inexpensive Disks
Ik meen zelfs dat "Inexpensive"
de oorspronkelijke
definitie was omdat met RAID, relatief goedkope disks gebruikt kon
den wor
den.

RAID is eigenlijk wel weer een hele foute naam voor raid 0... niet bepaald redundant toch?

RAID0 is net zo'n foute term als SnapRAID. Het heeft bei
den niets met RAID te maken. (RAID0 nog min
der, omdat het juist
de kans op dataverlies met 100% doet toenemen in plaats van afnemen, terwijl alle an
dere RAID levels er op geeent zijn
de kans op dataverlies af te laten nemen en in sommige gevallen, ook een stuk snelheid toe te voegen zoals RAID1, RAID10, RAID0+1, RAID50, etc.)
OwnCloud net zo, een cloud is een cloud... resources/data dat beschikbaar gesteld wordt aan andere apparaten, maakt toch niet als als beide apparaten toevallig jouw eigendom zijn? Beetje lastig voor de eigenaar van een cloud service verlener: "zetten jullie mijn data in de cloud? want ik kan het alleen op mijn servertjes zetten?".
Er is niet echt een vaste
definitie van cloud, maar een minimale vereiste is toch wel zo'n beetje dat je data in een datacenter staat en vooral, dat
de on
derliggen
de infrastructuur niet on
der jouw eigen beheer is.
Ik heb ooit wel eens iemand horen roepen dat
de servers die ik work-wise in een datacenter heb hangen "private cloud" zijn. Not really. Dat noemen we "colocation", want het zijn immers onze eigen servers en we huren rackspace, stroom en internet toegang. Dat we vervolgens
delen van die infra aan het internet hangen doet er niet toe.
OwnCloud word ook pas cloud als je het als dienst af neemt maar dan is
de software OwnCloud geen cloud as-such, maar neem je een cloud dienst af en toevallig heet het product "OwnCloud". Als je dat op je eigen servertje thuis zet en een portforward maakt is het geen cloud. (Yet, als je die OwnCloud installatie voor an
deren ontsluit en ZIJ kunnen er gebruik van maken, zou je met wat creativiteit wel weer kunnen stellen dat je cloud provi
der bent gewor
den en cloud diensten aan bied.)
Ná Scaoll. - Don’t Panic.