Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

RAID controller advies

Pagina: 1
Acties:

  • rgs19
  • Registratie: September 2010
  • Laatst online: 14-11-2021
Hallo beste mensen,

Ik ben bezig met het opzetten van een mediaserver waar de hele familie gebruik van kan maken. Ik heb nu zo'n 16TB aan media en in dit groeit dagelijks.

Ik ben van plan dit allemaal RAID 5 of 6 op te slaan voor het geval één van de schijven het besluit op te geven en ik weer opnieuw kan beginnen.

Ik vroeg mij af of jullie mij een RAID controller kunnen aanraden. Elk beetje advies is meer dan welkom!

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 09:24
Iets meer informatie is wel wenselijk.
Wat moet er allemaal gaan draaien op deze server? Windows of Linux als OS?

Met zfs als filesystem heb je bijvoorbeeld helemaal geen raid controller nodig. Zolang je de schijven maar aan kan sluiten.

Ik zou je tevens raid5 af willen raden. Met de schijven van nu duurt een rebuild bij eventueel falen gewoon te lang.
2de tip: backup. Als je niet opnieuw wil beginnen, zorg ook dat je een backup ergens hebt.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

mkroes schreef op woensdag 11 maart 2020 @ 06:44:
Met zfs als filesystem heb je bijvoorbeeld helemaal geen raid controller nodig. Zolang je de schijven maar aan kan sluiten.
[...]
Ik zou je tevens raid5 af willen raden. Met de schijven van nu duurt een rebuild bij eventueel falen gewoon te lang.
Dat valt mee. Zeker bij ZFS hoeft niet de hele disk gerebuild te worden (resilver) maar enkel de data die werkelijk in gebruik is.
Omdat RAIDZ-1 (het ZFS equivalent van RAID-5) in omstandigheden sneller kan zijn en minder verlies oplevert dan een mirror, heb ik thuis mijn 4-disk array in RAIDZ-1 gestopt.
2de tip: backup. Als je niet opnieuw wil beginnen, zorg ook dat je een backup ergens hebt.
Dat is sowieso verstandig inderdaad. Kost wat, maar dan heb je ook wat.
Zelf heb ik dat opgelost met een server buiten de deur. Kost me rond de €35,- per maand ex. aanschaf en afschrijving hardware, maar levert me omdat het mijn eigen server is, in principe onbeperkte opslag op.

Dat is ZFS ook erg leuk: Het kan snapshots maken en die repliceren.
Precies dat mechaniek maak ik gebruik van voor mijn backups, dmv sanoid:
https://github.com/jimsalterjrs/sanoid

Ná Scaoll. - Don’t Panic.


  • thunder7
  • Registratie: Januari 2003
  • Laatst online: 12:36

thunder7

houten vaas/schaal nodig?

Ik zou bijna de 2 tips omdraaien: raid is leuk, maar een backup is essentieel.

Zeker als terugzetten van de backup qua snelheid vergelijkbaar is met het rebuilden van de raid-configuratie na uitval van een schijf.

Pas als je productie draait en een uur uitval handelvol geld kost, begint raid ook echt belangrijk te worden. Een mediaserver kun je best 2 dagen missen, als je daarna je bestanden terughebt.

hout-nerd - www.hetmooistehout.nl of www.houtenschalen.nl


  • Q
  • Registratie: November 1999
  • Laatst online: 10:47

Q

Au Contraire Mon Capitan!

rgs19 schreef op woensdag 11 maart 2020 @ 01:36:
Hallo beste mensen,

Ik ben bezig met het opzetten van een mediaserver waar de hele familie gebruik van kan maken. Ik heb nu zo'n 16TB aan media en in dit groeit dagelijks.

Ik ben van plan dit allemaal RAID 5 of 6 op te slaan voor het geval één van de schijven het besluit op te geven en ik weer opnieuw kan beginnen.

Ik vroeg mij af of jullie mij een RAID controller kunnen aanraden. Elk beetje advies is meer dan welkom!
Wat voor besturingssysteem draai jij en wordt deze machine alleen gebruikt voor opslag of doe je er meer mee?

Opmerking: RAID5 is prima voor kleinere RAID arrays met max 6-7 schijven. Als je de data echt belangrijk vind is RAID6 een veiligere keuze.

Maar backups blijven noodzakelijk, of je neemt een bewust risico (zoals ik dat doe) om geen backups te maken van media.

  • rgs19
  • Registratie: September 2010
  • Laatst online: 14-11-2021
De machine draait Windows 10 en fungeert als NAS voor onze mediacenter.

Momenteel zitten er 5 schijven in: 1 SSD voor de OS en 4 HDD's voor opslag. Ik ben van plan, omdat de boel alweer bijna vol zit, om de schijven te verdubbelen naar 8 stuks. Vandaar dat ik zat te denken aan RAID.

  • mcDavid
  • Registratie: April 2008
  • Laatst online: 30-11 20:25
Ik zou sowieso afraden anno 2020 nog aan RAID te beginnen. Gewoon ZFS draaien. Ik zie sowieso niet in waarom je windows zou gebruiken voor een storage-server, maar als je daar echt niet van af kunt stappen zou ik alsnog een software-raid verkiezen boven een hardware raid-controller. Zo'n controller is namelijk een SPOF en bij ellende daarmee, ben je mogelijk véél verder van huis.

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

rgs19 schreef op woensdag 11 maart 2020 @ 11:49:
De machine draait Windows 10 en fungeert als NAS voor onze mediacenter.

Momenteel zitten er 5 schijven in: 1 SSD voor de OS en 4 HDD's voor opslag. Ik ben van plan, omdat de boel alweer bijna vol zit, om de schijven te verdubbelen naar 8 stuks. Vandaar dat ik zat te denken aan RAID.
Raidcontroller ? zonde van het geld/moeite .. beter "software raid" MDadm (linux) of dynamic disk (windows) gaat je pc kapot kan je de disks overzetten en doordraaien. RAID5/10 tja handig .. je kan zelfs een NAS overwegen

werk eerder met de gedachte --> Backup de data die je het waard vind, de rest ;w opnieuw downloaden ..
16gb is best "veel" ..

Zelfs al zou je een 8 of 16 bay nas (storage) ding kopen, die kan je beter in setjes van 3 a 4 disks segmenteren omdat die goed te recoveren zijn via linux live cd/losse windows install. Dus je winst is niet al te groot.
USB-disk als men perse wil betalen/bewaren ..

Tja vanalles


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

rgs19 schreef op woensdag 11 maart 2020 @ 11:49:
De machine draait Windows 10 en fungeert als NAS voor onze mediacenter.

Momenteel zitten er 5 schijven in: 1 SSD voor de OS en 4 HDD's voor opslag. Ik ben van plan, omdat de boel alweer bijna vol zit, om de schijven te verdubbelen naar 8 stuks. Vandaar dat ik zat te denken aan RAID.
Is dat de énige functie van die server?
Want dan kun je beter een losse NAS aanschaffen of bouwen met een OS dat geschikter is voor dat gebruik.

Als je schijven vol zitten, kun je misschien ook beter gewoon de set vervangen door nieuwe, grotere schijven. Scheelt weer in de stroomkosten. :)

Sowieso is hardware RAID anno 2020 een corner-case. Zelfs grote storage jongens als NetApp doen aan software RAID met een HBA.

Ná Scaoll. - Don’t Panic.


  • rookie no. 1
  • Registratie: Juni 2004
  • Laatst online: 27-11 12:46
Windows 10 heeft ook Storage Spaces, eenvoudig en flexibel.

In elke situatie is een (off site) backup het meest belangrijk.

  • rgs19
  • Registratie: September 2010
  • Laatst online: 14-11-2021
Ja, ik ben al hier en daar aan het rond lezen, informatie inwinnen etc.

Men adviseert inderdaad gewoon alles te backuppen. Het probleem met deze methode (als je het een probleem kunt noemen althans), is dat, net als met RAID 1, ik 2x zoveel schijven moet aanschaffen. Dus als ik straks bijvoorbeeld 24TB aan data heb dan moet ik nog eens 24TB aan schijven er bij kopen als backup/mirror.

Daarom zat ik dus te kijken naar RAID5/6

  • mcDavid
  • Registratie: April 2008
  • Laatst online: 30-11 20:25
De vraag die je je moet stellen is: Hoe kostbaar is de data?

Als een verlies van (een deel van) de data vervelend, maar acceptabel is dan maakt het niet zoveel uit. Is dat verlies onacceptabel, dan MOET je een backup hebben. Ongeacht hoe robuust het origineel opgeslagen is.

Als het een mediaserver met wat films en series betreft, dan kan ik me voorstellen dat die onder de categorie "jammer maar helaas" vallen. Als er ook bijv. de familie-foto's op staan, dan kun je specifiek daarvoor natuurlijk een backup proces inrichten.

Maar deze beslissingen staan eigenlijk volledig los van het wel of niet (en zo wel, welke vorm van) RAID gebruiken.

  • rgs19
  • Registratie: September 2010
  • Laatst online: 14-11-2021
mcDavid schreef op woensdag 11 maart 2020 @ 17:52:
De vraag die je je moet stellen is: Hoe kostbaar is de data?

Als een verlies van (een deel van) de data vervelend, maar acceptabel is dan maakt het niet zoveel uit. Is dat verlies onacceptabel, dan MOET je een backup hebben. Ongeacht hoe robuust het origineel opgeslagen is.

Als het een mediaserver met wat films en series betreft, dan kan ik me voorstellen dat die onder de categorie "jammer maar helaas" vallen. Als er ook bijv. de familie-foto's op staan, dan kun je specifiek daarvoor natuurlijk een backup proces inrichten.

Maar deze beslissingen staan eigenlijk volledig los van het wel of niet (en zo wel, welke vorm van) RAID gebruiken.
Films en series ja. Het is inderdaad een gevalletje zoals jij het net omschreef. Het is geen ramp als ik wat data verlies, ik kan het altijd nog opnieuw downloaden, maar dat is toch heel wat werk nog dus daarom zat ik te denken aan een series schijven in RAID 5/6. Mocht een schijf doodgaan dan ben ik die media niet meteen kwijt. Vandaar.

  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

Wil je alle 8 disks straks met elkaar in 1 RAID array doen?
Want dan moet je alsnog zorgen voor genoeg backup ruimte. Je kan helaas niet onder je data door even wat schijven in RAID zetten. Ze moeten leeg om ze in RAID te kunnen zetten.

Daarbij, ik zou meerdere kleine RAID setjes maken.
Met elke disk die je toevoegt aan het array, gaat je kans op catastrofaal falen exponentieel omhoog.
Je mitigeert dat dan weer met reduntantie, maar daarmee ga je maar 1 macht terug omlaag.
En met tijd (c.q. slijtage) gaat de kans verder omhoog. Ookal gaat er initieel maar 1 disk van je set kapot, zodra die wordt vervangen moet er een rebuild worden gedaan en dat is nogal een aanslag op je schijven. Daar door kan, zeker bij ouderdom, een schijf stuk gaan tijdens je rebuild en dan ben je alsnog je data kwijt.

Het is aan jou om te bepalen wat acceptabel is natuurlijk, maar ik zou een RAID5 set niet groter maken van 4 disks. Dan verlies je 25% van je bruto storage, heb je twee arrays van netto 12TB, samen 24TB.

Verder wat de rest al zegt: een RAID insteekkaart is zonde van je geld.
De hardware van tegenwoordig is snel genoeg om de berekeningen te doen die noodzakelijk zijn voor RAID.
Losse kaarten zijn iets van vroeger, toen de CPU in je PC of server niet snel genoeg was. Er bestond wel software RAID maar dat was tranentrekkend langzaam. Nu kan je het verschil niet eens meer zien, en de CPU loads die het veroorzaakt zijn zo ontzettend laag dat je prima een 20disk RAIDZ2 een 10Gbps lijn vol kan laten knallen terwijl je op dezelfde machine zit te gamen.
Een simpele HBA of een paar losse SATA PCIe kaartjes zijn prima.

[ Voor 23% gewijzigd door McKaamos op 11-03-2020 18:10 ]

Iemand een Tina2 in de aanbieding?


  • mcDavid
  • Registratie: April 2008
  • Laatst online: 30-11 20:25
McKaamos schreef op woensdag 11 maart 2020 @ 18:04:
Daarbij, ik zou meerdere kleine RAID setjes maken.
Met elke disk die je toevoegt aan het array, gaat je kans op catastrofaal falen exponentieel omhoog.
Je mitigeert dat dan weer met reduntantie, maar daarmee ga je maar 1 macht terug omlaag.
En met tijd (c.q. slijtage) gaat de kans verder omhoog. Ookal gaat er initieel maar 1 disk van je set kapot, zodra die wordt vervangen moet er een rebuild worden gedaan en dat is nogal een aanslag op je schijven. Daar door kan, zeker bij ouderdom, een schijf stuk gaan tijdens je rebuild en dan ben je alsnog je data kwijt.
Dit is zeker iets om rekening mee te houden idd. Zeker met de huidige disks van al gauw 8TB of meer, is de kans met een RAID setup nogal aanzienlijk dat je op bitrot stuit tijdens het resilveren. En gezien RAID bij leesfouten geen andere oplossing heeft dan een disk uit de pool te gooien en hopen dat er genoeg pariteit is, heb je in zo'n geval dus helemaal niets meer. Dat valt tot op zekere hoogte te mitigeren door RAID6 ipv RAID5 te kiezen, maar ja dat kost dan weer extra disks (plus dat het natuurlijk totaal niet schaalt).

Vandaar dat je anno nu eigenlijk helemaal geen RAID meer wilt, maar ZFS (of CEPH, maar dat zal overkill zijn). Waarbij het filesystem en de storage layer véél meer geintegreerd zijn, en alléén missende/corrupte data uit pariteit teruggehaald moet worden ipv een hele disk of niets. Plus het voordeel dat je proactief kunt scrubben om data-errors op te sporen vóór het te laat is.

  • Q
  • Registratie: November 1999
  • Laatst online: 10:47

Q

Au Contraire Mon Capitan!

Bitrot is een ‘misverstand’: het gaat om ordinaire bad sectors die we nog van vroeger kennen.

Doe een periodieke patrol read / scrub en dat bad sector risico gedurende een rebuild is erg Klein.

Ik ga zelf mee in het advies om in eerste instantie naar een mooie Synology of QNAP te kijken. Kost wel wat, maar scheelt ook weer veel met zelfbouw ‘gepruts’.

Ik bedoel: wat wil je, sysadmin spelen en je huwelijk op het spel zetten als het zelfbouw frutsel het laat afweten? /einde overdrijving.

Als je dan toch zelf wilt bouwen: Windows met storage spaces is prima. Jij moet problemen kunnen oplossen dus als je beter met Windows bent, prima.

Als je iets verder wilt gaan is FreeNAS een leuke optie maar pas op: Google ‘ZFS hidden cost en lees het artikel’. Disclaimer: wrote it.

Misschien is xpenology nog een optie, of snapraid of unraid.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

mcDavid schreef op woensdag 11 maart 2020 @ 18:32:
[...]
Dit is zeker iets om rekening mee te houden idd. Zeker met de huidige disks van al gauw 8TB of meer, is de kans met een RAID setup nogal aanzienlijk dat je op bitrot stuit tijdens het resilveren. En gezien RAID bij leesfouten geen andere oplossing heeft dan een disk uit de pool te gooien en hopen dat er genoeg pariteit is, heb je in zo'n geval dus helemaal niets meer. Dat valt tot op zekere hoogte te mitigeren door RAID6 ipv RAID5 te kiezen, maar ja dat kost dan weer extra disks (plus dat het natuurlijk totaal niet schaalt).
Zoals @Q zegt, je verwart bitrot met ordinaire bad sectors. Maar bitrot is iets waar net ZFS voor gemaakt is: Het voorkomt het niet, maar dankzij hoe het ontworpen is, voorkomt het wel dat je data kapot gaat. Ik heb zelfs meegemaakt dat een kapotte firmware geen gevolgen had, anders dan dat we zagen dat 'ie bij iedere scrub de fouten herstelde.
Vandaar dat je anno nu eigenlijk helemaal geen RAID meer wilt, maar ZFS (of CEPH, maar dat zal overkill zijn). Waarbij het filesystem en de storage layer véél meer geintegreerd zijn, en alléén missende/corrupte data uit pariteit teruggehaald moet worden ipv een hele disk of niets. Plus het voordeel dat je proactief kunt scrubben om data-errors op te sporen vóór het te laat is.
Dat dus.
Q schreef op woensdag 11 maart 2020 @ 19:03:
Bitrot is een ‘misverstand’: het gaat om ordinaire bad sectors die we nog van vroeger kennen.

Doe een periodieke patrol read / scrub en dat bad sector risico gedurende een rebuild is erg Klein.
Sowieso iets dat je iedere nacht moet doen.
Ik ga zelf mee in het advies om in eerste instantie naar een mooie Synology of QNAP te kijken. Kost wel wat, maar scheelt ook weer veel met zelfbouw ‘gepruts’.

Ik bedoel: wat wil je, sysadmin spelen en je huwelijk op het spel zetten als het zelfbouw frutsel het laat afweten? /einde overdrijving.

Als je dan toch zelf wilt bouwen: Windows met storage spaces is prima. Jij moet problemen kunnen oplossen dus als je beter met Windows bent, prima.

Als je iets verder wilt gaan is FreeNAS een leuke optie maar pas op: Google ‘ZFS hidden cost en lees het artikel’. Disclaimer: wrote it.

Misschien is xpenology nog een optie, of snapraid of unraid.
Dat probleem heb je in principe met ieder RAID systeem en bij ZFS kun je nog vrij makkelijk je disks vervangen, waardoor uiteindelijk alsnog je pool groter word. Dat kan in-place, zonder downtime. Op die manier heb ik mijn colo opgezet en een upgradepad bedacht.

Thuis heb ik 4x5T in RAIDZ-1, op mijn colo heb ik 2x8T in ZFS mirror. Voorlopig is dat genoeg. (Ik backup in principe ál mijn data vanuit huis meerdere keren per dag naar mijn colo.) Mocht ik meer dan 8T netto aan data hebben, koop ik voor de colo 2 grotere disks, vervang de 8T's en gaan de 8T's naar huis om aangevuld te worden met 2 extra 8T's. Ga ik opeens thuis van iets meer dan 15T netto (prior to compression) naar 24T netto.

Hoe dan ook, ik zie dit niet als hidden cost, maar als gevolg van een professioneel systeem waarbij planning essentieel is. In een bedrijf plan je in de regel altijd meerdere jaren vooruit (en zit je dus inderdaad als het goed is met overcapaciteit voor een paar jaar), privé vind ik het ook zinvol dat te doen. Al was het alleen al omdat bijvoorbeeld op dit moment de prijs van 8T schijven per T relatief laag licht ten opzichte van 8T schijven. Het kan wel eens interessanter zijn nu te investeren in grotere schijven, ook al is dat op de groei, dan nu investeren in kleinere schijven die netto goedkoper zijn maar per T duurder, waardoor alsnog over 3-5 jaar een investering in grotere schijven interessanter kan zijn.

Verder met je eens, je moet iets bouwen waar je je comfortabel bij voelt en dat past bij wat je thuis wil en kunt.

Zelf heb ik mijn FreeNAS machine met 2 Proxmox hypervisors vervangen door één zelfbouw Proxmox machine met local storage. Scheelt flink in de stroomkosten. Al moet ik nog eens het OS tunen om de machine nog wat zuiniger te krijgen zonder qua performance in te leveren. Zie deze opmerkig van @CurlyMo: CurlyMo in "Het grote zuinige server topic - deel 2"

Misschien voor TS te far-fetched gezien ik 'm niet heb gehoord over de behoefte van thuis iets anders hebben dan een NAS, maar het is een van de mogelijkheden voor zo'n setup die wel vrij flexibel is.

Ná Scaoll. - Don’t Panic.


  • Q
  • Registratie: November 1999
  • Laatst online: 10:47

Q

Au Contraire Mon Capitan!

unezra schreef op donderdag 12 maart 2020 @ 09:32:
[...]

Misschien voor TS te far-fetched gezien ik 'm niet heb gehoord over de behoefte van thuis iets anders hebben dan een NAS, maar het is een van de mogelijkheden voor zo'n setup die wel vrij flexibel is.
Ik denk zelf dat dit verhaal voor TS ff een brug of twee te ver is qua techniek en kennis.

Ik denk ook dat het eigenlijk ook in dit geval ZFS niet een echt passend advies zou zijn, juist vanwege de hidden cost. Dat mensen zoals ik zelf die cost willen betalen maakt het nog geen passende oplossing voor iedereen.

Om duidelijk te zijn: ik denk eigenlijk dat de TS niet eens slecht af zou zijn met een 8-poorts RAID controller. Iets van arcea of lsi of 3ware is prima.

Ps: patrol reads / scrubs hoef je echt niet dagelijks te draaien. Eens per maand is prima (default voor MDADM) en op een productie mkb SAN was de default 2 wekelijks.

De grap is dat ZFS out-of-the-box per default geen scrubs doet naar mijn weten! Iets om op te letten.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

Q schreef op donderdag 12 maart 2020 @ 10:52:
[...]
Ik denk zelf dat dit verhaal voor TS ff een brug of twee te ver is qua techniek en kennis.

Ik denk ook dat het eigenlijk ook in dit geval ZFS niet een echt passend advies zou zijn, juist vanwege de hidden cost. Dat mensen zoals ik zelf die cost willen betalen maakt het nog geen passende oplossing voor iedereen.
Ik ben het dus niet eens met de term "hidden cost".

Je hebt het over planning en overcapaciteit, dat heeft niets te maken met hidden cost. In een bedrijf word het ook niet als hidden cost gezien dat je overcapaciteit in koopt die je pas verwacht na 3 jaar nodig te hebben. Als je overcapaciteit beschouwt als hidden cost, heb je ook bij de meest simpele PC een groot deel hidden costs, omdat praktisch iedere PC overgedimensioneerd is, in alle opzichten.
Om duidelijk te zijn: ik denk eigenlijk dat de TS niet eens slecht af zou zijn met een 8-poorts RAID controller. Iets van arcea of lsi of 3ware is prima.
Gatverdamme.
Nee.

Als TS er weinig werk aan wil hebben en geen zin heeft in nieuwe techniek: Gewoon de shit op enkele disks op W10 zetten en zorgen voor goede, al dan niet automatische, offsite, backups.

Zo'n RAID controller is duur zat en voegt helemaal niets toe in dit geval. TS geeft geld uit aan iets dat 'ie veel beter en goedkoper op een andere manier op kan lossen. Zelfs een losse disk in een caddy om periodiek backups op te maken is een betere investering dan een RAID controller.

Thuis een RAID controller gebruiken is in mijn beleving eigenlijk nooit nuttig. Zelfs in bedrijven is het iets dat steeds minder nut heeft. (Ik heb het wel specifiek over een RAID controller, niet over een HBA. Een HBA kan in gevallen nuttig zijn, maar alleen als je mainboard te weinig SATA poorten heeft of je een server chassis gebruikt met een backplane en iets van een SFF 8087 connector.
Ps: patrol reads / scrubs hoef je echt niet dagelijks te draaien. Eens per maand is prima (default voor MDADM) en op een productie mkb SAN was de default 2 wekelijks.

De grap is dat ZFS out-of-the-box per default geen scrubs doet naar mijn weten! Iets om op te letten.
Fair enough, iedere dag is niet noodzakelijk (even worse, niet aan te raden) maar periodiek is wel nuttig.
Even gekeken hoe Proxmox dit default heeft staan:

code:
1
2
# Scrub the second Sunday of every month.
24 0 8-14 * * root [ $(date +\%w) -eq 0 ] && [ -x /usr/lib/zfs-linux/scrub ] && /usr/lib/zfs-linux/scrub


Die doet het dus iedere maand.

Ik weet niet in hoeverre Linux default scrubs doet als je de zfs packages installeerd, ik gebruik het eigenlijk alleen vanuit PVE. (En heb het vanuit FreeNAS gebruikt.) PVE installeert het standaard, je kunt / op ZFS installeren.

Ná Scaoll. - Don’t Panic.


  • Shunt
  • Registratie: Augustus 2001
  • Nu online

Shunt

Boe

Kijk vooral ook even goed wat je verwacht te gaan groeien in de toekomst.
Als je graag je aray wilt uitbreiden is ZFS niet echt geweldig aangezien je dan zoals ik het begrijp een nieuwe array moet maken waar je ook weer een disk kwijt gaat zijn aan parity. En voor een thuis toepassing is in mijn nederige mening ZFS + de hardware vereisten totaal overkill. Als je echt nuttig gebruik wilt maken van alle functies moet je ook naar ECC geheugen. Plus ik blijf van mening dat zolang de mutaties van de files niet op je systeem met ECC geheugen plaats vind het risico van corruptie veel hoger is op een random laptop of computer maar dat is een andere discussie.

Het nadeel van Microsoft storage spaces is dat het meer ruimte kwijt raakt als alleen een parity disk.
Aangezien het gaat om long term storage zou ik zelf ook eens kijken naar alternatieven als Unraid (gebruik ik zelf) Dat is wel betaald maar je kunt dan simpelweg gewoon bij schalen met nieuwe schijven zolang ze maar even groot of kleiner zijn als de parity. Je hebt meteen een Docker en een virtualisatie host. ( je kunt dus al je download tools en media management tools daarop daarin inclusief dingen als plex)

Geen dure raid controllers nodig en het draait op nagenoeg alle hardware (wel zou ik persoonlijk een 9th gen Intel cpu aanraden als je ook plex wilt gaan draaien met hardare transcoding.

Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"


  • Q
  • Registratie: November 1999
  • Laatst online: 10:47

Q

Au Contraire Mon Capitan!

unezra schreef op donderdag 12 maart 2020 @ 11:05:
[...]


Ik ben het dus niet eens met de term "hidden cost".

Je hebt het over planning en overcapaciteit, dat heeft niets te maken met hidden cost. In een bedrijf word het ook niet als hidden cost gezien dat je overcapaciteit in koopt die je pas verwacht na 3 jaar nodig te hebben. Als je overcapaciteit beschouwt als hidden cost, heb je ook bij de meest simpele PC een groot deel hidden costs, omdat praktisch iedere PC overgedimensioneerd is, in alle opzichten.
Ik begrijp je punt, Ik denk dat je de 'hidden cost' even in context 'moet' bekijken. De context is een reguliere MDADM of RAID controller RAID configuratie. Dan kun je gewoon losse extra schijven toevoegen om de capaciteit uit te breiden.

Dat kan met iedere synology / qnap. Schijf er bij en capaciteit er bij. Paar uurtjes de array 'growen' en klaar.

Dit kan *niet* met ZFS. Als je een RAID5 met 4 disks draait wordt je effectief gedwongen om weer een RAID5 met 3+ disks toe te voegen.
Ook al had je maar de capaciteit van 1 extra disk nodig.

Dit zie ik voor heel veel thuisgebruikers als een fundamenteel nadeel, want een reguliere NAS, MDADM of hardware RAID controller kan dit wel.
[...]


Gatverdamme.
Nee.
Het werkt al 40 jaar en het werkt nog steeds prima. Als ik zo in de pricewatch kijk is het grote probleem dat je voor de prijs van een enkele controller al een NAS kunt kopen. Dus niet de techniek, maar de prijs is het probleem.

Maargoed, dit is wel ironisch dat ik dit heb geschreven:

https://louwrentius.com/d...troller-for-home-use.html

Ik sta er wel achter, maar veel mensen moeten niet aan een zelf-bouw oplossing beginnen, een Synlogy of QNAP is voor hun een veel fijnere situatie.
Thuis een RAID controller gebruiken is in mijn beleving eigenlijk nooit nuttig. Zelfs in bedrijven is het iets dat steeds minder nut heeft. (Ik heb het wel specifiek over een RAID controller, niet over een HBA. Een HBA kan in gevallen nuttig zijn, maar alleen als je mainboard te weinig SATA poorten heeft of je een server chassis gebruikt met een backplane en iets van een SFF 8087 connector.
Als je nog niet 100% cloud native bent ;) dan gebruik je misschien nog RAID1 voor je bare metal compute nodes. Maar alle storage zit op het SAN. Die doet ook een RAID maar op een hele andere manier, met pools van 100+ disks. Niet iets voor thuis. Of op VSAN (brr)

In die zin ben ik het met je eens: hardware RAID is niet meer relevant, zelfs niet op het werk. Vaak werkt daar een software RAID1 ook prima.

En notabene ikzelf ben van de HBA's, MDADM en CEPH. Maar voor de gewone thuisgebruiker niet relevant.
Fair enough, iedere dag is niet noodzakelijk (even worse, niet aan te raden) maar periodiek is wel nuttig.
Even gekeken hoe Proxmox dit default heeft staan:

code:
1
2
# Scrub the second Sunday of every month.
24 0 8-14 * * root [ $(date +\%w) -eq 0 ] && [ -x /usr/lib/zfs-linux/scrub ] && /usr/lib/zfs-linux/scrub


Die doet het dus iedere maand.

Ik weet niet in hoeverre Linux default scrubs doet als je de zfs packages installeerd, ik gebruik het eigenlijk alleen vanuit PVE. (En heb het vanuit FreeNAS gebruikt.) PVE installeert het standaard, je kunt / op ZFS installeren.
Ik heb niet gekeken wat anno 2020 ZFS op Linux doet, mijn ervaring is van 8 jaar terug, wie weet dat het nu wel aan staat.
Pagina: 1