Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Core i3 en pentium en celeron doen vaak ook ECC, i5 en i7 niet

[ Voor 9% gewijzigd door Q op 10-12-2016 08:20 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 20:19
Beetje wat hardware bij elkaar aan het sprokkelen om een niet al te dure 4-bay + 2x SSD NAS/Homeserver te maken, mobo en PSU ontbrak nog rest is ergens vandaan geplukt. Eigenlijk is alles rond, nu alleen nog in dubio over de software.

Kortweg de hardware:
#ProductPrijsSubtotaal
1Intel Core i5 2500 Boxed€ 0,-€ 0,-
1Asus P8H77-M Pro€ 0,-€ 0,-
3Seagate Desktop HDD, 3TB€ 96,90€ 290,70
1be quiet! Pure Rock€ 29,-€ 29,-
4Kingston KVR13N9S8/4€ 19,90€ 79,60
1be quiet! Pure Power 9 400W CM€ 58,95€ 58,95
2Samsung 830 series SSD 128GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 458,25


Hier omheen een ATX kast met voldoende (stille) koeling en een Silverstone 4-bay hotswap bay. Nou ben ik nog niet helemaal tevreden met de HDD configuratie maar dit heb ik liggen en wil ik nu mee starten. Plan is om het te vervangen door 4x5TB WD Red als die wat in prijs zakken.

Ik wil eigenlijk het volgende, als eerste een redundanty systeem voor de data, dat is uiteraard een vereiste in een NAS. Als 2e een systeem om series te verkrijgen, video bestanden converteren voor Premiere Pro (nachtwerk en geen haast bij) en sharing (SMB).

Op dit moment neig ik naar een UnRAID installatie, waarbij 1 core voor Unraid zal worden en de 3 andere cores voor Windows Server 2016 (VL key via MSDN van de zaak). De 2 SSD's als SSD cache en de 3 schijven in 1 parity mode. Vergelijkbaar met RAID5 dus.

Andere systemen zoals FreeNAS zijn qua redundancy vergelijkbaar met UnRAID zo ver ik kan zien maar dit laat geen VM's toe. Ik wil graag de flexibiliteit van Windows Server kunnen gebruiken, een Synology DSM of freeware tegenhanger vind ik net even wat te beperkt, ik wil namelijk ook een stukje x86 eigen software op de server gaan draaien/hosten.

Hebben jullie nog tips in welke richting ik ook zou kunnen kijken? Een hardware RAID kaart vind ik op dit moment te kostig dus graag een goede software alternatief zonder Intel RAID. Windows Server schijnt met disk pools ook een vergelijkbaar systeem te hebben maar daar lees ik nogal slechte verhalen over.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Verwijderd schreef op vrijdag 9 december 2016 @ 19:20:
Precies dus er staat:

[...]

UDIMM = Unbuffered, dus NIET registered! Dat is RDIMM.

Hoe het precies zit met CPU ECC ondersteuning weet ik niet; wel dat je volgens mij een server-chipset moet hebben. Maar dat weten anderen beter dan ik. :)
Precies :) . UDIMM. Daarom heb ik gekozen voor dit geheugen https://tweakers.net/pricewatch/499817/kingston-valueram-kvr21e15d8-8ha/specificaties/. Ik lees dat het qua functionaliteit niet veel uit maakt of je nu RDIMM of UDIMM gebruikt.

Ik zou graag wat meer horen over die specifieke ECC support combi tussen het moederbord en de G3900 CPU :)

[ Voor 12% gewijzigd door Beninho op 09-12-2016 19:58 ]

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

Verwijderd

Geheugen is inderdaad goed. Dan gaat het inderdaad nog om CPU/Chipset/Mobo ondersteuning. Want ook je BIOS kan roet in het eten gooien. Kortom, je moederbord (en daarmee chipset) moet het ook ondersteunen.

Ingewikkeld wordt het dat 'ondersteuning' soms betekent dat het wel werkt, maar dat je geen ECC bescherming hebt. ECC UDIMM werkt dan alsof je non-ECC UDIMM had gebruikt. Kortom, dan heb je nog steeds geen ECC; het is enkel dat ECC geheugen wel bruikbaar is als non-ECC. Dat wil je natuurlijk niet.

Dus het is goed om vast te stellen dat je daadwerkelijk over ECC kunt beschikken met een bepaalde moederbord/chipset/CPU-combinatie. Daar durf ik zelf geen zekerheid over te geven; anderen weten hier wellicht meer over te vertellen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Beninho schreef op vrijdag 9 december 2016 @ 17:08:
Top. Het wordt de G360 :) Thanks voor de feedback.
Die voeding is niet meer te koop en komt denk ik ook niet meer te koop.

Maar de pricewatch: Cooler Master V Series V550 heeft zo'n hoog rendement bij lage belastingen dat je het prijsverschil na iets van 5 jaar terug verdient.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • n3ck
  • Registratie: Mei 2002
  • Laatst online: 24-07 19:47
Met veel plezier lees ik nu al een tijdje mee in dit topic en heb besloten ook mijn voorstel te posten.

Situatie
Op dit moment wordt de NAS vnl gebruikt voor downloads en opslag van foto's. In de huidige configuratie is de NAS geconfigureed als JBOD; in die configuratie worden de foto's snachts gerepliceerd van schijf 1 naar 2 en vervolgens van schijf 2 richting de cloud gebackupped (STACK). Dat werkt opzich prima; in de nieuwe situatie zou ik dat dus ook wel weer willen (dat de downloads een keertje verdwijnen kan ik mee leven). Waar echter het puntje van aandacht komt zijn de schijven. Schijf 1 is volgens mij al 5 jaar oud en schijf 2 is rond de 2 jaar. Vooral de eerste zit dus redelijk richting end of life schat ik in.

Waar ik nu ook tegenaan loop is dat mijn "reguliere" fotobackup google vol begint te raken met een iPhone5, een S6 en een fotocamera met 25MP. Die opslag daar is vrij prijzig; om daar 1TB te nemen vind ik duur.. uiteindelijk wil ik daar dus wat anders mee.

Upgradereden
Zoals gezegd dus:
- End of life van de harde schijf
- Prijs van cloudopslag bij google

Waar ik nu aan zit te denken is het volgende. Een systeem waarop ik de foto's van de telefoons op zet. Tegenwoordig maken we veel films met onze kleine.. dus de mediaoplossing van QNAP kan, maar ik heb dat al eens geprobeerd; het transcoden duurt VEEL te lang. Uiteindelijk denk ik dus dat die oplossing een stuk beter wordt op het moment dat er een fatsoenlijk stukje hardware staat. Software wordt dan iets als http://piwigo.org/. Wat ik samengesteld heb is dit:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 55,95€ 55,95
1Gigabyte GA-X150M-PRO ECC€ 102,85€ 102,85
1WD Red WD40EFRX, 4TB€ 157,91€ 157,91
1Cooler Master Elite 342€ 30,95€ 30,95
1Kingston ValueRAM KVR21E15D8/8HA€ 58,73€ 58,73
1Seasonic G-series 360 watt€ 63,95€ 63,95
Bekijk collectie
Importeer producten
Totaal€ 470,34


Ik zou daar vervolgens openmediavault op zetten.. en eigenlijk dezelfde JBOD configuratie op neerzetten. Reden van de extra schijf is dat ik de schijven in de NAS makkelijk kan backuppen naar deze en ze vervolgens in de nieuwe pc kan zetten.

Dit klinkt mij allemaal vrij logisch in de oren, maar dit is voor mij niet "standaard" kost. Waar ik dus benieuwd naar ben is: wat zouden jullie doen

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:17
Waarom ecc geheugen met bijpassend duurder moederbord als je geen zfs (freenas) gaat draaien maar openmediavault ?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
n3ck schreef op zondag 11 december 2016 @ 14:56:

Dit klinkt mij allemaal vrij logisch in de oren, maar dit is voor mij niet "standaard" kost. Waar ik dus benieuwd naar ben is: wat zouden jullie doen
Waarschijnlijk goedkoper en voldoet aan wat je wilt.

pricewatch: HP Proliant MicroServer Gen8 G1610T

Wat ECC betreft vind ik het zelf altijd een aanrader voor ieder apparaat dat je als 'server' neerzet in je huis en waar je je data aan toevertrouwd. Maar nodig is het niet perse, gezien de Synologies/Qnaps.

[ Voor 18% gewijzigd door Q op 11-12-2016 20:21 ]


Acties:
  • 0 Henk 'm!

  • n3ck
  • Registratie: Mei 2002
  • Laatst online: 24-07 19:47
Reden voor ECC is er niet echt anders dan dat ik inderdaad dacht dat dat voor servers beter was (en ik in beginsel aan een ZFS build dacht).

Naar die proliant heb ik ook gekeken.. probleem daarbij vind ik echter dat ik niet weet welke processoren ik daarin kan stoppen voor een eventuele upgrade. In mijn huidige setup vind ik namelijk snelheid echt een puntje.. dus ik wil eigenlijk flexibel zijn wb upgrades (als ik bijvoorbeeld besluit om camera's of iets dergelijks op te hangen waarbij ik meer CPU nodig heb). Als echter elke socket 1155 processor werkt in dat apparaat is het choice easy inderdaad, maar tot nu toe ik heb dat nog niet kunnen vinden.

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Verwijderd schreef op vrijdag 9 december 2016 @ 20:22:
Geheugen is inderdaad goed. Dan gaat het inderdaad nog om CPU/Chipset/Mobo ondersteuning. Want ook je BIOS kan roet in het eten gooien. Kortom, je moederbord (en daarmee chipset) moet het ook ondersteunen.

Ingewikkeld wordt het dat 'ondersteuning' soms betekent dat het wel werkt, maar dat je geen ECC bescherming hebt. ECC UDIMM werkt dan alsof je non-ECC UDIMM had gebruikt. Kortom, dan heb je nog steeds geen ECC; het is enkel dat ECC geheugen wel bruikbaar is als non-ECC. Dat wil je natuurlijk niet.

Dus het is goed om vast te stellen dat je daadwerkelijk over ECC kunt beschikken met een bepaalde moederbord/chipset/CPU-combinatie. Daar durf ik zelf geen zekerheid over te geven; anderen weten hier wellicht meer over te vertellen.
Merci! Ik heb de vraag ook gedropt bij de supportafdeling van Gigabyte. Daar heb ik nog geen reactie op. Als er hier iemand ervaring of kennis heeft met/van een dergelijke combinatie hoor ik dat graag :)

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Als het moederbord op de specsheet ECC ondersteund en je intel processor ook en je gebruikt ECC geheugen (meestal non-registered) dan gaat het gewoon werken, geen reden tot enige zorg.

Acties:
  • +1 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Je hebt helemaal gelijk.

Hieronder de reactie van Gigabyte;
First X150M-PRO ECC supports Intel Celeron G3900. And according to Intel ARK spec, Intel Celeron G3900 should support ECC memory. So this MB with CPU Intel Celeron G3900 should support ECC Memory.

I’ve already informed PM to modify the manual description because ECC support is not limited to Intel Xeon CPU only.


Thank you for emailing GIGABYTE.
We are delighted with your interest in our products.
Top!

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
Zijn hier mensen die 10 GBit gebruiken? Mellanox ConnectX-2-kaartjes zijn ernstig goedkoop op eBay, verzenden maakt het wel twee keer zo duur maar kan er altijd wat meer bestellen en de rest op V&A zetten om die kosten te drukken

Drivers genoeg te vinden (FreeBSD 10, Windows, vSphere), maar wat zijn de ervaringen ermee in normale moederborden en zonder kubieke kiloliters/seconde aan airflow?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-09 13:34
Er worden regelmatig ook goedkope bv Intel X520 kaarten aangeboden op V&A categorie: Netwerkadapters.

Voor hele schappelijke prijzen, daar heb ik persoonlijk meer vertrouwen in dan zo een Mellanox kaartje.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Paul schreef op donderdag 15 december 2016 @ 22:41:
Zijn hier mensen die 10 GBit gebruiken?
Nog niet; ik heb besloten te wachten op een systeem wat 10Gbps in de SoC CPU direct integreert. Xeon-D is daarvan een voorbeeld, maar is peperduur.

Mijn hoop is gevestigd op het ultra-ultra-ultra-coole platform van AMD: Naples. 32 cores, 64 threads, tot 1TiB (!) RAM over 4 DDR4-kanalen en geïntegreerde 2x 10Gbps 10GBaseT networking.

Zal ongetwijfeld niet goedkoop zijn, maar AMD kennende wel een goede prijs-kwaliteit verhouding hebben zeker nu ze weer de wind mee hebben. Ten slotte gun ik het AMD meer dan Intel die flinke winstmarges kan opstrijken door machtsmisbruik en oneerlijke concurrentie.

Kortom, Naples it is. Zou in 2017 Q2 moeten uitkomen, al gok ik op levering in september. Tot die tijd maar gewoon gigabit. Wel jammer dat je tegenwoordig met je mobieltje sneller kunt downloaden van internet dan ik via ethernet bestanden van mijn server kan trekken via kabel. Dat slaat natuurlijk nergens op technisch gezien.

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Ik heb in mijn build het ontbreken van integrated graphics over het hoofd gezien.

#ProductPrijsSubtotaal
1Intel Celeron G3900 Boxed€ 37,99€ 37,99
1Gigabyte GA-X150M-PRO ECC€ 112,51€ 112,51
1EVGA GeForce GT 710 2GB€ 41,91€ 41,91
1PNY GeForce GT 710 1GB DDR3€ 37,23€ 37,23
1Fractal Design Define R4 Pearl Black€ 91,50€ 91,50
1Fractal Design Dynamic GP-14 Black blades, 140mm€ 11,86€ 11,86
1Kingston ValueRAM KVR21E15D8/8HA€ 59,81€ 59,81
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Intel 600p 128GB€ 59,95€ 59,95
Bekijk collectie
Importeer producten
Totaal€ 516,71


De videokaart wordt natuurlijk bijna nooit gebruikt aangehad het een headless NAS gaat worden. Maar voor installatie en bij sommige problemen kan het wel handig zijn.

Ik heb nu twee zeer zuinige gpu's bijgevoegd.

1. Is de keuze voor die GPU haalbaar?
2. Voorkeur valt op de GPU van EVGA, want ik lees dat ze een zeer goede trackrecord hebben.

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

Verwijderd

Ben je dus wel gelijk één van de twee PCI-express slots kwijt. :(

Wel passief gekoeld, dat is een voordeel.

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Dat is indedaad iri. Bovendien maakt het de build weer wat duurder. Wat natuurlijk jammer is. Maar wanneer ik door de pricewatch blader vind ik ook geen betere alternatieven in de prijsklasse met minimaal 6 sata poorten en een m.2 slot (of 7 keer sata)

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • Mezz0
  • Registratie: Februari 2001
  • Laatst online: 18-05 20:49

Mezz0

ESXi-ZFS-NAS

ASRock B150M Pro4V dan? is geen c232 chipset als je dat echt wil maar moet toch werken? en anders kan je een extenre videokaart nemen. scheelt weer een pci-e slot

http://esxilab.wordpress.com If all is virtual then what is real?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Als je de prijs van een losse video kaart optelt bij de prijs van dat ECC bord, kun je dan niet het resterende prijsverschil overleven en een iets duurder serverbord nemen met on-board KVM / onboard video kaart?

Scheelt je een hele hoop gedonder.

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Q schreef op vrijdag 16 december 2016 @ 15:08:
Als je de prijs van een losse video kaart optelt bij de prijs van dat ECC bord, kun je dan niet het resterende prijsverschil overleven en een iets duurder serverbord nemen met on-board KVM / onboard video kaart?

Scheelt je een hele hoop gedonder.
Welke zou jij voorstellen?

Ik zat te denken aan deze; pricewatch: MSI C236A WORKSTATION maar dat is een ATX formfactor. Anders wordt het een micro board van minimaal 250+

Of op deze pricewatch: Asus P10S-M DC en dan is het mini-ITX en duurder en kost het me ook een PCI slot.

't kan zijn dat ik wat over het hoofd zie natuurlijk of mezelf heb klem beredeneerd in en bepaalde configuratie.. 8)7

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-09 13:34
Ik zou gewoon de video kaart uit je main systeem gebruiken, voor de installatie, en hem daarna weer uithalen, of een tweedehands 210gt of zo kopen/vragen.

Zelf heb ik een oude 210, die ik er alleen in stop als er problemen zijn, of hardware aan het upgraden ben.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Boot met SSD vanaf interne USB3 header en je hebt een 6-disk NAS.

#ProductPrijsSubtotaal
1Intel Celeron G3900 Boxed€ 37,90€ 37,90
1Supermicro X11SSL-F€ 210,04€ 210,04
1Fractal Design Define R4 Pearl Black€ 91,50€ 91,50
1Fractal Design Dynamic GP-14 Black blades, 140mm€ 11,86€ 11,86
1Kingston ValueRAM KVR21E15D8/8HA€ 59,81€ 59,81
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Intel 535 2,5" SSD 120GB€ 58,-€ 58,-
1Startech.com 2.5in Aluminum USB 3.0 External SATA III SSD Hard Drive Enclosure met UASP for SATA 6 G€ 23,97€ 23,97
Bekijk collectie
Importeer producten
Totaal€ 557,03


Dit zou jouw oplossing zijn met losse video kaart.

#ProductPrijsSubtotaal
1Intel Celeron G3900 Boxed€ 37,90€ 37,90
1Gigabyte GA-X150M-PRO ECC€ 112,51€ 112,51
1PNY GeForce GT 710 1GB DDR3€ 37,23€ 37,23
1Fractal Design Define R4 Pearl Black€ 91,50€ 91,50
1Fractal Design Dynamic GP-14 Black blades, 140mm€ 11,86€ 11,86
1Kingston ValueRAM KVR21E15D8/8HA€ 59,81€ 59,81
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Intel 600p 128GB€ 59,95€ 59,95
Bekijk collectie
Importeer producten
Totaal€ 474,71


83 euro prijsverschil. Je mag kiezen of je met losse video kaarten wilt morrelen op het moment dat je onderhoud wilt doen of panne hebt.

[ Voor 33% gewijzigd door Q op 16-12-2016 22:50 ]


Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Ja, dat ga ik doen. Maar dan met dit board: MSI C236A WORKSTATION

Past ook in fractal design R4 case en bespaart me 50 euro en nog eens 25 het kopen van een usb3.0 case.

#ProductPrijsSubtotaal
1Intel Celeron G3900 Boxed€ 37,90€ 37,90
1MSI C236A WORKSTATION€ 163,50€ 163,50
1Fractal Design Define R4 Pearl Black€ 91,50€ 91,50
1Fractal Design Dynamic GP-14 Black blades, 140mm€ 11,86€ 11,86
1Kingston ValueRAM KVR21E15D8/8HA€ 60,90€ 60,90
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Intel 600p 128GB€ 59,95€ 59,95
Bekijk collectie
Importeer producten
Totaal€ 489,56

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Lijkt me een prima keuze. Bord heeft ook Intel nics, dus dat is ook mooi.
Wat voor OS ga je draaien?

Acties:
  • 0 Henk 'm!

  • Beninho
  • Registratie: April 2011
  • Laatst online: 04-09 23:02
Zit ook een uitstekend chipset op, intel c236 http://www.tomshardware.c...-chipsets-xeon,31051.html

Het plan is om er Ubuntu 16.04 server edition met ZFS native op te draaien. Ik heb al wat ervaring met eerdere versies en blijf zo lekker dicht bij huis t.a.v. configuraties.

Mogelijk wil ik in de toekomst een L2ARC toevoegen, maar ik vraag me af in hoeverre dat voor de thuisgebruiker interessant gaat zijn. Dus ga eerst een kijken hoe deze setup gaat presteren..

panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west


Acties:
  • +1 Henk 'm!

  • wesleytjuh
  • Registratie: November 2004
  • Laatst online: 21:39
Beninho schreef op zondag 18 december 2016 @ 16:21:
Zit ook een uitstekend chipset op, intel c236 http://www.tomshardware.c...-chipsets-xeon,31051.html

Het plan is om er Ubuntu 16.04 server edition met ZFS native op te draaien. Ik heb al wat ervaring met eerdere versies en blijf zo lekker dicht bij huis t.a.v. configuraties.

Mogelijk wil ik in de toekomst een L2ARC toevoegen, maar ik vraag me af in hoeverre dat voor de thuisgebruiker interessant gaat zijn. Dus ga eerst een kijken hoe deze setup gaat presteren..
L2ARC is enkel van toepassing wanneer je erg veel RAM hebt en uitbreiden daarvan niet mogelijk is of heel duur wordt. Denk aan 100GB+ aan RAM. Maak je daar geen gebruik van is het slimmer om in meer RAM te investeren, L2ARC maakt het systeem dan doorgaans enkel maar trager omdat het een deel van je RAM opsnoept en DDR geheugen nog altijd veel sneller is dan een SSD.

AccuSafe.nl: Alles voor je kistradio | Store | Kistradio FAQ | Onze video's | Onze versterker!


Acties:
  • 0 Henk 'm!

Verwijderd

wesleytjuh schreef op zondag 18 december 2016 @ 16:33:
L2ARC is enkel van toepassing wanneer je erg veel RAM hebt
???

Als je genoeg RAM hebt is L2ARC niet nodig; L2ARC is juist een manier om meer RAM cache te krijgen door je SSD in feite als RAM te gebruiken. Wel is het zo dat L2ARC ook een beetje RAM gebruikt, maar tegen een gunstige ratio (1:12 ofzoiets uit mijn hoofd, afhankelijk van de grootte van de datablokjes).

L2ARC is enkel interessant als je als thuisgebruiker de server lang aan laat staan, want na een reboot is de cache weg en moet deze opnieuw worden opgebouwd. Dit kan in de toekomst veranderen met persistent L2ARC.

Acties:
  • +1 Henk 'm!

  • wesleytjuh
  • Registratie: November 2004
  • Laatst online: 21:39
Verwijderd schreef op zondag 18 december 2016 @ 17:09:
[...]

???

Als je genoeg RAM hebt is L2ARC niet nodig; L2ARC is juist een manier om meer RAM cache te krijgen door je SSD in feite als RAM te gebruiken. Wel is het zo dat L2ARC ook een beetje RAM gebruikt, maar tegen een gunstige ratio (1:12 ofzoiets uit mijn hoofd, afhankelijk van de grootte van de datablokjes).

L2ARC is enkel interessant als je als thuisgebruiker de server lang aan laat staan, want na een reboot is de cache weg en moet deze opnieuw worden opgebouwd. Dit kan in de toekomst veranderen met persistent L2ARC.
Misschien had ik moeten zeggen: wanneer je erg veel RAM nodig hebt, maar meer RAM in je setup niet mogelijk is of erg duur wordt. Pas dan wordt L2ARC interessant. Voor home gebruik eigenlijk niet interessant, RAM is meer dan goedkoop genoeg voor die relatief kleine geheugengroottes. Beninho zou bijvoorbeeld beter kunnen investeren in 16GB ram ipv 8GB (zoals in zijn huidige wishlist) dan nu 8GB kiezen en later een SSD als L2ARC. Of over een tijdje gewoon 8GB erbij prikken.

[ Voor 11% gewijzigd door wesleytjuh op 18-12-2016 20:02 ]

AccuSafe.nl: Alles voor je kistradio | Store | Kistradio FAQ | Onze video's | Onze versterker!


Acties:
  • +1 Henk 'm!

Verwijderd

Inderdaad wel eerst 16GiB of 32GiB dan een SSD aanschaffen voor L2ARC, eens. :)

Zelf ben ik een groot fan van het cachen van metadata, dus primarycache=all, secondarycache=metadata. Je RAM doet dan normale MFU/MRU caching (metadata+data) terwijl de L2ARC SSD alleen metadata cached. Hooguit dat ik op de VM dataset (tank/volume) wel 'all' instel voor secondarycache.

Metadata cachen is leuk zodat je disks minder random seeks hoeven te doen om de metadata te lezen, dus ze kunnen meer sequential reads doen. Ook kun je supersnel zoeken en door directories bladeren.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Beninho schreef op zondag 18 december 2016 @ 16:21:
Zit ook een uitstekend chipset op, intel c236 http://www.tomshardware.c...-chipsets-xeon,31051.html

Het plan is om er Ubuntu 16.04 server edition met ZFS native op te draaien. Ik heb al wat ervaring met eerdere versies en blijf zo lekker dicht bij huis t.a.v. configuraties.

Mogelijk wil ik in de toekomst een L2ARC toevoegen, maar ik vraag me af in hoeverre dat voor de thuisgebruiker interessant gaat zijn. Dus ga eerst een kijken hoe deze setup gaat presteren..
Ok helder, zoals de mensen hierboven al opmerken is een L2ARC thuis zeer waarschijnlijk niet relevant, meer RAM is beter, mocht het nodig zijn.

Acties:
  • 0 Henk 'm!

  • Slenger
  • Registratie: April 2008
  • Laatst online: 16-09 08:43
Vorig jaar had ik mij al eens verdiept in het e.e.a. van een NAS zelfbouwen vooral op software gebied.

Nu wil ik toch echt een eigen NAS gaan bouwen en heb ik het volgende uitgezocht:

#ProductPrijsSubtotaal
1Intel Pentium G3240 Boxed€ 59,-€ 59,-
1ASRock H81M-ITX€ 63,-€ 63,-
1Cooler Master Elite 130€ 43,95€ 43,95
1Corsair CMV8GX3M2A1333C9€ 55,30€ 55,30
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Crucial BX100 120GB€ 69,99€ 69,99
Bekijk collectie
Importeer producten
Totaal€ 355,19


De schijven die ik ga gebruiken draaien nu nog in een oude ReadyNAS. (WD Red WD20EFRX)

Ik ga de NAS vooral gebruiken voor de bestandsoverdracht en back-uppen van mijn Windows-machines. Met de ReadyNAS loop ik vaak tegen het probleem aan dat ik een lage snelheid haal omdat het geheugen en CPU van het apparaat vol schieten. Het is voor mij belangrijk dat dit niet meer gebeurd.

Ik zou weinig video's van de NAS gaan streamen maar als ik dit wel een keer wil zou ik graag die mogelijkheid hebben.

Zou met de brok aan kennis die hier is iemand mij kunnen adviseren als dit systeem goed is of als er nog punten zijn waar ik naar moet kijken?

Alvast bedankt.

[ Voor 0% gewijzigd door Slenger op 25-12-2016 05:04 . Reden: Harde schijf info toegevoegd. ]


Acties:
  • +1 Henk 'm!

Verwijderd

Je vergeet te vermelden wat het systeem gaat draaien en wat je er verder mee wilt doen.

Je hebt het over streamen van video's, maar dan moet je wel vermelden of dat gewoon via Samba (SMB) protocol gaat, dus normaal windows bestanden delen, of dat je wilt transcoden naar een TV bijvoorbeeld. Dat maakt nogal een verschil. Dat eerste kun je af met de langzaamste processor die je kunt krijgen; dat laatste niet en is je huidige processor wellicht ook onvoldoende.

Je zegt dat je performanceproblemen had, maar bedenk dat kant-en-klaar NAS systemen heel andere hardware draaien, namelijk ARM processors. Wat ook je SmartPhone gebruikt dus. De langzaamste 'normale' processor, die op x86 is gebaseerd, zal stukken sneller zijn. Het is niet aannemelijk dat je voor normaal bestanden delen een tekort aan CPU-kracht zal hebben. Eerder een tekort aan RAM (in geval van ZFS) en netwerkdoorvoer om je performancetarget te halen.

Verder kun je veel veranderen aan je systeem. Zo heb je ouderwets geheugen en kun je beter nieuwer 1,35V geheugen nemen en zéker niet twee reepjes maar toch echt één reepje zodat je nog kunt uitbreiden. Zoals deze: pricewatch: Crucial CT102464BD160B.

Ook zal ik de SSD schrappen; onduidelijk waar je die nodig voor hebt. En als je een SSD neemt, neem dan een 'echte' zoals een Crucial MX-series. Niet de BX-series die een heel andere controller heeft en geen PLP bescherming. Bijvoorbeeld: pricewatch: Crucial MX300 2,5" 525GB die naar verhouding per GB veel goedkoper is en veel moderner; je kunt hem als SLC SSD gebruiken als je veel ruimte ongebruikt laat.

Belangrijk is dat je eerst besluit welke software je wilt gebruiken, hoeveel schijven en dan pas de hardware samenstelt. Zonder die informatie kunnen we je niet optimaal voorzien van advies. Maar als ik je zo hoor kun je wellicht ook af met een ultra-low-power N3160 Braswell systeem. pricewatch: ASRock J3160M of met geïntegreerde voeding: pricewatch: ASRock J3160DC-ITX.

Met die laatste kun je vier hardeschijven aansluiten en heb je moederbord, processor, heatsink, DC-DC voeding en voedingsblok in één voor 130 euro. Alleen nog een RAM reepje erbij en een kast, en de schijven zelf en je bent klaar. Veel zuiniger dan andere oplossingen. Met quadcore 6W processor ook redelijk snel nog en 100% stil doordat je geen enkel bewegend onderdeel hebt, behalve de schijven zelf. Dit maakt je systeem voor langere tijd bruikbaar en voor meerdere doeleinden inzetbaar.

Succes! :)

Acties:
  • 0 Henk 'm!

  • Slenger
  • Registratie: April 2008
  • Laatst online: 16-09 08:43
CiPHER,

Bedankt voor jouw reactie!

Ik wil het systeem op ZFS (FreeNAS) laten draaien.

Video-streamen gaat alleen gebeuren naar een laptop of computer.

Voor ZFS is er meer geheugen aangeraden begrijp ik uit jouw reactie, hierdoor heb ik het geheugen in de lijst (hieronder) aangepast.

Op de SSD wil ik FreeNAS gaan installeren. En de twee schijven echt voor de opslag gebruiken.

Ik heb 2 (2TB) harde schijven die ik ga gebruiken voor deze setup (Nu ook meegenomen in de lijst hieronder).

Met dat ASRock J3160DC-ITX bordje hoe worden dan de harde schijven voorzien van voeding? En worden die kabels dan ook meegeleverd. Ik heb een 2e systeem gemaakt met dit bordje, welk systeem is dan beter en krachtiger?

Update van bovengenoemde configuratie:
#ProductPrijsSubtotaal
1Intel Pentium G3240 Boxed€ 59,-€ 59,-
1ASRock H81M-ITX€ 63,-€ 63,-
2WD Red WD20EFRX, 2TB€ 93,95€ 187,90
1Cooler Master Elite 130€ 43,95€ 43,95
2Crucial CT102464BD160B€ 49,90€ 99,80
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Crucial MX300 2,5" 275GB€ 80,53€ 80,53
Bekijk collectie
Importeer producten
Totaal€ 598,13


Met DC-ITX bord :
#ProductPrijsSubtotaal
1ASRock J3160DC-ITX€ 128,50€ 128,50
2WD Red WD20EFRX, 2TB€ 93,95€ 187,90
1Cooler Master Elite 130€ 43,95€ 43,95
2Crucial CT102464BD160B€ 49,90€ 99,80
1Crucial MX300 2,5" 275GB€ 80,53€ 80,53
Bekijk collectie
Importeer producten
Totaal€ 540,68

Acties:
  • +1 Henk 'm!

Verwijderd

Voor FreeNAS wordt doorgaans een USB-stick gebruikt. Een SSD voor FreeNAS is echt erg zonde, vooral omdat je de SSD voor niets anders kunt gebruiken, dus niet voor L2ARC of sLOG voor ZFS. Dus ik zou de SSD schrappen en gewoon twee HDDs en een USB-stick gebruiken. Als je dat echt wilt, kun je eventueel later altijd nog een SSD bijkopen. Maar voor FreeNAS heb je daar juist vrijwel geen voordeel aan en zal de SSD ook voor 99% ongebruikt worden. Dus die 81 euro kun je dan besparen.

Ook een 2e reepje heb je niet nodig; want dit reepje is al 8GiB en dat is ook voor ZFS prima tenzij je echt een grote build hebt zoals 10+ schijven en 10Gbit netwerk, dan wil je wel 16 of 32 of zelfs 64GiB RAM hebben, wat ook logisch is omdat dit builds betreffen die tegen de 5000 euro gaan en dan is de prijs van lekker veel geheugen echt te rechtvaardigen.

In jouw geval dus één reepje minder en minus de SSD en de schijven heb je al, dus dan kom ik op de volgende twee builds wat je dan zou aanschaffen:


Reguliere build met socketed processor
#ProductPrijsSubtotaal
1Intel Pentium G3240 Boxed€ 59,-€ 59,-
1ASRock H81M-ITX€ 63,-€ 63,-
1Cooler Master Elite 130€ 43,95€ 43,95
1Crucial CT102464BD160B€ 49,90€ 49,90
1Seasonic G-series 360 watt€ 63,95€ 63,95
Bekijk collectie
Importeer producten
Totaal€ 279,80


Superzuinige build met DC-DC voeding
#ProductPrijsSubtotaal
1ASRock J3160DC-ITX€ 128,50€ 128,50
1Cooler Master Elite 130€ 43,95€ 43,95
1Crucial CT102464BD160B€ 49,90€ 49,90
Bekijk collectie
Importeer producten
Totaal€ 222,35


De laatste heeft dus een DC-DC voeding. Dit betekent dat er op het moederbord een SATA stroom stekker zit, waarbij je maximaal vier hardeschijven van stroom kunt voorzien. Mogelijk heb je nog wel een SATA splittertje nodig. Volgens mij niet. In elk geval voor 2 schijven heb je dat niet nodig. Bovendien heb je bij laatstgenoemde het voordeel dat je geen bewegende onderdelen hebt (behalve de schijven zelf) en dus ook geen lawaai van de ventilator van de CPU-koeling of van de voeding. Je kunt eventueel ook een behuizing zoeken zonder ruimte voor ATX-voeding; vaak wordt dan gezegd dat het voor 'PicoPSU' bedoeld is. Dat is ook een mini-voeding. Let wel dat voor de laatstgenoemde build het betekent dat je dus geen ATX-voeding hebt; dit betekent dat je een open ruimte hebt waar normaal het rooster van de ATX-voeding zit. Er bestaan afdekplaatjes die dit gat opvullen; ik zelf vind het geen probleem en het zorgt natuurlijk ook voor natuurlijke convectie/luchtstroming dus technisch gezien geen enkel probleem, maar misschien vind je het minder mooi als er aan de achterzijde een open gat bevindt. Daar moet je wel even rekening mee houden.

Succes! :)

Acties:
  • 0 Henk 'm!

  • Slenger
  • Registratie: April 2008
  • Laatst online: 16-09 08:43
CiPHeER,

Wederom bedankt voor je duidelijke reactie.

Mijn voorkeur gaat uit naar een NAS met een DC-voeding. Ik ga voor de zuinige ITX DC-DC oplossing.
Ook omdat ik nog nooit met dat soort bordjes heb gewerkt. Ik vind de Elite kast een mooie kast en zag op Ebay al een PSU cover plate.

Kan ik gewoon een 32GB USB 3.0-stick gebruiken voor FreeNAS?

Acties:
  • +1 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 20:33

Harrie

NederVlaming

Slenger schreef op zondag 25 december 2016 @ 18:18:
CiPHeER,

Wederom bedankt voor je duidelijke reactie.

Mijn voorkeur gaat uit naar een NAS met een DC-voeding. Ik ga voor de zuinige ITX DC-DC oplossing.
Ook omdat ik nog nooit met dat soort bordjes heb gewerkt. Ik vind de Elite kast een mooie kast en zag op Ebay al een PSU cover plate.

Kan ik gewoon een 32GB USB 3.0-stick gebruiken voor FreeNAS?
Ja, dat werkt prima. Ik gebruik zelf ook een USB sticktje voor freeNAS. Volgens mij is 8GB al voldoende hoor.

Acties:
  • 0 Henk 'm!

  • Brakkie
  • Registratie: Maart 2001
  • Niet online

Brakkie

blaat

Onderstaande setup ben ik aan het overwegen voor het volgende doel:
- Een gedeelde plex server. Hij moet 3 hd streams tegelijk kunnen transcode.
- Future proof zijn. Hoe houdt de onderstaande setup zich met 4k streams.
- File server

Ik wil gaan werken met FreeNAS met raidz2.

Ik zou graag nog snijden in de kosten als dat mogelijk is zonder in te boeten op performance en mogelijkheden.

Hoe zou dit moederbord zich gaan houden met 12 schijven?

#ProductPrijsSubtotaal
1Intel Core i7-6800K Boxed€ 449,-€ 449,-
1ASRock Rack EPC612D8A€ 319,-€ 319,-
12WD Red WD30EFRX, 3TB€ 113,93€ 1.367,16
1Lian Li PC-A75X€ 187,50€ 187,50
1Kingston ValueRAM KVR24R17S4K4/32€ 229,99€ 229,99
1Corsair RM850x€ 143,85€ 143,85
Bekijk collectie
Importeer producten
Totaal€ 2.696,50

Systeem | Strava


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:12
12 disks raidz2 is suboptimaal. Beter kies je voor 10 disks. Als je voor andere schijven kiest, dan zou je bijvoorbeeld met hetzelfde geld voor 4TB schijven kunnen gaan. Dan heb je en minder schijven en meer opslag.

Voeding is overkill. Met een Seasonic G450 kom je al ruim toe.

Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 21-09 10:01
Zover ik weet kan je geen ecc gebruiken met de gekozen processor ? Volgends deze pagina niet:
http://ark.intel.com/nl/p...-15M-Cache-up-to-3_60-GHz

[ Voor 67% gewijzigd door Xenophoben op 27-12-2016 14:38 ]


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Waarom ook zo een dure overklokbare cpu?

is everything cool?


Acties:
  • 0 Henk 'm!

  • Brakkie
  • Registratie: Maart 2001
  • Niet online

Brakkie

blaat

Xenophoben schreef op dinsdag 27 december 2016 @ 14:37:
Zover ik weet kan je geen ecc gebruiken met de gekozen processor ? Volgends deze pagina niet:
http://ark.intel.com/nl/p...-15M-Cache-up-to-3_60-GHz
Die is wel scherp, aangepast naar een Xeon.

De reden dat ik voor een erg snelle processor wil gaan is dat ik heel lang wil doen met een toch wel forse investering. Ik hoop met deze configuratie ook 4k te kunnen transcoden... Heb nog niet zo gauw kunnen vinden wat daar aan processorkracht voor nodig is.

#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v4 Boxed€ 312,49€ 312,49
1ASRock Rack EPC612D8A€ 319,-€ 319,-
10WD Red WD40EFRX, 4TB€ 162,64€ 1.626,40
1NZXT Source 210€ 46,19€ 46,19
3Delock Installation Kit 3.5′′ to 5.25′′€ 2,01€ 6,03
1Kingston ValueRAM KVR24R17S4K4/32€ 229,99€ 229,99
1Corsair RM550x€ 95,95€ 95,95
Bekijk collectie
Importeer producten
Totaal€ 2.636,05
GioStyle schreef op dinsdag 27 december 2016 @ 14:31:
12 disks raidz2 is suboptimaal. Beter kies je voor 10 disks. Als je voor andere schijven kiest, dan zou je bijvoorbeeld met hetzelfde geld voor 4TB schijven kunnen gaan. Dan heb je en minder schijven en meer opslag.

Voeding is overkill. Met een Seasonic G450 kom je al ruim toe.
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.

[ Voor 13% gewijzigd door Brakkie op 27-12-2016 19:06 . Reden: Schijven, kast en voeding aangepast. 3.5" to 5.25" adapter toegevoegd. ]

Systeem | Strava


Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 22-09 00:08
Brakkie schreef op dinsdag 27 december 2016 @ 16:06:
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
Dat heeft iets te maken met de alignment van de blokken die ZFS wegschrijft. Als je heel veel IO (doorgaans niet bij thuisgebruik) hebt kun je performantieverminderingen opmerken tenzij je het juiste aantal schijven (een macht van 2, plus de pariteit; of in jouw geval 2^3 + 2) gebruikt.
Dit verhaal gaat niet op als je compressie gebruikt dacht ik. En compressie staat default aan als ik mij niet vergis.

Als je build goedkoper mag kan je ook eens naar de kast kijken, die lijkt mij nogal prijzig. Als je van 12 naar 10 schijven zou gaan heb je waarschijnlijk ook meer keuze.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Brakkie schreef op dinsdag 27 december 2016 @ 16:06:

Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
Misschien nuttig: zie mijn artikel over ZFS in mijn signature. Met de large_blocks feature wordt de overhead van de relatief kleine max record size van 128kb doorbroken en heb je mogelijk minder last van de overhead die ontstaat als je een 'sub-optimaal' aantal disks in een VDEV stopt.

Letop dat je nu moet kiezen 10 vs 12 disks want achteraf kun je geen twee extra disks aan je VDEV toevoegen.

Wat transcoden vs streamen betreft:

Zover ik weet kunnen de meeste telefoons en tablets en media spelers via plex de meeste formats native afspelen. Dan hoef je niet te transcoden en dat scheelt enorm in cpu performance requirement. Streamen stelt niets voor.

[ Voor 16% gewijzigd door Q op 27-12-2016 20:15 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Brakkie schreef op dinsdag 27 december 2016 @ 16:06:
[...]


Die is wel scherp, aangepast naar een Xeon.

De reden dat ik voor een erg snelle processor wil gaan is dat ik heel lang wil doen met een toch wel forse investering. Ik hoop met deze configuratie ook 4k te kunnen transcoden... Heb nog niet zo gauw kunnen vinden wat daar aan processorkracht voor nodig is.

#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v4 Boxed€ 312,49€ 312,49
1ASRock Rack EPC612D8A€ 319,-€ 319,-
10WD Red WD40EFRX, 4TB€ 162,64€ 1.626,40
1NZXT Source 210€ 46,19€ 46,19
3Delock Installation Kit 3.5′′ to 5.25′′€ 2,01€ 6,03
1Kingston ValueRAM KVR24R17S4K4/32€ 229,99€ 229,99
1Corsair RM550x€ 95,95€ 95,95
Bekijk collectie
Importeer producten
Totaal€ 2.636,05



[...]

Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
Is de server ook veel idle met de HDD's in standby?
Hoe was je van plan al de hdd's aan te sluiten?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Brakkie
  • Registratie: Maart 2001
  • Niet online

Brakkie

blaat

-The_Mask- schreef op dinsdag 27 december 2016 @ 20:23:
[...]

Is de server ook veel idle met de HDD's in standby?
Hoe was je van plan al de hdd's aan te sluiten?
Er zitten 12 SATA poorten op het moederbord. Van wat ik begrijp heb je met Freenas en ZFS geen raid controller oid nodig.

De server zal ook best veel idle zijn idd. Waarom vraag je dat?

Systeem | Strava


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Ik vind je keuze voor het moederbord nog discutabel. Het bord beschikt over audio, firewire, thunderbolt en dergelijke wat je waarschijnlijk niet eens gaat gebruiken.

Waarom de voorkeur voor de Asrock?

is everything cool?


Acties:
  • 0 Henk 'm!

  • Brakkie
  • Registratie: Maart 2001
  • Niet online

Brakkie

blaat

FREAKJAM schreef op dinsdag 27 december 2016 @ 23:10:
Ik vind je keuze voor het moederbord nog discutabel. Het bord beschikt over audio, firewire, thunderbolt en dergelijke wat je waarschijnlijk niet eens gaat gebruiken.

Waarom de voorkeur voor de Asrock?
Ik dacht dat dit wel een goede keuze was. 10 sata poorten op 1 controller, ondersteuning voor EDD geheugen e.d. Uiteraard sta ik open voor alternatieven. Heb jij goede suggesties?

Systeem | Strava


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Brakkie schreef op woensdag 28 december 2016 @ 23:01:
[...]

Ik dacht dat dit wel een goede keuze was. 10 sata poorten op 1 controller, ondersteuning voor EDD geheugen e.d. Uiteraard sta ik open voor alternatieven. Heb jij goede suggesties?
Ikzelf (maar ook velen anderen op bijv /r/homelab op reddit) spreken hun voorkeur uit voor Supermicro. Enterprisegrade hardware en de bordjes beschikken bijvoorbeeld ook over IPMI. (Hoewel ik nu zie dat de Asrock ook IPMI heeft).

Als ik moest kiezen tussen bijvoorbeeld de Asrock en de Supermicro X10SRL-F, zou ik gaan voor de laatste.
Wat betreft de controller en de aansluitingen zou ik voor de zekerheid even controleren hoe het precies zit (wat FireDrunk ook zegt).

Uit de Supermicro PDF:
Ten SATA 3.0 connectors (I-SATA 0-5) and (SSATA0-3) are located on the board.
I-SATA 0-5 ports are supported by the AHCI controller and are compatible with RAID 0, 1, 5, 10. S-SATA 0-3 ports are supported by the sSATA controller and are compatible with RAID 0, 1, 5, 10.

[ Voor 50% gewijzigd door FREAKJAM op 28-12-2016 23:25 ]

is everything cool?


Acties:
  • 0 Henk 'm!
En die poorten zitten voor zover ik kan zien niet op 1 controller?
Storage
SATA Controller - Intel® C612 : 6 x SATA3 6.0Gb/s; 4 x sSATA3 6.0Gb/s; support RAID 0, 1, 5, 10
Additional Storage Controller - Marvell 9172: 2 x SATA3 6Gbps
Die 6+4 zijn 2 controllers. Niet heel erg hoor, effect is hetzelfde :)

* FireDrunk heeft hetzelfde chipset, en ziet 2 devices.

lspci zegt:
00:1f.2 SATA controller: Intel Corporation C610/X99 series chipset 6-Port SATA Controller [AHCI mode] (rev 05)
00:11.4 SATA controller: Intel Corporation C610/X99 series chipset sSATA Controller [AHCI mode] (rev 05)

[ Voor 23% gewijzigd door FireDrunk op 28-12-2016 23:20 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Banath
  • Registratie: Juli 2009
  • Laatst online: 10-06 08:19

Banath

Did you try to open the box?

Ik probeer al geruime tijd een oude Thecus M3800 NAS nieuw leven in te blazen
- AMD Geode LX @ 500mhz
- 1 Gb werk geheugen
- ata33 ssd 2Gb
- sata 150 x3 500 Gb WD drives
- ati 9250 pci videokaart

Het systeem heeft ooit ipfire gedraait, echter tot ze hun i586 implementatie verbouwden.
Me al scheel gezocht naar alternatieven die tot op heden niet willen booten, crashen op boot of ongeschikt zijn voor NAS toepassing.

Nieuwste ipfire distro boot tot en met de ramdisk, daarna is zelfs het keyboard stuk.
Baal er wel van want was ooit een lollig systeempje voor backups en p2p.

Suggesties/ervaringen iemand?

http://midkemia.wikia.com/wiki/Banath


Acties:
  • 0 Henk 'm!
Kan het ding ook geen i686 aan? Moet echt i586 zijn?

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Ik heb inmiddels al bijna 3 jaar de volgende setup draaien en moet de boel gaan uitbreiden.

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 309,99€ 309,99
1Supermicro X10SL7-F€ 273,25€ 273,25
6WD Red WD30EFRX, 3TB€ 115,95€ 695,70
1BitFenix Shadow€ 66,50€ 66,50
7Sharkoon SATA III standard (50cm)€ 0,-€ 0,-
1Kingston ValueRAM KVR16E11K4/32€ 252,95€ 252,95
1Seasonic G-series 360 watt€ 63,95€ 63,95
1Crucial M500 2,5" 240GB€ 112,93€ 112,93
Bekijk collectie
Importeer producten
Totaal€ 1.775,27

Ik heb ESXi 6 draaien (moet nog upgraden naar 6.5) met een aantal virtual machines:
  • pfSense (DHCP, DNS & NAT, Internet routing)
  • CentOS 7 VM1: ZFS + Samba (RAIDZ2)
  • CentOS 7 VM2: Plex Media server (Emby als backup)
  • CentOS 7 VM3: NZBGet, Couchpotato, Sonarr
  • CentOS 7 VM4: MySQL en nog wat ander prutserwerk.
Wat ik van plan ben:
  • ESXi inruilen voor Rancher, SmartOS, FreeNAS 10 (nog in beta) en Proxmox (heb nog geen keuze kunnen maken, maar ik wil wel 100% zeker overstappen naar lxc en of een docker principe).
  • Afscheid nemen van pfSense (Unifi USG Pro 4 ligt al klaar op de planken)
  • ZFS pool uitbreiden en/of opnieuw inrichten. Ik heb nu 6x3TB RAIDZ2 draaien, maar de pool begint aardig vol te lopen (87%). Ik heb advies nodig bij het uitbreiden van mijn storage. Ik kan er een hoop disken bij plaatsen en een 2de vdev toevoegen aan mijn pool, of een nieuwe grote pool inrichten.
  • Migreren naar een grotere niet al te dure case. Ik heb bijvoorbeeld de Norco RPC-3216 gezien en de SC-316-ATX. Voordeel van deze case is dat een standaard ATX voeding daar ook in past. Vraag is of 360 watts voldoende als ik meerdere disken ga gebruiken.
  • Ik zag dat Ri-vier ook betaalbare cases heeft, maar de [url="https://ri-vier.eu/index.php?main_page=product_info&cPath=1_3_7&products_id=389&zenid=6oj40to90vr74ghnfh0imbrhe7"]4U[/url] variant vind ik toch weer net iets te lomp doen overkomen. Ik heb geen 3U variant op de website kunnen ontdekken.
Om echt volledig futureproof te zijn raadt men aan om bijvoorbeeld een SAS Expander te gebruiken inclusief reverse breakout kabels. Ik heb hier helaas nog erg weinig kaas van gegeten. Blijkbaar moet je ook een controller gebruiken (bijv een M1015) in combinatie met de Expander. De genoemde expander en M1015 zijn blijkbaar voor een mooie prijs op Ebay te vinden.

Wat is de beste aanpak qua storage?
Ik dacht zelf om er een 2de vdev bij te plaatsen, bijvoorbeeld een 10disk RAIDZ2. Dan kom ik op een totaliteit uit van 16 drives, wat exact in de case past.

Wat heb ik nodig qua hardware & kabels om 16 drives te kunnen aansluiten op het moederbord?
De X10SL7 heeft van zichzelf al 14 poorten (8 van de LSI 2308 en nog 6 andere poorten). Ik heb ook nog wat poorten nodig voor mijn lxc/docker storage. Ik wil een dubbele SSD RAID0 opzet hier voor gaan gebruiken, dus is nog altijd sneller dan op de zfs pool zelf denk ik.

[ Voor 3% gewijzigd door FREAKJAM op 09-01-2017 17:40 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Banath
  • Registratie: Juli 2009
  • Laatst online: 10-06 08:19

Banath

Did you try to open the box?

FireDrunk schreef op dinsdag 3 januari 2017 @ 14:25:
Kan het ding ook geen i686 aan? Moet echt i586 zijn?
Volgens mij geen PAE, geen >4gb geheugen.
Wikipedia: Geode (processor)

Praktisch een socket 7 proc O-)

http://midkemia.wikia.com/wiki/Banath


Acties:
  • 0 Henk 'm!

  • Ar__jen
  • Registratie: Maart 2010
  • Laatst online: 11-05-2024
Hi All!

Ook ik ben bezig met een nieuw nasje bouwen. Heb op het moment een HP ML350 G5 in de kamer staan. Op het moment woon ik nog inclusief maar dat gaat niet voor eeuwig doorgaan. Ik ben daarom op zoek naar een NAS die laag in verbruik is en stil is. De HP klinkt alsof er een apache in de woonkamer staat :')

De NAS moet worden ingezet voor het volgende:
  • Downloadmachine (Sickrage, coachpatator, utorrent)
  • TimeCapsule backup voor onze Macbooks
  • Owncloud
  • Algemene dataopslag ( foto's e.d.)
Echter, ik wil mij niet beperken in keuze's. Zo zou het best zo kunnen zijn dat ik in de toekomst een mailserver zou willen, misschien een apache webserver, ik stream nu alles naar kodi vanaf een samba share maar vind plex ergens ook wel interessant en daarnaast blijf ik een tweaker die af en toe lekker willen hobby'en. Daarom lijkt mij het verstandigst om de NAS met Ubuntu Server te installeren om zo veel mogelijk vrijheid te behouden. Hoe zien jullie dit?

De setup waar ik nu aan zit te denken is als volgt:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 56,95€ 56,95
1MSI H110I Pro€ 77,50€ 77,50
2WD Red 2x WD40EFRX, 4TB€ 324,-€ 648,-
1Fractal Design Node 304 Zwart€ 80,95€ 80,95
1Kingston HyperX Fury HX421C14FBK2/8€ 64,95€ 64,95
1be quiet! Pure Power L8 300W€ 141,99€ 141,99
1Kingston SSDNow V300 60GB€ 47,95€ 47,95
Bekijk collectie
Importeer producten
Totaal€ 1.118,29


De SSD zal gebruikt worden voor het besturingsysteem, de schijven uiteraard voor data. Ik wil alles installeren in ZFS Raidz. Ik heb nog niet erg veel ZFS ervaring maar hier mij erg hard over aan het inlezen op het moment. Enige probleem die ik op het moment zelf zie is een mobo zonder ECC. Zie ik nog iets anders over het hoofd?

Hoor graag van jullie! Thanks alvast!

Arjen.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
Je wil nogal veel tegelijk, en geeft aan niet beperkt te willen worden. Ik zou in dat geval niet voor een bordje met maar 2 geheugensloten (en er dan ook nog eens 2x4GB in zetten) en zonder m.2-slot gaan, en een G4400 houdt ook niet echt over.

Nu kun je zeker wel met die CPU beginnen en als je tekort komt altijd nog upgraden naar een pricewatch: Intel Core i3-7100 Boxed of pricewatch: Intel Core i5-7500 Boxed, maar qua moederbord zou ik iets als een pricewatch: Gigabyte GA-X150M-PRO ECC nemen; met het M.2-slot, 4 geheugenbankjes (en ECC) kun je later "upgraden" naar ESXi en toch ZFS blijven doen door de onboard SATA-controller met VT-d door te geven naar de VM die de storage beheert.

Ook zou ik 1x 8GB nemen (pricewatch: Crucial CT8G4WFS824A bijvoorbeeld, als je voor een bord met ECC gaat, of pricewatch: Crucial CT8G4RFS824A zonder).

In plaats van die Kingston SSD een pricewatch: Intel 600p 128GB en je hebt de datastore voor vSphere al binnen mocht je later over willen stappen; je moet dan alleen nog een migratiestrategie verzinnen voor het vrijspelen van de SSD :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 22:02
128GB SSD is wel krapjes, 20GB per VM is niet uitzonderlijk. Dan nog wat ruimte om .iso's er op te zetten e.d.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
Heb je op zich gelijk in maar ik dacht nog een beetje aan het budget (of de keuzes die gemaakt waren). Het hangt ook wel van je VM's af, mijn FreeNAS VM is maar 8 GB (de rest, inclusief de plugins voor Plex, Couchpotato, Transmission etc etc staat op de ZFS pool), een SixXS tunnel VM is 1 GB etc :)

Aan de andere kant, die Intel 600p 256 is wel ernstig goedkoop voor een NVMe-SSD... Daarbij vergeleken is de 128GB variant duur :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • +1 Henk 'm!

  • Ar__jen
  • Registratie: Maart 2010
  • Laatst online: 11-05-2024
Thanks voor je reactie. Onder het mom "het oog wil ook wat" ben ik verliefd geworden op de fractal design node 304. Hierbij zit ik vast aan een m-itx board. Deze zijn er niet met 4 geheugen slots. In ieder geval niet met een 1151 soc. Dit board heeft een h110 intel chipset met vt-D.

Ik ben het eens met je comment over de cpu. Echter, bij het gekozen board blijft hier wel ruimte over voor een eventuele uitbreiding naar I3 of I5 later on. Tevens is er nog een optie tot een pci-e M2 disk. Vind ze echter voor nu iets te prijzig. Heb het geheugen gewijzigd naar 1x 8gb, geeft inderdaad de mogelijkheid tot nog eens 8gb bij plaatsen later on.

Tevens de SSD geswapt naar een Kingston HyperX Fury 120gb. Ik verwacht geen 5 vm's te draaien namelijk en dit zal voor mijn doen redelijk future proof te zijn.

Dank ^^ !

Acties:
  • 0 Henk 'm!

  • donnervogel
  • Registratie: Maart 2003
  • Laatst online: 14-01-2023
oeps niet goed gelezen

[ Voor 94% gewijzigd door donnervogel op 07-01-2017 18:40 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
Het grote voordeel van een NVMe SSD is dat je de controller op het moederbord alleen maar gebruikt voor je ZFS pool en je die in VMware door kunt geven (VT-d) maar toch nog een storage device beschikbaar hebt om als datastore te dienen (je VM kan niet opstarten vanaf een passthrough PCIe device, dat moet vanaf een VMDK).

Zonder M.2 slot kun je kiezen voor bijvoorbeeld een pricewatch: Plextor M8PeY 256GB (als ik sorteer op prijs), of je haalt voor een paar euro een adapter van PCI-e insteekkaart naar M.2 connector:
https://www.aliexpress.co...d-Suppor/32785472313.html
http://www.ebay.com/itm/M...0-2242-2260-/122216107889

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Ar__jen
  • Registratie: Maart 2010
  • Laatst online: 11-05-2024
Ja, het stoort mij ook een beetje dat ik met deze oplossing 1 van mijn 4 sata aanlsuitingen kwijt ben aan de SSD om eerlijk te zijn. Ik vind de PCI-e adapter insteek kaart wel een prima oplossing. Thanks voor de tip!

Acties:
  • 0 Henk 'm!

  • Rincewind
  • Registratie: Februari 2001
  • Laatst online: 18:54

Rincewind

Take me in your arms tonight

Ik ben bezig met het optuigen van een nieuwe nas. Momenteel heb ik een hele oude Netgear NV+ (netto 3 TB) en een zelfbouw Nas4Free-NAS (1 disk van 1.5TB) in de meterkast staan. Beide wil ik gaan vervangen door iets anders:

#ProductPrijsSubtotaal
1ASRock N3150-ITX€ 0,-€ 0,-
3WD Red WD30EFRX, 3TB€ 115,95€ 347,85
1Lian Li PC-Q01B€ 0,-€ 0,-
2Kingston ValueRAM KVR16LS11S6/2€ 0,-€ 0,-
1Kingston SSDNow V300 60GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 347,85

In principe moet ik alleen nog de HDD's kopen: de rest is al beschikbaar. Waarschijnlijk moet de Lian Li PC-Q01B ook vervangen worden maar dat zie ik nog wel. De SSD wordt in deze setup gebruikt als serversoftware-opslag.

Om eerlijk te zijn heeft de Nas4free-NAS jarenlang zonder problemen gedraaid als algemene NAS/downloadstation en wordt de Netgear eigenlijk als een soort backup-NAS gebruikt. Qua opslag is minimaal 3TB netto beschikbare opslag wel noodzakelijk. Meer is natuurlijk beter maar dat is denk ik door het budget wat ik heb niet mogelijk. Misschien is het dan slimmer om 2x een 4TB schijf te gebruiken.

De NAS wordt gebruikt voor het volgende:
  • Downloadmachine (Sickrage, SABnzbd, couchpotato)
  • Algemene dataopslag ( foto's, films, series e.d.)
  • VPN server (eventueel)
Mijn vragen:
  • Is dit een redelijke setup voor een NAS?
  • 3x 3TB of 2x 4TB?
  • Welke NAS-software zal ik gaan gebruiken: Nas4free, OpenMediaVault of Freenas?
  • RAID: ja of nee? ZFS: ja of nee?
  • Hoe kan ik 'berekenen' hoeveel ruimte ik netto beschikbaar heb bij de afweging RAID vs ZFS?
  • Wat is een slimme manier om in de toekomst de nieuwe NAS te syncen/backuppen met de NV+ of een externe HD?
Bedankt voor het meedenken _/-\o_

Fan van Bokkiewokkie and the Three Degrees


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Rincewind schreef op maandag 9 januari 2017 @ 13:21:
Ik ben bezig met het optuigen van een nieuwe nas. Momenteel heb ik een hele oude Netgear NV+ (netto 3 TB) en een zelfbouw Nas4Free-NAS (1 disk van 1.5TB) in de meterkast staan. Beide wil ik gaan vervangen door iets anders:

#ProductPrijsSubtotaal
1ASRock N3150-ITX€ 0,-€ 0,-
3WD Red WD30EFRX, 3TB€ 115,95€ 347,85
1Lian Li PC-Q01B€ 68,-€ 68,-
2Kingston ValueRAM KVR16LS11S6/2€ 15,46€ 30,92
1Kingston SSDNow V300 60GB€ 47,95€ 47,95
Bekijk collectie
Importeer producten
Totaal€ 494,72

In principe moet ik alleen nog de HDD's kopen: de rest is al beschikbaar. Waarschijnlijk moet de Lian Li PC-Q01B ook vervangen worden maar dat zie ik nog wel. De SSD wordt in deze setup gebruikt als serversoftware-opslag.

Om eerlijk te zijn heeft de Nas4free-NAS jarenlang zonder problemen gedraaid als algemene NAS/downloadstation en wordt de Netgear eigenlijk als een soort backup-NAS gebruikt. Qua opslag is minimaal 3TB netto beschikbare opslag wel noodzakelijk. Meer is natuurlijk beter maar dat is denk ik door het budget wat ik heb niet mogelijk. Misschien is het dan slimmer om 2x een 4TB schijf te gebruiken.

De NAS wordt gebruikt voor het volgende:
  • Downloadmachine (Sickrage, SABnzbd, couchpotato)
  • Algemene dataopslag ( foto's, films, series e.d.)
  • VPN server (eventueel)
Mijn vragen:
[list]
• Is dit een redelijke setup voor een NAS?
• 3x 3TB of 2x 4TB?

Bedankt voor het meedenken _/-\o_
Ik snap dat je al wat spul hebt, maar waarom zou je deze niet nemen? Hoef je alleen boot disk/stick en disks in te stoppen.

pricewatch: HP Proliant MicroServer Gen8 G1610T

Acties:
  • 0 Henk 'm!

  • Rincewind
  • Registratie: Februari 2001
  • Laatst online: 18:54

Rincewind

Take me in your arms tonight

Q schreef op maandag 9 januari 2017 @ 13:57:
[...]


Ik snap dat je al wat spul hebt, maar waarom zou je deze niet nemen? Hoef je alleen boot disk/stick en disks in te stoppen.

pricewatch: HP Proliant MicroServer Gen8 G1610T
Omdat ik dan weer €150-200 (ong.) extra ga uitgeven. Zoals gezegd de rest van de HW heb ik al: alleen nog geen disks. En die moet ik ook bij die Gen8 kopen dus ben ik bij jouw voorstel sowieso weer duurder uit. Ik heb net mijn post even aangepast om wat inzichtelijker te maken wat ik al heb ;)

[ Voor 6% gewijzigd door Rincewind op 09-01-2017 15:16 ]

Fan van Bokkiewokkie and the Three Degrees


Acties:
  • 0 Henk 'm!

Verwijderd

Tja, waarom iets nieuws kopen als hij al wat heeft? Hij kan op zijn minst eerst proberen met de huidige hardware; die prima is en vrij modern. Enig nadeel is geen ECC ondersteuning maar dat is ook erg lastig voor een low-budget low-power instapserver.

Ik zou alleen kijken of je iets goedkopere schijven (goedkoper qua euro per TB) kunt scoren. Red heb je sowieso niet nodig; alleen het extra garantiejaar is dan een concreet voordeel. Maar als de BackBlaze-studie een beetje klopt zou uitval zich vooral na het 3e jaar voordoen en dan heb je niet zoveel aan het jaar extra garantie. Dan kun je beter voor de Greens/Blue gaan; uiteindelijk kun je daar een schijf meer van kopen door de lagere prijs.

En andere schijven zijn ook te overwegen; HGST (Hitachi) en voor een budget server Toshiba; al acht ik die wel van lagere kwaliteit dan de Greens en Hitachi-schijven.

Wat betreft je vragen:
• RAID was leuk 20 jaar geleden; nu hebben we ZFS; ik denk dat je een goede reden moet hebben om in dit tijdperk géén ZFS te gebruiken op je fileserver/NAS - het is gewoon het beste wat je kunt krijgen dat echt volwassen en stabiel is.
• Welke NAS software: probeer zelf uit (in een Virtual Machine) wat je het meest bevalt.
• Netto beschikbare ruimte is bij ZFS grofweg hetzelfde als bij RAID. Dus RAID-Z met 5 disks betekent net als RAID5 dat je 4 van de 5 schijven effectief voor opslag kunt gebruiken. Bedenk wel dat bij ZFS het extra belangrijk is dat je een gedeelte van je pool leeg laat, en dus niet helemaal volschrijft. Net als SSDs dus, wat ook CoW-mechanismes zijn.
• Syncen doe je het liefste met ZFS send/receive en anders met rsync met checksums.[/list]

Succes! :)

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Rincewind schreef op maandag 9 januari 2017 @ 15:12:
[...]

Omdat ik dan weer €150-200 (ong.) extra ga uitgeven. Zoals gezegd de rest van de HW heb ik al: alleen nog geen disks. En die moet ik ook bij die Gen8 kopen dus ben ik bij jouw voorstel sowieso weer duurder uit. Ik heb net mijn post even aangepast om wat inzichtelijker te maken wat ik al heb ;)
Ok fair enough :)
Verwijderd schreef op maandag 9 januari 2017 @ 16:45:

Wat betreft je vragen:
• RAID was leuk 20 jaar geleden; nu hebben we ZFS; ik denk dat je een goede reden moet hebben om in dit tijdperk géén ZFS te gebruiken op je fileserver/NAS - het is gewoon het beste wat je kunt krijgen dat echt volwassen en stabiel is.
Wat een gekleurde stellingname. :)

ZFS is een goed file system maar zeker geen must. Hardware of software RAID onder Windows en Linux is ook stabiel en volwassen, dat laatste (software RAID) onder Linux wat beter dan Windows.

Als je super into data-integriteit bent, ja dan is ZFS top, maar dan moet je om consistent te blijven ook voor ECC geheugen kiezen en betalen.

Altijd maar ZFS ZFS ZFS roepen is slecht advies voor mensen. Net als dat ik in alle situaties Microserver roep ;)

[ Voor 38% gewijzigd door Q op 09-01-2017 19:57 ]


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Iemand die nog iets zinnings kan roepen over mijn vragen? Had gehoopt op wat respons, maar helaas niet gekregen. Desnoods maak ik even een nieuw topic aan.

FREAKJAM in "Het grote DIY RAID NAS topic deel 3"

is everything cool?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
FREAKJAM schreef op maandag 9 januari 2017 @ 20:03:
Iemand die nog iets zinnings kan roepen over mijn vragen? Had gehoopt op wat respons, maar helaas niet gekregen. Desnoods maak ik even een nieuw topic aan.

FREAKJAM in "Het grote DIY RAID NAS topic deel 3"
Een 10-disk RAIDZ2 toevoegen is het makkelijkste en dan kun je even vooruit. 4 van de 16 disks aan parity kwijt raken vind ik niet zo efficient maar er is niet echt een makkelijk alternatief vrees ik zonder een nieuwe pool te maken en je data te moeten migreren of zelfs tijdelijk even elders te moeten parkeren.

Wat poorten betreft als je nog een PCIe slot vrij hebt zou ik gewoon een M1015 er in stoppen dan kom je volgens mij een heel eind. Ik zie dat de M1015 niet meer in de price watch staat, ik weet niet wat de go-to kaart is wat de kids these days gebruiken. Ik heb geen ervaring met die HP expanders maar omdat je dus al een HBA op je moederbord hebt, zou je ook een expander kunnen gebruiken als dat qua kosten uitkomt.

met 14 + 8 = 22 poorten waarbij je dus nog 6 poorten over hebt voor SSDs en andere storage (boot?)

Rivier lijkt qua cases helemaal dood, ik ben erg te spreken over de case die ik er heb gekocht, maar de site laat niets relevants meer zien. Mogelijkdat x-case.co.uk een leuke case voor je heeft, die zien er goed uit.

Met 16 disks x 20 watt piek vermogen dus 40 watt over voor de rest, dat wordt krap. Ik ga met 24 disks over de 600 watt heen piek vermogen tijdens het booten. Ik heb begrepen dat seasonic wel een goed merk psu zou moeten zijn.

[ Voor 7% gewijzigd door Q op 10-01-2017 00:49 ]


Acties:
  • 0 Henk 'm!

  • Rincewind
  • Registratie: Februari 2001
  • Laatst online: 18:54

Rincewind

Take me in your arms tonight

Verwijderd schreef op maandag 9 januari 2017 @ 16:45:
Ik zou alleen kijken of je iets goedkopere schijven (goedkoper qua euro per TB) kunt scoren. Red heb je sowieso niet nodig; alleen het extra garantiejaar is dan een concreet voordeel. Maar als de BackBlaze-studie een beetje klopt zou uitval zich vooral na het 3e jaar voordoen en dan heb je niet zoveel aan het jaar extra garantie. Dan kun je beter voor de Greens/Blue gaan; uiteindelijk kun je daar een schijf meer van kopen door de lagere prijs.
Ik was voor Red's gegaan puur op aanraden van een aantal artikelen die ik al gelezen had. Maar ik zal ook eens gaan kijken naar iets goedkopere Blue's.
En andere schijven zijn ook te overwegen; HGST (Hitachi) en voor een budget server Toshiba; al acht ik die wel van lagere kwaliteit dan de Greens en Hitachi-schijven.
Toshiba's durf ik niet aan als ik de recensies hier op tweakers lees. Zijn Seagates ook een goed keuze? Ik krijg het gevoel dat qua betrouwbaarheid de WD onverslaanbaar zijn. Dan maar een paar euro meer..
Wat betreft je vragen:
• RAID was leuk 20 jaar geleden; nu hebben we ZFS; ik denk dat je een goede reden moet hebben om in dit tijdperk géén ZFS te gebruiken op je fileserver/NAS - het is gewoon het beste wat je kunt krijgen dat echt volwassen en stabiel is.
ZFS it is then :) Naast jouw advies heb ik er ook al e.e.a. over gelezen en voor mij lijkt het de beste keuze. Daarnaast moet er dan nog wel een backup-disk komen waar ik de belangrijkste data zoals foto's dan heen sync. Films/series zijn niet zo belangrijk als foto's ;) [/quote]
• Netto beschikbare ruimte is bij ZFS grofweg hetzelfde als bij RAID. Dus RAID-Z met 5 disks betekent net als RAID5 dat je 4 van de 5 schijven effectief voor opslag kunt gebruiken. Bedenk wel dat bij ZFS het extra belangrijk is dat je een gedeelte van je pool leeg laat, en dus niet helemaal volschrijft. Net als SSDs dus, wat ook CoW-mechanismes zijn.
Als ik het goed heb begrepen hou je bij een 3x3TB drive's ZFS-pool netto ongeveer 5.5TB over. Dat zou in mijn situatie ruim voldoende zijn. Wel maak ik me een beetje zorgen of de 4GB voldoende is om ZFS netjes te draaien..
• Syncen doe je het liefste met ZFS send/receive en anders met rsync met checksums.
Daar zal ik te zijner tijd wel even induiken. Dat is deels ook mede afhankelijk van de gekozen NAS-software. Daar is trouwens vandaag xpenology als optie bijgekomen. Dat wordt de komende weken spelen met virtualbox om de diverse NAS-sw's te testen ;)

Fan van Bokkiewokkie and the Three Degrees


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:23
RAIDZ2 hoop ik :P
Met 16 disks x 20 watt piek vermogen dus 40 watt over voor de rest, dat wordt krap.
Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboard
(Intel) controller van mijn SuperMicro al de schijven één voor één opspinnen, lijkt me dat zo'n dedicated kaart dat ook moet kunnen?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • +1 Henk 'm!

Verwijderd

FREAKJAM schreef op maandag 9 januari 2017 @ 20:03:
Iemand die nog iets zinnings kan roepen over mijn vragen? Had gehoopt op wat respons, maar helaas niet gekregen. Desnoods maak ik even een nieuw topic aan.

FREAKJAM in "Het grote DIY RAID NAS topic deel 3"
Je kunt altijd een eigen topic maken, en gezien de omvang van je post was dat wellicht ook beter geweest. Genoeg animo om iemands project te bekijken in een afzonderlijk topic, op voorwaarde dat je ook een mooie startpost maakt. Daar was je in je post waar je naar refereert ook hard naar op weg. Dus je kunt altijd nog overwegen een eigen topic te openen, dan verplaats ik de reacties die hier staan naar je nieuwe topic. Akkoord? :)

Alvast wat feedback: je kunt ervoor kiezen om je huidige pool uit te breiden met een nieuwe vdev, zoals een 10-disk RAID-Z2. Je kunt er ook voor kiezen om een nieuwe pool te maken en dat is eigenlijk wel het beste. Zo kun je je huidige pool helemaal leegruimen door data te kopiëren. Dan je pool opnieuw aanmaken, of gewoon zfs destroy (dus geen zpool destroy) gebruiken. Zo zorg je dat alle fragmentatie weg is. Dan kun je de data weer overhevelen en besluiten wat op pool1 en wat op pool2 moet komen.

In tegenstelling tot anderen vind ik 4 disks op 16 disks parity niet teveel. Het is juist goed dat je ook voor de 6-disk voor dubbele pariteit hebt gekozen. Met de huidige uBER en opslagcapaciteit is het hebben van een hele dunne schil bescherming (RAID5/RAID-Z) niet afdoende, zeker niet wanneer je vele disks tot je beschikking hebt. Daarbij komt dat het replacen van een disk ook tijd kost, ook aangenomen dat je er ééntje direct paraat hebt wat voor thuisgebruikers zeker niet altijd het geval is. RAID-Z2 - dus dubbele pariteit - is zeker een goede investering wanneer het aantal disks toeneemt. De trend dat men enkele pariteit vaarwel zegt, dus RAID5 en RAID-Z, wordt bijvoorbeeld ondersteund door de voorman van FreeNAS, 'CyberJack' die dit in zijn signature heeft staan, en van Robin Harris - de storage expert achter het originele artikel: Why RAID5 stops working in 2009 nu bijna 10 jaar geleden. Dit artikel, wat vele RAID liefhebbers tegen de haren instreek, is mijns inziens het begin geweest van de omslag van legacy RAID naar next-gen ZFS/Btrfs/HammerFS/ReFS. Kortom nu er daadwerkelijk alternatieven zijn zie je dat ieder groot OS al is overgestapt, of bezig is over te stappen. Zo biedt nu ook Ubuntu desktop het in de default installatie aan, laagdrempelig.

Een 10-disk RAID-Z2 zie ik als de sweet spot als balans tussen bescherming en efficiency - oftewel hoeveel procent van de totale ruwe capaciteit is daadwerkelijk bruikbaar voor het filesystem. Bij een 10-disk met dubbele pariteit is dat 80%, dus 20% wordt geïnvesteerd (gaat 'verloren' volgens sommigen) in dubbelvoudige bescherming voor je data. Dat lijkt mij een prima getal, ik zou het voor 50/50 ook doen, maar bij een normale 2-voudige mirror heb je nog altijd maar één disk failure die je kunt opvangen. Kortom, pariteit is heerlijk bij veel disks om veilig maar vooral ook toch efficiënt veel data op te kunnen slaan. Zeker ZFS heeft zeer acceptabele schrijfprestaties voor RAID-Z1/2/3, wat bij RAID5/6 technisch niet mogelijk is door gebrek aan zaken als dynamische stripesize, waardoor RAID5/6 een read-modify-write routine kent voor writes die niet de perfecte magische grootte hebben en perfect aligned zijn. Alleen bij sequential write heb je hier weinig last van omdat in de tussenblokken er automatisch de juiste groottes gevonden worden - althans als je een redelijke RAID5 engine gebruikt. Intel onboard RAID doet dit bijvoorbeeld in elk geval wel.
Maar ik dwaal af.. het punt is dat je bescherming goed geïnvesteerd is. En met ZFS heb je een 'verbeterde' vorm van RAID6 en 'RAID7' tot je beschikking die erg effectief en vooral economisch kunnen zijn: je krijgt veel voor weinig geld.

Er is nog een andere mogelijkheid: een 19-disk RAID-Z3. Dat is best wel een monster configuratie. Ik beschouw het als fragieler dan een 10-disk RAID-Z2. Vooral ook omdat het minder 'mobiel' is; je kunt niet zomaar even een ander systeem aansluiten en toegang tot de pool krijgen. Je moet namelijk enorm veel SATA poorten kunnen leveren en niet elk moederbord is daar geschikt voor, afhankelijk van het soort controllers dat je gebruikt. Je zou wel in één klap klaar zijn met een 16-poorts LSI SAS controller. FreeBSD heeft nu ook support voor de 12Gbps controllers. Maar dat heb je niet echt nodig; al zijn die PCIe 3.0 volgens mij ipv PCIe 2.0 - maar dat is uit mijn hoofd.

Zou je deze mogelijkheid willen overwegen, betekent dit dus dat je minimaal 13 disks bijkoopt, om van 6 disks 19 disks te maken. Waarom 19? Dat komt omdat sommige configuraties efficienter zijn met opslagruimte of juist sneller afhankelijk van de ashift (sector size) van de vdev. RAID-Z: 3,5,9,17 disks, RAID-Z2: 4,6,10,18 disks, RAID-Z3: 5,7,11,19 disks). Zeker bij veel disks kun je je beter hier aan houden en ook vooral de large_block feature inschakelen zodat je disks geen piepkleine blokjes data te verwerken krijgen, want dan gaan je prestaties echt wel omlaag. Het hele punt van een 19-disk RAID-Z3 is natuurlijk dat je nóg efficienter uit bent, maar wel drie-voudige bescherming hebt met heel veel disks. Statistisch beter, maar ik denk in de praktijk vaak wel fragieler dan een 10-disk RAID-Z2.

Ik heb het zelf wel gedaan, omdat ik de meest efficiente configuratie wilde bouwen met DeLock 10x SATA controllers en 19x Toshiba HDDs, die met 27 euro per TB een tijdje geleden het goedkoopst waren. Nu weer iets duurder. :P. Ik ben nog steeds niet verder gekomen dan de DeLock controllers valideren en één Toshiba is al overleden, al zegt dat verder niks. Ik heb er zelf ook 20 besteld dus één meer, omdat ik wel uitval verwachtte en één disk paraat heb staan, al gemonteerd in de kast alleen niet aangesloten qua stroom. Zoiets kun je ook overwegen als je voor een 19-disk configuratie gaat. Bij een 10-disk RAID-Z2 acht ik het minder nodig, maar altijd wel beter natuurlijk.

Met 13 disks erbij heb je nog geen 19-disk RAID-Z3. Je wilt je huidige data behouden, of althans een gedeelte ervan. Als je inderdaad met minder kunt, kun je overwegen om een tijdelijke pool te maken en daar alles op te knallen via zfs send/receive of soms gewoon een cp gevolgd door een md5 checksum ofzo. En dan je oude 6-disk RAID-Z2 te vernietigen, en een 19-disk RAID-Z3 aan te maken met maar 16 disks aanwezig. Dus dan heb je minimaal 3 disks voor je tijdelijke pool. Als je nou nog een disk extra aanschaft als hot-standby voor replacen van een gefaalde disk, dan kun je die ook gebruiken en zit je op 4 tijdelijke disks. Dat moet hopelijk voldoende zijn om al je data te evacueren zodat je straks met een 19-disk RAID-Z3 zit.

Of je dit echt moet doen: ik weet het niet. Zou je een 16-poorts LSI controller aanschaffen dan zou ik een doenbaar plan vinden; maar met twee controllers bijvoorbeeld zit je weer vast aan PCIe poorten en kun je de configuratie dus niet zomaar op een ander mobo zetten. Dat zou ik wel als nadeel zien; dat je de pool niet kunt aanspreken zonder een monster systeem aan te sluiten, al valt twee keer PCIe x8 wel mee. Maar één controller heeft het voordeel dat je bij wijze van spreke het op een J1900/Braswell systeempje aansluit om toegang te krijgen, mocht er iets gebeurd zijn en je mobo boot niet meer, bijvoorbeeld. Dat wordt lastiger als je meer controllers nodig hebt. Als je meerdere pools hebt, kun je nog altijd de ene pool op systeem A en de andere op pool B aansluiten, maar bij een 19-disk RAID-Z3 kan dat niet en heb je dus minder mobiliteit.

Succes in elk geval! :)

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
aangepast
Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboard
(Intel) controller van mijn SuperMicro al de schijven één voor één opspinnen, lijkt me dat zo'n dedicated kaart dat ook moet kunnen?
Ik weet het niet eens, ik gebruik het niet.
In tegenstelling tot anderen vind ik 4 disks op 16 disks parity niet teveel. Het is juist goed dat je ook voor de 6-disk voor dubbele pariteit hebt gekozen. Met de huidige uBER en opslagcapaciteit is het hebben van een hele dunne schil bescherming (RAID5/RAID-Z) niet afdoende, zeker niet wanneer je vele disks tot je beschikking hebt. Daarbij komt dat het replacen van een disk ook tijd kost, ook aangenomen dat je er ééntje direct paraat hebt wat voor thuisgebruikers zeker niet altijd het geval is. RAID-Z2 - dus dubbele pariteit - is zeker een goede investering wanneer het aantal disks toeneemt.
Heb jaren lang zonder problemen met een 20-disk RAID6 gedraaid en heb nu ook een 18-disk RAIDZ2 vdev in mijn huidige 71 TB server (en de overige 6 disks ook in een separate RAIDZ2 vdev).

Met MDADM zou je gewoon 1 grote 16-disk RAID6 kunnen draaien. Voor thuis prima. Maar qua data integriteit is het wel een stap terug.

Met RAIDZ2 kun je uitval van twee schijven overleven en die kans dat dit gebeurt is gewoon niet zo groot.
Zodra 1 disk stuk gaat heb je nog alle tijd om een nieuwe te bestellen en daarna de disk te vervangen.

Je gooit nodeloos 2 disks weg in mijn beleving, maar het lastige is dat je niet 1 grote vdev met 16 drives kunt maken zonder je data ergens anders te moeten parkeren of grote trucs uit te halen.

Het is een paar honderd euro, maar dat is dan de prijs van ZFS die je misschien moet accepteren. ZFS is gewoon niet gratis, maar dat is niet ten nadele van ZFS. Het is gewoon een keuze.
De trend dat men enkele pariteit vaarwel zegt, dus RAID5 en RAID-Z, wordt bijvoorbeeld ondersteund door de voorman van FreeNAS, 'CyberJack' die dit in zijn signature heeft staan, en van Robin Harris - de storage expert achter het originele artikel: Why RAID5 stops working in 2009 nu bijna 10 jaar geleden. Dit artikel, wat vele RAID liefhebbers tegen de haren instreek, is mijns inziens het begin geweest van de omslag van legacy RAID naar next-gen ZFS/Btrfs/HammerFS/ReFS. Kortom nu er daadwerkelijk alternatieven zijn zie je dat ieder groot OS al is overgestapt, of bezig is over te stappen. Zo biedt nu ook Ubuntu desktop het in de default installatie aan, laagdrempelig.
Dat artikel van Robin Harris is een onzin artikel en wordt niet gestaafd door de realiteit. De voorspelligen zijn niet uitgekomen en de statistiek van 1 unrecoverable read error per 12.5 TB gelezen data is hele harede onzin, harde schijven zijn veel betrouwbaarder.

RAID5 voor thuis met een klein aantal disks is prima, maar met 16 disks wil je zeker geen enkele RAIDZ vdev nee ;) Meerdere kleine RAIDZ vdevs zou wel redelijk zijn, maar hoeveel je daarmee opschiet...

Ik vind het jammer dat CiPHER het ZDNET artikel aanhaalt want hij weet donders goed dat de soep niet zo heet gegeten word. Maar dat zou betekenen dat in het verleden ZFS teveel verkocht is op basis van FUD.

http://louwrentius.com/ra...-fine-for-home-usage.html

Zelf heb ik na vele scrubs en honderden terabytes aan verkeer nog geen enkele single bit error gedetecteerd dankzij ZFS.
Een 10-disk RAID-Z2 zie ik als de sweet spot als balans tussen bescherming en efficiency - oftewel hoeveel procent van de totale ruwe capaciteit is daadwerkelijk bruikbaar voor het filesystem. Bij een 10-disk met dubbele pariteit is dat 80%, dus 20% wordt geïnvesteerd (gaat 'verloren' volgens sommigen) in dubbelvoudige bescherming voor je data. Dat lijkt mij een prima getal, ik zou het voor 50/50 ook doen, maar bij een normale 2-voudige mirror heb je nog altijd maar één disk failure die je kunt opvangen. Kortom, pariteit is heerlijk bij veel disks om veilig maar vooral ook toch efficiënt veel data op te kunnen slaan. Zeker ZFS heeft zeer acceptabele schrijfprestaties voor RAID-Z1/2/3, wat bij RAID5/6 technisch niet mogelijk is door gebrek aan zaken als dynamische stripesize, waardoor RAID5/6 een read-modify-write routine kent voor writes die niet de perfecte magische grootte hebben en perfect aligned zijn. Alleen bij sequential write heb je hier weinig last van omdat in de tussenblokken er automatisch de juiste groottes gevonden worden - althans als je een redelijke RAID5 engine gebruikt. Intel onboard RAID doet dit bijvoorbeeld in elk geval wel.
Maar ik dwaal af.. het punt is dat je bescherming goed geïnvesteerd is. En met ZFS heb je een 'verbeterde' vorm van RAID6 en 'RAID7' tot je beschikking die erg effectief en vooral economisch kunnen zijn: je krijgt veel voor weinig geld.
MDADM RAID5 en RAID6 geven *uitstekende* sequentiële prestaties in de praktijk. Bovenstaande is onjuist.

Random I/O is lastiger, maar beseft dat met ZFS je altijd maar de random I/O performance krijgt van 1 disk per VDEV, dus als hoge random I/O performance boeit dan zijn mirrors met 50% capaciteitsverlies de enige realistische optie. Voor 99% van de mensen hier is dit totaal niet relevant en is 50% capaciteitsverlies volstrekte onzin: geld weggooien voor niets.

Ikzelf lees hier toch voornamelijk ZFS propaganda. Niet dat je niet voor ZFS zou moeten kiezen, je draait het al en ik ben ook nog steeds te spreken over ZFS, maar al die halve (on)waarheden, het is gewoon jammer.
DeLock controllers
Daar zou ik mee oppassen, die controller die CiPHER aanbeveelt is erg goedkoop, maar mensen hadden er problemen mee en ik begreep van CiPHER dat de kaart wat BSD betreft alleen goed werkt onder de meest recente versie (11) dus FreeNAS (gebaseerd op oudere BSD) zou dan al afvallen als platform.

[ Voor 87% gewijzigd door Q op 10-01-2017 01:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op dinsdag 10 januari 2017 @ 00:51:
[...]

Ikzelf lees hier toch voornamelijk ZFS propaganda. Niet dat je niet voor ZFS zou moeten kiezen, je draait het al en ik ben ook nog steeds te spreken over ZFS, maar al die halve (on)waarheden, het is gewoon jammer.
Nou inderdaad zeg. Fan zijn van een filesystem is prima, maar betitelingen als "RAID was leuk 20 jaar geleden; nu hebben we ZFS" hebben niks meer met objectiviteit te maken; dat is gewoon je ziel en zaligheid verkopen aan de ZFS-kerk. Zoals je zegt is ZFS een puik systeem, maar het is zeker niet heilig. Met name het gebrek aan flexibiliteit vind ik persoonlijk een groot gemis. Ik heb hier een raid array die ergens in 2009 is begonnen als 2-disk raid 1 array, een jaar later een 3-disk raid 5 array werd en inmiddels een 5-disk raid 5 array is geworden. Ik heb die raid array aangepast al naar gelang mijn behoefte, en dus ook niet alle HDDs in een keer aan hoeven schaffen. Met ZFS had dat nooit gekund. Daarnaast zorgen de systeemeisen er voor dat de standaard nas-doosjes die die meeste mensen kopen allemaal op mdadm draaien, en niet op ZFS.

Ja, ZFS biedt een betere beveiliging tegen bitrot, maar zoals je ook al zei is dat risico veel kleiner dan velen willen doen geloven. Voor grote bedrijven en liefhebbers zijn de nadelen van ZFS niet zo'n punt, maar voor de gemiddelde thuisgebruiker die z'n foto's en video's een beetje veilig op wil slaan biedt raid best voordelen ten opzichte van ZFS. Daar komt bij, een ZFS array fikt net zo hard als een raid array. Ik wil maar zeggen, noch ZFS, noch raid zijn een vervanging van een backup. m.i. Is het regelen van een fatsoenlijke (offsite) backup veel belangrijker dan het theoretische risico op bitrot waar ZFS-fetishisten maar op blijven hameren. Een klein beetje objectiviteit en realiteitszin over ZFS vs. raid mag wel,
het is hier ten slotte niet 'Het grote diy ZFS!!!111oneoneoneEINZ nas topic'. ;)

Overigens ondersteunt mdadm al een tijdje een write journal waarmee het hele write-hole issue kan worden opgelost. Het grote nadeel van die oplossing is dat je daar een extra device voor nodig hebt, en dat betekent een extra SATA poort en extra kosten. Voor een thuisgebruiker m.i. niet echt interessant, maar het kan dus wel.

[ Voor 6% gewijzigd door Verwijderd op 10-01-2017 02:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ah kijk daar, de cavalerie is gearriveerd! :+

Serieus: probeer de soep niet zo heet te eten met uitspraken als 'ZFS kerk' enzovoorts. 'Geloof' me: als er morgen iets beters is, ben ik zo bekeerd. :P

Maar even zonder gekkigheid: je kunt zeggen wat je wilt, maar ZFS is gewoon het beste wat er te kiezen valt in dit tijdperk. Misschien over 10 jaar wat anders, maar nu is het ZFS. ZFS! ZFS! ZFS! Iets anders gebruiken kan ook, zeker als er redenen voor zijn. En die zijn er, want ZFS biedt niet alléén maar voordelen maar ook een paar nadelen, zoals dat je een bestaande parity array (vdev) niet met een enkele disk kunt uitbreiden. Als dit soort argumenten op tafel liggen, kan een oplossing als Linux md-raid opeens de meer logische keuze zijn. Maar all-round advies voor een NAS anno 2017? Natuurlijk ZFS! Tenzij je een reden hebt geen ZFS te draaien.

En psst, de RAID5 write hole en vele andere zwakheden van legacy RAID heb ik niet eens genoemd, die komen er nog bij. ;)
Q schreef op dinsdag 10 januari 2017 @ 00:51:
Heb jaren lang zonder problemen met een 20-disk RAID6 gedraaid en heb nu ook een 18-disk RAIDZ2 vdev in mijn huidige 71 TB server (en de overige 6 disks ook in een separate RAIDZ2 vdev).
Mja, ik vind het erg veel disks met weinig parity. Waarom dan niet één disk erbij en een 19-disk RAID-Z3. Al had je die degraded aangemaakt, had je altijd nog kunnen varieren tussen 17-disk RAID-Z, 18-disk RAID-Z2 en 19-disk RAID-Z3. Nu kan dat niet meer.

Je zit er niet mee snap ik, omdat je er geen risico in ziet. Ook ik denk dat het risico niet erg groot is, maar toch te groot voor mij om gemakkelijk bij te voelen. Wellicht wel met een 1:1 backup. Maar nu schiet me iets te binnen... ik geloof dat ik onlangs van je begrepen had dat zelfs jij - you of all people - niet van al je data een backup hebt. Al lijkt het me - gezien je reputatie maar zeker ook de hoge standaarden die je anderen altijd hebt voorgehouden - waarschijnlijker dat ik moe was en je woorden verkeerd heb geïnterpreteerd. :P

Zo niet, doe dan die mooie 18-disk RAID-Z2 van je ook maar door de kliko, toch? Je data is immers niets waard. De paus moet zelf ook als een christen leven, dus kies maar: of de kliko, of reputatie-schade voor het niet praktiseren van eigen overtuigingen. >:)
Met MDADM zou je gewoon 1 grote 16-disk RAID6 kunnen draaien. Voor thuis prima. Maar qua data integriteit is het wel een stap terug.
Wat eerlijk van je! O+ Maar als het klopt wat je zegt dan denk ik: waarom dan? We willen geen stap áchteruit maar juist een stap vóóruit qua bescherming, toch? Tenzij er een reden is om toch een stapje terug te doen.
Met RAIDZ2 kun je uitval van twee schijven overleven en die kans dat dit gebeurt is gewoon niet zo groot.
Nouja het gevaar zou zijn dat er één disk gaat, je een nieuwe bestelt, en tijdens het rebuilden nog een andere disk uitvalt. Als je dan ook bad sectors hebt op een andere disk, krijg je gaten in je data bij ZFS en worden bepaalde files onleesbaar. Bij legacy RAID kan zelfs je filesystem corrupt raken en heb je deep recovery nodig om data heelhuids terug te halen.

Hoe groot is de kans op dubbele uitval in een relatief korte tijd? Niet zo heel groot, maar toch zeker niet enkel een hypothetisch risico. Met een enkelvoudige failure heb je bij RAID-Z2 (en dus ook RAID-Z3) nog altijd bescherming tegen bad sectors en bitrot op de schijven.
Je gooit nodeloos 2 disks weg in mijn beleving [..] Het is een paar honderd euro, maar dat is dan de prijs van ZFS die je misschien moet accepteren. ZFS is gewoon niet gratis, maar dat is niet ten nadele van ZFS. Het is gewoon een keuze.
Je gooit niets weg, je investeert in bescherming. Hij besteedt meer disks aan pariteit dan jij, maar heeft daardoor ook een hoger niveau van bescherming doordat de dubbele parity-bescherming over minder disks wordt gedeeld en daardoor het risico op falen kleiner is dan een array met minder redundancy.

Het punt is dat jij kennelijk aanhanger bent van 'dunbezaaide' redundancy, zoals een 18-disk RAID-Z2. Dat kan wel werken, maar ik vind dat zelf waaghalzerij. Maar ik sluit zeker niet uit dat jij een nette serversetup hebt en daardoor een lager dan gemiddeld risico hebt. En we hebben altijd nog de 1:1 backup. O-)
Dat artikel van Robin Harris is een onzin artikel en wordt niet gestaafd door de realiteit. De voorspelligen zijn niet uitgekomen en de statistiek van 1 unrecoverable read error per 12.5 TB gelezen data is hele harede onzin, harde schijven zijn veel betrouwbaarder.
Waar baseer je deze enorm stellige beweringen op? Onderbouw dan ook eens je kritiek op zijn verhaal. Ik ben oprecht benieuwd. Ik hoor ook niet zo veel over real-case studies naar uBER. Bovendien zijn de studies die er zijn niet direct toepasbaar op thuisgebruikers die hun schijven in heel andere omstandigheden blootstellen dan zakelijke gebruikers dat doen in een datacentrum.

Kijk, je zegt dat het artikel van Robin Harris onzin is. Maar bedoel je niet gewoon dat je het niet eens bent met de cijfers, maar wel het algemene verhaal dat uBER een probleem kan vormen en je hele RAID array danwel filesystem aan gort kan knagen en dat dit probleem samen met diskfalen overwogen moet worden bij de keuze tussen welk RAID level en hoeveel disks.

En dat probleem bestaat! Stel je voor: je hebt een RAID5, een disk faalt, tijdens het rebuilden krijg je een bad sector op een andere disk en ligt je RAID al met vier pootjes omhoog bij heel wat RAID engines. De schade kan in andere gevallen relatief beperkt blijven. Maar bij heel wat situaties zoals onboard RAID engines en ook Hardware RAID, vliegt je RAID configuratie eruit en zit je met een gefaalde RAID array die jij mag proberen te fixen. Dan gaan een heleboel thuisgebruikers zweten hoor, als ze die rode letters FAILED zien staan. En vaak verwijderen ze maar de hele array, omdat recoveren toch te lastig klinkt en ze komen er niet uit, en professionele services kunnen ze allang niet betalen. Dit is, Q, toch de realiteit? Jij kan zeggen: maakt niet uit want ze hebben er niet veel geld voor over en dus maakt het niets uit dat hun data weg is. Maar ik denk daar anders over. Ik ben blij dat ZFS hun data kan beschermen zonder dat ze noodzakelijk enorm veel geld hoeven uit te geven voordat ze die bescherming zouden 'verdienen'. Iedereen verdient betrouwbare computertechniek, vooral ook de mainstream.

Ik ben het wel met je eens dat we de specificaties die hardeschijven opvoeren als uBER niet hoeven te kloppen. Het is inderdaad plausibel dat die voor een heleboel schijven hoger dan de opgegeven 10^-14 ligt. Maar hoe zeker weten we dat? Voor welke schijven precies? Welke productie-batches? Van welke fabrieken? Als we alles zouden weten, zou dat waarschijnlijk een zee van cijfers zijn waarin fluctuaties in kwaliteit ook zichtbaar worden en soms abrupte verschuivingen als een fabriek overschakelt op een ander proces, of iets dergelijks. Maar we weten het niet. Het blijft gissen. Een 3GHz processor draait misschien ook wel 3,5GHz, maar misschien ook niet. 3GHz krijg je in elk geval. Hetzelfde kun je zien voor uBER: leuk als uiteindelijk je statistisch gezien gunstig uitvalt qua bad sectors en duty cycle enzovoorts, maar we gaan uit van de specificatie en beschouwen de daadwerkelijke iets gunstigere uBER meer als marge die mooi is meegenomen, maar we wapenen ons op basis van de officiële specs.

Kortom, door zomaar te veronderstellen dat de uBER in de praktijk veel gunstiger is dan de specificatie van de fabrikant, is denk ik voorbarig en 'wishful thinking'. Het getuigt mijns inziens niet van een 'safety culture' waarbij we uitgaan van ruwe specs en dat het in de praktijk dan gunstiger uitpakt is mooi, maar risico nemen met je data wil je niet. Dat is het hele idee van een 3e generatie filesystem dat we nu onze data eens echt gaan beschermen!

Het artikel van Robin Harris is gewoon het startpunt geweest dat de gevaren van uBER - oftewel bad sectors zonder fysieke schade - nu eens bekend werden en meegewogen worden bij afwegingen als RAID5 of RAID6. Nu is het bijna 10 jaar later en het lijkt soms wel dat legacy RAID opeens alleen nog voor een groep trouwelingen echt interessant is. De mainstream is ook enthousiast geraakt voor de voordelen van ZFS en consorten die filesystems weer sexy maken. Opslag zonder gezeik. Beter dan legacy RAID op bijna alle gebieden.
Nog even je site aanprijzen; kan het daar niet aan hebben gelegen. ;)
Zelf heb ik na vele scrubs en honderden terabytes aan verkeer nog geen enkele single bit error gedetecteerd dankzij ZFS.
Dat betekent dat alles goed werkt en je een stabiele setup hebt; dat is goed nieuws! Maar besef dat anderen minder gelukkig kunnen zijn, en problemen die optreden gemakkelijk kunnen identificeren en ZFS doet automatisch de rest. Dat is zeker voor thuisgebruikers een zeer goede maar vooral zeer onderschatte feature: de detectie van fouten. Dat heeft vele ZFS gebruikers geholpen om snel een MemTest86 te draaien om te ontdekken dat ze defect RAM hadden, of een overclock of undervolt te streng stond afgesteld, of de temperatuur door gebrek aan een fan of warm weer te hoog kan oplopen in de kast, enzovoorts.

Het feit dat jij al geruime tijd aangeeft eigenlijk nooit problemen te hebben ervaren (behalve wat simpele schijfuitval, had ik begrepen?) met je opslag, kan het resultaat zijn dat je je zaakje 'netjes' op orde hebt qua opstelling en goed omgaat met je hardware, evenals de juiste keuze voor bijvoorbeeld hardeschijven, wat zeker ook een factor is. Kortom, geen nieuws is goed nieuws!

Maar wees nou niet te makkelijk om te denken dat - in het algemeen - het probleem hierdoor vrijwel nihil is. Andere gebruikers hebben heel andere ervaringen, en dat kan door allerlei factoren komen. Maar ik maak juist wel regelmatig mee dat mensen hun RAID uitvalt, of dat bad sectors tijdens een rebuild voor problemen zorgen. En bad sectors zonder fysieke schade (uBER) komen op het forum ook regelmatig langs, zoals in het Check je SMART topic. Dat kan worden vastgesteld doordat er na de format geen Reallocated Sectors bijkomen, maar de Current Pending Sectors wel tot 0 is gedaald. In dat geval zijn er dus geen 'bad' sectors omgewisseld en was onvoldoende errorcorrectie dus de oorzaak van de leesfout en niet fysieke schade aan de sectoren zelf. Kortom: uBER bestaat! Echt waar. :)

Het is ook al lang geleden dat Microsoft met Windows Home Server zijn Drive Extender functionaliteit wilde uitbreiden om een percentage te gebruiken voor extra errorcorrectie om onleesbare sectoren te kunnen opvangen. Maar het project werd afgeblazen omdat het te complex werd, te veel veranderingen zou meebrengen, en omdat het de beperking had dat het niet meer compatible met NTFS zou zijn zonder geïnstalleerde software. Maar het geeft wel aan dat zelfs Microsoft voor zijn thuisgebruikers al lange tijd geleden bescherming wilde inbouwen. Dat doen ze natuurlijk niet voor niets.

En zelfs Ext4 werd als 'stop-gap measure' gezien door de auteur notabene. Btrfs moest het worden, als 3e generatie filesystem gewaagd aan ZFS en zelfs met enkele extra features. En Btrfs is er, al lijkt het niet helemaal een succes met de degradatie van de RAID5 functionaliteit. In mijn ogen duurt het nog wel even voordat Btrfs echt als voorwaardig concurrent gezien kan worden van ZFS.

Synology biedt zelfs al Btrfs aan en heeft een hele pagina geweid aan de voordelen van dit next-gen filesystem.

Microsoft is nu bezig met ReFS al ben ik niet up-to-date met vorderingen. Wat ik gehoord heb tot nu toe van gebruikers is niet heel positief. Trage snelheden vooral en vage problemen. Maar als Microsoft er actief aan werkt, mag ik hopen dat ze er iets stabiels van kunnen maken wat als opvolger van NTFS kan dienen. De vraag is wel hoe moeilijk het zal ReFS te mounten op een niet-Windows systeem.

Kortom, de hele industrie neemt uBER en databescherming serieus en is al overgestapt of dat aan het doen. Dat gebeurt echt niet als zaken als uBER of bitrot of corruptie in het algemeen echt een nihil risico vormen. Jouw goede ervaringen in het verleden zijn geen garantie voor anderen en ook niet voor jezelf in de toekomst.
Ikzelf lees hier toch voornamelijk ZFS propaganda.
MDADM RAID5 en RAID6 geven *uitstekende* sequentiële prestaties in de praktijk. Bovenstaande is onjuist.
Niet om vervelend te zijn, maar dan moet je zelf wel het goede voorbeeld geven en mijn quote niet verkeerd lezen. ;) Want in het voorbeeld hierboven suggereer je dat ik in de quote zou betwisten dat MDADM RAID5 geen goede sequential performance zouden bieden. Sterker nog, het wordt juist bevestigd in de quote, alleen wordt MDADM in die context niet genoemd: bij sequential write heb je hier weinig last van omdat in de tussenblokken er automatisch de juiste groottes gevonden worden - althans als je een redelijke RAID5 engine gebruikt.

In je stellingname mis ik veel concrete zaken. Je betwijfelt het hele uBER gebeuren, maar ik hoor geen ander argument dan dat je er zelf geen last van hebt gehad. Het komt allemaal niet als een erg goed onderbouwd argument over, als ik dat mag zeggen. Dan vind ik de realiteit van vrijwel de hele industrie die naar next-gen filesystems overgaat toch nét iets overtuigender. Ook ben ik trots dat ik alweer vele jaren geleden als pionier op fora als deze ZFS verkondigde als the next big thing wat filesystems opeens sexy maakte, mede omdat het RAID kon vervangen. Toen was het nog nieuw, en moest men worden overtuigd. Nu de mainstream eindelijk is overtuigd, blijft er nog een restant over van de aanhangers van de glorie van het oude tijdperk, of zoals Robin Harris het komisch verwoorde:

I've clearly tapped into a rich vein of RAID folklore

Iets zegt mij dat Robin Harris en jij niet dezelfde humor delen. :*)
Random I/O is lastiger, maar beseft dat met ZFS je altijd maar de random I/O performance krijgt van 1 disk per VDEV
Nog steeds veel sneller dan de belabberde random write latency legacy RAID5, alleen een smerige grote write buffer kan verhullen dat je geweldige RAID5/6 array in feite takketraag is bij alles behalve één magische grootte. Al die legacy RAID engines zijn goed in de echte snelheid te verdoezelen. Nee, neem dan sustained random write IOps, dan onderscheiden de heren zich van de mannen. ;)
maar al die halve (on)waarheden, het is gewoon jammer.
Introduceer dan zelf ook geen nieuwe! :P
Daar zou ik mee oppassen, die controller die CiPHER aanbeveelt is erg goedkoop, maar mensen hadden er problemen mee en ik begreep van CiPHER dat de kaart wat BSD betreft alleen goed werkt onder de meest recente versie (11) dus FreeNAS (gebaseerd op oudere BSD) zou dan al afvallen als platform.
Ik heb de controller niet aanbevolen, ik zei dat ik hem in gebruik had. Als ik - indirect - een controller zou hebben aanbevolen, zou dat de LSI 16-poorts SAS controller zijn, 6Gbps or 12Gbps. Maar je waarschuwing is zeker wel terecht: de DeLock controller heb ik zelf nog niet gevalideerd voor gebruik.

Merk op dat je FreeBSD 12-CURRENT nodig hebt en dus niet 11. Dus FreeNAS kan nog heel wat jaartjes treuzelen met versies die achterlopen. Er bestaat overigens wel een 'concurrerend project' wat deze versie al reeds aanbiedt. Ik noem geen namen. 8)

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 21-09 17:50

FREAKJAM

"MAXIMUM"

Dank voor al jullie adviezen! Ik ga nog even goed nadenken wat nu de beste optie is. Wat betreft hardware/kabels en dergelijke moeten er ook nog de juiste keuzes gemaakt worden, en die vind ik misschien nog wel lastiger :)

Goed om te weten dat het in ieder geval krap gaat worden met mijn huidige 360w Seasonic voeding wanneer ik er een bult schijven bij ga plaatsen.

[ Voor 6% gewijzigd door FREAKJAM op 10-01-2017 10:21 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Verwijderd schreef op dinsdag 10 januari 2017 @ 07:06:

Maar even zonder gekkigheid: je kunt zeggen wat je wilt, maar ZFS is gewoon het beste wat er te kiezen valt in dit tijdperk. Misschien over 10 jaar wat anders, maar nu is het ZFS. ZFS! ZFS! ZFS! Iets anders gebruiken kan ook, zeker als er redenen voor zijn. En die zijn er, want ZFS biedt niet alléén maar voordelen maar ook een paar nadelen, zoals dat je een bestaande parity array (vdev) niet met een enkele disk kunt uitbreiden. Als dit soort argumenten op tafel liggen, kan een oplossing als Linux md-raid opeens de meer logische keuze zijn. Maar all-round advies voor een NAS anno 2017? Natuurlijk ZFS! Tenzij je een reden hebt geen ZFS te draaien.

En psst, de RAID5 write hole en vele andere zwakheden van legacy RAID heb ik niet eens genoemd, die komen er nog bij. ;)
ZFS is het beste qua file system wat je nu kunt krijgen, maar de alternatieven zijn ook acceptabel.

Altijd maar ZFS roepen is geen oog hebben voor mensen hun wensen, eisen, budget en kennis/tijd.

De grote meererheid van mensen koopt een Synology of QNAP en dat is 100% prima / redelijk / acceptabel.

ZFS is een special. Als het bij je omstandigheden past, prima, goede keuze. Maar ZFS is niet de enige redelijke keuze.

Verhalen over de write-hole en al die andere informatie over 'legacy' RAID is niet onjuist, ZFS beschermt inderdaad tegen deze risico's, maar de risico's waar ZFS in deze tegen beschermt zijn zo enorm klein dat mensen zich er thuis niet druk over hoeft te maken.

Het is een leuke extra.
Mja, ik vind het erg veel disks met weinig parity. Waarom dan niet één disk erbij en een 19-disk RAID-Z3. Al had je die degraded aangemaakt, had je altijd nog kunnen varieren tussen 17-disk RAID-Z, 18-disk RAID-Z2 en 19-disk RAID-Z3. Nu kan dat niet meer.
Je weet dat ik totaal 24 disks heb dus dat werkt niet, dat wordt inefficent.

Ik zou zelf nu nog een keer RAIDZ3 met 24 disks willen proberen en large_blocks enabled, maar op mijn download server had ik super slechte performance met RAIDZ en 8 disks met large_blocks enabled dus daar ben ik terug gegaan naar MDADM RAID5, wat 50% betere read/write performance geeft onder deze omstandigheden.
Je zit er niet mee snap ik, omdat je er geen risico in ziet. Ook ik denk dat het risico niet erg groot is, maar toch te groot voor mij om gemakkelijk bij te voelen. Wellicht wel met een 1:1 backup. Maar nu schiet me iets te binnen... ik geloof dat ik onlangs van je begrepen had dat zelfs jij - you of all people - niet van al je data een backup hebt. Al lijkt het me - gezien je reputatie maar zeker ook de hoge standaarden die je anderen altijd hebt voorgehouden - waarschijnlijker dat ik moe was en je woorden verkeerd heb geïnterpreteerd. :P
Tja het enige wat je nu doet is op de man spelen en mij belachgelijk proberen te maken, om mijn geloofwaardigheid naar beneden te halen, maar inhoudelijk zit je er helemaal naast en weet je dondersgoed wat mijn afweging is.

Het is wat mij betreft heel onoprecht van je om naar een post van mij te linken die in een hele andere context wordt geschreven.

Ik heb namelijk een hele bewuste keuze gemaakt om een groot deel van mijn data niet te backuppen omdat dit voor mij te duur wordt.

En zo zijn er met mij heel veel ander mensen hier. Die accepteren dat als ze hun media verliezen dat ze daar mee kunnen leven. Foto's is een ander verhaal, maar daar heb ik wel backups van.

Het gaat om die bewuste keuze. En je weet dat de context van de post waar je naar linkt gaat over een persoon die niet nadenkt over backups of de boel niet goed geregeld heeft en dan poef data kwijt is.
Zo niet, doe dan die mooie 18-disk RAID-Z2 van je ook maar door de kliko, toch? Je data is immers niets waard. De paus moet zelf ook als een christen leven, dus kies maar: of de kliko, of reputatie-schade voor het niet praktiseren van eigen overtuigingen. >:)

Wat eerlijk van je! O+ Maar als het klopt wat je zegt dan denk ik: waarom dan? We willen geen stap áchteruit maar juist een stap vóóruit qua bescherming, toch? Tenzij er een reden is om toch een stapje terug te doen.
Wat een totale oneerlijke voorstelling van zaken. Bewust de feiten en woorden verdraaien.

Edit: ik ben juist heel consequent: ik maak bewust geen backups van een groot deel van mijn data, maar van mijn kant zul je geen jank post hoeven te verwachten als het mis gaat. Je gaat mij niet horen/zien roepen dat mijn data echt super belangrijk is om dan geen backups te maken. Het is erg leuk dat mijn data beschikbaar blijft, maar mocht het ondanks alle maatregelen mis gaan, dan accepteer ik dat. Je redenatie hierboven raakt echt kant nog wal.

MDADM software RAID is minder goed maar nogsteeds 100% voldoende:

MDADM krijgt een 8
ZFS krijgt een 9.5

Een 8 is nog steeds een uitstekend cijfer.
Nouja het gevaar zou zijn dat er één disk gaat, je een nieuwe bestelt, en tijdens het rebuilden nog een andere disk uitvalt. Als je dan ook bad sectors hebt op een andere disk, krijg je gaten in je data bij ZFS en worden bepaalde files onleesbaar. Bij legacy RAID kan zelfs je filesystem corrupt raken en heb je deep recovery nodig om data heelhuids terug te halen.
De kans op een 2e drive failure of read-error bij een rebuild is heel klein. Niet nul maar klein.
Hoe groot is de kans op dubbele uitval in een relatief korte tijd? Niet zo heel groot, maar toch zeker niet enkel een hypothetisch risico. Met een enkelvoudige failure heb je bij RAID-Z2 (en dus ook RAID-Z3) nog altijd bescherming tegen bad sectors en bitrot op de schijven.
RAID6 of RAIDZ2 is beter maar met kleine arrays is RAID5 acceptabel.
Je gooit niets weg, je investeert in bescherming. Hij besteedt meer disks aan pariteit dan jij, maar heeft daardoor ook een hoger niveau van bescherming doordat de dubbele parity-bescherming over minder disks wordt gedeeld en daardoor het risico op falen kleiner is dan een array met minder redundancy.

Het punt is dat jij kennelijk aanhanger bent van 'dunbezaaide' redundancy, zoals een 18-disk RAID-Z2. Dat kan wel werken, maar ik vind dat zelf waaghalzerij. Maar ik sluit zeker niet uit dat jij een nette serversetup hebt en daardoor een lager dan gemiddeld risico hebt. En we hebben altijd nog de 1:1 backup. O-)
Tja het enige waar je je van bediend is Fear, Uncertainty en Doubt.
Waar baseer je deze enorm stellige beweringen op? Onderbouw dan ook eens je kritiek op zijn verhaal. Ik ben oprecht benieuwd. Ik hoor ook niet zo veel over real-case studies naar uBER. Bovendien zijn de studies die er zijn niet direct toepasbaar op thuisgebruikers die hun schijven in heel andere omstandigheden blootstellen dan zakelijke gebruikers dat doen in een datacentrum.
Je weet dat die studies moeilijk te vinden zijn en vaak alleen op enterprise omgevingen van toepassingen zijn.

Maar de bal ligt bij jou. Jij moet hard maken waarom ZFS thuis zo'n must is en hoe de risico's die ook door Synologies en QNAPs worden gedeeld zo onverantwoord zijn om te nemen. Dat die dingen nog verkocht mogen worden!

Verder heb ik hier mijn argumentatie verwerkt.

http://louwrentius.com/ra...-fine-for-home-usage.html

http://louwrentius.com/should-i-use-zfs-for-my-home-nas.html

Als jij meent dat de risico's zo groot zijn dat je thuis koste wat het kost ZFS moet draaien: kun jij daar dan redelijk bewijs voor geven? Of anders stoppen met mensen zo bang te maken met FUD?

Ik vind dat de bewijslast toch echt hier bij het ZFS kamp ligt en het bewijs heb ik na al die jaren niet kunnen vinden.
Kijk, je zegt dat het artikel van Robin Harris onzin is. Maar bedoel je niet gewoon dat je het niet eens bent met de cijfers, maar wel het algemene verhaal dat uBER een probleem kan vormen en je hele RAID array danwel filesystem aan gort kan knagen en dat dit probleem samen met diskfalen overwogen moet worden bij de keuze tussen welk RAID level en hoeveel disks.
Nee, het is aantoonbare onzin dat disks met een 10^14 error rate gemiddeld iedere 12.5 TB aan gelezen data een read error geeft.

Edit: als het zou kloppen dat disks iedere 12.5 TB een read error terug zouden geven, dan zouden ZFS scrubs op zeer grote schaal regelmatig falen. Maar dat is zeker niet het geval. Iedere scrub die ik zelf doe houdt in dat ik 40 TB aan data inlees, keer op keer, zonder 1 bit error. Hoe kan dat? Simpel: disks zijn vele malen betrouwbaarder, eerder 10^15 of zelfs beter en die 10^14 is een cover-your-ass nummer. Dat is de logische verklaring.

Disks zijn veel betrouwbaarder.
En dat probleem bestaat! Stel je voor: je hebt een RAID5, een disk faalt, tijdens het rebuilden krijg je een bad sector op een andere disk en ligt je RAID al met vier pootjes omhoog bij heel wat RAID engines. De schade kan in andere gevallen relatief beperkt blijven. Maar bij heel wat situaties zoals onboard RAID engines en ook Hardware RAID, vliegt je RAID configuratie eruit en zit je met een gefaalde RAID array die jij mag proberen te fixen. Dan gaan een heleboel thuisgebruikers zweten hoor, als ze die rode letters FAILED zien staan. En vaak verwijderen ze maar de hele array, omdat recoveren toch te lastig klinkt en ze komen er niet uit, en professionele services kunnen ze allang niet betalen. Dit is, Q, toch de realiteit? Jij kan zeggen: maakt niet uit want ze hebben er niet veel geld voor over en dus maakt het niets uit dat hun data weg is. Maar ik denk daar anders over. Ik ben blij dat ZFS hun data kan beschermen zonder dat ze noodzakelijk enorm veel geld hoeven uit te geven voordat ze die bescherming zouden 'verdienen'. Iedereen verdient betrouwbare computertechniek, vooral ook de mainstream.
Alleen maar mensen bang maken. Vele mensen draaien hun QNAPs en Synologies ook gewoon in RAID5 en de meeste mensen draaien hier prima mee en worden zo goed beschermd.

RAIDZ beschermt tegen een klein risico waar RAId5 niet tegen beschermd, maar waar het om gaat zijn de 'echte' risico's, de grote risico's: disk uitval.
Ik ben het wel met je eens dat we de specificaties die hardeschijven opvoeren als uBER niet hoeven te kloppen. Het is inderdaad plausibel dat die voor een heleboel schijven hoger dan de opgegeven 10^-14 ligt. Maar hoe zeker weten we dat? Voor welke schijven precies? Welke productie-batches? Van welke fabrieken?
Twijfel zaaien, meer is dit niet.
Als we alles zouden weten, zou dat waarschijnlijk een zee van cijfers zijn waarin fluctuaties in kwaliteit ook zichtbaar worden en soms abrupte verschuivingen als een fabriek overschakelt op een ander proces, of iets dergelijks. Maar we weten het niet. Het blijft gissen. Een 3GHz processor draait misschien ook wel 3,5GHz, maar misschien ook niet. 3GHz krijg je in elk geval. Hetzelfde kun je zien voor uBER: leuk als uiteindelijk je statistisch gezien gunstig uitvalt qua bad sectors en duty cycle enzovoorts, maar we gaan uit van de specificatie en beschouwen de daadwerkelijke iets gunstigere uBER meer als marge die mooi is meegenomen, maar we wapenen ons op basis van de officiële specs.
Weer een lap tekst, maar zonder substantie, alleen maar om weer twijfel te zaaien.
Kortom, door zomaar te veronderstellen dat de uBER in de praktijk veel gunstiger is dan de specificatie van de fabrikant, is denk ik voorbarig en 'wishful thinking'. Het getuigt mijns inziens niet van een 'safety culture' waarbij we uitgaan van ruwe specs en dat het in de praktijk dan gunstiger uitpakt is mooi, maar risico nemen met je data wil je niet. Dat is het hele idee van een 3e generatie filesystem dat we nu onze data eens echt gaan beschermen!
Ik veronderstel niet zomaar dingen, het is gebaseerd op persoonlijke ervaring met 60+ schijven thuis, op ervaringen van anderen en wat ik op het internet kan vinden.

Lees hier nu:

https://www.reddit.com/r/...id5_gets_is_uncalled_for/

It's hard to even discuss how bad that article is and how much damage it has caused in technology discussions. People regurgitate that garbage all over this sub, /r/sysadmin, /r/homelab and /r/homeserver all the time and it drives me insane. Honestly most of the people in these subs and these "tech" bloggers really don't have much experience with storage. I've mentioned on this sub that I work in data centers and work with thousands upon thousands of RAID5, RAID6, RAID1 and RAID10 arrays. In nearly a decade I can count on one hand how many rebuild failures I've seen. In the data center I currently work with most (for the last 7 years) I have yet to see a single rebuild failure. There are over 2500 storage servers there. Well over 1000 RAID5 arrays. Many 10TB disk based RAID5 arrays. Over 100 drive replacements a year.
As others have said... you rely on backups to keep your data safe. Disk redundancy is nothing more than a convenience. If RAID5 suits your scenario best. Use it.
As you said the URE rate thrown out by manufacturers just doesn't translate to real world usage. It's just a warranty figure. A cya number based off minimal testing. Take the lowest figure they hit that doesn't impact their bottom line and that's their number.
Het artikel van Robin Harris is gewoon het startpunt geweest dat de gevaren van uBER - oftewel bad sectors zonder fysieke schade - nu eens bekend werden en meegewogen worden bij afwegingen als RAID5 of RAID6. Nu is het bijna 10 jaar later en het lijkt soms wel dat legacy RAID opeens alleen nog voor een groep trouwelingen echt interessant is. De mainstream is ook enthousiast geraakt voor de voordelen van ZFS en consorten die filesystems weer sexy maken. Opslag zonder gezeik. Beter dan legacy RAID op bijna alle gebieden.
Het feit is dat 99% van de mensen met de behoefte aan een NAS thuis gewoon een QNAP of Synology toepast. ZFS is niet 'sexy' en zeker al helemaal niet mainstream. Of heb je enig bewijs voor deze uitspraak?
Nog even je site aanprijzen; kan het daar niet aan hebben gelegen. ;)
Tja, als we zo gaan beginnen, het is niet als of je als eigenaar/beheerder van ZFSGuru geen agenda hebt ofzo.
Dat betekent dat alles goed werkt en je een stabiele setup hebt; dat is goed nieuws! Maar besef dat anderen minder gelukkig kunnen zijn, en problemen die optreden gemakkelijk kunnen identificeren en ZFS doet automatisch de rest. Dat is zeker voor thuisgebruikers een zeer goede maar vooral zeer onderschatte feature: de detectie van fouten. Dat heeft vele ZFS gebruikers geholpen om snel een MemTest86 te draaien om te ontdekken dat ze defect RAM hadden, of een overclock of undervolt te streng stond afgesteld, of de temperatuur door gebrek aan een fan of warm weer te hoog kan oplopen in de kast, enzovoorts.
ZFS voor al je kwaaltjes! Het geneest uw griep!
Maar wees nou niet te makkelijk om te denken dat - in het algemeen - het probleem hierdoor vrijwel nihil is.
Het is nihil, en als je anders wilt beweren dan ben jij aan zet, mag jij aantonen met feiten dat het niet nihil is.
Andere gebruikers hebben heel andere ervaringen, en dat kan door allerlei factoren komen. Maar ik maak juist wel regelmatig mee dat mensen hun RAID uitvalt, of dat bad sectors tijdens een rebuild voor problemen zorgen. En bad sectors zonder fysieke schade (uBER) komen op het forum ook regelmatig langs, zoals in het Check je SMART topic. Dat kan worden vastgesteld doordat er na de format geen Reallocated Sectors bijkomen, maar de Current Pending Sectors wel tot 0 is gedaald. In dat geval zijn er dus geen 'bad' sectors omgewisseld en was onvoldoende errorcorrectie dus de oorzaak van de leesfout en niet fysieke schade aan de sectoren zelf. Kortom: uBER bestaat! Echt waar. :)
Wat is dit weer een onjuiste voorstelling van mijn standpunt. Tuurlijk zijn badsectors en uBERs echt. De kans dat je er een tijdens een rebuild voor je kiezen krijgt is alleen heel klein. Dat is waar het om draait.
Het is ook al lang geleden dat Microsoft met Windows Home Server zijn Drive Extender functionaliteit wilde uitbreiden om een percentage te gebruiken voor extra errorcorrectie om onleesbare sectoren te kunnen opvangen. Maar het project werd afgeblazen omdat het te complex werd, te veel veranderingen zou meebrengen, en omdat het de beperking had dat het niet meer compatible met NTFS zou zijn zonder geïnstalleerde software. Maar het geeft wel aan dat zelfs Microsoft voor zijn thuisgebruikers al lange tijd geleden bescherming wilde inbouwen. Dat doen ze natuurlijk niet voor niets.
Dat klopt, het zou beter zijn, maar dat wil niet zeggen dat wat we nu doen niet goed genoeg is, de meeste mensen maken de ellende door zie zeldzame situaties niet mee.
En zelfs Ext4 werd als 'stop-gap measure' gezien door de auteur notabene. Btrfs moest het worden, als 3e generatie filesystem gewaagd aan ZFS en zelfs met enkele extra features. En Btrfs is er, al lijkt het niet helemaal een succes met de degradatie van de RAID5 functionaliteit. In mijn ogen duurt het nog wel even voordat Btrfs echt als voorwaardig concurrent gezien kan worden van ZFS.
Helemaal mee eens.
Microsoft is nu bezig met ReFS al ben ik niet up-to-date met vorderingen. Wat ik gehoord heb tot nu toe van gebruikers is niet heel positief. Trage snelheden vooral en vage problemen. Maar als Microsoft er actief aan werkt, mag ik hopen dat ze er iets stabiels van kunnen maken wat als opvolger van NTFS kan dienen. De vraag is wel hoe moeilijk het zal ReFS te mounten op een niet-Windows systeem.
Wat REFS betreft stort de performance in zodra je checksumming gaat doen. Maar ouderwetse NTFS met software RAID (storage spaces) of hardware RAID is ook prima accetptabel.
Kortom, de hele industrie neemt uBER en databescherming serieus en is al overgestapt of dat aan het doen. Dat gebeurt echt niet als zaken als uBER of bitrot of corruptie in het algemeen echt een nihil risico vormen. Jouw goede ervaringen in het verleden zijn geen garantie voor anderen en ook niet voor jezelf in de toekomst.
De harde realiteit is dat anno 2017 99.99% van de thuisgebruikers niet op ZFS draait en een enkeling zal getroffen worden door een issue waar ZFS tegen beschermd had. Tough luck.

We stappen ook met zijn allen in de auto en accepteren 600 verkeersdoden per jaar.
In je stellingname mis ik veel concrete zaken. Je betwijfelt het hele uBER gebeuren, maar ik hoor geen ander argument dan dat je er zelf geen last van hebt gehad. Het komt allemaal niet als een erg goed onderbouwd argument over, als ik dat mag zeggen. Dan vind ik de realiteit van vrijwel de hele industrie die naar next-gen filesystems overgaat toch nét iets overtuigender.
Dat mensen werken aan iets beters wil niet zeggen dat de huidige techniek als de pest gemeden moet worden, koste wat het kost.
Ook ben ik trots dat ik alweer vele jaren geleden als pionier op fora als deze ZFS verkondigde als the next big thing wat filesystems opeens sexy maakte, mede omdat het RAID kon vervangen. Toen was het nog nieuw, en moest men worden overtuigd. Nu de mainstream eindelijk is overtuigd, blijft er nog een restant over van de aanhangers van de glorie van het oude tijdperk, of zoals Robin Harris het komisch verwoorde:
ZFS is niet mainstream. ZFS is fringe. ZFS heeft onder thuisgebruikers een enorm klein aantal gebruikers.
Naamsbekendheid en promotie van ZFS is een hele goede zaak. Maar wel op basis van een eerlijke voorstelling van zaken.
Nog steeds veel sneller dan de belabberde random write latency legacy RAID5, alleen een smerige grote write buffer kan verhullen dat je geweldige RAID5/6 array in feite takketraag is bij alles behalve één magische grootte. Al die legacy RAID engines zijn goed in de echte snelheid te verdoezelen. Nee, neem dan sustained random write IOps, dan onderscheiden de heren zich van de mannen. ;)
RAIDZ/Z2 is takke traag onder ZFS, maar Random I/O performance is totaal irrelevant voor de mensen hier. Ik ben hier niet aan het penis meten op basis van irrelevante informatie.

Ik wil de notie wegnemen dat ZFS de enige redelijke optie is voor een thuis NAS. Er zijn meer redelijke opties.

[ Voor 4% gewijzigd door Q op 10-01-2017 16:11 ]


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Paul schreef op dinsdag 10 januari 2017 @ 00:06:
[...]
RAIDZ2 hoop ik :P
[...]
Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboard
(Intel) controller van mijn SuperMicro al de schijven één voor één opspinnen, lijkt me dat zo'n dedicated kaart dat ook moet kunnen?
Het begint bij de voeding connector van je SATA drive. Als je pin 11 niet aansluit dan spinnen de (meeste) drives niet up. Dat is met losse connectors lastig te regelen. Vandaar dat je dit eigenlijk alleen ziet in een chassis met een backplane. Dan kan je op de PCB pin 11 simpelweg niet aansluiten. Vervolgens hangt het van je controller af. Maar als pin 11 niet floating is dan gaat het zowieso niet werken.
Antwoord op je vraag: Ja de LSI controller zou het moeten kunnen maar niet als pin 11 nog steeds grounded is.

DISCLAIMER:
  • Ieder component (driver, firmware, hba, expander, cable, backplane en drive kan het gedrag van de spinup beinvloeden
  • SATA is geen SAS. SAS maakt gebruikt van het SCSI protocol. Commando 1Bh heeft een bitje waarmee je start en stop kan regelen. Hoe dat bij ATA werkt weet ik niet precies.
  • Wat bij de een werkt hoeft bij jouw niet te werken
Voor de liefhebber (echte tweaker waar het allemaal niks mag kosten) heb ik nog wel enkel hack suggesties.

Acties:
  • 0 Henk 'm!
Er zijn moederborden die het onboard kunnen. Mijn Biostar B85N-Hifi-3D bord ondersteund het dmv BIOS opties.
Je kan dus per poort kiezen of de schijf moet opspinnen of niet.
Hoe ze het technisch doen, weet ik niet precies, maar volgens mij kan je BIOS bij het starten van de SATA verbinding roepen dat de schijf niet moet opspinnen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 10 januari 2017 @ 07:06:
Serieus: probeer de soep niet zo heet te eten met uitspraken als 'ZFS kerk' enzovoorts. 'Geloof' me: als er morgen iets beters is, ben ik zo bekeerd. :P
Dat kun je wel beweren, maar als je in de rest van je bericht met dikke letters ZFS blijft roepen en raid consequent legacy blijft noemen dan laat je exact het tegenovergestelde zien. Ik kan dat niet serieus nemen. Ik blijf er bij dat je overduidelijk een hele dikke ZFS bias hebt die niet op feiten is gebaseerd, en dat daarom al jouw uitspraken en adviezen met een flinke korrel zout genomen dienen te worden.
ZFS is gewoon het beste
ZFS. ZFS! ZFS! ZFS!
I've clearly tapped into a rich vein of RAID folklore
Ik snap sowieso niet hoe je kunt spreken over een file system in termen als 'sexy' of beweert dat ZFS 'mainstream' zou zijn. De mainstream heeft niet het flauwste benul van wat een file system überhaupt is, laat staan dat mensen een voorkeur hebben. File systems zijn een technisch detail waar IT nerds zich druk over maken, en ja daar ben ik er dus ook een van.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op dinsdag 10 januari 2017 @ 19:10:
Er zijn moederborden die het onboard kunnen. Mijn Biostar B85N-Hifi-3D bord ondersteund het dmv BIOS opties.
Je kan dus per poort kiezen of de schijf moet opspinnen of niet.
Hoe ze het technisch doen, weet ik niet precies, maar volgens mij kan je BIOS bij het starten van de SATA verbinding roepen dat de schijf niet moet opspinnen.
Je bord kan best de drives opspinnen maar niet zonder dat je drives stilstaan.

Redeneer even mee.
Als je mobo / controller de disk wil opspinnen kan dat op twee manieren:
  1. Er wordt spanning op de drive gezet.
  2. Er staat spanning op de drive maar de motor staat stil en de controller stuurt een start commando naar de drive en de motor begint te draaien
Optie 1 Is waar, pak een drive en steek de voeding er maar in. Iedere sata disk begint te draaien. Echter je mobo/controller heeft niets te zeggen over de voeding van de drive. De drive zit direct aan je voeding aangesloten. Optie 1 zal dus niet werken zonder speciale hardware en software.

Optie 2 Is lastiger. Standaard zal iedere drive gaan spinnen zodra je er spanning opzet. Drives hebben geen speciale Biostar mobo detectie. Maar standaard zal iedere SATA disk gewoon gaan draaien ook op je Biostar mobo.
Ik heb drie mechanismen gevonden om dit te regelen:
  1. De jumper Redelijk simpel, de jumper plaatst de drive in standby waardoor het niet op spint zonder wakeup commando.
  2. In de firmware van de drive. De ATA specs kennen features. Twee van die features kunnen dit regelen. Je kan het met manfucturer tools of met iets als hdat2 instellen. Dit zijn optionele features, je drive hoeft dit dus niet te implementeren
  3. Wat ik al eerder schreef je laat pin 11 flloating
Maar hierna heb je nog steeds controller support nodig, zoals je Biostar mobo, wat telkens netjes een drive start een paar keer CheckCondition doet totdat er UnitReady terugkomt en dan de volgende drive start.
Heeft je controller hier geen ondersteuning voor dan zullen alsnog alle drives (bijna) tegelijkertijd gestart worden. De truuk is dat de controller wacht of test of een drive daadwerkelijk draait alvorens de volgende te starten.

En hier nog even de wikipedia pagina over dit onderwwerp.

[ Voor 7% gewijzigd door tvwes op 10-01-2017 22:22 . Reden: kapotte link en link vergeten en nog wat verduidelijkt ]


Acties:
  • +6 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Omdat de kerstgedachte hier de laatste tijd nog goed aanwezig is en ik toch wat tijd heb leek het me leuk om toch ook nog een duit in het zakje te doen. Ik zal proberen net zo'n respectvolle en genuanceerde mening te geven als de vele bekende en gewaarde tweakers voor mij.

Voordat iedereen daarover valt: ik gebruik het begrip ZFS zo'n 34 keer hieronder maar je kan en mag daar bijna altijd ook BTRFS invullen. Puur uit luiheid heb ik het weggelaten.

Wat mij zo opvalt is dat alle discussie zich alleen maar op de onderste regionen van de storage stack spitst. Storage is meer dan een disk. Het is een complete stack die je als geheel zo moeten bekijken. Net als het verschil tussen de synthetische benchmark en die op traces of applicaties is gebaseerd. De vraag zou moeten zijn: kan de storage de taken die ik als gebruiker ermee wil doen adequaat vervullen?
Al die low level shit is veel te complex voor de meeste mensen. Niet te complex om te gebruiken (zoals bij ZFS) maar wel te complex om goede afwegingen te maken. De kant en klare NAS is simpelweg veel beter voor de meeste mensen, tweakers inbegrepen. Je krijgt een prettige GUI, leuke plugins, updates, je kan uitbreiden, je kan het zo weer door verkopen. En last but not least het werkt. Aansluiten even door de wizard heen en lekker NASsen. Drive stuk? Niks aan de hand: een of ander raid mechanisme houd de zaak in de lucht. Array te klein? Bij de meeste NASsen kan je zo een array uitbreiden.
En hoeveel mensen ken je die data zijn verloren op hun QNAP of andere kant en klare NAS?
Oftewel is het echt bagger? Verlies je iedere week data in de RAID 5 black-write-hole? Klagen gezinsleden dat ze hun opgeslagen huiswerk niet meer kunnen openen? Of dat ze een film niet kunnen bekijken?
Nee dat doen ze niet ... nou ja niet vaak.
Daar zit de kneep, het is niet dat het niet gebeurt. Alle ellende die door sommigen wordt afgedaan als FUD gebeurt wel, van de goedkoopste 1 bay NAS tot en met de duurste EMC. Alleen zijn de meeste mensen niet zo goed in statistiek. Persoonlijke ervaringen (met hardware) zijn geen betrouwbare statistiek. Hier moet je gaan kijken naar groot schalige studies zoals die van BackBlaze. Dat zijn dermate grote populaties dat je daar echt conclusies uit mag trekken aangaande de betrouwbaarheid.
Iedereen zal het er overeens zijn dat er fouten optreden. Maar de meesten weten alleen niet hoe groot die kansen zijn. En weten ook niet goed waar ze zich tegen moeten in dekken. Data-corruptie? Data-loss? Data-availability?
Met onbeperkte tijd en budgetten is er voor niemand iets aan de hand. Maar zo werkt het nu eenmaal niet. Ik sluit me dan ook aan bij het advies van eerdere posters hier dat de soep niet zo heet gegegeten wordt en dat voor de meeste mensen een kant en klare NAS samen met een backup plan verreweg de beste oplossing is.
Het viel mij op dat er eerder in het topic beweringen zijn gedaan over de frequentie en kansen op data-corruptie tgv van de storage. Het eerste wat mij opvalt is dat er claims worden gedaan over storage-stacks die simpel weg data-corruptie niet kunnen aantonen. Dat jij als gebruiker het niet weet wil niet zeggen dat het niet gebeurt. Je moet kunnen bewijzen dat je geen data-corruptie ondervindt. Dat kunnen weinig oplossingen. Je hele dure isilon nas of hds san kan nog steeds voor data corruptie zorgen omdat het transport en hogere lagen onvoldoende waarborgen biedt. Bijvoorbeeld, de TCP checkum is zwak. Dit is een zeer sterkpunt van ZFS omdat je de garantie hebt dat je data tot en met de cpu intact is ingelezen. Mits je ZFS op je host gebruikt, als je vanaf je ZFS gaat sharen dan heb je veel minder garantie. Het pad tussen client en server is niet zo goed beschermd.

Veel aangehaald is de UBER opgave van een fabrikant voor een drive. Dat daar 1bit per 10^14 of zo staat betekent niet dat je iedere zoveel gelezen TB die error tegenkomt. Dat zou frequentie zijn. Hier wordt een kans uitgedrukt. Net als een dijkdoorbraak kans wordt uitgedrukt als "1 per 1000 jaar" dat wil niet zeggen dat we de dagen kunnen af tellen tot de volgende. De dijk kan morgen doorbreken. Je drive kan een foute bit uitlezen (ondanks alle error correctie die aanboord is) en kan dat zelfs een paar keer achter elkaar doen. Het is een onafhankelijke kans als een dobbelsteen.
Ingewikkelder wordt het als je meerdere drives hebt, dan krijg je te maken met vibratie en misschien met EMC storing etc. Een enkele drive kan het perfect doen los op het buro maar onbetrouwbaar zijn in een array waar alle drives lekker aan het seeken zijn.
Datacoruptie: als je er nu geen last van hebt zou ik niet zonder meer overstappen naar de latest en greatest. Je NTFS, EXT4 en HFS direct op een disk of op een RAIDn array hebben je al jaren goed geholpen. Waarom zou dat nu anders zijn en moet je over naar ZFS oid?
Natuurlijk zijn er goede redenen om over te stappen naar iets moderners als ZFS. Maar dat wil nog niet zeggen dat wat je gisteren gebruikte volkomen onverantwoord is.

Dan data-loss. Alles is prachtig maar als jij je NAS verliest door wat voor reden dan ook (brand, diefstal, kortsluiting in de voeding etc) dan bij je alles kwijt. ZFS of niet, kastje kapot of kwijt dan geen data. Ook kan je kastje de kolder in de kop krijgen en je array of zpool corrupt maken. Wederom alles kwijt. Zoals al zo vaak geschreven door anderen, geen backup is veel grotere kans op pijn dan pijn tgv van datacorruptie. Het is als het kopen van een prachtige auto waar je al je centen voor bij elkaar schraapt maar de verzekering even vergeten was. Je hebt de prachtige auto (lees NAS) maar als er een ongelukje gebeurt dan heb je niets (geen DATA) meer. Als je een iets minder dure auto zou kopen dan ook je verzekering backup) betalen. Sommigen hebben prachtige strategieen met combinaties van onsite, offsite en cloud backups. Maar sommigen hebben helemaal niets. Bij backups geldt wel dat je het ook moet kunnen terugzetten. Als je een restore niet test en zeker weet dat je data op je backup staat dan heb je alsnog niets.

Data availability laat ik maar even buiten beschouwing.

In de inleiding schreef ik dat het mij zo verbaast dat de meeste discussie zich op onderste regionen van de storage stack spitst. Ik las dit vooral als het over ZFS ging. Maar storage is meer dan de hardware. Laten we eerlijk zijn bijna altijd is je netwerk de bottleneck. Hoogstens bij een ESXi all-in-one of diegenen met hogere snelheden dan gbit kunnen de hardware en configuratie daarvan nog een bottleneck zijn. Maar dat hebben de meeste hier niet. Naar mijn mening kan de software een wereld van verschil maken. Het merendeel van de discussies gaat over de (on)mogelijkheden van de array manager maar ik hoor niemand over de volumemanager en ook bijna niemand over filesystems. De array manager maakt van een aantal drives een array en vervolgens kan je de array beheren met de array manager. Waar de je bij ZFS geen drives uit de array kan halen. Maar hoe bezwaarlijk is dat nu echt? Je kan je array wel uitbreiden met meer drives, zij het onder voorwaarden. Maar meestal willen mensen meer storage niet minder. En hee je hebt toch een backup? Dan gooi je de array weg, richt het opnieuw in, doet een restore en klaar.
Tuurlijk is het niet leuk dat de ZFS array manager beperkter is dan andere. Maar waar ZFS vele oplossingen in overtreft is de volumemanager. Het gemak en featureset hiervan is echt heel erg in orde. Een zeer gestructureerde en compacte cli om alles mee te regelen. Niks ratje toe van verschillende cmds en syntaxen of rampzalige gui's. Taak gedreven, eerst filesystem aanmaken, wat properties zetten, snapshot maken etc. Backup? Even send | receive en klaar. Dit eenvoudige beheer vind ik een van de meest onder belichte aspecten van ZFS en van de hele discussie. De tekortkomingen van de arraymanager worden (naar mijn mening) ruimschoots gecompenseerd door de volumemanager. En als je je storage goed pland dan valt het met de tekortkomigen reuze mee. De heldere en compacte CLI heeft alleen ZFS, die van BTRFS is veel minder doordacht. Ook de output van BTRFS commands is veel minder clean dan die van ZFS.

Adviseer ik, van storage eend, dan nu ZFS aan iedereen? Nee zeker niet. Zoals eerder genoemd adviseer ik altijd eerst iets kant en klaars. Pas als ik ervan overtuigd ben dat iemand of organisatie weet waar hij mee bezig is overweeg ik zelf bouw en onderhoud te adviseren. Nu weet ik dat je een ZFS appliance kan kopen maar ook daar plaats ik de nodige kanttekeningen bij. In alles zitten bugs, ook in ZFS en helaas levert dat wel eens een corrupte zpool op. Als je dan al je eieren in het ZFS mandje had dan ben je niet blij. Mijn advies is dan ook om verschillende systemen te combineren. Niet je backup server hetzelfde laten draaien als je main storage. Gebruik verschillende filesystems of verschillende os'es.
Er is geen beste oplossing, er zijn verschillende oplossingen bij ieder budget. Maar betrouwbaarheids wonderen moet je niet verwachten als je maar een bescheiden budget hebt. Liever een werkende backup en wat minder ruwe opslag dan alles kwijt is mijn advies.

Full disclosure: ik gebruik en werk met en aan ZFS al sind 2007 en ik het kader van eet your own ...
Mijn oudste zfs data pool thuis 4x1TB, wordt intensief (270TB geschreven in 309 dagen uptime) gebruikt en nog altijd probleemloos
code:
1
2
3
4
5
6
7
8
9
[wes] /var/adm/ $ zpool history mpool | head
History for 'mpool':
2008-12-21.21:11:29 zpool create mpool mirror c0t2d0 c0t0d0 mirror c0t4d0 c0t3d0
2008-12-21.21:13:25 zfs recv -vFd mpool
2008-12-21.22:11:31 zfs recv -vFd mpool
2008-12-21.22:40:01 zfs recv -vFd mpool
2008-12-26.15:48:55 zpool scrub mpool
2009-01-03.10:49:59 zpool export mpool
2009-01-03.14:43:10 zpool import mpool

Zelfs het OS is stokoud en heeft redelijk wat bugs maar omdat ik die ken is er niks aan de hand.
Voor mij is ZFS een lifesaver geweest en heeft mij veel nachtrust opgeleverd. Ja er is diverse hardware kapot gegaan in de afgelopen 8 jaar bij deze server maar nooit dataloss. 2xpsu, 1xMobo, 1x NIC en twee of drie schijven.
In diezelfde periode heb ik twee ALIX borden gekocht als firewalls. Geen ZFS maar antiek UFS, altijd aan en nooit gezeur. Weet ik zeker dat er nooit data corruptie heeft plaats gevonden? Nee. Harde powerloss? Dan weer met f!cking fsck aan de slag.
Maak ik mij zorgen over mijn foto's op een fat geformateerd SD kaartje? Nee, ik wissel wel kaartjes en probeer binnen redelijk tijd te uploaden naar betere storage.
Mijn iCrap devices hebben geen ZFS maar doen het toch behoorlijk betrouwbaar. Wel heb ik ze eens moeten resetten omdat ze raar deden. Was dat ten gevolge van data-corruptie? Ik weet het niet.
Mijn windows machines hebben al sinds ik ooit WIndows NT3.51 installeerde NTFS. Heb ik daar veel data corruptie ondervonden? Tsja ik weet het niet. Wel heb ik in al die jaren best wel eens verdachte situaties gehad. Mijn laptops gebruik ik te weinig om daar echt iets zinnigs over te zeggen. Op mijn desktops wel het nodige meegemaakt. Maar toen ik daar over ging naar een workstation heb ik daar ook nauwelijks meer iets raars gezien. Dus niks te klagen over NTFS.
Geen van mijn vSphere VM's gebruikt ZFS. Maar mijn datastore op een ZFS lun via FC heeft nog nooit problemen gehad. Kan er geen data corruptie plaats vinden? Natuurlijk wel, alles vanaf mijn NAS naar de vSphere host is lang zo goed niet beschermd als lokaal op de NAS. FC is sneller en heeft betere error detectie en correctie dan TCP/IP over gbit, vandaar FC. Voor dat ik met ZFS ging werken gebruikte ik oa openFiler en Suse linux. Wat een partij ellende waren al dat soort oplossingen en ben regelmatig daar data mee kwijt geraakt. Toen ZFS opensource werd was het voor mij snel duidelijk dat het een ideaal NAS platform was. Later ook voor compute.
Kleine sidenote, als ik ZFS ontwikkel werk doe dan is mijn root filesystem vaak gewoon ouderwets UFS. Als ik mijn ZFS patches probeer dan blaas ik niet mijn root FS op maar alleen een test dataset en hangt niet het hele systeem. Dus weer een voorbeeld dat jeZFS niet voor alles moet gebruiken.

ZFS is echt niet voor alles de beste oplossing. Wordt de dataset heel groot of heb je heel veel bandbreedte nodig dan zijn oplossing als Hadoop, GPFS, Lustre en vele anderen veel geschikter. ZFS op je mobieltje slaat ook nergens op daar zijn andere filesystems als F2FS veel geschikter voor. Ieder FS heeft zijn plaats, er is geen FS wat alle domeinen bestrijkt en alle feature boxes ticked. Je moet afwegen wat voor jouw unieke use case het meest geschikte FS is. En dat is lang niet altijd ZFS.


Bedankt voor uw aandacht,

geen fanboy en/of predikant van welke filesystem kerk dan ook.

PS Ik wil graag extra punten ontvangen omdat ik het ECC onderwerp heb vermeden. _/-\o_

[ Voor 0% gewijzigd door tvwes op 11-01-2017 10:30 . Reden: Wat typo's bijgewerkt ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:43
Hier asjeblieft je extra punten.

Het is een feit dat ik vaak wel de gene ben die negatieve aspecten van ZFS benadruk, maar ik ben het eens dat er ook veel goede aspecten aan ZFS zitten, waaronder de userland tools, die naar mijn smaak makkelijk te bedienen zijn. Features zoals LZ4 compressie, de snapshots en inderdaad send/receive zijn ook top.

Ondanks mijn negativiteit draai ik zelf ook ZFS.
En tot op de dag van vandaag naar tevredenheid. :)

Acties:
  • 0 Henk 'm!
tvwes schreef op dinsdag 10 januari 2017 @ 22:14:
[...]

Je bord kan best de drives opspinnen maar niet zonder dat je drives stilstaan.

Redeneer even mee.
Als je mobo / controller de disk wil opspinnen kan dat op twee manieren:
  1. Er wordt spanning op de drive gezet.
  2. Er staat spanning op de drive maar de motor staat stil en de controller stuurt een start commando naar de drive en de motor begint te draaien
Optie 1 Is waar, pak een drive en steek de voeding er maar in. Iedere sata disk begint te draaien. Echter je mobo/controller heeft niets te zeggen over de voeding van de drive. De drive zit direct aan je voeding aangesloten. Optie 1 zal dus niet werken zonder speciale hardware en software.

Optie 2 Is lastiger. Standaard zal iedere drive gaan spinnen zodra je er spanning opzet. Drives hebben geen speciale Biostar mobo detectie. Maar standaard zal iedere SATA disk gewoon gaan draaien ook op je Biostar mobo.
Ik heb drie mechanismen gevonden om dit te regelen:
  1. De jumper Redelijk simpel, de jumper plaatst de drive in standby waardoor het niet op spint zonder wakeup commando.
  2. In de firmware van de drive. De ATA specs kennen features. Twee van die features kunnen dit regelen. Je kan het met manfucturer tools of met iets als hdat2 instellen. Dit zijn optionele features, je drive hoeft dit dus niet te implementeren
  3. Wat ik al eerder schreef je laat pin 11 flloating
Maar hierna heb je nog steeds controller support nodig, zoals je Biostar mobo, wat telkens netjes een drive start een paar keer CheckCondition doet totdat er UnitReady terugkomt en dan de volgende drive start.
Heeft je controller hier geen ondersteuning voor dan zullen alsnog alle drives (bijna) tegelijkertijd gestart worden. De truuk is dat de controller wacht of test of een drive daadwerkelijk draait alvorens de volgende te starten.

En hier nog even de wikipedia pagina over dit onderwwerp.
Je hebt helemaal gelijk, maar het feit dat je schijf opspint als je er voeding aan hangt, komt ook juist omdat er dan geen data kabel aan hangt. De meeste schijven tegenwoordig ondersteunen wel PUIS voor zover ik heb gekeken. (ik gebruik zelf geen spindown).

PUIS is leuk, maar als je OS online komt, (linux bijvoorbeeld) spinnen veel disks gewoon op, omdat het OS de specs van de disk opvraagt, en dan heb je er niets aan gehad. Ik moet nog eens kijken of dat ook weer te omzeilen is.

Sowieso heb je wat IO nodig als je je ZFS pool (of welke array dan ook) gaat mounten, om te kijken of alles online is. Dus Power on in Standby vind ik persoonlijk een beetje onzinnig, maar dat daargelaten :P

Even niets...


Acties:
  • +2 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Dit is precies de feedback waar ik het voor doe,

merci mon capitain.
Het is een feit dat ik vaak wel de gene ben die negatieve aspecten van ZFS benadruk, maar ik ben het eens dat er ook veel goede aspecten aan ZFS zitten, waaronder de userland tools, die naar mijn smaak makkelijk te bedienen zijn. Features zoals LZ4 compressie, de snapshots en inderdaad send/receive zijn ook top.

Ondanks mijn negativiteit draai ik zelf ook ZFS.
C'est le ton qui fait la musique...
En tot op de dag van vandaag naar tevredenheid. :)
Same here!

Zo en dan ga ik nu op mijn roze wolk nog even nagenieten.

Acties:
  • 0 Henk 'm!

  • anc
  • Registratie: April 2000
  • Laatst online: 22-09 13:17

anc

Na redelijk veel onderzoek overal en nergens heb ik een server samengesteld voor de volgende functionaliteit:

* FreeNAS 10
* Opslag voor fotos en videos(home videos)
* Streamen van specifiek die home videos
In een eigen docker/vm omgeving:
* Sabnzbd, Sickbeard, Torrent, Couchpotato
* Minecraft server voor thuis gebruik (Niet 24/7, eens per week een paar uurtjes up ofzo)
* Vervanging van Vera Lite (Domotica, USB passthrough Zwave stick)
* ZoneMinder voor camera's om het huis
* Gesloten webontwikkel omgeving (Niet 24/7)
* Teamspeak server (niet 24/7)
* Off-site backup voor mijn pa (mijn oude QNAP NAS komt daar en is backup voor mijn kritieke data)


#ProductPrijsSubtotaal
1Intel Xeon E3-1230 v5 Boxed€ 289,-€ 289,-
1Supermicro X11SSM-F (Retail Pack)€ 235,55€ 235,55
6WD Red WD30EFRX, 3TB€ 115,95€ 695,70
1Fractal Design Define R5 Zwart€ 109,89€ 109,89
2Samsung M391A2K43BB1€ 129,50€ 259,-
1EVGA SuperNOVA 550 G2€ 99,05€ 99,05
1Seasonic G-series 650 watt€ 95,95€ 95,95
1Transcend SSD420K 32GB€ 30,19€ 30,19
1Eaton Protection Station 800 DIN€ 113,30€ 113,30
Bekijk collectie
Importeer producten
Totaal€ 1.927,63

Ohja er staan nog 2 voedingen in, 1tje blijft over natuurlijk (ik ben er nog niet over uit welke) :-)

Waarschijnlijk komt er een grotere SSD bij voor de vm/docker, zodat de ZFS schijven niet belast wordt en er energie bespaard kan worden wanneer ze niet benaderd worden.

In de afgelopen 6 jaren heb ik 2 QNAP's versleten. Als in, capaciteit te kort eerst op HDD front en daarna op CPU / MEM + OS front. Dus nu moet er een systeem komen dat langer meegaat en te upgraden is, maar ik vraag mij af of dit niet een overkill is. Kijkende naar 1 teveel capaciteit(CPU) dat niet gebruikt wordt met het stroom verbruik en 2 totale kosten.

Dus mijn vraag is eigenlijk; hoe kan ik goed bepalen hoeveel capaciteit de gevraagde applicaties gaan gebruiken of kan iemand goed advies gegeven hierover. Meeste dat ik tot nu gedaan is kijken wat andere gekozen hebben en waarom, maar nergens lees je het resultaat of de gemaakte keuze niet een overkill bleek te zijn.

Acties:
  • +1 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
anc schreef op woensdag 11 januari 2017 @ 11:24:
Na redelijk veel onderzoek overal en nergens heb ik een server samengesteld voor de volgende functionaliteit:

* FreeNAS 10
* Opslag voor fotos en videos(home videos)
* Streamen van specifiek die home videos
In een eigen docker/vm omgeving:
* Sabnzbd, Sickbeard, Torrent, Couchpotato
* Minecraft server voor thuis gebruik (Niet 24/7, eens per week een paar uurtjes up ofzo)
* Vervanging van Vera Lite (Domotica, USB passthrough Zwave stick)
* ZoneMinder voor camera's om het huis
* Gesloten webontwikkel omgeving (Niet 24/7)
* Teamspeak server (niet 24/7)
* Off-site backup voor mijn pa (mijn oude QNAP NAS komt daar en is backup voor mijn kritieke data)


Ohja er staan nog 2 voedingen in, 1tje blijft over natuurlijk (ik ben er nog niet over uit welke) :-)

Waarschijnlijk komt er een grotere SSD bij voor de vm/docker, zodat de ZFS schijven niet belast wordt en er energie bespaard kan worden wanneer ze niet benaderd worden.

In de afgelopen 6 jaren heb ik 2 QNAP's versleten. Als in, capaciteit te kort eerst op HDD front en daarna op CPU / MEM + OS front. Dus nu moet er een systeem komen dat langer meegaat en te upgraden is, maar ik vraag mij af of dit niet een overkill is. Kijkende naar 1 teveel capaciteit(CPU) dat niet gebruikt wordt met het stroom verbruik en 2 totale kosten.

Dus mijn vraag is eigenlijk; hoe kan ik goed bepalen hoeveel capaciteit de gevraagde applicaties gaan gebruiken of kan iemand goed advies gegeven hierover. Meeste dat ik tot nu gedaan is kijken wat andere gekozen hebben en waarom, maar nergens lees je het resultaat of de gemaakte keuze niet een overkill bleek te zijn.
Als je wat geduld hebt (een week of zo) dan zal ik een post doen over een vergelijkbare setup met wat gegevens. Hier nog wat opmerkingen:
  • De xeon is misschien wat veel. Ik heb in mijn server een i3-6100T zitten en dat gaat prima tig zones, compression en gemiddeld 24/7 zo'n 165mbit aan verkeer. De xeon heb je alleen nodig voor serieuze compute als transcoding of kernel compiles. Begin met een goedkope cpu upgraden kan altijd nog. Kies iets met een hoge clock. Misschien is zelfs een pentium al voldoende. De gewone i3-6100 is misschien een beter keuze als je hoofdzakelijk idled, toch een stuk sneller dan mijn 6100T.
  • Ik weet niet wat je met die 6x3TB van plan bent maar ik zou daar nog eens over nadenken. In mijn nieuwe NAS heb ik een combinatie van NVME 1x900GB, SATA SSD's 2x480GB+1x400GB en 4x8TB gegaan. Waarbij compute en intermediate storage op flash plaatsvind en lange termijn storage op HD's plaatsvind. Nu wil ik je niet mijn config opdringen maar zelfs een enkele SSD (van voldoende grote) waar je al je VM's opzet maakt al heel veel uit. Juist een SSD schittert bij random IO (door veel VM's in jouw geval), daar kan geen HD tegen op.
  • Nog even over de harddisken, waarom zoveel? Het kan zijn dat je die bandbreedte en/of iops nodig hebt. Maar die krijg je alleen in een stripe of bij mirrors maar ik kan me niet voorstellen dat je dat nodig hebt. Waarom dan niet naar 3x6TB? Kost bijna hetzelfde, scheelt je drie SATA poorten en verbruikt minder stroom.
  • Goed idee om de ups te doen. Ik weet het kost stroom maar een clean shutdown scheelt je veel tijd. Wel wil ik drie dingen opmerken. Een, kan je UPS software onder freenas wel met deze UPS en ook nog via USB met deze EATON overweg? Twee, al je VM's moeten ook clean afgesloten worden! Als je VM niet weet dat de host wordt afgesloten dan ben je alsnog niet geholpen. Drie, bij stroomuitval (bijna) direct gaan uitschakelen, zeker bij deze kleine ups. Anders gezegd het clean uitschakelen je systeem kost altijd meer tijd dan je denkt. Echte stroomuitval duurt in Nederland heel vaak meer dan een paar minuten. En zeker met een UPS moet je echt testen dat al je software en shutdown scripts werken! En neem van mij aan dat kost veel tijd. Maar als je het echt goed inregeld dan komt je systeem weer lachend online als de stroom weer terug is en je UPS weer opgeladen is! Stel je UPS dus zo in dat het pas weer spanning op de uitgangen zet als het minstens xx% is opgeladen. Worst case scenario is dat tijdens het opstarten het net weer wegvalt. Dan moet je UPS voldoende capaciteit hebben om de boot af te maken en daarna nog een shutdown te doen. Ik zou het pas weer starten bij meer dan 80% opgeladen of misschien wel nog meer. Als je het systeem snel uitschakelt verbruik je ook minder stroom en zal de accu dus snel weer vol zijn.
  • Neem de tijd om je nieuwe setup te testen en te verkennen. Anders gezegd laat je bestaande setup rustig intact en zet je nieuwe NAS ernaast en trek er de tijd voor uit om het goed in te richten. Dan heb je er daarna jaren plezier van.

[ Voor 3% gewijzigd door tvwes op 11-01-2017 13:52 . Reden: cpu's een beetje aangescherpt ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
anc schreef op woensdag 11 januari 2017 @ 11:24:

Ohja er staan nog 2 voedingen in, 1tje blijft over natuurlijk (ik ben er nog niet over uit welke) :-)
Of beide? :P

Zou zelf gaan voor de pricewatch: Cooler Master V Series V550 door het extreem hoge rendement bij lage vermogens van deze voeding. Op lage vermogens is die vergelijkbaar met een 80PLUS Titanium voeding.

Afbeeldingslocatie: https://tpucdn.com/reviews/CoolerMaster/V550/images/avg_efficiency_low_loads.png
https://www.techpowerup.com/reviews/CoolerMaster/V550/6.html

En het is ook een voeding van hoge kwaliteit, met een erg uitgebreid EMI filter, iets wat Enhance, de maker van deze voeding altijd doet. Prestaties van deze voeding is ook prima en het is een volledig modulaire voeding waarvoor je ook extra modulaire sata kabels kunt kopen. Als je dan vier modulaire sata kabels hebt met elk vier connectors dan kun je maar liefst 16 sata apparaten aansluiten zonder verloopjes. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anc
  • Registratie: April 2000
  • Laatst online: 22-09 13:17

anc

tvwes schreef op woensdag 11 januari 2017 @ 12:29:
[...]


Als je wat geduld hebt (een week of zo) dan zal ik een post doen over een vergelijkbare setup met wat gegevens. Hier nog wat opmerkingen:
Zeker interessant en ik kan nog prima wachten. Waar ga je dat posten?
• De xeon is misschien wat veel. Ik heb in mijn server een i3-6100T zitten en dat gaat prima tig zones, compression en gemiddeld 24/7 zo'n 165mbit aan verkeer. De xeon heb je alleen nodig voor serieuze compute als transcoding of kernel compiles. Begin met een goedkope cpu upgraden kan altijd nog. Kies iets met een hoge clock. Misschien is zelfs een pentium al voldoende. De gewone i3-6100 is misschien een beter keuze als je hoofdzakelijk idled, toch een stuk sneller dan mijn 6100T.
Ja en toch proef ik er een beetje uit dat het op gevoel is. De discussie een i3 of Xeon in idle stand zou een paar watt schelen (ik kon op google geen power consumptions vinden van een e3-1230 v5, de i3 zag ik een filmpje met 17 watt) en dan gaat het dus uiteindelijk om de initiele uitgave. Als ik nu prima uit de voeten kom met een i3 en pas over een jaar of 2 de upgrade zou doen dan heb ik er geen problemen mee, maar blijkt dat de i3 toch niet voldoende performance geeft dan is het wat zuur om na een paar maanden al te upgraden.
i3 is een dual core en de e3 een quad core (beide met HT). Gebruiken die vm's gezamenlijke cores of reserveren ze een eigen core wanneer de VM up en running is? Ik gok het laatste, maar anders is het snel uitgekeken met een i3.
• Ik weet niet wat je met die 6x3TB van plan bent maar ik zou daar nog eens over nadenken. In mijn nieuwe NAS heb ik een combinatie van NVME 1x900GB, SATA SSD's 2x480GB+1x400GB en 4x8TB gegaan. Waarbij compute en intermediate storage op flash plaatsvind en lange termijn storage op HD's plaatsvind. Nu wil ik je niet mijn config opdringen maar zelfs een enkele SSD (van voldoende grote) waar je al je VM's opzet maakt al heel veel uit. Juist een SSD schittert bij random IO (door veel VM's in jouw geval), daar kan geen HD tegen op.
Daarom schreef ik onder de lijst dat er nog een SSD in komt voor de vm's/docker apps, maar een bevestiging dat het een juiste keuze is, is fijn :)
• Nog even over de harddisken, waarom zoveel? Het kan zijn dat je die bandbreedte en/of iops nodig hebt. Maar die krijg je alleen in een stripe of bij mirrors maar ik kan me niet voorstellen dat je dat nodig hebt. Waarom dan niet naar 3x6TB? Kost bijna hetzelfde, scheelt je drie SATA poorten en verbruikt minder stroom.
True, kost wel ruim 75 euro meer initieel, maar is zeker het overwegen waard. Per schijf zou dat 4.4 watt schelen tijdens activiteit.
Eigenlijk geen specifieke redenen behalve dat ik dan 2 parity disks heb en op termijn nog met gemak kan uitbreiden met grotere disks. Hoe langer het rebuilden kost hoe 'safer' het is om meerdere parity disks te hebben.
• Goed idee om de ups te doen. Ik weet het kost stroom maar een clean shutdown scheelt je veel tijd. Wel wil ik drie dingen opmerken. Een, kan je UPS software onder freenas wel met deze UPS en ook nog via USB met deze EATON overweg? Twee, al je VM's moeten ook clean afgesloten worden! Als je VM niet weet dat de host wordt afgesloten dan ben je alsnog niet geholpen. Drie, bij stroomuitval (bijna) direct gaan uitschakelen, zeker bij deze kleine ups. Anders gezegd het clean uitschakelen je systeem kost altijd meer tijd dan je denkt. Echte stroomuitval duurt in Nederland heel vaak meer dan een paar minuten. En zeker met een UPS moet je echt testen dat al je software en shutdown scripts werken! En neem van mij aan dat kost veel tijd. Maar als je het echt goed inregeld dan komt je systeem weer lachend online als de stroom weer terug is en je UPS weer opgeladen is! Stel je UPS dus zo in dat het pas weer spanning op de uitgangen zet als het minstens xx% is opgeladen. Worst case scenario is dat tijdens het opstarten het net weer wegvalt. Dan moet je UPS voldoende capaciteit hebben om de boot af te maken en daarna nog een shutdown te doen. Ik zou het pas weer starten bij meer dan 80% opgeladen of misschien wel nog meer. Als je het systeem snel uitschakelt verbruik je ook minder stroom en zal de accu dus snel weer vol zijn.
Ja van alles zeer bewust! En zover ik nagezocht heb zou die EATON moeten kunnen werken met FreeNAS.
• Neem de tijd om je nieuwe setup te testen en te verkennen. Anders gezegd laat je bestaande setup rustig intact en zet je nieuwe NAS ernaast en trek er de tijd voor uit om het goed in te richten. Dan heb je er daarna jaren plezier van.
Ja dat was ik ook van plan. Ik wil alles van te voren getest en uitgeprobeerd hebben. Meerdere inrichtingen proberen en daarna pas beslissen hoe ik het 'definitief' wil!
-The_Mask- schreef op woensdag 11 januari 2017 @ 13:42:
[...]

Of beide? :P

Zou zelf gaan voor de pricewatch: Cooler Master V Series V550 door het extreem hoge rendement bij lage vermogens van deze voeding. Op lage vermogens is die vergelijkbaar met een 80PLUS Titanium voeding.

[afbeelding]
https://www.techpowerup.com/reviews/CoolerMaster/V550/6.html

En het is ook een voeding van hoge kwaliteit, met een erg uitgebreid EMI filter, iets wat Enhance, de maker van deze voeding altijd doet. Prestaties van deze voeding is ook prima en het is een volledig modulaire voeding waarvoor je ook extra modulaire sata kabels kunt kopen. Als je dan vier modulaire sata kabels hebt met elk vier connectors dan kun je maar liefst 16 sata apparaten aansluiten zonder verloopjes. :)
Goeie tip bedankt! Ik heb hem gelijk meegenomen in de lijst en ga er thuis rustig naar kijken.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
anc schreef op woensdag 11 januari 2017 @ 15:21:
[...]

Zeker interessant en ik kan nog prima wachten. Waar ga je dat posten?
Weet ik nog niet zeker. Als ik het niet vergeet zal ik je een seintje geven.
Ja en toch proef ik er een beetje uit dat het op gevoel is. De discussie een i3 of Xeon in idle stand zou een paar watt schelen (ik kon op google geen power consumptions vinden van een e3-1230 v5, de i3 zag ik een filmpje met 17 watt) en dan gaat het dus uiteindelijk om de initiele uitgave. Als ik nu prima uit de voeten kom met een i3 en pas over een jaar of 2 de upgrade zou doen dan heb ik er geen problemen mee, maar blijkt dat de i3 toch niet voldoende performance geeft dan is het wat zuur om na een paar maanden al te upgraden.
i3 is een dual core en de e3 een quad core (beide met HT). Gebruiken die vm's gezamenlijke cores of reserveren ze een eigen core wanneer de VM up en running is? Ik gok het laatste, maar anders is het snel uitgekeken met een i3.
Als je FreeNAS op FreeBSD installeert dan runnen volgens mij alle plugins in 1 jail die over alle cores kan beschikken. Maak je geen zorgen over de cores die zullen allemaal netjes gebruikt worden. Ik heb geen enkele ervaring met FreeNAS of wat voor schil dan ook behalve Nexenta. Wel met FreeBSD en een jail ziet hetzelfde als de host. Een goedkope i3 kan je makkelijker doorverkopen dan een dure xeon die misschien niets staat te doen.
Daarom schreef ik onder de lijst dat er nog een SSD in komt voor de vm's/docker apps, maar een bevestiging dat het een juiste keuze is, is fijn :)

[...]

True, kost wel ruim 75 euro meer initieel, maar is zeker het overwegen waard. Per schijf zou dat 4.4 watt schelen tijdens activiteit.
Eigenlijk geen specifieke redenen behalve dat ik dan 2 parity disks heb en op termijn nog met gemak kan uitbreiden met grotere disks. Hoe langer het rebuilden kost hoe 'safer' het is om meerdere parity disks te hebben.
Die 75euro heb je al weer verdient met een goedkopere CPU.
Ja lange rebuild tijden zijn niet wenselijk. Juist de rebuild is het moment dat er nog meer kapot gaat. Maar jij had toch een goede backup op je oude QNAP? ;)
Als je echt zuinige schijven wilt dan moet je een helium gevulde schijf nemen. Kost wat maar dan heb je ook wat. Maar dat is vermoedelijk een beetje teveel van het goede.

Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op woensdag 11 januari 2017 @ 13:42:
Als je dan vier modulaire sata kabels hebt met elk vier connectors dan kun je maar liefst 16 sata apparaten aansluiten zonder verloopjes. :)
Dat is wel mooi ja. Alhoewel het niet altijd zeker is dat de eerste SATA connector ook de hardeschijf kan bereiken, afhankelijk van de kast.

Ik zelf vind het handig om juist wél een splitter te gebruiken, zodat je de SATA stekkers in de schijven zelf kunt laten zitten, als je bijvoorbeeld de voeding verwisselt of eerst je server werkend/draaiend wilt krijgen zonder elke keer de schijven op te spinnen om vervolgens niet-netjes met de stroomknop af te sluiten.

Dat soort dingen doe ik vaak en dus zijn de pricewatch: Silverstone SST-CP06 4x SATA splitters voor mij erg handig. Per vier schijven slechts één SATA stekker van je voeding nodig.

Ik heb wel geleerd dat je die dingen niet moet aansluiten terwijl het systeem draait. Door de condensatoren ontstaat dan een kleine maar toch pittige piekstroom wat het voltage kan verstoren, neem ik aan? Ik hoorde destijds de overige schijven ook geluiden maken, dus dat doen we niet meer. :*)

Acties:
  • 0 Henk 'm!

  • IChaosI
  • Registratie: April 2010
  • Laatst online: 30-10-2024
Ben zelf al een tijdje aan het kijken naar een mooie NAS build voor thuis, waar ik ook een topic NAS voor thuis +/- €600 aan heb gewijd. Ik ben daarbij tot de volgende twee opties gekomen:

Build 1: Zelfbouw NAS
#ProductPrijsSubtotaal
1Intel Celeron G3920 Boxed€ 58,10€ 58,10
1Gigabyte GA-X150M-PRO ECC€ 114,68€ 114,68
3WD Red WD20EFRX, 2TB€ 92,95€ 278,85
1Fractal Design Define Mini€ 86,95€ 86,95
1Crucial CT8G4WFS824A€ 59,50€ 59,50
1Seasonic G-series 360 watt€ 63,95€ 63,95
Bekijk collectie
Importeer producten
Totaal€ 662,03


Build 2: Kant en klaar NAS
Zelf neig ik meer naar de DIY NAS, maar kan deze toch ook niet helemaal wegcijferen?

#ProductPrijsSubtotaal
3WD Red WD20EFRX, 2TB€ 92,95€ 278,85
1HP Proliant MicroServer Gen8 G1610T€ 193,19€ 193,19
Bekijk collectie
Importeer producten
Totaal€ 472,04


Aangezien er niet heel veel respons komt op mijn topic, beproef ik mijn geluk ook maar eens hier :). Ik hoop dat dit wat meer feedback op zal leveren.

Acties:
  • 0 Henk 'm!

  • anc
  • Registratie: April 2000
  • Laatst online: 22-09 13:17

anc

tvwes schreef op woensdag 11 januari 2017 @ 16:20:
Ja lange rebuild tijden zijn niet wenselijk. Juist de rebuild is het moment dat er nog meer kapot gaat. Maar jij had toch een goede backup op je oude QNAP? ;)
Ik weet niet of je dit als geintje bedoelde, maar het zet mij wel serieus tot nadenken.
3 of 4 disks in RAID Z1, scheelt geld en stroomverbruik. Ja het levert ook meer risico op, maar inderdaad die backup is prima straks.

Inmiddels heb ik iets van 4 verschillende builds verzonnen en kan ik nog geen keuze maken, maar het geeft wel perspectieven.

Ik dacht alleen nog maar bezig te zijn om tussen Xeon of een i3 te kiezen, maar nu zijn de disks er weer bij gekomen en als ik naar 3 disks zou gaan dan is een lagere voeding ook interessant.
Echter in het lagere wattage segment van voedingen kon ik niet snel een voeding vinden dat ook efficient is bij laag verbruik.

Overigens naar 3 disks gaan brengt nog een wijziging met zich mee en dat is een kleinere case.... zucht :-)

Acties:
  • 0 Henk 'm!

  • cobo
  • Registratie: December 2012
  • Laatst online: 21-09 18:49

cobo

I’m not make it, I create it

IChaosI schreef op vrijdag 13 januari 2017 @ 13:18:
Ben zelf al een tijdje aan het kijken naar een mooie NAS build voor thuis, waar ik ook een topic NAS voor thuis +/- €600 aan heb gewijd. Ik ben daarbij tot de volgende twee opties gekomen:

Build 1: Zelfbouw NAS
#ProductPrijsSubtotaal
1Intel Celeron G3920 Boxed€ 58,10€ 58,10
1Gigabyte GA-X150M-PRO ECC€ 114,68€ 114,68
3WD Red WD20EFRX, 2TB€ 92,95€ 278,85
1Fractal Design Define Mini€ 86,95€ 86,95
1Crucial CT8G4WFS824A€ 59,50€ 59,50
1Seasonic G-series 360 watt€ 63,95€ 63,95
Bekijk collectie
Importeer producten
Totaal€ 662,03


Build 2: Kant en klaar NAS
Zelf neig ik meer naar de DIY NAS, maar kan deze toch ook niet helemaal wegcijferen?

#ProductPrijsSubtotaal
3WD Red WD20EFRX, 2TB€ 92,95€ 278,85
1HP Proliant MicroServer Gen8 G1610T€ 193,19€ 193,19
Bekijk collectie
Importeer producten
Totaal€ 472,04


Aangezien er niet heel veel respons komt op mijn topic, beproef ik mijn geluk ook maar eens hier :). Ik hoop dat dit wat meer feedback op zal leveren.
De vraag is hoelang je met je opslag vooruit kan. Is dit langer dan 3 jaar. Dan is de HP Proliant MicroServer Gen8 G1610T een goede keuze. Anders de Zelfbouw Nas. Er zit namelijk 200 euro verschil tussen die twee.

Maar nu een vraag naar jou toe. Waarom 2 TB schijven en niet 4 TB schijven of groter?

Acties:
  • 0 Henk 'm!

  • IChaosI
  • Registratie: April 2010
  • Laatst online: 30-10-2024
cobo schreef op vrijdag 13 januari 2017 @ 15:01:
De vraag is hoelang je met je opslag vooruit kan. Is dit langer dan 3 jaar. Dan is de HP Proliant MicroServer Gen8 G1610T een goede keuze. Anders de Zelfbouw Nas. Er zit namelijk 200 euro verschil tussen die twee.

Maar nu een vraag naar jou toe. Waarom 2 TB schijven en niet 4 TB schijven of groter?
Het liefst wel wat langer dan 3 jaar. (Snap niet helemaal wat je bedoelt met voor langer dan 3 jaar microserver, anders Zelfbouw Nas? Neem aan dat deze toch ook wel langer dan 3 jaar mee moet kunnen?) Ik zat sws te twijfelen tussen 2TB of 3TB HDD's en dacht uiteindelijk als ik gwn begin met 3x 2TB HDD's (wat betekent dat ik effectief 4TB over zou houden i.v.m. 1 parity disk, mocht ik voor FreeNas RAIDZ kiezen) kan ik bij gebrek aan ruimte altijd 1 of meerdere disks op den duur vervangen voor grotere varianten. Die 4TB disks zijn qua kosten toch wel weer een fors stuk duurder.

Acties:
  • 0 Henk 'm!

  • cobo
  • Registratie: December 2012
  • Laatst online: 21-09 18:49

cobo

I’m not make it, I create it

IChaosI schreef op vrijdag 13 januari 2017 @ 15:11:
[...]


Het liefst wel wat langer dan 3 jaar. (Snap niet helemaal wat je bedoelt met voor langer dan 3 jaar microserver, anders Zelfbouw Nas? Neem aan dat deze toch ook wel langer dan 3 jaar mee moet kunnen?) Ik zat sws te twijfelen tussen 2TB of 3TB HDD's en dacht uiteindelijk als ik gwn begin met 3x 2TB HDD's (wat betekent dat ik effectief 4TB over zou houden i.v.m. 1 parity disk, mocht ik voor FreeNas RAIDZ kiezen) kan ik bij gebrek aan ruimte altijd 1 of meerdere disks op den duur vervangen voor grotere varianten. Die 4TB disks zijn qua kosten toch wel weer een fors stuk duurder.
Ik bedoel ermee te zeggen hoelang blijf je deze schijven gebruiken. Er passen namelijk 4 hdd's in de microserver. In je zelfbouw Nas passen er maximaal 8 in. De zelfbouw Nas is wel 200 euro duurder.

Dit verklaart waarom ik daar naar vroeg.

Wat is je verwachting hoeveel GB er per jaar bij gaat komen? Dan kan ik je vraag beter beantwoorden en onderbouwen

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
anc schreef op vrijdag 13 januari 2017 @ 14:27:
[...]


Ik weet niet of je dit als geintje bedoelde, maar het zet mij wel serieus tot nadenken.
3 of 4 disks in RAID Z1, scheelt geld en stroomverbruik. Ja het levert ook meer risico op, maar inderdaad die backup is prima straks.
Nee geen grap, maar hier nog enkele zaken die je kan afwegen.
De stress tijdens een rebuild neemt enorm toe, mechanisch en elektrisch. Zeker thuis, jouw harddisken zullen niet de hele tijd afgebeuld worden. Vermoedelijk doen ze heel weinig. Tijdens de rebuild zullen alle betrokken harddisken de hele tijd data moeten aanleveren om de ontbrekende data weer te construeren. Als je nu veel harddisken in je array hebt zitten gaan die allemaal maximaal aan de slag, dat levert echt serieuze mechanische stress op. Dit is het moment dat plotseling er nog eentje uitvalt.
Ik denk dat het risico reuze meevalt dat jij dataverlies gaat zien bij een kleine RAIDZ1 als daar een disk van is uitgevallen. Zeker omdat jij een backup hebt.
Dit zijn de opties met voor- en nadelen
Veel disken (met kleine capaciteit): kosten meer stroom en geen uitbreiding meer mogelijk. Je kan bij raid6/raidz-2 of beter meer dan 1 disk verliezen. Je hebt meer bandbreedte bij streaming IO, niet bij random.
Weinig disken (met grote capaciteit: kosten minder stroom en uitbreiding mogelijk. Alleen kan je maar 1 disk verliezen zonder dataverlies. Als je een tweede RAIDZ-1 vdev toevoegt aan je zpool dan zal (mits de data gestriped is over beide vdevs) ook je random IO bija verdubbelen.

Kosten zijn gelijk, dat beetje stroom kost je de kop niet alsmede het verschil in aanschaf prijs.

Als je je echt zorgen over data verlies maakt dan:
  • zou je het liefste een ingebouwde spare hebben
  • heb je een spare op de plank hebben liggen
  • heb je een chassis met echte caddies
  • wil je niet je systeem moeten power cyclen totdat je array weer gezond is
Inmiddels heb ik iets van 4 verschillende builds verzonnen en kan ik nog geen keuze maken, maar het geeft wel perspectieven.

Ik dacht alleen nog maar bezig te zijn om tussen Xeon of een i3 te kiezen, maar nu zijn de disks er weer bij gekomen en als ik naar 3 disks zou gaan dan is een lagere voeding ook interessant.
Echter in het lagere wattage segment van voedingen kon ik niet snel een voeding vinden dat ook efficient is bij laag verbruik.

Overigens naar 3 disks gaan brengt nog een wijziging met zich mee en dat is een kleinere case.... zucht :-)
Ik blijf erbij begin met die i3 en wacht met de xeon. Upgraden kan altijd nog. Zeker als dit systeem achter die ups staat kan je hier echt jaren (minimaal 5) mee doen. Misschien is het op een gegeven moment te zwak voor bepaalde compute maar dan zou je de xeon erin kunnen stoppen of er losse compute zonder storage bij doen. Je kan er tegen die tijd bijv ook nog een 10gbit kaartje in stoppen, een nvme kaart of twee of een sas kaart met veel poorten. Je hebt immers ook nog 4 PCIe slots over.
Mijn eerste en oudste ZFS NAS draait al meer dan 8 jaar. En die krijgt er (voor thuis) goed van langs. Maar door destijds voor goede componenten te kiezen heb ik nooit last gehad. Ik verwacht dat je van dit systeem ook jaren plezier zal hebben. Je workload van je NAS zal niet spectaculair gaan veranderen de komende 5 jaar, dus kan je met deze investering echt wel een tijdje vooruit.

iek kaik in mein kristallen bool en sie:.
  • wifi wordt niet veel sneller. (Dan koop je een 10bit kaartje als je netwerk een bottleneck wordt)
  • kijk je ook niet naar een 16K film
  • zijn je foto's geen 100 megapixels
  • Breidt je gezin niet uit naar 100 leden.(Dan heb je wel andere dingen aan je hoofd dan of je NAS voldoende performance biedt)
De HP microserver is natuurlijk bij lange na niet te vergelijken met de mogelijkheden van jouw voorgestelde configuratie. Leuk kastje en prima inzetbaar als NAS maar veel beperkter dan je huidige voorstel.

Dit alles is slechts mijn mening en is gebaseerd op de beperkt info uit jouw posts. Mischien dat je wel graag iedere paar jaar alles vervangt of dat je zo'n gelikt kastje van HP veel handiger vind...

Goed weekend.

Acties:
  • 0 Henk 'm!

  • IChaosI
  • Registratie: April 2010
  • Laatst online: 30-10-2024
cobo schreef op vrijdag 13 januari 2017 @ 15:32:
Ik bedoel ermee te zeggen hoelang blijf je deze schijven gebruiken. Er passen namelijk 4 hdd's in de microserver. In je zelfbouw Nas passen er maximaal 8 in. De zelfbouw Nas is wel 200 euro duurder.

Dit verklaart waarom ik daar naar vroeg.

Wat is je verwachting hoeveel GB er per jaar bij gaat komen? Dan kan ik je vraag beter beantwoorden en onderbouwen
Om eerlijk te zijn heb ik geen flauw idee, dit gaat mijn eerste NAS worden en heb dus ook geen eerdere ervaringen waaraan ik kan relateren. Ik gok dat ik de eerste paar jaar wel genoeg ga hebben aan 3x 2TB HDD's. Maar het gaat mij er ook om dat, mocht ik om wat voor reden dan ook die 4TB snel volkrijgen. Ik dan wel de mogelijkheid heb tot uitbreiding.

Ben ook wel benieuwd wat je (even afgezien van de HDD's) van de build(s) vindt?

Acties:
  • 0 Henk 'm!

  • cobo
  • Registratie: December 2012
  • Laatst online: 21-09 18:49

cobo

I’m not make it, I create it

IChaosI schreef op vrijdag 13 januari 2017 @ 16:02:
[...]


Om eerlijk te zijn heb ik geen flauw idee, dit gaat mijn eerste NAS worden en heb dus ook geen eerdere ervaringen waaraan ik kan relateren. Ik gok dat ik de eerste paar jaar wel genoeg ga hebben aan 3x 2TB HDD's. Maar het gaat mij er ook om dat, mocht ik om wat voor reden dan ook die 4TB snel volkrijgen. Ik dan wel de mogelijkheid heb tot uitbreiding.

Ben ook wel benieuwd wat je (even afgezien van de HDD's) van de build(s) vindt?
De HP Proliant MicroServer Gen8 G1610T is dan een mindere goede keuze als je graag wil uitbreiden. Dan ben je met een zelfbouw Nas beter uit. Over je zelfbouw build ziet er goed uit. Daar heb ik geen aanmerking op.

Nu kan ik ook de vraag stellen. Ben je berijd om 200 euro meer aan een build uit te geven?
Ja = zelfbouw build
Nee = HP Proliant MicroServer Gen8 G1610T
Pagina: 1 ... 210 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.