Core i3 en pentium en celeron doen vaak ook ECC, i5 en i7 niet
[ Voor 9% gewijzigd door Q op 10-12-2016 08:20 ]
[ Voor 9% gewijzigd door Q op 10-12-2016 08:20 ]
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 2500 Boxed | € 0,- | € 0,- |
1 | Asus P8H77-M Pro | € 0,- | € 0,- |
3 | Seagate Desktop HDD, 3TB | € 96,90 | € 290,70 |
1 | be quiet! Pure Rock | € 29,- | € 29,- |
4 | Kingston KVR13N9S8/4 | € 19,90 | € 79,60 |
1 | be quiet! Pure Power 9 400W CM | € 58,95 | € 58,95 |
2 | Samsung 830 series SSD 128GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 458,25 |
if (!coffee) {
Work = false; }
PreciesVerwijderd schreef op vrijdag 9 december 2016 @ 19:20:
Precies dus er staat:
[...]
UDIMM = Unbuffered, dus NIET registered! Dat is RDIMM.
Hoe het precies zit met CPU ECC ondersteuning weet ik niet; wel dat je volgens mij een server-chipset moet hebben. Maar dat weten anderen beter dan ik.
[ Voor 12% gewijzigd door Beninho op 09-12-2016 19:58 ]
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Verwijderd
Die voeding is niet meer te koop en komt denk ik ook niet meer te koop.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 55,95 | € 55,95 |
1 | Gigabyte GA-X150M-PRO ECC | € 102,85 | € 102,85 |
1 | WD Red WD40EFRX, 4TB | € 157,91 | € 157,91 |
1 | Cooler Master Elite 342 | € 30,95 | € 30,95 |
1 | Kingston ValueRAM KVR21E15D8/8HA | € 58,73 | € 58,73 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
Bekijk collectie Importeer producten | Totaal | € 470,34 |
Waarschijnlijk goedkoper en voldoet aan wat je wilt.n3ck schreef op zondag 11 december 2016 @ 14:56:
Dit klinkt mij allemaal vrij logisch in de oren, maar dit is voor mij niet "standaard" kost. Waar ik dus benieuwd naar ben is: wat zouden jullie doen
[ Voor 18% gewijzigd door Q op 11-12-2016 20:21 ]
Merci! Ik heb de vraag ook gedropt bij de supportafdeling van Gigabyte. Daar heb ik nog geen reactie op. Als er hier iemand ervaring of kennis heeft met/van een dergelijke combinatie hoor ik dat graagVerwijderd schreef op vrijdag 9 december 2016 @ 20:22:
Geheugen is inderdaad goed. Dan gaat het inderdaad nog om CPU/Chipset/Mobo ondersteuning. Want ook je BIOS kan roet in het eten gooien. Kortom, je moederbord (en daarmee chipset) moet het ook ondersteunen.
Ingewikkeld wordt het dat 'ondersteuning' soms betekent dat het wel werkt, maar dat je geen ECC bescherming hebt. ECC UDIMM werkt dan alsof je non-ECC UDIMM had gebruikt. Kortom, dan heb je nog steeds geen ECC; het is enkel dat ECC geheugen wel bruikbaar is als non-ECC. Dat wil je natuurlijk niet.
Dus het is goed om vast te stellen dat je daadwerkelijk over ECC kunt beschikken met een bepaalde moederbord/chipset/CPU-combinatie. Daar durf ik zelf geen zekerheid over te geven; anderen weten hier wellicht meer over te vertellen.
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Top!First X150M-PRO ECC supports Intel Celeron G3900. And according to Intel ARK spec, Intel Celeron G3900 should support ECC memory. So this MB with CPU Intel Celeron G3900 should support ECC Memory.
I’ve already informed PM to modify the manual description because ECC support is not limited to Intel Xeon CPU only.
Thank you for emailing GIGABYTE.
We are delighted with your interest in our products.
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Nog niet; ik heb besloten te wachten op een systeem wat 10Gbps in de SoC CPU direct integreert. Xeon-D is daarvan een voorbeeld, maar is peperduur.Paul schreef op donderdag 15 december 2016 @ 22:41:
Zijn hier mensen die 10 GBit gebruiken?
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G3900 Boxed | € 37,99 | € 37,99 |
1 | Gigabyte GA-X150M-PRO ECC | € 112,51 | € 112,51 |
1 | EVGA GeForce GT 710 2GB | € 41,91 | € 41,91 |
1 | PNY GeForce GT 710 1GB DDR3 | € 37,23 | € 37,23 |
1 | Fractal Design Define R4 Pearl Black | € 91,50 | € 91,50 |
1 | Fractal Design Dynamic GP-14 Black blades, 140mm | € 11,86 | € 11,86 |
1 | Kingston ValueRAM KVR21E15D8/8HA | € 59,81 | € 59,81 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Intel 600p 128GB | € 59,95 | € 59,95 |
Bekijk collectie Importeer producten | Totaal | € 516,71 |
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
Verwijderd
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
http://esxilab.wordpress.com If all is virtual then what is real?
Welke zou jij voorstellen?Q schreef op vrijdag 16 december 2016 @ 15:08:
Als je de prijs van een losse video kaart optelt bij de prijs van dat ECC bord, kun je dan niet het resterende prijsverschil overleven en een iets duurder serverbord nemen met on-board KVM / onboard video kaart?
Scheelt je een hele hoop gedonder.
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G3900 Boxed | € 37,90 | € 37,90 |
1 | Supermicro X11SSL-F | € 210,04 | € 210,04 |
1 | Fractal Design Define R4 Pearl Black | € 91,50 | € 91,50 |
1 | Fractal Design Dynamic GP-14 Black blades, 140mm | € 11,86 | € 11,86 |
1 | Kingston ValueRAM KVR21E15D8/8HA | € 59,81 | € 59,81 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Intel 535 2,5" SSD 120GB | € 58,- | € 58,- |
1 | Startech.com 2.5in Aluminum USB 3.0 External SATA III SSD Hard Drive Enclosure met UASP for SATA 6 G | € 23,97 | € 23,97 |
Bekijk collectie Importeer producten | Totaal | € 557,03 |
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G3900 Boxed | € 37,90 | € 37,90 |
1 | Gigabyte GA-X150M-PRO ECC | € 112,51 | € 112,51 |
1 | PNY GeForce GT 710 1GB DDR3 | € 37,23 | € 37,23 |
1 | Fractal Design Define R4 Pearl Black | € 91,50 | € 91,50 |
1 | Fractal Design Dynamic GP-14 Black blades, 140mm | € 11,86 | € 11,86 |
1 | Kingston ValueRAM KVR21E15D8/8HA | € 59,81 | € 59,81 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Intel 600p 128GB | € 59,95 | € 59,95 |
Bekijk collectie Importeer producten | Totaal | € 474,71 |
[ Voor 33% gewijzigd door Q op 16-12-2016 22:50 ]
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G3900 Boxed | € 37,90 | € 37,90 |
1 | MSI C236A WORKSTATION | € 163,50 | € 163,50 |
1 | Fractal Design Define R4 Pearl Black | € 91,50 | € 91,50 |
1 | Fractal Design Dynamic GP-14 Black blades, 140mm | € 11,86 | € 11,86 |
1 | Kingston ValueRAM KVR21E15D8/8HA | € 60,90 | € 60,90 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Intel 600p 128GB | € 59,95 | € 59,95 |
Bekijk collectie Importeer producten | Totaal | € 489,56 |
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
panasonic 5KW L-serie | 300L SWW | 3700+3200 Wp oost-west
L2ARC is enkel van toepassing wanneer je erg veel RAM hebt en uitbreiden daarvan niet mogelijk is of heel duur wordt. Denk aan 100GB+ aan RAM. Maak je daar geen gebruik van is het slimmer om in meer RAM te investeren, L2ARC maakt het systeem dan doorgaans enkel maar trager omdat het een deel van je RAM opsnoept en DDR geheugen nog altijd veel sneller is dan een SSD.Beninho schreef op zondag 18 december 2016 @ 16:21:
Zit ook een uitstekend chipset op, intel c236 http://www.tomshardware.c...-chipsets-xeon,31051.html
Het plan is om er Ubuntu 16.04 server edition met ZFS native op te draaien. Ik heb al wat ervaring met eerdere versies en blijf zo lekker dicht bij huis t.a.v. configuraties.
Mogelijk wil ik in de toekomst een L2ARC toevoegen, maar ik vraag me af in hoeverre dat voor de thuisgebruiker interessant gaat zijn. Dus ga eerst een kijken hoe deze setup gaat presteren..
AccuSafe.nl: Alles voor je kistradio | Store | Kistradio FAQ | Onze video's | Onze versterker!
Verwijderd
???wesleytjuh schreef op zondag 18 december 2016 @ 16:33:
L2ARC is enkel van toepassing wanneer je erg veel RAM hebt
Misschien had ik moeten zeggen: wanneer je erg veel RAM nodig hebt, maar meer RAM in je setup niet mogelijk is of erg duur wordt. Pas dan wordt L2ARC interessant. Voor home gebruik eigenlijk niet interessant, RAM is meer dan goedkoop genoeg voor die relatief kleine geheugengroottes. Beninho zou bijvoorbeeld beter kunnen investeren in 16GB ram ipv 8GB (zoals in zijn huidige wishlist) dan nu 8GB kiezen en later een SSD als L2ARC. Of over een tijdje gewoon 8GB erbij prikken.Verwijderd schreef op zondag 18 december 2016 @ 17:09:
[...]
???
Als je genoeg RAM hebt is L2ARC niet nodig; L2ARC is juist een manier om meer RAM cache te krijgen door je SSD in feite als RAM te gebruiken. Wel is het zo dat L2ARC ook een beetje RAM gebruikt, maar tegen een gunstige ratio (1:12 ofzoiets uit mijn hoofd, afhankelijk van de grootte van de datablokjes).
L2ARC is enkel interessant als je als thuisgebruiker de server lang aan laat staan, want na een reboot is de cache weg en moet deze opnieuw worden opgebouwd. Dit kan in de toekomst veranderen met persistent L2ARC.
[ Voor 11% gewijzigd door wesleytjuh op 18-12-2016 20:02 ]
AccuSafe.nl: Alles voor je kistradio | Store | Kistradio FAQ | Onze video's | Onze versterker!
Verwijderd
Ok helder, zoals de mensen hierboven al opmerken is een L2ARC thuis zeer waarschijnlijk niet relevant, meer RAM is beter, mocht het nodig zijn.Beninho schreef op zondag 18 december 2016 @ 16:21:
Zit ook een uitstekend chipset op, intel c236 http://www.tomshardware.c...-chipsets-xeon,31051.html
Het plan is om er Ubuntu 16.04 server edition met ZFS native op te draaien. Ik heb al wat ervaring met eerdere versies en blijf zo lekker dicht bij huis t.a.v. configuraties.
Mogelijk wil ik in de toekomst een L2ARC toevoegen, maar ik vraag me af in hoeverre dat voor de thuisgebruiker interessant gaat zijn. Dus ga eerst een kijken hoe deze setup gaat presteren..
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3240 Boxed | € 59,- | € 59,- |
1 | ASRock H81M-ITX | € 63,- | € 63,- |
1 | Cooler Master Elite 130 | € 43,95 | € 43,95 |
1 | Corsair CMV8GX3M2A1333C9 | € 55,30 | € 55,30 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Crucial BX100 120GB | € 69,99 | € 69,99 |
Bekijk collectie Importeer producten | Totaal | € 355,19 |
[ Voor 0% gewijzigd door Slenger op 25-12-2016 05:04 . Reden: Harde schijf info toegevoegd. ]
Verwijderd
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3240 Boxed | € 59,- | € 59,- |
1 | ASRock H81M-ITX | € 63,- | € 63,- |
2 | WD Red WD20EFRX, 2TB | € 93,95 | € 187,90 |
1 | Cooler Master Elite 130 | € 43,95 | € 43,95 |
2 | Crucial CT102464BD160B | € 49,90 | € 99,80 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Crucial MX300 2,5" 275GB | € 80,53 | € 80,53 |
Bekijk collectie Importeer producten | Totaal | € 598,13 |
# | Product | Prijs | Subtotaal |
1 | ASRock J3160DC-ITX | € 128,50 | € 128,50 |
2 | WD Red WD20EFRX, 2TB | € 93,95 | € 187,90 |
1 | Cooler Master Elite 130 | € 43,95 | € 43,95 |
2 | Crucial CT102464BD160B | € 49,90 | € 99,80 |
1 | Crucial MX300 2,5" 275GB | € 80,53 | € 80,53 |
Bekijk collectie Importeer producten | Totaal | € 540,68 |
Verwijderd
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3240 Boxed | € 59,- | € 59,- |
1 | ASRock H81M-ITX | € 63,- | € 63,- |
1 | Cooler Master Elite 130 | € 43,95 | € 43,95 |
1 | Crucial CT102464BD160B | € 49,90 | € 49,90 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
Bekijk collectie Importeer producten | Totaal | € 279,80 |
# | Product | Prijs | Subtotaal |
1 | ASRock J3160DC-ITX | € 128,50 | € 128,50 |
1 | Cooler Master Elite 130 | € 43,95 | € 43,95 |
1 | Crucial CT102464BD160B | € 49,90 | € 49,90 |
Bekijk collectie Importeer producten | Totaal | € 222,35 |
Ja, dat werkt prima. Ik gebruik zelf ook een USB sticktje voor freeNAS. Volgens mij is 8GB al voldoende hoor.Slenger schreef op zondag 25 december 2016 @ 18:18:
CiPHeER,
Wederom bedankt voor je duidelijke reactie.
Mijn voorkeur gaat uit naar een NAS met een DC-voeding. Ik ga voor de zuinige ITX DC-DC oplossing.
Ook omdat ik nog nooit met dat soort bordjes heb gewerkt. Ik vind de Elite kast een mooie kast en zag op Ebay al een PSU cover plate.
Kan ik gewoon een 32GB USB 3.0-stick gebruiken voor FreeNAS?
# | Product | Prijs | Subtotaal |
1 | Intel Core i7-6800K Boxed | € 449,- | € 449,- |
1 | ASRock Rack EPC612D8A | € 319,- | € 319,- |
12 | WD Red WD30EFRX, 3TB | € 113,93 | € 1.367,16 |
1 | Lian Li PC-A75X | € 187,50 | € 187,50 |
1 | Kingston ValueRAM KVR24R17S4K4/32 | € 229,99 | € 229,99 |
1 | Corsair RM850x | € 143,85 | € 143,85 |
Bekijk collectie Importeer producten | Totaal | € 2.696,50 |
[ Voor 67% gewijzigd door Xenophoben op 27-12-2016 14:38 ]
is everything cool?
Die is wel scherp, aangepast naar een Xeon.Xenophoben schreef op dinsdag 27 december 2016 @ 14:37:
Zover ik weet kan je geen ecc gebruiken met de gekozen processor ? Volgends deze pagina niet:
http://ark.intel.com/nl/p...-15M-Cache-up-to-3_60-GHz
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5-1620 v4 Boxed | € 312,49 | € 312,49 |
1 | ASRock Rack EPC612D8A | € 319,- | € 319,- |
10 | WD Red WD40EFRX, 4TB | € 162,64 | € 1.626,40 |
1 | NZXT Source 210 | € 46,19 | € 46,19 |
3 | Delock Installation Kit 3.5′′ to 5.25′′ | € 2,01 | € 6,03 |
1 | Kingston ValueRAM KVR24R17S4K4/32 | € 229,99 | € 229,99 |
1 | Corsair RM550x | € 95,95 | € 95,95 |
Bekijk collectie Importeer producten | Totaal | € 2.636,05 |
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.GioStyle schreef op dinsdag 27 december 2016 @ 14:31:
12 disks raidz2 is suboptimaal. Beter kies je voor 10 disks. Als je voor andere schijven kiest, dan zou je bijvoorbeeld met hetzelfde geld voor 4TB schijven kunnen gaan. Dan heb je en minder schijven en meer opslag.
Voeding is overkill. Met een Seasonic G450 kom je al ruim toe.
[ Voor 13% gewijzigd door Brakkie op 27-12-2016 19:06 . Reden: Schijven, kast en voeding aangepast. 3.5" to 5.25" adapter toegevoegd. ]
Dat heeft iets te maken met de alignment van de blokken die ZFS wegschrijft. Als je heel veel IO (doorgaans niet bij thuisgebruik) hebt kun je performantieverminderingen opmerken tenzij je het juiste aantal schijven (een macht van 2, plus de pariteit; of in jouw geval 2^3 + 2) gebruikt.Brakkie schreef op dinsdag 27 december 2016 @ 16:06:
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
Misschien nuttig: zie mijn artikel over ZFS in mijn signature. Met de large_blocks feature wordt de overhead van de relatief kleine max record size van 128kb doorbroken en heb je mogelijk minder last van de overhead die ontstaat als je een 'sub-optimaal' aantal disks in een VDEV stopt.Brakkie schreef op dinsdag 27 december 2016 @ 16:06:
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
[ Voor 16% gewijzigd door Q op 27-12-2016 20:15 ]
Is de server ook veel idle met de HDD's in standby?Brakkie schreef op dinsdag 27 december 2016 @ 16:06:
[...]
Die is wel scherp, aangepast naar een Xeon.
De reden dat ik voor een erg snelle processor wil gaan is dat ik heel lang wil doen met een toch wel forse investering. Ik hoop met deze configuratie ook 4k te kunnen transcoden... Heb nog niet zo gauw kunnen vinden wat daar aan processorkracht voor nodig is.
# Product Prijs Subtotaal 1 Intel Xeon E5-1620 v4 Boxed € 312,49 € 312,49 1 ASRock Rack EPC612D8A € 319,- € 319,- 10 WD Red WD40EFRX, 4TB € 162,64 € 1.626,40 1 NZXT Source 210 € 46,19 € 46,19 3 Delock Installation Kit 3.5′′ to 5.25′′ € 2,01 € 6,03 1 Kingston ValueRAM KVR24R17S4K4/32 € 229,99 € 229,99 1 Corsair RM550x € 95,95 € 95,95 Bekijk collectie
Importeer productenTotaal € 2.636,05
[...]
Waarom is 12 schijven suboptimaal? Op zich is 10 schijven van 4 GB geen slecht idee. Dan kunnen ze allemaal op dezelfde SATA controller op het mobo.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Er zitten 12 SATA poorten op het moederbord. Van wat ik begrijp heb je met Freenas en ZFS geen raid controller oid nodig.-The_Mask- schreef op dinsdag 27 december 2016 @ 20:23:
[...]
Is de server ook veel idle met de HDD's in standby?
Hoe was je van plan al de hdd's aan te sluiten?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
is everything cool?
Ik dacht dat dit wel een goede keuze was. 10 sata poorten op 1 controller, ondersteuning voor EDD geheugen e.d. Uiteraard sta ik open voor alternatieven. Heb jij goede suggesties?FREAKJAM schreef op dinsdag 27 december 2016 @ 23:10:
Ik vind je keuze voor het moederbord nog discutabel. Het bord beschikt over audio, firewire, thunderbolt en dergelijke wat je waarschijnlijk niet eens gaat gebruiken.
Waarom de voorkeur voor de Asrock?
Ikzelf (maar ook velen anderen op bijv /r/homelab op reddit) spreken hun voorkeur uit voor Supermicro. Enterprisegrade hardware en de bordjes beschikken bijvoorbeeld ook over IPMI. (Hoewel ik nu zie dat de Asrock ook IPMI heeft).Brakkie schreef op woensdag 28 december 2016 @ 23:01:
[...]
Ik dacht dat dit wel een goede keuze was. 10 sata poorten op 1 controller, ondersteuning voor EDD geheugen e.d. Uiteraard sta ik open voor alternatieven. Heb jij goede suggesties?
Ten SATA 3.0 connectors (I-SATA 0-5) and (SSATA0-3) are located on the board.
I-SATA 0-5 ports are supported by the AHCI controller and are compatible with RAID 0, 1, 5, 10. S-SATA 0-3 ports are supported by the sSATA controller and are compatible with RAID 0, 1, 5, 10.
[ Voor 50% gewijzigd door FREAKJAM op 28-12-2016 23:25 ]
is everything cool?
Die 6+4 zijn 2 controllers. Niet heel erg hoor, effect is hetzelfdeStorage
SATA Controller - Intel® C612 : 6 x SATA3 6.0Gb/s; 4 x sSATA3 6.0Gb/s; support RAID 0, 1, 5, 10
Additional Storage Controller - Marvell 9172: 2 x SATA3 6Gbps
00:1f.2 SATA controller: Intel Corporation C610/X99 series chipset 6-Port SATA Controller [AHCI mode] (rev 05) 00:11.4 SATA controller: Intel Corporation C610/X99 series chipset sSATA Controller [AHCI mode] (rev 05)
[ Voor 23% gewijzigd door FireDrunk op 28-12-2016 23:20 ]
Even niets...
http://midkemia.wikia.com/wiki/Banath
Even niets...
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1230 V3 Boxed | € 309,99 | € 309,99 |
1 | Supermicro X10SL7-F | € 273,25 | € 273,25 |
6 | WD Red WD30EFRX, 3TB | € 115,95 | € 695,70 |
1 | BitFenix Shadow | € 66,50 | € 66,50 |
7 | Sharkoon SATA III standard (50cm) | € 0,- | € 0,- |
1 | Kingston ValueRAM KVR16E11K4/32 | € 252,95 | € 252,95 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Crucial M500 2,5" 240GB | € 112,93 | € 112,93 |
Bekijk collectie Importeer producten | Totaal | € 1.775,27 |
[ Voor 3% gewijzigd door FREAKJAM op 09-01-2017 17:40 ]
is everything cool?
Volgens mij geen PAE, geen >4gb geheugen.FireDrunk schreef op dinsdag 3 januari 2017 @ 14:25:
Kan het ding ook geen i686 aan? Moet echt i586 zijn?
http://midkemia.wikia.com/wiki/Banath
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 56,95 | € 56,95 |
1 | MSI H110I Pro | € 77,50 | € 77,50 |
2 | WD Red 2x WD40EFRX, 4TB | € 324,- | € 648,- |
1 | Fractal Design Node 304 Zwart | € 80,95 | € 80,95 |
1 | Kingston HyperX Fury HX421C14FBK2/8 | € 64,95 | € 64,95 |
1 | be quiet! Pure Power L8 300W | € 141,99 | € 141,99 |
1 | Kingston SSDNow V300 60GB | € 47,95 | € 47,95 |
Bekijk collectie Importeer producten | Totaal | € 1.118,29 |
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
[ Voor 94% gewijzigd door donnervogel op 07-01-2017 18:40 ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
# | Product | Prijs | Subtotaal |
1 | ASRock N3150-ITX | € 0,- | € 0,- |
3 | WD Red WD30EFRX, 3TB | € 115,95 | € 347,85 |
1 | Lian Li PC-Q01B | € 0,- | € 0,- |
2 | Kingston ValueRAM KVR16LS11S6/2 | € 0,- | € 0,- |
1 | Kingston SSDNow V300 60GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 347,85 |
Fan van Bokkiewokkie and the Three Degrees
Ik snap dat je al wat spul hebt, maar waarom zou je deze niet nemen? Hoef je alleen boot disk/stick en disks in te stoppen.Rincewind schreef op maandag 9 januari 2017 @ 13:21:
Ik ben bezig met het optuigen van een nieuwe nas. Momenteel heb ik een hele oude Netgear NV+ (netto 3 TB) en een zelfbouw Nas4Free-NAS (1 disk van 1.5TB) in de meterkast staan. Beide wil ik gaan vervangen door iets anders:
# Product Prijs Subtotaal 1 ASRock N3150-ITX € 0,- € 0,- 3 WD Red WD30EFRX, 3TB € 115,95 € 347,85 1 Lian Li PC-Q01B € 68,- € 68,- 2 Kingston ValueRAM KVR16LS11S6/2 € 15,46 € 30,92 1 Kingston SSDNow V300 60GB € 47,95 € 47,95 Bekijk collectie
Importeer productenTotaal € 494,72
In principe moet ik alleen nog de HDD's kopen: de rest is al beschikbaar. Waarschijnlijk moet de Lian Li PC-Q01B ook vervangen worden maar dat zie ik nog wel. De SSD wordt in deze setup gebruikt als serversoftware-opslag.
Om eerlijk te zijn heeft de Nas4free-NAS jarenlang zonder problemen gedraaid als algemene NAS/downloadstation en wordt de Netgear eigenlijk als een soort backup-NAS gebruikt. Qua opslag is minimaal 3TB netto beschikbare opslag wel noodzakelijk. Meer is natuurlijk beter maar dat is denk ik door het budget wat ik heb niet mogelijk. Misschien is het dan slimmer om 2x een 4TB schijf te gebruiken.
De NAS wordt gebruikt voor het volgende:Mijn vragen:
- Downloadmachine (Sickrage, SABnzbd, couchpotato)
- Algemene dataopslag ( foto's, films, series e.d.)
- VPN server (eventueel)
[list]
• Is dit een redelijke setup voor een NAS?
• 3x 3TB of 2x 4TB?
Bedankt voor het meedenken
Omdat ik dan weer €150-200 (ong.) extra ga uitgeven. Zoals gezegd de rest van de HW heb ik al: alleen nog geen disks. En die moet ik ook bij die Gen8 kopen dus ben ik bij jouw voorstel sowieso weer duurder uit. Ik heb net mijn post even aangepast om wat inzichtelijker te maken wat ik al hebQ schreef op maandag 9 januari 2017 @ 13:57:
[...]
Ik snap dat je al wat spul hebt, maar waarom zou je deze niet nemen? Hoef je alleen boot disk/stick en disks in te stoppen.
pricewatch: HP Proliant MicroServer Gen8 G1610T
[ Voor 6% gewijzigd door Rincewind op 09-01-2017 15:16 ]
Fan van Bokkiewokkie and the Three Degrees
Verwijderd
Ok fair enoughRincewind schreef op maandag 9 januari 2017 @ 15:12:
[...]
Omdat ik dan weer €150-200 (ong.) extra ga uitgeven. Zoals gezegd de rest van de HW heb ik al: alleen nog geen disks. En die moet ik ook bij die Gen8 kopen dus ben ik bij jouw voorstel sowieso weer duurder uit. Ik heb net mijn post even aangepast om wat inzichtelijker te maken wat ik al heb
Wat een gekleurde stellingname.Verwijderd schreef op maandag 9 januari 2017 @ 16:45:
Wat betreft je vragen:
• RAID was leuk 20 jaar geleden; nu hebben we ZFS; ik denk dat je een goede reden moet hebben om in dit tijdperk géén ZFS te gebruiken op je fileserver/NAS - het is gewoon het beste wat je kunt krijgen dat echt volwassen en stabiel is.
[ Voor 38% gewijzigd door Q op 09-01-2017 19:57 ]
is everything cool?
Een 10-disk RAIDZ2 toevoegen is het makkelijkste en dan kun je even vooruit. 4 van de 16 disks aan parity kwijt raken vind ik niet zo efficient maar er is niet echt een makkelijk alternatief vrees ik zonder een nieuwe pool te maken en je data te moeten migreren of zelfs tijdelijk even elders te moeten parkeren.FREAKJAM schreef op maandag 9 januari 2017 @ 20:03:
Iemand die nog iets zinnings kan roepen over mijn vragen? Had gehoopt op wat respons, maar helaas niet gekregen. Desnoods maak ik even een nieuw topic aan.
FREAKJAM in "Het grote DIY RAID NAS topic deel 3"
[ Voor 7% gewijzigd door Q op 10-01-2017 00:49 ]
Ik was voor Red's gegaan puur op aanraden van een aantal artikelen die ik al gelezen had. Maar ik zal ook eens gaan kijken naar iets goedkopere Blue's.Verwijderd schreef op maandag 9 januari 2017 @ 16:45:
Ik zou alleen kijken of je iets goedkopere schijven (goedkoper qua euro per TB) kunt scoren. Red heb je sowieso niet nodig; alleen het extra garantiejaar is dan een concreet voordeel. Maar als de BackBlaze-studie een beetje klopt zou uitval zich vooral na het 3e jaar voordoen en dan heb je niet zoveel aan het jaar extra garantie. Dan kun je beter voor de Greens/Blue gaan; uiteindelijk kun je daar een schijf meer van kopen door de lagere prijs.
Toshiba's durf ik niet aan als ik de recensies hier op tweakers lees. Zijn Seagates ook een goed keuze? Ik krijg het gevoel dat qua betrouwbaarheid de WD onverslaanbaar zijn. Dan maar een paar euro meer..En andere schijven zijn ook te overwegen; HGST (Hitachi) en voor een budget server Toshiba; al acht ik die wel van lagere kwaliteit dan de Greens en Hitachi-schijven.
ZFS it is thenWat betreft je vragen:
• RAID was leuk 20 jaar geleden; nu hebben we ZFS; ik denk dat je een goede reden moet hebben om in dit tijdperk géén ZFS te gebruiken op je fileserver/NAS - het is gewoon het beste wat je kunt krijgen dat echt volwassen en stabiel is.
Als ik het goed heb begrepen hou je bij een 3x3TB drive's ZFS-pool netto ongeveer 5.5TB over. Dat zou in mijn situatie ruim voldoende zijn. Wel maak ik me een beetje zorgen of de 4GB voldoende is om ZFS netjes te draaien..• Netto beschikbare ruimte is bij ZFS grofweg hetzelfde als bij RAID. Dus RAID-Z met 5 disks betekent net als RAID5 dat je 4 van de 5 schijven effectief voor opslag kunt gebruiken. Bedenk wel dat bij ZFS het extra belangrijk is dat je een gedeelte van je pool leeg laat, en dus niet helemaal volschrijft. Net als SSDs dus, wat ook CoW-mechanismes zijn.
Daar zal ik te zijner tijd wel even induiken. Dat is deels ook mede afhankelijk van de gekozen NAS-software. Daar is trouwens vandaag xpenology als optie bijgekomen. Dat wordt de komende weken spelen met virtualbox om de diverse NAS-sw's te testen• Syncen doe je het liefste met ZFS send/receive en anders met rsync met checksums.
Fan van Bokkiewokkie and the Three Degrees
RAIDZ2 hoop ikQ schreef op maandag 9 januari 2017 @ 21:49:
Een 10-disk RAIDZ
Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboardMet 16 disks x 20 watt piek vermogen dus 40 watt over voor de rest, dat wordt krap.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
Je kunt altijd een eigen topic maken, en gezien de omvang van je post was dat wellicht ook beter geweest. Genoeg animo om iemands project te bekijken in een afzonderlijk topic, op voorwaarde dat je ook een mooie startpost maakt. Daar was je in je post waar je naar refereert ook hard naar op weg. Dus je kunt altijd nog overwegen een eigen topic te openen, dan verplaats ik de reacties die hier staan naar je nieuwe topic. Akkoord?FREAKJAM schreef op maandag 9 januari 2017 @ 20:03:
Iemand die nog iets zinnings kan roepen over mijn vragen? Had gehoopt op wat respons, maar helaas niet gekregen. Desnoods maak ik even een nieuw topic aan.
FREAKJAM in "Het grote DIY RAID NAS topic deel 3"
aangepast
Ik weet het niet eens, ik gebruik het niet.Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboard
(Intel) controller van mijn SuperMicro al de schijven één voor één opspinnen, lijkt me dat zo'n dedicated kaart dat ook moet kunnen?
Heb jaren lang zonder problemen met een 20-disk RAID6 gedraaid en heb nu ook een 18-disk RAIDZ2 vdev in mijn huidige 71 TB server (en de overige 6 disks ook in een separate RAIDZ2 vdev).In tegenstelling tot anderen vind ik 4 disks op 16 disks parity niet teveel. Het is juist goed dat je ook voor de 6-disk voor dubbele pariteit hebt gekozen. Met de huidige uBER en opslagcapaciteit is het hebben van een hele dunne schil bescherming (RAID5/RAID-Z) niet afdoende, zeker niet wanneer je vele disks tot je beschikking hebt. Daarbij komt dat het replacen van een disk ook tijd kost, ook aangenomen dat je er ééntje direct paraat hebt wat voor thuisgebruikers zeker niet altijd het geval is. RAID-Z2 - dus dubbele pariteit - is zeker een goede investering wanneer het aantal disks toeneemt.
Dat artikel van Robin Harris is een onzin artikel en wordt niet gestaafd door de realiteit. De voorspelligen zijn niet uitgekomen en de statistiek van 1 unrecoverable read error per 12.5 TB gelezen data is hele harede onzin, harde schijven zijn veel betrouwbaarder.De trend dat men enkele pariteit vaarwel zegt, dus RAID5 en RAID-Z, wordt bijvoorbeeld ondersteund door de voorman van FreeNAS, 'CyberJack' die dit in zijn signature heeft staan, en van Robin Harris - de storage expert achter het originele artikel: Why RAID5 stops working in 2009 nu bijna 10 jaar geleden. Dit artikel, wat vele RAID liefhebbers tegen de haren instreek, is mijns inziens het begin geweest van de omslag van legacy RAID naar next-gen ZFS/Btrfs/HammerFS/ReFS. Kortom nu er daadwerkelijk alternatieven zijn zie je dat ieder groot OS al is overgestapt, of bezig is over te stappen. Zo biedt nu ook Ubuntu desktop het in de default installatie aan, laagdrempelig.
MDADM RAID5 en RAID6 geven *uitstekende* sequentiële prestaties in de praktijk. Bovenstaande is onjuist.Een 10-disk RAID-Z2 zie ik als de sweet spot als balans tussen bescherming en efficiency - oftewel hoeveel procent van de totale ruwe capaciteit is daadwerkelijk bruikbaar voor het filesystem. Bij een 10-disk met dubbele pariteit is dat 80%, dus 20% wordt geïnvesteerd (gaat 'verloren' volgens sommigen) in dubbelvoudige bescherming voor je data. Dat lijkt mij een prima getal, ik zou het voor 50/50 ook doen, maar bij een normale 2-voudige mirror heb je nog altijd maar één disk failure die je kunt opvangen. Kortom, pariteit is heerlijk bij veel disks om veilig maar vooral ook toch efficiënt veel data op te kunnen slaan. Zeker ZFS heeft zeer acceptabele schrijfprestaties voor RAID-Z1/2/3, wat bij RAID5/6 technisch niet mogelijk is door gebrek aan zaken als dynamische stripesize, waardoor RAID5/6 een read-modify-write routine kent voor writes die niet de perfecte magische grootte hebben en perfect aligned zijn. Alleen bij sequential write heb je hier weinig last van omdat in de tussenblokken er automatisch de juiste groottes gevonden worden - althans als je een redelijke RAID5 engine gebruikt. Intel onboard RAID doet dit bijvoorbeeld in elk geval wel.
Maar ik dwaal af.. het punt is dat je bescherming goed geïnvesteerd is. En met ZFS heb je een 'verbeterde' vorm van RAID6 en 'RAID7' tot je beschikking die erg effectief en vooral economisch kunnen zijn: je krijgt veel voor weinig geld.
Daar zou ik mee oppassen, die controller die CiPHER aanbeveelt is erg goedkoop, maar mensen hadden er problemen mee en ik begreep van CiPHER dat de kaart wat BSD betreft alleen goed werkt onder de meest recente versie (11) dus FreeNAS (gebaseerd op oudere BSD) zou dan al afvallen als platform.DeLock controllers
[ Voor 87% gewijzigd door Q op 10-01-2017 01:35 ]
Verwijderd
Nou inderdaad zeg. Fan zijn van een filesystem is prima, maar betitelingen als "RAID was leuk 20 jaar geleden; nu hebben we ZFS" hebben niks meer met objectiviteit te maken; dat is gewoon je ziel en zaligheid verkopen aan de ZFS-kerk. Zoals je zegt is ZFS een puik systeem, maar het is zeker niet heilig. Met name het gebrek aan flexibiliteit vind ik persoonlijk een groot gemis. Ik heb hier een raid array die ergens in 2009 is begonnen als 2-disk raid 1 array, een jaar later een 3-disk raid 5 array werd en inmiddels een 5-disk raid 5 array is geworden. Ik heb die raid array aangepast al naar gelang mijn behoefte, en dus ook niet alle HDDs in een keer aan hoeven schaffen. Met ZFS had dat nooit gekund. Daarnaast zorgen de systeemeisen er voor dat de standaard nas-doosjes die die meeste mensen kopen allemaal op mdadm draaien, en niet op ZFS.Q schreef op dinsdag 10 januari 2017 @ 00:51:
[...]
Ikzelf lees hier toch voornamelijk ZFS propaganda. Niet dat je niet voor ZFS zou moeten kiezen, je draait het al en ik ben ook nog steeds te spreken over ZFS, maar al die halve (on)waarheden, het is gewoon jammer.
[ Voor 6% gewijzigd door Verwijderd op 10-01-2017 02:39 ]
Verwijderd
Mja, ik vind het erg veel disks met weinig parity. Waarom dan niet één disk erbij en een 19-disk RAID-Z3. Al had je die degraded aangemaakt, had je altijd nog kunnen varieren tussen 17-disk RAID-Z, 18-disk RAID-Z2 en 19-disk RAID-Z3. Nu kan dat niet meer.Q schreef op dinsdag 10 januari 2017 @ 00:51:
Heb jaren lang zonder problemen met een 20-disk RAID6 gedraaid en heb nu ook een 18-disk RAIDZ2 vdev in mijn huidige 71 TB server (en de overige 6 disks ook in een separate RAIDZ2 vdev).
Wat eerlijk van je!Met MDADM zou je gewoon 1 grote 16-disk RAID6 kunnen draaien. Voor thuis prima. Maar qua data integriteit is het wel een stap terug.
Nouja het gevaar zou zijn dat er één disk gaat, je een nieuwe bestelt, en tijdens het rebuilden nog een andere disk uitvalt. Als je dan ook bad sectors hebt op een andere disk, krijg je gaten in je data bij ZFS en worden bepaalde files onleesbaar. Bij legacy RAID kan zelfs je filesystem corrupt raken en heb je deep recovery nodig om data heelhuids terug te halen.Met RAIDZ2 kun je uitval van twee schijven overleven en die kans dat dit gebeurt is gewoon niet zo groot.
Je gooit niets weg, je investeert in bescherming. Hij besteedt meer disks aan pariteit dan jij, maar heeft daardoor ook een hoger niveau van bescherming doordat de dubbele parity-bescherming over minder disks wordt gedeeld en daardoor het risico op falen kleiner is dan een array met minder redundancy.Je gooit nodeloos 2 disks weg in mijn beleving [..] Het is een paar honderd euro, maar dat is dan de prijs van ZFS die je misschien moet accepteren. ZFS is gewoon niet gratis, maar dat is niet ten nadele van ZFS. Het is gewoon een keuze.
Waar baseer je deze enorm stellige beweringen op? Onderbouw dan ook eens je kritiek op zijn verhaal. Ik ben oprecht benieuwd. Ik hoor ook niet zo veel over real-case studies naar uBER. Bovendien zijn de studies die er zijn niet direct toepasbaar op thuisgebruikers die hun schijven in heel andere omstandigheden blootstellen dan zakelijke gebruikers dat doen in een datacentrum.Dat artikel van Robin Harris is een onzin artikel en wordt niet gestaafd door de realiteit. De voorspelligen zijn niet uitgekomen en de statistiek van 1 unrecoverable read error per 12.5 TB gelezen data is hele harede onzin, harde schijven zijn veel betrouwbaarder.
Nog even je site aanprijzen; kan het daar niet aan hebben gelegen.
Dat betekent dat alles goed werkt en je een stabiele setup hebt; dat is goed nieuws! Maar besef dat anderen minder gelukkig kunnen zijn, en problemen die optreden gemakkelijk kunnen identificeren en ZFS doet automatisch de rest. Dat is zeker voor thuisgebruikers een zeer goede maar vooral zeer onderschatte feature: de detectie van fouten. Dat heeft vele ZFS gebruikers geholpen om snel een MemTest86 te draaien om te ontdekken dat ze defect RAM hadden, of een overclock of undervolt te streng stond afgesteld, of de temperatuur door gebrek aan een fan of warm weer te hoog kan oplopen in de kast, enzovoorts.Zelf heb ik na vele scrubs en honderden terabytes aan verkeer nog geen enkele single bit error gedetecteerd dankzij ZFS.
Ikzelf lees hier toch voornamelijk ZFS propaganda.
Niet om vervelend te zijn, maar dan moet je zelf wel het goede voorbeeld geven en mijn quote niet verkeerd lezen.MDADM RAID5 en RAID6 geven *uitstekende* sequentiële prestaties in de praktijk. Bovenstaande is onjuist.
Nog steeds veel sneller dan de belabberde random write latency legacy RAID5, alleen een smerige grote write buffer kan verhullen dat je geweldige RAID5/6 array in feite takketraag is bij alles behalve één magische grootte. Al die legacy RAID engines zijn goed in de echte snelheid te verdoezelen. Nee, neem dan sustained random write IOps, dan onderscheiden de heren zich van de mannen.Random I/O is lastiger, maar beseft dat met ZFS je altijd maar de random I/O performance krijgt van 1 disk per VDEV
Introduceer dan zelf ook geen nieuwe!maar al die halve (on)waarheden, het is gewoon jammer.
Ik heb de controller niet aanbevolen, ik zei dat ik hem in gebruik had. Als ik - indirect - een controller zou hebben aanbevolen, zou dat de LSI 16-poorts SAS controller zijn, 6Gbps or 12Gbps. Maar je waarschuwing is zeker wel terecht: de DeLock controller heb ik zelf nog niet gevalideerd voor gebruik.Daar zou ik mee oppassen, die controller die CiPHER aanbeveelt is erg goedkoop, maar mensen hadden er problemen mee en ik begreep van CiPHER dat de kaart wat BSD betreft alleen goed werkt onder de meest recente versie (11) dus FreeNAS (gebaseerd op oudere BSD) zou dan al afvallen als platform.
[ Voor 6% gewijzigd door FREAKJAM op 10-01-2017 10:21 ]
is everything cool?
ZFS is het beste qua file system wat je nu kunt krijgen, maar de alternatieven zijn ook acceptabel.Verwijderd schreef op dinsdag 10 januari 2017 @ 07:06:
Maar even zonder gekkigheid: je kunt zeggen wat je wilt, maar ZFS is gewoon het beste wat er te kiezen valt in dit tijdperk. Misschien over 10 jaar wat anders, maar nu is het ZFS. ZFS! ZFS! ZFS! Iets anders gebruiken kan ook, zeker als er redenen voor zijn. En die zijn er, want ZFS biedt niet alléén maar voordelen maar ook een paar nadelen, zoals dat je een bestaande parity array (vdev) niet met een enkele disk kunt uitbreiden. Als dit soort argumenten op tafel liggen, kan een oplossing als Linux md-raid opeens de meer logische keuze zijn. Maar all-round advies voor een NAS anno 2017? Natuurlijk ZFS! Tenzij je een reden hebt geen ZFS te draaien.
En psst, de RAID5 write hole en vele andere zwakheden van legacy RAID heb ik niet eens genoemd, die komen er nog bij.
Je weet dat ik totaal 24 disks heb dus dat werkt niet, dat wordt inefficent.Mja, ik vind het erg veel disks met weinig parity. Waarom dan niet één disk erbij en een 19-disk RAID-Z3. Al had je die degraded aangemaakt, had je altijd nog kunnen varieren tussen 17-disk RAID-Z, 18-disk RAID-Z2 en 19-disk RAID-Z3. Nu kan dat niet meer.
Tja het enige wat je nu doet is op de man spelen en mij belachgelijk proberen te maken, om mijn geloofwaardigheid naar beneden te halen, maar inhoudelijk zit je er helemaal naast en weet je dondersgoed wat mijn afweging is.Je zit er niet mee snap ik, omdat je er geen risico in ziet. Ook ik denk dat het risico niet erg groot is, maar toch te groot voor mij om gemakkelijk bij te voelen. Wellicht wel met een 1:1 backup. Maar nu schiet me iets te binnen... ik geloof dat ik onlangs van je begrepen had dat zelfs jij - you of all people - niet van al je data een backup hebt. Al lijkt het me - gezien je reputatie maar zeker ook de hoge standaarden die je anderen altijd hebt voorgehouden - waarschijnlijker dat ik moe was en je woorden verkeerd heb geïnterpreteerd.
Wat een totale oneerlijke voorstelling van zaken. Bewust de feiten en woorden verdraaien.Zo niet, doe dan die mooie 18-disk RAID-Z2 van je ook maar door de kliko, toch? Je data is immers niets waard. De paus moet zelf ook als een christen leven, dus kies maar: of de kliko, of reputatie-schade voor het niet praktiseren van eigen overtuigingen.![]()
Wat eerlijk van je!Maar als het klopt wat je zegt dan denk ik: waarom dan? We willen geen stap áchteruit maar juist een stap vóóruit qua bescherming, toch? Tenzij er een reden is om toch een stapje terug te doen.
De kans op een 2e drive failure of read-error bij een rebuild is heel klein. Niet nul maar klein.Nouja het gevaar zou zijn dat er één disk gaat, je een nieuwe bestelt, en tijdens het rebuilden nog een andere disk uitvalt. Als je dan ook bad sectors hebt op een andere disk, krijg je gaten in je data bij ZFS en worden bepaalde files onleesbaar. Bij legacy RAID kan zelfs je filesystem corrupt raken en heb je deep recovery nodig om data heelhuids terug te halen.
RAID6 of RAIDZ2 is beter maar met kleine arrays is RAID5 acceptabel.Hoe groot is de kans op dubbele uitval in een relatief korte tijd? Niet zo heel groot, maar toch zeker niet enkel een hypothetisch risico. Met een enkelvoudige failure heb je bij RAID-Z2 (en dus ook RAID-Z3) nog altijd bescherming tegen bad sectors en bitrot op de schijven.
Tja het enige waar je je van bediend is Fear, Uncertainty en Doubt.Je gooit niets weg, je investeert in bescherming. Hij besteedt meer disks aan pariteit dan jij, maar heeft daardoor ook een hoger niveau van bescherming doordat de dubbele parity-bescherming over minder disks wordt gedeeld en daardoor het risico op falen kleiner is dan een array met minder redundancy.
Het punt is dat jij kennelijk aanhanger bent van 'dunbezaaide' redundancy, zoals een 18-disk RAID-Z2. Dat kan wel werken, maar ik vind dat zelf waaghalzerij. Maar ik sluit zeker niet uit dat jij een nette serversetup hebt en daardoor een lager dan gemiddeld risico hebt. En we hebben altijd nog de 1:1 backup.
Je weet dat die studies moeilijk te vinden zijn en vaak alleen op enterprise omgevingen van toepassingen zijn.Waar baseer je deze enorm stellige beweringen op? Onderbouw dan ook eens je kritiek op zijn verhaal. Ik ben oprecht benieuwd. Ik hoor ook niet zo veel over real-case studies naar uBER. Bovendien zijn de studies die er zijn niet direct toepasbaar op thuisgebruikers die hun schijven in heel andere omstandigheden blootstellen dan zakelijke gebruikers dat doen in een datacentrum.
Nee, het is aantoonbare onzin dat disks met een 10^14 error rate gemiddeld iedere 12.5 TB aan gelezen data een read error geeft.Kijk, je zegt dat het artikel van Robin Harris onzin is. Maar bedoel je niet gewoon dat je het niet eens bent met de cijfers, maar wel het algemene verhaal dat uBER een probleem kan vormen en je hele RAID array danwel filesystem aan gort kan knagen en dat dit probleem samen met diskfalen overwogen moet worden bij de keuze tussen welk RAID level en hoeveel disks.
Alleen maar mensen bang maken. Vele mensen draaien hun QNAPs en Synologies ook gewoon in RAID5 en de meeste mensen draaien hier prima mee en worden zo goed beschermd.En dat probleem bestaat! Stel je voor: je hebt een RAID5, een disk faalt, tijdens het rebuilden krijg je een bad sector op een andere disk en ligt je RAID al met vier pootjes omhoog bij heel wat RAID engines. De schade kan in andere gevallen relatief beperkt blijven. Maar bij heel wat situaties zoals onboard RAID engines en ook Hardware RAID, vliegt je RAID configuratie eruit en zit je met een gefaalde RAID array die jij mag proberen te fixen. Dan gaan een heleboel thuisgebruikers zweten hoor, als ze die rode letters FAILED zien staan. En vaak verwijderen ze maar de hele array, omdat recoveren toch te lastig klinkt en ze komen er niet uit, en professionele services kunnen ze allang niet betalen. Dit is, Q, toch de realiteit? Jij kan zeggen: maakt niet uit want ze hebben er niet veel geld voor over en dus maakt het niets uit dat hun data weg is. Maar ik denk daar anders over. Ik ben blij dat ZFS hun data kan beschermen zonder dat ze noodzakelijk enorm veel geld hoeven uit te geven voordat ze die bescherming zouden 'verdienen'. Iedereen verdient betrouwbare computertechniek, vooral ook de mainstream.
Twijfel zaaien, meer is dit niet.Ik ben het wel met je eens dat we de specificaties die hardeschijven opvoeren als uBER niet hoeven te kloppen. Het is inderdaad plausibel dat die voor een heleboel schijven hoger dan de opgegeven 10^-14 ligt. Maar hoe zeker weten we dat? Voor welke schijven precies? Welke productie-batches? Van welke fabrieken?
Weer een lap tekst, maar zonder substantie, alleen maar om weer twijfel te zaaien.Als we alles zouden weten, zou dat waarschijnlijk een zee van cijfers zijn waarin fluctuaties in kwaliteit ook zichtbaar worden en soms abrupte verschuivingen als een fabriek overschakelt op een ander proces, of iets dergelijks. Maar we weten het niet. Het blijft gissen. Een 3GHz processor draait misschien ook wel 3,5GHz, maar misschien ook niet. 3GHz krijg je in elk geval. Hetzelfde kun je zien voor uBER: leuk als uiteindelijk je statistisch gezien gunstig uitvalt qua bad sectors en duty cycle enzovoorts, maar we gaan uit van de specificatie en beschouwen de daadwerkelijke iets gunstigere uBER meer als marge die mooi is meegenomen, maar we wapenen ons op basis van de officiële specs.
Ik veronderstel niet zomaar dingen, het is gebaseerd op persoonlijke ervaring met 60+ schijven thuis, op ervaringen van anderen en wat ik op het internet kan vinden.Kortom, door zomaar te veronderstellen dat de uBER in de praktijk veel gunstiger is dan de specificatie van de fabrikant, is denk ik voorbarig en 'wishful thinking'. Het getuigt mijns inziens niet van een 'safety culture' waarbij we uitgaan van ruwe specs en dat het in de praktijk dan gunstiger uitpakt is mooi, maar risico nemen met je data wil je niet. Dat is het hele idee van een 3e generatie filesystem dat we nu onze data eens echt gaan beschermen!
It's hard to even discuss how bad that article is and how much damage it has caused in technology discussions. People regurgitate that garbage all over this sub, /r/sysadmin, /r/homelab and /r/homeserver all the time and it drives me insane. Honestly most of the people in these subs and these "tech" bloggers really don't have much experience with storage. I've mentioned on this sub that I work in data centers and work with thousands upon thousands of RAID5, RAID6, RAID1 and RAID10 arrays. In nearly a decade I can count on one hand how many rebuild failures I've seen. In the data center I currently work with most (for the last 7 years) I have yet to see a single rebuild failure. There are over 2500 storage servers there. Well over 1000 RAID5 arrays. Many 10TB disk based RAID5 arrays. Over 100 drive replacements a year.
As others have said... you rely on backups to keep your data safe. Disk redundancy is nothing more than a convenience. If RAID5 suits your scenario best. Use it.
As you said the URE rate thrown out by manufacturers just doesn't translate to real world usage. It's just a warranty figure. A cya number based off minimal testing. Take the lowest figure they hit that doesn't impact their bottom line and that's their number.
Het feit is dat 99% van de mensen met de behoefte aan een NAS thuis gewoon een QNAP of Synology toepast. ZFS is niet 'sexy' en zeker al helemaal niet mainstream. Of heb je enig bewijs voor deze uitspraak?Het artikel van Robin Harris is gewoon het startpunt geweest dat de gevaren van uBER - oftewel bad sectors zonder fysieke schade - nu eens bekend werden en meegewogen worden bij afwegingen als RAID5 of RAID6. Nu is het bijna 10 jaar later en het lijkt soms wel dat legacy RAID opeens alleen nog voor een groep trouwelingen echt interessant is. De mainstream is ook enthousiast geraakt voor de voordelen van ZFS en consorten die filesystems weer sexy maken. Opslag zonder gezeik. Beter dan legacy RAID op bijna alle gebieden.
Tja, als we zo gaan beginnen, het is niet als of je als eigenaar/beheerder van ZFSGuru geen agenda hebt ofzo.Nog even je site aanprijzen; kan het daar niet aan hebben gelegen.
ZFS voor al je kwaaltjes! Het geneest uw griep!Dat betekent dat alles goed werkt en je een stabiele setup hebt; dat is goed nieuws! Maar besef dat anderen minder gelukkig kunnen zijn, en problemen die optreden gemakkelijk kunnen identificeren en ZFS doet automatisch de rest. Dat is zeker voor thuisgebruikers een zeer goede maar vooral zeer onderschatte feature: de detectie van fouten. Dat heeft vele ZFS gebruikers geholpen om snel een MemTest86 te draaien om te ontdekken dat ze defect RAM hadden, of een overclock of undervolt te streng stond afgesteld, of de temperatuur door gebrek aan een fan of warm weer te hoog kan oplopen in de kast, enzovoorts.
Het is nihil, en als je anders wilt beweren dan ben jij aan zet, mag jij aantonen met feiten dat het niet nihil is.Maar wees nou niet te makkelijk om te denken dat - in het algemeen - het probleem hierdoor vrijwel nihil is.
Wat is dit weer een onjuiste voorstelling van mijn standpunt. Tuurlijk zijn badsectors en uBERs echt. De kans dat je er een tijdens een rebuild voor je kiezen krijgt is alleen heel klein. Dat is waar het om draait.Andere gebruikers hebben heel andere ervaringen, en dat kan door allerlei factoren komen. Maar ik maak juist wel regelmatig mee dat mensen hun RAID uitvalt, of dat bad sectors tijdens een rebuild voor problemen zorgen. En bad sectors zonder fysieke schade (uBER) komen op het forum ook regelmatig langs, zoals in het Check je SMART topic. Dat kan worden vastgesteld doordat er na de format geen Reallocated Sectors bijkomen, maar de Current Pending Sectors wel tot 0 is gedaald. In dat geval zijn er dus geen 'bad' sectors omgewisseld en was onvoldoende errorcorrectie dus de oorzaak van de leesfout en niet fysieke schade aan de sectoren zelf. Kortom: uBER bestaat! Echt waar.
Dat klopt, het zou beter zijn, maar dat wil niet zeggen dat wat we nu doen niet goed genoeg is, de meeste mensen maken de ellende door zie zeldzame situaties niet mee.Het is ook al lang geleden dat Microsoft met Windows Home Server zijn Drive Extender functionaliteit wilde uitbreiden om een percentage te gebruiken voor extra errorcorrectie om onleesbare sectoren te kunnen opvangen. Maar het project werd afgeblazen omdat het te complex werd, te veel veranderingen zou meebrengen, en omdat het de beperking had dat het niet meer compatible met NTFS zou zijn zonder geïnstalleerde software. Maar het geeft wel aan dat zelfs Microsoft voor zijn thuisgebruikers al lange tijd geleden bescherming wilde inbouwen. Dat doen ze natuurlijk niet voor niets.
Helemaal mee eens.En zelfs Ext4 werd als 'stop-gap measure' gezien door de auteur notabene. Btrfs moest het worden, als 3e generatie filesystem gewaagd aan ZFS en zelfs met enkele extra features. En Btrfs is er, al lijkt het niet helemaal een succes met de degradatie van de RAID5 functionaliteit. In mijn ogen duurt het nog wel even voordat Btrfs echt als voorwaardig concurrent gezien kan worden van ZFS.
Wat REFS betreft stort de performance in zodra je checksumming gaat doen. Maar ouderwetse NTFS met software RAID (storage spaces) of hardware RAID is ook prima accetptabel.Microsoft is nu bezig met ReFS al ben ik niet up-to-date met vorderingen. Wat ik gehoord heb tot nu toe van gebruikers is niet heel positief. Trage snelheden vooral en vage problemen. Maar als Microsoft er actief aan werkt, mag ik hopen dat ze er iets stabiels van kunnen maken wat als opvolger van NTFS kan dienen. De vraag is wel hoe moeilijk het zal ReFS te mounten op een niet-Windows systeem.
De harde realiteit is dat anno 2017 99.99% van de thuisgebruikers niet op ZFS draait en een enkeling zal getroffen worden door een issue waar ZFS tegen beschermd had. Tough luck.Kortom, de hele industrie neemt uBER en databescherming serieus en is al overgestapt of dat aan het doen. Dat gebeurt echt niet als zaken als uBER of bitrot of corruptie in het algemeen echt een nihil risico vormen. Jouw goede ervaringen in het verleden zijn geen garantie voor anderen en ook niet voor jezelf in de toekomst.
Dat mensen werken aan iets beters wil niet zeggen dat de huidige techniek als de pest gemeden moet worden, koste wat het kost.In je stellingname mis ik veel concrete zaken. Je betwijfelt het hele uBER gebeuren, maar ik hoor geen ander argument dan dat je er zelf geen last van hebt gehad. Het komt allemaal niet als een erg goed onderbouwd argument over, als ik dat mag zeggen. Dan vind ik de realiteit van vrijwel de hele industrie die naar next-gen filesystems overgaat toch nét iets overtuigender.
ZFS is niet mainstream. ZFS is fringe. ZFS heeft onder thuisgebruikers een enorm klein aantal gebruikers.Ook ben ik trots dat ik alweer vele jaren geleden als pionier op fora als deze ZFS verkondigde als the next big thing wat filesystems opeens sexy maakte, mede omdat het RAID kon vervangen. Toen was het nog nieuw, en moest men worden overtuigd. Nu de mainstream eindelijk is overtuigd, blijft er nog een restant over van de aanhangers van de glorie van het oude tijdperk, of zoals Robin Harris het komisch verwoorde:
RAIDZ/Z2 is takke traag onder ZFS, maar Random I/O performance is totaal irrelevant voor de mensen hier. Ik ben hier niet aan het penis meten op basis van irrelevante informatie.Nog steeds veel sneller dan de belabberde random write latency legacy RAID5, alleen een smerige grote write buffer kan verhullen dat je geweldige RAID5/6 array in feite takketraag is bij alles behalve één magische grootte. Al die legacy RAID engines zijn goed in de echte snelheid te verdoezelen. Nee, neem dan sustained random write IOps, dan onderscheiden de heren zich van de mannen.
[ Voor 4% gewijzigd door Q op 10-01-2017 16:11 ]
Het begint bij de voeding connector van je SATA drive. Als je pin 11 niet aansluit dan spinnen de (meeste) drives niet up. Dat is met losse connectors lastig te regelen. Vandaar dat je dit eigenlijk alleen ziet in een chassis met een backplane. Dan kan je op de PCB pin 11 simpelweg niet aansluiten. Vervolgens hangt het van je controller af. Maar als pin 11 niet floating is dan gaat het zowieso niet werken.Paul schreef op dinsdag 10 januari 2017 @ 00:06:
[...]
RAIDZ2 hoop ik
[...]
Kunnen die LSI-kaarten geen staggered spin-up doen? Ik hoop op de onboard
(Intel) controller van mijn SuperMicro al de schijven één voor één opspinnen, lijkt me dat zo'n dedicated kaart dat ook moet kunnen?
Even niets...
Verwijderd
Dat kun je wel beweren, maar als je in de rest van je bericht met dikke letters ZFS blijft roepen en raid consequent legacy blijft noemen dan laat je exact het tegenovergestelde zien. Ik kan dat niet serieus nemen. Ik blijf er bij dat je overduidelijk een hele dikke ZFS bias hebt die niet op feiten is gebaseerd, en dat daarom al jouw uitspraken en adviezen met een flinke korrel zout genomen dienen te worden.Verwijderd schreef op dinsdag 10 januari 2017 @ 07:06:
Serieus: probeer de soep niet zo heet te eten met uitspraken als 'ZFS kerk' enzovoorts. 'Geloof' me: als er morgen iets beters is, ben ik zo bekeerd.
ZFS is gewoon het beste
ZFS. ZFS! ZFS! ZFS!
Ik snap sowieso niet hoe je kunt spreken over een file system in termen als 'sexy' of beweert dat ZFS 'mainstream' zou zijn. De mainstream heeft niet het flauwste benul van wat een file system überhaupt is, laat staan dat mensen een voorkeur hebben. File systems zijn een technisch detail waar IT nerds zich druk over maken, en ja daar ben ik er dus ook een van.I've clearly tapped into a rich vein of RAID folklore
Je bord kan best de drives opspinnen maar niet zonder dat je drives stilstaan.FireDrunk schreef op dinsdag 10 januari 2017 @ 19:10:
Er zijn moederborden die het onboard kunnen. Mijn Biostar B85N-Hifi-3D bord ondersteund het dmv BIOS opties.
Je kan dus per poort kiezen of de schijf moet opspinnen of niet.
Hoe ze het technisch doen, weet ik niet precies, maar volgens mij kan je BIOS bij het starten van de SATA verbinding roepen dat de schijf niet moet opspinnen.
[ Voor 7% gewijzigd door tvwes op 10-01-2017 22:22 . Reden: kapotte link en link vergeten en nog wat verduidelijkt ]
1
2
3
4
5
6
7
8
9
| [wes] /var/adm/ $ zpool history mpool | head History for 'mpool': 2008-12-21.21:11:29 zpool create mpool mirror c0t2d0 c0t0d0 mirror c0t4d0 c0t3d0 2008-12-21.21:13:25 zfs recv -vFd mpool 2008-12-21.22:11:31 zfs recv -vFd mpool 2008-12-21.22:40:01 zfs recv -vFd mpool 2008-12-26.15:48:55 zpool scrub mpool 2009-01-03.10:49:59 zpool export mpool 2009-01-03.14:43:10 zpool import mpool |
[ Voor 0% gewijzigd door tvwes op 11-01-2017 10:30 . Reden: Wat typo's bijgewerkt ]
Je hebt helemaal gelijk, maar het feit dat je schijf opspint als je er voeding aan hangt, komt ook juist omdat er dan geen data kabel aan hangt. De meeste schijven tegenwoordig ondersteunen wel PUIS voor zover ik heb gekeken. (ik gebruik zelf geen spindown).tvwes schreef op dinsdag 10 januari 2017 @ 22:14:
[...]
Je bord kan best de drives opspinnen maar niet zonder dat je drives stilstaan.
Redeneer even mee.
Als je mobo / controller de disk wil opspinnen kan dat op twee manieren:Optie 1 Is waar, pak een drive en steek de voeding er maar in. Iedere sata disk begint te draaien. Echter je mobo/controller heeft niets te zeggen over de voeding van de drive. De drive zit direct aan je voeding aangesloten. Optie 1 zal dus niet werken zonder speciale hardware en software.
- Er wordt spanning op de drive gezet.
- Er staat spanning op de drive maar de motor staat stil en de controller stuurt een start commando naar de drive en de motor begint te draaien
Optie 2 Is lastiger. Standaard zal iedere drive gaan spinnen zodra je er spanning opzet. Drives hebben geen speciale Biostar mobo detectie. Maar standaard zal iedere SATA disk gewoon gaan draaien ook op je Biostar mobo.
Ik heb drie mechanismen gevonden om dit te regelen:Maar hierna heb je nog steeds controller support nodig, zoals je Biostar mobo, wat telkens netjes een drive start een paar keer CheckCondition doet totdat er UnitReady terugkomt en dan de volgende drive start.
- De jumper Redelijk simpel, de jumper plaatst de drive in standby waardoor het niet op spint zonder wakeup commando.
- In de firmware van de drive. De ATA specs kennen features. Twee van die features kunnen dit regelen. Je kan het met manfucturer tools of met iets als hdat2 instellen. Dit zijn optionele features, je drive hoeft dit dus niet te implementeren
- Wat ik al eerder schreef je laat pin 11 flloating
Heeft je controller hier geen ondersteuning voor dan zullen alsnog alle drives (bijna) tegelijkertijd gestart worden. De truuk is dat de controller wacht of test of een drive daadwerkelijk draait alvorens de volgende te starten.
En hier nog even de wikipedia pagina over dit onderwwerp.
Even niets...
Dit is precies de feedback waar ik het voor doe,
C'est le ton qui fait la musique...Het is een feit dat ik vaak wel de gene ben die negatieve aspecten van ZFS benadruk, maar ik ben het eens dat er ook veel goede aspecten aan ZFS zitten, waaronder de userland tools, die naar mijn smaak makkelijk te bedienen zijn. Features zoals LZ4 compressie, de snapshots en inderdaad send/receive zijn ook top.
Ondanks mijn negativiteit draai ik zelf ook ZFS.
Same here!En tot op de dag van vandaag naar tevredenheid.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1230 v5 Boxed | € 289,- | € 289,- |
1 | Supermicro X11SSM-F (Retail Pack) | € 235,55 | € 235,55 |
6 | WD Red WD30EFRX, 3TB | € 115,95 | € 695,70 |
1 | Fractal Design Define R5 Zwart | € 109,89 | € 109,89 |
2 | Samsung M391A2K43BB1 | € 129,50 | € 259,- |
1 | EVGA SuperNOVA 550 G2 | € 99,05 | € 99,05 |
1 | Seasonic G-series 650 watt | € 95,95 | € 95,95 |
1 | Transcend SSD420K 32GB | € 30,19 | € 30,19 |
1 | Eaton Protection Station 800 DIN | € 113,30 | € 113,30 |
Bekijk collectie Importeer producten | Totaal | € 1.927,63 |
Als je wat geduld hebt (een week of zo) dan zal ik een post doen over een vergelijkbare setup met wat gegevens. Hier nog wat opmerkingen:anc schreef op woensdag 11 januari 2017 @ 11:24:
Na redelijk veel onderzoek overal en nergens heb ik een server samengesteld voor de volgende functionaliteit:
* FreeNAS 10
* Opslag voor fotos en videos(home videos)
* Streamen van specifiek die home videos
In een eigen docker/vm omgeving:
* Sabnzbd, Sickbeard, Torrent, Couchpotato
* Minecraft server voor thuis gebruik (Niet 24/7, eens per week een paar uurtjes up ofzo)
* Vervanging van Vera Lite (Domotica, USB passthrough Zwave stick)
* ZoneMinder voor camera's om het huis
* Gesloten webontwikkel omgeving (Niet 24/7)
* Teamspeak server (niet 24/7)
* Off-site backup voor mijn pa (mijn oude QNAP NAS komt daar en is backup voor mijn kritieke data)
Ohja er staan nog 2 voedingen in, 1tje blijft over natuurlijk (ik ben er nog niet over uit welke) :-)
Waarschijnlijk komt er een grotere SSD bij voor de vm/docker, zodat de ZFS schijven niet belast wordt en er energie bespaard kan worden wanneer ze niet benaderd worden.
In de afgelopen 6 jaren heb ik 2 QNAP's versleten. Als in, capaciteit te kort eerst op HDD front en daarna op CPU / MEM + OS front. Dus nu moet er een systeem komen dat langer meegaat en te upgraden is, maar ik vraag mij af of dit niet een overkill is. Kijkende naar 1 teveel capaciteit(CPU) dat niet gebruikt wordt met het stroom verbruik en 2 totale kosten.
Dus mijn vraag is eigenlijk; hoe kan ik goed bepalen hoeveel capaciteit de gevraagde applicaties gaan gebruiken of kan iemand goed advies gegeven hierover. Meeste dat ik tot nu gedaan is kijken wat andere gekozen hebben en waarom, maar nergens lees je het resultaat of de gemaakte keuze niet een overkill bleek te zijn.
[ Voor 3% gewijzigd door tvwes op 11-01-2017 13:52 . Reden: cpu's een beetje aangescherpt ]
Of beide?anc schreef op woensdag 11 januari 2017 @ 11:24:
Ohja er staan nog 2 voedingen in, 1tje blijft over natuurlijk (ik ben er nog niet over uit welke) :-)
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zeker interessant en ik kan nog prima wachten. Waar ga je dat posten?tvwes schreef op woensdag 11 januari 2017 @ 12:29:
[...]
Als je wat geduld hebt (een week of zo) dan zal ik een post doen over een vergelijkbare setup met wat gegevens. Hier nog wat opmerkingen:
Ja en toch proef ik er een beetje uit dat het op gevoel is. De discussie een i3 of Xeon in idle stand zou een paar watt schelen (ik kon op google geen power consumptions vinden van een e3-1230 v5, de i3 zag ik een filmpje met 17 watt) en dan gaat het dus uiteindelijk om de initiele uitgave. Als ik nu prima uit de voeten kom met een i3 en pas over een jaar of 2 de upgrade zou doen dan heb ik er geen problemen mee, maar blijkt dat de i3 toch niet voldoende performance geeft dan is het wat zuur om na een paar maanden al te upgraden.• De xeon is misschien wat veel. Ik heb in mijn server een i3-6100T zitten en dat gaat prima tig zones, compression en gemiddeld 24/7 zo'n 165mbit aan verkeer. De xeon heb je alleen nodig voor serieuze compute als transcoding of kernel compiles. Begin met een goedkope cpu upgraden kan altijd nog. Kies iets met een hoge clock. Misschien is zelfs een pentium al voldoende. De gewone i3-6100 is misschien een beter keuze als je hoofdzakelijk idled, toch een stuk sneller dan mijn 6100T.
Daarom schreef ik onder de lijst dat er nog een SSD in komt voor de vm's/docker apps, maar een bevestiging dat het een juiste keuze is, is fijn• Ik weet niet wat je met die 6x3TB van plan bent maar ik zou daar nog eens over nadenken. In mijn nieuwe NAS heb ik een combinatie van NVME 1x900GB, SATA SSD's 2x480GB+1x400GB en 4x8TB gegaan. Waarbij compute en intermediate storage op flash plaatsvind en lange termijn storage op HD's plaatsvind. Nu wil ik je niet mijn config opdringen maar zelfs een enkele SSD (van voldoende grote) waar je al je VM's opzet maakt al heel veel uit. Juist een SSD schittert bij random IO (door veel VM's in jouw geval), daar kan geen HD tegen op.
True, kost wel ruim 75 euro meer initieel, maar is zeker het overwegen waard. Per schijf zou dat 4.4 watt schelen tijdens activiteit.• Nog even over de harddisken, waarom zoveel? Het kan zijn dat je die bandbreedte en/of iops nodig hebt. Maar die krijg je alleen in een stripe of bij mirrors maar ik kan me niet voorstellen dat je dat nodig hebt. Waarom dan niet naar 3x6TB? Kost bijna hetzelfde, scheelt je drie SATA poorten en verbruikt minder stroom.
Ja van alles zeer bewust! En zover ik nagezocht heb zou die EATON moeten kunnen werken met FreeNAS.• Goed idee om de ups te doen. Ik weet het kost stroom maar een clean shutdown scheelt je veel tijd. Wel wil ik drie dingen opmerken. Een, kan je UPS software onder freenas wel met deze UPS en ook nog via USB met deze EATON overweg? Twee, al je VM's moeten ook clean afgesloten worden! Als je VM niet weet dat de host wordt afgesloten dan ben je alsnog niet geholpen. Drie, bij stroomuitval (bijna) direct gaan uitschakelen, zeker bij deze kleine ups. Anders gezegd het clean uitschakelen je systeem kost altijd meer tijd dan je denkt. Echte stroomuitval duurt in Nederland heel vaak meer dan een paar minuten. En zeker met een UPS moet je echt testen dat al je software en shutdown scripts werken! En neem van mij aan dat kost veel tijd. Maar als je het echt goed inregeld dan komt je systeem weer lachend online als de stroom weer terug is en je UPS weer opgeladen is! Stel je UPS dus zo in dat het pas weer spanning op de uitgangen zet als het minstens xx% is opgeladen. Worst case scenario is dat tijdens het opstarten het net weer wegvalt. Dan moet je UPS voldoende capaciteit hebben om de boot af te maken en daarna nog een shutdown te doen. Ik zou het pas weer starten bij meer dan 80% opgeladen of misschien wel nog meer. Als je het systeem snel uitschakelt verbruik je ook minder stroom en zal de accu dus snel weer vol zijn.
Ja dat was ik ook van plan. Ik wil alles van te voren getest en uitgeprobeerd hebben. Meerdere inrichtingen proberen en daarna pas beslissen hoe ik het 'definitief' wil!• Neem de tijd om je nieuwe setup te testen en te verkennen. Anders gezegd laat je bestaande setup rustig intact en zet je nieuwe NAS ernaast en trek er de tijd voor uit om het goed in te richten. Dan heb je er daarna jaren plezier van.
Goeie tip bedankt! Ik heb hem gelijk meegenomen in de lijst en ga er thuis rustig naar kijken.-The_Mask- schreef op woensdag 11 januari 2017 @ 13:42:
[...]
Of beide?![]()
Zou zelf gaan voor de pricewatch: Cooler Master V Series V550 door het extreem hoge rendement bij lage vermogens van deze voeding. Op lage vermogens is die vergelijkbaar met een 80PLUS Titanium voeding.
[afbeelding]
https://www.techpowerup.com/reviews/CoolerMaster/V550/6.html
En het is ook een voeding van hoge kwaliteit, met een erg uitgebreid EMI filter, iets wat Enhance, de maker van deze voeding altijd doet. Prestaties van deze voeding is ook prima en het is een volledig modulaire voeding waarvoor je ook extra modulaire sata kabels kunt kopen. Als je dan vier modulaire sata kabels hebt met elk vier connectors dan kun je maar liefst 16 sata apparaten aansluiten zonder verloopjes.
Weet ik nog niet zeker. Als ik het niet vergeet zal ik je een seintje geven.anc schreef op woensdag 11 januari 2017 @ 15:21:
[...]
Zeker interessant en ik kan nog prima wachten. Waar ga je dat posten?
Als je FreeNAS op FreeBSD installeert dan runnen volgens mij alle plugins in 1 jail die over alle cores kan beschikken. Maak je geen zorgen over de cores die zullen allemaal netjes gebruikt worden. Ik heb geen enkele ervaring met FreeNAS of wat voor schil dan ook behalve Nexenta. Wel met FreeBSD en een jail ziet hetzelfde als de host. Een goedkope i3 kan je makkelijker doorverkopen dan een dure xeon die misschien niets staat te doen.Ja en toch proef ik er een beetje uit dat het op gevoel is. De discussie een i3 of Xeon in idle stand zou een paar watt schelen (ik kon op google geen power consumptions vinden van een e3-1230 v5, de i3 zag ik een filmpje met 17 watt) en dan gaat het dus uiteindelijk om de initiele uitgave. Als ik nu prima uit de voeten kom met een i3 en pas over een jaar of 2 de upgrade zou doen dan heb ik er geen problemen mee, maar blijkt dat de i3 toch niet voldoende performance geeft dan is het wat zuur om na een paar maanden al te upgraden.
i3 is een dual core en de e3 een quad core (beide met HT). Gebruiken die vm's gezamenlijke cores of reserveren ze een eigen core wanneer de VM up en running is? Ik gok het laatste, maar anders is het snel uitgekeken met een i3.
Die 75euro heb je al weer verdient met een goedkopere CPU.Daarom schreef ik onder de lijst dat er nog een SSD in komt voor de vm's/docker apps, maar een bevestiging dat het een juiste keuze is, is fijn![]()
[...]
True, kost wel ruim 75 euro meer initieel, maar is zeker het overwegen waard. Per schijf zou dat 4.4 watt schelen tijdens activiteit.
Eigenlijk geen specifieke redenen behalve dat ik dan 2 parity disks heb en op termijn nog met gemak kan uitbreiden met grotere disks. Hoe langer het rebuilden kost hoe 'safer' het is om meerdere parity disks te hebben.
Verwijderd
Dat is wel mooi ja. Alhoewel het niet altijd zeker is dat de eerste SATA connector ook de hardeschijf kan bereiken, afhankelijk van de kast.-The_Mask- schreef op woensdag 11 januari 2017 @ 13:42:
Als je dan vier modulaire sata kabels hebt met elk vier connectors dan kun je maar liefst 16 sata apparaten aansluiten zonder verloopjes.
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G3920 Boxed | € 58,10 | € 58,10 |
1 | Gigabyte GA-X150M-PRO ECC | € 114,68 | € 114,68 |
3 | WD Red WD20EFRX, 2TB | € 92,95 | € 278,85 |
1 | Fractal Design Define Mini | € 86,95 | € 86,95 |
1 | Crucial CT8G4WFS824A | € 59,50 | € 59,50 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
Bekijk collectie Importeer producten | Totaal | € 662,03 |
# | Product | Prijs | Subtotaal |
3 | WD Red WD20EFRX, 2TB | € 92,95 | € 278,85 |
1 | HP Proliant MicroServer Gen8 G1610T | € 193,19 | € 193,19 |
Bekijk collectie Importeer producten | Totaal | € 472,04 |
Ik weet niet of je dit als geintje bedoelde, maar het zet mij wel serieus tot nadenken.tvwes schreef op woensdag 11 januari 2017 @ 16:20:
Ja lange rebuild tijden zijn niet wenselijk. Juist de rebuild is het moment dat er nog meer kapot gaat. Maar jij had toch een goede backup op je oude QNAP?
De vraag is hoelang je met je opslag vooruit kan. Is dit langer dan 3 jaar. Dan is de HP Proliant MicroServer Gen8 G1610T een goede keuze. Anders de Zelfbouw Nas. Er zit namelijk 200 euro verschil tussen die twee.IChaosI schreef op vrijdag 13 januari 2017 @ 13:18:
Ben zelf al een tijdje aan het kijken naar een mooie NAS build voor thuis, waar ik ook een topic NAS voor thuis +/- €600 aan heb gewijd. Ik ben daarbij tot de volgende twee opties gekomen:
Build 1: Zelfbouw NAS
# Product Prijs Subtotaal 1 Intel Celeron G3920 Boxed € 58,10 € 58,10 1 Gigabyte GA-X150M-PRO ECC € 114,68 € 114,68 3 WD Red WD20EFRX, 2TB € 92,95 € 278,85 1 Fractal Design Define Mini € 86,95 € 86,95 1 Crucial CT8G4WFS824A € 59,50 € 59,50 1 Seasonic G-series 360 watt € 63,95 € 63,95 Bekijk collectie
Importeer productenTotaal € 662,03
Build 2: Kant en klaar NAS
Zelf neig ik meer naar de DIY NAS, maar kan deze toch ook niet helemaal wegcijferen?
# Product Prijs Subtotaal 3 WD Red WD20EFRX, 2TB € 92,95 € 278,85 1 HP Proliant MicroServer Gen8 G1610T € 193,19 € 193,19 Bekijk collectie
Importeer productenTotaal € 472,04
Aangezien er niet heel veel respons komt op mijn topic, beproef ik mijn geluk ook maar eens hier. Ik hoop dat dit wat meer feedback op zal leveren.
Het liefst wel wat langer dan 3 jaar. (Snap niet helemaal wat je bedoelt met voor langer dan 3 jaar microserver, anders Zelfbouw Nas? Neem aan dat deze toch ook wel langer dan 3 jaar mee moet kunnen?) Ik zat sws te twijfelen tussen 2TB of 3TB HDD's en dacht uiteindelijk als ik gwn begin met 3x 2TB HDD's (wat betekent dat ik effectief 4TB over zou houden i.v.m. 1 parity disk, mocht ik voor FreeNas RAIDZ kiezen) kan ik bij gebrek aan ruimte altijd 1 of meerdere disks op den duur vervangen voor grotere varianten. Die 4TB disks zijn qua kosten toch wel weer een fors stuk duurder.cobo schreef op vrijdag 13 januari 2017 @ 15:01:
De vraag is hoelang je met je opslag vooruit kan. Is dit langer dan 3 jaar. Dan is de HP Proliant MicroServer Gen8 G1610T een goede keuze. Anders de Zelfbouw Nas. Er zit namelijk 200 euro verschil tussen die twee.
Maar nu een vraag naar jou toe. Waarom 2 TB schijven en niet 4 TB schijven of groter?
Ik bedoel ermee te zeggen hoelang blijf je deze schijven gebruiken. Er passen namelijk 4 hdd's in de microserver. In je zelfbouw Nas passen er maximaal 8 in. De zelfbouw Nas is wel 200 euro duurder.IChaosI schreef op vrijdag 13 januari 2017 @ 15:11:
[...]
Het liefst wel wat langer dan 3 jaar. (Snap niet helemaal wat je bedoelt met voor langer dan 3 jaar microserver, anders Zelfbouw Nas? Neem aan dat deze toch ook wel langer dan 3 jaar mee moet kunnen?) Ik zat sws te twijfelen tussen 2TB of 3TB HDD's en dacht uiteindelijk als ik gwn begin met 3x 2TB HDD's (wat betekent dat ik effectief 4TB over zou houden i.v.m. 1 parity disk, mocht ik voor FreeNas RAIDZ kiezen) kan ik bij gebrek aan ruimte altijd 1 of meerdere disks op den duur vervangen voor grotere varianten. Die 4TB disks zijn qua kosten toch wel weer een fors stuk duurder.
Nee geen grap, maar hier nog enkele zaken die je kan afwegen.anc schreef op vrijdag 13 januari 2017 @ 14:27:
[...]
Ik weet niet of je dit als geintje bedoelde, maar het zet mij wel serieus tot nadenken.
3 of 4 disks in RAID Z1, scheelt geld en stroomverbruik. Ja het levert ook meer risico op, maar inderdaad die backup is prima straks.
Ik blijf erbij begin met die i3 en wacht met de xeon. Upgraden kan altijd nog. Zeker als dit systeem achter die ups staat kan je hier echt jaren (minimaal 5) mee doen. Misschien is het op een gegeven moment te zwak voor bepaalde compute maar dan zou je de xeon erin kunnen stoppen of er losse compute zonder storage bij doen. Je kan er tegen die tijd bijv ook nog een 10gbit kaartje in stoppen, een nvme kaart of twee of een sas kaart met veel poorten. Je hebt immers ook nog 4 PCIe slots over.Inmiddels heb ik iets van 4 verschillende builds verzonnen en kan ik nog geen keuze maken, maar het geeft wel perspectieven.
Ik dacht alleen nog maar bezig te zijn om tussen Xeon of een i3 te kiezen, maar nu zijn de disks er weer bij gekomen en als ik naar 3 disks zou gaan dan is een lagere voeding ook interessant.
Echter in het lagere wattage segment van voedingen kon ik niet snel een voeding vinden dat ook efficient is bij laag verbruik.
Overigens naar 3 disks gaan brengt nog een wijziging met zich mee en dat is een kleinere case.... zucht :-)
Om eerlijk te zijn heb ik geen flauw idee, dit gaat mijn eerste NAS worden en heb dus ook geen eerdere ervaringen waaraan ik kan relateren. Ik gok dat ik de eerste paar jaar wel genoeg ga hebben aan 3x 2TB HDD's. Maar het gaat mij er ook om dat, mocht ik om wat voor reden dan ook die 4TB snel volkrijgen. Ik dan wel de mogelijkheid heb tot uitbreiding.cobo schreef op vrijdag 13 januari 2017 @ 15:32:
Ik bedoel ermee te zeggen hoelang blijf je deze schijven gebruiken. Er passen namelijk 4 hdd's in de microserver. In je zelfbouw Nas passen er maximaal 8 in. De zelfbouw Nas is wel 200 euro duurder.
Dit verklaart waarom ik daar naar vroeg.
Wat is je verwachting hoeveel GB er per jaar bij gaat komen? Dan kan ik je vraag beter beantwoorden en onderbouwen
De HP Proliant MicroServer Gen8 G1610T is dan een mindere goede keuze als je graag wil uitbreiden. Dan ben je met een zelfbouw Nas beter uit. Over je zelfbouw build ziet er goed uit. Daar heb ik geen aanmerking op.IChaosI schreef op vrijdag 13 januari 2017 @ 16:02:
[...]
Om eerlijk te zijn heb ik geen flauw idee, dit gaat mijn eerste NAS worden en heb dus ook geen eerdere ervaringen waaraan ik kan relateren. Ik gok dat ik de eerste paar jaar wel genoeg ga hebben aan 3x 2TB HDD's. Maar het gaat mij er ook om dat, mocht ik om wat voor reden dan ook die 4TB snel volkrijgen. Ik dan wel de mogelijkheid heb tot uitbreiding.
Ben ook wel benieuwd wat je (even afgezien van de HDD's) van de build(s) vindt?
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq