Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Het rare is dat een standaard G3258 sneller is dan een G3450, terwijl die laatste dezelfde architectuur heeft, maar met een hogere kloksnelheid. (of wordt in de G3258 een andere TIM gebruikt en dat voorkomt thermal throttling)

De rest loopt vrij lineair met Frequentie, de basis architectuur is dan ook overal hetzelfde.
HT heeft een kleine penalty op single thread performance. (ik veronderstel dat dit niet is uitgezet voor deze test, dus iets meer thread management overhead)
Maar het heeft toch wel een merkbaar voordeel bij multithreading. (maar dat is zeer afhankelijk van het type load)

Dat de bang-per-buck het beste is bij de goedkoopste reeksen, is al langer geweten. Soms heb je gewoon meer bang nodig, en daar betaal je voor. Daarbij komt natuurlijk ook de prijs voor de rest van het systeem.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Zover ik kan zien heeft ZFS baat bij meer cores. Als ik bijvoorbeeld een scrub doe op mijn 71TB bak, zie ik dat er meerdere processen draaien en dat alle cores ook belast worden.

Hoe ZFS precies baat heeft bij meerdere cores en waar brute GHz toch belangrijker is weet ik niet.

Misschien eens uitzoeken want het kan zijn dat je voor kleine builds < 8 disks prima met een dual-core uit bent, maar boven x disks beter een quad-core of op zijn minst iets met HT kunt toepassen.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
   PID USER      PR  NI  VIRT  RES  SHR S  %CPU %MEM    TIME+  COMMAND                                                                 
 4303 root      39  19     0    0    0 S  68.1  0.0   2:33.74 z_rd_int/5                                                              
 4299 root      39  19     0    0    0 S  67.5  0.0   2:34.20 z_rd_int/1                                                              
 4302 root      39  19     0    0    0 S  67.1  0.0   2:33.92 z_rd_int/4                                                              
 4301 root      39  19     0    0    0 S  66.8  0.0   2:33.86 z_rd_int/3                                                              
 4300 root      39  19     0    0    0 S  66.1  0.0   2:34.39 z_rd_int/2                                                              
 4298 root      39  19     0    0    0 S  65.8  0.0   2:33.92 z_rd_int/0                                                              
 4453 root       0 -20     0    0    0 D  12.0  0.0   0:39.71 txg_sync                                                                
 4290 root      39  19     0    0    0 S   6.6  0.0   0:18.95 z_rd_iss/0                                                              
 4291 root      39  19     0    0    0 S   6.6  0.0   0:18.99 z_rd_iss/1                                                              
 4292 root      39  19     0    0    0 S   6.6  0.0   0:18.98 z_rd_iss/2                                                              
 4294 root      39  19     0    0    0 S   6.6  0.0   0:18.92 z_rd_iss/4                                                              
 4296 root      39  19     0    0    0 S   6.3  0.0   0:19.01 z_rd_iss/6                                                              
 4293 root      39  19     0    0    0 S   6.0  0.0   0:18.94 z_rd_iss/3                                                              
 4295 root      39  19     0    0    0 S   6.0  0.0   0:18.98 z_rd_iss/5                                                              
 4297 root      39  19     0    0    0 S   5.7  0.0   0:18.89 z_rd_iss/7

[ Voor 56% gewijzigd door Q op 04-08-2015 12:08 ]


Acties:
  • 0 Henk 'm!

  • P4trickL
  • Registratie: Juli 2015
  • Laatst online: 31-10-2022
Hoi,

Na dit forum doorgelezen te hebben ben ik er redelijk uit. Mijn Synology gaat vervangen worden door een soortgelijke setup als die van nMAD (thanks ;)

#ProductPrijsSubtotaal
1ASRock Rack E3C224D2I€ 210,43€ 210,43
2Crucial CT102472BD160B€ 63,50€ 127,-
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Intel Core i3 4130 Boxed€ 113,90€ 113,90
1Kingston SSDNow mS200 30GB€ 29,-€ 29,-
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 610,23


Nu heb ik alleen nog 2 vragen:
1. Als ik de NAS wil gebruiken als media server voor Plex, 2 streams, zou ik dan ook voldoende hebben aan de Intel Core i3 4130T?

Als ik het PCIe slot wil gebruiken voor een mSATA SSD voor FreeNAS (bv Kingston SSDNow mS200 30GB ) , wat voor adapter heb ik dan nodig en is er in die behuizing plaats voor zo'n adapter of kan ik net zo goed in de onboard usb poort een usb stick prikken?

Thanks!

[ Voor 55% gewijzigd door P4trickL op 07-08-2015 14:04 ]


Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
P4trickL schreef op vrijdag 07 augustus 2015 @ 13:59:
Hoi,

Na dit forum doorgelezen te hebben ben ik er redelijk uit. Mijn Synology gaat vervangen worden door een soortgelijke setup als die van nMAD (thanks ;)

#ProductPrijsSubtotaal
1ASRock Rack E3C224D2I€ 210,43€ 210,43
2Crucial CT102472BD160B€ 63,50€ 127,-
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Intel Core i3 4130 Boxed€ 113,90€ 113,90
1Kingston SSDNow mS200 30GB€ 29,-€ 29,-
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 610,23


Nu heb ik alleen nog 2 vragen:
1. Als ik de NAS wil gebruiken als media server voor Plex, 2 streams, zou ik dan ook voldoende hebben aan de Intel Core i3 4130T?

Als ik het PCIe slot wil gebruiken voor een mSATA SSD voor FreeNAS (bv Kingston SSDNow mS200 30GB ) , wat voor adapter heb ik dan nodig en is er in die behuizing plaats voor zo'n adapter of kan ik net zo goed in de onboard usb poort een usb stick prikken?

Thanks!
Die CPU heeft als passmark score 4139, per 1080p stream zijn 2000 punten nodig volgens Plex dus 2 streams zal je kunnen transcoden.
Voor FreeNAS kunt je trouwens best gewoon twee usb stickjes kopen en deze mirroren. FN laad in het geheugen, dus een SSD haalt bijna niets uit. (enkel die seconden bij het booten..)

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 23-09 21:59
P4trickL schreef op vrijdag 07 augustus 2015 @ 13:59:
Hoi,

Na dit forum doorgelezen te hebben ben ik er redelijk uit. Mijn Synology gaat vervangen worden door een soortgelijke setup als die van nMAD (thanks ;)

#ProductPrijsSubtotaal
1ASRock Rack E3C224D2I€ 210,43€ 210,43
2Crucial CT102472BD160B€ 63,50€ 127,-
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Intel Core i3 4130 Boxed€ 113,90€ 113,90
1Kingston SSDNow mS200 30GB€ 29,-€ 29,-
Bekijk collectie
Importeer producten
Totaal€ 553,28


Nu heb ik alleen nog 2 vragen:
1. Als ik de NAS wil gebruiken als media server voor Plex, 2 streams, zou ik dan ook voldoende hebben aan de Intel Core i3 4130T?

Als ik het PCIe slot wil gebruiken voor een mSATA SSD voor FreeNAS (bv Kingston SSDNow mS200 30GB ) , wat voor adapter heb ik dan nodig en is er in die behuizing plaats voor zo'n adapter of kan ik net zo goed in de onboard usb poort een usb stick prikken?

Thanks!
Plex zegt voor iedere stream in 1080p/10Mbps dat de CPU een passmark score van grof weg 2000 moet hebben.
https://support.plex.tv/h...d-for-my-Server-computer-

De door jou gekozen komt op een score van 4130 uit. Ik ben zelf onlangs gegaan voor een i3-4170 (was actie waardoor hij goedkoper was dan aan 4160 bv) die heeft net iets meer power (meende 5k) wat ik persoonlijk wel fijn vind om te hebben

Acties:
  • 0 Henk 'm!

  • P4trickL
  • Registratie: Juli 2015
  • Laatst online: 31-10-2022
Kijk 2 man met hetzelfde antwoord .. de T gaat het dus worden, thanks!

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:20
En deze man adviseert toch om voor de gewone variant te gaan.

Waarom zou je in hemelsnaam voor de T variant gaan (tenzij koeling een big issue is)?

Acties:
  • 0 Henk 'm!

  • P4trickL
  • Registratie: Juli 2015
  • Laatst online: 31-10-2022
De T is een stuk energiezuiniger en als de performance voldoende is waarom zou je dan niet voor de T variant gaan.

Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 28-09 00:38
,Kijk ook even naar de pricewatch: ASRock E3C226D2I, die is bijna identiek, alleen een andere chipset en bijna een tientje goedkoper.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:20
P4trickL schreef op vrijdag 07 augustus 2015 @ 23:32:
De T is een stuk energiezuiniger en als de performance voldoende is waarom zou je dan niet voor de T variant gaan.
Om verschillende redenen:

- Prijs. De 4130 en de 4130T kosten ongeveer beiden 130 euro per stuk. De 4130 is een dualcore @ 3.4Ghz en de 4130T een dualcore @ 2.9Ghz. Ik heb liever meer waar voor mijn geld -> 4130. Je kan beter een overkill aan performance hebben dan een tekort. Dat laatste betekent dat je op zoek moet gaan naar een nieuwe processor.

- Energieverbruik. Wat zuiniger is laat ik even in het midden, maar wees je ervan bewust dat je de 4130 ook gewoon kan onderklokken, zodat ie zich als een 4130T gedraagt. Dat kan je gewoon doen als je bios het ondersteunt.

Nogmaals: de enige reden die ik kan bedenken om voor een T variant te gaan is dat de verwachting is dat je problemen hebt met de koeling.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
Gio heeft helemaal gelijk, en behalve als je aan een thermische max zit, zijn de Intel T en S modellen zijn 'voor consumenten' voornamelijk marketing BS.

/edit
De T en S modellen zijn voornamelijk bedoelt voor server, waar men soms een thermische of power max heeft, en je vaak met server borden niet kan over of onderklokken, heeft Intel de T en S series uitgebracht, zodat men niet over het maximale stroom verbruik van een rack kan gaan.
/edit

Het grootste verschil tussen de 4130 en de 4130T is dat ze bij het T model, een blok onder het gaspedaal hebben gezet (lees lager geklokt is), maar een CPU die +95% van de tijd nagenoeg idle draait, heeft het geen zin om een T model te nemen, daar je toch nagenoeg niks extra bespaart, en zoals Gio zij, je ook de PKs mist als je ze kan gebruiken.


Zelf doe ik veel video (re)encoding op mijn server, en heb i7-4790K op 2.2GHz onder geklokt, daar ik dan de beste PPW heb, maar als ik op eens haast heb, zo als laats de video's van de bruiloft van een vriend, die ik ge filmt had, klokte ik mijn CPU over naar 4.5GHz.

Of je kan onder klokken is even iets dat je moet nakijken, in de handleiding van je gekozen mobo, daar somige server borden die optie niet hebben
Een 19W verschil in TDP is meestal niet een reden om tegen problemen met de voeding aan te lopen, zelfs niet bij pico PSUs!

[ Voor 12% gewijzigd door player-x op 08-08-2015 16:49 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

P4trickL schreef op vrijdag 07 augustus 2015 @ 23:32:
De T is een stuk energiezuiniger en als de performance voldoende is waarom zou je dan niet voor de T variant gaan.
De T versie is niet zuiniger, hij is beperkt in zn maximale vermogen. Bij dezelfde load zijn ze even zuinig. Dus geef beiden twee 10mbit streams en ze verbruiken evenveel watt. Enkel heeft de niet-T versie dan nog vermogen ovrr voor wat extra werk. Dan wordt hij wel minder zuinig maar met de T versie had je dat uberhaupt niet kunnen doen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Voor de koeling maakt het vaak ook niet heel veel verschil, maar bij een picoPSU kan het wel degelijk op het randje zijn en die dingen zijn al geen hoogvliegers dus overbelasten is ook niet slim.

VRM op het moederbord is er nog één trouwens.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
-The_Mask- schreef op zaterdag 08 augustus 2015 @ 09:43:
maar bij een picoPSU kan het wel degelijk op het randje zijn en die dingen zijn al geen hoogvliegers dus overbelasten is ook niet slim.

VRM op het moederbord is er nog één trouwens.
Je hebt PicoPSU's tot en met 150W, dus nee zelfs voor een PicoPSu zou het geen probleem moeten zijn.

En als je VRMs een probleem hebben met 54W, dan is het beter meteen dat moederbord weg te gooien, want dan heb je gewoon echt een crap mobo.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Iemand kan prima al een picoPSU hebben en er zijn genoeg prima moederborden met een beperkt VRM. Het zou pas troep zijn als volgens de specs een CPU wel zou moeten kunnen maar in de praktijk blijkt het toch niet zo te zijn. Zie de grote hoeveelheid AM3+ moederborden waarbij het VRM eigenlijk niet geschikt is voor de AMD FX octocore CPU's.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

@player-x: je hebt duidelijk iets tegen processors met een lager TDP. Dat mag; maar het zou je wel sieren als je behalve je eigen voorkeur ook gebruikers die een legitieme vraag naar deze chips hebben zou erkennen. Alles met lager TDP afdoen als 'marketing bullshit' is natuurlijk heel onredelijk van je. Vooral omdat je hier al tijden geleden op bent gewezen, maar je blijft je eigen standpunt verkondigen alsof dit waarheid is.

Het is natuurlijk ook onzin dat de professionele servermarkt ook zo gevoelig zou zijn voor marketing bullshit. Daar zijn de HE-processors natuurlijk optimaal ingesteld om zoveel mogelijk te doen met zo weinig mogelijk vermogen - oftewel een zo goed mogelijke task energy. Want processors gaan meer verbruiken naarmate hun frequency oploopt; een 4x 1GHz processor is vele malen zuiniger dan 1x 4GHz.

Je gaat ook even voorbij aan:
  • Wens om passief te koelen en om die reden de maximale TDP beperkt te willen houden.
  • Combinatie met PicoPSU waarbij je in veel gevallen een betaalbare 80W adapter gebruikt en niet de peperdure 150W DC-adapters die vaak ook nog van twijfelachtige kwaliteit zijn.
  • Een kast hebt die maar beperkt hitte kan afvoeren; meestal ook door gebrek aan ventilatoren.
  • Misschien een UPS hebt via met VA werkt waar je je electrische behoefte ook op dient aan te passen.
  • Misschien wel iets wilt besparen op een heatsink voor passieve koeling; zodat 65W een mooi maximum is om passief te koelen.
Niets mis met de speciale S- en T-modellen. Deze hebben een legitiem gebruiksdoel en dus helemaal geen 'marketing bullshit'. Dat is zo ontzettend ongenuanceerd, jammer van je inzichten op andere vlakken die vaak wel hout snijden.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De AMD Radeon R9 Nano komt er ook heel binnenkort aan, daarmee zul je ook zien dat het beperken van de maximale frequentie voor een aardig betere performance per watt kan zorgen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

In BSD UNIX kan ik ook de EIST levels zien:

code:
1
dev.cpu.0.freq_levels: 1993/2000 1992/2000 1909/1825 1826/1650 1743/1475 1660/1300 1577/1125 1494/950 1411/775 1328/600

Het eerste getal zoals 1992 is de frequentie (bijna 2GHz) en het getal erna is het verbruik in milliwatt per core. Dus op 2GHz is dat 2W per core en op 1328MHz is dat 0,6W per core. Dus 2/3e van de frequentie en nog maar 1/3e van het verbruik. Dit is een J1900 10W TDP chip overigens. Stel hij zou 4GHz zijn dan zou één core al buiten het power-budget vallen, denk ik.

Punt is dus dat net als met luchtweerstand en een snelheid van een auto, je steeds inefficienter bezig bent zodra je de frequentie blijft verhogen. Dus dan kom je ook ergens op een sweet spot uit - dat zijn de HE-modellen bij serverchips.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
P4trickL schreef op vrijdag 07 augustus 2015 @ 23:32:
De T is een stuk energiezuiniger en als de performance voldoende is waarom zou je dan niet voor de T variant gaan.
Een heel vaak misbegrepen iets is waar die T in de Intel reeksen eigenlijk voor staat omdat het in W(att) wordt uitgedrukt denken mensen dat dat het energieverbruik voorstelt...

Een Intel CPU die T draagt in zijn naam is doorgaans beperkt in TDP, met andere woorden: die CPU is gedesigned om een lagere maximale WARMTE-afgifte te doen dan zijn non-T variant... Dus een van de collega's hier heeft volledig gelijk: de kern-reden om voor T varianten te gaan is als je bv passief wil koelen of moeilijk warmte kwijt geraakt in je kast en je daarom de warmte-generatie van je CPU tot een zeker maximum wil beperken...

[ Voor 0% gewijzigd door HyperBart op 08-08-2015 14:26 . Reden: Dank je wel Q, ik lag even te slapen ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Ik denk dat je bedoelt: ...tot een zeker maximum... wilt beperken.

Zolang mensen snappen dat T/S processors niet zuiniger zijn, maar puur beperkt zijn in hun maximum stroom verbruik/warmte productie, is het doel bereikt.

Voor de fractal kast vraag ik me sterk af of een T processor wel nodig is. Zonde als je de performance laat liggen voor een vermeend koel probleem wat er niet hoeft te zijn.

[ Voor 71% gewijzigd door Q op 08-08-2015 14:16 ]


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
player-x schreef op zaterdag 08 augustus 2015 @ 09:38:
Het grootste verschil tussen de 4130 en de 4130T is dat ze bij het T model, een blok onder het gaspedaal hebben gezet
Hoewel auto vergelijkingen altijd lastig zijn vind ik dit wel een mooie vergelijking. :) Het is feitelijk gewoon dezelfde basis, maar met de ene kun je minder hard dan de ander. Ook de langzamere heeft zodoende voordelen. Alleen het verbruik (wat je bij een auto wel zou hebben) gaat waarschijnlijk niet op, tenzij het meest efficiente verbruik onder het maximum zit.
Hoe dan ook, inderdaad, de T varianten zou ik zelf niet nemen bij een zelfbouw opstelling. Maar er zijn gewoon valide redenen om er toch één te nemen. Genoeg voorbeelden zijn al genoemd.

[ Voor 42% gewijzigd door Dadona op 08-08-2015 14:31 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
P4trickL schreef op vrijdag 07 augustus 2015 @ 23:32:
De T is een stuk energiezuiniger en als de performance voldoende is waarom zou je dan niet voor de T variant gaan.
Ik heb ook nog een tijdje naar die 304 gekeken als kast, en wat ik er van vond is dat de koeling eigenlijk prima was, en al helemaal voor dat formaat/inhoud van kast... Ik zie dus echt niet in waarom je voor die T zou gaan...

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
Verwijderd schreef op zaterdag 08 augustus 2015 @ 12:25:
@player-x: je hebt duidelijk iets tegen processors met een lager TDP.
Ik heb niks tegen T CPUs, alleen heb ik wel wat tegen de 98% foute aanname van meeste consumenten, die denken dat een T model gewoon minder verbruikt, van wegen speciale aanpassingen in de CPU, iets dat zeker maar heel erg beperkt waar is in home servers.

Daar ik onderklokken van een CPU nou niet echt speciaal vind, en ook niet een wat hogere maximale turbo klokfrequentie van een Core om binnen de TDP te blijven.

En de voordelen/redenen die jij zo op noemt zijn voornamelijk die voor mensen die weten wat ze doen, en daarvoor bewust een T model nemen, en dat geld niet de n00bs die een redelijke, maar ook een verkeerde aan name maken, dat de T model veel zuiniger zijn.

Maar heb mijn post aangepast, is hij zo beter? O-)

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Ashe
  • Registratie: November 2001
  • Laatst online: 26-09 12:54
Heren,

Even een snelle vraag.

Ik heb een zelfgemaakte fileserver op basis van Slackware 13.1 en Linux software raid 6 met 10 x WD20EARS schijven. Het operating systeem staat op een aparte 500GB schijf.

Een tijdje geleden had ik via mijn dagelijkse SMART monitoring gemerkt dat er twee schijven begonnen lastig doen:

 -----------------------------------------------------------
| DEVICE | TEMP | POWERON | REALLOC. | PENDING | CRC ERR. |
-----------------------------------------------------------
|    sda |   41 |   41630 |        0 |       6 |        0 |
|    sdb |   41 |   41139 |        0 |       0 |        0 |
|    sdc |   41 |   41520 |        0 |       0 |        0 |
|    sdd |   39 |   41588 |        0 |       0 |        0 |
|    sde |   35 |   41681 |        0 |       0 |        0 |
|    sdf |   41 |   41574 |        0 |       0 |        0 |
|    sdg |   39 |   41587 |        1 |       0 |        0 |
|    sdh |   42 |   41592 |        0 |       0 |        0 |
|    sdi |   33 |   41707 |        0 |       1 |        0 |
|    sdj |   36 |   41595 |        0 |       0 |        0 |
|    sdk |   36 |   41674 |        0 |       0 |        0 |
-----------------------------------------------------------


/dev/sda zit in mijn RAID array en /dev/sdi is de harde schijf waarop Linux geïnstalleerd is.

Schijven /dev/sd[abcdefgjk] zijn allen van het type WDC WD20EARS-00J2GB0 met de volgende partitie indeling (ik meen me te herinneren dat dit toen ideaal was volgens de 4K sector guidelines):

root@darkstar4:~# fdisk -l /dev/sdb

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x5a6f40ee

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1              64  3907029167  1953514552   fd  Linux raid autodetect
root@darkstar4:~#


Fast forward: een week geleden stond mijn systeem ineens in read-only mode en zag ik in de logs dat /dev/sdi niet meer zelf sectoren kan remappen en dat er foutmeldingen begonnen te komen. Ik heb vervolgens /dev/sdi vervangen door een nieuwe WDC WD20EZRX-00D8PB0 schijf en een upgrade gedaan naar Slackware 14.1. Alles is perfect verlopen en de RAID 6 array draait perfect, met de originele /dev/sda die 6 pending sectors heeft.

Toen ik proactief ook /dev/sda wou vervangen door een tweede WDC WD20EZRX-00D8PB0 schijf merkte ik dat via fdisk enkel kan starten op 2048 ipv 64. Aangezien het totaal aantal sectoren hetzelfde is, kan de Linux raid autodetect partitie op de nieuwe schijf dus niet dezelfde grootte hebben als de originele:

root@darkstar4:~# fdisk -l /dev/sda

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
63 heads, 63 sectors/track, 984386 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xbc019e48

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect
root@darkstar4:~#


Ik heb nog geen poging gedaan om deze in de RAID array te zetten en de rebuild op te starten aangezien ik eerst met jullie wou checken.

Ik heb een wrang gevoel dat ik de WD20EARS schijven met mijn toenmalige partitieindeling niet kan vervangen met een WD20ERZX omwille van de sector grootte met als resultaat geen enkele manier om een failing disk te vervangen door de nieuwere WD20ERZX, tenzij ik de 3TB versie koop.

Voorlopig kan ik de vorige schijf er nog in laten staan maar ik zou deze toch proactief willen vervangen. Raden jullie aan de /dev/sda eens te wipen en een rebuild te doen zodat eventueel bij een nieuwe write poging ofwel de 6 pending sectoren toch beschreven / al dan niet gealloceerd kunnen worden?

Enig advies/mening/raad is meer dan welkom!

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Ashe schreef op zondag 09 augustus 2015 @ 15:51:
Heren,

Even een snelle vraag.


Toen ik proactief ook /dev/sda wou vervangen door een tweede WDC WD20EZRX-00D8PB0 schijf merkte ik dat via fdisk enkel kan starten op 2048 ipv 64. Aangezien het totaal aantal sectoren hetzelfde is, kan de Linux raid autodetect partitie op de nieuwe schijf dus niet dezelfde grootte hebben als de originele:

Ik heb nog geen poging gedaan om deze in de RAID array te zetten en de rebuild op te starten aangezien ik eerst met jullie wou checken.

Enig advies/mening/raad is meer dan welkom!
fdisk -c=dos

Dan kun je als start sector 64 kiezen.

:)

[ Voor 26% gewijzigd door Q op 09-08-2015 16:15 ]


Acties:
  • 0 Henk 'm!

  • Ashe
  • Registratie: November 2001
  • Laatst online: 26-09 12:54
Q, fantastisch! Bedankt!

Doe ik deze WD20EZRX oneer aan door op LBA 64 te beginnen ipv 2048? Weet niet goed wat het nadeel is. :)

Nogmaals bedankt hoor, ondertussen ziet het er goed uit:

root@darkstar4:~# fdisk -l /dev/sda

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
63 heads, 63 sectors/track, 984386 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xbc019e48

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1              64  3907029167  1953514552   fd  Linux raid autodetect
root@darkstar4:~# fdisk -l /dev/sdb

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x5a6f40ee

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1              64  3907029167  1953514552   fd  Linux raid autodetect
root@darkstar4:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sat Oct  9 07:53:36 2010
     Raid Level : raid6
     Array Size : 15628115456 (14904.13 GiB 16003.19 GB)
  Used Dev Size : 1953514432 (1863.02 GiB 2000.40 GB)
   Raid Devices : 10
  Total Devices : 9
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sun Aug  9 16:21:43 2015
          State : clean, degraded
 Active Devices : 9
Working Devices : 9
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : f512d680:c6458956:fbe53745:38f0c41a
         Events : 0.23615

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       0        0        1      removed
       2       8      145        2      active sync   /dev/sdj1
       3       8       65        3      active sync   /dev/sde1
       4       8       81        4      active sync   /dev/sdf1
       5       8      161        5      active sync   /dev/sdk1
       6       8      113        6      active sync   /dev/sdh1
       7       8       97        7      active sync   /dev/sdg1
       8       8       33        8      active sync   /dev/sdc1
       9       8       17        9      active sync   /dev/sdb1
root@darkstar4:~# mdadm --manage /dev/md0 --add /dev/sda1
mdadm: added /dev/sda1
root@darkstar4:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid6 sda1[10] sdj1[2] sdk1[5] sdg1[7] sdh1[6] sdd1[0] sdf1[4] sdb1[9] sde1[3] sdc1[8]
      15628115456 blocks level 6, 64k chunk, algorithm 2 [10/9] [U_UUUUUUUU]
      [>....................]  recovery =  0.0% (331456/1953514432) finish=294.6min speed=110485K/sec

unused devices: <none>
root@darkstar4:~#


PS: Q, het is trouwens gebruik makende van jouw scripts dat ik mijn HD's in het oog houd. Echt handig! ;-)

[ Voor 42% gewijzigd door Ashe op 09-08-2015 16:32 . Reden: Rebuild status bijgevoegd. ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
NAS in elkaar gezet die op basis van ZFS mijn huidige HW raid setup moet vervangen. Norco kast komt hier van Tweakers en daar zitten nu 12x 4TB Seagates in.
Afbeeldingslocatie: https://lh3.googleusercontent.com/r-RCjIDVS5hfg13Mva-yWXQhPj1nV0w9a_WSPBltGrw=w240-h160-no

Binnenin 8 slots van de Norco aan de onboard SATA poorten en 8 aan een IBM 1015 in IT mode. Fans boven CPU en PCIe sloten zijn 120mm Noctua. Casefans zijn 120mm Coolermaster Jetflo en 80mm Arctic Freezer
Afbeeldingslocatie: https://lh3.googleusercontent.com/J-eaV41Gx9OotTci2b_k7RYyx8rSA_oKLNGo07wKemk=w240-h179-no

Eerst ZFSGuru geïnstalleerd en probeer nu FreeNAS. Beiden werken redelijk probleemloos. Webinterface van FreeNAS spreekt mij wel aan maar weet niet of ik dat nodig ga hebben voor mijn NAS gebruik.
Afbeeldingslocatie: https://lh3.googleusercontent.com/Ho__S3toO-xj9IsTp7gttFo2I3mivLzd5xB-ZYxLshA=w240-h215-no

Wanneer de ZFSGuru update er is ga ik die ook nog proberen. Ga nu eerst eens wat schijven offline brengen en kijken of ik die weer online krijg :7

Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 28-09 08:34
Op serverthehome staan wat benchmarks van de xeon d 1520. Ik hoop echt dat deze boardjes rond de 400-500 gaan kosten....

http://www.servethehome.c...d-1520-benchmark-results/

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Geen dank. Ik wist dit door puur toeval: Moest op het werk een partitie vergroten door partitie tabel te wissen en opnieuw aan te maken. Liep toen tegen exact dit probleem aan.
Doe ik deze WD20EZRX oneer aan door op LBA 64 te beginnen ipv 2048? Weet niet goed wat het nadeel is. :)
Ik weet het niet, ik denk dat het geen punt is.
PS: Q, het is trouwens gebruik makende van jouw scripts dat ik mijn HD's in het oog houd. Echt handig! ;-)
Ik zag het, leuk :)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
Ashe schreef op zondag 09 augustus 2015 @ 15:51:
Een tijdje geleden had ik via mijn dagelijkse SMART monitoring gemerkt dat er twee schijven begonnen lastig doen:
Je geeft aan dat je dagelijks SMART monitord, hoe doe je dat dan? Log je iedere dag eens aan op je server om je waardes te checken of heb je iets leuks van alerting?

Ik zit namelijk nog met zoiets dat ik op Ubuntu wat alerts wil krijgen als er wat misgaat...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
BartNL schreef op zondag 09 augustus 2015 @ 16:41:
NAS in elkaar gezet die op basis van ZFS mijn huidige HW raid setup moet vervangen. Norco kast komt hier van Tweakers en daar zitten nu 12x 4TB Seagates in.
Welkom terug ;)

Nog een beetje goede disk temps met die Norco kast?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
BartNL schreef op zondag 09 augustus 2015 @ 16:41:
NAS in elkaar gezet die op basis van ZFS mijn huidige HW raid setup moet vervangen. Norco kast komt hier van Tweakers en daar zitten nu 12x 4TB Seagates in.
[afbeelding]
Geen schrik voor die rotte backplanes van Norco?

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
@Q
draai nog nauwelijks load op de NAS en disks worden niet te warm. De drie 120mm fans op de fanwall draaien nu max 1200rpm en kunnen nog op 1600 of 2000 (hopelijk niet) mocht dat nodig zijn.
Wil eerst proberen ze te vervangen door de nog stillere Noctua's zoals op CPU gebruikt en dan de luchtinlaat bij ongebruikte linker 5 1/4" slot afplakken. Denk dat deze kast dan qua harddisks hetzelfde zou moeten koelen als de 4224 die ik al heb.
Zie in FreeNas eigenlijk geen temperaturen, moet jouw tool zo te zien installeren ;)

@Hyperbart
Eigenlijk wel maar in deze kast zitten dezelfde als die ik al heb en daar heb ik ondertussen geen problemen meer mee. Vraagprijs was ook redelijk dus proberen waard. Hele kast inclusief backplanes werkt tot nu toe betrouwbaar.

[ Voor 13% gewijzigd door BartNL op 09-08-2015 21:19 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
BartNL schreef op zondag 09 augustus 2015 @ 21:01:
@Q
draai nog nauwelijks load op de NAS en disks worden niet te warm. De drie 120mm fans op de fanwall draaien nu max 1200rpm en kunnen nog op 1600 of 2000 (hopelijk niet) mocht dat nodig zijn.
Wil eerst proberen ze te vervangen door de nog stillere Noctua's zoals op CPU gebruikt en dan de luchtinlaat bij ongebruikte linker 5 1/4" slot afplakken. Denk dat deze kast dan qua harddisks hetzelfde zou moeten koelen als de 4224 die ik al heb.
Zie in FreeNas eigenlijk geen temperaturen, moet jouw tool zo te zien installeren ;)
Ok helder. Mijn script werkt waarschijnlijk niet out-of-the-box op FreeNAS of ZFSguru omdat 'BSD'.
Kan met wat aanpassingen misschien wel werkende gekregen worden.

Ik heb nog een andere mogelijk interessant script: 'storagefancontrol' waarmee je de snelheid van je fans aanstuurt op basis van de temperatuur van je disks. Again, werkt waarschijnlijk niet op BSD helaas zonder het aan te passen. https://github.com/louwrentius/storagefancontrol
Het vereist ook dat je PWM fans gebruikt die je moet kunnen aansturen via je moederbord.

Mijn oude Norco 4020 heeft ook nooit problemen gegeven. Er zijn Norco kasten die niet je hele huis afbranden ;)

[ Voor 20% gewijzigd door Q op 09-08-2015 22:20 ]


Acties:
  • 0 Henk 'm!

  • P4trickL
  • Registratie: Juli 2015
  • Laatst online: 31-10-2022
Thanx het is me duidelijk, geen reden om voor een T cpu te gaan :)

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 27-09 19:34
indien snelheid geen probleem is en je mobo het ondersteund, zou dit ook handig kunnen zijn.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • eXtink
  • Registratie: Februari 2009
  • Niet online
Ook even mijn wenslijstje met jullie delen voor feedback.

Eerst even mijn huidige situatie beschrijven, zodat het ook duidelijk is wat voor systeem ik zoek. Op het moment draait mijn enige systeem 24/7 voor al mijn gebruik. Ik gebruik hem voor mijn school (programmeren/office/etc), om te gamen, als server (sickrage/plex/nas). Dit systeem staat dan ook bijna 24/7 aan, wat niet echt de bedoeling is van een 3570K/GTX770. Voor de data gebruik ik nu een 4 raidz op Mac OS X, wat ook niet echt de beste oplossing is. Daarom wil ik graag een los systeem gebruiken als server en mijn huidige systeem gebruiken voor het dagelijkse werk en vermaak. De 4HDD uit mijn huidige systeem zouden dan samen gaan werken met een viertal nieuwe HDD's in een pool met 2 raidz vdev's.

Het volgende heb ik op het moment in gedachte:
#ProductPrijsSubtotaal
1Intel Core i3-4170 Boxed€ 117,90€ 117,90
1Asus Z87-PRO€ 119,46€ 119,46
4WD Green WD20EZRX€ 77,50€ 310,-
1Fractal Design Define R5 Zwart€ 103,95€ 103,95
1Scythe Mugen 4€ 35,95€ 35,95
1Fractal Design Dynamic GP-14 White blades, 140mm€ 12,93€ 12,93
1Corsair Vengeance LP CML16GX3M2A1600C10€ 90,50€ 90,50
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 847,64

Ik ben van plan om FreeNAS te gaan draaien vanaf een USB, zodat ik alle SATA poorten op het mobo kan gebruiken en geen losse SATA controller hoef aan te schaffen. Echter vraag ik me wel af of dit een 'bad practice' is of niet. Ook heb ik niet gekozen voor ECC geheugen vanwege de meerprijs. Hiervan weet ik ook niet of dit een 'bad practice' is. Graag jullie feedback!

Alvast bedankt.

Acties:
  • 0 Henk 'm!

Verwijderd

Waarom 2TB disks kopen als je toch twee pools gaat maken? Kies dan lekker voor 4TB+ disks. Ik zelf ben erg tevreden met mijn 6TB WD60EZRX - die heeft 1200GB platters en is dus met 175MB/s max sneller dan zijn kleinere broertjes (5TB en lager hebben allemaal 1000GB platters). Zou je drie schijfjes van 6TB nemen heb je 12TB netto opslag en je kunt later redelijk goed uitbreiden met wat trucjes.

Daarnaast; Z-chipsets heb je echt niet nodig voor een server. Asus als moederbordmerk is ook meestal niet erg BSD-vriendelijk met slechte BIOS en allerlei vieze hacks waardoor booten van GPT niet meer werkt omdat Asus één van de weinigen is die een hackerig BIOS heeft wat kijkt naar de inhoud van de disk en weigert van de MBR bootsector te booten als er GPT partities op staan. Heb je GPT dan MOET je ook via UEFI booten en dat werkt bij BSD niet. BSD heeft juist heel moderne MBR bootcode die geen UEFI nodig heeft om van GPT te booten. Allemaal dat soort dingen; blijf weg bij Asus als het kan!

Kast van 110 euro zonder voeding vind ik enorm duur, maar dat is persoonlijk. Als je een mooie kast wilt die ook in het zicht staat; prima. Is het iets waar je nauwelijks naar omkijkt; koop dan iets van drie tientjes?

Ouderwets 1,5 volt geheugen moet je niet meer nemen. Kijk eens naar Crucial Ballistix en Crucial Tactical. Die hebben mooie reepjes voor vrijwel dezelfde prijs met lagere CAS latency en toch lager 1,35 volt spanning.

Voeding wel goed denk ik. Je processor is een dualcore en dat is voor ZFS niet enorm gunstig. Je zit mogelijk maar net iets boven een J1900 quadcore die veel goedkoper is. Dus misschien kun je toch voor een quadcore gaan?

ECC is wel een ding; het ligt eraan wat je wilt. Wil je simpel beginnen en heb je genoegen aan de wetenschap achteraf of iets goed of fout (corrupt) is, dan kun je wel zonder ECC. Maar lees even deze draad door voor alle ins en outs: ECC geheugen voor zelfbouw ZFS NAS?.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
eXtink schreef op woensdag 12 augustus 2015 @ 17:30:
Ik ben van plan om FreeNAS te gaan draaien vanaf een USB, zodat ik alle SATA poorten op het mobo kan gebruiken en geen losse SATA controller hoef aan te schaffen. Echter vraag ik me wel af of dit een 'bad practice' is of niet. Ook heb ik niet gekozen voor ECC geheugen vanwege de meerprijs. Hiervan weet ik ook niet of dit een 'bad practice' is. Graag jullie feedback!

Alvast bedankt.
Antwoorden staan bij de antwoorden van CiPHER
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Waarom 2TB disks kopen als je toch twee pools gaat maken?
Hij zegt toch dat hij één pool wil maken, geen twee? Hij wil de bestaande disks en 4 nieuwe in één pool zetten...
Kies dan lekker voor 4TB+ disks. Ik zelf ben erg tevreden met mijn 6TB WD60EZRX - die heeft 1200GB platters en is dus met 175MB/s max sneller dan zijn kleinere broertjes (5TB en lager hebben allemaal 1000GB platters). Zou je drie schijfjes van 6TB nemen heb je 12TB netto opslag en je kunt later redelijk goed uitbreiden met wat trucjes.
Wat CiPHER zegt, ben ik wel deels mee eens. De investering van nieuwe grotere HDD's is in mijn ogen alles dubbel en dik waard. Minder disks om je data op te slaan, minder energie verbruik, minder complexiteit. Ik vind alles boven de 4TB wel nog relatief duur, maar goed, als je dan weer kijkt naar de EUR/GB dan is die 8TB disk van Seagate een toppertje... Dat even terzijde...

Bijkomende detail wat ik vermoed dat CiPHER dan ook bedoelde met trucjes: als je weinig disks hebt is het later ook makkelijk uitbreiden zonder dat je ineens je broek er aan scheurt. Ik heb HEEL veel geluk gehad dat FireDrunk even zijn disks wou lenen aan mij zodat ik van 5 x 4TB RAIDZ naar 10 x 4TB RAIDZ2 kon migreren door mijn data op zijn 4 disks en één disk van mij te zetten...
Daarnaast; Z-chipsets heb je echt niet nodig voor een server. Asus als moederbordmerk is ook meestal niet erg BSD-vriendelijk met slechte BIOS en allerlei vieze hacks waardoor booten van GPT niet meer werkt omdat Asus één van de weinigen is die een hackerig BIOS heeft wat kijkt naar de inhoud van de disk en weigert van de MBR bootsector te booten als er GPT partities op staan. Heb je GPT dan MOET je ook via UEFI booten en dat werkt bij BSD niet. BSD heeft juist heel moderne MBR bootcode die geen UEFI nodig heeft om van GPT te booten. Allemaal dat soort dingen; blijf weg bij Asus als het kan!
Eensch, van de MBR/GPT UEFI/BIOS hacks weet ik niks, maar Asus is nu ook niet bepaald het van het om zuinig te zijn. Vergeet dus even alles wat je van je gaming-land mee neemt, bij thuis-servers wil je zuinigheid...
Kast van 110 euro zonder voeding vind ik enorm duur, maar dat is persoonlijk. Als je een mooie kast wilt die ook in het zicht staat; prima. Is het iets waar je nauwelijks naar omkijkt; koop dan iets van drie tientjes?
Hier verschil ik dan in met CiPHER, ik heb zelf eindelijk een kast aangeschaft van Fractal die superstil is en ik ben er doodgelukkig mee, had ik veel eerder moeten doen... Een goede kast met voldoende ruimte en stilte is altijd fijn... Koeling is ook een belangrijke vind ik...
Ouderwets 1,5 volt geheugen moet je niet meer nemen. Kijk eens naar Crucial Ballistix en Crucial Tactical. Die hebben mooie reepjes voor vrijwel dezelfde prijs met lagere CAS latency en toch lager 1,35 volt spanning.

Voeding wel goed denk ik. Je processor is een dualcore en dat is voor ZFS niet enorm gunstig. Je zit mogelijk maar net iets boven een J1900 quadcore die veel goedkoper is. Dus misschien kun je toch voor een quadcore gaan?
Even nuanceren in mijn ogen (sorry CiPHER): een dual core kan prima voor ZFS, maar als je met Plex en dat soort dingen aan de slag gaat moet je eens kijken wat je CPU scoort op Passmark CPU benches... Per 1080p stream "vergt" Plex een 2000 punten. Ik begrijp even niet waarom CiPHER zich hier (plots) uitspreekt tegen dual-cores voor ZFS(?)
ECC is wel een ding; het ligt eraan wat je wilt. Wil je simpel beginnen en heb je genoegen aan de wetenschap achteraf of iets goed of fout (corrupt) is, dan kun je wel zonder ECC. Maar lees even deze draad door voor alle ins en outs: ECC geheugen voor zelfbouw ZFS NAS?.
Niks aan toe te voegen

Acties:
  • 0 Henk 'm!

  • eXtink
  • Registratie: Februari 2009
  • Niet online
Ten eerste bedankt voor je reactie!
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Waarom 2TB disks kopen als je toch twee pools gaat maken? Kies dan lekker voor 4TB+ disks. Ik zelf ben erg tevreden met mijn 6TB WD60EZRX - die heeft 1200GB platters en is dus met 175MB/s max sneller dan zijn kleinere broertjes (5TB en lager hebben allemaal 1000GB platters). Zou je drie schijfjes van 6TB nemen heb je 12TB netto opslag en je kunt later redelijk goed uitbreiden met wat trucjes.
Ik ben van plan om één pool te maken met twee vdev's, aangezien ik dan maar met één volume hoef te werken. Ik zou ook graag 3x 6TB nemen, echter laat mijn budget dat dan niet toe. Ik heb namelijk echt max €1000 te besteden voor een volledig systeem. Ook zou ik dus graag mijn 4x 2TB willen gebruiken op de één of andere manier. Zou het beter zijn om 2 vdev's te maken van 3 schijven? Dus één vdev met 3x 4TB en één vdev met 3x 2TB? Dat is wat kosten efficiënter en maakt het ook wat makkelijker met de keuze voor een moederbord (maar 6 SATA poorten nodig)
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Daarnaast; Z-chipsets heb je echt niet nodig voor een server. Asus als moederbordmerk is ook meestal niet erg BSD-vriendelijk met slechte BIOS en allerlei vieze hacks waardoor booten van GPT niet meer werkt omdat Asus één van de weinigen is die een hackerig BIOS heeft wat kijkt naar de inhoud van de disk en weigert van de MBR bootsector te booten als er GPT partities op staan. Heb je GPT dan MOET je ook via UEFI booten en dat werkt bij BSD niet. BSD heeft juist heel moderne MBR bootcode die geen UEFI nodig heeft om van GPT te booten. Allemaal dat soort dingen; blijf weg bij Asus als het kan!
Zie nieuw lijstje onderaan, is dit een betere keus qua moederbord in combinatie met de keuze voor een quadcore?
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Kast van 110 euro zonder voeding vind ik enorm duur, maar dat is persoonlijk. Als je een mooie kast wilt die ook in het zicht staat; prima. Is het iets waar je nauwelijks naar omkijkt; koop dan iets van drie tientjes?
Kast is best belangrijk, aangezien hij in de woonkamer komt te staan. Ik ben op het moment woonachtig in een studio, dus het moet er redelijk mooi uitzien ;)
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Ouderwets 1,5 volt geheugen moet je niet meer nemen. Kijk eens naar Crucial Ballistix en Crucial Tactical. Die hebben mooie reepjes voor vrijwel dezelfde prijs met lagere CAS latency en toch lager 1,35 volt spanning.
Aangepast! Niet op gelet, haha.
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
Voeding wel goed denk ik. Je processor is een dualcore en dat is voor ZFS niet enorm gunstig. Je zit mogelijk maar net iets boven een J1900 quadcore die veel goedkoper is. Dus misschien kun je toch voor een quadcore gaan?
Zie nieuw lijstje onderaan. De J9000 is niet krachtig genoeg om plex transcodes aan te kunnen. Dus ik ben voor de i5-4460 gegaan. Quadcore met meer kracht, waar dus ZFS goed gebruik van kan maken.
Verwijderd schreef op woensdag 12 augustus 2015 @ 18:12:
ECC is wel een ding; het ligt eraan wat je wilt. Wil je simpel beginnen en heb je genoegen aan de wetenschap achteraf of iets goed of fout (corrupt) is, dan kun je wel zonder ECC. Maar lees even deze draad door voor alle ins en outs: ECC geheugen voor zelfbouw ZFS NAS?.
Als ik dit topic zo lees dan is het eigenlijk belangrijker dat het systeem dat wegschrijft meer voordeel heeft aan ECC en dat heeft mijn systeem niet, dus dan heeft het voor mij niet zo veel nut? Voor mij is ZFS voornamelijk een iets wat betere manier om mijn belangrijke data te kunnen back-uppen en om minder belangrijke materiaal gewoon op te slaan. Dus deze extra check is voor mij niet zo heel belangrijk, denk ik...

@HyperBart: jou antwoorden heb ik in mijn antwoord richting CiPHER meegenomen. Alsook bedankt voor je reactie!

En mijn nieuwe wenslijst:
#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 182,50€ 182,50
1ASRock H97 Pro4€ 86,95€ 86,95
3WD Green WD40EZRX€ 141,50€ 424,50
1Fractal Design Define R5 Zwart€ 103,95€ 103,95
1Scythe Mugen 4€ 35,95€ 35,95
1Fractal Design Dynamic GP-14 White blades, 140mm€ 12,93€ 12,93
1Crucial Ballistix Sport BLS2C8G3D1609ES2LX0CEU€ 87,95€ 87,95
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 991,68

Acties:
  • 0 Henk 'm!

Verwijderd

HyperBart schreef op woensdag 12 augustus 2015 @ 20:08:
Hij zegt toch dat hij één pool wil maken, geen twee? Hij wil de bestaande disks en 4 nieuwe in één pool zetten...
Ik denk dat ik het volgende stukje verkeerd heb gelezen:
De 4HDD uit mijn huidige systeem zouden dan samen gaan werken met een viertal nieuwe HDD's in een pool met 2 raidz vdev's.
Twee RAID-Z vdevs dus niet twee pools.

Ik zou echter niet direct aanraden om oudere schijven met nieuwere schijven in een RAID-Z te zetten. ZFS RAID-Z is meer dan alle andere RAID's (behalve RAID3) gevoelig voor latency en dus wil je eigenlijk dezelfde schijven hebben met tevens dezelfde firmware.
Wat CiPHER zegt, ben ik wel deels mee eens. De investering van nieuwe grotere HDD's is in mijn ogen alles dubbel en dik waard. Minder disks om je data op te slaan, minder energie verbruik, minder complexiteit. Ik vind alles boven de 4TB wel nog relatief duur, maar goed, als je dan weer kijkt naar de EUR/GB dan is die 8TB disk van Seagate een toppertje... Dat even terzijde...
Die 8TB Seagate zou ik juist weer afraden omdat dit een SMR-schijf is. Die schijven hebben performanceissues en mogelijk problemen met retentie doordat ze in feite geen echte sector size meer hebben.
Bijkomende detail wat ik vermoed dat CiPHER dan ook bedoelde met trucjes: als je weinig disks hebt is het later ook makkelijk uitbreiden zonder dat je ineens je broek er aan scheurt.
Wat ik bedoel is dat je bij een 3-disk RAID-Z met 6TB disks alle data op één 6TB disk kan zetten die je uit de pool haalt, en vervolgens de overige twee disks vrij hebt. Zou je er 2 schijven bijkopen kun je dan een 5-disk RAID-Z maken met slechts 4 schijven (degraded). Dan kopiëer je de data van de ene 6TB disk naar de nieuwe degraded pool. Vervolgens voeg je de ene 6TB disk toe zodat de 5-disk RAID-Z compleet wordt. Zo heb je dus uitgebreid van 3-disk RAID-Z naar 5-disk RAID-Z zonder dataverlies. Voorwaarde is wel dat alle data op één schijf past, of je die elders kunt stallen.
Hier verschil ik dan in met CiPHER, ik heb zelf eindelijk een kast aangeschaft van Fractal die superstil is en ik ben er doodgelukkig mee, had ik veel eerder moeten doen... Een goede kast met voldoende ruimte en stilte is altijd fijn... Koeling is ook een belangrijke vind ik...
Ik ben dus juist tegen actieve koeling. Ik wil nooit meer een systeem maken met bewegende onderdelen - behalve de hardeschijven zelf maar die gaan er op een moment ook aan geloven....

Je kast zelf is van nature al 100% stil, tenzij je de (bijgeleverde) fans meetelt. Ik ben juist een groot voorstander van schijven passief koelen; dus absoluut geen ventilator op de schijf te laten blazen. Ik geloof dat dit juist kans op falen kan vergroten - wat wordt ondersteund door Google en BackBlaze-studies - en daarnaast is het totaal onnodig als je de juiste schijven kiest, zoals WD Green. Als je 3W idle doet dan heb je ook geen actieve koeling nodig. Je schijf wordt natuurlijk en uniform warm en koelt langzaam weer af. Actieve koeling kan voor fluctuaties in temperatuur zorgen en daarnaast ook de distributie van temperatuur minder uniform maken; zoals wanneer de onderzijde van de schijf veel harder wordt gekoeld dan de bovenzijde. Ten slot is passief koelen natuurlijk ook zuiniger, stiller en minder foutgevoelig.
Even nuanceren in mijn ogen (sorry CiPHER): een dual core kan prima voor ZFS, maar als je met Plex en dat soort dingen aan de slag gaat moet je eens kijken wat je CPU scoort op Passmark CPU benches... Per 1080p stream "vergt" Plex een 2000 punten. Ik begrijp even niet waarom CiPHER zich hier (plots) uitspreekt tegen dual-cores voor ZFS(?)
Ik spreek me niet uit tegen dual cores voor ZFS, maar een dure dualcore is niet de meest logische investering voor ZFS. Je kunt beter een goedkopere quadcore hebben. Die dure dualcores zoals de Core i3 zijn vooral geschikt voor game machines. Hoge frequentie voor games die toch vaak maximaal 1 of 2 threads hebben. Voor ZFS is het een chip met beperkte kracht maar wel een fors prijskaartje - toch drie tot vier keer duurder dan een J1900.

Aangezien BSD toch wel leider is op het gebied van SMP - vele innovaties ook in producten als Linux, Firefox en MySQL zijn eerst op FreeBSD ontwikkeld alvorens ze naar de genoemde producten overvlogen. ZFS is hierop ook geen uitzondering, want ZFS kan alle CPU cores optimaal gebruiken in veel situaties. De kernel zelf bestaat uit meer dan 150 threads. Encryptie en compressie (LZ4) kunnen alle CPU cores gebruiken. Kortom, cores is alles! Cores * frequency * IPC = performance. Dat betekent dat je veel liever een zwakke quadcore hebt dan een snelle dualcore.

Een J1900 systeem voor hem is zeker het overwegen waard, zeker als je toch al geen ECC neemt. En beperkt aantal schijven dus kan prima. Dan zou ik dus eerder een goedkoper J1900 systeem overwegen, of een duurder Xeon+ECC systeem als je het helemaal goed wilt doen en je budget verdubbelen t.o.v. een J1900 systeem.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
eXtink schreef op woensdag 12 augustus 2015 @ 20:17:

Ik ben van plan om één pool te maken met twee vdev's, aangezien ik dan maar met één volume hoef te werken. Ik zou ook graag 3x 6TB nemen, echter laat mijn budget dat dan niet toe. Ik heb namelijk echt max €1000 te besteden voor een volledig systeem. Ook zou ik dus graag mijn 4x 2TB willen gebruiken op de één of andere manier. Zou het beter zijn om 2 vdev's te maken van 3 schijven? Dus één vdev met 3x 4TB en één vdev met 3x 2TB? Dat is wat kosten efficiënter en maakt het ook wat makkelijker met de keuze voor een moederbord (maar 6 SATA poorten nodig)
Tja, de RAID puristjes in ons vinden het natuurlijk wel fijn om altijd een homogene groep van disks te hebben. Je gaat nu disks van verschillende groottes mengen, dus ook ongelijk wegschrijven, je grote disks gaan meer data voor de kiezen krijgen dan de andere, das normaal natuurlijk. Gewoon iets om stil bij te staan, maar op zich maakt het bij ZFS veel minder uit, maar je ziet maar weinig mensen die nadoen wat jij doet, puur omdat het simplistischer is om één VDEV te hebben met allemaal gelijke spindles
Kast is best belangrijk, aangezien hij in de woonkamer komt te staan. Ik ben op het moment woonachtig in een studio, dus het moet er redelijk mooi uitzien ;)
En stil...
Zie nieuw lijstje onderaan. De J9000 is niet krachtig genoeg om plex transcodes aan te kunnen. Dus ik ben voor de i5-4460 gegaan. Quadcore met meer kracht, waar dus ZFS goed gebruik van kan maken.
Mja, ik ga CiPHER toch tegenspreken: ZFS moet er geen gebruik van maken, die heeft meer dan genoeg power met een i3. Hell, in de Best Buy Guides en config's die we hier vaak voorstellen is geen G1610 of een 1820 vaak meer dan genoeg... Dus van waar dat idee bij CiPHER opeens komt: ben benieuwd?
[...]


#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 182,50€ 182,50
1ASRock H97 Pro4€ 86,95€ 86,95
3WD Green WD40EZRX€ 141,50€ 424,50
1Fractal Design Define R5 Zwart€ 103,95€ 103,95
1Scythe Mugen 4€ 35,95€ 35,95
1Fractal Design Dynamic GP-14 White blades, 140mm€ 12,93€ 12,93
1Crucial Ballistix Sport BLS2C8G3D1609ES2LX0CEU€ 87,95€ 87,95
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 991,68
Kijk nog eens even of er geen zuiniger moederbord is in dit topic of iets dergelijks? Gewoon even om zeker te zijn..?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
Verwijderd schreef op woensdag 12 augustus 2015 @ 20:27:
[...]

Ik denk dat ik het volgende stukje verkeerd heb gelezen:
De 4HDD uit mijn huidige systeem zouden dan samen gaan werken met een viertal nieuwe HDD's in een pool met 2 raidz vdev's.
Twee RAID-Z vdevs dus niet twee pools.

Ik zou echter niet direct aanraden om oudere schijven met nieuwere schijven in een RAID-Z te zetten. ZFS RAID-Z is meer dan alle andere RAID's (behalve RAID3) gevoelig voor latency en dus wil je eigenlijk dezelfde schijven hebben met tevens dezelfde firmware.
Ik ben net van mening aangedaan dat je wel groepjes van disks mag samengooien, bij voorkeur wat oudere en nieuwere. Bij NAS gebruik maakt het echt geen fluit uit, dan is de hele nest al meer dan snel genoeg om filmpjes en alles te serveren... Te lezen aan wat de vraagsteller uittypte is dat ook de usecase van zijn nieuwe build...

Net door de robuustheid van ZFS zou ik dit soort dingen (raidz met 3 x 4TB nieuw en 3 x 2TB in RAIDZ met oude disks) durven en disks meer bekijken als lompe commodity dingen ipv de oh zo gevoelige dingetjes die ze waren onder traditionele HW RAID controllers...
[...]

Die 8TB Seagate zou ik juist weer afraden omdat dit een SMR-schijf is. Die schijven hebben performanceissues en mogelijk problemen met retentie doordat ze in feite geen echte sector size meer hebben.
Met die performantie issues was ik niet bekend, dat uit zich in? Sector size; wat maakt het uit? We zitten nu toch ook al te rommelen met 4K/512B op 4TB disks en hoger?
[...]

Wat ik bedoel is dat je bij een 3-disk RAID-Z met 6TB disks alle data op één 6TB disk kan zetten die je uit de pool haalt, en vervolgens de overige twee disks vrij hebt. Zou je er 2 schijven bijkopen kun je dan een 5-disk RAID-Z maken met slechts 4 schijven (degraded). Dan kopiëer je de data van de ene 6TB disk naar de nieuwe degraded pool. Vervolgens voeg je de ene 6TB disk toe zodat de 5-disk RAID-Z compleet wordt. Zo heb je dus uitgebreid van 3-disk RAID-Z naar 5-disk RAID-Z zonder dataverlies. Voorwaarde is wel dat alle data op één schijf past, of je die elders kunt stallen.
Joh... Dan maakt het echt niet uit wat hij er onder steekt als je die voorwaarde er onder steekt he CiPHER... Dat had ik dan ook kunnen doen met mijn 5 x 4TB RAIDZ array: "hey HyperBart, gooi toch gewoon al je data op één disk"

Ik zou het net bekijken dat als hij ooit wil vergroten qua array dat hij zijn oude 2TB's kan resilveren one by one met 4TB's bv...
[...]

Ik ben dus juist tegen actieve koeling. Ik wil nooit meer een systeem maken met bewegende onderdelen - behalve de hardeschijven zelf maar die gaan er op een moment ook aan geloven....

Je kast zelf is van nature al 100% stil, tenzij je de (bijgeleverde) fans meetelt. Ik ben juist een groot voorstander van schijven passief koelen; dus absoluut geen ventilator op de schijf te laten blazen. Ik geloof dat dit juist kans op falen kan vergroten - wat wordt ondersteund door Google en BackBlaze-studies - en daarnaast is het totaal onnodig als je de juiste schijven kiest, zoals WD Green.
Dus als ik jouw idee nu even toepas op mijn disks dan wil dat zeggen dat ik met 55 à 60 graden disks moet gaan draaien? Sorry, dat vind ik te warm.
Als je 3W idle doet dan heb je ook geen actieve koeling nodig. Je schijf wordt natuurlijk en uniform warm en koelt langzaam weer af. Actieve koeling kan voor fluctuaties in temperatuur zorgen en daarnaast ook de distributie van temperatuur minder uniform maken; zoals wanneer de onderzijde van de schijf veel harder wordt gekoeld dan de bovenzijde. Ten slot is passief koelen natuurlijk ook zuiniger, stiller en minder foutgevoelig.
Ik geloof er geen sikkepit van dat actieve koeling voor een mindere uniforme temperatuur zorgt, die warmte wordt boven en onder toch gelijk afgevoerd, gekoeld of niet. Er zijn altijd regio's van de disk die warmer of koeler zijn, dat ligt toch maar net er aan waar alle onderdelen en prulletjes steken?
[...]

Ik spreek me niet uit tegen dual cores voor ZFS, maar een dure dualcore is niet de meest logische investering voor ZFS. Je kunt beter een goedkopere quadcore hebben. Die dure dualcores zoals de Core i3 zijn vooral geschikt voor game machines. Hoge frequentie voor games die toch vaak maximaal 1 of 2 threads hebben. Voor ZFS is het een chip met beperkte kracht maar wel een fors prijskaartje - toch drie tot vier keer duurder dan een J1900.
Goed, ik ben het eens met je, maar met die i3 heeft hij voor ZFS ook al meer als genoeg, ik ben zelfs benieuwd als ik mijn 10 disk RAIDZ2 aan een setup met G1610 zou hangen of ZFS trager zou zijn. Ik ben het eens met je dat ZFS benefit van multithreading/+ in cores maar die grens raak je met dit soort setups bijlange na nog niet aan...
Aangezien BSD toch wel leider is op het gebied van SMP - vele innovaties ook in producten als Linux, Firefox en MySQL zijn eerst op FreeBSD ontwikkeld alvorens ze naar de genoemde producten overvlogen. ZFS is hierop ook geen uitzondering, want ZFS kan alle CPU cores optimaal gebruiken in veel situaties. De kernel zelf bestaat uit meer dan 150 threads. Encryptie en compressie (LZ4) kunnen alle CPU cores gebruiken. Kortom, cores is alles! Cores * frequency * IPC = performance. Dat betekent dat je veel liever een zwakke quadcore hebt dan een snelle dualcore.
(zie hierboven)
Een J1900 systeem voor hem is zeker het overwegen waard, zeker als je toch al geen ECC neemt. En beperkt aantal schijven dus kan prima. Dan zou ik dus eerder een goedkoper J1900 systeem overwegen, of een duurder Xeon+ECC systeem als je het helemaal goed wilt doen en je budget verdubbelen t.o.v. een J1900 systeem.
Geen commentaar

Acties:
  • 0 Henk 'm!

Verwijderd

eXtink schreef op woensdag 12 augustus 2015 @ 20:17:
Ik ben van plan om één pool te maken met twee vdev's, aangezien ik dan maar met één volume hoef te werken. Ik zou ook graag 3x 6TB nemen, echter laat mijn budget dat dan niet toe. Ik heb namelijk echt max €1000 te besteden voor een volledig systeem.
drie keer pricewatch: WD Green WD60EZRX kom ik uit op 700 euro, plus verzendkosten. Dan heb je nog 300 euro voor het systeem zelf. Lijkt mij prima te doen, zeker als je voor J1900 kiest.
Ook zou ik dus graag mijn 4x 2TB willen gebruiken op de één of andere manier.
Je kunt gewoon een 2e pool maken; 2e vdev zou ook kunnen maar dat hangt af van je wens om alle vrije ruimte als één geheel beschikbaar te hebben.
Kast is best belangrijk, aangezien hij in de woonkamer komt te staan. Ik ben op het moment woonachtig in een studio, dus het moet er redelijk mooi uitzien ;)
Akkoord, dan is dit voor jou belangrijk.
Zie nieuw lijstje onderaan. De J9000 is niet krachtig genoeg om plex transcodes aan te kunnen.
Is dat zo? Want ik schat dat een J1900 niet veel minder krachtig is dan je dure dualcore als je SMP-performacne bekijkt. Op UP is het wel de helft langzamer ofzo. Zolang je meerdere cores kunt gebruiken is J1900 zo slecht nog niet. Goedkope chip met toch heel redelijke performance voor een 10W-chipje. Leuke is ook dat deze al passief gekoeld wordt - ook lekker stil en kan weinig aan stuk gaan.
HyperBart schreef op woensdag 12 augustus 2015 @ 20:27:
Tja, de RAID puristjes in ons vinden het natuurlijk wel fijn om altijd een homogene groep van disks te hebben.
Bedenk wel dat ZFS RAID-Z meer dan normaal RAID zoals RAID5 nadeel ondervindt van fluctuerende latency. RAID5 kan op twee disks I/O doen en de overige drie disks ook gebruiken voor I/O. Dit gaat niet op bij ZFS RAID-Z omdat alle disks in elke I/O betrokken worden. Vandaar ook dat de IOps gelijk is aan één disk terwijl bij RAID5 de random read IOps bijna zo hoog als RAID0 kan zijn. ZFS RAID-Z lijkt op dit opzicht het meest op RAID3; de sectorsize wordt uitgesmeerd over alle disks, zodat alle writes exact passen (1-phase writes) en dus geen read-modify-write. Daarom heeft ZFS RAID-Z ook geen last van een 'RAID5 write hole'.
HyperBart schreef op woensdag 12 augustus 2015 @ 20:37:
Met die performantie issues was ik niet bekend, dat uit zich in? Sector size; wat maakt het uit? We zitten nu toch ook al te rommelen met 4K/512B op 4TB disks en hoger?
Normale hardeschijven kunnen sector 87329765 beschrijven zonder dat dit gevolgen heeft voor de rest. SMR-schijven kunnen dit niet; ook de omliggende sectoren moeten worden overschreven. Hierdoor is de random write IOps totaal ingestort en kun je de schijven alleen effectief gebruiken als je 99%+ sequential I/O doet. Bovendien heb ik mijn twijfels over retentie en uBER - ik blijf weg bij SMR schijven en mogelijk dat PMR mijn laatste categorie hardeschijven is die ik zou aanraden.

Na SMR komt HAMR en dan is het ook afgelopen met mechanische opslagtechnologie. Dus het is de vraag of je SMR nog wel nodig hebt. Misschien kun je het gat tussen PMR en solid state storage ook dichten op een of andere manier.
Joh... Dan maakt het echt niet uit wat hij er onder steekt als je die voorwaarde er onder steekt he CiPHER... Dat had ik dan ook kunnen doen met mijn 5 x 4TB RAIDZ array: "hey HyperBart, gooi toch gewoon al je data op één disk"
Ja, maar bij 5 schijven is de capaciteit per disk vaak lager en dus ook lastiger om alles op één disk te krijgen. Bij een 3-disk RAID-Z met 6TB disks kan dit veelal wel.
Dus als ik jouw idee nu even toepas op mijn disks dan wil dat zeggen dat ik met 55 à 60 graden disks moet gaan draaien? Sorry, dat vind ik te warm.
Ik draai in mijn 100% passieve serverkast waar in totaal zeven systemen in draaien mijn schijven op 38 tot 41 graden, en vandaag is niet een heel koele dag voor Nederlandse begrippen (27 graden ambient). Kortom, het is prima te doen. Ik heb wel veel metaal zodat de schijven hun warmte makkelijk kwijtkunnen door middel van natuurlijke convectie.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Versie met ECC-geheugen en dual-core processor.

Ik draai zelf een dual-core i3 (oudere versie) op mijn download server en haal 450+ MB/s over de array met 6 x crappy 2 TB seagates.

#ProductPrijsSubtotaal
1Intel Core i3-4160 Tray€ 118,43€ 118,43
1ASRock Asrock E3C224-V+€ 176,50€ 176,50
3WD Green WD40EZRX€ 141,50€ 424,50
1Fractal Design Define R5 Zwart€ 103,95€ 103,95
1Scythe Mugen 4€ 35,95€ 35,95
1Fractal Design Dynamic GP-14 White blades, 140mm€ 12,93€ 12,93
1Kingston KVR1333D3E9SK2/16G€ 126,-€ 126,-
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 1.055,21

Acties:
  • 0 Henk 'm!

  • eXtink
  • Registratie: Februari 2009
  • Niet online
Hmm, ik vind het erg moeilijk om te kiezen voor een J1900 achtige CPU, aangezien deze mij toch niet krachtig genoeg lijkt om plex transcodes aan te kunnen. Ik kan ook geen ervaringen van andere vinden in combinatie met plex, maar als je me kan overtuigen dan graag!

Voor nu zou ik dan toch voor de volgende samenstelling gaan:
#ProductPrijsSubtotaal
1Intel Core i3-4170 Boxed€ 117,90€ 117,90
1ASRock H97M Pro4€ 85,-€ 85,-
3WD Green WD40EZRX€ 141,50€ 424,50
1Fractal Design Define R5 Zwart€ 103,95€ 103,95
1Scythe Mugen 4€ 35,95€ 35,95
1Fractal Design Dynamic GP-14 White blades, 140mm€ 12,93€ 12,93
1Crucial Ballistix Sport BLS2C8G3D1609ES2LX0CEU€ 87,95€ 87,95
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 925,13

Dus zonder ECC, aangezien mijn systemen die er naar toe gaan schrijven allemaal geen ECC hebben en dat ook niet in de toekomst gaan hebben denk ik. Ook heb ik er voor gekozen om te gaan voor 3x 4TB, zodat ik mijn 2TB deels kan gebruiken en niet te veel in mijn buidel moet tasten. Het gaat trouwens over redelijk recente 2TB schijven, namelijk de WD20EZRX. Dus daar zou dan volgens mij niet zo veel verschil mee moeten zijn met de 4TB varianten. Moederbord is volgens wat ik heb gelezen een relatief zuinig moederbord, net iets beter dan zijn ATX broer.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Dat je clients geen ECC hebben als argument gebruiken om je NAS niet van ECC te voorzien is niet snappen waarom je ECC op een NAS zou willen doen. Je moet het zelf weten, er zijn zat mensen die er voor kiezen om geen ECC toe te passen.

Edit: ik dacht al, hoe kom je aan deze onzin, maar dat komt omdat Cipher hierboven naar die discussie van een maand of twee terug linkte, om precies te zijn, zijn eigen post. :o

Dan drop ik deze even:

http://louwrentius.com/please-use-zfs-with-ecc-memory.html

Prima als je geen ECC doet, jouw systeem, jouw data, de kans is heel groot dat het goed gaat. Ik vind dat mijn post een eerlijker beeld geeft over ECC.

[ Voor 75% gewijzigd door Q op 12-08-2015 22:39 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
Verwijderd schreef op woensdag 12 augustus 2015 @ 20:59:


Bedenk wel dat ZFS RAID-Z meer dan normaal RAID zoals RAID5 nadeel ondervindt van fluctuerende latency. RAID5 kan op twee disks I/O doen en de overige drie disks ook gebruiken voor I/O. Dit gaat niet op bij ZFS RAID-Z omdat alle disks in elke I/O betrokken worden. Vandaar ook dat de IOps gelijk is aan één disk terwijl bij RAID5 de random read IOps bijna zo hoog als RAID0 kan zijn. ZFS RAID-Z lijkt op dit opzicht het meest op RAID3; de sectorsize wordt uitgesmeerd over alle disks, zodat alle writes exact passen (1-phase writes) en dus geen read-modify-write. Daarom heeft ZFS RAID-Z ook geen last van een 'RAID5 write hole'.
Allemaal waar, maar dat argument snijdt geen hout aangezien hij wel netjes VDEV's maakt met gelijke karakteristieken van disks, ik zeg ook niet dat hij alles losjes in een vdev moet smijten, maar aangezien hij zelf aangeeft dat hij ruimtemaximalisatie (binnen het normale natuurlijk) en toch wat wil uitbreiden is het maken van één pool met 2 VDEV's (VDEV van zijn oude 2TB's en een VDEV er langs van zijn nieuwe 4TB's) wel een mooie oplossing. Dan zijn de IO karakteristieken zelfs beter want meer VDEV = meer (random) IO...
[...]

Normale hardeschijven kunnen sector 87329765 beschrijven zonder dat dit gevolgen heeft voor de rest. SMR-schijven kunnen dit niet; ook de omliggende sectoren moeten worden overschreven. Hierdoor is de random write IOps totaal ingestort en kun je de schijven alleen effectief gebruiken als je 99%+ sequential I/O doet. Bovendien heb ik mijn twijfels over retentie en uBER - ik blijf weg bij SMR schijven en mogelijk dat PMR mijn laatste categorie hardeschijven is die ik zou aanraden.

Na SMR komt HAMR en dan is het ook afgelopen met mechanische opslagtechnologie. Dus het is de vraag of je SMR nog wel nodig hebt. Misschien kun je het gat tussen PMR en solid state storage ook dichten op een of andere manier.
Ik ga hier even afhaken en mijn meerdere erkennen, tot aan gewone conventionele HDD's kan ik mee, vanaf SMR, PMR en HAMR haak ik af. SMR weet ik nog ongeveer wat dat is, maar ook maar vaag...
[...]

Ja, maar bij 5 schijven is de capaciteit per disk vaak lager en dus ook lastiger om alles op één disk te krijgen. Bij een 3-disk RAID-Z met 6TB disks kan dit veelal wel.
Sorry, dat is onzin met dit soort kleine aantallen van disks en netto space, iemand met een array van 3 x 4TB gedraagt zich ook weer anders en krijgt zijn data even makkelijk of moeilijk op een single disks als iemand met 3 x 6TB...

Je waarschuwt mensen dan best ineens voor het grootste rotte nadeel van ZFS: als ze deftig en wel willen uitbreiden zijn ze veroordeeld tot het aanschaffen van een nieuwe set disks en al hun data over te zetten.
[...]

Ik draai in mijn 100% passieve serverkast waar in totaal zeven systemen in draaien mijn schijven op 38 tot 41 graden, en vandaag is niet een heel koele dag voor Nederlandse begrippen (27 graden ambient). Kortom, het is prima te doen. Ik heb wel veel metaal zodat de schijven hun warmte makkelijk kwijtkunnen door middel van natuurlijke convectie.
Dan ben ik eens benieuwd naar je setup(s)? Want daar hebben we *eigenlijk* toch nog niet veel van gezien? Ik heb 10 disks in een Fractal XL, ik moet er even voor liegen (of misschien weet FD dat nog) maar ik denk dat mijn disks ergens bijna tegen de 60°C zaten... Te warm voor mij...

Ik heb ook de Backblaze artikelen er nog eens op nagelezen, en daar is de conclusie:
Hard Drive Temperature Takeaways
Overall, there is not a correlation between operating temperature and failure rates. The one exception is the Seagate Barracuda 1.5TB drives, which fail slightly more when they run warmer.

As long as you run drives well within their allowed range of operating temperatures, keeping them cooler doesn’t matter.
Belangrijk stukje van die zin in het vet en het sleutelwoord vet en underline. Ik vind disks die naar het einde van hun operationele temperatuurbereik gaan veel "te" warm...

Over het ECC verhaal had ik nog niet op kunnen reageren (zat te lezen op de tablet), maar daar ben ik dezelfde mening toegedaan als Q...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Ik las nog even over die discussies met die VDEVs. Wat eXtink wil met 2 vdevs, dus de oude en de nieuwe disks in een VDEV, dat gaat prima werken. Sequentiele performance - en daar gaat het om - zal prima zijn.
ZFS zal netjes de data over de VDEVs verdelen. Let wel op: verlies van 1 vdev = verlies van de hele pool.
Als het 2x een RAIDZ wordt, lijkt me prima, zeker met de kleine aantallen drives.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
Q schreef op woensdag 12 augustus 2015 @ 23:56:
Ik las nog even over die discussies met die VDEVs. Wat eXtink wil met 2 vdevs, dus de oude en de nieuwe disks in een VDEV, dat gaat prima werken. Sequentiele performance - en daar gaat het om - zal prima zijn.
ZFS zal netjes de data over de VDEVs verdelen. Let wel op: verlies van 1 vdev = verlies van de hele pool.
Als het 2x een RAIDZ wordt, lijkt me prima, zeker met de kleine aantallen drives.
Word!

Dat is wel iets waar je stil bij moet staan eXtink, en dat is waar we ons iets te vaak op fixeren maar wat eigenlijk niet zoveel uitmaakt: je disks gaan ongelijk belast worden, maar space-wise gaan ze in verhouding belast worden... Als ik FD's disks niet had kunnen lenen had ik waarschijnlijk een tweede VDEV toegevoegd in RAIDZ aan mijn bestaande array...

Je VDEV met 8TB netto in totaal vs je VDEV met 4TB netto in totaal gaan dus in een verhouding 2/1 beschreven worden en omdat je 4TB disks een wat hogere datadichtheid hebben dan de 2TB's ga je daar relatief weinig van merken, ben wel eens benieuwd als je dan iostat's gaat posten...

[ Voor 5% gewijzigd door HyperBart op 13-08-2015 00:07 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Mijn 71 TB bestaat uit twee ongelijke RAIDZ2 VDEVs van 18 en 6 disks en je ziet ZFS netjes de juiste verhouding van I/O over de VDEVs verdelen, dus ik verwacht geen enkel probleem. Random I/O performance is voor thuis gewoon niet relevant. Alleen als je VMs enzo gaat draaien.

  • marcop82
  • Registratie: Maart 2013
  • Niet online
Verwijderd schreef op woensdag 12 augustus 2015 @ 20:27:
Ik ben dus juist tegen actieve koeling. Ik wil nooit meer een systeem maken met bewegende onderdelen - behalve de hardeschijven zelf maar die gaan er op een moment ook aan geloven....

Je kast zelf is van nature al 100% stil, tenzij je de (bijgeleverde) fans meetelt. Ik ben juist een groot voorstander van schijven passief koelen; dus absoluut geen ventilator op de schijf te laten blazen. Ik geloof dat dit juist kans op falen kan vergroten - wat wordt ondersteund door Google en BackBlaze-studies - en daarnaast is het totaal onnodig als je de juiste schijven kiest, zoals WD Green. Als je 3W idle doet dan heb je ook geen actieve koeling nodig. Je schijf wordt natuurlijk en uniform warm en koelt langzaam weer af. Actieve koeling kan voor fluctuaties in temperatuur zorgen en daarnaast ook de distributie van temperatuur minder uniform maken; zoals wanneer de onderzijde van de schijf veel harder wordt gekoeld dan de bovenzijde. Ten slot is passief koelen natuurlijk ook zuiniger, stiller en minder foutgevoelig.
Met een systeem met een zestal WD Green schijven ontkoppeld (want vibratie) in een aluminium frame met voldoende spatie hou ik het wel onder de 35-40°C in idle stand mét twee langzaam-draaiende 120mm fans. Als ik ga resilveren, gaat die temperatuur nog wel een 5-10°C hoger. Die fans draaien echter niet actief volgens load, maar gewoon stabiel, dus dan zie ik geen reden voor fluctuaties. Zover ik had begrepen zijn non-enterprise schijven vaak niet meer blij boven de 55°C, iets wat ik waarschijnlijk wel ga halen zonder actieve koeling.

Sowieso lijkt me een datacenter zoals bij Google of Backblaze met geairconditioneerde ruimte wel een verschil tov. een server-case of rack-case in een ruimte in de woning.
Verwijderd schreef op woensdag 12 augustus 2015 @ 20:59:
Ik draai in mijn 100% passieve serverkast waar in totaal zeven systemen in draaien mijn schijven op 38 tot 41 graden, en vandaag is niet een heel koele dag voor Nederlandse begrippen (27 graden ambient). Kortom, het is prima te doen. Ik heb wel veel metaal zodat de schijven hun warmte makkelijk kwijtkunnen door middel van natuurlijke convectie.
Geen idee hoe je dat doet, in de serverkast op werk met een paar actief gekoelde servers en storage is de ambient temp zonder airco al 38-41°C, vergelijk je het dan niet met een belachelijk lage load ?

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Wanneer je de NAS op een plek neer kunt zetten waar de actieve koeling niet storend is, is grootste nadeel wel weg. Helemaal passief gaat met IBM M1015 (en vergelijkbare server grade HBA en netwerk kaarten) in IT mode sowieso een uitdaging worden. Die server grade dingen zijn uitgelegd op actieve koeling.

  • The Lord
  • Registratie: November 1999
  • Laatst online: 00:02
BartNL schreef op donderdag 13 augustus 2015 @ 12:41:
Helemaal passief gaat met IBM M1015 (en vergelijkbare server grade HBA en netwerk kaarten) in IT mode sowieso een uitdaging worden. Die server grade dingen zijn uitgelegd op actieve koeling.
Dan zal er inderdaad zoiets op ge-mod moeten worden.

geeft geen inhoudelijke reacties meer


  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
@CiPHER, het zou leuk zijn als je wat informatie en foto's zou delen over je eigen 100% passieve setup!

Ik zie het wel als een special, om helemaal te draaien. Ik denk dat veel NAS bouwers prima ok zijn met een paar grote stille case fans om alles koel te houden.

Het wordt niet veel toegepast, maar - zelf promotie - je kunt dit script gebruiken om de case fans aan te sturen aan de hand van de temparatuur van je harde schijven. Zo weet je zeker dat de temparatuur van je schijven relatief constant blijft en dat de geluidsdruk alleen hoger wordt bij activiteit.

https://github.com/louwrentius/storagefancontrol

Verwijderd

Ik heb zelf mijn NAS actief gekoeld:
2x noctua in push/pull op de CPU (Xeon), op laagst mogelijke snelheid (met verloop kabel)
2x noctua 140mm boven in de kast , op laagst mogelijke snelheid (met verloop kabel)
1x noctua 120mm op de harddisk cage, op laagst mogelijke snelheid (met verloop kabel)
Ik heb nog een 120mm cooler liggen voor wanneer ik de tweede HD cage in gebruik neem.

Ik heb getest zonder de harddisk koelers en dat levert iets hogere, maar nog steeds geen te hoge temperaturen op. Alleen hoor ik geen verschil, dus heb ik die koelers maar standaard aangezet. Onder volle last blijft het hele systeem koel en is onhoorbaar.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
The Lord schreef op donderdag 13 augustus 2015 @ 14:23:
[...]
Dan zal er inderdaad zoiets op ge-mod moeten worden.
Afbeeldingslocatie: https://lh4.googleusercontent.com/-TT2tVflA7rc/U_eSbhRqlEI/AAAAAAAABOs/rGPzU8E8Ats/w800-h331-no/IMG_2165.jpg

of zoiets, eigen probeersel en praktisch onhoorbaar.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
Q schreef op donderdag 13 augustus 2015 @ 15:04:
@CiPHER, het zou leuk zijn als je wat informatie en foto's zou delen over je eigen 100% passieve setup!

Ik zie het wel als een special, om helemaal te draaien. Ik denk dat veel NAS bouwers prima ok zijn met een paar grote stille case fans om alles koel te houden.

Het wordt niet veel toegepast, maar - zelf promotie - je kunt dit script gebruiken om de case fans aan te sturen aan de hand van de temparatuur van je harde schijven. Zo weet je zeker dat de temparatuur van je schijven relatief constant blijft en dat de geluidsdruk alleen hoger wordt bij activiteit.

https://github.com/louwrentius/storagefancontrol
Hmmmm, moest jij daar niet nog wat werk aan verrichten beste Q? :7 })

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
HyperBart schreef op donderdag 13 augustus 2015 @ 16:44:
[...]

Hmmmm, moest jij daar niet nog wat werk aan verrichten beste Q? :7 })
Nou het lastige is dat ik geen manier heb om te testen met verschillende PWM targets. Dat was het issue toch?

Ik heb wel een klein ideetje: maak twee config files met verschillende PWM targets en draai twee instanties van het script. Nadeel is dat je 2x zo vaak een smart readout doet van je schijven.

Ik sta echter altijd open voor pull requests ;)

Edit: ik heb net wel een update gecommit waarbij de pwm device nu netjes via de config file kan worden ingesteld.

[ Voor 13% gewijzigd door Q op 13-08-2015 19:28 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Als je in een norco case 7200 rpm hgst drives niet actief koelt worden de wel 65 warm..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Hier ook last van. Heb 1*12cm, 2 * 14cm en 1 * 18-20cm (ofzo).
Mijn hitachi schijven worden met die extreme hitte (en onder load) iets van 60-61 graden.

Even niets...


Verwijderd

jacovn schreef op donderdag 13 augustus 2015 @ 22:16:
Als je in een norco case 7200 rpm hgst drives niet actief koelt worden de wel 65 warm..
Ja maar dat is ook nauwelijks te doen als je de schijven heel dicht op elkaar pakt. Dan ontkom je niet aan actieve koeling.

Hoe ik het gedaan heb is een houten kubus die iets van 80 centimeter hoog is, op wieltjes. Aan de binnenkant (wanden links/rechts maar ook onder en boven) heb ik allemaal moederborden zitten. Ik gebruik één voeding met voornamelijk PicoPSU voor de rest of de onboard DC-DC. Nadeel is wel dat als ik de hoofdserver afsluit (power down) de rest ook down gaan. Af en toe wel een ongelukje mee gehad. :X

Maar de schijven zelf heb ik onder zitten, en vastgeschroefd aan een metalen frame dat ik zelf heb geklust. Doordat de onderkant van de kubus/kast grotendeels open is, is er natuurlijke airflow van onder naar boven de kast. Die stroomt langs de schijven, althans dat was het idee. Ik weet niet wat de temps zouden zijn als ik het dicht zou maken. Dat kan ik nog eens testen.

Zal als ik wat meer tijd heb wel eens foto's maken, want het is eigenlijk best een leuk projectje geworden. Eigenlijk heb ik alle computerzooi (voeding/stroom/kabels/kvm/switch/schijven) nu in één kast zitten op wieltjes - enorm gaaf vind ik zelf. :)

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
marcop82 schreef op donderdag 13 augustus 2015 @ 10:23:
Geen idee hoe je dat doet, in de serverkast op werk met een paar actief gekoelde servers en storage is de ambient temp zonder airco al 38-41°C, vergelijk je het dan niet met een belachelijk lage load ?
Om het goed te doen is niet bijzonder moeilijk, om het zo te doen dat het er netjes uitziet, dat is wel weer iets heel anders, zeker als je de maten behoorlijk wilt houden.

Vriend van me is de enige waarvan ik weet dat hij het netjes heeft gedaan, in de studeer/PC kamer die een open verbinding heeft met de huiskamer, daar heeft hij een verticale koof/kast gebouwd van 2.4m x 35cm x 20cm, en die bekleed met dempingsmateriaal, met onder en boven een luchtspleet voor de convectie stroming.

Hij heeft een losse moederbord tray op de muur geschroefd, met daarop de mobo en als ik het goed heb deze koeler, en daar boven en onder een MDF rek gemonteerd voor iets van 50 of 60 HDDs, en het geheel is absoluut stil.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Verwijderd schreef op donderdag 13 augustus 2015 @ 23:55:
Ja maar dat is ook nauwelijks te doen als je de schijven heel dicht op elkaar pakt. Dan ontkom je niet aan actieve koeling.
ja en het zit horizontal, dus bijna geen convectie helaas.
Hoe ik het gedaan heb is een houten kubus die iets van 80 centimeter hoog is, op wieltjes. Aan de binnenkant (wanden links/rechts maar ook onder en boven) heb ik allemaal moederborden zitten. Ik gebruik één voeding met voornamelijk PicoPSU voor de rest of de onboard DC-DC. Nadeel is wel dat als ik de hoofdserver afsluit (power down) de rest ook down gaan. Af en toe wel een ongelukje mee gehad. :X
kubus, dus alle zijden zijn dan 80 cm ?

Dat zou voor mij betekenen dat ik mijn 19"rack moet draaien en dan de hot swap bays aan de onderkant moet plaatsen. Dan zal de convectie stroming wel beter worden, maar nog niet genoeg met 3 x 20 hdd's vlak bij elkaar.

Op zich aardig idee, ik zou graag een foto zien.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Wat performance tests met ZFS op een Microserver Gen8 G1610T.
http://louwrentius.com/zf...roserver-gen8-g1610t.html

Ook al gepost in het Microserver topic, maar voor hier ook wel leuk denk ik.

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 27-09 19:34
SanderH_ schreef op woensdag 25 februari 2015 @ 14:50:
Ik ben gewoon opnieuw begonnen en nu krijg ik bij:

sas2flsh.exe -o -f 2118P7.bin" volgende error:

code:
1
ERROR: Cannot flash IT Firmware over IR fimware
.

Ligt blijkbaar aan één van de bestanden die ik gebruik die "te nieuw" is volgens deze post

Ik probeer het wel ff met die oudere files.

EDIT: Hallelujah >:)

[afbeelding]

En ja, SAS-adres terug gewijzigd naar het originele. Bedankt voor de hulp FireDrunk & toelie ;)
Ik heb hem nu ook geflashed (volgens SanderH zijn blog), maar bij Boardname blijft hij op 6GBPS SAS HBA staan. Ook na een keer of 5.
Al het linkje geprobeerd, ook met die bestanden.

Kan dat wat kwaad dat 6GBPS SAS HBA? of moet er bij BoardName echt SAS-9211-8i komen te staan?

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • Dijkertje
  • Registratie: Juli 2008
  • Laatst online: 23-09 21:42

Dijkertje

F.K.A. 'Sokkiejjj'

Ik ben van plan om een NAS in elkaar te zetten. Mijn doel van deze NAS is dat hier backups van verschillende computers thuis (2x laptop, 2x desktop) op bewaard worden en het toegankelijk hebben van (gedownload) materiaal.
Ik ben een paar keer wezen kijken op youtube en op verschillende manuals, en ik zie door al die bomen niet geheel het bos meer...

Ik heb twee zelfbouw NAS build in mijn wenslijst staan, namelijk:
#1: Zo goedkoop mogelijk, mobo met minstens 6 SATA en 2x Intel NIC (Zonder ECC RAM)
#ProductPrijsSubtotaal
1Intel Celeron G1840 Boxed€ 34,50€ 34,50
1Gigabyte GA-H97N-WIFI€ 112,-€ 112,-
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Kingston ValueRAM KVR16LN11/8€ 42,-€ 42,-
1Seasonic M12II Evo 520W€ 57,95€ 57,95
Bekijk collectie
Importeer producten
Totaal€ 319,40


#2: Deze build met oog op uitbreiding in een later stadium (Met ECC RAM)
#ProductPrijsSubtotaal
1ASRock C2550D4I€ 305,71€ 305,71
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Crucial CT102472BD160B€ 60,50€ 60,50
1Seasonic M12II Evo 520W€ 57,95€ 57,95
Bekijk collectie
Importeer producten
Totaal€ 497,11


Ik ben van plan de volgende schijven te gebruiken:
#ProductPrijsSubtotaal
3Seagate NAS HDD, 3TB€ 112,52€ 337,56
Bekijk collectie
Importeer producten
Totaal€ 337,56


En ben van plan RaidZ te gebruiken, dus 1 HDD voor parity.

Wat vinden jullie van bovenstaande builds, en tevens harde schijven?
Welke build raden jullie mij aan?

[ Voor 0% gewijzigd door Dijkertje op 19-08-2015 15:43 . Reden: RaidZ ipv RaidZ2 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Te duur, te onzuinig, slechte schijven.

1) overweeg J1900 platform voor non-ECC
2) overweeg HP Microserver voor ECC
3) kies betere schijven zoals WD Green EZRX

Bovendien: weg met een ATX voeding! Je hebt drie schijven dus dan heb je geen ATX nodig. Dat is nou juist de lol van dit soort builds. Dus kies een DC-DC bordje of werk met PicoPSU. pricewatch: ASRock Q1900DC-ITX is een bordje met ingebouwd DC-DC voeding. Voor 100 euro ben je dan zo goed als klaar behalve behuizing, geheugen en hardeschijven.

In plaats van 3 schijven in RAID-Z kun je ook overwegen om WD 6TB schijven te kopen, en dan beginnen met twee. Heb je ook netto 6TB bruikbaar maar kun je later makkelijk uitbreiden naar 3-disk RAID-Z zonder dataverlies. Veel toekomstvaster en zijn superleuke schijven die tot 175MB/s kunnen dankzij de hogere datadichtheid (1200GB per platter).

Denk ik wel het overwegen waard. Je bespaart sowieso een hoop versus je huidige lijstje en dat zou ik dan eerder in de schijven zelf willen stoppen.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ik vraag me nog steeds het praktisch nut van ECC geheugen af als alle aanleverende partijen (de computers die backups maken) niet voorzien zijn van ECC geheugen. Dan ga je voorkomen dat je in je server bitjes omvallen in memory terwijl de bron al corrupte data aan kan leveren en dat nooit voorkomen zal worden. Voor thuis gebruik lijkt me dat niet heel relevant.

Welke hardware handig is hangt ook sterk af van de overige taken die het systeem moet uitvoeren. Is het puur data opslag heb je weinig CPU power nodig. Is het ook streams aanbieden via bijvoorbeeld Plex of andere taken uitvoeren dan heb je wellicht een zwaardere CPU nodig.

----------------------------------------

Zit er zelf nog over na te denken om mijn server van hardware te migreren. In mijn NAS zit nu een i5 3330 maar voor enkel ZFS, wat plugins en een MySQL database voor Kodi is dat aardig overkill. Merk je ook wel op de stroomrekening denk ik. Maar die CPU verkopen en dan iets anders terug kopen is ook niet gratis en voor je dat terug verdiend...

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:20
Het verschil qua idle tussen een dualcore en quadcore van Intel is verwaarloosbaar. Onder load zit er natuurlijk wel verschil qua verbruik, maar ook qua processorkracht.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Binnen dezelfde serie wel. Maar vergelijk je een Celeron/Pentium met een i5 zal die laatste idle volgens mij een stukje minder zuinig zijn. Daarom wellicht downgraden naar een zuinigere Celeron/Pentium quadcore.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Nee hoor, dat merk je amper. Dat verschil is minder dan 5W :) Misschien dat een stevige i7 iets meer gebruikt omdat deze vaak veel Cache hebben, maar Celeron's, Pentium's en i3's schelen echt maar super weinig.

Even niets...


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dan zal mijn ~50watt idle toch voor namelijk door de harde schijven komen vrees ik. Binnenkort maar eens nog een keer testen met de stroommeter er tussen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Tsurany schreef op woensdag 19 augustus 2015 @ 15:53:
Ik vraag me nog steeds het praktisch nut van ECC geheugen af als alle aanleverende partijen (de computers die backups maken) niet voorzien zijn van ECC geheugen. Dan ga je voorkomen dat je in je server bitjes omvallen in memory terwijl de bron al corrupte data aan kan leveren en dat nooit voorkomen zal worden. Voor thuis gebruik lijkt me dat niet heel relevant.
Gek dat bedrijven precies met dezelfde situatie zitten. En toch passen ze ECC geheugen toe.
Maar ja bedrijven daar gelden andere natuurkundige wetten dan thuis. :+

Acties:
  • 0 Henk 'm!

  • Cyleo
  • Registratie: December 2005
  • Laatst online: 23-09 20:17
Tsurany schreef op woensdag 19 augustus 2015 @ 16:16:
Dan zal mijn ~50watt idle toch voor namelijk door de harde schijven komen vrees ik. Binnenkort maar eens nog een keer testen met de stroommeter er tussen.
Spinnen ze wel down? Dat scheelt aanzienlijk in je verbruik.

Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op woensdag 19 augustus 2015 @ 17:30:
[...]


Gek dat bedrijven precies met dezelfde situatie zitten. En toch passen ze ECC geheugen toe.
Maar ja bedrijven daar gelden andere natuurkundige wetten dan thuis. :+
Bedrijven hebben doorgaans ECC op alle machines in hun serverpark. Consumenten thuis overwegen vaak enkel ECC voor hun ZFS server. Het argument dat ik gaf in het ECC voor thuisserver-topic is dat je dan maar beperkte bescherming hebt en eigenlijk ook vooral schijnzekerheid, omdat je nog steeds niet weet of iets corrupt is ja of nee.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
Q schreef op woensdag 19 augustus 2015 @ 17:30:
Gek dat bedrijven precies met dezelfde situatie zitten. En toch passen ze ECC geheugen toe.
Maar ja bedrijven daar gelden andere natuurkundige wetten dan thuis. :+
Dat is vrij simpel te verklaren, voor bedrijven is het relatief goedkoop om een server met ECC uit te voeren.

Stel je hebt 1 PC met crapy geheugen op 1000 PC, dan heb je kans dat minder dan 0.1% van je data dat corrupt is, hoewel het niet erg wenselijk is, is het een acceptabel risico.

Daar in tegen als een server met crapy geheugen hebt, is het risico een factor 1000 groter.

Een server met ECC uitvoeren kost 200~1000 euro, 1000 PC met ECC uitvoeren kost 150.000 euro.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Daarnaast, echte serverhardware zonder ondersteuning voor ECC is vrijwel afwezig. Alles in serverland is ECC, dus dat krijg je er eigenlijk standaard bij. Je betaalt er uiteindelijk wel voor; maar meer vanwege de productsegregatie - ze willen dat rijke zakelijke klanten gewoon meer dokken voor dezelfde hardware dan consumenten. Het is niet alsof ECC daadwerkelijk wat kost; één chipje meer op de 16 dus 1/16e duurder voor wat betreft het RAM geheugen. Dan zitten we op een paar dollar ofzo. Dat zijn de werkelijke kosten. Het is een 'politieke' feature die strategisch wordt ingezet; niet een objectief iets waar je meer voor betaalt omdat het ook echt meer kost om te fabriceren.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Q schreef op woensdag 19 augustus 2015 @ 17:30:
[...]


Gek dat bedrijven precies met dezelfde situatie zitten. En toch passen ze ECC geheugen toe.
Maar ja bedrijven daar gelden andere natuurkundige wetten dan thuis. :+
Het is een kwestie van keten consistentie. Van begin tot eind moet je de integriteit van je keten kunnen garanderen. Enkel ECC op je storage server helpt daar niet voldoende mee. Zolang er garbage aangeleverd wordt door een extern systeem zal ECC je niet helpen.
Je moet dus backup software hebben die verifieert of je bestanden goed weggeschreven worden op de storage server. Mocht dat corrupt weggeschreven worden door geheugen errors of transit errors moet je backup software dat controleren.
Dan zou je haast denken dat ECC geheugen op je bron systeem belangrijker is dan op je doel systeem.
Cyleo schreef op woensdag 19 augustus 2015 @ 17:44:
[...]

Spinnen ze wel down? Dat scheelt aanzienlijk in je verbruik.
Dat zou wel moeten, wellicht gaat daar iets mis.

[ Voor 11% gewijzigd door Tsurany op 19-08-2015 18:16 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Misschien is dit een beter voorbeeld.
Tsurany schreef op woensdag 19 augustus 2015 @ 15:53:
Ik vraag me nog steeds het praktisch nut van ZFS af als alle aanleverende partijen (de computers die backups maken) niet voorzien zijn van ZFS. Dan ga je voorkomen dat je in je server bitjes omvallen op disk terwijl de bron al corrupte data aan kan leveren en dat nooit voorkomen zal worden. Voor thuis gebruik lijkt me dat niet heel relevant.
ECC neemt Risico X weg.
ZFS neemt risico Y weg.
Geen van beiden nemen risico Z weg.

ECC en ZFS nemen risico Z niet weg, dus dan zijn ECC en/of ZFS niet zo relevant voor thuis.

Huh? Wat? :?

Bovenstaande illustreert waarom het gebrek aan ECC geheugen op je desktop geen goed argument is om geen ECC geheugen (of ZFS) toe te passen op een thuis NAS.

Ik wil niet zeggen dat je *dus* ECC *moet* toepassen, ik wil alleen illustreren waarom dit specifieke argument niet zo sterk is.

Of we draaien het om. >:)

Ik je heb zojuist het argument aangeleverd waarom je prima zonder ECC en ZFS kunt thuis.

:D

[ Voor 5% gewijzigd door Q op 19-08-2015 19:37 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik snap er geen ruk van eerlijk gezegd. ;)

Maar misschien kun je eens duidelijk uitleggen wat je bedoelt in het ECC geheugen voor zelfbouw ZFS NAS? topic? Dat lijkt me beter dan hier de discussie overnieuw voeren.

Ga in je verhaal dan ook in op de detectie van corruptie, die intact blijft zonder ECC geheugen. Want dat is het hele argument in de beter-ECC-op-je-workstation-dan-je-ZFS-server discussie.

Acties:
  • 0 Henk 'm!

  • Dijkertje
  • Registratie: Juli 2008
  • Laatst online: 23-09 21:42

Dijkertje

F.K.A. 'Sokkiejjj'

Verwijderd schreef op woensdag 19 augustus 2015 @ 15:45:
Te duur, te onzuinig, slechte schijven.

1) overweeg J1900 platform voor non-ECC
2) overweeg HP Microserver voor ECC
3) kies betere schijven zoals WD Green EZRX

Bovendien: weg met een ATX voeding! Je hebt drie schijven dus dan heb je geen ATX nodig. Dat is nou juist de lol van dit soort builds. Dus kies een DC-DC bordje of werk met PicoPSU. pricewatch: ASRock Q1900DC-ITX is een bordje met ingebouwd DC-DC voeding. Voor 100 euro ben je dan zo goed als klaar behalve behuizing, geheugen en hardeschijven.

In plaats van 3 schijven in RAID-Z kun je ook overwegen om WD 6TB schijven te kopen, en dan beginnen met twee. Heb je ook netto 6TB bruikbaar maar kun je later makkelijk uitbreiden naar 3-disk RAID-Z zonder dataverlies. Veel toekomstvaster en zijn superleuke schijven die tot 175MB/s kunnen dankzij de hogere datadichtheid (1200GB per platter).

Denk ik wel het overwegen waard. Je bespaart sowieso een hoop versus je huidige lijstje en dat zou ik dan eerder in de schijven zelf willen stoppen.
Die J1900 met DC is inderdaad interessant, die was ik nog niet tegengekomen. Ik had expres een volledig modulaire voeding genomen omdat ik wist dat ik sowieso niet alle kabels ging gebruiken en het dan alleen maar in de weg zit.
Met zo'n DC of PicoPSU zit er alleen het broodnodige op, maar wat ik mij dan wel afvraag: Hoe zit het met de 4-pin connector voor de CPU? Die zie ik nooit staan bij die PicoPSU (kan zijn dat ik gewoon niet goed kijk).

De reden waarom ik die Seagate "NAS" schijven wilde, was omdat dit NAS (ik dacht dat het relevant was aangezien ik er 3 wil, maar misschien inderdaad eerst beginnen met 2 en later een 3e voor parity erbij) schijven zijn.
Ik zat ook te kijken naar WD Red's, maar ik vind daar de prijs van te hoog. Is de WD Green EZRX serie dan geschikt voor 24/7 gebruik? Zijn dat deze: pricewatch: WD Green WD60EZRX
Dan ben ik toch duurder uit? Of raad je juist die 6TB met oog op mijn verzoek tot uitbreiding? Want ik zag dat dat Asrock J1900DC bord *maar* 4 SATA connectors heeft, waardoor ik effectief max. 18TB zou kunnen hebben met 1 6TB drive als parity, toch?
Nu denk ik niet dat ik ooit 18TB vol krijg, dus nu ik er over nadenk dan vind ik dat voorstel met 2 schijven van 6 best wel een goede.
Wat wordt er gevonden van bijvoorbeeld deze Seagate Archive 8TB drive: pricewatch: Seagate Archive HDD v2 ST8000AS0002, 8TB
Is dat ook een optie, of is die schijf een afrader? Het is de bedoeling dat de NAS 24/7 aan zal staan.

Dus als ik het goed begrijp heeft het weinig tot zowat geen zin om in de NAS ECC geheugen te gebruiken als de overige PC's in het netwerk ook geen ECC geheugen hebben?
In het geval van normaal RAM en RAM met ECC met een 8GB DDR3 stickje zit ongeveer € 20 euro verschil qua prijs.

Heeft het dan nut om wel alvast een NAS met ECC RAM te bouwen, en later als ik mijn eigen PC wil upgraden daar ook ECC ram in doet? Of is dat verschil zo verwaarloosbaar dat ik alleen me portemonnee aan het pesten ben?

Ik zal hoogstwaarschijnlijk mijzelf nog niet genoeg ingelezen hebben in een DIY NAS, maar behoort bestanden hosten (als in een game hosten voor een bepaald platform) en een website space?

Acties:
  • 0 Henk 'm!

Verwijderd

Dijkertje schreef op woensdag 19 augustus 2015 @ 20:03:
Met zo'n DC of PicoPSU zit er alleen het broodnodige op, maar wat ik mij dan wel afvraag: Hoe zit het met de 4-pin connector voor de CPU? Die zie ik nooit staan bij die PicoPSU (kan zijn dat ik gewoon niet goed kijk).
PicoPSU heeft wel een P4-stekker hoor; alleen de oudere 80W versie niet. De populairdere 120W en 150W versies wel. Merk op dat dit vermogen helemaal los staat van de power brick. Meestal worden de 120 en 150W versies van de PicoPSU gecombineerd met een 80W brick.
De reden waarom ik die Seagate "NAS" schijven wilde, was omdat dit NAS (ik dacht dat het relevant was aangezien ik er 3 wil, maar misschien inderdaad eerst beginnen met 2 en later een 3e voor parity erbij) schijven zijn.
'NAS' schijven is misleidend; want bijna alle NAS hebben geen TLER nodig. Dus dit is gewoon een leuke verkooptechniek om wat extra cashflow te genereren voor een supersimpel software hack - want TLER is een vieze hack voor smerige ouderwetse RAID implementaties. Dat heb je niet nodig voor ZFS - je kunt ook met OS instellingen hetzelfde bereiken. Vroeger was TLER gewoon gratis - ook voor WD Green. Vanaf halverwege de EADS-serie is de feature betaald geworden - altijd leuk als je gebakken lucht kunt verkopen voor een goede prijs. ;)
Is de WD Green EZRX serie dan geschikt voor 24/7 gebruik?
Alle schijven zijn geschikt voor 24/7 gebruik. Een mechanische hardeschijf wil je het liefst zo stabiel houden als maar kan. Dus één keer opspinnen in een vibratievrije omgeving waar de temperatuur nooit fluctueert, is ongeveer de best denkbare omgeving voor een mechanische schijf.

Het is juist andersom: de serverschijven zijn niet geschikt voor herhaaldelijk opspinnen - die moeten juist als 24/7 gebruikt worden. Het aantal start/stop-cycli van serverschijven is ver beneden dat van consumentenschijven en kunnen dus veel sneller stuk gaan als ze gebruikt worden zoals consumenten hun schijven gebruiken: vaak op en downspinnen, of gebruik van spindown, etc.
Zijn dat deze: pricewatch: WD Green WD60EZRX. Dan ben ik toch duurder uit?
Initieel wel iets omdat je met 50% overhead van de mirror zit. Voordeel is wel dat je veel beter kunt uitbreiden. En je bent veel stiller uit, en je bent veel zuiniger uit. Want Seagate is helemaaaal niet zuinig. Mijn Seagate 7200.14 verbruiken bijna het driedubbele ook dankzij de BGMS waardoor de schijf haast nooit idle is. Allemaal dingen die je absoluut niet nodig hebt voor ZFS.
Wat wordt er gevonden van bijvoorbeeld deze Seagate Archive 8TB drive: pricewatch: Seagate Archive HDD v2 ST8000AS0002, 8TB
Is dat ook een optie, of is die schijf een afrader?
Dit is een heel bijzondere schijf - namelijk een SMR-schijf. Deze is heel slecht in random writes en ik raad je sterk aan een 'echte' PMR-schijf te nemen. Dergelijke schijven gaan richting de performancekenmerken van tapestreamers: heel lang zoeken naar de juiste plek maar daarna kun je grote blokken data wel redelijk stouwen. Maar door de metadata van een filesystem heb je altijd wel random access. Ik raad ze in elk geval sterk af - de prijs zou 30-40% moeten zakken voordat ik ze zelf zou overwegen en dan alleen nog maar voor specifiek gebruik.
Dus als ik het goed begrijp heeft het weinig tot zowat geen zin om in de NAS ECC geheugen te gebruiken als de overige PC's in het netwerk ook geen ECC geheugen hebben?
Je hebt de risico's maar deels afgedekt als je alleen ECC op je ZFS server hebt. Je kunt het dan nog beter andersom doen, omdat je op je ZFS server er uiteindelijk altijd achter komt of er corruptie heeft plaatsgevonden, daar heb je geen ECC voor nodig. Wel verlies je bij een non-ECC systeem de zekerheid van End-to-End Data Integrity. Dat betekent zoveel als dat ZFS nooit aan je applicaties foutieve data zou leveren. Die zekerheid ben je kwijt zonder ECC. Als je backups doet, doe dat dan via ZFS send/receive, want dan blijft overeind dat je bitflips door ECC vroeg of laat zult ontdekken en met behulp van snapshots kun je dan nog in het verleden een goede versie van dat bestand terughalen.

Kortom, ZFS kan prima zonder ECC mits je zonder End-to-End Data Integrity kunt leven.
In het geval van normaal RAM en RAM met ECC met een 8GB DDR3 stickje zit ongeveer € 20 euro verschil qua prijs.
Maar het verschil tussen J1900 en een ECC-enabled oplossing kost ongeveer het dubbele van het hele systeem. Daar zit hem de prijs, niet in de DRAM-repen zelf.
Ik zal hoogstwaarschijnlijk mijzelf nog niet genoeg ingelezen hebben in een DIY NAS, maar behoort bestanden hosten (als in een game hosten voor een bepaald platform) en een website space?
Ik mis iets in je zin; behoort het tot de mogelijkheden is dat je vraag? Je kunt allerlei addons installeren. Maar je NAS ook toegankelijk maken voor het internet - al is dat alleen een website of wat dan ook - vind ik absoluut not done. Gebruik virtualisatie of bouw een 2e systeem daarvoor. Je wilt niet dat je NAS met al je persoonlijke data gehackt wordt.

[ Voor 3% gewijzigd door Verwijderd op 19-08-2015 20:21 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Verwijderd schreef op woensdag 19 augustus 2015 @ 20:20:
Kortom, ZFS kan prima zonder ECC mits je zonder End-to-End Data Integrity kunt leven.
Dat is ook wat zwart-wit natuurlijk. Als jouw backup software de bestanden op de backup locatie (ZFS server) verifieert dan is het niet erg als er binnen de ZFS server wat om valt. Immers als dat gebeurt zal je backup software dat detecteren.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Dijkertje
  • Registratie: Juli 2008
  • Laatst online: 23-09 21:42

Dijkertje

F.K.A. 'Sokkiejjj'

Dank voor de opheldering.

Dan weet ik dat ik dus niet de 80W moet nemen, maar de 120W of de 150W. Ik neem aan dat 120W met de 80W power brick toch meer dan genoeg moet zijn? Is dat dan ook nog het geval als ik in de toekomst 4x van die 6TD WD Green EZRX schijven heb, of kan ik dan beter *alvast* de 150W versie daarvoor aanschaffen?

Ik ben er nu dus ook van overtuigd dat ik dus geen speciale NAS schijf nodig heb. Die 8TB "Archive" van Seagate neem ik ook niet meer in overweging.

Ik denk dat ik inderdaad voor een J1900 gebaseerd systeem ga zonder ECC geheugen.
Dan zou ik op onderstaande uitkomen:
#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 101,49€ 101,49
2WD Green WD60EZRX€ 234,96€ 469,92
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Crucial CT102464BF160B€ 40,50€ 40,50
Bekijk collectie
Importeer producten
Totaal€ 684,86


Ik neem aan dat ik dan voor dat J1900DC bord nog wel een DC adapter nodig heb. Waar kan ik die het beste vinden/halen? Met mijn zoekopdrachten naar 'DC adapter' kom ik niet ver.

Wat betreft toegankelijk maken tot het internet voor server / website hosting. Dat was inderdaad mijn vraag maar had niet doorgedacht dat dat wel eens gehackt kon worden. En dan is het inderdaad niet wenselijk om dat op hetzelfde systeem te hebben. Dat wordt een projectje voor later.

[ Voor 4% gewijzigd door Dijkertje op 19-08-2015 21:02 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Afbeeldingslocatie: http://static.tweakers.net/ext/f/9i3jVZLUSIbufUnjkB4DvLha/medium.jpgAfbeeldingslocatie: http://static.tweakers.net/ext/f/S3Qv3R6pZ4H8hqXmcBcFxNQ8/medium.jpg

Het is bijna klaar, fans moeten nog vervangen worden met 92mm modellen en een extra rek boven de voeding zal nog één 3.5" en 3x 2.5" dragen hopelijk. Ik wacht nog op kortere schroefjes om die stomme zwarte spacer te verwijderen van de Intel 520s.
  • 18x intel 520 60G
  • 4x Crucial m4 128G
  • 5x Velociraptor 250G
  • 4x Velociraptor 150G
  • 2x Intel x25-e 32G
  • 9x Various 2TBs

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Een paar jaar geden was het geweest: wow.. liefst negen 2TB schijven. Nu komen ze in de bak met nonames en namen de SSDs de stage. Ziet er leuk uit. Maar wel een opmerkelijke set zo, hoe gaat dit in de praktijk (samen)werken?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Dijkertje schreef op woensdag 19 augustus 2015 @ 20:50:
Dan weet ik dat ik dus niet de 80W moet nemen, maar de 120W of de 150W. Ik neem aan dat 120W met de 80W power brick toch meer dan genoeg moet zijn?
Even voor de duidelijkheid: je hebt géén PicoPSU nodig als je voor dat DC bordje gaat. Daar zit al een soort PicoPSU op - oftewel een DC-DC voeding. Een PicoPSU is iets wat je op een ATX-stekker plaatst en wat als normale voeding dienst doet. In beide gevallen (PicoPSU en mobo met ingebouwde DC-DC) heb je nog wel een power brick nodig. En die heb je al vanaf 16 euro: pricewatch: Jetway Power adapter 80W.

Dus gewoon dat moederbord + die power brick is voldoende. Een 80W power brick kan tijdelijk voor het opspinnen wel meer leveren. In de praktijk zal 20-30% overschrijding prima kunnen - het is volgens mij vooral thermisch een limiet dus het ding kan oververhit raken. Maar die 8 seconden opspinnen gaat daar niet voor zorgen; daarna valt het verbruik weer terug naar 10 - 40 watt ofzo.

Reken 12W tot 16W spinup per schijf, plus 10W voor het moederbord. Dan kun je zeker 5 schijven opspinnen. En als je dus over de 80W gaat nog meer. Ik denk dat 6 prima moet kunnen. Maar bedenk dat dat nieuwe schijven zijn - ouderwetse schijven kunnen tot 33W spinup verbruiken dus dat telt dubbel. Dus niet denken ik gooi er ook nog drie oude schijfjes van 500GB elk - die verbruiken juist véél meer.

Zou je je systeem gebouwd hebben, is het ook leuk een foto hier in dit topic te delen. Vinden we ook leuk om te zien. :)

Acties:
  • 0 Henk 'm!

  • Dijkertje
  • Registratie: Juli 2008
  • Laatst online: 23-09 21:42

Dijkertje

F.K.A. 'Sokkiejjj'

Verwijderd schreef op woensdag 19 augustus 2015 @ 21:25:
[...]

Even voor de duidelijkheid: je hebt géén PicoPSU nodig als je voor dat DC bordje gaat. Daar zit al een soort PicoPSU op - oftewel een DC-DC voeding. Een PicoPSU is iets wat je op een ATX-stekker plaatst en wat als normale voeding dienst doet. In beide gevallen (PicoPSU en mobo met ingebouwde DC-DC) heb je nog wel een power brick nodig. En die heb je al vanaf 16 euro: pricewatch: Jetway Power adapter 80W.

Dus gewoon dat moederbord + die power brick is voldoende. Een 80W power brick kan tijdelijk voor het opspinnen wel meer leveren. In de praktijk zal 20-30% overschrijding prima kunnen - het is volgens mij vooral thermisch een limiet dus het ding kan oververhit raken. Maar die 8 seconden opspinnen gaat daar niet voor zorgen; daarna valt het verbruik weer terug naar 10 - 40 watt ofzo.

Reken 12W tot 16W spinup per schijf, plus 10W voor het moederbord. Dan kun je zeker 5 schijven opspinnen. En als je dus over de 80W gaat nog meer. Ik denk dat 6 prima moet kunnen. Maar bedenk dat dat nieuwe schijven zijn - ouderwetse schijven kunnen tot 33W spinup verbruiken dus dat telt dubbel. Dus niet denken ik gooi er ook nog drie oude schijfjes van 500GB elk - die verbruiken juist véél meer.

Zou je je systeem gebouwd hebben, is het ook leuk een foto hier in dit topic te delen. Vinden we ook leuk om te zien. :)
Bedankt voor de power brick link. :)
Worst case scenario zal dan 16W x 4 = 64W aan 4 HDD's en ~ 10W mobo. Dan zou ik net onder de 80W zitten, en zoals je zei kan die even over die 80W heen.
Ik ben van plan alleen die 2x 6TB drives van WD te gebruiken en die wellicht in de toekomst tot max 4x 6TB uitbreiden. Denk dat ik voorlopig met een enkele 6TB (aangezien de ander als parity geld) aardig uit te voeten moet kunnen.

Ik zit nog wel te twijfelen over de behuizing. Bestaat er een kleine behuizing dan de Fractal Node 304 die minstens 4x 3,5" schijven kan vestigen? Ik heb momenteel gekeken naar een BitFenix Colossus Mini-ITX, maar zo bijzonder vind ik die kast niet.

Ik zal, nadat ik mijn salaris deze week of volgende week ontvangen heb, de spullen bestellen en zal het eindresultaat zeker showen! :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Verwijderd schreef op woensdag 19 augustus 2015 @ 19:48:
Ik snap er geen ruk van eerlijk gezegd. ;)

Maar misschien kun je eens duidelijk uitleggen wat je bedoelt in het ECC geheugen voor zelfbouw ZFS NAS? topic? Dat lijkt me beter dan hier de discussie overnieuw voeren.

Ga in je verhaal dan ook in op de detectie van corruptie, die intact blijft zonder ECC geheugen. Want dat is het hele argument in de beter-ECC-op-je-workstation-dan-je-ZFS-server discussie.
Ik denk dat je doet alsof, maar Ik zal de variabelen even invullen.

ECC geheugen beschermt tegen data corruptie door rot werkgeheugen (risico X)
ZFS beschermt tegen data corruptie door rotte harde schijven (risico Y).

Geen van beide technologieën beschermt tegen client-side corruptie van data die vervolgens al corrupt wordt aangeleverd aan de ZFS + ECC NAS (risico Z).

Dat ECC en ZFS niet beschermen tegen risico Z maakt ECC en ZFS niet minder waardevol. Want ze beschermen wel tegen andere risico's (X en Y).

Er werd als argument aangevoerd dat ECC niet beschermt tegen data corruptie op je desktop/laptop (bron, Risico Z) en dat dit ECC daarom niet zo waardevol maakt voor thuis.

Maar dat is hiermee wel weerlegd.




Het is waar dat data corruptie door rot werkgeheugen indirect door ZFS kan worden opgemerkt.

In die zin is ZFS de kanarie in de kolenmijn.
An allusion to caged canaries (birds) that miners would carry down into the mine tunnels with them. If dangerous gases such as carbon monoxide collected in the mine, the gases would kill the canary before killing the miners, thus providing a warning to exit the tunnels immediately.
Het bekende probleem van de kanarie in de kolenmijn is dat die kanaries nog wel eens het loodje leggen en zo is het ook met ZFS. Door rot geheugen kan je file systeem corrupt raken. Dit geldt voor ieder file systeem en ook voor ZFS, al het gechecksum ten spijt.

Bovendien vergeten mensen thuis nog wel eens op de kanarie te letten. Ik schat zelf dat 90% van de DIY NAS bouwers vergeet om actieve alarmering te configureren, zoals dat een email wordt verzonden als er data corruptie plaats vindt of een disk stuk is.

Daarom is het hele concept van ZFS als een indirecte methode om rot geheugen op te merken niet zo veilig en praktisch.

Als thuis gebruiker is voorkomen veel beter dan genezen. Maar dat kost wel wat extra geld.

Acties:
  • 0 Henk 'm!

  • Houtenklaas
  • Registratie: September 2007
  • Laatst online: 22:45
Zucht, wat een leuk leesvoer toch allemaal ...

Iemand ervaring met:
ASRock C2550D4I (pricewatch: ASRock C2550D4I)
Silverstone DS380 (pricewatch: Silverstone DS380)

Eerste is een moederbord met ingebakken (Quad) processor, er is ook een Octo versie. 12Sata pluggen onboard met bijbehorende kast waar een bats schijven in kunnen. 2X 1Gb ethernet en KVM over IP. Ik ben met name benieuwd naar de performance van dat ding, daar kom ik nog betrekkelijk weinig over tegen op het net.Hij lijkt vergelijkbaar met een i3 qua performance.

Niet heel goedkoop, maar zeer energiezuinig (TDP 14W)

[ Voor 3% gewijzigd door Houtenklaas op 19-08-2015 21:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nu gaan voor Avoton? Meeeeh.... kijk dan naar Xeon-D ! 2x 10Gbps erbij. :9 :9~

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Xeon-D is awesome maar prijs zal wel dubbel het bord van de Avoton zijn :(
Is Xeon-D eigenlijk al verkrijgbaar?

Zelf heb ik geroepen dat het Avoton bord best leuk is voor een dedicated NAS. Voordelen zijn zuinig, on-board controller en ECC.

Maar performance is niet echt super. Een beetje pentium blaast het ding op papier weg als ik het zo zie.

https://docs.google.com/s...LHkrg/edit#gid=1721926988

Het is een beetje wat je zoekt. Voor puur een NAS lijkt het mij nog steeds prima.

[ Voor 68% gewijzigd door Q op 19-08-2015 22:20 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:00
analog_ schreef op woensdag 19 augustus 2015 @ 20:56:
[afbeelding][afbeelding]

Het is bijna klaar, fans moeten nog vervangen worden met 92mm modellen en een extra rek boven de voeding zal nog één 3.5" en 3x 2.5" dragen hopelijk. Ik wacht nog op kortere schroefjes om die stomme zwarte spacer te verwijderen van de Intel 520s.
  • 18x intel 520 60G
  • 4x Crucial m4 128G
  • 5x Velociraptor 250G
  • 4x Velociraptor 150G
  • 2x Intel x25-e 32G
  • 9x Various 2TBs
Holy crap, daar ben ik ook wel even benieuwd naar (wat Q vroeg). Hoe werkt dat allemaal samen? Je hebt daar dan OOK nog eens 9 x 2TB in zitten? Ik was al trots dat ik 10 disks in een desktop-case heb gekregen met 6 SSD's. Jij triple't dat hele verhaal nog eens even...

Wat ik vooral afvraag, wat doe je in hemelsnaam met die stroom-slurpende, trage (ivt SSD's) Velociraptors als je zo een sloot SSD's en dikke bulk-storage in de vorm van je 9 x 2TB's hebt? :/

Acties:
  • 0 Henk 'm!

  • Houtenklaas
  • Registratie: September 2007
  • Laatst online: 22:45
Dankjewel voor de link, in mijn speurtocht deze niet gevonden. Daar word ik toch wel wat verdrietig van. Maar dat is de trade-off. Met een TDP van 14W kan je ook niet de hoofdprijs verwachten.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
De vraag is toch wel, wil je een NAS of stiekem een server? Een Pentium / i3 / i5 ... is sneller, absoluut. Maar uiteindelijk moet je de Avoton dan tegen echte NAS systemen zetten. Synology heeft toch in de simpelere opstellingen doodleuk een ARM hangen. In de grotere opstellingen ook nog geen race monsters van processoren.
Kijk je puur naar wat Avoton je geeft dan is het best leuk: passief gekoeld, twee nics, ecc, vier geheugenbanken op ITX en een lading aan SATA poorten. Wat dat betreft is dat gewoon echt zonder discussie een NAS. Mijn bezwaren zijn dat het verbruik toch ietwat lijkt te vallen en vooral de prijs. Maar als ik echt puur een schaalbare NAS zou willen dan is dit een winnaar.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
HyperBart schreef op woensdag 19 augustus 2015 @ 22:21:
[...]

Holy crap, daar ben ik ook wel even benieuwd naar (wat Q vroeg). Hoe werkt dat allemaal samen? Je hebt daar dan OOK nog eens 9 x 2TB in zitten? Ik was al trots dat ik 10 disks in een desktop-case heb gekregen met 6 SSD's. Jij triple't dat hele verhaal nog eens even...

Wat ik vooral afvraag, wat doe je in hemelsnaam met die stroom-slurpende, trage (ivt SSD's) Velociraptors als je zo een sloot SSD's en dikke bulk-storage in de vorm van je 9 x 2TB's hebt? :/
Ik heb het nu toevallig voor weinig/werk. Ze zijn wel leuk consistent. De 2x 5.12" naar 2.5" heeft bij elkaar maar 8 slots dus dat paste niet netjes met de SSDs dus besloten het for now zo te houden en dan af te slanken (velociraptors te dumpen, 5.12" naar 8x2.5" halen) zodra uitgespeeld.

Er hangen LSI controllers achter, ZFS stack is nu illumOS kernel en dan IB naar buiten toe. Er is ruimte voor een full-ATX bord, EATX niet meer dus eventueel meer PCIe lanes indien gewenst via single e5. Nu is het e1270, x9scmf, 16gb. Voornamelijk collecties van pair of mirrors en enkele raidz waar 5/9 stuks. Ook nog aan het overwegen om naar BSD te gaan. DIPM en spindown ondersteuning zouden een pre zijn naast een moderne ZFS en IB stack (en zfs-on-root maar daar geef ik weinig om).

Het is echter van lange adem want de 9201 fw was plots volledig haywire gegaan na p20 vanuit linux (was dat laatste semi-vergeten omdat het zo vlot ging). Niet zo fijn dus ik wacht nu op een flashdump om hem terug tot leven te brengen :(

[ Voor 9% gewijzigd door analog_ op 19-08-2015 23:50 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 22:00
Dadona schreef op woensdag 19 augustus 2015 @ 23:33:
De vraag is toch wel, wil je een NAS of stiekem een server? Een Pentium / i3 / i5 ... is sneller, absoluut. Maar uiteindelijk moet je de Avoton dan tegen echte NAS systemen zetten. Synology heeft toch in de simpelere opstellingen doodleuk een ARM hangen. In de grotere opstellingen ook nog geen race monsters van processoren.
Kijk je puur naar wat Avoton je geeft dan is het best leuk: passief gekoeld, twee nics, ecc, vier geheugenbanken op ITX en een lading aan SATA poorten. Wat dat betreft is dat gewoon echt zonder discussie een NAS. Mijn bezwaren zijn dat het verbruik toch ietwat lijkt te vallen en vooral de prijs. Maar als ik echt puur een schaalbare NAS zou willen dan is dit een winnaar.
Daar ben ik het wel mee eens. En als je optelt wat je krijgt voor het bordje, dus moederbod, cpu en HBA in een, dan is zo'n avoton best een zinnige optie.

Wil je met Plex real-time 1080p trans/encoden -> niet de beste optie.




Op het werk las ik laatst even wat meer over 3PAR.
Al die moderne SANS kunnen gewoon auto tiering doen. Je neemt een zooi SSDs, SAS en SATA disks en gooit dat op een hoop. De SAN verdeeld dan wel de data over de juiste media afhankelijk van wat 'hot' is or 'not'.

Naar mijn weten is er in open source land helemaal niets dat dit ook mogelijk maakt, of zit ik er naast?

[ Voor 15% gewijzigd door Q op 20-08-2015 01:40 ]


  • grun93
  • Registratie: April 2004
  • Laatst online: 05:48
Ik niet, maar Brian wel, en hij heeft er een mooi verslag over geschreven.
Pagina: 1 ... 188 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.