Acties:
  • +1 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 26-09 12:40
Sorry CiPHER, ben het niet altijd eens met Q, maar hoewel ik zelf op de Xeon-D zit te wachten, is de aanschaf zeer afhankelijk van de prijs, en de berichten tot nu toe zijn dat die niet mals zijn.

En ja voor mij is 10Gbit een reden om over het bordje na te denken, maar zelfs hier op het DIY raid NAS forum draadje denk ik dat niet meer dan 0.1% van de bezoekers/lezers, 10Gbit hebben.

Jouw meestal prima advies is deze keer wel erg van slag, Q mag het dan wel hard hebben gezegd, maar ik ben het redelijk met eens.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Je zit er zelf op te wachten? Waar ben je het dan precies mee oneens? :)

Want ik denk dat ik niet de enige ben die 10G zou willen voor mijn ZFS thuis NAS. En nee 'nodig' heb ik het niet. Maar wel zonde dat je intern 1GB/s kunt stoken maar het netwerk al heel lang op gigabit wordt gebottlenecked. De Intel X540 is stevig aan de prijs. Als xeon-D inderdaad 850 euro zou kosten, vind ik dit best het overwegen waard. Zeker als hij nu een duur Avoton bordje van bijna 500 euro zou overwegen, is het toch niet heel vreemd dat ik ook de optie van Xeon-D opper? Net iets meer centen en je krijgt ook gelijk het allerbeste.

Wat zijn precies de argumenten tegen 10G danwel Xeon-D? Uiteraard is het een persoonlijke afweging. Maar de beschikbaarheid lijkt mij het grootste obstakel. Niet eens de prijs, als hij 450 euro over heeft voor Avoton, dan valt Xeon-D ook te bespreken lijkt me.

Deze Canadese webshop zou hem leveren voor omgerekend 849 euro. Dus dat komt aardig overeen. Ik zit er eigenlijk wel serieus over te denken voor mijn volgende build. Je krijgt er een hoop bij. En natuurlijk superzuinig alles geïntegreerd:
  • Mini-ITX formaat met vier DIMM slots :9
  • 8 cores / 16 threads op 45W :9~
  • 2x Intel 10G ethernet geleverd door de SoC-chip zelf dus zit in het 45W TDP budget. :*)
  • onboard DC-DC power supply - geen ATX voeding nodig :z
  • 64GiB DDR4 ECC UDIMM :Y
  • IPMI B)
  • 6x SATA/600 :7
  • PCI-express 3.0 x16 dus 16GB/s expansion slot 8)
Dit is toch gewoon de natte droom van elke ZFS NAS bouwer?! Ik snap jullie niet zo eigenlijk.. Ik denk er eigenlijk serieus overna als ik dit zo lees. Ben ik dan de troll hier op GoT?

[ Voor 33% gewijzigd door Verwijderd op 08-09-2015 01:25 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
@CiPHER, dat het Xeon-D platform de droom van de bad-ass storage bouwer is, staat niet ter discussie en met die notie ben ik het 100% eens.

Maar het platform is bijna *50%* duurder dan het Avoton bord en 10Gbit in een enkele client krijgen kost je ook zo 300+ euro. En dan komt de extra HBA er nog bij, want de Avoton heeft een hoop sata/sas on-board. Dat gaat een hele andere kant op. Het sluit helemaal niet aan bij de wensen van novastorm76.

Dat jij & ik het platform misschien voor onszelf zouden overwegen, is een hele andere discussie.

Zoals Player-x schrijft, Xeon-D zal door de verwachte verkoop prijs waarschijnlijk een niche-product worden voor de 0.1% die een NAS wil bouwen die dat soort performance waardig is.

Ik vind het trouwens jammer om te lezen dat je je eigen build(s) bewust niet in het 'showoff' topic laat zien. Volgens mij kunnen wij nog helemaal nergens op GoT jouw systemen bewonderen en dat is best jammer. Het topic heet 'show-off' maar het is helemaal niet een kijk-mijn-dikke-auto-ik-ben-milionair topic. Mensen die posten worden 'gedwongen' om aan eisen te voldoen die als doel hebben dat andere mensen er wat van kunnen opsteken. Delen van informatie.

Acties:
  • +2 Henk 'm!

Verwijderd

Oeeeh 50% duurder! :P Dat valt toch wel mee? Als je toch bezig bent, dan gelijk goed. Zo denk ik in elk geval.

Dat is toch het hele doel van dit forum? Gedachten en inzichten uitwisselen? Het is uiteraard aan novastorm welke route hij uiteindelijk kiest. Maar dan heeft hij een overzicht wat er te kiezen valt. Volgens mij is dat alleen maar in zijn voordeel. En kiest hij uiteindelijk voor een 'gewone' Xeon setup, dan is dat een weloverwogen besluit na alles opties te hebben verkend. Inderdaad wel een stuk goedkoper want dat is ook nog een stukje goedkoper dan Avoton en heeft hij toch vt-d wat voor ESXi toch wel een must is natuurlijk.

Ik snap alleen niet waarom ik zo word afgebrand door het opperen van de Xeon-D optie. Dat lijkt mij echt wel het overwegen waard als je toch veel geld gaat uitgeven. Anders vind ik de meerprijs t.o.v. J1900 weer minder prijs/kwaliteit-verhouding hebben. J1900 is leuk instap, Xeon-D weer het andere uiterste. Ik vind - héél persoonlijk! - de tussenstappen wat minder interessant. Maar kan prima zijn dat deze tussenstap uiteindelijk wel de beste keuze is voor novastorm. So be it!

En hoeveel mensen hebben een C2750 als thuis NAS? 0,3 procent misschien. Maar dat is toch geen argument om het niet te mogen aandragen als optie? Zeker als iemand met een redelijk budget komt en het zelfs al besteld had, is de meerprijs van Xeon-D echt niet absurd ofzo. We praten niet over een thuis NAS van 6000 euro, dat is andere koek. Dan had ik je beter begrepen.

En ja, je mag best weten dat ik dat 'showoff topic' (de naam zegt het al) best wel patserig vind. Ook het sorteren op grootte. Het komt toch over als 'wie heeft de langste penis'. Interessanter zou ik vinden: hoe zuinig is je setup in absolute zin of juist hoeveel watt per TB opslag standby, zonder spindown. Dat soort dingen kun je ook op sorteren. Het verhogen van de vereiste minimum grootte van 10TB naar 20TB, omdat 10TB te casual werd, tsja.. dat bevestigt alleen maar mijn gedachtes hieromtrent.

Daarom dat ik het zelf anders wilde doen in het nieuwe zelfbouw topic. Iedereen is welkom om zijn build in een lijstje te stoppen. Ook zuinigheid en speciale features kunnen hier een vermelding krijgen. Passief gekoeld, kleine afmeting, speciale schijven (de 2,5" HDD build van Zware Unit bijvoorbeeld) enzovoorts. Genoeg om interessante vergelijkingen te maken. Niet alleen 'wie heeft de grootste' - dat is niet mijn ding.

Dat gezegd, ik respecteer andere meningen prima hoor. Maar je zult mijn build er niet snel aantreffen. Geeft mij niet een fijn gevoel: 'ik wil er ook bij horen!!'. Sowieso heb ik vaak een andere insteek dan jullie, passief gekoeld bijvoorbeeld is een beetje mijn ding. Zoiets kan juist leuk zijn voor anderen om ook eens te overwegen. Misschien uiteindelijk van 'leuk maar niet mijn ding' maar dan weet je toch wat er te kiezen valt. Daar is dit forum voor, lijkt me. :)

Je hebt wel een punt dat ik zelf weinig openbaar maak over mijn builds (ondertussen al 5..). Het leek mij wel leuk om een mooie blogpost te maken met veel foto's en ook een guide hoe ik mijn eigen kast heb gemaakt enzovoorts. Kan ook interessant zijn voor anderen. Dus dat wil ik echt nog wel een keer doen. Maar kost ook tijd en die heb ik tegenwoordig niet meer zoveel. Een lange post typen gaat me toch echt veel gemakkelijker af.

Zo genoeg semi-offtopic. Anders maar eens via DM bijkletsen en laat ik dit zeggen: ik respecteer echt wel andere meningen en het is ook niet zo dat ik 'gelijk' heb. Ik heb wel een mening, net als anderen. Het is aan jullie om daar wat mee te doen of juist niet. Maar dat maakt me nog geen trol - ik zit hier niet om jullie te pesten. Ik hoop dat je dat niet serieus bedoelde.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op dinsdag 08 september 2015 @ 03:16:
Oeeeh 50% duurder! :P Dat valt toch wel mee? Als je toch bezig bent, dan gelijk goed. Zo denk ik in elk geval.
Tja, het is maar net hoe je het bekijkt. Ik (imho) vindt het nog al een flinke slok op een borrel als je 50% meer uitgeeft voor je basis hardware. Tuurlijk mag je doen en laten wat je wilt, 't is jouw budget.
Afhankelijk van je opties en wensen kun je jezelf flink te buitengaan met latest shit server hardware en bad-ass behuizing. Als je taalt naar een 10 Gbit netwerk omgeving mag je dat best na streven, of het nu voor 'de heb' is of omdat je het echt zinnig inzet.
Dat is toch het hele doel van dit forum? Gedachten en inzichten uitwisselen? Het is uiteraard aan novastorm welke route hij uiteindelijk kiest. Maar dan heeft hij een overzicht wat er te kiezen valt. Volgens mij is dat alleen maar in zijn voordeel. En kiest hij uiteindelijk voor een 'gewone' Xeon setup, dan is dat een weloverwogen besluit na alles opties te hebben verkend. Inderdaad wel een stuk goedkoper want dat is ook nog een stukje goedkoper dan Avoton en heeft hij toch vt-d wat voor ESXi toch wel een must is natuurlijk.
Idd, een beetje reflectie en je beoogde setup in de groep gooien, daar is niets mis mee. Op dat gebied kan ieder hier van een ander leren. Feit blijft dan wel dat de gebruiker aan moet geven wat de wensen en gedachten zijn mbt gebruik en doel van de NAS, op die manier kun je je er over buigen en je ervaring meedelen. Dit laatste om iemand van een fikse fout te behoeden of te kunnen masseren naar een oplossing die meer toekomst muziek biedt.
Ik snap alleen niet waarom ik zo word afgebrand door het opperen van de Xeon-D optie. Dat lijkt mij echt wel het overwegen waard als je toch veel geld gaat uitgeven. Anders vind ik de meerprijs t.o.v. J1900 weer minder prijs/kwaliteit-verhouding hebben. J1900 is leuk instap, Xeon-D weer het andere uiterste. Ik vind - héél persoonlijk! - de tussenstappen wat minder interessant. Maar kan prima zijn dat deze tussenstap uiteindelijk wel de beste keuze is voor novastorm. So be it!
Geen idee waarom, wellicht is de gedachten dat het gewoonweg een duurkoop optie is op dit moment en je het daarom een slechtere keuze is. Persoonlijk heb ik zoiets van, als je er de centen aan uit wilt geven,.. be my guest.
En hoeveel mensen hebben een C2750 als thuis NAS? 0,3 procent misschien. Maar dat is toch geen argument om het niet te mogen aandragen als optie? Zeker als iemand met een redelijk budget komt en het zelfs al besteld had, is de meerprijs van Xeon-D echt niet absurd ofzo. We praten niet over een thuis NAS van 6000 euro, dat is andere koek. Dan had ik je beter begrepen.

En ja, je mag best weten dat ik dat 'showoff topic' (de naam zegt het al) best wel patserig vind. Ook het sorteren op grootte. Het komt toch over als 'wie heeft de langste penis'. Interessanter zou ik vinden: hoe zuinig is je setup in absolute zin of juist hoeveel watt per TB opslag standby, zonder spindown. Dat soort dingen kun je ook op sorteren. Het verhogen van de vereiste minimum grootte van 10TB naar 20TB, omdat 10TB te casual werd, tsja.. dat bevestigt alleen maar mijn gedachtes hieromtrent.
De naam zegt het idd al, het is de bedoeling dat je je e-penis showt en het heeft een groot 'kijk mij eens met mijn kekke hardware' gehalte, maar dat zit ingesloten in de minimale omvang om in de lijst te komen.

Mijn insteek, om mijn NAS bak in 't show-off topic te zetten, is/was om te delen wat ik wilde en waar heen het ging. Nadat wat horden waren genomen en de boel zonder al te veel morren werkte is de NAS bak tot 'just another storage box' verworden. Wat blijft is dat anderen die iets soortgelijks in gedachten hebben evt. bij je aankunnen kloppen en leren van jouw gestuntel/ervaringen.
Daarom dat ik het zelf anders wilde doen in het nieuwe zelfbouw topic. Iedereen is welkom om zijn build in een lijstje te stoppen. Ook zuinigheid en speciale features kunnen hier een vermelding krijgen. Passief gekoeld, kleine afmeting, speciale schijven (de 2,5" HDD build van Zware Unit bijvoorbeeld) enzovoorts. Genoeg om interessante vergelijkingen te maken. Niet alleen 'wie heeft de grootste' - dat is niet mijn ding.
Voor een combi van voldoende omvang en zuinig in verbruik is voldoende te zeggen, doorgaans vallen die buiten de boot ivm de beperktere capaciteit van de 2,5" disks (2 TB op dit moment) of je moet er 20 van in je NAS inbouwen
Dat gezegd, ik respecteer andere meningen prima hoor. Maar je zult mijn build er niet snel aantreffen. Geeft mij niet een fijn gevoel: 'ik wil er ook bij horen!!'. Sowieso heb ik vaak een andere insteek dan jullie, passief gekoeld bijvoorbeeld is een beetje mijn ding. Zoiets kan juist leuk zijn voor anderen om ook eens te overwegen. Misschien uiteindelijk van 'leuk maar niet mijn ding' maar dan weet je toch wat er te kiezen valt. Daar is dit forum voor, lijkt me. :)

Je hebt wel een punt dat ik zelf weinig openbaar maak over mijn builds (ondertussen al 5..). Het leek mij wel leuk om een mooie blogpost te maken met veel foto's en ook een guide hoe ik mijn eigen kast heb gemaakt enzovoorts. Kan ook interessant zijn voor anderen. Dus dat wil ik echt nog wel een keer doen. Maar kost ook tijd en die heb ik tegenwoordig niet meer zoveel. Een lange post typen gaat me toch echt veel gemakkelijker af.
Jammer dat je je andere builds idd niet deelt omdat je je ongemakkelijk voelt bij het idee als een 'meeloper' te gaan worden gebrandmerkt. Naar mijn bescheiden mening heb je het recht van spreken hier wel verdiend en behoef je niet onder een steen te schuilen.

Mbt tijd, daar kan ik me wel in vinden, als je druk met je werk en leven bent dan blijft er weinig tijd over om je hobbies te documenteren en uit te dragen. Soms vergeet ook gewoonweg om foto's e.d. te maken van een build waar je mee bezig bent. Ik legt steevast de camera klaar, maar kom er vaak achter dat ik de eerste 2 a 3 stappen fotografeer en er bij het 'stekkeren' van de build achter kom dat ik, geabsorbeerd door het proces, geen foto meer heb genomen.
Zo genoeg semi-offtopic. Anders maar eens via DM bijkletsen en laat ik dit zeggen: ik respecteer echt wel andere meningen en het is ook niet zo dat ik 'gelijk' heb. Ik heb wel een mening, net als anderen. Het is aan jullie om daar wat mee te doen of juist niet. Maar dat maakt me nog geen trol - ik zit hier niet om jullie te pesten. Ik hoop dat je dat niet serieus bedoelde.
Ach, zo lang je jezelf maar niet al te serieus neemt >:) , dan doen wij dat ook niet ;)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
Misschien moet ik mijn doel even goed opstellen zodat het niet teveel verwarring veroorzaakt. ;)

mijn primaire doel is opslag en ZFS. Op dit moment gebruik ik een synology, maar ik wil toch iets meer DIY. Daarnaast wil ik ook dus met features zoals Samba, sabnzb etc stoeien. Op mijn synology kan je het wel instellen, maar ik merk toch dat het niet super krachtig is. Kortom.... het is wat dat betreft niet echt een super vreemde NAS. Het zou wel fijn zijn om te kunnen expanderen naar een grotere setup zonder gelijk alles te moeten vernieuwen. Dus eerst beginnen met b.v. 8 schijven en eventueel (en dat is mijn droom) doorgroeien naar xx aantal schijven. (vandaar dus ook mijn voorliefde voor de 19inch servers.) Maar dat is niet een vereiste aangezien je de case redelijk goedkoop kan vervangen.

Daarnaast zou ik ook wel graag alle services die ik wil aanbieden willen onderbrengen op vmware. Dit is een secundaire wens. Het zou enorm mooi zijn. Het scheelt namelijk een aparte machine bouwen en de bijkomende stroom. Want voor het geld van een 2e machine kan ik ook 2 jaar aan stroom betalen (gok ik zo). Maar voor VMware moet ik dus wel een iets krachtigere machine hebben met iets meer RAM (32GB reken ik zo). 16 voor zfs en 16 voor vmware. En dat het ook uit te breiden is.

Is het zo al iets duidelijker?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
@Novastorm76: ik denk dat het voor jou ook belangrijk wordt om te bepalen of je ooit meer dan 16 GB aan RAM voor je VMs nodig hebt. Want veel moederborden kunnen tot max 32 GB RAM. Als je kleine Linux-style VMs gaat draaien die vaak met 1 GB al meer dan genoeg hebben, is er geen issue.

[ Voor 29% gewijzigd door Q op 08-09-2015 09:59 ]


Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
Ik denk niet dat ik snel aan de 16GB voor VM's kom, maar het is toch wel handig om een beetje marge te houden dan dat je tegen een harde limiet aan gaat lopen. Ik zou b.v. met 16 GB kunnen beginnen voor de nas en vmware en dan, als het nodig is, nog een keer 16 GB erbij kunnen kopen. Dat is dan weer wel een optie.

Dus het moederbord moet wel 32 GB aankunnen. En dan ECC in verband met ZFS. Daarnaast zou in ieder geval 8 sata aansluiting fijn zijn. Dan kan ik in ieder geval al mijn 5 x 1TB schijven aansluiten en heb ik nog 3 poorten over voor eventuele andere schijven.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Met 8 GB of 12 GB aan RAM kom je voor de meeste builds met ZFS ook wel weg denk ik. Ik weet niet of er nog risico's zijn met relatief weinig RAM bij calamiteiten om heel eerlijk te zijn.


@CiPHER: ik kan volgens mij niet rekenen. Het is niet 50% duurder, maar grofweg 100% duurder = 2 x zo duur. 450 = 100%. En als je de client harware mee rekent nog veel meer.

Los van het storage topic zijn er veel mensen die graag een post zouden zien met foto's van wat je hebt gemaakt. Als jij werd betaald hier op GoT per woord dan was je nu schathemeltje rijk, je bent een van de productiefste posters hier. Volgens mij lukt het jou wel om binnen een redelijke tijdsspanne een mooie post met een paar foto's te plaatsen, misschien op je storage blog?

Wat betreft het storage showoff topic, hoe jij het topic voorstelt is hoe jij het misschien interpreteert, maar als je de topic start leest dan is dat topic helemaal niet een soort van kijk-eens-hoe-groot-mijn-penis-is. Ik snap dat dit aspect er hoe dan ook wel een beetje aan kleeft en misschien speelt het voor mensen mee.

Maar het is zeker niet de geest van het topic.

Grote storage is gewoon gaaf en een hoop mensen hebben er interesse in. De topic start is daar zeer uitgbreid over. Het doel is dat mensen zoveel mogelijk informatie over hun builds delen.

Het topic is ook bedoeld voor technisch interessante builds, een belangrijk onderdeel van de topic start. Dat het topic van 10 TB naar 20 TB is verhoogd is niet uit een soort elitairisme, maar om de kwaliteit van het topic te bewaken: technisch interessante grote storage builds. Geen ik-stop-4-grote-disks-in-mijn-game-pc setups. Dat is niet *interessant*: daar zit geen uitdaging in.

Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 24-09 08:59

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Om even in te haken op het ESXi, VT-d en FreeNAS deel.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.

Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.

Wat is er nu te adviseren?
2011-3 of 1155, of toch nog een andere socket?
En kan ik me blindstaren op de TDP (lager is zuiniger) of gaat dat niet op?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
1150 is de meest gebruikte socket hier, 1155 is oud. 2011-3 weet ik even niet, meestal is dat een socket voor de big-bad-xeons die vaak buiten budget liggen. Skylake doet socket 1151.

[ Voor 14% gewijzigd door Q op 08-09-2015 11:20 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

HellStorm666 schreef op dinsdag 08 september 2015 @ 10:47:
Om even in te haken op het ESXi, VT-d en FreeNAS deel.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.

Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.

Wat is er nu te adviseren?
2011-3 of 1155, of toch nog een andere socket?
En kan ik me blindstaren op de TDP (lager is zuiniger) of gaat dat niet op?
Q schreef op dinsdag 08 september 2015 @ 11:14:
1150 is de meest gebruikte socket hier, 1155 is oud. 2011-3 weet ik even niet, meestal is dat een socket voor de big-bad-xeons die vaak buiten budget liggen. Skylake doet socket 1151.
Geen ervaring met FreeNAS in een vm, OI/Illuminos in combi met Napp-it werkt goed onder ESXi en ZoL (ZFS on Linux) is ook geen probleem.

In hoeverre zit je vast aan het format van je mobo? (ruimte beperking/wens voor compact systeem. etc)

s1150 is beperkt tot max. 32 GB UDIMM RAM, dit hoeft geen probleem te zijn voor wat je wilt (bijv. 16 GB voor je ZFS vm en de resterende 16 GB voor de andere vm's {werkt goed in mijn handen ;) } ).

Met Regged ECC RAM ben je wat goedkoper uit en kun je doorgaans tot meer RAM komen, de vraag is wel of je die 'sloot' aan RAM echt nodig zult gaan hebben.

Maar waar ligt t accent van je build?

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
HellStorm666 schreef op dinsdag 08 september 2015 @ 10:47:
Om even in te haken op het ESXi, VT-d en FreeNAS deel.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.

Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.
En vergeet niet dat Avoton (dat bordje wat je post bv.) alleen maar Unreg ECC slikt...

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Max TDP is alleen van belang als je regelmatig gedurende langere tijd 100% CPU gebruikt (25% van de tijd of meer bijvoorbeeld), als je server vooral idle is maakt TDP een stuk minder uit en zijn bijna alle processoren uit dezelfde generatie ongeveer net zo zuinig.

Ik heb zelf een ESXi-host met 128 GB RAM en FreeNAS, en ik vind het zelf heerlijk om gewoon VM's aan te kunnen maken zonder bang te zijn dat ik teveel geheugen uitdeel. 32 GB RAM aan FreeNAS (mede omdat er een aantal jails in draaien, was eerst zelfs 64 GB omdat ik ook met dedup wilde spelen, maar zoveel werd er niet gebruikt, en dedup staat ook weer uit), 4 Minecraft-servers, een 7 Days 2 Die server, een Space Engineers server, een beheers-VM, een vCenter Server die het steeds 90 dagen doet :+, een compleet test-lab met een MS SQL Server, Exchange Server en 2 Domain Controllers als ik aan het studeren ben voor een Microsoft certificaat, het pas er allemaal gemakkelijk op.

Het is echter natuurlijk wel een financiële afweging :) Socket 2011 is over het algemeen wat minder zuinig dan Socket 1150, niet vanwege de CPU maar vanwege het geheugen, de BMC, vaak extra SAS-controllers etc. Je krijgt er dus ook wel wat voor terug, maar het is aan ieder voor zich om die afweging te maken :)

[ Voor 5% gewijzigd door Paul op 08-09-2015 12:20 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Max TDP is vooral belangrijk als je PicoPSU of een andere DC-DC setup wilt. Dan kun je niet te hoog qua piekvermogen.

Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
Heren,

Allereerst nogmaals bedankt voor jullie geduld met mij. Ondanks dat ik snel leer, duurt het soms even voor ik het geduld heb om zaken uit te zoeken. Alleen nu loop ik een beetje vast in een 2-strijd.

aan de ene kant kan ik gaan voor een gewone "NAS" oplossing en het VMware verhaal even achterwege laten. Dan ziet mijn plaatje er ongeveer zo uit (correct me if i'm wrong)

ASRock C2750D4I a 418 euro
2x Crucial CT102472BD160B a 58
Silverstone DS380
en nog een voeding en wat extra kabels.

Als ik dan ga nadenken over een VMware setup, dan loop ik al gelijk tegen een zooi vragen aan. Vandaar dat ik deze opstelling dan even in verhaal vorm doe.

Indien ik voor VMware ga, dan is VT-d belangrijk. Dus kom ik al snel op de de 1150 socket uit. Een goedkope 1150 CPU is

Intel Core i5 4460 Tray a 181 euro

Als ik dan nadenk over dit alles, dan vind ik een KVM ook wel handig in het geval van remote troubleshooten etc en het aanzetten. En als ik dan toch voor VMware ga, dan ook maar 32 GB ram erin. Dan ben ik meteen klaar voor de komende tijd.

Waar ik kan tegenaan loop is dat de meeste moederborden ineens enorm weinig SATA aansluitingen hebben. De enige die wel veel sata aansluitingen heeft is de ASRock C2750D4I. maar die heeft weer unbuffered DIMM's nodig. en daardoor word deze gelijk weer flink duurder.

Kortom, als ik dus 8 schijven wil aansluiten, dan zal ik dus ook weer een controller kaart erbij moeten hebben (volgens mij) Die zijn ook niet zo goedkoop, dus ineens word alles wel extreem prijzig.

Ik heb zelf nog een doos vol met PCI-x 133 controllers, maar die passen weer op geen enkele moederbord. Dus die kan ik ook niet inzetten........ :'(

Zit ik nu gewoon verkeerd te denken?

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 20:59
Je kan alleen via VT-d een hele controller doorgeven aan een VM, geen satapoorten separaat.
Waarschijnlijk gebruik je een SSD voor je localdatastore en dus op de enige controller op dat 1150 bordje.
In dat geval heb je dus altijd een tweede controller nodig.

Denk hierbij aan een IBM M1015, Dell H200 of Dell H310. Of iets van een andere vendor met gelijkende LSI-chip.

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

Verwijderd

Slechte controllerchips moet je sowieso niet willen. Maar je kunt ook een simpel 2-poorts AHCI ASMedia controllerchipje doen voor één of twee tientjes. Als het je gaat om 2 extra SATA dan kan dat prima. Hoef je niet gelijk een SAS controller erbij te lappen.

ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.

Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
Verwijderd schreef op dinsdag 08 september 2015 @ 20:25:


ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.
ja, dat doe ik altijd (esxi vanaf usb). maar dan kan je dus wel weer de controller van je mobo doorgeven toch? of is dat ook niet aan te raden?

Acties:
  • 0 Henk 'm!

  • jobr
  • Registratie: Januari 2009
  • Laatst online: 26-07 21:40
Ik zie de J1900 hier veel voorbij komen. Echter kon ik zou snel niet iets vinden over welke snelheden gehaald kunnen worden over het LAN. In hoeverre is deze bijv vergelijkbaar qua snelheid met een DS215j?

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Verwijderd schreef op dinsdag 08 september 2015 @ 20:25:
ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.
Tenzij er iets veranderd is, kan je geen datastore aanmaken op een USB device. Dus je zal altijd iets van harde schijf moeten aansluiten.
Ik had dit namelijk ook in gedachten, ESX op een USB stick, een VM met een fileserver om daarop een NFS datastore aan te maken voor de rest. Maar die vlieger gaat dus niet op.

Acties:
  • 0 Henk 'm!

  • Kets_One
  • Registratie: November 2001
  • Niet online
Ik ben me aan het orienteren op een NAS voor thuis. Het gaat dus echt primair over een storage oplossing, maar ik denk erover om het periodiek ook in te zetten voor DC stampedes voor Dutch Power Cows.

Er zijn een aantal opties en extra wensen. Daarnaast nooit een NAS gebouwd of mee gewerkt, dus weinig ervaring. Ik hoop dat jullie me wat advies kunnen

Als wensen heb ik de volgende:
- krachtig, maar wel zuinig in idle (totaal max 100 W piekvermogen en idle zolaag mogelijk)
- robuust
- IPMI / KVM over IP
- raid 5
- DNLA capable

locatie zal een afgesloten kast op zolder zijn.
Budget is rond 500 euro

Momenteel zijn de volgende globale opties die ik overweeg,

Optie 1: Synology NAS (bijv. DS215+) super storage oplossing, maar geen DC systeem.
Optie 2: Oude server (bijv. via serverhome) kopen en linux erop, bijv. HP Microserver
Optie 3: zelfbouw server

Graag jullie advies over het gebruik van oude servers. Is dit aan te raden?

Kets.

[ Voor 4% gewijzigd door Kets_One op 08-09-2015 21:58 ]

3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)


Acties:
  • 0 Henk 'm!

Verwijderd

jobr schreef op dinsdag 08 september 2015 @ 21:02:
Ik zie de J1900 hier veel voorbij komen. Echter kon ik zou snel niet iets vinden over welke snelheden gehaald kunnen worden over het LAN. In hoeverre is deze bijv vergelijkbaar qua snelheid met een DS215j?
Synology gebruikt ARM chipjes. Dat valt echt niet te vergelijken. Dat is iets wat je op je telefoon gebruikt. Een J1900 is een 2GHz quadcore processor met turbo-core. Die is ongeveer 10 keer sneller dan een AMD C60 - ongeveer de traagste chip (dualcore 1GHz) die een ZFS NAS gigabit vol kan trekken - nog maar nèt.

J1900 heeft alleen geen AES-NI dus geen hardwarematige encryptie. Maar ook softwarematig zal deze boven de 100MB/s komen lijkt me. J1900 is wel traag single core, maar omdat het een quadcore is, kan deze bij SMP workloads prima meekomen met reguliere chips van een veel hoger TDP. Ik vind de J1900 veelal ondergewaardeerd.

Ik gebruik de J1900 veel, ook voor deduplication, compressie en encryptie. Ik kijk vaak wel naar de CPU usage. Ik heb niet de indruk dat de CPU een bottleneck vormt. Maar ga je Plex met 1080p streams doen, dan kun je al wel snel tegen bottlenecks lopen. Dus echt CPU intensieve dingen zou ik een echte chip met meer power nemen. Bedenk dat in de 10W TDP van de J1900 niet alleen 4 cores zitten, maar ook de gehele chipset (northbridge + southbridge). Dus het is echt wel een topdingetje naar mijn smaak. :)
IceTeaGX schreef op dinsdag 08 september 2015 @ 21:41:
Tenzij er iets veranderd is, kan je geen datastore aanmaken op een USB device.
Ah ok. Goed om te weten. Ik dacht dat dit wel kon omdat ik zoiets las bij anderen. Maar ik gebruik zelf geen ESXi dus mijn woord is weinig waard in deze. :P
Kets_One schreef op dinsdag 08 september 2015 @ 21:43:
Ik ben me aan het orienteren op een NAS voor thuis. Het gaat dus echt primair over een storage oplossing, maar ik denk erover om het periodiek ook in te zetten voor DC stampedes voor Dutch Power Cows.
Wat heeft dat nou voor nut behalve kolen stoken? }:O
Er zijn een aantal opties en extra wensen. Daarnaast nooit een NAS gebouwd of mee gewerkt, dus weinig ervaring. Ik hoop dat jullie me wat advies kunnen

Optie 1: Synology NAS (bijv. DS215+) super storage oplossing, maar geen DC systeem.
Optie 2: Oude server (bijv. via serverhome) kopen en linux erop, bijv. HP Microserver
Optie 3: zelfbouw server

Graag jullie advies over het gebruik van oude servers. Is dit aan te raden?
Oude server is vaak niet zo geschikt. HP Microserver lijkt mij nog vrij nieuw? Zelfbouw is natuurlijk het leukste zeker als je een computer in elkaar zetten niet zo spannend vind. Ik denk dat iedereen met een klein beetje affiniteit dat wel kan met wat begeleiding. En dat laatste vind je hier in voldoende mate op dit forum. Ik ben ook niet te beroerd om mensen via DM berichten te helpen hun eerste NAS te bouwen.

Maar je zou eerst over de software moeten beslissen. In het bijzonder of je ZFS gaat gebruiken of niet. Dat bepaalt namelijk de hardware die je nodig hebt. Zelfbouw is dan het meest geschikt, alhoewel HP Microserver zeker ook een mogelijkheid is hiervoor.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
novastorm76 schreef op dinsdag 08 september 2015 @ 20:19:
Heren,

...

Zit ik nu gewoon verkeerd te denken?
Zeker voor thuis is het wenselijk om zoveel mogelijk waar uit je hardware te halen. Veel mensen doen VT-d passthrough zodat ze niet meerdere servers neer hoeven te zetten. Hun NAS is dan 'slechts' een VM, zoals jij het wilt aanpakken.

De vraag is welke features je echt wilt en wat je daar voor wilt betalen.

Je wilt:

- ESXi draaien
- Genoeg RAM voor VMs en ZFS NAS
- KVM is ook wel handig (IPMI)
- 8 disks aansluiten (ex OS)

Zodra mensen ESXi willen draaien dan adviseer ik altijd een moederbord te pakken met componenten die standaard gesupport worden door ESXi.

Als je KVM ofwel IPMI ofwel iLO ofwel DRAC wilt, dan ontkom je niet aan een server moederbord. Laat je deze wensen droppen, dan kun je toch voor consumenten spul gaan. Moet je mogelijk wel met ESXi vechten of je bordje slim uitzoeken (reviews zoeken). Met een server bord zit je ook verplicht aan ECC geheugen vast, wat de build ook iets duurder maakt.

Wil je toch graag KVM en/of ECC geheugen, dan wordt mijn eerder geposte lijst met CPUs en moederborden weer relevant. De crux zit 'm in die 8 disks die je wilt aansluiten. De meeste borden hebben maar 6 x SATA.

Ik weet niet of het mogelijk is om die on-board sata controllers aan VMs te pass-throughen. Dan zou je misschien er een 2 poorts sata controller bij kunnen prikken en ben je klaar. Dit is een gedachte, ik hoor weinig mensen dat doen.

Gebruikelijker is dat mensen een LSI-based HBA kaartje - eventueel naar IT mode geflashed - aan een VM pass-throughen.

Laten we eens naar een mogelijke build kijken.

We nemen het Supermicro X10SL7-F bord met extra 8-ports LSI controller.

http://hardforum.com/showthread.php?t=1832121

IT-mode flashen (mocht je dat willen): http://blog.widodh.nl/201...micro-x10sl7-f-mainboard/

Dit is een Socket 1150 bord met IPMI, 2 x LAN en nog wat PCIe sloten.

#ProductPrijsSubtotaal
1Intel Xeon E3-1220 V3 Boxed€ 211,20€ 211,20
1Supermicro X10SL7-F€ 244,95€ 244,95
2Kingston ValueRAM KVR1333D3E9SK2/16G€ 122,50€ 245,-
Bekijk collectie
Importeer producten
Totaal€ 701,15


Dat is dus een build voor 700 euro. Daarmee bouw je dus 2 systemen in 1! Zowel een NAS als een ESXi server. Dit is ook inclusief een 8-poorts controller en 32 GB geheugen.

Als je de portemonee nog iets verder open trekt en 40 euro extra lapt dan kun je er een CPU in stoppen die Hyperthreading ondersteund, wat met VMware best leuk is. Dat maakt echt uit.

#ProductPrijsSubtotaal
1Intel Xeon E3-1231 V3 Boxed€ 255,80€ 255,80
1Supermicro X10SL7-F€ 244,95€ 244,95
2Kingston ValueRAM KVR1333D3E9SK2/16G€ 122,50€ 245,-
Bekijk collectie
Importeer producten
Totaal€ 745,75


Dus bare-bones kost een platform als dit grofweg 750 euro. Ik denk wel dat je voor dat geld iets heel moois neerzet waar je jaren plezier van gaat hebben.

Je oorspronkelijke Avoton build koste 671 euro, dus voor nog geen 70 euro meer heb jij een platform wat stukken beter presteert en VT-d doet.

Ik heb deze hardware zelf niet, maar ik denk dat dit een hele leuke standaard build kan zijn voor mensen die hun NAS virtueel op ESXi willen draaien zodat ze meteen ook een leuke ESXi speeltuin hebben.

[ Voor 17% gewijzigd door Q op 08-09-2015 22:18 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Grotendeels eens met de post hierboven, vlak echter de optie tot socket 2011 ook niet uit, zeker als je wat meer VM's wilt kunnen draaien :) Op socket 1150 ben je beperkt tot 32 GB ram, met een socket 2011-bordje kun je een stukje hoger :)

Zelf heb ik 128 GB op een Supermicro X9SRL-F, de Xeon V3 past er niet op, daarentegen is er wel goedkoop geheugen voor te vinden /me wijst subtiel naar zijn sig... :P Wel zijn op s2011 bordjes met onboard LSI-controller een stuk duurder :X Veel mensen komen met 6 poorten echter ook uit :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Een andere oplossing zou zijn om storage (ZFS) en virtualiatie te scheiden. Dus twee machines. Dan heb je geen vt-d nodig, en kun je het wat goedkoper aanpakken. Eén keer een J1900 voor de ZFS en een goedkopere machine voor de virtualiatie. Je setup wordt er minder complex door, en je kunt gemakkelijker (goedkoop) meer geheugen aan je VM en aan ZFS geven, omdat dit niet beide door één machine geleverd hoeft te worden. Dus gewoon goedkoop UDIMM geheugen.

Is maar een optie. Eén machine voor zowel virtualisatie als storage is wat de meeste mensen doen. Nadeel vind ik echter wel de complexiteit.

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
om even zonder alles te lezen op het 10Gb stukje in te haken,

Als het om een point to point verbinding gaat, dan kan je CX4 overwegen.
Ik heb zelf een point to point 10Gb verbinding over CX4. Die NICs zijn 100 euro per stuk op ebay. De kabel iets van 20.... Zo heb ik 10Gb tussen mn NAS en ESX server.

Ik snap dat het in de build hierboven om een alles in 1 oplossing gaat, bovenstaande oplossing is meer in het algemeen hier gericht....

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
die 2e optie klinkt wel goed trouwens. daar ga ik morgen eens een case bij zoeken en bekijken met een uitgerustere blik (zieke kids.... dus weinig nachtrust).

Maar enorm bedankt in ieder geval Q. En @paul, past jouw RAM ook op die supermicro van optie 2?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Hele mooie - wel wat prijzige - case met ruimte voor 8 disks.
Voor de prijs krijg je een case met stof filters en geluiddempend materiaal. Iets wat je kunt vergeten met cases die vaak de helft goedkoper zijn.

pricewatch: Fractal Design Define R4 Titanium Grey

Sterkte met de kids.

[ Voor 24% gewijzigd door Q op 09-09-2015 00:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als hij misschien wilt uitbreiden lijkt mij een kast die de gehele voorkant voor 3,5" disks heeft ingericht, wellicht beter. Die 5¼-bays heb je tegenwoordig niet zoveel aan; wie heeft er nog een CD/DVD-ROM drive in zijn machine? Dat is tegenwoordig een beetje passé. Liever de gehele hoogte aan disks. Die behuizingen zijn er ook. Wel een mooie kast, dat wel. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Paul schreef op dinsdag 08 september 2015 @ 23:23:
Grotendeels eens met de post hierboven, vlak echter de optie tot socket 2011 ook niet uit, zeker als je wat meer VM's wilt kunnen draaien :) Op socket 1150 ben je beperkt tot 32 GB ram, met een socket 2011-bordje kun je een stukje hoger :)

Zelf heb ik 128 GB op een Supermicro X9SRL-F, de Xeon V3 past er niet op, daarentegen is er wel goedkoop geheugen voor te vinden /me wijst subtiel naar zijn sig... :P Wel zijn op s2011 bordjes met onboard LSI-controller een stuk duurder :X Veel mensen komen met 6 poorten echter ook uit :)
Wow 128 GB, volgens mij heb jij kanalen die jou dit soort geheugen kunnen doen toekomen ;)

Het 2011 platform is onwijs gaaf als je thuis echt bruut asociaal met ESXi wilt kloten. Voor de grap eens een 8-core (16 Threads) 128 GB platformpje bij elkaar geklikt.

Slechts 2000 euro :o


#ProductPrijsSubtotaal
1Intel Xeon E5-2630 v3 Boxed€ 695,80€ 695,80
1Supermicro X10SRL-F (Bulk Pack)€ 305,59€ 305,59
2Kingston ValueRAM KVR21R15D4K4/64€ 506,51€ 1.013,02
Bekijk collectie
Importeer producten
Totaal€ 2.014,41


Alle gekheid op een stokje: als je er een simpele 4-core in stopt dan vind ik zelf de CPU-power niet meer in verhouding met het geheugen. De entry-level CPU die ongeveer 300 doet is zelfs nog slapper dan de e3-1231.

Hak je het aantal cores en geheugen door midden, dus 4 cores en 64 GB RAM dan hak je ook de prijs in twee.

#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v3 Boxed€ 308,20€ 308,20
1Supermicro X10SRL-F (Bulk Pack)€ 305,59€ 305,59
1Kingston ValueRAM KVR21R15D4K4/64€ 506,51€ 506,51
Bekijk collectie
Importeer producten
Totaal€ 1.120,30


1100 euro om meer dan 32 GB RAM aan te kunnen.

Je betaalt dan 350 euro meer om 64 ipv 32 GB aan te kunnen sturen.

[ Voor 27% gewijzigd door Q op 09-09-2015 01:01 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
novastorm76 schreef op woensdag 09 september 2015 @ 00:18:
En @paul, past jouw RAM ook op die supermicro van optie 2?
Nope, dat is socket 1150, daar moet unbuffered geheugen in in plaats van registered :) Mocht je overwegen het geheugen bij mij te kopen, let er op dat dat DDR 3 is en je dan dus een V2-processor (en moederbord) moet hebben. Niet dat een V2 langzaam is, maar het is dus niet (meer :P) de allersnelste :)
Q schreef op woensdag 09 september 2015 @ 00:52:
Alle gekheid op een stokje: als je er een simpele 4-core in stopt dan vind ik zelf de CPU-power niet meer in verhouding met het geheugen. De entry-level CPU die ongeveer 300 doet is zelfs nog slapper dan de e3-1231.
'Zelfs nog slapper' :? Als ik er wat vergelijkingen bijhaal dan zijn de E3-1231 en de E5-1620 beiden ongeveer gelijk aan elkaar? En vergis je niet in de kracht van een 3.5 GHz quad-core :) Zoals gezegd, ik heb er behoorlijk wat VM's op staan, die staan lang niet allemaal te stampen (want thuis-situatie) maar als ik zakelijk kijk dan hebben we VMware-hosts met 2x8core (16 threads) en 512 GB RAM. Als ik dat terugschaal naar 128 GB RAM dan heb je het ook over een 1x4core (8threads); en dan zijn de CPU's @work maar 2.6 GHz ipv 3.5. @work staan die VM's veel meer te doen dan mijn thuis-setup en toch lopen daar de tellertjes bij het geheugen harder op dan bij de CPU :)
1100 euro om meer dan 32 GB RAM aan te kunnen.

Je betaalt dan 350 euro meer om 64 ipv 32 GB aan te kunnen sturen.
Dat is niet helemaal een eerlijk vergelijk :) Je rekent nu ook de prijs van het geheugen mee, en dan is het nogal logisch dat de optie met meer geheugen ook duurder is :) Je unbuffered optie kost aan CPU en moederbord € 500.75, de registered-optie € 613.79. Oftewel, € 113 om meer dan 32 GB aan te kunnen sturen :) En voor € 113 heb je geen tweede (en derde, en vierde, als je tot 128 GB zou gaan) systeem. Bij 64 GB bespaar je dus eigenlijk (alleen al op het moederbord en de CPU, dan heb je nog geen kast, storage of voeding) € 400 :+

Ik zeg niet dat iedereen meer dan 32 GB nodig heeft, dat moet ieder voor zich inschatten :) Ik wil vooral aangeven dat je voor slechts een geringe meerprijs (100 euro op de ~1400 als je er 4x4 TB in zet) die optie openhoudt :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Paul schreef op woensdag 09 september 2015 @ 09:57:
'Zelfs nog slapper' :? Als ik er wat vergelijkingen bijhaal dan zijn de E3-1231 en de E5-1620 beiden ongeveer gelijk aan elkaar? En vergis je niet in de kracht van een 3.5 GHz quad-core :) Zoals gezegd, ik heb er behoorlijk wat VM's op staan, die staan lang niet allemaal te stampen (want thuis-situatie) maar als ik zakelijk kijk dan hebben we VMware-hosts met 2x8core (16 threads) en 512 GB RAM. Als ik dat terugschaal naar 128 GB RAM dan heb je het ook over een 1x4core (8threads); en dan zijn de CPU's @work maar 2.6 GHz ipv 3.5. @work staan die VM's veel meer te doen dan mijn thuis-setup en toch lopen daar de tellertjes bij het geheugen harder op dan bij de CPU :)
Daar heb je wel een goed punt. Ik zie ook op het werk dat veel ESXi hosts vaak behoorlijk rustig zijn, maar je hebt wel een ton aan RAM nodig omdat ze vaak 8+ GB RAM per stuk hebben.
Dat is niet helemaal een eerlijk vergelijk :) Je rekent nu ook de prijs van het geheugen mee, en dan is het nogal logisch dat de optie met meer geheugen ook duurder is :) Je unbuffered optie kost aan CPU en moederbord € 500.75, de registered-optie € 613.79. Oftewel, € 113 om meer dan 32 GB aan te kunnen sturen :) En voor € 113 heb je geen tweede (en derde, en vierde, als je tot 128 GB zou gaan) systeem. Bij 64 GB bespaar je dus eigenlijk (alleen al op het moederbord en de CPU, dan heb je nog geen kast, storage of voeding) € 400 :+

Ik zeg niet dat iedereen meer dan 32 GB nodig heeft, dat moet ieder voor zich inschatten :) Ik wil vooral aangeven dat je voor slechts een geringe meerprijs (100 euro op de ~1400 als je er 4x4 TB in zet) die optie openhoudt :)
Ook dat is een goed punt, als je nu genoeg hebt aan 32 GB maar de optie wilt om verder door te groeien, dan kost een 2011 platform ongeveer 113 euro meer. Dat is eigenlijk best interessant. :) :)

Vuistregel is dat 1150 prima is tot 32 GB en dat als je verwacht meer te gaan gebruiken je op voorhand 2011 v3 zult moeten aanschaffen tegen een iets hogere prijs.

[ Voor 4% gewijzigd door Q op 09-09-2015 10:13 ]


Acties:
  • 0 Henk 'm!

  • Kets_One
  • Registratie: November 2001
  • Niet online
Verwijderd schreef op dinsdag 08 september 2015 @ 22:08:
[...]

Wat heeft dat nou voor nut behalve kolen stoken? }:O

[...]

Maar je zou eerst over de software moeten beslissen. In het bijzonder of je ZFS gaat gebruiken of niet. Dat bepaalt namelijk de hardware die je nodig hebt. Zelfbouw is dan het meest geschikt, alhoewel HP Microserver zeker ook een mogelijkheid is hiervoor.
Wat ik zo op wikipedia over ZFS lees spreekt me wel aan. Als ik hiervoor kies, wat heeft dit dan voor hardware/software consequenties?

3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Qua software consequenties betekent het dat je vast zit aan een BSD of Linux distributie. Meestal wordt voor een OS zoals FreeNAS of NAS4Free gekozen, ZFSGuru zou eventueel ook nog kunnen maar zou ik niet aanraden. Deze zijn gericht op het aanbieden van een webinterface voor het beheren van de data volumes en bieden vaak extra mogelijkheden voor plugins.

Qua hardware is veel mogelijk, in principe is vrijwel elke desktop hardware dan geschikt.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

Verwijderd

Kets_One schreef op woensdag 09 september 2015 @ 10:57:
[...]


Wat ik zo op wikipedia over ZFS lees spreekt me wel aan. Als ik hiervoor kies, wat heeft dit dan voor hardware/software consequenties?
Je moet voor ZFS geen hardware RAID gebruiken. Dat bijt elkaar. Je hebt een 'HBA' nodig. Dus een controller zonder RAID firmware. Dat is in elk geval de normale onboard SATA die elke chipset levert. Die zijn het allerbeste. Daarnaast kun je extra SATA poorten krijgen door bijvoorbeeld een SAS controller (HBA) zoals velen hier gebruiken.

Voor de rest niet te weinig RAM geheugen, 8GiB is wel een leuk begin. Veel CPU power heb je niet nodig, tenzij je nog andere dingen gaat doen zoals Plex streams transcoden.

Qua software gebruik je bij voorkeur een speciaal ZFS platform: FreeNAS, NAS4Free, ZFSguru zijn allemaal NAS platformen die vrij eenvoudig zijn op te zetten en ondersteunen allemaal ZFS. In een handomdraai heb je van een computersysteem een NAS gemaakt.

Vervolgens ga je op je eigen Windows systeem via het netwerk verbinding maken. Dit heet een 'mapped network drive'. Je krijgt dan in Mijn Computer een drive letter, zoals X: en daar staat dan je data op. Het werkt dus ongeveer alsof je een lokale schijf in je computer hebt, maar dan is dit de netwerkschijf. De gegevens die worden opgeslagen, worden dan door ZFS opgeslagen en dus ook door ZFS beveiligd.

Dat is het eigenlijk. Super eenvoudig. Je kunt het zo ingewikkeld maken als je wilt, maar je kunt het ook lekker makkelijk houden. Een ZFS NAS hoeft ook helemaal niet duur te zijn; goedkoper dan Synology is prima mogelijk terwijl je wel veel betere hardware krijgt want Synology is voornamelijk ARM-chipjes wat je telefoon draait. Voor 150 euro heb je al een ZFS NAS met moederbord, processor, heatsink, RAM-geheugen en voeding. Komt natuurlijk nog bij een kast/behuizing en de hardeschijven zelf.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Kets_One had ook als wens

* IPMI / KVM over IP
* robuust

Dat eerste vereist een server bord. Wat met dat 2e wordt bedoeld is niet helemaal duidelijk.
Als je budget 500 euro is dan kun je wel een eind komen met een server bord.

#ProductPrijsSubtotaal
1Intel Pentium G3420 Boxed€ 64,90€ 64,90
1Supermicro X10SLM-F€ 188,30€ 188,30
1Kingston KVR16LE11/8€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 314,20


Heb je nog 200 over voor kast en voeding, meer dan genoeg, lijkt me. Als extra bijkomend voordeel heb je ECC geheugen. Bovenstaande is wel 2x zo duur als CiPHER voorstelde, mogelijk op basis van een J1900 platform.

Acties:
  • 0 Henk 'm!

  • Kets_One
  • Registratie: November 2001
  • Niet online
Dank zover!

Ik denk dat het in ieder geval geen synology wordt.

Hoe belangrijk is de processor?
Minimale snelheid.? Moet deze AES-NI ondersteunen?

3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Ik zie DNLA. Wil je (met bijvoorbeeld Plex) ook gaan transcoden of is het enkel streamen? Zelfs met Plex / transcoden zou de Pentium hierboven goed genoeg moeten zijn :)

Wil je ook AES-NI (of dat zo is hangt meer van jouw wensen af dan wat anders, voor ZFS hoeft het niet. Wil je je schijven encrypten dan is het wel wijselijk een CPU te nemen die het kan) dat kun je bijvoorbeeld de pricewatch: Intel Core i3-4160 Boxed nemen :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Kets_One
  • Registratie: November 2001
  • Niet online
Transcoden ben ik niet van plan.
Encrypten ook niet.
Wat mij meer boeit is de standby consumptie van het systeem. Dit wil ik laag houden (onder 20 W).

3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Ik verwacht dat je met de disks op standby met een serverbord wel hoger gaat uitkomen --> richting 30-40 watt minimaal schat ik zo. 10 Watt 24/7 is ongeveer 19 euro per jaar dus reken maar na.

Misschien is een HP Microserver Gen8 nog wel interessant. Zit je op 30-35 watt stand-by en kun je 4 disks kwijt voor <300 euro met behuizing.

http://louwrentius.com/zf...roserver-gen8-g1610t.html

Super zuinig en KVM gaat niet samen, want zo'n KVM module doet altijd wel een aantal watt omdat het feitelijk een mini-computer in je computer is.

Als je echt onder <20 watt wilt blijven dan is een server bord denk ik geen optie. Ik weet niet wat de ervaringen van anderen zijn.

[ Voor 3% gewijzigd door Q op 09-09-2015 12:49 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Intel heeft wel wat cheap-ass KVM in de vorm van Intel AMT icm een vPro CPU.
Maar ik heb dat *absoluut* niet als gebruiksvriendelijk ervaren... Dat is echt rare vage aan elkaar geknoopte tooltjes om hetzelfde te doen als wat SuperMicro, Dell, en HP al jaren goed kunnen.

Met zo'n bordje kan je wel sub 20W icm KVM. Maar of je die techincal deep dive aan wil gaan om KVM te krijgen... Ik zou lekker voor een serverplankje gaan zoals Q al zegt :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Kets_One
  • Registratie: November 2001
  • Niet online
Ik lees op het intetweb nogal wat noise klachten over de HP Microserver Gen8 wanneer van AHCI mode gebruikt wordt. Laat dit nu nodig zijn voor ZFS.... Wat zijn jullie ervaringen? Is dit op te lossen?

3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Zie mijn blog post hierboven, het staat er allemaal in.
Ik heb er zelf 3: ventilator is stil in AHCI mode.

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
Ik vraag me zelf dan af of je beter voor een hp microserver kunt gaan of met een j1900 als het aankomt op zuinigheid. Ansch spreekt zo'n microserver wel aan, maar ik heb zo het idee dat deze niet zo zuinig is. Wel heeft hij dan lights of management, maar daar is dan alles zo'n beetje mee gezegd.

In de eerste instantie dacht ik zelfs om voor een echte atom te gaan, maar volgens mij heeft de j1900 dezelfde basis

Nog een andere vraag, zijn er thumbdrives die je als ssd kunt gebruiken? Ik bedoel, die ook echt wear resistant zijn zoals een ssd dat is? Ik kan me voorstellen dat voor veel operating systems een flashdrive op usb2 of usb3 voldoende zou moeten zijn. Nu weet ik dat je een ssd aan een usb adapter kunt hangen, maar dat is een beetje overbodig als die usb sticks al verkocht worden.

[ Voor 31% gewijzigd door justice strike op 10-09-2015 15:00 ]

U can call me sir.... or justice as long as u bow down ;)


  • tweedebas
  • Registratie: September 2012
  • Laatst online: 26-09 20:28
Meestal worden de OS's read-only gemount vanaf de USB stick. Alleen met installeren en settings veranderen zal er ook echt geschreven worden.
Logs kan je in Freenas bv via gui naar een ander device dan je OS usb stick verplaatsen.
Dan blijft er weinig wear over, en je kan 2 stick in mirror plaatsen mocht je nog minder risico willen lopen.

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
justice strike schreef op donderdag 10 september 2015 @ 14:44:
Ik vraag me zelf dan af of je beter voor een hp microserver kunt gaan of met een j1900 als het aankomt op zuinigheid. Ansch spreekt zo'n microserver wel aan, maar ik heb zo het idee dat deze niet zo zuinig is. Wel heeft hij dan lights of management, maar daar is dan alles zo'n beetje mee gezegd.

In de eerste instantie dacht ik zelfs om voor een echte atom te gaan, maar volgens mij heeft de j1900 dezelfde basis

Nog een andere vraag, zijn er thumbdrives die je als ssd kunt gebruiken? Ik bedoel, die ook echt wear resistant zijn zoals een ssd dat is? Ik kan me voorstellen dat voor veel operating systems een flashdrive op usb2 of usb3 voldoende zou moeten zijn. Nu weet ik dat je een ssd aan een usb adapter kunt hangen, maar dat is een beetje overbodig als die usb sticks al verkocht worden.
Ik heb zelf eens getest met een MicroSD kaart in mijn HP Microservers, maar het systeem was echt poep-traag met een reguliere linux. Alleen geschikt denk ik voor een kant-en-klare distro zoals FreeNAS/ZFS Guru. De oorzaak is denk ik dat random I/O super stront traag is op MicroSD/USB stick flash.

Zelf heb ik het OS op een 2e hands 2.5" USB HDD gezet en die op de interne USB header geconnect. Performance is prima (USB2). Alhoewel de bandbreedte beperkt is, zou een goedkope 30 GB SSD ook prima werken. Kost vaak al 30-40 euro en heb je wel SATA-USB converter nog nodig, wordt wel prijzig.

De Microserver doet 30-35 Watt als de disks stand-by staan. 10 Watt er af snoepen is ~20 euro op jaarbasis besparen.

Zuinig is interessant, maar de vraag is hoeveel geld je er mee bespaart en hoeveel consessies je daarvoor wilt doen op andere vlakken. Dat is een persoonlijke keuze.

[ Voor 6% gewijzigd door Q op 10-09-2015 15:24 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Pak dan een Sandisk Extreme Pro USB3 stick en prop die intern. Werkt veel beter :)

Ook al is het USB3 het ding doet het op USB2 ook verrassend snel :)

Even niets...


  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Q schreef op woensdag 09 september 2015 @ 12:49:
Ik verwacht dat je met de disks op standby met een serverbord wel hoger gaat uitkomen --> richting 30-40 watt minimaal schat ik zo. 10 Watt 24/7 is ongeveer 19 euro per jaar dus reken maar na.

Misschien is een HP Microserver Gen8 nog wel interessant. Zit je op 30-35 watt stand-by en kun je 4 disks kwijt voor <300 euro met behuizing.

http://louwrentius.com/zf...roserver-gen8-g1610t.html

Super zuinig en KVM gaat niet samen, want zo'n KVM module doet altijd wel een aantal watt omdat het feitelijk een mini-computer in je computer is.

Als je echt onder <20 watt wilt blijven dan is een server bord denk ik geen optie. Ik weet niet wat de ervaringen van anderen zijn.
Het beste serverbord wat ik heb kunnen testen, een asus-bord dat helaas niet beschikbaar is op de vrije markt, deed idle zonder HDD nog steeds 16W uit het stopcontact met een picopsu (=12W DC) - met een ATX-voeding wordt dat dus ruim over de 20W. Het is echt héél lastig om met een serverbord en ook echt serverfeatures áán (iLO/vergelijkbaar management, VT-d, ECC) onder de 20W uit te komen zonder echt heel erg te gaan min/maxen.

De meestgebruikte KVM/managementchip die ik langs zie komen (ASPEED 2300) verbruikt op zichzelf al 3,3W DC. Daarnaast, kun je ook meestal niet gebruik maken van de IGP en dus ook niet van diepe c-states (rc6p), waardoor je processor nutteloos ca. 3W extra vebrruikt in idle. Puur en alleen het hebben van KVM op zo'n bord kost je al bijna 10W aan het stopcontact.

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
FireDrunk schreef op donderdag 10 september 2015 @ 15:33:
Pak dan een Sandisk Extreme Pro USB3 stick en prop die intern. Werkt veel beter :)

Ook al is het USB3 het ding doet het op USB2 ook verrassend snel :)
is dat vergelijkbaar met een ssd? of kun je nog steeds beter een msata schijf kopen + usb adapter
mux schreef op donderdag 10 september 2015 @ 15:37:
[...]


Het beste serverbord wat ik heb kunnen testen, een asus-bord dat helaas niet beschikbaar is op de vrije markt, deed idle zonder HDD nog steeds 16W uit het stopcontact met een picopsu (=12W DC) - met een ATX-voeding wordt dat dus ruim over de 20W. Het is echt héél lastig om met een serverbord en ook echt serverfeatures áán (iLO/vergelijkbaar management, VT-d, ECC) onder de 20W uit te komen zonder echt heel erg te gaan min/maxen.

De meestgebruikte KVM/managementchip die ik langs zie komen (ASPEED 2300) verbruikt op zichzelf al 3,3W DC. Daarnaast, kun je ook meestal niet gebruik maken van de IGP en dus ook niet van diepe c-states (rc6p), waardoor je processor nutteloos ca. 3W extra vebrruikt in idle. Puur en alleen het hebben van KVM op zo'n bord kost je al bijna 10W aan het stopcontact.
Conclusie is dan om eigenlijk geen KVM te hebben. Kom je toch weer uit op de j1900. Die komt met 4 schijven volgens mij idle wel uit om 25 watt of lager.

[ Voor 59% gewijzigd door justice strike op 10-09-2015 15:42 ]

U can call me sir.... or justice as long as u bow down ;)


  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Of geen KVM-over-IP, ofwel verwachtingen qua verbruik bijstellen.

KVM-over-IP is thuis altijd een beetje een grensgevalletje. Je betaalt je blauw aan moederborden met IPMI/iLO/etc., je betaalt afgerond al gauw 20 euro per jaar extra aan stroom. In een bedrijfssetting is dit peanuts, gezien je dit al bij de eerste ingreep van je sysadmin hebt terugverdiend. Iemand die ergens heen moet lopen (of naar een datacenter moet reizen) en een console moet inpluggen kost je honderden euro's per jaar extra.

Maar thuis kun je gewoon naar je server lopen en zooi inpluggen als het ding vastloopt en je iets moet regelen. Wat meestal met SSH eigenlijk ook wel prima gaat. Hell, je kunt het je zelfs makkelijk veroorloven om de hele machine te resetten, eventueel op afstand met WoL. De meerwaarde van KVM is dan wat minder concreet.

Als je de extra centen toch al uitgeeft aan een mobo en/of de stroomkosten je niet uitmaken (20 euro op een jaar is nou ook niet echt een aderlating) is het wel erg fijn voor een gevirtualiseerde machine, dat moet ik toegeven.

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 22-09 12:44
mux schreef op donderdag 10 september 2015 @ 15:59:
Of geen KVM-over-IP, ofwel verwachtingen qua verbruik bijstellen.

KVM-over-IP is thuis altijd een beetje een grensgevalletje. Je betaalt je blauw aan moederborden met IPMI/iLO/etc., je betaalt afgerond al gauw 20 euro per jaar extra aan stroom. In een bedrijfssetting is dit peanuts, gezien je dit al bij de eerste ingreep van je sysadmin hebt terugverdiend. Iemand die ergens heen moet lopen (of naar een datacenter moet reizen) en een console moet inpluggen kost je honderden euro's per jaar extra.

Maar thuis kun je gewoon naar je server lopen en zooi inpluggen als het ding vastloopt en je iets moet regelen. Wat meestal met SSH eigenlijk ook wel prima gaat. Hell, je kunt het je zelfs makkelijk veroorloven om de hele machine te resetten, eventueel op afstand met WoL. De meerwaarde van KVM is dan wat minder concreet.

Als je de extra centen toch al uitgeeft aan een mobo en/of de stroomkosten je niet uitmaken (20 euro op een jaar is nou ook niet echt een aderlating) is het wel erg fijn voor een gevirtualiseerde machine, dat moet ik toegeven.
voor een gevirtualiseerde machine heb je toch geen iLO oplossing nodig? gewoon naar de echte server connecten, daar kun je de virtual machine uit aan en resetten

U can call me sir.... or justice as long as u bow down ;)


  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Ja, voor 99% van de gevallen (als alles goed draait) is KVM niet nodig, en kun je alles gewoon via SSH/VNC doen. Het wordt een probleem als je systeem raar gaat doen of vastloopt, of als je in het BIOS wilt kunnen werken, of als je andere zooi wilt doen die niet in het OS draait. Daar is KVM voor.

Die laatste zinsnede was een beetje krom inderdaad, ik bedoelde te zeggen 'voor een hypervisor-machine' of iets in die trant. Alles behalve de VMs zelf zeg maar :P

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
KVM is gewoon handig als je fysiek niet bij je machine kan komen en de machine heeft een issue. ook krijg je vaak opties als remote mounten van een iso of een cdrom. en dan kan je zo een OS installeren zonder fysiek met een cd-rom bij de server te moeten zijn.

Er zijn genoeg voordelen voor KVM, maar je moet het maar net nodig hebben. En daarvoor betaal je

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 19:34
Verwijderd schreef op woensdag 09 september 2015 @ 00:35:
Die 5¼-bays heb je tegenwoordig niet zoveel aan; wie heeft er nog een CD/DVD-ROM drive in zijn machine? :)
Die 5,25" bays kan je prima gebruiken voor je schijven. De behuizing van cd/dvd spelers kan je verbouwen tot 5in3 hdd cage (In de deksel boor je een aantal gaten waar je de schijven mee vastschroeft). Heel stuk goedkoper Alleen ontkom je er niet aan om actief te koelen.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Buiten dat, zelfs met actieve koeling is 5-in-3 nog pittig. Er is maar weinig ruimte voor airflow.

Even niets...


Acties:
  • 0 Henk 'm!

  • De Fluppe
  • Registratie: April 2008
  • Laatst online: 18-02 21:03

Verwijderd

IBM 1015 met IT firmware en een HP SAS backplane met eigen firmware (dus níet een insteek SAS expander) en alléén WD NAS SATA disks, is dat stabiel of een bron voor ellende indien een resilver gaat plaatsvinden?

[ Voor 6% gewijzigd door Verwijderd op 12-09-2015 10:42 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Wat is er anders aan een sas backplane dan een sas expander? Een expander heeft ook gewoom eigen firmware hoor...

En hoe bedoel je stabiel? Welk OS? Welk filesystem?

Even niets...


  • GorgeousMetal
  • Registratie: September 2000
  • Laatst online: 16:50
Wat denken jullie van het volgende lijstje voor een simpel NAS servertje.

#ProductPrijsSubtotaal
1Intel Pentium G3258 Boxed€ 68,70€ 68,70
1ASRock E3C224D4I-14S€ 302,50€ 302,50
1Fractal Design Arc Midi R2 Closed€ 82,95€ 82,95
1Startech.com 2 Port USB Motherboard Header Adapter€ 7,15€ 7,15
1Crucial CT2KIT102472BD160B€ 125,01€ 125,01
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 643,26


Systeem zal alleen als fileserver worden gebruikt. Ik wil NAS4Free gebruiken (booten vanaf USB pendrive). Verder wil ik starten met 5 x 4 TB WD Green en t.z.t. uitbreiden met nog eens 5 Harddisks. Geheugen kan ik dan bijprikken n.a.v. harddisk grootte die ik dan aanschaf.

Is Seasonic G360 voldoende (bij startup van 10 disks) of beter gelijk voor Seasonic G450 gaan?

Verwijderd

10 schijven = ongeveer 120 - 140W spinup + zeg 100 voor het systeem dus 250W zou ruim voldoende moeten zijn. 360W is dus al overkill.

Overigens. Een pool met twee keer een RAID-Z van 5 disks is niet zo héél veilig. Beter is dan 10 disks in RAID-Z2 dat is helemaal gaaf. Je kunt nadenken over een manier om zoiets te bereiken. Stel je begint met 4 disks in RAID-Z2 dan heb je maar 2 disks effectief voor opslag. Later kun je dan 6 disks bijkopen en daar kun je een 10-disk RAID-Z2 van maken zonder dataverlies. Is dit niet een leuke optie voor je?

Dan maak je je 4-disk RAID-Z2 eerst degraded zodat alles op 2 disks staat. Dan maak je van de 2+6 = 8 disks een double degraded 10-disk RAID-Z2 aan met maar 8 schijven erin. Dan kopieer je je data over en daarna voeg je de disks disks toe aan de 10-disk RAID-Z2; et voila! :)

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
HenriM schreef op zaterdag 12 september 2015 @ 16:18:
Wat denken jullie van het volgende lijstje voor een simpel NAS servertje.
....
Is Seasonic G360 voldoende (bij startup van 10 disks) of beter gelijk voor Seasonic G450 gaan?
Jouw setup lijkt mij prima.

Je bent van plan om in de toekomst effectief een RAID50 te gaan draaien. Ik ben het eens met Cipher dat dit misschien een beetje tricky is. Zelf zou ik het niet aandurven.

Het upgrade path van CiPHER werkt 100% maar gedurende het upgrade path ben je wel 100% kwetsbaar. Dus net op het moment dat je aan je systeem sleutelt en de kans op disk falen het grootst is, ga je de redundancy verbreken. Het is wel de goedkoopste oplossing.

Nu RAIDZ2 draaien met 6 disks en er daarna nog een RAIDZ van 6 bij stoppen kan ook, maar je gooit dan 2 disks nodeloos weg.

Meteen met een RAIDZ2 van 10 disks draaien, zoals CiPHER suggereert is wel het beste maar ook upfront wel het duurste.

  • GorgeousMetal
  • Registratie: September 2000
  • Laatst online: 16:50
Het idee is om in de toekomst 2 aparte (onafhankelijke) Pools te maken waarbij elke pool RAIDZ1 is. Dat is toch redelijk veilig? Ik ga zeker de 2 Pools niet in RAID0 zetten...

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Zolang je het aantal disks in RAIDZ1 beperkt houdt lijkt me dat inderdaad wel een redelijke aanpak.

  • GorgeousMetal
  • Registratie: September 2000
  • Laatst online: 16:50
Ik begin dus met Pool1 met 5 x 4 TB in RAIDZ1. In de toekomst, afhankelijk wat dan de sweet spot is, koop ik nog eens 5 schijven die ik in een nieuwe onafhankelijk Pool2 zet als RAIDZ1. Verder is het dan waarschijnlijk verstandig om er ook weer wat geheugen bij te zetten vanwege ZFS.

Samengevat:
Pool1: 5 x 4 TB RAIDZ1
Pool2: 5 x n TB RAIDZ1 (toekomst muziek).

Op deze manier is het budget technisch allemaal redelijk haalbaar en toekomst gericht.

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 26-09 13:35
Let er wel op dat dit moederboard iets groter is dan mini-ITX.
De afmetingen dus goed checken met de behuizing. Ik heb er zelf een pricewatch: Lian Li PC-Q26B Zwart genomen.

Ik weet dat een pool nooit een backup mag zijn, maar zou toch RAIDZ2 adviseren -> bij mij heeft Murphy ervoor gezorgd dat bij vervanging disk op RAID-5 de tweede disk de eeuwige jachtvelden inging.

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Meer werkgeheugen bij uitbreiding van je ZFS pool is niet nodig voor thuis, zie ook mijn uitleg in mijn signature. Ik draai met 16 GB op 24 x 4 TB.

Dit is hoe ik over mijn eigen data denk. Als ik voor mijzelf nu een nieuwe NAS zou bouwen, zou ik RAIDZ niet aandurven, alhoewel ik wel eens anders heb beweerd. Ook niet met 5 disks. Ik wil namelijk niet bij het falen van 1 disk mijn redundancy verliezen. Die extra 120-150 euro is mijn data me wel waard. Van de super kritische data heb ik een cloud backup (foto's) maar in de rest van de data zit vooral heel veel tijd en werk, ook al kun je het zo weer downloaden (wat tegenwoordig vaak niet meer waar is).

[ Voor 3% gewijzigd door Q op 12-09-2015 17:32 ]


Verwijderd

10 disks in RAID-Z2 is veel beter dan 2x5 disks in RAID-Z, ook al heb je die in twee losse pools gestopt. Bovendien heb je dan twee keer aparte vrije ruimte die niet met elkaar wordt gedeeld. Het is wel wenselijk dat je één geheel aan ruimte hebt zodat je niet het gezeik krijgt dat je dingen van pool1 naar pool2 moet overhevelen omdat pool2 meer vrije ruimte beschikbaar heeft.

Daarnaast, wat Q zegt dat je kwetsbaar bent, geldt alleen gedurende de paar uur dat je de data van pool1 naar pool2 overhevelt met mijn voorstel. Daarvoor heb je gewoon RAID-Z2 bescherming op 4 disks dus uitmuntende bescherming. Voordat je de RAID-Z2 verbreekt doe je dan eerst nog een scrub om bad sectors uit te sluiten. Dus dan heb je echt al veel risico's afgedekt en het resterende risico van drive failure binnen die paar uur is enorm klein.

Verwijderd

FireDrunk schreef op zaterdag 12 september 2015 @ 13:12:
Wat is er anders aan een sas backplane dan een sas expander? Een expander heeft ook gewoom eigen firmware hoor...

En hoe bedoel je stabiel? Welk OS? Welk filesystem?
ik lees uitval verhalen over SATA disks achter een expander maar lees nergens iets over uitval van SATA disks achter een backplane terwijl dat ook een expander is.

stabiel: zeer hoge io richting die SATA disks, scrub in ZFS of database b.v.
FreeBSD met ZFS

[ Voor 7% gewijzigd door Verwijderd op 12-09-2015 18:21 ]


  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
een SAS Backplate verenigd gewoon je 4 aansluitingen op 1 printplaat.
je plugt bv 4 sata kabels erin en je kunt 4 sata schijven inpluggen mbv wisselframes
er komt dus 4x SATA toe, en 4x SATA uit: ieder kanaal behoudt de volle snelheid.

maar een Expander maakt van 1 aansluiting 4 (of meer) aparte aansluitingen.
er komt dus bv 1x SATA toe en er gaat 4x SATA uit: de beschikbare bandbreedte gaat door 4...

een backplane die van 1x8087/8088 4x sata maakt is dus geen expander - net zo min als je 8087->4Xsatakabel - maar gewoon een backplane...

maw: een backplate kan gewoon een domme printplaat zijn met de nodige pluggen op en ev. ontstoorders zonder enige andere elektronica. (zoals je 1x SAS naar 4x SATA kabel), een expander moet wel meer logica hebben zodat alles correct verloopt.

[ Voor 32% gewijzigd door soulrider op 12-09-2015 21:28 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Verwijderd schreef op zaterdag 12 september 2015 @ 17:53:
10 disks in RAID-Z2 is veel beter dan 2x5 disks in RAID-Z, ook al heb je die in twee losse pools gestopt. Bovendien heb je dan twee keer aparte vrije ruimte die niet met elkaar wordt gedeeld. Het is wel wenselijk dat je één geheel aan ruimte hebt zodat je niet het gezeik krijgt dat je dingen van pool1 naar pool2 moet overhevelen omdat pool2 meer vrije ruimte beschikbaar heeft.

Daarnaast, wat Q zegt dat je kwetsbaar bent, geldt alleen gedurende de paar uur dat je de data van pool1 naar pool2 overhevelt met mijn voorstel. Daarvoor heb je gewoon RAID-Z2 bescherming op 4 disks dus uitmuntende bescherming. Voordat je de RAID-Z2 verbreekt doe je dan eerst nog een scrub om bad sectors uit te sluiten. Dus dan heb je echt al veel risico's afgedekt en het resterende risico van drive failure binnen die paar uur is enorm klein.
Dit scenario vereist dat hij/zij met 4 drives in RAIDZ2 begint, dat geeft maar 8 TB terwijl een 5-drive RAIDZ 16 TB geeft. Als je met een 6-drive RAIDZ begint (16 TB) werkt de truc van CiPHER niet.

Het nadeel van twee losse ZFS pools is dat je data niet lekker makkelijk in 1 pool zit. Ik vind dat zelf een nadeel, ik wil gewoon een grote storage ruimte hebben, precies om de reden de CiPHER schetst. Je kunt data heen en weer gaan lopen hevelen, maar dan krijg je snel een situatie dat je niet meer weet wat op welke pool staat.

Je pool uitbreiden is met ZFS een relatief dure bezigheid. Beter is om alles upfront te kopen, dan krijg je het meeste waar voor je geld. Maar de initiële investering is relatief groot.

Wil je dat niet dan gooi je geld weg door 'teveel' redundancy of loop je toch wat meer risico door RAIDZ te gaan draaien.

Keuzes ;) :+

Verwijderd

Dus heeft hij in het begin maar 8TB effectieve opslag. Prima om even mee te beginnen, als dat betekent dat hij een beter upgrade path heeft. Betekent hooguit dat hij eerder dan voorzien extra 6 disks moet kopen. Ik zou dit in serieuze overweging nemen.

  • GorgeousMetal
  • Registratie: September 2000
  • Laatst online: 16:50
Bedankt voor het meedenken allemaal! Ik ga nu bedenken welk path ik ga volgen. Ik heb nu 3 x 4 TB. Gelijk 7 x 4 TB extra aanschaffen is nogal een forse uitgave. Wellicht even doorsparen ;-).

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Er is nog een mogelijk interessante optie voor je die voor jouw situatie - die veel voor komt - interessant kan zijn.

Hier licht CiPHER het toe:

Verwijderd in "Het grote ZFS topic"

Verwijderd in "Het grote ZFS topic"


Je hoeft niet voor 6 of 10 disks te kiezen als je een VDEV maakt. Als je de large_blocks feature gebruikt kun je ook gerust een 8-disk VDEV maken. Hoef je niet een 10-disk VDEV te maken en 300 euro extra uit te geven voor opslag die je de komende jaren nog niet gebruikt.

[ Voor 6% gewijzigd door Q op 12-09-2015 23:42 ]


Verwijderd

En hier nog in iets meer detail: Verwijderd in "Het grote ZFS topic".

Moet er zelf ook even aan wennen om niet meer automatisch optimale RAID-Z pools aan te raden. :P

Alleen is je pool dan niet meer bootable; al is dat enkel een issue bij ZFSguru omdat FreeNAS en andere platforms Root-on-ZFS volgens mij niet ondersteunen? Iemand die dat kan bevestigen?

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Ik was net onderweg om mijn oorspronkelijke link te wijzigen want die wijst niet naar de juiste post maar je bent me voor :)

Edit: deze vond ik verhelderend:

Verwijderd in "Het grote ZFS topic"

[ Voor 28% gewijzigd door Q op 12-09-2015 23:43 ]


Verwijderd

Great minds think alike. ;)

Acties:
  • 0 Henk 'm!

  • GorgeousMetal
  • Registratie: September 2000
  • Laatst online: 16:50
Geweldige ondersteuning in dit topic hier, bedankt!

NAS4Free kan ik vanaf USB disk booten, dus dat is geen belemmering. Zoals ik het begrijp helpt de 'large_block' feature helpt echter vooral om niet te veel ruimte te verliezen bij niet 'optimale' aantal disks voor gekozen RAID ZFS level?

Mijn keuze is nu echter wat het handigste/verstandigste is voor het aantal disks/RAID ZFS level met het oog op de toekomst en binnen mijn budget.

Als budget geen beperking was dan wist ik het wel (10 x 4 TB in RAIDZFS2).

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Mijn vraag is/was misschien iets te specifiek. Ik heb een probleempje dat mijn disks niet meer downspinnen. Als je een idee hebt, graag input hier:

10 disk array gaat niet meer in spindown

[ Voor 89% gewijzigd door HyperBart op 13-09-2015 17:48 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
HenriM schreef op zondag 13 september 2015 @ 10:42:
Geweldige ondersteuning in dit topic hier, bedankt!

NAS4Free kan ik vanaf USB disk booten, dus dat is geen belemmering. Zoals ik het begrijp helpt de 'large_block' feature helpt echter vooral om niet te veel ruimte te verliezen bij niet 'optimale' aantal disks voor gekozen RAID ZFS level?

Mijn keuze is nu echter wat het handigste/verstandigste is voor het aantal disks/RAID ZFS level met het oog op de toekomst en binnen mijn budget.

Als budget geen beperking was dan wist ik het wel (10 x 4 TB in RAIDZFS2).
Door de large_blocks feature kun jij nu kiezen om bijvoorbeeld 8 x 4 TB in RAID-Z2 te draaien, wat je dus 8-2=6 x 4 TB = 24 TB opslag geeft. Als je voorlopig in de komende jaren die extra 8 TB (32 TB totaal) niet nodig verwacht te hebben, scheelt dat je nu 300 euro tov een 10-disk VDEV.

Aan jou wat je wilt en wat je verwacht voor de toekomst.

Acties:
  • 0 Henk 'm!

Verwijderd

verkeerde draadje

[ Voor 92% gewijzigd door Verwijderd op 14-09-2015 10:33 ]


Acties:
  • 0 Henk 'm!

  • goarilla
  • Registratie: Oktober 2012
  • Laatst online: 20-08 20:36
Wat je ook kan doen is een goedkope storage cloud provider zoeken, al je data dumpen.
Je Pool creeeren, alle data importeren en je cloud service opzeggen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
goarilla schreef op dinsdag 15 september 2015 @ 16:45:
Wat je ook kan doen is een goedkope storage cloud provider zoeken, al je data dumpen.
Je Pool creeeren, alle data importeren en je cloud service opzeggen.
Reken even na hoe lang het duurt om je data daar neer te zetten als je zeg 8 TB hebt en 10Mbit upload (is al ongebruikelijk).

Ik kom op ~92 dagen.

:F

Acties:
  • 0 Henk 'm!

  • goarilla
  • Registratie: Oktober 2012
  • Laatst online: 20-08 20:36
Inderdaad duurt wel eventjes. Zo heb ik zelf voor het werk in januari 45 TB mogen overzetten van een synology naar een NetApp. Heeft 4 maanden geduurt en een pak frustraties.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
goarilla schreef op dinsdag 15 september 2015 @ 17:14:
Inderdaad duurt wel eventjes. Zo heb ik zelf voor het werk in januari 45 TB mogen overzetten van een synology naar een NetApp. Heeft 4 maanden geduurt en een pak frustraties.
Laat ik het plaatje maar weghalen. Ik mag echter hopen dat niemand de cloud overweegt als temporary storage, mijn rekenvoorbeeld laat wel zien dat dit geen optie is.

[ Voor 29% gewijzigd door Q op 15-09-2015 17:45 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik vond het plaatje best leuk eigenlijk. :P

Want na maanden uploaden ook weer wekenlang downloaden. En dan maar hopen dat het allemaal lukt. Brrrrr!

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Q schreef op dinsdag 15 september 2015 @ 17:07:
[...]


Reken even na hoe lang het duurt om je data daar neer te zetten als je zeg 8 TB hebt en 10Mbit upload (is al ongebruikelijk).

Ik kom op ~92 dagen.

:F
Maar dat is toch totaal geen eerlijke berekening? Als je 8TB+ hebt en een trage (zeg sub-50mbit) verbinding, dan stuur je toch gewoon een HDD op naar de cloudbackup-provider? Iedereen ondersteunt dit tegenwoordig. Kost je alleen een relatief bescheiden hoeveelheid verzendkosten - lang niet zoveel als je anders kwijt zou zijn in eigen beheer.

En met een beetje moderne verbinding is het geen probleem om het in z'n geheel te uploaden.

Acties:
  • 0 Henk 'm!

Verwijderd

Wist niet dat dit kon. Trekken ze de inhoud dan geautomatiseerd raw leeg dus van LBA0 tot het einde, of mounten ze een filesystem of hoe werkt dit? :)

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Ligt eraan. Bij Crashplan geef je ze de (encrypted) backupmap op een hdd, en zij kopiëren het backupvolume dan in hun systeem. Jij krijgt dan (op je eigen kosten...) je schijf terug. Backblaze schijnt exact hetzelfde te werken. Beiden zijn dus onafhankelijk van hdd-format.

Van andere diensten weet ik alleen dat ze de optie hebben, niet hoe het in de praktijk in z'n werk gaat.

edit: dat mappen kopiëren is dus ook hoe ik samen met een andere forumganger buddy backup doe.

[ Voor 11% gewijzigd door mux op 15-09-2015 21:17 ]


Acties:
  • 0 Henk 'm!

Verwijderd

mux schreef op dinsdag 15 september 2015 @ 21:16:
Bij Crashplan geef je ze de (encrypted) backupmap op een hdd
Beiden zijn dus onafhankelijk van hdd-format.
Misschien begrijp ik je verkeerd, maar dat lijkt in tegenspraak. Als ze een 'map' alsin een filesystem-directory openen, dan betekent dit dat ze een filesystem moeten mounten. Dat zou dan FAT16/FAT32/NTFS/Ext4 ofzo moeten zijn. Ik neem aan dat ze bijvoorbeeld ZFS dan niet ondersteunen.

Als ze de hardeschijf ruw leegtrekken, dan hebben ze niets met het filesystem te maken en gaat het dus van LBA0 tot het einde - gewoon een complete clone van de schijf dus. Dat laatste werkt filesystem-agnostisch, dat eerste (mappen openen) niet.

Acties:
  • 0 Henk 'm!

  • goarilla
  • Registratie: Oktober 2012
  • Laatst online: 20-08 20:36
Misschien begrijp ik je verkeerd, maar dat lijkt in tegenspraak. Als ze een 'map' alsin een filesystem-directory openen, dan betekent dit dat ze een filesystem moeten mounten. Dat zou dan FAT16/FAT32/NTFS/Ext4 ofzo moeten zijn. Ik neem aan dat ze bijvoorbeeld ZFS dan niet ondersteunen.
Zal wel een encrypted proprietary container zijn op een gangbaar filesystems (ext?, ntfs en hfs). Of misschien zelfs raw met een header en moet je het via hun backup tool "formatteren".

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Ja, ik bedoel dus dat je je backup in de vorm van files geeft, niet in de vorm van raw data, dus je kunt ze aanleveren op ieder filesystem dat je wilt.

Gezien er checksums en metadata bij zit, en gezien je je data encrypted aanlevert (of je moet gestoord zijn), hebben ze niks aan raw data.

Acties:
  • 0 Henk 'm!

  • goarilla
  • Registratie: Oktober 2012
  • Laatst online: 20-08 20:36
Maar wat CiPHER zich afvraagt is wat je precies bedoelt met "ieder filesystem" ?

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

Zolang er bestanden op kunnen worden gezet, kun je het aanleveren. Voor zover ik begrijp ondersteunen ze zelfs btrfs, in ieder geval bij backblaze (was op één van de laatste podcasts die ik heb geluisterd)

Acties:
  • 0 Henk 'm!

Verwijderd

Dat kan dus nooit, want als ik mijn schijf aanlevert met mijn eigen filesystem, of iets wat minder vaak gebruikt wordt zoals HammerFS, dan gaat dit niet werken. Als ze inderdaad op filesystem-niveau werken, dan betekent dit dat niet alle filesystems worden ondersteund.

Als ze inderdaad ook ZFS en Btrfs (en ReFS?) ondersteunen, dan is dit in de praktijk niet zo heel groot probleem. Maar ZFS ondersteuning zou ik dan wel gaaf vinden. Weet je ook dat de checksums bescherming bieden tegen corruptie.

[ Voor 30% gewijzigd door Verwijderd op 15-09-2015 21:32 ]


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

OK, als je echt heel esoterisch gaat zijn zal er vast spul zijn dat niet wordt ondersteund.... :P

  • De Fluppe
  • Registratie: April 2008
  • Laatst online: 18-02 21:03
Ik plaatste reeds een vraag in het zuinige server topic, waarop enkele Tweakers die ook hier er actief zijn (FireDrunk en HyperBart) al reageerden. Omdat ik graag redundancy wou door Raid, werd ik daar echter vriendelijk verzocht om mijn verdere vragen elders te stellen, gezien Raid als onzuinig aanzien wordt. :+ Rekening houdende met wat ik reeds heb opgestoken in dat topic, stel ik hier dus opnieuw mijn vraag.

Ik zoek een?

Afmetingen
Ik zoek een systeem met afmetingen van maximaal 50cm hoog, 25cm breed en 50cm diep. Ik zou deze in de garage tegen de muur hangen tussen de meterkast, router etc. De plaats die daar nog is, heeft ongeveer deze afmetingen. De linkerwand van de kast zal tegen de muur staan.

Gebruik
Ik wil deze inzetten als NAS, om centraal media en documenten op te slaan. Bovendien zou ik hem graag gebruiken als downloadbak. Momenteel maak ik gebruik van torrents, maar ik zou willen omschakelen naar oplossingen waarbij ik niet kan of moet uploaden. Als je iets hoort omtrent rechtzaken en illegale media, gaat het steeds om het uploaden/verspreiden ervan. Dit begint me meer en meer angst aan te jagen.

Heb je specifieke eisen aan software die moet draaien?
Ik zou heel graag ZFS draaien, Raid Z1 of Raid Z2 daar ben ik nog niet helemaal uit. Ik verwacht wel een Raid Z1 uit te kunnen breiden naar een Raid Z2, althans dat had ik zo toch ergens begrepen. Langs de andere kant zou ik graag het systeem willen bouwen en installeren, en er verder niet naar om moeten kijken.

Qua OS heb ik al heel goed rondgekeken. Nas4Free staat me aan omwille van de ZFS ondersteuning en de schijnbaar eenvoudige interface. Xpenology staat me aan omwille het gebruiksgemak dat zo wordt aangeprezen, maar deze mist dan de ZFS. Belangrijk detail: momenteel heb ik enkel ervaring met Windows. Ik ben een beetje aan het prutsen met Nas4Free in VirtualBox, maar krijg mijn internetverbinding maar niet gedeeld met de VM en kan dus niet aan de web-interface. :+

Verder wil ik graag per map kunnen bepalen met welke systemen of gebruikers ik deze kan delen, maar ook voor wie de hoofdmap zichtbaar is. Cru gezegd: mijn ouders moeten geen mapje "XXX" te zien krijgen.

Welke apparatuur heb je al?
1 WD Green schijf van 2TB en 2 WD Green schijven van 3TB, deze hangen in mijn desktop. Ik ben er niet 100% zeker van dat onderstaande links naar het correcte product verwijzen. Door bij 3TB schijven te blijven kan ik de 2 die ik al heb recupereren en zo de kosten drukken.
#ProductPrijsSubtotaal
1Western Digital Caviar GreenPower WD20EARS, 2TB€ 0,-€ 0,-
2Western Digital Green SATA 3 Gb/s WDBAAY0030HNC, 3TB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 304,35

Gewenste capaciteit en uitbreidbaarheid
Ik heb nu ongeveer 4TB aan data. Met 9TB of 12TB denk ik wel een hele tijd toe te komen, toch zeker tot ik het huis uit ben. Uitbreidbaarheid is daarom minder belangrijk. Ik neem aan dat mijn ouders en broer snel gewend zijn aan een NAS in huis. Eens deze outdated zou zijn, zouden de 3TB schijven nog perfect voor hen kunnen dienen en kan ik opnieuw aan de slag met een RAIDZ van 4 of 5 of 6 grotere schijven, die op dat moment een beter prijs/TB hebben.

Wat is je budget?
Liefst zo weinig mogelijk. Als een meerprijs voor een bepaald onderdeel te rechtvaardigen is, dan heb ik er geen probleem mee om deze te betalen. Origineel dacht ik op basis van de BBG van Juli 2015 aan € 250 à € 300 zonder schijven. Op basis van adviezen op GoT kom ik in mijn wenslijst echter al op € 400 dus laat ons dit als richtprijs nemen. Ook qua verbruik zou ik graag zo zuinig mogelijk gaan.

Wat heb je zelf al gevonden?
Ik zou voor een Synology DS414j kunnen gaan. Deze keuze zou er dan wel voor zorgen dat ik geen ZFS kan draaien. Verder heb ik er geen flauw idee van of ik met Synology links van Rapidshare etc. kan downloaden. Het downloaden zou eventueel met een afzonderlijk systeem op basis van een Raspberry Pi en een externe schijf kunnen, deze zouden dan ook nog aangekocht moeten worden.

Gezien ik in dit topic post, gaat mijn voorkeur echter uit naar een DIY RAID NAS omwille van de betere bang for buck. Ik kwam voorlopig al uit op volgende wenslijst:
#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 101,49€ 101,49
3WD Green WD30EZRX€ 97,01€ 291,03
1Fractal Design Node 304 Zwart€ 77,50€ 77,50
6Akasa SATA III 6.0 Gb/s€ 3,86€ 23,16
2Silverstone SST-CP06 4x SATA€ 8,50€ 17,-
1Crucial CT102464BF160B€ 39,-€ 39,-
1Highpoint Rocket 620€ 32,-€ 32,-
1Seasonic Power Adapter 102W - 12V€ 43,-€ 43,-
1Crucial BX100 250GB€ 83,01€ 83,01
Bekijk collectie
Importeer producten
Totaal€ 707,19

Welke vragen heb je hier nog over?
Als ik alles, inclusief schijven, bestel bij SiComputers, kom ik uit op ongeveer € 750,00. Dit is me toch een redelijk bedrag. Indien sommige componenten overkill zijn voor waarvoor ik het systeem zou gebruiken, hoor ik het graag. Ik zal alvast enkele keuzes al motiveren, zodat jullie gericht advies kunnen geven;

3 HDD's van 3TB, voor een totaal van 5x 3TB WD Green:
Ik heb reeds 2 schijven van 3TB, wat de kosten drukt. Ik las dat voor RaidZ het aantal dataschijven best gelijk is aan een macht van 2. Vandaar 4 schijven +1 voor redundancy. Met 4x 3TB voor 9TB aan ruimte zou ik echter ook genoeg hebben. Ik weet echter niet wat de impact dan is op de prestaties, en of de oplossing met grotere blocks impact heeft op het gebruik dat ik voor ogen heb.

Behuizing:
Ik ben zeer tevreden over mijn Fractal Design Define R4 en de Node 304 is de Editor's Choice op SPCR in zijn categorie. Ik zou ook voor een Cooler Master N300 kunnen gaan zoals in de BBG, maar de meerprijs van € 40 lijkt me gerechtvaardigd gezien de herbruikbaarheid en inzetbaarheid van de Node 304.

Adapter:
Ik meende goede dingen gelezen te hebben over de Seasonic adapter en hoop dat 102W genoeg is voor wat ik ermee wil doen. Geen idee of deze volstaat indien ik alsnog een RaidZ2 met 6 schijven zou bouwen.

SSD:
Ik zou deze willen inzetten als OS-schijf en L2ARC. De L2ARC zou ik gebruiken om mijn schijven minder vaak te laten opspinnen en zo hun levensduur te verlengen en het energieverbruik te laten dalen. 250GB was slechts €20 duurder dan 125GB, no-brainer.

Algemeen
Indien L2ARC niet noodzakelijk is, ik vanaf USB stick draai en een RaidZ van 4x 3TB maak, spaar ik de SSD, de hardeschijfcontroller en een aantal kabels uit, voor €83 + €32 + €17 + €12 = €144. Dat brengt me dan op mijn oorspronkelijke gedacht van ongeveer €250 + schijven. Dit is dan ook goedkoper dan de Synology voor dezelfde functionaliteit. Mijn totale bestelling, inclusief schijven, als ik alles door SiComputer laat leveren, gaat dan ook van €750 naar €450 (9TB ipv 12TB, dus een beetje scheef, maar bon...).

Welke oplossing lijkt jullie de beste? Ga ik er veel van merken als ik de L2ARC laat vallen en voor een sub-optimale RaidZ van 4 schijven kies? Alle adviezen en opmerking zijn welkom. Zowel op vlak van software, complete setup als afzonderlijke onderdelen.

Acties:
  • +1 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 22:22

Harrie

NederVlaming

Kijk naar de Cooler master NA 90. Gebruik ik ook met een Q1900DC en 3x WD Green 3TB.
Zit ook in het assortiment bij SiComputers, voor 27,50. Scheelt toch weer mooi 15 euro.

Acties:
  • +1 Henk 'm!

Verwijderd

Als je gekozen ZFS oplossing de feature large_blocks ondersteunt, kun je prima afwijken van de optimale ZFS configuraties. Dus 4 disks in RAID-Z is dan prima, met zowel 4K optimalisatie als 1024K Recordsize. Dat laatste is mogelijk met de large_blocks feature en dit zorgt ervoor dat je zowel optimale prestaties als optimale hoeveelheid beschikbare ruimte hebt. Je kiest voor NAS4Free, ik denk dat de nieuwste versies deze feature ook ondersteunen, maar helemaal zeker doe ik dat niet. De feature is nog vrij nieuw namelijk.

L2ARC is voor jouw gebruik denk ik overbodig, zeker omdat je zoveel geld kunt besparen. Zou je echter wel voor een SSD gaan, raad ik je met klem aan om geen BX100 maar een MX200 te kopen. De BX100 heeft een afwijkende controller en minder features. De MX-serie (en M-serie) hebben een veel betere controller en power-safe capacitors. Hierdoor kun je de SSD ook voor sLOG feature gebruiken, en sowieso is dit een veel betere SSD. Dus of de MX200 of beter helemaal geen, is mijn gedachte.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Even een combinatie...
mux schreef op dinsdag 15 september 2015 @ 21:26:
Ja, ik bedoel dus dat je je backup in de vorm van files geeft, niet in de vorm van raw data, dus je kunt ze aanleveren op ieder filesystem dat je wilt.

Gezien er checksums en metadata bij zit, en gezien je je data encrypted aanlevert (of je moet gestoord zijn), hebben ze niks aan raw data.
Verwijderd schreef op dinsdag 15 september 2015 @ 21:31:
Dat kan dus nooit, want als ik mijn schijf aanlevert met mijn eigen filesystem, of iets wat minder vaak gebruikt wordt zoals HammerFS, dan gaat dit niet werken. Als ze inderdaad op filesystem-niveau werken, dan betekent dit dat niet alle filesystems worden ondersteund.

Als ze inderdaad ook ZFS en Btrfs (en ReFS?) ondersteunen, dan is dit in de praktijk niet zo heel groot probleem. Maar ZFS ondersteuning zou ik dan wel gaaf vinden. Weet je ook dat de checksums bescherming bieden tegen corruptie.
Even een aanname van mijn kant is dat Crashplan net zo werkt als het algemene buddy systeem.

Alle checksums, versleuteling, ... en alles vinden bij Crashplan op bestandsniveau (eigenlijk 'container'niveau) plaats.

Je moet simpelweg een harde schijf leveren met de data (die versleuteld is). Het moet op een filesysteem staan dat je buddy of Crashplan kan gebruiken, simpelweg om de data te kunnen lezen. Crashplan of je buddy kan heel goed mogelijk enkel de disc aansluiten en direct de data naar een ander, 'eigen' filesystem kopieren.
Wat Crashplan of je buddy uiteindelijk moet doen is zorgen dat Crashplan, de applicatie, de versleutelde data kan zien. Jouw Crashplan instantie moet vervolgens die versleutelde data controleren en vervolgens bijwerken.

[ Voor 22% gewijzigd door Dadona op 20-09-2015 00:15 ]

De CSL/OT kroeg !

Pagina: 1 ... 191 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.