[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Want ik denk dat ik niet de enige ben die 10G zou willen voor mijn ZFS thuis NAS. En nee 'nodig' heb ik het niet. Maar wel zonde dat je intern 1GB/s kunt stoken maar het netwerk al heel lang op gigabit wordt gebottlenecked. De Intel X540 is stevig aan de prijs. Als xeon-D inderdaad 850 euro zou kosten, vind ik dit best het overwegen waard. Zeker als hij nu een duur Avoton bordje van bijna 500 euro zou overwegen, is het toch niet heel vreemd dat ik ook de optie van Xeon-D opper? Net iets meer centen en je krijgt ook gelijk het allerbeste.
Wat zijn precies de argumenten tegen 10G danwel Xeon-D? Uiteraard is het een persoonlijke afweging. Maar de beschikbaarheid lijkt mij het grootste obstakel. Niet eens de prijs, als hij 450 euro over heeft voor Avoton, dan valt Xeon-D ook te bespreken lijkt me.
Deze Canadese webshop zou hem leveren voor omgerekend 849 euro. Dus dat komt aardig overeen. Ik zit er eigenlijk wel serieus over te denken voor mijn volgende build. Je krijgt er een hoop bij. En natuurlijk superzuinig alles geïntegreerd:
- Mini-ITX formaat met vier DIMM slots
- 8 cores / 16 threads op 45W
- 2x Intel 10G ethernet geleverd door de SoC-chip zelf dus zit in het 45W TDP budget.
- onboard DC-DC power supply - geen ATX voeding nodig
- 64GiB DDR4 ECC UDIMM
- IPMI
- 6x SATA/600
- PCI-express 3.0 x16 dus 16GB/s expansion slot
[ Voor 33% gewijzigd door Verwijderd op 08-09-2015 01:25 ]
Maar het platform is bijna *50%* duurder dan het Avoton bord en 10Gbit in een enkele client krijgen kost je ook zo 300+ euro. En dan komt de extra HBA er nog bij, want de Avoton heeft een hoop sata/sas on-board. Dat gaat een hele andere kant op. Het sluit helemaal niet aan bij de wensen van novastorm76.
Dat jij & ik het platform misschien voor onszelf zouden overwegen, is een hele andere discussie.
Zoals Player-x schrijft, Xeon-D zal door de verwachte verkoop prijs waarschijnlijk een niche-product worden voor de 0.1% die een NAS wil bouwen die dat soort performance waardig is.
Ik vind het trouwens jammer om te lezen dat je je eigen build(s) bewust niet in het 'showoff' topic laat zien. Volgens mij kunnen wij nog helemaal nergens op GoT jouw systemen bewonderen en dat is best jammer. Het topic heet 'show-off' maar het is helemaal niet een kijk-mijn-dikke-auto-ik-ben-milionair topic. Mensen die posten worden 'gedwongen' om aan eisen te voldoen die als doel hebben dat andere mensen er wat van kunnen opsteken. Delen van informatie.
Verwijderd
Dat is toch het hele doel van dit forum? Gedachten en inzichten uitwisselen? Het is uiteraard aan novastorm welke route hij uiteindelijk kiest. Maar dan heeft hij een overzicht wat er te kiezen valt. Volgens mij is dat alleen maar in zijn voordeel. En kiest hij uiteindelijk voor een 'gewone' Xeon setup, dan is dat een weloverwogen besluit na alles opties te hebben verkend. Inderdaad wel een stuk goedkoper want dat is ook nog een stukje goedkoper dan Avoton en heeft hij toch vt-d wat voor ESXi toch wel een must is natuurlijk.
Ik snap alleen niet waarom ik zo word afgebrand door het opperen van de Xeon-D optie. Dat lijkt mij echt wel het overwegen waard als je toch veel geld gaat uitgeven. Anders vind ik de meerprijs t.o.v. J1900 weer minder prijs/kwaliteit-verhouding hebben. J1900 is leuk instap, Xeon-D weer het andere uiterste. Ik vind - héél persoonlijk! - de tussenstappen wat minder interessant. Maar kan prima zijn dat deze tussenstap uiteindelijk wel de beste keuze is voor novastorm. So be it!
En hoeveel mensen hebben een C2750 als thuis NAS? 0,3 procent misschien. Maar dat is toch geen argument om het niet te mogen aandragen als optie? Zeker als iemand met een redelijk budget komt en het zelfs al besteld had, is de meerprijs van Xeon-D echt niet absurd ofzo. We praten niet over een thuis NAS van 6000 euro, dat is andere koek. Dan had ik je beter begrepen.
En ja, je mag best weten dat ik dat 'showoff topic' (de naam zegt het al) best wel patserig vind. Ook het sorteren op grootte. Het komt toch over als 'wie heeft de langste penis'. Interessanter zou ik vinden: hoe zuinig is je setup in absolute zin of juist hoeveel watt per TB opslag standby, zonder spindown. Dat soort dingen kun je ook op sorteren. Het verhogen van de vereiste minimum grootte van 10TB naar 20TB, omdat 10TB te casual werd, tsja.. dat bevestigt alleen maar mijn gedachtes hieromtrent.
Daarom dat ik het zelf anders wilde doen in het nieuwe zelfbouw topic. Iedereen is welkom om zijn build in een lijstje te stoppen. Ook zuinigheid en speciale features kunnen hier een vermelding krijgen. Passief gekoeld, kleine afmeting, speciale schijven (de 2,5" HDD build van Zware Unit bijvoorbeeld) enzovoorts. Genoeg om interessante vergelijkingen te maken. Niet alleen 'wie heeft de grootste' - dat is niet mijn ding.
Dat gezegd, ik respecteer andere meningen prima hoor. Maar je zult mijn build er niet snel aantreffen. Geeft mij niet een fijn gevoel: 'ik wil er ook bij horen!!'. Sowieso heb ik vaak een andere insteek dan jullie, passief gekoeld bijvoorbeeld is een beetje mijn ding. Zoiets kan juist leuk zijn voor anderen om ook eens te overwegen. Misschien uiteindelijk van 'leuk maar niet mijn ding' maar dan weet je toch wat er te kiezen valt. Daar is dit forum voor, lijkt me.
Je hebt wel een punt dat ik zelf weinig openbaar maak over mijn builds (ondertussen al 5..). Het leek mij wel leuk om een mooie blogpost te maken met veel foto's en ook een guide hoe ik mijn eigen kast heb gemaakt enzovoorts. Kan ook interessant zijn voor anderen. Dus dat wil ik echt nog wel een keer doen. Maar kost ook tijd en die heb ik tegenwoordig niet meer zoveel. Een lange post typen gaat me toch echt veel gemakkelijker af.
Zo genoeg semi-offtopic. Anders maar eens via DM bijkletsen en laat ik dit zeggen: ik respecteer echt wel andere meningen en het is ook niet zo dat ik 'gelijk' heb. Ik heb wel een mening, net als anderen. Het is aan jullie om daar wat mee te doen of juist niet. Maar dat maakt me nog geen trol - ik zit hier niet om jullie te pesten. Ik hoop dat je dat niet serieus bedoelde.
Tja, het is maar net hoe je het bekijkt. Ik (imho) vindt het nog al een flinke slok op een borrel als je 50% meer uitgeeft voor je basis hardware. Tuurlijk mag je doen en laten wat je wilt, 't is jouw budget.Verwijderd schreef op dinsdag 08 september 2015 @ 03:16:
Oeeeh 50% duurder!Dat valt toch wel mee? Als je toch bezig bent, dan gelijk goed. Zo denk ik in elk geval.
Afhankelijk van je opties en wensen kun je jezelf flink te buitengaan met latest shit server hardware en bad-ass behuizing. Als je taalt naar een 10 Gbit netwerk omgeving mag je dat best na streven, of het nu voor 'de heb' is of omdat je het echt zinnig inzet.
Idd, een beetje reflectie en je beoogde setup in de groep gooien, daar is niets mis mee. Op dat gebied kan ieder hier van een ander leren. Feit blijft dan wel dat de gebruiker aan moet geven wat de wensen en gedachten zijn mbt gebruik en doel van de NAS, op die manier kun je je er over buigen en je ervaring meedelen. Dit laatste om iemand van een fikse fout te behoeden of te kunnen masseren naar een oplossing die meer toekomst muziek biedt.Dat is toch het hele doel van dit forum? Gedachten en inzichten uitwisselen? Het is uiteraard aan novastorm welke route hij uiteindelijk kiest. Maar dan heeft hij een overzicht wat er te kiezen valt. Volgens mij is dat alleen maar in zijn voordeel. En kiest hij uiteindelijk voor een 'gewone' Xeon setup, dan is dat een weloverwogen besluit na alles opties te hebben verkend. Inderdaad wel een stuk goedkoper want dat is ook nog een stukje goedkoper dan Avoton en heeft hij toch vt-d wat voor ESXi toch wel een must is natuurlijk.
Geen idee waarom, wellicht is de gedachten dat het gewoonweg een duurkoop optie is op dit moment en je het daarom een slechtere keuze is. Persoonlijk heb ik zoiets van, als je er de centen aan uit wilt geven,.. be my guest.Ik snap alleen niet waarom ik zo word afgebrand door het opperen van de Xeon-D optie. Dat lijkt mij echt wel het overwegen waard als je toch veel geld gaat uitgeven. Anders vind ik de meerprijs t.o.v. J1900 weer minder prijs/kwaliteit-verhouding hebben. J1900 is leuk instap, Xeon-D weer het andere uiterste. Ik vind - héél persoonlijk! - de tussenstappen wat minder interessant. Maar kan prima zijn dat deze tussenstap uiteindelijk wel de beste keuze is voor novastorm. So be it!
De naam zegt het idd al, het is de bedoeling dat je je e-penis showt en het heeft een groot 'kijk mij eens met mijn kekke hardware' gehalte, maar dat zit ingesloten in de minimale omvang om in de lijst te komen.En hoeveel mensen hebben een C2750 als thuis NAS? 0,3 procent misschien. Maar dat is toch geen argument om het niet te mogen aandragen als optie? Zeker als iemand met een redelijk budget komt en het zelfs al besteld had, is de meerprijs van Xeon-D echt niet absurd ofzo. We praten niet over een thuis NAS van 6000 euro, dat is andere koek. Dan had ik je beter begrepen.
En ja, je mag best weten dat ik dat 'showoff topic' (de naam zegt het al) best wel patserig vind. Ook het sorteren op grootte. Het komt toch over als 'wie heeft de langste penis'. Interessanter zou ik vinden: hoe zuinig is je setup in absolute zin of juist hoeveel watt per TB opslag standby, zonder spindown. Dat soort dingen kun je ook op sorteren. Het verhogen van de vereiste minimum grootte van 10TB naar 20TB, omdat 10TB te casual werd, tsja.. dat bevestigt alleen maar mijn gedachtes hieromtrent.
Mijn insteek, om mijn NAS bak in 't show-off topic te zetten, is/was om te delen wat ik wilde en waar heen het ging. Nadat wat horden waren genomen en de boel zonder al te veel morren werkte is de NAS bak tot 'just another storage box' verworden. Wat blijft is dat anderen die iets soortgelijks in gedachten hebben evt. bij je aankunnen kloppen en leren van jouw gestuntel/ervaringen.
Voor een combi van voldoende omvang en zuinig in verbruik is voldoende te zeggen, doorgaans vallen die buiten de boot ivm de beperktere capaciteit van de 2,5" disks (2 TB op dit moment) of je moet er 20 van in je NAS inbouwenDaarom dat ik het zelf anders wilde doen in het nieuwe zelfbouw topic. Iedereen is welkom om zijn build in een lijstje te stoppen. Ook zuinigheid en speciale features kunnen hier een vermelding krijgen. Passief gekoeld, kleine afmeting, speciale schijven (de 2,5" HDD build van Zware Unit bijvoorbeeld) enzovoorts. Genoeg om interessante vergelijkingen te maken. Niet alleen 'wie heeft de grootste' - dat is niet mijn ding.
Jammer dat je je andere builds idd niet deelt omdat je je ongemakkelijk voelt bij het idee als een 'meeloper' te gaan worden gebrandmerkt. Naar mijn bescheiden mening heb je het recht van spreken hier wel verdiend en behoef je niet onder een steen te schuilen.Dat gezegd, ik respecteer andere meningen prima hoor. Maar je zult mijn build er niet snel aantreffen. Geeft mij niet een fijn gevoel: 'ik wil er ook bij horen!!'. Sowieso heb ik vaak een andere insteek dan jullie, passief gekoeld bijvoorbeeld is een beetje mijn ding. Zoiets kan juist leuk zijn voor anderen om ook eens te overwegen. Misschien uiteindelijk van 'leuk maar niet mijn ding' maar dan weet je toch wat er te kiezen valt. Daar is dit forum voor, lijkt me.
Je hebt wel een punt dat ik zelf weinig openbaar maak over mijn builds (ondertussen al 5..). Het leek mij wel leuk om een mooie blogpost te maken met veel foto's en ook een guide hoe ik mijn eigen kast heb gemaakt enzovoorts. Kan ook interessant zijn voor anderen. Dus dat wil ik echt nog wel een keer doen. Maar kost ook tijd en die heb ik tegenwoordig niet meer zoveel. Een lange post typen gaat me toch echt veel gemakkelijker af.
Mbt tijd, daar kan ik me wel in vinden, als je druk met je werk en leven bent dan blijft er weinig tijd over om je hobbies te documenteren en uit te dragen. Soms vergeet ook gewoonweg om foto's e.d. te maken van een build waar je mee bezig bent. Ik legt steevast de camera klaar, maar kom er vaak achter dat ik de eerste 2 a 3 stappen fotografeer en er bij het 'stekkeren' van de build achter kom dat ik, geabsorbeerd door het proces, geen foto meer heb genomen.
Ach, zo lang je jezelf maar niet al te serieus neemtZo genoeg semi-offtopic. Anders maar eens via DM bijkletsen en laat ik dit zeggen: ik respecteer echt wel andere meningen en het is ook niet zo dat ik 'gelijk' heb. Ik heb wel een mening, net als anderen. Het is aan jullie om daar wat mee te doen of juist niet. Maar dat maakt me nog geen trol - ik zit hier niet om jullie te pesten. Ik hoop dat je dat niet serieus bedoelde.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
mijn primaire doel is opslag en ZFS. Op dit moment gebruik ik een synology, maar ik wil toch iets meer DIY. Daarnaast wil ik ook dus met features zoals Samba, sabnzb etc stoeien. Op mijn synology kan je het wel instellen, maar ik merk toch dat het niet super krachtig is. Kortom.... het is wat dat betreft niet echt een super vreemde NAS. Het zou wel fijn zijn om te kunnen expanderen naar een grotere setup zonder gelijk alles te moeten vernieuwen. Dus eerst beginnen met b.v. 8 schijven en eventueel (en dat is mijn droom) doorgroeien naar xx aantal schijven. (vandaar dus ook mijn voorliefde voor de 19inch servers.) Maar dat is niet een vereiste aangezien je de case redelijk goedkoop kan vervangen.
Daarnaast zou ik ook wel graag alle services die ik wil aanbieden willen onderbrengen op vmware. Dit is een secundaire wens. Het zou enorm mooi zijn. Het scheelt namelijk een aparte machine bouwen en de bijkomende stroom. Want voor het geld van een 2e machine kan ik ook 2 jaar aan stroom betalen (gok ik zo). Maar voor VMware moet ik dus wel een iets krachtigere machine hebben met iets meer RAM (32GB reken ik zo). 16 voor zfs en 16 voor vmware. En dat het ook uit te breiden is.
Is het zo al iets duidelijker?
[ Voor 29% gewijzigd door Q op 08-09-2015 09:59 ]
Dus het moederbord moet wel 32 GB aankunnen. En dan ECC in verband met ZFS. Daarnaast zou in ieder geval 8 sata aansluiting fijn zijn. Dan kan ik in ieder geval al mijn 5 x 1TB schijven aansluiten en heb ik nog 3 poorten over voor eventuele andere schijven.
@CiPHER: ik kan volgens mij niet rekenen. Het is niet 50% duurder, maar grofweg 100% duurder = 2 x zo duur. 450 = 100%. En als je de client harware mee rekent nog veel meer.
Los van het storage topic zijn er veel mensen die graag een post zouden zien met foto's van wat je hebt gemaakt. Als jij werd betaald hier op GoT per woord dan was je nu schathemeltje rijk, je bent een van de productiefste posters hier. Volgens mij lukt het jou wel om binnen een redelijke tijdsspanne een mooie post met een paar foto's te plaatsen, misschien op je storage blog?
Wat betreft het storage showoff topic, hoe jij het topic voorstelt is hoe jij het misschien interpreteert, maar als je de topic start leest dan is dat topic helemaal niet een soort van kijk-eens-hoe-groot-mijn-penis-is. Ik snap dat dit aspect er hoe dan ook wel een beetje aan kleeft en misschien speelt het voor mensen mee.
Maar het is zeker niet de geest van het topic.
Grote storage is gewoon gaaf en een hoop mensen hebben er interesse in. De topic start is daar zeer uitgbreid over. Het doel is dat mensen zoveel mogelijk informatie over hun builds delen.
Het topic is ook bedoeld voor technisch interessante builds, een belangrijk onderdeel van de topic start. Dat het topic van 10 TB naar 20 TB is verhoogd is niet uit een soort elitairisme, maar om de kwaliteit van het topic te bewaken: technisch interessante grote storage builds. Geen ik-stop-4-grote-disks-in-mijn-game-pc setups. Dat is niet *interessant*: daar zit geen uitdaging in.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.
Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.
Wat is er nu te adviseren?
2011-3 of 1155, of toch nog een andere socket?
En kan ik me blindstaren op de TDP (lager is zuiniger) of gaat dat niet op?
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
[ Voor 14% gewijzigd door Q op 08-09-2015 11:20 ]
HellStorm666 schreef op dinsdag 08 september 2015 @ 10:47:
Om even in te haken op het ESXi, VT-d en FreeNAS deel.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.
Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.
Wat is er nu te adviseren?
2011-3 of 1155, of toch nog een andere socket?
En kan ik me blindstaren op de TDP (lager is zuiniger) of gaat dat niet op?
Geen ervaring met FreeNAS in een vm, OI/Illuminos in combi met Napp-it werkt goed onder ESXi en ZoL (ZFS on Linux) is ook geen probleem.Q schreef op dinsdag 08 september 2015 @ 11:14:
1150 is de meest gebruikte socket hier, 1155 is oud. 2011-3 weet ik even niet, meestal is dat een socket voor de big-bad-xeons die vaak buiten budget liggen. Skylake doet socket 1151.
In hoeverre zit je vast aan het format van je mobo? (ruimte beperking/wens voor compact systeem. etc)
s1150 is beperkt tot max. 32 GB UDIMM RAM, dit hoeft geen probleem te zijn voor wat je wilt (bijv. 16 GB voor je ZFS vm en de resterende 16 GB voor de andere vm's {werkt goed in mijn handen
Met Regged ECC RAM ben je wat goedkoper uit en kun je doorgaans tot meer RAM komen, de vraag is wel of je die 'sloot' aan RAM echt nodig zult gaan hebben.
Maar waar ligt t accent van je build?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
En vergeet niet dat Avoton (dat bordje wat je post bv.) alleen maar Unreg ECC slikt...HellStorm666 schreef op dinsdag 08 september 2015 @ 10:47:
Om even in te haken op het ESXi, VT-d en FreeNAS deel.
Ook ik wil graag FreeNAS met raidz-2 draaien. Maar het liefste binnen ESXi, waardoor VT-d een vereiste is.
Ook wil ik sowieso ECC geheugen gebruiken. R-Dimm is dan goedkoper en makkelijker te vinden dan U-dimm.
Echter raak ik al compleet de weg kwijt bij de keuze 2011-3 of 1155 (of nog een andere)
Zat eerst te denken aan de ASRock C2750D4I, maar die mist het VT-d. En ik weet zeker dat ik ESXi zal gaan missen.
Ik heb zelf een ESXi-host met 128 GB RAM en FreeNAS, en ik vind het zelf heerlijk om gewoon VM's aan te kunnen maken zonder bang te zijn dat ik teveel geheugen uitdeel. 32 GB RAM aan FreeNAS (mede omdat er een aantal jails in draaien, was eerst zelfs 64 GB omdat ik ook met dedup wilde spelen, maar zoveel werd er niet gebruikt, en dedup staat ook weer uit), 4 Minecraft-servers, een 7 Days 2 Die server, een Space Engineers server, een beheers-VM, een vCenter Server die het steeds 90 dagen doet
Het is echter natuurlijk wel een financiële afweging
[ Voor 5% gewijzigd door Paul op 08-09-2015 12:20 ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
Allereerst nogmaals bedankt voor jullie geduld met mij. Ondanks dat ik snel leer, duurt het soms even voor ik het geduld heb om zaken uit te zoeken. Alleen nu loop ik een beetje vast in een 2-strijd.
aan de ene kant kan ik gaan voor een gewone "NAS" oplossing en het VMware verhaal even achterwege laten. Dan ziet mijn plaatje er ongeveer zo uit (correct me if i'm wrong)
ASRock C2750D4I a 418 euro
2x Crucial CT102472BD160B a 58
Silverstone DS380
en nog een voeding en wat extra kabels.
Als ik dan ga nadenken over een VMware setup, dan loop ik al gelijk tegen een zooi vragen aan. Vandaar dat ik deze opstelling dan even in verhaal vorm doe.
Indien ik voor VMware ga, dan is VT-d belangrijk. Dus kom ik al snel op de de 1150 socket uit. Een goedkope 1150 CPU is
Intel Core i5 4460 Tray a 181 euro
Als ik dan nadenk over dit alles, dan vind ik een KVM ook wel handig in het geval van remote troubleshooten etc en het aanzetten. En als ik dan toch voor VMware ga, dan ook maar 32 GB ram erin. Dan ben ik meteen klaar voor de komende tijd.
Waar ik kan tegenaan loop is dat de meeste moederborden ineens enorm weinig SATA aansluitingen hebben. De enige die wel veel sata aansluitingen heeft is de ASRock C2750D4I. maar die heeft weer unbuffered DIMM's nodig. en daardoor word deze gelijk weer flink duurder.
Kortom, als ik dus 8 schijven wil aansluiten, dan zal ik dus ook weer een controller kaart erbij moeten hebben (volgens mij) Die zijn ook niet zo goedkoop, dus ineens word alles wel extreem prijzig.
Ik heb zelf nog een doos vol met PCI-x 133 controllers, maar die passen weer op geen enkele moederbord. Dus die kan ik ook niet inzetten........
Zit ik nu gewoon verkeerd te denken?
Waarschijnlijk gebruik je een SSD voor je localdatastore en dus op de enige controller op dat 1150 bordje.
In dat geval heb je dus altijd een tweede controller nodig.
Denk hierbij aan een IBM M1015, Dell H200 of Dell H310. Of iets van een andere vendor met gelijkende LSI-chip.
Any job you can do in your pajamas is not the hardest job in the world.
Verwijderd
ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.
ja, dat doe ik altijd (esxi vanaf usb). maar dan kan je dus wel weer de controller van je mobo doorgeven toch? of is dat ook niet aan te raden?Verwijderd schreef op dinsdag 08 september 2015 @ 20:25:
ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.
Tenzij er iets veranderd is, kan je geen datastore aanmaken op een USB device. Dus je zal altijd iets van harde schijf moeten aansluiten.Verwijderd schreef op dinsdag 08 september 2015 @ 20:25:
ESXi kun je doorgaans vanaf een USB stick draaien dacht ik, dus dan hoef je geen SATA of controller op te offeren.
Ik had dit namelijk ook in gedachten, ESX op een USB stick, een VM met een fileserver om daarop een NFS datastore aan te maken voor de rest. Maar die vlieger gaat dus niet op.
Er zijn een aantal opties en extra wensen. Daarnaast nooit een NAS gebouwd of mee gewerkt, dus weinig ervaring. Ik hoop dat jullie me wat advies kunnen
Als wensen heb ik de volgende:
- krachtig, maar wel zuinig in idle (totaal max 100 W piekvermogen en idle zolaag mogelijk)
- robuust
- IPMI / KVM over IP
- raid 5
- DNLA capable
locatie zal een afgesloten kast op zolder zijn.
Budget is rond 500 euro
Momenteel zijn de volgende globale opties die ik overweeg,
Optie 1: Synology NAS (bijv. DS215+) super storage oplossing, maar geen DC systeem.
Optie 2: Oude server (bijv. via serverhome) kopen en linux erop, bijv. HP Microserver
Optie 3: zelfbouw server
Graag jullie advies over het gebruik van oude servers. Is dit aan te raden?
Kets.
[ Voor 4% gewijzigd door Kets_One op 08-09-2015 21:58 ]
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Verwijderd
Synology gebruikt ARM chipjes. Dat valt echt niet te vergelijken. Dat is iets wat je op je telefoon gebruikt. Een J1900 is een 2GHz quadcore processor met turbo-core. Die is ongeveer 10 keer sneller dan een AMD C60 - ongeveer de traagste chip (dualcore 1GHz) die een ZFS NAS gigabit vol kan trekken - nog maar nèt.jobr schreef op dinsdag 08 september 2015 @ 21:02:
Ik zie de J1900 hier veel voorbij komen. Echter kon ik zou snel niet iets vinden over welke snelheden gehaald kunnen worden over het LAN. In hoeverre is deze bijv vergelijkbaar qua snelheid met een DS215j?
J1900 heeft alleen geen AES-NI dus geen hardwarematige encryptie. Maar ook softwarematig zal deze boven de 100MB/s komen lijkt me. J1900 is wel traag single core, maar omdat het een quadcore is, kan deze bij SMP workloads prima meekomen met reguliere chips van een veel hoger TDP. Ik vind de J1900 veelal ondergewaardeerd.
Ik gebruik de J1900 veel, ook voor deduplication, compressie en encryptie. Ik kijk vaak wel naar de CPU usage. Ik heb niet de indruk dat de CPU een bottleneck vormt. Maar ga je Plex met 1080p streams doen, dan kun je al wel snel tegen bottlenecks lopen. Dus echt CPU intensieve dingen zou ik een echte chip met meer power nemen. Bedenk dat in de 10W TDP van de J1900 niet alleen 4 cores zitten, maar ook de gehele chipset (northbridge + southbridge). Dus het is echt wel een topdingetje naar mijn smaak.
Ah ok. Goed om te weten. Ik dacht dat dit wel kon omdat ik zoiets las bij anderen. Maar ik gebruik zelf geen ESXi dus mijn woord is weinig waard in deze.IceTeaGX schreef op dinsdag 08 september 2015 @ 21:41:
Tenzij er iets veranderd is, kan je geen datastore aanmaken op een USB device.
Wat heeft dat nou voor nut behalve kolen stoken?Kets_One schreef op dinsdag 08 september 2015 @ 21:43:
Ik ben me aan het orienteren op een NAS voor thuis. Het gaat dus echt primair over een storage oplossing, maar ik denk erover om het periodiek ook in te zetten voor DC stampedes voor Dutch Power Cows.
Oude server is vaak niet zo geschikt. HP Microserver lijkt mij nog vrij nieuw? Zelfbouw is natuurlijk het leukste zeker als je een computer in elkaar zetten niet zo spannend vind. Ik denk dat iedereen met een klein beetje affiniteit dat wel kan met wat begeleiding. En dat laatste vind je hier in voldoende mate op dit forum. Ik ben ook niet te beroerd om mensen via DM berichten te helpen hun eerste NAS te bouwen.Er zijn een aantal opties en extra wensen. Daarnaast nooit een NAS gebouwd of mee gewerkt, dus weinig ervaring. Ik hoop dat jullie me wat advies kunnen
Optie 1: Synology NAS (bijv. DS215+) super storage oplossing, maar geen DC systeem.
Optie 2: Oude server (bijv. via serverhome) kopen en linux erop, bijv. HP Microserver
Optie 3: zelfbouw server
Graag jullie advies over het gebruik van oude servers. Is dit aan te raden?
Maar je zou eerst over de software moeten beslissen. In het bijzonder of je ZFS gaat gebruiken of niet. Dat bepaalt namelijk de hardware die je nodig hebt. Zelfbouw is dan het meest geschikt, alhoewel HP Microserver zeker ook een mogelijkheid is hiervoor.
Zeker voor thuis is het wenselijk om zoveel mogelijk waar uit je hardware te halen. Veel mensen doen VT-d passthrough zodat ze niet meerdere servers neer hoeven te zetten. Hun NAS is dan 'slechts' een VM, zoals jij het wilt aanpakken.novastorm76 schreef op dinsdag 08 september 2015 @ 20:19:
Heren,
...
Zit ik nu gewoon verkeerd te denken?
De vraag is welke features je echt wilt en wat je daar voor wilt betalen.
Je wilt:
- ESXi draaien
- Genoeg RAM voor VMs en ZFS NAS
- KVM is ook wel handig (IPMI)
- 8 disks aansluiten (ex OS)
Zodra mensen ESXi willen draaien dan adviseer ik altijd een moederbord te pakken met componenten die standaard gesupport worden door ESXi.
Als je KVM ofwel IPMI ofwel iLO ofwel DRAC wilt, dan ontkom je niet aan een server moederbord. Laat je deze wensen droppen, dan kun je toch voor consumenten spul gaan. Moet je mogelijk wel met ESXi vechten of je bordje slim uitzoeken (reviews zoeken). Met een server bord zit je ook verplicht aan ECC geheugen vast, wat de build ook iets duurder maakt.
Wil je toch graag KVM en/of ECC geheugen, dan wordt mijn eerder geposte lijst met CPUs en moederborden weer relevant. De crux zit 'm in die 8 disks die je wilt aansluiten. De meeste borden hebben maar 6 x SATA.
Ik weet niet of het mogelijk is om die on-board sata controllers aan VMs te pass-throughen. Dan zou je misschien er een 2 poorts sata controller bij kunnen prikken en ben je klaar. Dit is een gedachte, ik hoor weinig mensen dat doen.
Gebruikelijker is dat mensen een LSI-based HBA kaartje - eventueel naar IT mode geflashed - aan een VM pass-throughen.
Laten we eens naar een mogelijke build kijken.
We nemen het Supermicro X10SL7-F bord met extra 8-ports LSI controller.
http://hardforum.com/showthread.php?t=1832121
IT-mode flashen (mocht je dat willen): http://blog.widodh.nl/201...micro-x10sl7-f-mainboard/
Dit is een Socket 1150 bord met IPMI, 2 x LAN en nog wat PCIe sloten.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1220 V3 Boxed | € 211,20 | € 211,20 |
1 | Supermicro X10SL7-F | € 244,95 | € 244,95 |
2 | Kingston ValueRAM KVR1333D3E9SK2/16G | € 122,50 | € 245,- |
Bekijk collectie Importeer producten | Totaal | € 701,15 |
Dat is dus een build voor 700 euro. Daarmee bouw je dus 2 systemen in 1! Zowel een NAS als een ESXi server. Dit is ook inclusief een 8-poorts controller en 32 GB geheugen.
Als je de portemonee nog iets verder open trekt en 40 euro extra lapt dan kun je er een CPU in stoppen die Hyperthreading ondersteund, wat met VMware best leuk is. Dat maakt echt uit.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 255,80 | € 255,80 |
1 | Supermicro X10SL7-F | € 244,95 | € 244,95 |
2 | Kingston ValueRAM KVR1333D3E9SK2/16G | € 122,50 | € 245,- |
Bekijk collectie Importeer producten | Totaal | € 745,75 |
Dus bare-bones kost een platform als dit grofweg 750 euro. Ik denk wel dat je voor dat geld iets heel moois neerzet waar je jaren plezier van gaat hebben.
Je oorspronkelijke Avoton build koste 671 euro, dus voor nog geen 70 euro meer heb jij een platform wat stukken beter presteert en VT-d doet.
Ik heb deze hardware zelf niet, maar ik denk dat dit een hele leuke standaard build kan zijn voor mensen die hun NAS virtueel op ESXi willen draaien zodat ze meteen ook een leuke ESXi speeltuin hebben.
[ Voor 17% gewijzigd door Q op 08-09-2015 22:18 ]
Zelf heb ik 128 GB op een Supermicro X9SRL-F, de Xeon V3 past er niet op, daarentegen is er wel goedkoop geheugen voor te vinden /me wijst subtiel naar zijn sig...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
Is maar een optie. Eén machine voor zowel virtualisatie als storage is wat de meeste mensen doen. Nadeel vind ik echter wel de complexiteit.
Als het om een point to point verbinding gaat, dan kan je CX4 overwegen.
Ik heb zelf een point to point 10Gb verbinding over CX4. Die NICs zijn 100 euro per stuk op ebay. De kabel iets van 20.... Zo heb ik 10Gb tussen mn NAS en ESX server.
Ik snap dat het in de build hierboven om een alles in 1 oplossing gaat, bovenstaande oplossing is meer in het algemeen hier gericht....
Maar enorm bedankt in ieder geval Q. En @paul, past jouw RAM ook op die supermicro van optie 2?
Voor de prijs krijg je een case met stof filters en geluiddempend materiaal. Iets wat je kunt vergeten met cases die vaak de helft goedkoper zijn.
pricewatch: Fractal Design Define R4 Titanium Grey
Sterkte met de kids.
[ Voor 24% gewijzigd door Q op 09-09-2015 00:34 ]
Verwijderd
Wow 128 GB, volgens mij heb jij kanalen die jou dit soort geheugen kunnen doen toekomenPaul schreef op dinsdag 08 september 2015 @ 23:23:
Grotendeels eens met de post hierboven, vlak echter de optie tot socket 2011 ook niet uit, zeker als je wat meer VM's wilt kunnen draaienOp socket 1150 ben je beperkt tot 32 GB ram, met een socket 2011-bordje kun je een stukje hoger
Zelf heb ik 128 GB op een Supermicro X9SRL-F, de Xeon V3 past er niet op, daarentegen is er wel goedkoop geheugen voor te vinden /me wijst subtiel naar zijn sig...Wel zijn op s2011 bordjes met onboard LSI-controller een stuk duurder
Veel mensen komen met 6 poorten echter ook uit
Het 2011 platform is onwijs gaaf als je thuis echt bruut asociaal met ESXi wilt kloten. Voor de grap eens een 8-core (16 Threads) 128 GB platformpje bij elkaar geklikt.
Slechts 2000 euro
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5-2630 v3 Boxed | € 695,80 | € 695,80 |
1 | Supermicro X10SRL-F (Bulk Pack) | € 305,59 | € 305,59 |
2 | Kingston ValueRAM KVR21R15D4K4/64 | € 506,51 | € 1.013,02 |
Bekijk collectie Importeer producten | Totaal | € 2.014,41 |
Alle gekheid op een stokje: als je er een simpele 4-core in stopt dan vind ik zelf de CPU-power niet meer in verhouding met het geheugen. De entry-level CPU die ongeveer 300 doet is zelfs nog slapper dan de e3-1231.
Hak je het aantal cores en geheugen door midden, dus 4 cores en 64 GB RAM dan hak je ook de prijs in twee.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5-1620 v3 Boxed | € 308,20 | € 308,20 |
1 | Supermicro X10SRL-F (Bulk Pack) | € 305,59 | € 305,59 |
1 | Kingston ValueRAM KVR21R15D4K4/64 | € 506,51 | € 506,51 |
Bekijk collectie Importeer producten | Totaal | € 1.120,30 |
1100 euro om meer dan 32 GB RAM aan te kunnen.
Je betaalt dan 350 euro meer om 64 ipv 32 GB aan te kunnen sturen.
[ Voor 27% gewijzigd door Q op 09-09-2015 01:01 ]
Nope, dat is socket 1150, daar moet unbuffered geheugen in in plaats van registerednovastorm76 schreef op woensdag 09 september 2015 @ 00:18:
En @paul, past jouw RAM ook op die supermicro van optie 2?
'Zelfs nog slapper'Q schreef op woensdag 09 september 2015 @ 00:52:
Alle gekheid op een stokje: als je er een simpele 4-core in stopt dan vind ik zelf de CPU-power niet meer in verhouding met het geheugen. De entry-level CPU die ongeveer 300 doet is zelfs nog slapper dan de e3-1231.
Dat is niet helemaal een eerlijk vergelijk1100 euro om meer dan 32 GB RAM aan te kunnen.
Je betaalt dan 350 euro meer om 64 ipv 32 GB aan te kunnen sturen.
Ik zeg niet dat iedereen meer dan 32 GB nodig heeft, dat moet ieder voor zich inschatten
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Daar heb je wel een goed punt. Ik zie ook op het werk dat veel ESXi hosts vaak behoorlijk rustig zijn, maar je hebt wel een ton aan RAM nodig omdat ze vaak 8+ GB RAM per stuk hebben.Paul schreef op woensdag 09 september 2015 @ 09:57:
'Zelfs nog slapper'Als ik er wat vergelijkingen bijhaal dan zijn de E3-1231 en de E5-1620 beiden ongeveer gelijk aan elkaar? En vergis je niet in de kracht van een 3.5 GHz quad-core
Zoals gezegd, ik heb er behoorlijk wat VM's op staan, die staan lang niet allemaal te stampen (want thuis-situatie) maar als ik zakelijk kijk dan hebben we VMware-hosts met 2x8core (16 threads) en 512 GB RAM. Als ik dat terugschaal naar 128 GB RAM dan heb je het ook over een 1x4core (8threads); en dan zijn de CPU's @work maar 2.6 GHz ipv 3.5. @work staan die VM's veel meer te doen dan mijn thuis-setup en toch lopen daar de tellertjes bij het geheugen harder op dan bij de CPU
Ook dat is een goed punt, als je nu genoeg hebt aan 32 GB maar de optie wilt om verder door te groeien, dan kost een 2011 platform ongeveer 113 euro meer. Dat is eigenlijk best interessant.Dat is niet helemaal een eerlijk vergelijkJe rekent nu ook de prijs van het geheugen mee, en dan is het nogal logisch dat de optie met meer geheugen ook duurder is
Je unbuffered optie kost aan CPU en moederbord € 500.75, de registered-optie € 613.79. Oftewel, € 113 om meer dan 32 GB aan te kunnen sturen
En voor € 113 heb je geen tweede (en derde, en vierde, als je tot 128 GB zou gaan) systeem. Bij 64 GB bespaar je dus eigenlijk (alleen al op het moederbord en de CPU, dan heb je nog geen kast, storage of voeding) € 400
Ik zeg niet dat iedereen meer dan 32 GB nodig heeft, dat moet ieder voor zich inschattenIk wil vooral aangeven dat je voor slechts een geringe meerprijs (100 euro op de ~1400 als je er 4x4 TB in zet) die optie openhoudt
Vuistregel is dat 1150 prima is tot 32 GB en dat als je verwacht meer te gaan gebruiken je op voorhand 2011 v3 zult moeten aanschaffen tegen een iets hogere prijs.
[ Voor 4% gewijzigd door Q op 09-09-2015 10:13 ]
Wat ik zo op wikipedia over ZFS lees spreekt me wel aan. Als ik hiervoor kies, wat heeft dit dan voor hardware/software consequenties?Verwijderd schreef op dinsdag 08 september 2015 @ 22:08:
[...]
Wat heeft dat nou voor nut behalve kolen stoken?![]()
[...]
Maar je zou eerst over de software moeten beslissen. In het bijzonder of je ZFS gaat gebruiken of niet. Dat bepaalt namelijk de hardware die je nodig hebt. Zelfbouw is dan het meest geschikt, alhoewel HP Microserver zeker ook een mogelijkheid is hiervoor.
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Qua hardware is veel mogelijk, in principe is vrijwel elke desktop hardware dan geschikt.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Verwijderd
Je moet voor ZFS geen hardware RAID gebruiken. Dat bijt elkaar. Je hebt een 'HBA' nodig. Dus een controller zonder RAID firmware. Dat is in elk geval de normale onboard SATA die elke chipset levert. Die zijn het allerbeste. Daarnaast kun je extra SATA poorten krijgen door bijvoorbeeld een SAS controller (HBA) zoals velen hier gebruiken.Kets_One schreef op woensdag 09 september 2015 @ 10:57:
[...]
Wat ik zo op wikipedia over ZFS lees spreekt me wel aan. Als ik hiervoor kies, wat heeft dit dan voor hardware/software consequenties?
Voor de rest niet te weinig RAM geheugen, 8GiB is wel een leuk begin. Veel CPU power heb je niet nodig, tenzij je nog andere dingen gaat doen zoals Plex streams transcoden.
Qua software gebruik je bij voorkeur een speciaal ZFS platform: FreeNAS, NAS4Free, ZFSguru zijn allemaal NAS platformen die vrij eenvoudig zijn op te zetten en ondersteunen allemaal ZFS. In een handomdraai heb je van een computersysteem een NAS gemaakt.
Vervolgens ga je op je eigen Windows systeem via het netwerk verbinding maken. Dit heet een 'mapped network drive'. Je krijgt dan in Mijn Computer een drive letter, zoals X: en daar staat dan je data op. Het werkt dus ongeveer alsof je een lokale schijf in je computer hebt, maar dan is dit de netwerkschijf. De gegevens die worden opgeslagen, worden dan door ZFS opgeslagen en dus ook door ZFS beveiligd.
Dat is het eigenlijk. Super eenvoudig. Je kunt het zo ingewikkeld maken als je wilt, maar je kunt het ook lekker makkelijk houden. Een ZFS NAS hoeft ook helemaal niet duur te zijn; goedkoper dan Synology is prima mogelijk terwijl je wel veel betere hardware krijgt want Synology is voornamelijk ARM-chipjes wat je telefoon draait. Voor 150 euro heb je al een ZFS NAS met moederbord, processor, heatsink, RAM-geheugen en voeding. Komt natuurlijk nog bij een kast/behuizing en de hardeschijven zelf.
* IPMI / KVM over IP
* robuust
Dat eerste vereist een server bord. Wat met dat 2e wordt bedoeld is niet helemaal duidelijk.
Als je budget 500 euro is dan kun je wel een eind komen met een server bord.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3420 Boxed | € 64,90 | € 64,90 |
1 | Supermicro X10SLM-F | € 188,30 | € 188,30 |
1 | Kingston KVR16LE11/8 | € 61,- | € 61,- |
Bekijk collectie Importeer producten | Totaal | € 314,20 |
Heb je nog 200 over voor kast en voeding, meer dan genoeg, lijkt me. Als extra bijkomend voordeel heb je ECC geheugen. Bovenstaande is wel 2x zo duur als CiPHER voorstelde, mogelijk op basis van een J1900 platform.
Ik denk dat het in ieder geval geen synology wordt.
Hoe belangrijk is de processor?
Minimale snelheid.? Moet deze AES-NI ondersteunen?
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Ik zie DNLA. Wil je (met bijvoorbeeld Plex) ook gaan transcoden of is het enkel streamen? Zelfs met Plex / transcoden zou de Pentium hierboven goed genoeg moeten zijnKets_One schreef op woensdag 09 september 2015 @ 12:07:
Hoe belangrijk is de processor?
Wil je ook AES-NI (of dat zo is hangt meer van jouw wensen af dan wat anders, voor ZFS hoeft het niet. Wil je je schijven encrypten dan is het wel wijselijk een CPU te nemen die het kan) dat kun je bijvoorbeeld de pricewatch: Intel Core i3-4160 Boxed nemen
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Encrypten ook niet.
Wat mij meer boeit is de standby consumptie van het systeem. Dit wil ik laag houden (onder 20 W).
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Misschien is een HP Microserver Gen8 nog wel interessant. Zit je op 30-35 watt stand-by en kun je 4 disks kwijt voor <300 euro met behuizing.
http://louwrentius.com/zf...roserver-gen8-g1610t.html
Super zuinig en KVM gaat niet samen, want zo'n KVM module doet altijd wel een aantal watt omdat het feitelijk een mini-computer in je computer is.
Als je echt onder <20 watt wilt blijven dan is een server bord denk ik geen optie. Ik weet niet wat de ervaringen van anderen zijn.
[ Voor 3% gewijzigd door Q op 09-09-2015 12:49 ]
Maar ik heb dat *absoluut* niet als gebruiksvriendelijk ervaren... Dat is echt rare vage aan elkaar geknoopte tooltjes om hetzelfde te doen als wat SuperMicro, Dell, en HP al jaren goed kunnen.
Met zo'n bordje kan je wel sub 20W icm KVM. Maar of je die techincal deep dive aan wil gaan om KVM te krijgen... Ik zou lekker voor een serverplankje gaan zoals Q al zegt
Even niets...
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Ik heb er zelf 3: ventilator is stil in AHCI mode.
In de eerste instantie dacht ik zelfs om voor een echte atom te gaan, maar volgens mij heeft de j1900 dezelfde basis
Nog een andere vraag, zijn er thumbdrives die je als ssd kunt gebruiken? Ik bedoel, die ook echt wear resistant zijn zoals een ssd dat is? Ik kan me voorstellen dat voor veel operating systems een flashdrive op usb2 of usb3 voldoende zou moeten zijn. Nu weet ik dat je een ssd aan een usb adapter kunt hangen, maar dat is een beetje overbodig als die usb sticks al verkocht worden.
[ Voor 31% gewijzigd door justice strike op 10-09-2015 15:00 ]
U can call me sir.... or justice as long as u bow down ;)
Logs kan je in Freenas bv via gui naar een ander device dan je OS usb stick verplaatsen.
Dan blijft er weinig wear over, en je kan 2 stick in mirror plaatsen mocht je nog minder risico willen lopen.
Ik heb zelf eens getest met een MicroSD kaart in mijn HP Microservers, maar het systeem was echt poep-traag met een reguliere linux. Alleen geschikt denk ik voor een kant-en-klare distro zoals FreeNAS/ZFS Guru. De oorzaak is denk ik dat random I/O super stront traag is op MicroSD/USB stick flash.justice strike schreef op donderdag 10 september 2015 @ 14:44:
Ik vraag me zelf dan af of je beter voor een hp microserver kunt gaan of met een j1900 als het aankomt op zuinigheid. Ansch spreekt zo'n microserver wel aan, maar ik heb zo het idee dat deze niet zo zuinig is. Wel heeft hij dan lights of management, maar daar is dan alles zo'n beetje mee gezegd.
In de eerste instantie dacht ik zelfs om voor een echte atom te gaan, maar volgens mij heeft de j1900 dezelfde basis
Nog een andere vraag, zijn er thumbdrives die je als ssd kunt gebruiken? Ik bedoel, die ook echt wear resistant zijn zoals een ssd dat is? Ik kan me voorstellen dat voor veel operating systems een flashdrive op usb2 of usb3 voldoende zou moeten zijn. Nu weet ik dat je een ssd aan een usb adapter kunt hangen, maar dat is een beetje overbodig als die usb sticks al verkocht worden.
Zelf heb ik het OS op een 2e hands 2.5" USB HDD gezet en die op de interne USB header geconnect. Performance is prima (USB2). Alhoewel de bandbreedte beperkt is, zou een goedkope 30 GB SSD ook prima werken. Kost vaak al 30-40 euro en heb je wel SATA-USB converter nog nodig, wordt wel prijzig.
De Microserver doet 30-35 Watt als de disks stand-by staan. 10 Watt er af snoepen is ~20 euro op jaarbasis besparen.
Zuinig is interessant, maar de vraag is hoeveel geld je er mee bespaart en hoeveel consessies je daarvoor wilt doen op andere vlakken. Dat is een persoonlijke keuze.
[ Voor 6% gewijzigd door Q op 10-09-2015 15:24 ]
Ook al is het USB3 het ding doet het op USB2 ook verrassend snel
Even niets...
Het beste serverbord wat ik heb kunnen testen, een asus-bord dat helaas niet beschikbaar is op de vrije markt, deed idle zonder HDD nog steeds 16W uit het stopcontact met een picopsu (=12W DC) - met een ATX-voeding wordt dat dus ruim over de 20W. Het is echt héél lastig om met een serverbord en ook echt serverfeatures áán (iLO/vergelijkbaar management, VT-d, ECC) onder de 20W uit te komen zonder echt heel erg te gaan min/maxen.Q schreef op woensdag 09 september 2015 @ 12:49:
Ik verwacht dat je met de disks op standby met een serverbord wel hoger gaat uitkomen --> richting 30-40 watt minimaal schat ik zo. 10 Watt 24/7 is ongeveer 19 euro per jaar dus reken maar na.
Misschien is een HP Microserver Gen8 nog wel interessant. Zit je op 30-35 watt stand-by en kun je 4 disks kwijt voor <300 euro met behuizing.
http://louwrentius.com/zf...roserver-gen8-g1610t.html
Super zuinig en KVM gaat niet samen, want zo'n KVM module doet altijd wel een aantal watt omdat het feitelijk een mini-computer in je computer is.
Als je echt onder <20 watt wilt blijven dan is een server bord denk ik geen optie. Ik weet niet wat de ervaringen van anderen zijn.
De meestgebruikte KVM/managementchip die ik langs zie komen (ASPEED 2300) verbruikt op zichzelf al 3,3W DC. Daarnaast, kun je ook meestal niet gebruik maken van de IGP en dus ook niet van diepe c-states (rc6p), waardoor je processor nutteloos ca. 3W extra vebrruikt in idle. Puur en alleen het hebben van KVM op zo'n bord kost je al bijna 10W aan het stopcontact.
is dat vergelijkbaar met een ssd? of kun je nog steeds beter een msata schijf kopen + usb adapterFireDrunk schreef op donderdag 10 september 2015 @ 15:33:
Pak dan een Sandisk Extreme Pro USB3 stick en prop die intern. Werkt veel beter
Ook al is het USB3 het ding doet het op USB2 ook verrassend snel
Conclusie is dan om eigenlijk geen KVM te hebben. Kom je toch weer uit op de j1900. Die komt met 4 schijven volgens mij idle wel uit om 25 watt of lager.mux schreef op donderdag 10 september 2015 @ 15:37:
[...]
Het beste serverbord wat ik heb kunnen testen, een asus-bord dat helaas niet beschikbaar is op de vrije markt, deed idle zonder HDD nog steeds 16W uit het stopcontact met een picopsu (=12W DC) - met een ATX-voeding wordt dat dus ruim over de 20W. Het is echt héél lastig om met een serverbord en ook echt serverfeatures áán (iLO/vergelijkbaar management, VT-d, ECC) onder de 20W uit te komen zonder echt heel erg te gaan min/maxen.
De meestgebruikte KVM/managementchip die ik langs zie komen (ASPEED 2300) verbruikt op zichzelf al 3,3W DC. Daarnaast, kun je ook meestal niet gebruik maken van de IGP en dus ook niet van diepe c-states (rc6p), waardoor je processor nutteloos ca. 3W extra vebrruikt in idle. Puur en alleen het hebben van KVM op zo'n bord kost je al bijna 10W aan het stopcontact.
[ Voor 59% gewijzigd door justice strike op 10-09-2015 15:42 ]
U can call me sir.... or justice as long as u bow down ;)
KVM-over-IP is thuis altijd een beetje een grensgevalletje. Je betaalt je blauw aan moederborden met IPMI/iLO/etc., je betaalt afgerond al gauw 20 euro per jaar extra aan stroom. In een bedrijfssetting is dit peanuts, gezien je dit al bij de eerste ingreep van je sysadmin hebt terugverdiend. Iemand die ergens heen moet lopen (of naar een datacenter moet reizen) en een console moet inpluggen kost je honderden euro's per jaar extra.
Maar thuis kun je gewoon naar je server lopen en zooi inpluggen als het ding vastloopt en je iets moet regelen. Wat meestal met SSH eigenlijk ook wel prima gaat. Hell, je kunt het je zelfs makkelijk veroorloven om de hele machine te resetten, eventueel op afstand met WoL. De meerwaarde van KVM is dan wat minder concreet.
Als je de extra centen toch al uitgeeft aan een mobo en/of de stroomkosten je niet uitmaken (20 euro op een jaar is nou ook niet echt een aderlating) is het wel erg fijn voor een gevirtualiseerde machine, dat moet ik toegeven.
voor een gevirtualiseerde machine heb je toch geen iLO oplossing nodig? gewoon naar de echte server connecten, daar kun je de virtual machine uit aan en resettenmux schreef op donderdag 10 september 2015 @ 15:59:
Of geen KVM-over-IP, ofwel verwachtingen qua verbruik bijstellen.
KVM-over-IP is thuis altijd een beetje een grensgevalletje. Je betaalt je blauw aan moederborden met IPMI/iLO/etc., je betaalt afgerond al gauw 20 euro per jaar extra aan stroom. In een bedrijfssetting is dit peanuts, gezien je dit al bij de eerste ingreep van je sysadmin hebt terugverdiend. Iemand die ergens heen moet lopen (of naar een datacenter moet reizen) en een console moet inpluggen kost je honderden euro's per jaar extra.
Maar thuis kun je gewoon naar je server lopen en zooi inpluggen als het ding vastloopt en je iets moet regelen. Wat meestal met SSH eigenlijk ook wel prima gaat. Hell, je kunt het je zelfs makkelijk veroorloven om de hele machine te resetten, eventueel op afstand met WoL. De meerwaarde van KVM is dan wat minder concreet.
Als je de extra centen toch al uitgeeft aan een mobo en/of de stroomkosten je niet uitmaken (20 euro op een jaar is nou ook niet echt een aderlating) is het wel erg fijn voor een gevirtualiseerde machine, dat moet ik toegeven.
U can call me sir.... or justice as long as u bow down ;)
Die laatste zinsnede was een beetje krom inderdaad, ik bedoelde te zeggen 'voor een hypervisor-machine' of iets in die trant. Alles behalve de VMs zelf zeg maar
Er zijn genoeg voordelen voor KVM, maar je moet het maar net nodig hebben. En daarvoor betaal je
Die 5,25" bays kan je prima gebruiken voor je schijven. De behuizing van cd/dvd spelers kan je verbouwen tot 5in3 hdd cage (In de deksel boor je een aantal gaten waar je de schijven mee vastschroeft). Heel stuk goedkoper Alleen ontkom je er niet aan om actief te koelen.Verwijderd schreef op woensdag 09 september 2015 @ 00:35:
Die 5¼-bays heb je tegenwoordig niet zoveel aan; wie heeft er nog een CD/DVD-ROM drive in zijn machine?
https://pvoutput.org/intraday.jsp?id=102416&sid=90116
Even niets...
Verwijderd
[ Voor 6% gewijzigd door Verwijderd op 12-09-2015 10:42 ]
En hoe bedoel je stabiel? Welk OS? Welk filesystem?
Even niets...
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3258 Boxed | € 68,70 | € 68,70 |
1 | ASRock E3C224D4I-14S | € 302,50 | € 302,50 |
1 | Fractal Design Arc Midi R2 Closed | € 82,95 | € 82,95 |
1 | Startech.com 2 Port USB Motherboard Header Adapter | € 7,15 | € 7,15 |
1 | Crucial CT2KIT102472BD160B | € 125,01 | € 125,01 |
1 | Seasonic G-series 360 watt | € 56,95 | € 56,95 |
Bekijk collectie Importeer producten | Totaal | € 643,26 |
Systeem zal alleen als fileserver worden gebruikt. Ik wil NAS4Free gebruiken (booten vanaf USB pendrive). Verder wil ik starten met 5 x 4 TB WD Green en t.z.t. uitbreiden met nog eens 5 Harddisks. Geheugen kan ik dan bijprikken n.a.v. harddisk grootte die ik dan aanschaf.
Is Seasonic G360 voldoende (bij startup van 10 disks) of beter gelijk voor Seasonic G450 gaan?
Verwijderd
Overigens. Een pool met twee keer een RAID-Z van 5 disks is niet zo héél veilig. Beter is dan 10 disks in RAID-Z2 dat is helemaal gaaf. Je kunt nadenken over een manier om zoiets te bereiken. Stel je begint met 4 disks in RAID-Z2 dan heb je maar 2 disks effectief voor opslag. Later kun je dan 6 disks bijkopen en daar kun je een 10-disk RAID-Z2 van maken zonder dataverlies. Is dit niet een leuke optie voor je?
Dan maak je je 4-disk RAID-Z2 eerst degraded zodat alles op 2 disks staat. Dan maak je van de 2+6 = 8 disks een double degraded 10-disk RAID-Z2 aan met maar 8 schijven erin. Dan kopieer je je data over en daarna voeg je de disks disks toe aan de 10-disk RAID-Z2; et voila!
Jouw setup lijkt mij prima.HenriM schreef op zaterdag 12 september 2015 @ 16:18:
Wat denken jullie van het volgende lijstje voor een simpel NAS servertje.
....
Is Seasonic G360 voldoende (bij startup van 10 disks) of beter gelijk voor Seasonic G450 gaan?
Je bent van plan om in de toekomst effectief een RAID50 te gaan draaien. Ik ben het eens met Cipher dat dit misschien een beetje tricky is. Zelf zou ik het niet aandurven.
Het upgrade path van CiPHER werkt 100% maar gedurende het upgrade path ben je wel 100% kwetsbaar. Dus net op het moment dat je aan je systeem sleutelt en de kans op disk falen het grootst is, ga je de redundancy verbreken. Het is wel de goedkoopste oplossing.
Nu RAIDZ2 draaien met 6 disks en er daarna nog een RAIDZ van 6 bij stoppen kan ook, maar je gooit dan 2 disks nodeloos weg.
Meteen met een RAIDZ2 van 10 disks draaien, zoals CiPHER suggereert is wel het beste maar ook upfront wel het duurste.
Samengevat:
Pool1: 5 x 4 TB RAIDZ1
Pool2: 5 x n TB RAIDZ1 (toekomst muziek).
Op deze manier is het budget technisch allemaal redelijk haalbaar en toekomst gericht.
De afmetingen dus goed checken met de behuizing. Ik heb er zelf een pricewatch: Lian Li PC-Q26B Zwart genomen.
Ik weet dat een pool nooit een backup mag zijn, maar zou toch RAIDZ2 adviseren -> bij mij heeft Murphy ervoor gezorgd dat bij vervanging disk op RAID-5 de tweede disk de eeuwige jachtvelden inging.
Dit is hoe ik over mijn eigen data denk. Als ik voor mijzelf nu een nieuwe NAS zou bouwen, zou ik RAIDZ niet aandurven, alhoewel ik wel eens anders heb beweerd. Ook niet met 5 disks. Ik wil namelijk niet bij het falen van 1 disk mijn redundancy verliezen. Die extra 120-150 euro is mijn data me wel waard. Van de super kritische data heb ik een cloud backup (foto's) maar in de rest van de data zit vooral heel veel tijd en werk, ook al kun je het zo weer downloaden (wat tegenwoordig vaak niet meer waar is).
[ Voor 3% gewijzigd door Q op 12-09-2015 17:32 ]
Verwijderd
Daarnaast, wat Q zegt dat je kwetsbaar bent, geldt alleen gedurende de paar uur dat je de data van pool1 naar pool2 overhevelt met mijn voorstel. Daarvoor heb je gewoon RAID-Z2 bescherming op 4 disks dus uitmuntende bescherming. Voordat je de RAID-Z2 verbreekt doe je dan eerst nog een scrub om bad sectors uit te sluiten. Dus dan heb je echt al veel risico's afgedekt en het resterende risico van drive failure binnen die paar uur is enorm klein.
Verwijderd
ik lees uitval verhalen over SATA disks achter een expander maar lees nergens iets over uitval van SATA disks achter een backplane terwijl dat ook een expander is.FireDrunk schreef op zaterdag 12 september 2015 @ 13:12:
Wat is er anders aan een sas backplane dan een sas expander? Een expander heeft ook gewoom eigen firmware hoor...
En hoe bedoel je stabiel? Welk OS? Welk filesystem?
stabiel: zeer hoge io richting die SATA disks, scrub in ZFS of database b.v.
FreeBSD met ZFS
[ Voor 7% gewijzigd door Verwijderd op 12-09-2015 18:21 ]
je plugt bv 4 sata kabels erin en je kunt 4 sata schijven inpluggen mbv wisselframes
er komt dus 4x SATA toe, en 4x SATA uit: ieder kanaal behoudt de volle snelheid.
maar een Expander maakt van 1 aansluiting 4 (of meer) aparte aansluitingen.
er komt dus bv 1x SATA toe en er gaat 4x SATA uit: de beschikbare bandbreedte gaat door 4...
een backplane die van 1x8087/8088 4x sata maakt is dus geen expander - net zo min als je 8087->4Xsatakabel - maar gewoon een backplane...
maw: een backplate kan gewoon een domme printplaat zijn met de nodige pluggen op en ev. ontstoorders zonder enige andere elektronica. (zoals je 1x SAS naar 4x SATA kabel), een expander moet wel meer logica hebben zodat alles correct verloopt.
[ Voor 32% gewijzigd door soulrider op 12-09-2015 21:28 ]
Dit scenario vereist dat hij/zij met 4 drives in RAIDZ2 begint, dat geeft maar 8 TB terwijl een 5-drive RAIDZ 16 TB geeft. Als je met een 6-drive RAIDZ begint (16 TB) werkt de truc van CiPHER niet.Verwijderd schreef op zaterdag 12 september 2015 @ 17:53:
10 disks in RAID-Z2 is veel beter dan 2x5 disks in RAID-Z, ook al heb je die in twee losse pools gestopt. Bovendien heb je dan twee keer aparte vrije ruimte die niet met elkaar wordt gedeeld. Het is wel wenselijk dat je één geheel aan ruimte hebt zodat je niet het gezeik krijgt dat je dingen van pool1 naar pool2 moet overhevelen omdat pool2 meer vrije ruimte beschikbaar heeft.
Daarnaast, wat Q zegt dat je kwetsbaar bent, geldt alleen gedurende de paar uur dat je de data van pool1 naar pool2 overhevelt met mijn voorstel. Daarvoor heb je gewoon RAID-Z2 bescherming op 4 disks dus uitmuntende bescherming. Voordat je de RAID-Z2 verbreekt doe je dan eerst nog een scrub om bad sectors uit te sluiten. Dus dan heb je echt al veel risico's afgedekt en het resterende risico van drive failure binnen die paar uur is enorm klein.
Het nadeel van twee losse ZFS pools is dat je data niet lekker makkelijk in 1 pool zit. Ik vind dat zelf een nadeel, ik wil gewoon een grote storage ruimte hebben, precies om de reden de CiPHER schetst. Je kunt data heen en weer gaan lopen hevelen, maar dan krijg je snel een situatie dat je niet meer weet wat op welke pool staat.
Je pool uitbreiden is met ZFS een relatief dure bezigheid. Beter is om alles upfront te kopen, dan krijg je het meeste waar voor je geld. Maar de initiële investering is relatief groot.
Wil je dat niet dan gooi je geld weg door 'teveel' redundancy of loop je toch wat meer risico door RAIDZ te gaan draaien.
Keuzes
Verwijderd
Hier licht CiPHER het toe:
Verwijderd in "Het grote ZFS topic"
Verwijderd in "Het grote ZFS topic"
Je hoeft niet voor 6 of 10 disks te kiezen als je een VDEV maakt. Als je de large_blocks feature gebruikt kun je ook gerust een 8-disk VDEV maken. Hoef je niet een 10-disk VDEV te maken en 300 euro extra uit te geven voor opslag die je de komende jaren nog niet gebruikt.
[ Voor 6% gewijzigd door Q op 12-09-2015 23:42 ]
Verwijderd
Moet er zelf ook even aan wennen om niet meer automatisch optimale RAID-Z pools aan te raden.
Alleen is je pool dan niet meer bootable; al is dat enkel een issue bij ZFSguru omdat FreeNAS en andere platforms Root-on-ZFS volgens mij niet ondersteunen? Iemand die dat kan bevestigen?
Edit: deze vond ik verhelderend:
Verwijderd in "Het grote ZFS topic"
[ Voor 28% gewijzigd door Q op 12-09-2015 23:43 ]
NAS4Free kan ik vanaf USB disk booten, dus dat is geen belemmering. Zoals ik het begrijp helpt de 'large_block' feature helpt echter vooral om niet te veel ruimte te verliezen bij niet 'optimale' aantal disks voor gekozen RAID ZFS level?
Mijn keuze is nu echter wat het handigste/verstandigste is voor het aantal disks/RAID ZFS level met het oog op de toekomst en binnen mijn budget.
Als budget geen beperking was dan wist ik het wel (10 x 4 TB in RAIDZFS2).
10 disk array gaat niet meer in spindown
[ Voor 89% gewijzigd door HyperBart op 13-09-2015 17:48 ]
Door de large_blocks feature kun jij nu kiezen om bijvoorbeeld 8 x 4 TB in RAID-Z2 te draaien, wat je dus 8-2=6 x 4 TB = 24 TB opslag geeft. Als je voorlopig in de komende jaren die extra 8 TB (32 TB totaal) niet nodig verwacht te hebben, scheelt dat je nu 300 euro tov een 10-disk VDEV.HenriM schreef op zondag 13 september 2015 @ 10:42:
Geweldige ondersteuning in dit topic hier, bedankt!
NAS4Free kan ik vanaf USB disk booten, dus dat is geen belemmering. Zoals ik het begrijp helpt de 'large_block' feature helpt echter vooral om niet te veel ruimte te verliezen bij niet 'optimale' aantal disks voor gekozen RAID ZFS level?
Mijn keuze is nu echter wat het handigste/verstandigste is voor het aantal disks/RAID ZFS level met het oog op de toekomst en binnen mijn budget.
Als budget geen beperking was dan wist ik het wel (10 x 4 TB in RAIDZFS2).
Aan jou wat je wilt en wat je verwacht voor de toekomst.
Je Pool creeeren, alle data importeren en je cloud service opzeggen.
Reken even na hoe lang het duurt om je data daar neer te zetten als je zeg 8 TB hebt en 10Mbit upload (is al ongebruikelijk).goarilla schreef op dinsdag 15 september 2015 @ 16:45:
Wat je ook kan doen is een goedkope storage cloud provider zoeken, al je data dumpen.
Je Pool creeeren, alle data importeren en je cloud service opzeggen.
Ik kom op ~92 dagen.

Laat ik het plaatje maar weghalen. Ik mag echter hopen dat niemand de cloud overweegt als temporary storage, mijn rekenvoorbeeld laat wel zien dat dit geen optie is.goarilla schreef op dinsdag 15 september 2015 @ 17:14:
Inderdaad duurt wel eventjes. Zo heb ik zelf voor het werk in januari 45 TB mogen overzetten van een synology naar een NetApp. Heeft 4 maanden geduurt en een pak frustraties.
[ Voor 29% gewijzigd door Q op 15-09-2015 17:45 ]
Verwijderd
Want na maanden uploaden ook weer wekenlang downloaden. En dan maar hopen dat het allemaal lukt. Brrrrr!
Maar dat is toch totaal geen eerlijke berekening? Als je 8TB+ hebt en een trage (zeg sub-50mbit) verbinding, dan stuur je toch gewoon een HDD op naar de cloudbackup-provider? Iedereen ondersteunt dit tegenwoordig. Kost je alleen een relatief bescheiden hoeveelheid verzendkosten - lang niet zoveel als je anders kwijt zou zijn in eigen beheer.Q schreef op dinsdag 15 september 2015 @ 17:07:
[...]
Reken even na hoe lang het duurt om je data daar neer te zetten als je zeg 8 TB hebt en 10Mbit upload (is al ongebruikelijk).
Ik kom op ~92 dagen.
En met een beetje moderne verbinding is het geen probleem om het in z'n geheel te uploaden.
Verwijderd
Van andere diensten weet ik alleen dat ze de optie hebben, niet hoe het in de praktijk in z'n werk gaat.
edit: dat mappen kopiëren is dus ook hoe ik samen met een andere forumganger buddy backup doe.
[ Voor 11% gewijzigd door mux op 15-09-2015 21:17 ]
Verwijderd
mux schreef op dinsdag 15 september 2015 @ 21:16:
Bij Crashplan geef je ze de (encrypted) backupmap op een hdd
Misschien begrijp ik je verkeerd, maar dat lijkt in tegenspraak. Als ze een 'map' alsin een filesystem-directory openen, dan betekent dit dat ze een filesystem moeten mounten. Dat zou dan FAT16/FAT32/NTFS/Ext4 ofzo moeten zijn. Ik neem aan dat ze bijvoorbeeld ZFS dan niet ondersteunen.Beiden zijn dus onafhankelijk van hdd-format.
Als ze de hardeschijf ruw leegtrekken, dan hebben ze niets met het filesystem te maken en gaat het dus van LBA0 tot het einde - gewoon een complete clone van de schijf dus. Dat laatste werkt filesystem-agnostisch, dat eerste (mappen openen) niet.
Zal wel een encrypted proprietary container zijn op een gangbaar filesystems (ext?, ntfs en hfs). Of misschien zelfs raw met een header en moet je het via hun backup tool "formatteren".Misschien begrijp ik je verkeerd, maar dat lijkt in tegenspraak. Als ze een 'map' alsin een filesystem-directory openen, dan betekent dit dat ze een filesystem moeten mounten. Dat zou dan FAT16/FAT32/NTFS/Ext4 ofzo moeten zijn. Ik neem aan dat ze bijvoorbeeld ZFS dan niet ondersteunen.
Gezien er checksums en metadata bij zit, en gezien je je data encrypted aanlevert (of je moet gestoord zijn), hebben ze niks aan raw data.
Verwijderd
Als ze inderdaad ook ZFS en Btrfs (en ReFS?) ondersteunen, dan is dit in de praktijk niet zo heel groot probleem. Maar ZFS ondersteuning zou ik dan wel gaaf vinden. Weet je ook dat de checksums bescherming bieden tegen corruptie.
[ Voor 30% gewijzigd door Verwijderd op 15-09-2015 21:32 ]
Ik zoek een?
Afmetingen
Ik zoek een systeem met afmetingen van maximaal 50cm hoog, 25cm breed en 50cm diep. Ik zou deze in de garage tegen de muur hangen tussen de meterkast, router etc. De plaats die daar nog is, heeft ongeveer deze afmetingen. De linkerwand van de kast zal tegen de muur staan.
Gebruik
Ik wil deze inzetten als NAS, om centraal media en documenten op te slaan. Bovendien zou ik hem graag gebruiken als downloadbak. Momenteel maak ik gebruik van torrents, maar ik zou willen omschakelen naar oplossingen waarbij ik niet kan of moet uploaden. Als je iets hoort omtrent rechtzaken en illegale media, gaat het steeds om het uploaden/verspreiden ervan. Dit begint me meer en meer angst aan te jagen.
Heb je specifieke eisen aan software die moet draaien?
Ik zou heel graag ZFS draaien, Raid Z1 of Raid Z2 daar ben ik nog niet helemaal uit. Ik verwacht wel een Raid Z1 uit te kunnen breiden naar een Raid Z2, althans dat had ik zo toch ergens begrepen. Langs de andere kant zou ik graag het systeem willen bouwen en installeren, en er verder niet naar om moeten kijken.
Qua OS heb ik al heel goed rondgekeken. Nas4Free staat me aan omwille van de ZFS ondersteuning en de schijnbaar eenvoudige interface. Xpenology staat me aan omwille het gebruiksgemak dat zo wordt aangeprezen, maar deze mist dan de ZFS. Belangrijk detail: momenteel heb ik enkel ervaring met Windows. Ik ben een beetje aan het prutsen met Nas4Free in VirtualBox, maar krijg mijn internetverbinding maar niet gedeeld met de VM en kan dus niet aan de web-interface.
Verder wil ik graag per map kunnen bepalen met welke systemen of gebruikers ik deze kan delen, maar ook voor wie de hoofdmap zichtbaar is. Cru gezegd: mijn ouders moeten geen mapje "XXX" te zien krijgen.
Welke apparatuur heb je al?
1 WD Green schijf van 2TB en 2 WD Green schijven van 3TB, deze hangen in mijn desktop. Ik ben er niet 100% zeker van dat onderstaande links naar het correcte product verwijzen. Door bij 3TB schijven te blijven kan ik de 2 die ik al heb recupereren en zo de kosten drukken.
# | Product | Prijs | Subtotaal |
1 | Western Digital Caviar GreenPower WD20EARS, 2TB | € 0,- | € 0,- |
2 | Western Digital Green SATA 3 Gb/s WDBAAY0030HNC, 3TB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 304,35 |
Gewenste capaciteit en uitbreidbaarheid
Ik heb nu ongeveer 4TB aan data. Met 9TB of 12TB denk ik wel een hele tijd toe te komen, toch zeker tot ik het huis uit ben. Uitbreidbaarheid is daarom minder belangrijk. Ik neem aan dat mijn ouders en broer snel gewend zijn aan een NAS in huis. Eens deze outdated zou zijn, zouden de 3TB schijven nog perfect voor hen kunnen dienen en kan ik opnieuw aan de slag met een RAIDZ van 4 of 5 of 6 grotere schijven, die op dat moment een beter prijs/TB hebben.
Wat is je budget?
Liefst zo weinig mogelijk. Als een meerprijs voor een bepaald onderdeel te rechtvaardigen is, dan heb ik er geen probleem mee om deze te betalen. Origineel dacht ik op basis van de BBG van Juli 2015 aan € 250 à € 300 zonder schijven. Op basis van adviezen op GoT kom ik in mijn wenslijst echter al op € 400 dus laat ons dit als richtprijs nemen. Ook qua verbruik zou ik graag zo zuinig mogelijk gaan.
Wat heb je zelf al gevonden?
Ik zou voor een Synology DS414j kunnen gaan. Deze keuze zou er dan wel voor zorgen dat ik geen ZFS kan draaien. Verder heb ik er geen flauw idee van of ik met Synology links van Rapidshare etc. kan downloaden. Het downloaden zou eventueel met een afzonderlijk systeem op basis van een Raspberry Pi en een externe schijf kunnen, deze zouden dan ook nog aangekocht moeten worden.
Gezien ik in dit topic post, gaat mijn voorkeur echter uit naar een DIY RAID NAS omwille van de betere bang for buck. Ik kwam voorlopig al uit op volgende wenslijst:
# | Product | Prijs | Subtotaal |
1 | ASRock Q1900DC-ITX | € 101,49 | € 101,49 |
3 | WD Green WD30EZRX | € 97,01 | € 291,03 |
1 | Fractal Design Node 304 Zwart | € 77,50 | € 77,50 |
6 | Akasa SATA III 6.0 Gb/s | € 3,86 | € 23,16 |
2 | Silverstone SST-CP06 4x SATA | € 8,50 | € 17,- |
1 | Crucial CT102464BF160B | € 39,- | € 39,- |
1 | Highpoint Rocket 620 | € 32,- | € 32,- |
1 | Seasonic Power Adapter 102W - 12V | € 43,- | € 43,- |
1 | Crucial BX100 250GB | € 83,01 | € 83,01 |
Bekijk collectie Importeer producten | Totaal | € 707,19 |
Welke vragen heb je hier nog over?
Als ik alles, inclusief schijven, bestel bij SiComputers, kom ik uit op ongeveer € 750,00. Dit is me toch een redelijk bedrag. Indien sommige componenten overkill zijn voor waarvoor ik het systeem zou gebruiken, hoor ik het graag. Ik zal alvast enkele keuzes al motiveren, zodat jullie gericht advies kunnen geven;
3 HDD's van 3TB, voor een totaal van 5x 3TB WD Green:
Ik heb reeds 2 schijven van 3TB, wat de kosten drukt. Ik las dat voor RaidZ het aantal dataschijven best gelijk is aan een macht van 2. Vandaar 4 schijven +1 voor redundancy. Met 4x 3TB voor 9TB aan ruimte zou ik echter ook genoeg hebben. Ik weet echter niet wat de impact dan is op de prestaties, en of de oplossing met grotere blocks impact heeft op het gebruik dat ik voor ogen heb.
Behuizing:
Ik ben zeer tevreden over mijn Fractal Design Define R4 en de Node 304 is de Editor's Choice op SPCR in zijn categorie. Ik zou ook voor een Cooler Master N300 kunnen gaan zoals in de BBG, maar de meerprijs van € 40 lijkt me gerechtvaardigd gezien de herbruikbaarheid en inzetbaarheid van de Node 304.
Adapter:
Ik meende goede dingen gelezen te hebben over de Seasonic adapter en hoop dat 102W genoeg is voor wat ik ermee wil doen. Geen idee of deze volstaat indien ik alsnog een RaidZ2 met 6 schijven zou bouwen.
SSD:
Ik zou deze willen inzetten als OS-schijf en L2ARC. De L2ARC zou ik gebruiken om mijn schijven minder vaak te laten opspinnen en zo hun levensduur te verlengen en het energieverbruik te laten dalen. 250GB was slechts €20 duurder dan 125GB, no-brainer.
Algemeen
Indien L2ARC niet noodzakelijk is, ik vanaf USB stick draai en een RaidZ van 4x 3TB maak, spaar ik de SSD, de hardeschijfcontroller en een aantal kabels uit, voor €83 + €32 + €17 + €12 = €144. Dat brengt me dan op mijn oorspronkelijke gedacht van ongeveer €250 + schijven. Dit is dan ook goedkoper dan de Synology voor dezelfde functionaliteit. Mijn totale bestelling, inclusief schijven, als ik alles door SiComputer laat leveren, gaat dan ook van €750 naar €450 (9TB ipv 12TB, dus een beetje scheef, maar bon...).
Welke oplossing lijkt jullie de beste? Ga ik er veel van merken als ik de L2ARC laat vallen en voor een sub-optimale RaidZ van 4 schijven kies? Alle adviezen en opmerking zijn welkom. Zowel op vlak van software, complete setup als afzonderlijke onderdelen.
Zit ook in het assortiment bij SiComputers, voor 27,50. Scheelt toch weer mooi 15 euro.
Verwijderd
L2ARC is voor jouw gebruik denk ik overbodig, zeker omdat je zoveel geld kunt besparen. Zou je echter wel voor een SSD gaan, raad ik je met klem aan om geen BX100 maar een MX200 te kopen. De BX100 heeft een afwijkende controller en minder features. De MX-serie (en M-serie) hebben een veel betere controller en power-safe capacitors. Hierdoor kun je de SSD ook voor sLOG feature gebruiken, en sowieso is dit een veel betere SSD. Dus of de MX200 of beter helemaal geen, is mijn gedachte.
mux schreef op dinsdag 15 september 2015 @ 21:26:
Ja, ik bedoel dus dat je je backup in de vorm van files geeft, niet in de vorm van raw data, dus je kunt ze aanleveren op ieder filesystem dat je wilt.
Gezien er checksums en metadata bij zit, en gezien je je data encrypted aanlevert (of je moet gestoord zijn), hebben ze niks aan raw data.
Even een aanname van mijn kant is dat Crashplan net zo werkt als het algemene buddy systeem.Verwijderd schreef op dinsdag 15 september 2015 @ 21:31:
Dat kan dus nooit, want als ik mijn schijf aanlevert met mijn eigen filesystem, of iets wat minder vaak gebruikt wordt zoals HammerFS, dan gaat dit niet werken. Als ze inderdaad op filesystem-niveau werken, dan betekent dit dat niet alle filesystems worden ondersteund.
Als ze inderdaad ook ZFS en Btrfs (en ReFS?) ondersteunen, dan is dit in de praktijk niet zo heel groot probleem. Maar ZFS ondersteuning zou ik dan wel gaaf vinden. Weet je ook dat de checksums bescherming bieden tegen corruptie.
Alle checksums, versleuteling, ... en alles vinden bij Crashplan op bestandsniveau (eigenlijk 'container'niveau) plaats.
Je moet simpelweg een harde schijf leveren met de data (die versleuteld is). Het moet op een filesysteem staan dat je buddy of Crashplan kan gebruiken, simpelweg om de data te kunnen lezen. Crashplan of je buddy kan heel goed mogelijk enkel de disc aansluiten en direct de data naar een ander, 'eigen' filesystem kopieren.
Wat Crashplan of je buddy uiteindelijk moet doen is zorgen dat Crashplan, de applicatie, de versleutelde data kan zien. Jouw Crashplan instantie moet vervolgens die versleutelde data controleren en vervolgens bijwerken.
[ Voor 22% gewijzigd door Dadona op 20-09-2015 00:15 ]
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.