[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
De hardware support is met Hyper-V wat uitgebreider dan bij VMware maar het is toch wel de bedoeling dat je CPU virtulisatie instructies ondersteund. (VT-x of AMD-V). Het nadeel van Hyper-V is dan weer wel dat niet in alle Linux distributies standaard drivers aanwezig zijn. In een aantal wel, dus dan moet je even kijken of dat in jouw geval ook zo is. Er is in ieder geval ondersteuning voor Cent-OS, Debian, Ubuntu, Suse en FreeBSD. http://technet.microsoft.com/nl-nl/library/dn531030.aspx De gratis versie van ESXi is een nogal uitgeklede versie terwijl de gratis versie van Hyper-V alle features heeft. Verder heb je minstens 1 Windows client nodig om Hyper-V te kunnen beheren. Als je Hyper-V in een cluster wilt draaien heb je bovendien een Windows domain controller nodig. Ik ga er echter niet van uit dat je dit wilt doen.msxer schreef op zaterdag 06 december 2014 @ 14:54:
Werken met VM's is voor mij nog een onbewandelde weg, en ik heb met het doorlezen van het ESXi server topic ook al wel gemerkt dat ook daar de juiste hardwarekeuze zeer belangrijk is.
| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |
Ik ben echt onder de indruk van alle mogelijkheden, maar als leek is het allemaal heel overweldigend en ik vrees dan ook dat ik te veel hooi op mijn vork ga nemen.
Daarom heb ik besloten te gaan voor een dedicated NAS die enkel en alleen ZFS gaat draaien.
Zo kan ik mij volledig concentreren op ZFS wat in het begin al uitdagend genoeg zal zijn.
Valt wel mee hoor, heb een keer voor de gein met VM gespeeld, en had iets van 2j geleden in een avondje een VM ge-installeert op mijn Win2012R2 server, en daar op weer W7 ge-installeert.msxer schreef op zaterdag 06 december 2014 @ 19:04:
Hoe meer ik mij verdiep in VM, hoe meer het mij duidelijk wordt dat dit waarschijnlijk een stap te ver gaat zijn.
Gewoon uit verveling, en vond het niet echt schokkend lastig.
Maar wel systeem je ook neemt, je kan die beslissing altijd tot later uitstellen, want VM draait op alle huidige S1155 CPUs.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
De schijven zijn 40-41 graden. Dat is idle, maar ze spinnen wel continu. Onder belasting zal dat dan niet meer heel veel stijgen vermoed ik.Verwijderd schreef op zaterdag 29 november 2014 @ 22:38:
Het zou erg zonde zijn als je voor een dergelijk systeem een ventilator nodig hebt. Je moederbord, CPU, voeding heb je al passief gekoeld. Gaat dan enkel om twee schijven. WD Green zit op 3W per schijf. Dus dat moet absoluut kunnen zonder fan zelfs al heb je een hele kleine kast. Zolang je de schijven wel met iets contact laat maken, zoals een metalen frame/rack. Dan zit je goed.
Temperaturen uitlezen kan prima; temperatuur van de schijf uitlezen kan ook via SMART. Dat werkt niet als je FreeNAS in een virtual machine gebruikt overigens.
(Volgens WD gaan ze dan van 5.5 naar 6 W)
Betekent wel dat ik even op moet letten in de zomer, of wanneer ik het geheel in een kleine ruimte zet. Nu is de kast rondom vrij.
Ik wil sowieso nog een nieuw hd rack maken, uit een dikker materiaal (is nu zeer dun aluminium). Dan kan ik ineens iets meer ruimte tussen de schijven maken.
(Het huidige rack zit ook nog met dubbelzijdige tape bevestigt, dus ook niet optimaal voor warmte geleiding
[ Voor 13% gewijzigd door Harrie op 07-12-2014 11:13 ]
Ik zou toch echt een fan in de kast bouwen, want het zijn de kosten niet echt, een gat in de bovenkant zagen, met daar op een fan-filter, en daar onder een stille fan, en je hebt een betrouwbaarder systeem, zonder dat het hij hoorbaar wordt.Harrie schreef op zondag 07 december 2014 @ 10:22:
Betekent wel dat ik op moet letten in de zomer, of wanneer ik het geheel in een kleine ruimte zet.
Dat zal zeker helpen, gebruik 1 of 1.5mm plaat, en je kan waar de tussen ruimtes zitten ook wat extra ventilatie gaten maken, zeker als je een buigbank kan gebruiken en van de uiteinde 5~10mm om kan buigen, dan moet 1mm dik plaat al meer dan voldoende zijn,Dan kan ik ineens iets meer ruimte tussen de schijven maken.
Vind je 230 en 280 euro voor de hotswap functie, dat is ongeveer 20 uur loon, voor een functie die je misschien een of twee keer gebruikt, sorry hoor, maar dat is imho voor thuis gebruik pure geld verspilling, en dan zou ik de Codegen Q3343-A11 wel nemen, daar gaan als het moet 13 HDDs in en dat voor een zesde/zevende van de NSCx00 prijs, dat scheelt me een halve week op werk.GioStyle schreef op zaterdag 06 december 2014 @ 23:38:
Arggghhh.. Waarom zijn er geen cases zoals de U-NAS NSC400 of NSC800 (of in mijn geval liever nog de NSC600) in EU beschikbaar? Waarom is het aanbod qua itx + hotswap zo karig?
Ik gebruik dan liever wel even mijn schroeven draaier om HDDs in mijn kast te bouwen, en bouw dan gratis een extra WD Red 5TB in.
[ Voor 9% gewijzigd door player-x op 07-12-2014 11:39 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Mijn Hyper-V bak zit momenteel in een M350 met daarbij een losse 5.25 6x2.5" bay. Mijn nas zit in een FD Node 304. Op zich niet verkeerd, maar als ik nu 2 mooie ITX cases met hotswapbays tegenkom, dan wil ik daar wel wat geld op stukslaan.
Ik kwam deze tegen, in de UK: http://it-tech-uk.com/oth...s-8-x-3-5-hard-drive.htmlGioStyle schreef op zaterdag 06 december 2014 @ 23:38:
Arggghhh.. Waarom zijn er geen cases zoals de U-NAS NSC400 of NSC800 (of in mijn geval liever nog de NSC600) in EU beschikbaar? Waarom is het aanbod qua itx + hotswap zo karig?
edit: zie nu pas dat ze out of stock zijn
[ Voor 6% gewijzigd door iMars op 07-12-2014 13:50 ]
Je kan de zelfde oplossing als een vriend van me gebruiken, die had een vergelijkbaar probleem, hij woont in een redelijk klein en extreem duur appartement in het centrum van Oslo.GioStyle schreef op zondag 07 december 2014 @ 12:22:
Tenminste, 99,9% voldoet niet aan mijn eisen.
en dat heeft hij opgelost door een Lian Li PC-Q01 vergelijkbaar kastje te nemen, en daar in en 16p controller te stopen, en 4x losse vijfvoudige hotswap bays te kopen.

http://www.addonics.com/products/aesn5da35.php
En die HDD bays heeft hij tussen twee stalen platen geschroefd, en dat op de muur gehangen/geschroefd, iets van in deze geest als ik me goed herinner.

Maar je kan dat ook horizontaal doen, en hij had in het zijpaneel of de onderkant van de kast een gat geboord voor de kabel doorvoer.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
En als ik me goed herinner, had hij iets van een 1mm dikke staalplaat gebruikt, aluminium kan natuurlijk ook, er een ventilatie sleuf uit laten slijpen, en een randje van 2cm of zo om laten zetten, en later zelf al de benodigde gaatjes geboord.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
http://geizhals.at/eu/sea...t8000as0002-a1204027.html
Nieuw berichtje bij de buren:
http://nl.hardware.info/n...-in-winkels-voor-250-euro
Schijnt niet heel goed te zijn voor 24/7 gebruik, maar wel voor backups.
[ Voor 41% gewijzigd door rikadoo op 07-12-2014 17:56 ]
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Menigmaal langs gekomen hier in dit topic de Silverstone DS380, misschien is dit wat je zoekt.GioStyle schreef op zondag 07 december 2014 @ 14:05:
Ik ga inderdaad, als mijn zoektocht niets oplevert in de zomer wel zelf iets in elkaar zetten., ik heb hier nog genoeg hout (mdf) over en allerlei gereedschappen.
http://www.silverstonetek.com/product.php?pid=452
Ik hoop dat hiermee de prijzen van de 6 en 4tb schijven wat gaan zakken, want ze blijven te hoog vind ik.rikadoo schreef op zondag 07 december 2014 @ 17:54:
Even wat aan de aandacht brengen: 8 TB voor 250 euroSeagate heeft ze.
http://geizhals.at/eu/sea...t8000as0002-a1204027.html
Nieuw berichtje bij de buren:
http://nl.hardware.info/n...-in-winkels-voor-250-euro
Schijnt niet heel goed te zijn voor 24/7 gebruik, maar wel voor backups.
Verschil tussen een 3 en 6TB is ongeveer 12%, 2x 3TB = 190 euro, en 6TB = 222 euro.
Een prijsverschil dus van 32 euro, niet echt schokkend dus.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Hmm leuk als externe backup van mijn NAS, maar dan wel met een backup programma dat meteen een zooi error correctie opslaat. Met deze opslag hoeveelheid weet je tenminste zeker dat het niet 100% goed gaat.rikadoo schreef op zondag 07 december 2014 @ 17:54:
Even wat aan de aandacht brengen: 8 TB voor 250 euroSeagate heeft ze.
http://geizhals.at/eu/sea...t8000as0002-a1204027.html
Nieuw berichtje bij de buren:
http://nl.hardware.info/n...-in-winkels-voor-250-euro
Schijnt niet heel goed te zijn voor 24/7 gebruik, maar wel voor backups.
Verwijderd
Dit is waarschijnlijk geen PMR-schijf meer, dus wees voorzichtig met aanschaf. Seagate laat er tot dusver niets over los, behalve dit in de kleine lettertjes verstopt in die PDF:
Archive HDDs are not intended for surveillance or NAS applications, and you may experience lower performance in these environments. For these applications, Seagate NAS HDDs and Seagate Surveillance HDDs are suggested for better performance and reliability.
De schijf is uitdrukkelijk wel geschikt als 24/7 workloads, maar er wordt vooral bedoelt dat je enkel sequential I/O operaties moet uitvoeren; random IOps zou heel beroers kunnen zijn met deze schijf, doordat het geen PMR schijf meer is en er dus extra trucjes uitgevoerd moeten worden die omliggende sectoren kunnen beïnvloeden. Dat heeft mogelijk ook gevolgen voor de integriteit van je data. Schrijf je naar sector X, dan kan dit gevolgen hebben voor sector Y. Ik blijf voorlopig weg van dit soort schijven totdat ik exact weet hoe ze werken en wat de risico's zijn.
Gaat om een 6 platter model met 1333GB platters; dus wel iets meer dan de WD60EZRX 6TB Green die 1200GB platters heeft. Maar het idle verbruik van 5W is dan weer erg hoog vergeleken met de 6TB Green. En 6 platters is ook wel erg veel....
Persoonlijk heb ik geen hoge behoefte aan hoge IOPs, 99% van mijn data is sequential, heb zelfs niet echt behoefte aan hoge doorvoer, daar ik meer gelimiteerd ben door de aansturende hardware.Verwijderd schreef op maandag 08 december 2014 @ 00:24:
maar er wordt vooral bedoelt dat je enkel sequential I/O operaties moet uitvoeren; random IOps zou heel beroers kunnen zijn met deze schijf
Haal met 18 HDDs in R6 op mijn RR 2760 ongeveer 600MB doorvoer, en het maakt niet uit of ik 6, 12 of zo als nu 18 HDDs heb, zal met RAIDZ2 vast niet veel beter schalen.
Op zich een hele interessante schijf voor mijn nieuwe array, maar je hebt gelijk, ik kijk ook voorlopig de kat nog wel een jaartje uit de boom
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon E5-2609 v2 Boxed | € 257,73 | € 257,73 |
| 1 | Supermicro X9SRL-F | € 273,12 | € 273,12 |
| 4 | WD Green WD20EZRX | € 74,- | € 296,- |
| 1 | Cooler Master Storm Trooper (Closed) | € 120,95 | € 120,95 |
| 1 | Noctua NH-U9DXi4 | € 59,50 | € 59,50 |
| 4 | HP 595098-001 | € 244,12 | € 976,48 |
| Bekijk collectie Importeer producten | Totaal | € 1.983,78 | |
De pool uit mijn oude NAS wordt over gezet als ik alle services draaiend heb op deze. Nog genoeg SATA aansluitingen voor die 2e pool van schijven.
Toekomstige uitbreidingen zijjn mogelijk als de ruimte op raakt. Alsdan, wordt er een IBM SAS HBA toegevoegd met de 8 grootse schijven die ik dan kan betalen.
Wat zouden jullie doen met Owncloud:
- Standaard plugin gebruiken
- zelf in jail installeren met lighttpd en sqlite
- zelf injail installeren met nginx en mysql/mariaDB
Volgens mij moet mijn huidige hardware optie 3 wel kunnen hebben. Met 64GB moet er voldoende geheugen voor ZFS overblijven, ondanks de zwaardere webserver en database.
Overigens zijn de coolers in die case redelijk stil, helaas met uitzondering van de 200mm cooler bovenin. Juist die maakt dan weer een zooi herrie. Wordt dus even zoeken naar een stille 200mm cooler.
[ Voor 3% gewijzigd door Verwijderd op 08-12-2014 16:24 ]
Zelf ben ik zeer te spreken over BT Sync, komend van DropBox, is misschien wat beperkter, maar het werkt voor mij prima, en is lekker ligt, of zijn er dingen in Owncloud dat een must voor je zijn?Verwijderd schreef op maandag 08 december 2014 @ 16:18:
Wat zouden jullie doen met Owncloud:
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Het enige wat ik wil is dat een aantal mappen tussen mijn phone, tablet, laptop en PC gesynct worden. De bestanden in de mappen zijn niet groot, maar het zijn er wel veel.player-x schreef op maandag 08 december 2014 @ 17:18:
[...]
Zelf ben ik zeer te spreken over BT Sync, komend van DropBox, is misschien wat beperkter, maar het werkt voor mij prima, en is lekker ligt, of zijn er dingen in Owncloud dat een must voor je zijn?
Het lijkt erop dat BTsync alles doet wat ik wil. Version history kan natuurlijk gewoon met een twee dagelijkse ZFS snapshot. Dan ben ik nooit meer dan een halve (werk)dag kwijt.
[ Voor 10% gewijzigd door Verwijderd op 08-12-2014 17:27 ]
Ik wil het NAS gaan gebruiken voor backup en Sickbeard/SABnzbd doeleinden.
Ik heb de volgende hardware geselecteerd:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G3240 Boxed | € 50,94 | € 50,94 |
| 1 | ASRock B85M Pro4 | € 57,50 | € 57,50 |
| 3 | WD Green WD30EZRX | € 94,50 | € 283,50 |
| 1 | Fractal Design Node 804 | € 89,90 | € 89,90 |
| 1 | Sandisk Cruzer Blade 8GB Zwart | € 3,59 | € 3,59 |
| 1 | Crucial CT102464BA160B | € 61,95 | € 61,95 |
| 1 | Seasonic G-Serie 360Watt | € 49,99 | € 49,99 |
| Bekijk collectie Importeer producten | Totaal | € 597,37 | |
Nu vraag ik me nog af wat de ideale CPU is voor een dergelijk systeem. Het is wel lekker als het parren/rarren een beetje snel gaat, maar je wilt ook dat het systeem 24/7 te veel energie verbruikt. Wat is de sweetspot?
Alvast bedankt voor het advies.
Dat maakt weinig uit, alle Intel CPUs verbruiken idle het zelfde, en of hij nu 2 of 20 min aan het parren of rarren is maakt niet echt uit op je eind rekening.funnyname schreef op maandag 08 december 2014 @ 17:37:
Nu vraag ik me nog af wat de ideale CPU is voor een dergelijk systeem.
Pas als je bv je video's gaat (her-)encoderen of lang andere zware dingen op je server gaat doen, dan moet je op gaan letten welke CPU je neemt en op welke klok je hem laat werken.
Denk dat je aardig er op zit.Wat is de sweetspot?
Niet echt de G-series is een prima goedkope zuinige voeding.En i.v.m. verbruik, zijn er betere voedingen voor een dergelijk systeem?
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Voor zo weinig disks kun je de voeding ook overslaan als je een bordje met DC-DC voeding en J1900 CPU neemt. In dit topic zijn de laatste pagina's meerdere van dit soort builds besproken misschien kun je dat even opzoeken en overwegen of dit iets voor je is.funnyname schreef op maandag 08 december 2014 @ 17:37:
Ik ben aan het denken om een FreeNAS in elkaar te zetten, vooral vanwege ZFS zou ik dit prefereren boven een kant-en-klare NAS. [..] En i.v.m. verbruik, zijn er betere voedingen voor een dergelijk systeem?
Alvast bedankt voor het advies.
Is goedkoper en zuiniger, en je hebt dan niet zo'n lomp grote ATX voeding wat voor 3 disksjes en een low power systeem wel een beetje overdreven is.
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
De ASUS P9A-I/C2550/SAS/4L
Heeft iemand hier ervaring mee? En zijn er inmiddels drivers beschikbaar voor FreeBSD zodat het bord gebruikt kan worden samen met ZFSguru?
Ik ben ook geinteresseerd in dit bordje, maar marvell drivers voor SAS zijn nog steeds niet beschikbaar voor zover ik weet.Johnnygo schreef op dinsdag 09 december 2014 @ 13:56:
Een tijdje geleden kwam dit bordje voorbij:
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
De ASUS P9A-I/C2550/SAS/4L
Heeft iemand hier ervaring mee? En zijn er inmiddels drivers beschikbaar voor FreeBSD zodat het bord gebruikt kan worden samen met ZFSguru?
ik ben ook aan het overwegen om een NAS te gaan gebruiken om via dlna films op mijn TV te kijken. Tot nu toe doe ik dat via mijn laptop maar de wifi verbinding laat toch te wensen over bij 1080p. Ik wil de NAS ook gebruiken om te downloaden. Ik wil het liefst rond de 350 euro (of minder) uitkomen inclusief 3 TB schijf met uitbreidingsmogelijkheden voor de toekomst. Voorlopig kom ik op het volgende lijstje uit:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G3420 Boxed | € 54,- | € 54,- |
| 1 | ASRock H81M-DGS R2.0 | € 37,95 | € 37,95 |
| 1 | WD Green WD30EZRX | € 94,50 | € 94,50 |
| 1 | Fractal Design Core 1000 USB 3.0 | € 31,47 | € 31,47 |
| 1 | Nofan CR-80EH Copper - Passive | € 37,95 | € 37,95 |
| 1 | Crucial CT51264BA160BJ | € 31,95 | € 31,95 |
| 1 | be quiet! System Power 7 300W | € 30,95 | € 30,95 |
| 1 | Sandisk Solid State Drive 64GB | € 40,- | € 40,- |
| Bekijk collectie Importeer producten | Totaal | € 358,77 | |
Een aantal vragen:
- Is deze CPU toereikend voor mijn doeleinde? (Ik gebruik Plex als server software)
- Wat denken jullie van de koeler? Zijn hier nog betere (en hopelijk goedkopere) alternatieven die stil zijn?
- Is een SSD nodig in mijn situatie en hoeveel ruimte zou ik dan nodig hebben? Kan dit eventueel ook nog met een USB oid om de kosten wat te drukken? Ik wil hier alleen het OS op draaien.
- Ben ik hiermee ook klaar voor 4K resolutie in de toekomst?
- Hebben jullie nog andere op/aanmerkingen?
Ik heb alleen het idee dat die voeding verloop kabels (PicoPSU) erg duur zijn, of ligt dat aan mij?
Verder heb ik 2.5" HDD's overwogen, maar die zijn (maar) 2TB en ik verwacht dat het stroom verbruik niet opweegt tegen de kosten per MB.
Ik heb gekozen voor een SSD ipv een flashdrive, omdat die Sandisk Extreme ook al enkele tientjes kost, voor het prijsverschil hoef je het in mijn ogen niet te laten. Heeft caching zin bij zo een kleine Vdev en 1 Gb netwerk?
| # | Product | Prijs | Subtotaal |
| 1 | ASRock Q1900-ITX | € 72,95 | € 72,95 |
| 3 | WD Green WD30EZRX | € 94,- | € 282,- |
| 1 | Fractal Design Node 304 Zwart | € 68,- | € 68,- |
| 1 | G.Skill Ripjaws F3-1600C9S-8GRSL | € 70,77 | € 70,77 |
| 1 | Mini-box PicoPSU-150XT + 102W Adapter Power Kit | € 74,- | € 74,- |
| 1 | Crucial MX100 128GB | € 60,91 | € 60,91 |
| Bekijk collectie Importeer producten | Totaal | € 628,63 | |
De Asrock is er ook in een versie waar je direct een laptopvoeding aan kan hangen.
pricewatch: ASRock Q1900DC-ITX
Scheelt weer een picopsu.
Fua
Normaal gezien heb je wel als je wat kabels thuis hebt liggen zo een adapter thuis liggen.funnyname schreef op dinsdag 09 december 2014 @ 22:42:
ok bedankt, nu alleen nog een goede adapter en ik ben een heel eind..
Damn ziet er een leuk bordje uit!Johnnygo schreef op dinsdag 09 december 2014 @ 13:56:
Een tijdje geleden kwam dit bordje voorbij:
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
De ASUS P9A-I/C2550/SAS/4L
Heeft iemand hier ervaring mee? En zijn er inmiddels drivers beschikbaar voor FreeBSD zodat het bord gebruikt kan worden samen met ZFSguru?
Maar Marvell
Iemand die de sprong wilt wagen met ZFSguru of dergelijke?
Edit: E3C224D4I-14S ziet er dan weer beter uit, met een i3 voor encryptie.
[ Voor 15% gewijzigd door Nindustries op 10-12-2014 09:03 ]
~ beware of misinformation.
Ik stel het volgende lijstje voor:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G3240 Boxed (sneller en goedkoper bij nagenoeg zelfde verbruik) | € 50,94 | € 50,94 |
| 1 | ASRock H81M-DGS R2.0 (prima boardje, let wel Realtek NIC) | € 37,95 | € 37,95 |
| 1 | WD Green WD30EZRX | € 94,- | € 94,- |
| 1 | Fractal Design Core 1000 USB 3.0 | € 31,47 | € 31,47 |
| 1 | Supermicro SNK-P0046P (koelt genoeg vooor deze CPU en toepassing) | € 21,50 | € 21,50 |
| 1 | Crucial CT51264BA160BJ | € 31,- | € 31,- |
| 1 | be quiet! System Power 7 300W (voor 2 tientjes meer heb je een Seasonic Gold PSU..) | € 30,95 | € 30,95 |
| 1 | Crucial M500 2,5" 120GB (iets duurdere SSD met stroom opvang en betere €/GB) | € 55,95 | € 55,95 |
| Bekijk collectie Importeer producten | Totaal | € 353,76 | |
Als het echt goedkoop moet kan je nog kiezen voor de pricewatch: Sandisk Extreme USB 3.0 Flash Drive 16GB Zwart ipv de SSD
[ Voor 3% gewijzigd door funnyname op 10-12-2014 10:25 ]
Het liefst zou ik namelijk mijn NAS OS virtualizen zodat ik pfsense ernaast kan draaien op dezelfde machine, maar mijn budget is niet toereikend om voor een oplossing met vt-d te gaan.
@Frennek, ik heb zelf kortstondig RDM geprobeerd met de nieuwe ESXi 5.5 AHCI controller, dat werkte in principe prima, maar het blijft een vrij ongeteste en onorthodoxe methode...
RDM is voor elk guest os gevaarlijk, omdat niet 100% bekend is wat ESXi doet op het moment dat een disk moeilijk doet (bijvoorbeeld, als deze een bad sector tegenkomt), het is niet duidelijk of ESXi dan de disk uit het OS gooit, of die beslissing over laat aan het guest OS.
En icm ZFS wil je dat niet, dat is in verhouding hetzelfde als op een HW RAID controller draaien.
Even niets...
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G3240 Boxed | € 50,94 | € 50,94 |
| 1 | ASRock H81M-DGS R2.0 | € 37,95 | € 37,95 |
| 1 | WD Green WD30EZRX | € 94,- | € 94,- |
| 1 | Fractal Design Core 1000 USB 3.0 | € 31,47 | € 31,47 |
| 1 | Crucial CT51264BA160BJ | € 31,- | € 31,- |
| 1 | Seasonic G-Serie 360Watt | € 50,- | € 50,- |
| 1 | Crucial M500 2,5" 120GB | € 55,95 | € 55,95 |
| Bekijk collectie Importeer producten | Totaal | € 351,31 | |
@ funnyname
Ik vraag me nog af wat het nut van zo'n grote SSD in mijn toepassing is.. Kan ik hier niet nog wat op besparen door wat kleiner te gaan? (aan de andere kant scheelt het ook maar een tientje of 2..).
Wat bedoel je precies met die Realtek NIC? Ik lees dat deze van wat mindere kwaliteit zijn, zou ik daar last van hebben?
@ FireDrunk
Ik ga het eerst even proberen met de stock koeler. Vervangen kan altijd nog..
- deze een condensator heeft tegen stroom uitval, dit is een soort kleine accu waarmee de SSD bij stroom uitval data nog net op tijd weg kan schrijven
- de prijs/GB verhouding erg goed is. (je kan ruimte altijd wel ergens voor gebruiken, in dit geval voor cache)
- de performance iets beter is dan bij de kleine SSD's
De netwerkkaart is van Realtek, dit schijnt soms driver problemen te kunnen geven bij bepaalde OS-en
(ik heb er zelf geen directe ervaring mee, misschien kan iemand met een dergelijke NIC hier antwoord op geven)
En inderdaad, probeer eerst de standaard kooler, ik ging er vanuit dat je perse fanless wilde, vandaar dat ik een alternatief gevonden had.
[ Voor 0% gewijzigd door funnyname op 11-12-2014 10:11 . Reden: typo ]
Dat is maar gedeeltelijk waar. Data in de buffers wordt niet weggeschreven, maar de SSD wordt wel beschermd tegen datacorruptie. Stroomuitval kan erg ongelukkig uitpakken voor SSD's, maar daar zijn eigenlijk alle nieuwe Crucial SSD's ten beschermdfunnyname schreef op woensdag 10 december 2014 @ 21:55:
ik raad deze SSD aan omdat:
- deze een condensator heeft tegen stroom uitval, dit is een soort kleine accu waarmee de SSD bij stroom uitval data nog net op tijd weg kan schrijven
Het is zeker niet iets dat je meteen hoeft aan te schaven, maar persoonlijk raad ik aan om een wat grotere koeler te nemen, zelf heb ik een Scythe Mugen 4 in mijn server, het voordeel is dat hij passief werkt wanneer hij idle is, en hij pas gaat werken onder last.Jlo88 schreef op woensdag 10 december 2014 @ 21:34:
Ik ga het eerst even proberen met de stock koeler. Vervangen kan altijd nog..
Wat is het voordeel, servers draaien 24/7 en op een gegeven moment zal je CPU fan overlijden als hij ook 24/7 gebruikt wordt, heb in mijn fan profiel voor de CPU 70 - 85c voor 0 - 100% fan snelheid ingesteld.
Voor de case fans gebruik ik een 50 - 85c profiel.
Ook is het een optie om voor je PC een betere koeler te kiezen, en de oude daarvan in je server te gebruiken.
[ Voor 6% gewijzigd door player-x op 10-12-2014 22:23 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Ik wil slechts softwarematig RAID1 toepassen vanuit openmediavault en ik heb schijven met TLER, zijn er dan nog echt problemen met RDM behalve dat de SMART data niet doorgegeven wordt?FireDrunk schreef op woensdag 10 december 2014 @ 15:09:
@Frennek, ik heb zelf kortstondig RDM geprobeerd met de nieuwe ESXi 5.5 AHCI controller, dat werkte in principe prima, maar het blijft een vrij ongeteste en onorthodoxe methode...
RDM is voor elk guest os gevaarlijk, omdat niet 100% bekend is wat ESXi doet op het moment dat een disk moeilijk doet (bijvoorbeeld, als deze een bad sector tegenkomt), het is niet duidelijk of ESXi dan de disk uit het OS gooit, of die beslissing over laat aan het guest OS.
En icm ZFS wil je dat niet, dat is in verhouding hetzelfde als op een HW RAID controller draaien.
Als ESXi er toch nog een schijf uitgooit, ben ik naar mijn idee nog niet echt in gevaar. Ik heb nog een tweede schijf en ik kan mijn data nog vrij eenvoudig uitlezen via een ander systeem met Linux/openmediavault. Het is allemaal niet zo complex als ZFS natuurlijk.
Openmediavault zelf heeft ook de functionaliteit om een virtualbox te runnen, maar het voelt niet helemaal correct om je firewall in een virtualbox van je NAS te draaien. Toch ga ik dit nog even uitzoeken
Even niets...
Weet iemand waar je dit bord kan kopen? Het staat niet in de pricewatch volgens mij. Ik draai Slackware met ZoL en met de standaard marvel sas drivers werkt dat prima onder linux volgens mij. Enige nadeel is 2x memory slots dus 2x 16GB ECC als 2x32GB wat te prijzig is.Johnnygo schreef op dinsdag 09 december 2014 @ 13:56:
Een tijdje geleden kwam dit bordje voorbij:
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
De ASUS P9A-I/C2550/SAS/4L
Heeft iemand hier ervaring mee? En zijn er inmiddels drivers beschikbaar voor FreeBSD zodat het bord gebruikt kan worden samen met ZFSguru?
En met 16x sata via de onboard marvels en een 8x sata in het PCI-E 8x slot kan je een aardige NAS bouwen denk ik.
Geen enkele PC webshop in NL die ik ken heeft deze bordjes in het assortiment lijkt wel. Newegg in de USA wel zie ik voor $379
Even niets...
Als je perse een klein bordje wil is er deze: pricewatch: ASRock E3C224D4I-14S
Extended Mini-ITX vergelijkbaar met DTX, 8x SAS 6x SATA, en er passen wel normale UDIMMs in.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Er is alleen zo weinig over te vinden op het internet. Volgens de MSI website is er ook een model met een DC connector (http://server.msi.com/product/pages/server/MS-S0891.html). Erg interessant materiaal voor volwaardige mini builds
[ Voor 3% gewijzigd door frennek op 12-12-2014 22:06 ]
Die AsRock E3C224D4I-14S kan wel aardig zijn met de juiste I3 erbij die ECC ondersteunt. Misschien net te weinig sata poorten + uitbreidingsmogelijkheden.
Zou met een LSI SAS9201-16i kunnen. Maar 14 + 16 = 30, da's net 1 te weinig.
Met een 8 poorts sas kaart kom je op 14+8=22, da's genoeg voor boot + 2 pools van 10 disken. Of ik moet booten van de USB stick onboard.
Ik wilde eigenlijk een Avoton bordje vanwege de ECC mogelijkheid en max 64GB op de Asrock Avotons. En ik zoek iets waar ik minimaal 21 sata poorten op kan zetten, maar liever 31 stuks.
M'n huidige NAS heeft 30 schijven een SSD en een e-sata poort, dus 32 in totaal, maar zonder ECC. De 2de NAS die ik wil bouwen moet wel ECC hebben.
Ik heb RAIDZ2 pools van 10 disken die ik wil kunnen verslepen van de ene PC naar de andere.
Ik zoek nog wel verder
[ Voor 4% gewijzigd door slooffmaster op 14-12-2014 09:39 ]
Deze:
http://server.msi.com/nl/...s/server/MSS1211_C222_SKU

Even niets...
Jep heel interessant bordje, nu nog maar hopen dat hij ook een interessante prijs gaat krijgen.FireDrunk schreef op zondag 14 december 2014 @ 09:40:
Als je dan toch gave MSI Server plankjes wil...
Btw, het bovenste plaatje met 1x PCIe x16 (intern x8) is een B85 uitvoering, de tweede heeft een PLX chip en voegt daar 2x PCIe x8 (intern x4) aan toe, en uiteraard ECC via de C222 chipset.
Vraag me af wat hij moet gaan kosten, en of hij neer NL komt, want hij is letterlijk nog nergens te koop.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Even niets...
De S1150 Xeon en consumer CPUs zijn pressies de zelfde chips, met het zelfde aantal PCIe poorten, de enige verschillen zijn wat er op de chips voor de rest in of uitgeschakeld is.FireDrunk schreef op zondag 14 december 2014 @ 10:28:
Plaatje klopt idd niet, volgens mij kan een Xeon genoeg PCIe lanes leveren voor die poorten? Dan zou alleen de B85 zo'n PLX chip hebben denk ik...
Het B85 bordje is gewoon een budget uitvoering van de C222 versie, welke naast een PLX chip voor de extra PCIe slots, ook nog eens een extra management poort heeft, en een paar andere pro extra's, lees de manuaal, die is voor beide uitvoeringen.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Even niets...
Verwijderd
http://ark.intel.com/products/77495
Volgens mij heeft alles wat Socket 1150 is, gewoon 16 lanes. En die SAS controllers (Marvell?) zitten daar ook op; dus ik denk dat 8 lanes naar het PCIe slot gaan en de overige 8 o.a. voor de SAS worden gebruikt. Dan heb je dus wel een PLX-chip nodig voor de twee extra poorten.
Hier een Xeon ook met 16 lanes:
http://ark.intel.com/nl/p...1226-v3-8M-Cache-3_30-GHz
http://ark.intel.com/prod...-8M-Cache-3_20-GHz?q=1230
20 Lanes.
http://ark.intel.com/prod...-up-to-3_40-GHz?q=i5-2400
16 Lanes.
http://ark.intel.com/prod...-Cache-3_10-GHz?q=i3-2100
16 Lanes.
[ Voor 53% gewijzigd door FireDrunk op 14-12-2014 11:23 ]
Even niets...
De schijven staan momenteel in een softwarematige raid 1 configuratie en het os is Ubuntu Server.
Helaas is de Raid nu voor de 2e x in 3 jaar kapot gegaan waarschijnlijk door een overlijdende schijf.
De vorige keer was het verhaal nog iets erger dan deze keer omdat ik de vorige keer 2 schijven had uit dezelfde batch en deze dus ook exact tegelijkertijd kapot gingen :[ Nu is er maar 1 schijf die niet helemaal lekker meer werkt.
Omdat ik de datacorruptie behoorlijk zat begin te worden wil ik overstappen op ZFS.
Nu is het huidige atom bordje daar niet meer echt toerijkend voor aangezien ik daar niet al te veel geheugen in kwijt kan en deze maar over 2 sata poorten beschikt.
Ik ben mijzelf nu aan het orrienteren op wat ik precies aan moet gaan schaffen. Ik heb dit topic net zoals het zfs topic deels gelezen maar ik moet zeggen dat ik zo langzamerhand door de bomen het bos niet meer zie.
Het nieuwe servertje hoeft uiteindelijk niet zo heel veel te doen. Het huidige servertje heeft ook maar een paar taken:
- Data opslag
- Torrents binnenhalen mbv transmission
- fungeren als Printserver
- fungeren als Scanserver
Het nieuwe servertje moet dus eigenlijk hetzelfde kunnen (Al is scanserver geen harde eis) en zo betrouwbaar en energiezuinig mogenlijk.
Voordat ik dus iets definitiefs ga samenstellen heb ik de volgende vragen:
- Heb ik goed begrepen dat je voor eenn betrouwbaar ZFS systeem minimaal 3 schijven nodig hebt?
- Welke schijven zijn aan te raden? WD Green / Red of een ander merk
- Weet iemand wat zuiniger is; een AMD a4 of een Celeron (Energiegebruik van mb+cpu's liggen helaas niet voor het oprapen)
- Is wat ik wil mogenlijk op Freenas / Nas4free / ZFS Guru of is linux een betere optie
Ik wil uitdrukkelijk geen moederbord met laptopvoeding.
Verwijderd
Nee, waar lees je dat? Een ZFS mirror is prima. De reden dat veel mensen hier voor RAID-Z gaan is vanwege de overhead. Een mirror is altijd 50% overhead terwijl RAID-Z vanaf 33% begint bij 3 schijven. Een RAID-Z en mirror bieden hetzelfde niveau van bescherming.
Welke schijven zijn aan te raden? WD Green / Red of een ander merk
WD Green
Weet iemand wat zuiniger is; een AMD a4 of een Celeron
De processors zelf verbruiken minder dan 1W in idle; sommigen zelfs 0,1 watt. Daar komt je verbruik niet vandaan. Het gebruik van een ATX-voeding bijvoorbeeld betekent al 50% extra energieverbruik voor heel zuinige builds. Probeer dus bij een DC-DC setup te blijven; dus een mobo met DC-DC voeding of het gebruik van PicoPSU.
Een CPU met 100W TDP kan zuiniger zijn dan een 5W TDP chip. Daar moet je niet naar kijken.
Is wat ik wil mogenlijk op Freenas / Nas4free / ZFS Guru of is linux een betere optie
De drie genoemde platforms zijn gebaseerd op BSD wat betekent een betere ZFS implementatie die meer volwassen is. Maar Ubuntu kan ook voordelen hebben die de genoemde platforms weer niet hebben. Hangt dus helemaal van jou af wat je wilt. FreeNAS kan vrijwel alles, maar heeft wel beperkingen en is niet erg newbie-vriendelijk. ZFSguru kan veel minder maar heeft weinig beperkingen en is juist erg newbie-vriendelijk. Heeft alleen geen out-of-the-box printserver en scanserver. Een printer met eigen netwerkfunctionaliteit zou dan uitkomst kunnen bieden. NAS4Free ken ik minder goed. Ubuntu kun je alles wel werkend krijgen met wat gepruts en heeft vrij goede community service; de andere drie platforms minder. Maar Ubuntu heeft weer nadelen die de andere platforms niet hebben; voornamelijk dat het Linux is met de gevolgen van dien. Geen web-interface, etc. Maar voor jou kan het mogelijk de beste oplossing zijn.
Ik wil uitdrukkelijk geen moederbord met laptopvoeding.
Mag ik vragen waarom? Want dat lijkt me nou juist voor jou met weinig schijven dé oplossing. Veel zuiniger en geen lawaai en geen slijtage en vrijwel even duur als een grote ATX voeding.
Duidelijk. Ik kon eigenlijk nergens vinden hoe dit precies zat (Heeft denk ik met mijn zoekskills te makenHeb ik goed begrepen dat je voor eenn betrouwbaar ZFS systeem minimaal 3 schijven nodig hebt?
Nee, waar lees je dat? Een ZFS mirror is prima. De reden dat veel mensen hier voor RAID-Z gaan is vanwege de overhead. Een mirror is altijd 50% overhead terwijl RAID-Z vanaf 33% begint bij 3 schijven. Een RAID-Z en mirror bieden hetzelfde niveau van bescherming.
Ook duidelijkWelke schijven zijn aan te raden? WD Green / Red of een ander merk
WD Green
Maar waar moet ik dan wel naar kijken? Momenteel wordt (eigenlijk werd want de server is voorlopig offline)Weet iemand wat zuiniger is; een AMD a4 of een Celeron
De processors zelf verbruiken minder dan 1W in idle; sommigen zelfs 0,1 watt. Daar komt je verbruik niet vandaan. Het gebruik van een ATX-voeding bijvoorbeeld betekent al 50% extra energieverbruik voor heel zuinige builds. Probeer dus bij een DC-DC setup te blijven; dus een mobo met DC-DC voeding of het gebruik van PicoPSU.
Een CPU met 100W TDP kan zuiniger zijn dan een 5W TDP chip. Daar moet je niet naar kijken.
de server alleen aangezet wanneer deze nodig is mbv WOL en gaat 's nachts rond een uur of 1 uit samen met de rest van alle internetapparatuur (kabelmodem / router / laptopladers) omdat het dan toch door niemand meer gebruikt wordt. Dus de server staat relatief vaak uit.
Een web-interface zou eigenlijk wel eens een welkome verandering zijn tov. mijn huidige setup. Ik heb niet echt problemen met het gebruik van de console (Ik ben nog uit de stacker en emm386 tijd) maar het is wel bijna 2015Is wat ik wil mogenlijk op Freenas / Nas4free / ZFS Guru of is linux een betere optie
De drie genoemde platforms zijn gebaseerd op BSD wat betekent een betere ZFS implementatie die meer volwassen is. Maar Ubuntu kan ook voordelen hebben die de genoemde platforms weer niet hebben. Hangt dus helemaal van jou af wat je wilt. FreeNAS kan vrijwel alles, maar heeft wel beperkingen en is niet erg newbie-vriendelijk. ZFSguru kan veel minder maar heeft weinig beperkingen en is juist erg newbie-vriendelijk. Heeft alleen geen out-of-the-box printserver en scanserver. Een printer met eigen netwerkfunctionaliteit zou dan uitkomst kunnen bieden. NAS4Free ken ik minder goed. Ubuntu kun je alles wel werkend krijgen met wat gepruts en heeft vrij goede community service; de andere drie platforms minder. Maar Ubuntu heeft weer nadelen die de andere platforms niet hebben; voornamelijk dat het Linux is met de gevolgen van dien. Geen web-interface, etc. Maar voor jou kan het mogelijk de beste oplossing zijn.
Is er wel een mogenlijkheid om bijvoorbeeld zelf cups toe te voegen aan zfs guru?
Ik heb daar gewoon niet zo'n lekker gevoel bij, het gerommel met pico psu's en aparte kabeltjes vind ik gevoelsmatig gewoon niks. Tevens heb ik al een 80+ bronze voeding en lawaai is momenteel geen enkel probleem (Zolang het maar geen echte server is met orkaanventilatie natuurlijkIk wil uitdrukkelijk geen moederbord met laptopvoeding.
Mag ik vragen waarom? Want dat lijkt me nou juist voor jou met weinig schijven dé oplossing. Veel zuiniger en geen lawaai en geen slijtage en vrijwel even duur als een grote ATX voeding.
Verwijderd
Jazeker, je kunt alles doen wat je met BSD kunt doen omdat het een volledige distributie is met niets weggestript, zoals wel bij FreeNAS het geval is. Maar dan moet je het wel zelf configureren. Je kunt wel gewoon 'pkg' gebruiken voor het installeren van packages, dus zelf compileren met de portstree hoeft niet persé.jbhc schreef op zondag 14 december 2014 @ 16:16:
Is er wel een mogelijkheid om bijvoorbeeld zelf cups toe te voegen aan zfs guru?
De voeding die ik getest heb is 80+ Gold en nog steeds 50% meer verbruik van mijn PicoPSU setup. Dat is echter wel met een extreem kale setup onder de 10W waardoor de verschillen van de voeding uitvergroot worden. Ga je een realistische setup met schijven erbij vergelijken, dan zal het verschil veel minder groot zijn.Ik heb daar gewoon niet zo'n lekker gevoel bij, het gerommel met pico psu's en aparte kabeltjes vind ik gevoelsmatig gewoon niks. Tevens heb ik al een 80+ bronze voeding
Maar dan nog, zou ik je toch DC-DC aanbevelen. Gerommel met PicoPSU snap ik niet zo; aparte kabeltjes? Juist met DC-DC heb je geen kabelbrij meer. Alleen één DC kabel naar het voedingsblok. En de schijven krijgen hun voeding via het moederbord. Juist super netjes en super zuinig zou ik zeggen.
Bijvoorbeeld dit mobo denk ik aan:Maar waar moet ik dan wel naar kijken?
pricewatch: ASRock Q1900DC-ITX

Heb je 100% passieve koeling, superzuinig, quadcore, DC-DC voeding en tot 4 SATA met onboard SATA power voor de voeding van je schijven. Kan een normale +12V voeding aan gehangen worden, in de Pw staat er één voor iets meer dan twee tientjes.
Prachtig systeempje voor een kleine ZFS NAS.
pricewatch: Asus B85M-G (C2)
en dan in combinatie met een celeron.
Ik had het bordje wat jij voorstelde namelijk al eerder voorbij zien komen maar het asus bordje heeft veel meer uitbreidingsmogenlijkheden. Want wat als ik in de toekomst de zfs pool wil migreren? dan heb je met dat kleine bordje nogal een uitdaging vrees ik.
Ik ga er nog even over denken
[ Voor 9% gewijzigd door jbhc op 14-12-2014 16:58 ]
Ik kan natuurlijk ook een kant-en-klaar Synology NAS aanschaffen, waarbij ik denk aan een DS413/4 met een prijs van €300+ (niet het instapmodel met "j"-achtervoegsel). Deze heb ik als referentiekader gebruikt voor het samenstellen van een eigen DIY NAS.
Wat ga ik er mee doen?
Het downloaden van films en deze steamen (DNLA) naar verbonden tvs in het thuisnetwerk met Plex Media Server of Twonky Server. Transcoden is volgens mij geen noodzaak. Verliep ook prima met een ZyXEL NSA325v2.
Het bewaren en delen van bestanden en foto's. Hierbij is RAID-functionaliteit dus wenselijk.
De NAS krijgt het niet heel zwaar te verduren.
Behuizing
Ik wil als behuizing een Inter Tech SC-4100 gaan gebruiken. Deze beschikt over 4 externe 3.5. bays. Formfaktor is Mini ITX. De ruimte in de meterkast is beperkt. De diepte bedraagt ongeveer 25 à 30cm.


De staat echter niet in de Pricewatch (maar wel bij Hardware.Info).
Inter Tech website: IPC SC-4100 NAS-behuizing
De onderstaande tabel bevat alleen de "kale" NAS-componenten. Schijven en opslagmedia heb ik nog liggen of kan ik zonodig aanschaffen.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G2130 Boxed | € 56,99 | € 56,99 |
| 1 | Gigabyte GA-H77TN (rev 1.1) | € 113,- | € 113,- |
| 1 | Inter-Tech IPC 2U-2129L | € 89,- | € 89,- |
| 1 | Coolink Swif 801 HDB Bearing 1500RPM, 80mm | € 5,- | € 5,- |
| 2 | Transcend TS512MSK64W6H | € 27,77 | € 55,54 |
| Bekijk collectie Importeer producten | Totaal | € 319,53 | |
Opmerkingen
Behuizing
Deze staat niet in de Pricewatch. De behuizing in de bovenstaande collectie is uitsluitend indicatief. De prijs is vergelijkbaar met IPC SC-4100.
Moederbord
Het moederbord is behoorlijk prijzig. De selectie is bepaalt o.a. o.b.v. formfactor (mini-ITX i.v.m. behuizing), 4 SATA-aansluitingen (2x SATA-300/2x SATA-600; de Q87-moederbordvariant met 4x SATA-600 is nog prijziger), DC-connector (ik heb nog een oude laptopvoeding liggen. Output: 19V - 4.74A - 90W). Het systeem is m.i. niet zo zwaar dat een Flex-ATX-Power of 1U ServerPower voeding ingebouwd hoeft te worden (maar de mogelijkheid en ruimte is wel aanwezig).
Ik ben niet bekend met PicoPSU etc. Vandaar dat de keuze op dit moederbord is gevallen.
Op het moederbord valt waarschijnlijk nog wel flink te besparen.
Adviezen zijn meer dan welkom.
Geef dan s.v.p. dan een passende combinatie aan van moederbord + PicoPSU (passend bij mijn laptopvoeding) of moederbord + Flex-ATX-Power of 1U ServerPower, etc. Dan kan ik op basis daarvan wel de overige componenten daarop aanpassen.
Processorkoeling
Voorlopig is er een boxed variant opgenomen. Misschien kan ik de processor stiller en/of beter koelen. Ik moet me echter nog verdiepen in hoeveel ruimte er beschikbaar is voor een processorkoeler.
[ Voor 3% gewijzigd door ariekanari op 14-12-2014 23:17 ]
Xbox Live: BicycleTiger34 TrueAchievements
(bedank Cipher voor het idee..)
| # | Product | Prijs | Subtotaal |
| 1 | ASRock Q1900DC-ITX | € 96,67 | € 96,67 |
| 1 | Corsair Vengeance CMSX16GX3M2B1600C9 | € 150,58 | € 150,58 |
| Bekijk collectie Importeer producten | Totaal | € xxxxxxx | |
In dit voorbeeld heb ik 16GB RAM genomen, dat is misschien wat veel, maar 8 GB RAM is zeker aan te raden met ZFS.
De kast en fan laat ik even buiten de setup, die kun je het beste naar eigen inzicht kiezen.
Op welke hardware ga je het OS draaien? Dit kan je eventueel op een flashdrive doen, kies in dat geval voor een Sandisk Extreme.
[ Voor 4% gewijzigd door funnyname op 15-12-2014 14:12 . Reden: redo ]
Verwijderd
8GiB is echt prima voor een instap ZFS server met weinig disks.
Een power brick in de pricewatch: pricewatch: Cooler Master NA 90
(er zijn goedkopere en betere, je kunt namelijk ook +12V gebruiken ipv +19V; in de PW staan niet zoveel power bricks helaas)
Ik ga me eens verdiepen in een J1900 MB en waarvan de meesten geheugen modules ondersteunen tot PC3-10600 (DDR3-1333). Geen ramp maar PC3-12800 (DDR3-1600) heeft dan niet zoveel nut.
Bijvoorbeeld ASRock Q1900DC-ITX:
Note1: Each RAM whose frequency is higher than 1333 MHz will downgrade to DDR3 1333.
Xbox Live: BicycleTiger34 TrueAchievements
Aangezien de helft van de schijven nog Seagate Barracuda ES.2 schijven waren, is dat niet opnieuw bruikbaar om ergens nog in te zetten (> 50% uitval over 5 jaar). Dell schijven kunnen we er toch al niet meer voor krijgen zonder bizarre prijzen te betalen.
Nu maar even aan het struinen voor een paar knappen SSDs, waarschijnlijk Intel S3500 series ofzo.
De keerzijde is dat de EQL management gui aan blijft geven dat de schijven niet ondersteunt (want, geen Dell firmware). Dat is helemaal irritant in combinatie met SAN HQ, die blijft dan elke dag mailen dat er niet ondersteunde schijven in zitten. Beetje flauw.
Wellicht dat andere mensen nog iets met deze informatie kunnen, ondersteunt is het niet, dus toch wel een mate van zelfbouw
De performance is best redelijk, de schrijf performance is redelijk beperkt vanwege de keuze van de SSDs. De Intel Postville 80GB kan maar met een 70MB/s schrijven. Met een nieuwere courante is dat een heel ander verhaal.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| -----------------------------------------------------------------------
CrystalDiskMark 3.0.3 x64 (C) 2007-2013 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 260.225 MB/s
Sequential Write : 197.101 MB/s
Random Read 512KB : 184.786 MB/s
Random Write 512KB : 155.539 MB/s
Random Read 4KB (QD=1) : 8.748 MB/s [ 2135.8 IOPS]
Random Write 4KB (QD=1) : 9.798 MB/s [ 2392.0 IOPS]
Random Read 4KB (QD=32) : 112.272 MB/s [ 27410.0 IOPS]
Random Write 4KB (QD=32) : 25.167 MB/s [ 6144.3 IOPS]
Test : 1000 MB [C: 76.3% (48.9/64.0 GB)] (x5)
Date : 2014/12/16 13:14:23
OS : Windows Server 2008 R2 Server Standard (full installation) SP1 [6.1 Build 7601] (x64) |
Dit is een Crystaldiskmark op een W2K8 R2 VM op ESXi 5.5 verbonden met 10Ge naar de EQL (met 10Ge)
Even niets...
Verwijderd
Waarom zou je minder goed geheugen willen? Net even gekeken en voor een 8GiB module op 1,35v betaal je minimaal 70 euro. Dus 72 euro kan dan ook wel voor een goede module?!ariekanari schreef op dinsdag 16 december 2014 @ 12:35:
@CiPHER en @funnyname. Bedankt voor jullie reacties.
Ik ga me eens verdiepen in een J1900 MB en waarvan de meesten geheugen modules ondersteunen tot PC3-10600 (DDR3-1333). Geen ramp maar PC3-12800 (DDR3-1600) heeft dan niet zoveel nut.
Bovendien scheelt het meestal ook qua CAS latency; wat soms 11 of 10 is en bij deze module 9. Sommige top modules (non-OC) hebben CAS 8.
Sommige modules hebben XMP profiles waarbij de latency sneller staat afgesteld naarmate de frequency lager wordt. Zoals CAS9 op DDR3/1600 en CAS8 op DDR3/1333. CAS is natuurlijk maar één van de vele latencies; maar je snapt mijn punt.
Geen reden om inferieur geheugen te nemen; neem gewoon een goede module.
Het alternatief is trouwens een WD MyCloud Mirror met twee keer 3TB die ik in de studentshop van WD kan aanschaffen voor €250. Dan heb ik dus wel minder vrijheid in functies (misschien eventueel op te vangen met een losse Rpi)
Verwijderd
| # | Product | Prijs | Subtotaal |
| 1 | ASRock Q1900DC-ITX | € 96,- | € 96,- |
| 2 | WD Green WD30EZRX | € 94,50 | € 189,- |
| 1 | Crucial CT102464BA160B | € 61,95 | € 61,95 |
| Bekijk collectie Importeer producten | Totaal | € 346,95 | |
[ Voor 0% gewijzigd door funnyname op 16-12-2014 18:52 . Reden: verfat big iets ]
Verwijderd
CAS11 meh
Dus beter geheugen kan prima.
Bovendien als je al een PicoPSU hebt, heb je zo'n duur mobo ook niet nodig, die heeft namelijk al een DC-DC voeding. Denk aan bijvoorbeeld dit bord: pricewatch: ASRock Q1900M
3TB schijven zijn wel iets duurder dan ik dacht, lijkt onlangs ook weer iets gestegen te zijn. Dus je komt denk ik nog wel een paar tientjes boven de 300 euro met 2 schijven erbij.
| # | Product | Prijs | Subtotaal |
| 1 | ASRock Q1900-ITX | € 70,95 | € 70,95 |
| 2 | Toshiba DT01ACA300, 3TB | € 89,50 | € 179,- |
| 1 | HP Proliant Low Power kit 647909-B21 | € 60,91 | € 60,91 |
| Bekijk collectie Importeer producten | Totaal | € 310,86 | |
Idd, normaal gezien koop ik mijn schijven met een prijs van 95 euro en nu zijn ze ineens rond de 115 euro. Vind ik wel spijtig...Verwijderd schreef op dinsdag 16 december 2014 @ 18:58:
3TB schijven zijn wel iets duurder dan ik dacht, lijkt onlangs ook weer iets gestegen te zijn. Dus je komt denk ik nog wel een paar tientjes boven de 300 euro met 2 schijven erbij.
Zo'n ASRock-bordje met met de Celeron J1900 leek me wel wat. Thuis heb ik nog een oude Vertex 2 van 50GB liggen. Deze leek me geschikt als boot- en cache-schijf. Nu heb ik er toch geen bestemming voor.
| # | Product | Prijs | Subtotaal |
| 1 | ASRock Q1900DC-ITX | € 96,- | € 96,- |
| 2 | WD Green WD30EZRX | € 94,50 | € 189,- |
| 1 | Cooler Master Elite 110 | € 34,95 | € 34,95 |
| 1 | Cooler Master NA 90 | € 22,95 | € 22,95 |
| 1 | Crucial Ballistix Sport BLS8G3N169ES4CEU | € 72,70 | € 72,70 |
| Bekijk collectie Importeer producten | Totaal | € 415,60 | |
Hoe kijken jullie tegen deze setup aan? Daarnaast heb ik nog een paar vragen.
Hoe flexibel ben je met de schijfruimte? Als ik er twee schijven in zet wil ik deze in mirror draaien, dus met 2 * 3TB heb ik in feite 3TB tot mijn beschikking. Is het dan mogelijk om later een 3e soortgelijke schijf toe te voegen, zodat je 6TB tot je beschikking hebt?
Hoeveel ruimte zal ik (voorlopig) daadwerkelijk gebruiken? Als ik het goed begrijp kost een nieuwe snapshot alleen de extra ruimte van de veranderingen die zijn aangebracht. Ik ben van plan om hooguit een back-up te maken van 500GB, waarvan veel content echt gewoon statisch is (foto's, ski-opnames, (oude) programmeerklussen, andere documenten, etc.). Mogelijk dat ik elke week een paar honderd MB toevoeg. Dan moet ik met 1TB toch een eind komen? De 3TB-schijven zijn nu vooral met het oog op de toekomst en misschien wil mijn broer/zus/ouders er ook wel gebruik van maken.
Als ik het goed begrijp heeft de ASRock een ingang voor een externe (laptop)adapter. Trekt deze voeding het inderdaad? En wat zou het stroomverbruik zijn? Misschien valt daar nog wel wat te tweaken met Wake on WAN. En blijft er straks een gapend gat in mijn kast achter waar anders een PSU zou zitten? Of heb ik een andere kast nodig? Heeft iemand sowieso nog ideeën voor een kast? Kleine kastjes met met veel schijfruimte zijn zeldzaam, lijkt het wel.
Tot slot moet ik nog even kijken wat voor software ik erop ga zetten. Van de kerst ga ik maar eens spelen met wat VM's. Hier moet ik gewoon nog even naar kijken. Dank je wel voor jullie visie alvast.
Hoe groot is je behuizing? Als je micro-ATX kwijt kan zou je dit systeem kunnen overwegen. Gaat prima met je budget!-Tim- schreef op dinsdag 16 december 2014 @ 18:02:
Ik zit er aan te denken een NAS te kopen, alleen ik heb maar een beperkt budget van tegen de €300. Hiervoor wil ik twee 3TB schijven in RAID draaien, die ik nog moet aanschaffen. Voor de rest heb ik nog een casing, 90W pico PSU en bijbehorende powerbrick(s) liggen. Gaat het me lukken om voor dit bedrag een simpel NAS systeempje te bouwen waar ik net wat meer vrijheid mee heb dan een off-the-shelf ding?
Het alternatief is trouwens een WD MyCloud Mirror met twee keer 3TB die ik in de studentshop van WD kan aanschaffen voor €250. Dan heb ik dus wel minder vrijheid in functies (misschien eventueel op te vangen met een losse Rpi)
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G1840 Boxed | € 31,50 | € 31,50 |
| 1 | ASRock H81M-HDS | € 41,50 | € 41,50 |
| 2 | WD Green WD30EZRX | € 94,50 | € 189,- |
| 1 | Crucial Ballistix Tactical LP BLT4G3D1608ET3LX0CEU | € 39,94 | € 39,94 |
| Bekijk collectie Importeer producten | Totaal | € 301,94 | |
Prima systeem om een Linux gebaseerde NAS distributie op te draaien als OpenMediaVault.
Helaas heb ik een ITX kast, dus zou het bordje wat CiPHER voorstelde een betere keuze zijn. Ook heb ik liever een passief gekoeld systeem, maar goedkoper is dit zeker.frennek schreef op dinsdag 16 december 2014 @ 20:20:
[...]
Hoe groot is je behuizing? Als je micro-ATX kwijt kan zou je dit systeem kunnen overwegen. Gaat prima met je budget!
# Product Prijs Subtotaal 1 Intel Celeron G1840 Boxed € 31,50 € 31,50 1 ASRock H81M-HDS € 41,50 € 41,50 2 WD Green WD30EZRX € 94,50 € 189,- 1 Crucial Ballistix Tactical LP BLT4G3D1608ET3LX0CEU € 39,94 € 39,94 Bekijk collectie
Importeer productenTotaal € 301,94
Prima systeem om een Linux gebaseerde NAS distributie op te draaien als OpenMediaVault.
Ik ben er ook nog niet helemaal over uit wat ik met de software doe. FreeNAS lijkt de uitbreidingen te bieden die ik wil gaan gebruiken (vooral Plex Media Server), maar heeft daarnaast ook nog eens ZFS. OpenMediaVault zie ik daarnaast weer betere mogelijkheden voor virtualisatie, zodat ik in ieder geval niet geremd wordt qua spelen met software (vind het namelijk zonde als dat ding rest van de tijd uit z'n neus vreet)
OpeMediaVault heeft een zeer eenvoudig plugin systeem. Als je de OMV-extras plugin hebt geïnstalleerd (http://omv-extras.org/simple/) heb je met een paar muisklikken de PMS plugin. Ik draai op het moment nog geen NAS, maar heb laatst OpenMediaVault even geprobeerd op mijn netbook, het werkt bijzonder eenvoudig en kan het iedereen aanraden-Tim- schreef op dinsdag 16 december 2014 @ 20:29:
[...]
Helaas heb ik een ITX kast, dus zou het bordje wat CiPHER voorstelde een betere keuze zijn. Ook heb ik liever een passief gekoeld systeem, maar goedkoper is dit zeker.
Ik ben er ook nog niet helemaal over uit wat ik met de software doe. FreeNAS lijkt de uitbreidingen te bieden die ik wil gaan gebruiken (vooral Plex Media Server), maar heeft daarnaast ook nog eens ZFS. OpenMediaVault zie ik daarnaast weer betere mogelijkheden voor virtualisatie, zodat ik in ieder geval niet geremd wordt qua spelen met software (vind het namelijk zonde als dat ding rest van de tijd uit z'n neus vreet)
Als je gebonden zit aan ITX formaat zou dit ook een alternatief zijn ipv een j1900 systeem, het is inderdaad alleen niet passief gekoeld. Als je wilt gaan transcoden met Plex is een j1900 wel echt aan de magere kant trouwens. 1080p zal misschien niet gaan lukken.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G1840 Boxed | € 31,50 | € 31,50 |
| 1 | ASRock B85M-ITX | € 70,- | € 70,- |
| 2 | WD Green WD30EZRX | € 94,50 | € 189,- |
| 1 | Crucial Ballistix Tactical LP BLT4G3D1608ET3LX0CEU | € 39,94 | € 39,94 |
| Bekijk collectie Importeer producten | Totaal | € 330,44 | |
Mbt de hardware geen opmerkingen, er zijn voldoende setups te vinden die min of meer op je voorstel lijken en in ander topics (ZFS topic/Het grote zuinige server topic) en hier tegen het licht worden gehouden (zie postings net even hier boven).Het_Eendje schreef op dinsdag 16 december 2014 @ 19:19:
Sinds kort bekijk ik dit topic, omdat ik overweeg om ook een NAS in elkaar te schroeven. Het voornaamste doel is deze NAS te gebruiken als remote back-up. Het idee is om wekelijks (dagelijks?) een snapshot van één partitie met belangrijke data te back-uppen. Daarnaast zou ik deze thuisserver graag willen gebruiken als VPN-servertje voor mijn telefoon, zodat je met een gerust hart gebruik kan maken van openbare wifi-netwerken.
Zo'n ASRock-bordje met met de Celeron J1900 leek me wel wat. Thuis heb ik nog een oude Vertex 2 van 50GB liggen. Deze leek me geschikt als boot- en cache-schijf. Nu heb ik er toch geen bestemming voor.
# Product Prijs Subtotaal 1 ASRock Q1900DC-ITX € 96,- € 96,- 2 WD Green WD30EZRX € 94,50 € 189,- 1 Cooler Master Elite 110 € 34,95 € 34,95 1 Cooler Master NA 90 € 22,95 € 22,95 1 Crucial Ballistix Sport BLS8G3N169ES4CEU € 72,70 € 72,70 Bekijk collectie
Importeer productenTotaal € 415,60
Hoe kijken jullie tegen deze setup aan?
Kort door de bocht, nee, niet zonder t nodige risico!.Daarnaast heb ik nog een paar vragen.
Hoe flexibel ben je met de schijfruimte? Als ik er twee schijven in zet wil ik deze in mirror draaien, dus met 2 * 3TB heb ik in feite 3TB tot mijn beschikking. Is het dan mogelijk om later een 3e soortgelijke schijf toe te voegen, zodat je 6TB tot je beschikking hebt?
Je kunt bij gebruik van ZFS niet eenvoudig van een mirror naar een RAIDZ met behoud van data.
Mmm, ik zie dat er een lap txt verloren is gegaan (mbt van mirror to RAIDZ), die staat nu verder op in de reactie op frennek.
Als je er vrij zeker van bent dat je zeer binnenkort een 3e 3TiB schijf toe wilt voegen, is het een optie om een RAIDZ van 2 disks en 1 'memory disk' in te richten. Bij de herstart van je setup zal de memory disk komen te vervallen en je effectief met een mirror van 2 disks draaien aan gezien je RAIDZ pool een disk te kort komt (degraded). Vervolgens maak je de pool weer compleet door de derde disk toe te voegen.
Als je minder haast hebt stel je de aankoop uit en schaf je meteen 3 disks aan. Ja RAIDZ van 3 disks is duurder (€283.5/6TiB = €47.25 per 1 TiB)), maar per saldo verlies je slechts 33% van de disk capaciteit, terwijl je bij mirroring 50% verlies moet nemen (€189/3TiB = €63 per 1 TiB), wat per bruikbare TiB in weze duurder is.
Uiteindelijk zul je zelf het beste weten wat je nu meteen aan capaciteit nodig hebt en wat de aanwas van data zal zijn. De keuze voor 3 TiB disks is geen slechteHoeveel ruimte zal ik (voorlopig) daadwerkelijk gebruiken? Als ik het goed begrijp kost een nieuwe snapshot alleen de extra ruimte van de veranderingen die zijn aangebracht. Ik ben van plan om hooguit een back-up te maken van 500GB, waarvan veel content echt gewoon statisch is (foto's, ski-opnames, (oude) programmeerklussen, andere documenten, etc.). Mogelijk dat ik elke week een paar honderd MB toevoeg. Dan moet ik met 1TB toch een eind komen? De 3TB-schijven zijn nu vooral met het oog op de toekomst en misschien wil mijn broer/zus/ouders er ook wel gebruik van maken.
Bepaalde dingen zijn afhankelijk van hardware keuze, niet iedere adapter is even efficiënt, of deze het zal trekken is afhankelijk van t gekozen wattage.Als ik het goed begrijp heeft de ASRock een ingang voor een externe (laptop)adapter. Trekt deze voeding het inderdaad? En wat zou het stroomverbruik zijn? Misschien valt daar nog wel wat te tweaken met Wake on WAN. En blijft er straks een gapend gat in mijn kast achter waar anders een PSU zou zitten? Of heb ik een andere kast nodig? Heeft iemand sowieso nog ideeën voor een kast? Kleine kastjes met met veel schijfruimte zijn zeldzaam, lijkt het wel.
Tot slot moet ik nog even kijken wat voor software ik erop ga zetten. Van de kerst ga ik maar eens spelen met wat VM's. Hier moet ik gewoon nog even naar kijken. Dank je wel voor jullie visie alvast.
Wellicht is het slim om wat je wilt en wat je wenst eens voor je zelf uit te schrijven. Nu lijkt het erop dat je ergens mee begint en gaande weg als maar meer wilt waarvoor de setup wellicht niet super geschikt is.
[ Voor 1% gewijzigd door Pantagruel op 16-12-2014 21:16 . Reden: nuance aangebracht ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Volgens mij kan je wel van een mirror naar RAIDZ gaan met behoud van data, CiPHER had dit laatst nog ergens beschreven.Pantagruel schreef op dinsdag 16 december 2014 @ 20:45:
Kort door de bocht, nee!.
Je kunt bij gebruik van ZFS niet van een mirror naar een RAIDZ met behoud van data. Als je er vrij zeker van bent dat je zeer binnenkort een 3e 3TiB schijf toe wilt voegen, is het een optie om een RAIDZ van 2 disks en 1 'memory disk' in te richten. Bij de herstart van je setup zal de memory disk komen te vervallen en je effectief met een mirror van 2 disks draaien aan gezien je RAIDZ pool een disk te kort komt (degraded). Vervolgens maak je de pool weer compleet door de derde disk toe te voegen.
Dat is via dezelfde 'omweg' van een degraded pool.frennek schreef op dinsdag 16 december 2014 @ 20:54:
[...]
Volgens mij kan je wel van een mirror naar RAIDZ gaan met behoud van data, CiPHER had dit laatst nog ergens beschreven.
Voor zowel een mirrored als een RAIDZ pool geldt dat je 1 disk falen kunt opvangen, dus zou je bij aanschaf van de 3e 3TiB disk een disk van de mirror pool kunnen verwijderen, de mirror pool is degraded maar bevat wel je data. Vervolgens richt je een 2e pool in als RAIDZ met de 2 disks en 1 memory device. Je reboot, en draait vervolgens met een degraded mirror pool en een degraded RAIDZ pool, vervolgens kopieer je de data over (en bid op je blote knieën dat er geen 2e disks falen voorkomt). Daarna wis je de mirror pool en attach je de disk aan de degraded RAIDZ pool welke vervolgens gaat resilveren (ook nu mag je een gebedje doen/kaarsje opsteken om geluk af te dwingen). In ieder geval is het wijs om een back-up te hebben (trompet geschal tadaaa, RAID is NO back-up) voor het geval dat het toch mis gaat.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Bij de EQL spullen is het standaard Jumbo frames en ook Flow Control staat standaard aan. Je moet je best doen om dit aan te passen.FireDrunk schreef op dinsdag 16 december 2014 @ 16:30:
Best redelijk, Jumbo Frames al aangezet? scheelt een slok op een borrel.
We hebben ook een nieuwe 6210S unit, maar deze oudere unit komt niet echt in de buurt. De 6210S zie ik meer in de richting van de 30k IOPS, maar wellicht dat deze oudere unit (en controllers) verzadigd worden door SSDs, wat ik vermoed.
Toch is deze oude unit met 6k IOPS een end sneller dan dat deze was met 1500 IOPS.
Met ~20 VMs is het grotendeels random IO
Vooral in systemen die 2 controllers hebben, zou 2 sessies sneller kunnen zijn.
Even niets...
Ik heb wel een aardig idee hoe het hoort te functionerenFireDrunk schreef op woensdag 17 december 2014 @ 08:57:
Je moet in VMware ook Jumbo Frame aanzetten, en je kan nog wat tunen met Multipathing. Soms is meeerdere iSCSI sessies over 1 10Gb verbinding sneller (maar lang niet altijd).
Vooral in systemen die 2 controllers hebben, zou 2 sessies sneller kunnen zijn.
De 2 controllers bij EQL functioneren in active-passive, dus dat maakt niet uit.
Even niets...
Ik draai op hetzelfde bordje FreeNAS tot tevredenheid. Heb inderdaad een gat in m'n case waar de voeding hoort, maar erger me er niet zo aan. Eventueel kun je afsluitende stukjes metaal kopen voor ervoor maar ik heb die noodzaak tot noch toe nog niet gevoeld. Zorg dat je een kwalitatief goede en efficiënte adapter koopt, geen chinese meuk want daar krijg je spijt van (en een afgefikt huis). Ik haalde zelf deze en die werkt prima op max 80W. Lager kan eventueel, als je er geen 3 schijven aan hangt, bv 60W. Ik heb hier niet voor gekozen.Het_Eendje schreef op dinsdag 16 december 2014 @ 19:19:
Als ik het goed begrijp heeft de ASRock een ingang voor een externe (laptop)adapter. Trekt deze voeding het inderdaad? En wat zou het stroomverbruik zijn? Misschien valt daar nog wel wat te tweaken met Wake on WAN. En blijft er straks een gapend gat in mijn kast achter waar anders een PSU zou zitten? Of heb ik een andere kast nodig? Heeft iemand sowieso nog ideeën voor een kast? Kleine kastjes met met veel schijfruimte zijn zeldzaam, lijkt het wel.
Tot slot moet ik nog even kijken wat voor software ik erop ga zetten. Van de kerst ga ik maar eens spelen met wat VM's. Hier moet ik gewoon nog even naar kijken. Dank je wel voor jullie visie alvast.
Inderdaad zijn kleine kastjes waar toch 3*3.5" in kan wat aan de schaarse kant, ik heb zelf een standaard tower gekocht omdat het voor mij weinig uit maakte (staat toch niet in het zicht).
Ik heb ondertussen de knoop doorgehad en gekozen voor volgende hardware :
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G3420 Boxed | € 54,- | € 54,- |
| 1 | Supermicro X10SL7-F | € 242,50 | € 242,50 |
| 2 | Samsung M391B1G73QH0-YK0 | € 77,46 | € 154,92 |
| 1 | Seasonic G-Serie 360Watt | € 54,99 | € 54,99 |
| Bekijk collectie Importeer producten | Totaal | € 506,41 | |
In eerste instantie wou ik RAID-Z2 gaan toepassen, maar aangezien dit moederbord toch aansluitingen genoeg heeft ben ik aan het twijfelen om toch voor RAID-Z3 te gaan.
Ik heb namelijk in diverse topics gelezen dat het nogal eens voorkomt dat er in korte tijd meerdere HDD's falen omdat ze allemaal even oud zijn (en omdat ze uit dezelfde productiereeks komen dus ook meer kans hebben op gelijkaardige problemen)
Wat is jullie mening hierover ?
Is het verstandig/mogelijk om verschillende typen/merken HDD's te 'mengen' om dit risico te verkleinen ?
Ik zie geen geheugen in je lijstje staan, maar ik neem aan dat je voor ECC geheugen gaat in deze opstelling? Als dat niet het geval is zou ik eerder kiezen om te investeren in ECC geheugen dan in een RAID-Z3 opstelling.msxer schreef op donderdag 18 december 2014 @ 11:00:
Een paar weken geleden vroeg ik hier advies voor het bouwen van een ZFS server die moet gaan zorgen voor het veilig opslaan van onvervangbare data (ik weet dat ik nog altijd meerder backup's dien te maken, waarvan minstens 1 offsite, maar ik wil vooral datacorruptie tegengaan met deze ZFS server).
Ik heb ondertussen de knoop doorgehad en gekozen voor volgende hardware :
# Product Prijs Subtotaal 1 Intel Pentium G3420 Boxed € 54,- € 54,- 1 Supermicro X10SL7-F € 242,50 € 242,50 2 Samsung M391B1G73QH0-YK0 € 77,46 € 154,92 1 Seasonic G-Serie 360Watt € 54,99 € 54,99 Bekijk collectie
Importeer productenTotaal € 506,41
In eerste instantie wou ik RAID-Z2 gaan toepassen, maar aangezien dit moederbord toch aansluitingen genoeg heeft ben ik aan het twijfelen om toch voor RAID-Z3 te gaan.
Ik heb namelijk in diverse topics gelezen dat het nogal eens voorkomt dat er in korte tijd meerdere HDD's falen omdat ze allemaal even oud zijn (en omdat ze uit dezelfde productiereeks komen dus ook meer kans hebben op gelijkaardige problemen)
Wat is jullie mening hierover ?
Samsung M391B1G73QH0-YK0 is ECC geheugen (door supermicro als compatibel opgegeven)
Even niets...
geen probleem, om zeker te spelen heb ik maar het door supermicro aangeraden type geheugen uitgekozen
[ Voor 6% gewijzigd door msxer op 18-12-2014 11:14 ]
Niks spectaculairs hoor, is maar een thuisopstelling.
Ik ben van plan om voor 4TB schijven te gaan, waarschijnlijk WD Green's omdat deze veel worden aangeraden.
RAID-Z2 zou dus 6x 4TB worden of RAID-Z3 7x 4TB.
[ Voor 6% gewijzigd door msxer op 18-12-2014 11:23 ]
Even niets...
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.