8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Bij retailers is hij plus verzendkosten voor 380 eu het goedkoopst te krijgen. (wat ik zo nu even snel zie)
Dus maar even de stoute schoenen aangetrokken en direct een mail gestuurd naar het bedrijf wat deze kasten maakt/importeert (mij niet geheel duidelijk) en het blijkt dat ze dus direct leveren aan zakelijke klanten. Dus een offerte opgevraagd en als je direct bij hun koopt is het totaal bedrag inclusief verzendkosten maar 252 euro. Ik heb toestemming gekregen van de zaak om hem via de zaak te bestellen dus hij komt mijn kant op!
Dus wil je al tijden goedkoop een norco 4224 bestellen dan raad ik iedereen aan als je via een bedrijf kan/mag bestellen het hier te doen:
http://www.inter-tech.de/...haeuse&Itemid=553&lang=en
Leveren ze uitsluitend aan zakelijke klanten, of rekenen ze gewoon meer aan als je geen BTW-nr kan voorleggen?
Als je hem als particulier wil bestellen dan kan dat op de volgende websites iets goedkoper dan normaal:
http://www.heise.de/preis...ech-4u-4324l-a789312.html
Even niets...
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Even niets...
De Norco en Ri-vier zijn beide veel duurder?
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Misschien staat de leverancier daar wel voor open..
[ Voor 17% gewijzigd door Birdie_NL op 30-09-2013 22:34 ]
Wat voor problemen heb je gehad met de 4224?brndst schreef op maandag 30 september 2013 @ 22:33:
Voor mij geen 4u behuizingen meer van Norco, heb er 2 gehad en beide gezeur met de backplanes. En dan heb ik het over de 4220 en de 4224. Ri-vier eigen merk is de volgende kandidaat.
Maar oké, ik zeg niet dat Norco per definitie slechte behuizingen maakt maar er staat zo hier en daar wat op het internet vermeld. Er zijn zat Tweakers die erg tevreden zijn met hun Norco case.
[ Voor 33% gewijzigd door Birdie_NL op 30-09-2013 22:38 ]
Ik neem aan wel nieuwe backplane opgestuurd gekregen?
Dat wel. Niets meer dat lof voor Ri-vier.nl. binnen no-time was ik weer up and running.Nism0 schreef op maandag 30 september 2013 @ 22:38:
hmmmm das wel echt slecht.
Ik neem aan wel nieuwe backplane opgestuurd gekregen?
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Tja als de prijs echt goed is..Nism0 schreef op maandag 30 september 2013 @ 22:19:
Wat de liefhebbers wel zouden kunnen doen is een powerbuy organiseren.
Misschien staat de leverancier daar wel voor open..
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
en dan in Duitsland een product kopen waarvan je reële kans hebt (bij mij stond een norco backplane letterlijk in de brand) dat je aanspraak moet maken op garantie? Of bedoel bij Ri-vier?Nism0 schreef op maandag 30 september 2013 @ 22:19:
Wat de liefhebbers wel zouden kunnen doen is een powerbuy organiseren.
Misschien staat de leverancier daar wel voor open.
Volgende unit moet toch een 3U worden, en dan is de RV-3316-03A van rivier zelf wel interessant.
Wellicht zelfs een 2U S2-06A..
Nog 14TB vrij, en dan nog 10 hdd sloten vrij, dus weer 22 TB en dan zie ik wel weer.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Persoonlijk ben ik niet zo bang voor garantie issues met dit bedrijf.BartNL schreef op maandag 30 september 2013 @ 23:53:
[...]
en dan in Duitsland een product kopen waarvan je reële kans hebt (bij mij stond een norco backplane letterlijk in de brand) dat je aanspraak moet maken op garantie? Of bedoel bij Ri-vier?
Maar ik snap dat sommige daar anders over denken.
Verwijderd
Zojuist ook een aantal S1-06A 2U behuizingen afgehaald bij Ri-Vier. Wat een geweldige kasten zijn dat!brndst schreef op maandag 16 september 2013 @ 14:21:
[...]
Dank!
De kwaliteit van de ri-vier behuizingen kunnen (denk ik) nooit slechter zijn dan die van de Norco, dit omdat ri-vier genoeg ervaring heeft met de verkoop en de ondersteuning van de Norco behuizingen.
Ze weten wat er zo nu en dan mis is met de Norco sas planes en dat ze daarom hun eigen merk geintroduceerd hebben.
Ik denk dat het bouwen van een (rack)model Fileserver nu nog aantrekkelijker geworden is, mede door de prijs van de behuizing.
Ik ben zelf van plan om op korte termijn een Ri-vier S1-06A 2U behuizing aan te schaffen.
Even een linkje voor de geinteresseerde. https://ri-vier.eu/19-inch-rack-mount-c-1_3.html
Inbouwen was een fluitje van een cent en met de casefans op 7v is het een hele stille server kan ik je vertellen. We hadden gelijk voor elke case er een Seasonic SS-400L2U bij besteld. Dit is een 80+ Gold psu en als je ze voor minder dan 50% belast draait de fan niet eens (staat ook netjes met eens stickertje op de psu)
Tevens ook geen enkel probleem met SATA schijven op de backplane. Dat is wel even anders dan de Norco's. Daar zijn onze ervaringen een stuk minder mee.
Dus ik kan hem iedereen aanraden die S1-06A.

http://louwrentius.com/sc...ant-disk-information.html
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Wat ik alleen nergens kan vinden wat minimaal nodig is om een full-hd video te streamen? Ik ben van plan mijn Raspberry PI bij de TV te plaatsen en de NAS ergens in een kast. Zijn er misschien CPU's of moederborden met een hardware oplossing voor transcoding die door FreeNAS ondersteunt worden?
edit: Als ik mijn FreeNAS in Raid 1 zet en het OS gaat stuk. Hoe toegankelijk is de data op de schijven nog? Kan ik een disk gewoon in een willekeurige PC drukken om de data eraf te halen?
[ Voor 15% gewijzigd door maniak op 02-10-2013 10:31 ]
Even niets...
Bijvoorbeeld de:
Intel Celeron G1610T
Zuinig en meer dan voldoende voor een nas.
Wil je heftige dingen doen dan moet je uiteraard meer hebben.
Ik nie begrijp nie. Pi kan zelf al full HD afspelen naar je TV.Wat ik alleen nergens kan vinden wat minimaal nodig is om een full-hd video te streamen? Ik ben van plan mijn Raspberry PI bij de TV te plaatsen en de NAS ergens in een kast. Zijn er misschien CPU's of moederborden met een hardware oplossing voor transcoding die door FreeNAS ondersteunt worden?
Even niets...
Bedankt voor je informatie! En ook vooral over de voeding die je hebt gebruikt.Verwijderd schreef op dinsdag 01 oktober 2013 @ 21:31:
[...]
Zojuist ook een aantal S1-06A 2U behuizingen afgehaald bij Ri-Vier. Wat een geweldige kasten zijn dat!
Inbouwen was een fluitje van een cent en met de casefans op 7v is het een hele stille server kan ik je vertellen. We hadden gelijk voor elke case er een Seasonic SS-400L2U bij besteld. Dit is een 80+ Gold psu en als je ze voor minder dan 50% belast draait de fan niet eens (staat ook netjes met eens stickertje op de psu)
Tevens ook geen enkel probleem met SATA schijven op de backplane. Dat is wel even anders dan de Norco's. Daar zijn onze ervaringen een stuk minder mee.
Dus ik kan hem iedereen aanraden die S1-06A.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G2030 Boxed | € 49,95 | € 49,95 |
1 | Gigabyte GA-B75N | € 68,95 | € 68,95 |
2 | Western Digital Green WD20EZRX, 2TB | € 75,90 | € 151,80 |
1 | Cooler Master Elite 120 Advanced | € 38,61 | € 38,61 |
1 | Corsair CMV4GX3M2A1333C9 | € 35,40 | € 35,40 |
1 | be quiet! System Power 7 300W | € 30,95 | € 30,95 |
Bekijk collectie Importeer producten | Totaal | € 375,66 |
Nog enige op en aanmerkingen? Het enige waar ik onzeker over ben is de behuizing en de harddisks, ik weet niet of ze geschikt zijn voor een 2-disk NAS. Ik vermoed dat de G2030 genoeg is om 1 1080p video te transcoden mocht het nodig zijn.
edit: Was de voeding vergeten
[ Voor 7% gewijzigd door maniak op 02-10-2013 15:20 ]
Te weinig sata en PCI.
Mocht je ooit meer HDD's aan willen sluiten.
En wat wil je als voeding gebruiken?
[ Voor 14% gewijzigd door Nism0 op 02-10-2013 15:14 ]
Moederbord koos ik vanwege de 2 Gigabit aansluitingen en de lage power consumptie. Ik ga niet meer dan 2 disks gebruiken omdat het alleen voor de opslag van mijn foto's is en wat kinder video's. Kan nu ook al prima af met één 1TB diskNism0 schreef op woensdag 02 oktober 2013 @ 15:13:
Het moederbord/behuizing zou mijn keuze niet zijn.
Te weinig sata en PCI.
Mocht je ooit meer HDD's aan willen sluiten.
En wat wil je als voeding gebruiken?
edit: Klopt, dat zag ik ook al dat ik de voeding was vergeten.. nog tips?
edit2: Voeding in de post geplaatst.
[ Voor 10% gewijzigd door maniak op 02-10-2013 15:21 ]
Als je echt overkill wilt hebben kan je nog voor een pricewatch: Synology Disk Station DS213j gaan met twee WD Green 2TB schijven in RAID-1.
Een zelfbouw-NAS gaat voor maar 2 disks en dergelijke low-performance eisen echt veel meer nadelen dan voordelen hebben, tenzij je een NAS wil om te prutsen. Maar dan kan ik je aanraden een ander systeem te zoeken daarvoor
EDIT: ik zie dat je 1080p wilt transcoden. Lijkt me nogal vreemd om daarvoor speciaal te kiezen voor een zelfbouw-NAS als een paar dagen op een PC-tje al je video's omzet in een compatibel bestandsformaat.
[ Voor 27% gewijzigd door Phuncz op 02-10-2013 15:53 ]
pricewatch: Seasonic G-Serie 360Watt
Verder ben ik het wel eens met Phuncz..
edit: Daarbij komt is dat mijn zelfbouw NAS 249 euro kost (zonder disks) en daarvoor krijg ik veel voor terug vergeleken met kant en klare NASsen.
[ Voor 24% gewijzigd door maniak op 02-10-2013 18:12 ]
Verwijderd
Misschien wilt hij wel veilige opslag icm ZFS? Dan zit je wel vast aan zelfbouw.Een zelfbouw-NAS gaat voor maar 2 disks en dergelijke low-performance eisen echt veel meer nadelen dan voordelen hebben
Verder zou ik de normale voeding droppen en er een mooie PicoPSU inzetten en je energieverbruik kan tot 50% dalen.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 3220 Boxed | € 101,95 | € 101,95 |
1 | Supermicro X9SCM-F | € 158,95 | € 158,95 |
1 | Ri-vier 2U 8bay chassis with SAS backplane - S1-06A | € 119,79 | € 119.79 |
1 | Western Digital Red SATA 6 Gb/s WD20EFRX, 2TB | € 88,95 | € 88,95 |
1 | Kingston ValueRAM KVR1333D3D4R9S/8G | € 84,- | € 84,- |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 118,58 |
1 | Seasonic 2U SS400L2U 400W | € 119.79 | € 119,79 |
1 | Nog wat molex-kabeltjes, fan-adapters en forward-breakout kabels | - | - |
NAS doet voornamelijk dienst als:
- Fileserver (SMB/CIFS)
- Downloadbak, SABNZbd, Couchpotato,..
- HD streamen (ook via DLNA)
- Webserver
- 8 of 16 GB RAM
- Mss is het mobo wat overkill, andere 1155 mobo's die ECC ondersteunen en een deftige NIC (Intel) hebben zijn welkom
- Misschien nog een SDD, voor (L2)ARC en ZIL.. al weet ik niet of dit echt nuttig is in mijn geval
- Ik ga 3 Samsung Spinpoints uit mijn oude MDADM NAS hergebruiken (3x2TB) en ga er dus nog 1 WD Red bijplaatsen in RAID-Z, waardoor ik capaciteitsgewijs wel een eindje kan overleven. Later koop ik dan nog 4x4TB en maak ik er RAID-Z2 van.
- Is het stom om te proberen een M1015 van eBay te vissen (aangezien er veel verschillende versies zijn)?
Heb geen ervaring met PicoPSU's.. Stel ik ga voor een PicoPSU, hou ik dan geen gat over aan de achterkant van de kast?Verwijderd schreef op woensdag 02 oktober 2013 @ 18:22:
[...]
Misschien wilt hij wel veilige opslag icm ZFS? Dan zit je wel vast aan zelfbouw.
Verder zou ik de normale voeding droppen en er een mooie PicoPSU inzetten en je energieverbruik kan tot 50% dalen.
- Waarom ga je nog voor socket 1155 als je ook voor 1150 kunt gaan (ik denk aangezien deze net is geintroduceerd deze dus langer mee zal kunnen)?SanderH_ schreef op woensdag 02 oktober 2013 @ 20:16:
Ik dacht aan volgend systeem om mijn ZFS NAS te bouwen:
# Product Prijs Subtotaal 1 Intel Core i3 3220 Boxed € 101,95 € 101,95 1 Supermicro X9SCM-F € 158,95 € 158,95 1 Ri-vier 2U 8bay chassis with SAS backplane - S1-06A € 119,79 € 119.79 1 Western Digital Red SATA 6 Gb/s WD20EFRX, 2TB € 88,95 € 88,95 1 Kingston ValueRAM KVR1333D3D4R9S/8G € 84,- € 84,- 1 IBM ServeRAID M1015 SAS/SATA Controller for System x € 118,58 € 118,58 1 Seasonic 2U SS400L2U 400W € 119.79 € 119,79 1 Nog wat molex-kabeltjes, fan-adapters en forward-breakout kabels - -
NAS doet voornamelijk dienst als:Zaken waar ik nog aan twijfel:
- Fileserver (SMB/CIFS)
- Downloadbak, SABNZbd, Couchpotato,..
- HD streamen (ook via DLNA)
- Webserver
- 8 of 16 GB RAM
- Mss is het mobo wat overkill, andere 1155 mobo's die ECC ondersteunen en een deftige NIC (Intel) hebben zijn welkom
- Misschien nog een SDD, voor (L2)ARC en ZIL.. al weet ik niet of dit echt nuttig is in mijn geval
- Ik ga 3 Samsung Spinpoints uit mijn oude MDADM NAS hergebruiken (3x2TB) en ga er dus nog 1 WD Red bijplaatsen in RAID-Z, waardoor ik capaciteitsgewijs wel een eindje kan overleven. Later koop ik dan nog 4x4TB en maak ik er RAID-Z2 van.
- Is het stom om te proberen een M1015 van eBay te vissen (aangezien er veel verschillende versies zijn)?
- Ik ben zelf ook aan het uitzoeken geweest over die supermicro-bordjes, er is ook een variant met een onboard SAS-controller van LSI, deze combi is in mijn geval goedkoper als een losse IBM erbij kopen (voor jou wellicht ook?).
- Op basis van welk OS wil je gaan bouwen?
Verwijderd
En dan zit je zoals wopie al aangaf gelijk op het nieuwe platform van Intel (1150).
Tevens een aanpassing gemaakt naar unbuffered (=non-registered) ECC geheugen. Anders accepteert het bord het niet. Volgens mij zou jouw bord ook unbuffered moeten zijn. Controleer dus goed of je het juiste geheugen gebruikt. Anders start je bord niet op.
Ik zou wel gaan voor 16GB. Als je aan de ZFS gaat kan je eigenlijk niet genoeg geheugen erin hebben zitten. Ik vond het wat gortig om er gelijk 32GB in te steken, maar dat kan wel. Is namelijk de max. wat het moederbord accepteert.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 4330 Boxed | € 101,95 | € 101,95 |
1 | Supermicro X10SL7-F | € 264,36 | € 264,36 |
1 | Ri-vier 2U 12bay chassis with SAS backplane - S2-06A | € 131,89 | € 131,89 |
1 | Kingston ValueRAM KVR16E11K4/16 | € 171,51 | € 171,51 |
1 | Seasonic 2U SS400L2U 400W | € 119.79 | € 119,79 |
1 | Nog wat molex-kabeltjes, fan-adapters en forward-breakout kabels | - | - |
Ben je helemaal bij de tijd.
Als je wilt, kun je jouw Intel Core i3-4330 (Benchmark 5.018) vervangen door een Intel Xeon E3-1270 v3 (Benchmark 10.308) voor een meerprijs van nog geen € 200,- Dan heb je wel dubbele performance. Erg fijn als je gaat transcoderen en andere CPU intensieve taken. Maar dat is misschien net een stapje te ver. Ik weet niet wat je exacte (max) budget is.
Is dat niet een beetje marketing taal Cipher? 50% ga je echt niet halen zelfs de helft daarvan is zo goed als onmogelijk, met de gekozen voeding.Verwijderd schreef op woensdag 02 oktober 2013 @ 18:22:
[...]
Verder zou ik de normale voeding droppen en er een mooie PicoPSU inzetten en je energieverbruik kan tot 50% dalen.
Volgens hardware info is de system power 7 bij 22,5Watt 72.4% efficiënt ik verwacht niet dat zijn build met 2 schijven daar echt ver onder gaat duiken. Anders gezegd je picopsu oplossing moet dan minimaal 97,6% efficiënt zijn om 25% energieverbruiksdaling te hebben.
Als er een huntkey jumper 300G of een seasonic g-series zoals hierboven gemeld geplaatst wordt zou er zelfs nog minder ruimte voor verbetering zijn.
Ik ben het wel met je eens dat als je de juiste 12v adapter plus picopsu gebruikt je het minste energie verkwist in je voedingsverzorging, buiten zelf een voeding maken of in opdracht laten produceren.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3220 Boxed | € 54,95 | € 54,95 |
1 | Asus H81I-PLUS | € 71,- | € 71,- |
2 | Western Digital Green WD20EZRX, 2TB | € 75,90 | € 151,80 |
1 | Cooler Master Elite 120 Advanced | € 38,61 | € 38,61 |
2 | Corsair Value Select CMV4GX3M1A1600C11 | € 36,45 | € 72,90 |
Bekijk collectie Importeer producten | Totaal | € 389,26 |
edit: Ik heb nog een 300 watt voeding thuis liggen. Voordat ik een nieuwe voeding bestel, specifiek een PicoPSU, wil ik weten hoe de kast eruit ziet enzo
[ Voor 4% gewijzigd door maniak op 03-10-2013 14:29 ]
Qua mobo's staat SuperMicro blijkbaar hoog aangeschreven. Een Supermicro X10SL7-F is idd een leuk bord, maar is (afgezien van eBay) vrij moeilijk te vinden denk ik. Daarnaast is die 6 x SAS 2.0 wel handig, maar zo krijg je natuurlijk wel een kluwen van kabels (zeker in een 2U case). Daarom opteer ik liever voor een aparte controller die ik adhv slechts 2 forward-breakout kabels kan aansluiten aan mijn schijven. Met wat geluk kan je een M1015 op de kop tikken op eBay voor rond de 85 EUR trouwens.wopie schreef op woensdag 02 oktober 2013 @ 22:34:
[...]
- Waarom ga je nog voor socket 1155 als je ook voor 1150 kunt gaan (ik denk aangezien deze net is geintroduceerd deze dus langer mee zal kunnen)?
- Ik ben zelf ook aan het uitzoeken geweest over die supermicro-bordjes, er is ook een variant met een onboard SAS-controller van LSI, deze combi is in mijn geval goedkoper als een losse IBM erbij kopen (voor jou wellicht ook?).
- Op basis van welk OS wil je gaan bouwen?
Ik ga trouwens voor Linux, ik ben nog een beetje aan het rondsnuffelen naar de beste distro in combinatie met ZFS.
Ik heb inderdaad unbuffered ECC nodig, ik had een paar goedkope modules gevonden in de V&A, maar die blijken inderdaad registered zijn.
Over het mobo, zie opmerking hierboven. Intel 1150 is alleszins een recentere chipset en dus de betere keuze. Een Xeon CPU lijkt me wat overkill, echt zware toepassingen ga ik er niet op draaien. Daarom moet een simpele i3 al voldoen denk ik. Budget zonder schijven bedraagt 700-800 EUR.
Verwijderd
Nou ik had misschien moeten verduidelijken tot 50% dat betekent dus maximaal 50% lager energieverbruik bij een kale configuratie. Dit is getest in combinatie met een ASRock B75 Pro 3-M, Core i5 3570, één reepje geheugen, geen ventilators en veel meuk uitgeschakeld in het BIOS. Ook met undervolting. Dan zat ik tussen de 8,3 en 8,7 watt aan het stopcontact. Met die cijfers heb ik een 46,5% lager verbruik met de PicoPSU vergeleken met de geteste ATX-voeding (BeQuiet 400W). Met oudere voedingen was het verschil meer dan het dubbele. Voor de details verwijs ik naar: Stroomverbruik Processor+Moederbord+Geheugen.Mafketel schreef op donderdag 03 oktober 2013 @ 09:26:
Is dat niet een beetje marketing taal Cipher? 50% ga je echt niet halen
Nu heb je natuurlijk wel een punt dat zodra je dingen gaat toevoegen zoals hardeschijven de percentuele winst wel omlaag gaat, maar wel blijft bestaan. Afhankelijk van wat voor +12V adapter je gebruikt want dat maakt natuurlijk ook nog uit.
Toch zijn er behalve de voordelen van lager stroomverbruik ook andere voordelen. Zo heb je met de PicoPSU geen grote behuizing nodig waar een heel ATX voeding in past, lekker compact. Minder kabels, minder ruimte in gebruik. Ook geen ventilator dus volkomen stil en passief; iets waar ik ook heel erg van houd: 100% stille computers zonder mechanische/bewegende onderdelen.
De iets hogere prijs verdien je vaak wel terug doordat de PicoPSU toch een slag zuiniger is. Zeker voor kleine NASen vind ik PicoPSU dus wel de meest logische keuze eigenlijk. Heb je een lange tijd plezier van terwijl een ATX-voeding een lomp ding blijft en je straks met steeds kleinere behuizingen daar minder gauw iets aan hebt. Zo heb ik nu deze behuizing en dat is best cool: pricewatch: Streacom FC8 Evo Zilver. Deze heeft al heatsinks voor de processor; dus geschikt voor 100% passieve koeling. En gat voor PicoPSU stekker zit er al aan de achterzijde. Deze kant gaat het toch steeds meer op. De traditionele ATX-toren zal onder tweakers nog wel gebruikt worden, maar de grote massa gaat toch voor steeds kleinere computers met een hogere 'aaibaarheid' factor.
Verwijderd
Ik weet het niet 100% zeker, maar ik denk dat het volledige Supermicro port-folio bij Azerty te koop is http://azerty.nl/31-4214/-super-micro.html.SanderH_ schreef op donderdag 03 oktober 2013 @ 14:32:
[...]
Qua mobo's staat SuperMicro blijkbaar hoog aangeschreven. Een Supermicro X10SL7-F is idd een leuk bord, maar is (afgezien van eBay) vrij moeilijk te vinden denk ik. Daarnaast is die 6 x SAS 2.0 wel handig, maar zo krijg je natuurlijk wel een kluwen van kabels (zeker in een 2U case). Daarom opteer ik liever voor een aparte controller die ik adhv slechts 2 forward-breakout kabels kan aansluiten aan mijn schijven. Met wat geluk kan je een M1015 op de kop tikken op eBay voor rond de 85 EUR trouwens.
Misschien is (als je geduld hebt) een Avoton platform ook nog interessant, deze schijnt met name voor storage-servers mooie performance/watt verhouding te hebben (ook al denk ik dat je net als ik gevoelig voor prijs bent
Verwijderd

Alleen de prijs is minder... en nog niet verkrijgbaar. Hopelijk binnenkort meer informatie over dit bordje.
[ Voor 6% gewijzigd door Phuncz op 03-10-2013 16:45 ]
Verwijderd
Een NAS-behuizing zou ik lekker goedkoop en standaard houden. Voor 3,5" schijven is het fijn als ze stevig contact hebben met een metalen frame, ivm vibraties en vooral ook warmte-overdracht. Ik heb zelf met 4 metalen 'hoek' (L) strips een frame gemaakt voor de schijven met best dik metaal zodat die eigenlijk als een soort heatsink fungeren zodat de schijven lekker koel blijven en vooral heel constant van temperatuur - vooral de temperatuurfluctuaties zijn funest voor mechanische schijven, zo is mijn veronderstelling. Verder gebruik ik een houten frame voor het moederbord.
Maar als je iets makkelijks en simpels wilt kun je voor een paar tientjes ook zo'n lelijke mini-toren halen en ergens wegstoppen waar je hem niet vaak ziet.
Verwijderd
Verwijderd
Dan heb je met mijn lijstje voor jouw budget een erg krachtige server, zou ik zeggen. En weet ook dat die nieuwe Xeon's 19 watt idle doen... Kan je moeilijk tegen op, zonder rekenkracht in te leveren. Maar goed, het is natuurlijk jouw budget. Ik probeer je enkel het meeste waar voor je geld te laten kiezenSanderH_ schreef op donderdag 03 oktober 2013 @ 14:32:
[...]
Qua mobo's staat SuperMicro blijkbaar hoog aangeschreven. Een Supermicro X10SL7-F is idd een leuk bord, maar is (afgezien van eBay) vrij moeilijk te vinden denk ik. Daarnaast is die 6 x SAS 2.0 wel handig, maar zo krijg je natuurlijk wel een kluwen van kabels (zeker in een 2U case). Daarom opteer ik liever voor een aparte controller die ik adhv slechts 2 forward-breakout kabels kan aansluiten aan mijn schijven. Met wat geluk kan je een M1015 op de kop tikken op eBay voor rond de 85 EUR trouwens.
Ik ga trouwens voor Linux, ik ben nog een beetje aan het rondsnuffelen naar de beste distro in combinatie met ZFS.
[...]
Ik heb inderdaad unbuffered ECC nodig, ik had een paar goedkope modules gevonden in de V&A, maar die blijken inderdaad registered zijn.
Over het mobo, zie opmerking hierboven. Intel 1150 is alleszins een recentere chipset en dus de betere keuze. Een Xeon CPU lijkt me wat overkill, echt zware toepassingen ga ik er niet op draaien. Daarom moet een simpele i3 al voldoen denk ik. Budget zonder schijven bedraagt 700-800 EUR.
Wat denk je van deze configuratie
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 4130 Boxed | € 111,45 | € 111,45 |
1 | Supermicro X10SLL-F | € 154,26 | € 154,26 |
1 | Ri-vier 2U 12bay chassis with SAS backplane - S2-06A | € 131,89 | € 131,89 |
1 | Kingston KVR1333D3E9SK2/16G | € 156,40 | € 156,40 |
1 | Seasonic 2U SS400L2U 400W | € 119.79 | € 119,79 |
1 | Western Digital Red SATA 6 Gb/s WD20EFRX, 2TB | € 88,95 | € 88,95 |
1 | Nog wat molex-kabeltjes, fan-adapters en forward-breakout kabels | - | - |
Verwijderd
Ik zeg, mag ik hem in mijn rek hangenSanderH_ schreef op donderdag 03 oktober 2013 @ 18:28:
Die Xeon kan ik toch niet echt verantwoorden. Ok, het verbruik zal best zeer mooi zijn, maar dikke overkill voor mijn behoeften. Ik kan me best voorstellen dat ze hier gegeerd zijn aangezien ze zuinig zijn & ECC support hebben, maar in mijn geval zal een i3 wel volstaan.
Wat denk je van deze configuratie?
# Product Prijs Subtotaal 1 Intel Core i3 4130 Boxed € 111,45 € 111,45 1 Supermicro X10SLL-F € 154,26 € 154,26 1 Ri-vier 2U 12bay chassis with SAS backplane - S2-06A € 131,89 € 131,89 1 Kingston KVR1333D3E9SK2/16G € 156,40 € 156,40 1 Seasonic 2U SS400L2U 400W € 119.79 € 119,79 1 Western Digital Red SATA 6 Gb/s WD20EFRX, 2TB € 88,95 € 88,95 1 Nog wat molex-kabeltjes, fan-adapters en forward-breakout kabels - -
Verder niets op aan te merken.
Is er trouwens veel verschil met de RAM modules die jij voorstelde? 1600 vs 1333 MHz, maar wel CL11 ipv CL9. Geen wereld van verschil zeker? Mijn modules zijn trouwens ietsje goedkoper
Voor de rest ben ik vrij zeker van mijn keuze, tenzij ander tweakers nog hun zegje willen doen
EBay zal denk ik tegenvallen en ik zou voor zfs geen wd reds kiezen. De reds zijn volgens mij bedoeld voor hw raid.SanderH_ schreef op donderdag 03 oktober 2013 @ 20:46:
Vsoor de rest ben ik vrij zeker van mijn keuze, tenzij ander tweakers nog hun zegje willen doen?
Verwijderd
Dat de Reds zuiniger zijn is overigens grotendeels onwaar. Het punt is dat er verschillende types WDxxEZRX in omloop zijn die zowel 750GB als 1000GB platters hebben. De versie met 1000GB platters is natuurlijk beter omdat je dan een platter minder hebt dus zuiniger. Bovendien zorgt de hogere datadichtheid ervoor dat er hogere sequentiële prestaties worden behaald bij een gelijk toerental.
Als je een WD Red met 1000GB platters gaat vergelijken met een WD Green met 750GB platters, dan is de laatste inderdaad inferieur. Maar dat is niet een heel eerlijke vergelijking omdat de WD Greens die je nu bestelt volgens mij allemaal gewoon 1000GB platters hebben. WD Green en WD Red zijn fysiek hetzelfde, behalve de afwijkende firmware en garantie.
PS. een goede site voor platter capaciteit is deze: http://rml527.blogspot.nl...e-western-digital-35.html
ipv 2TB kun je ook gelijk 4TB overwegen: pricewatch: Western Digital Green WD40EZRX, 4TB
Ze blijven heerlijk koel (op dit moment allemaal rond de 33 graden) en je hoort ze niet.
Ik heb er voorlopig voor gekozen ze 24x7 te laten draaien. Daar zijn de Greens in ieder geval niet voor gecertificeerd. Of ze een kortere levensduur hebben als je dat toch doet is koffiedik kijken. Cypher zegt dat ze hetzelfde zijn maar ik heb daar nooit bewijzen van gezien. Misschien is dat zo maar zelfs dan kan het zijn dat de Reds gecherrypicked worden en beter getest zijn.
Ik zou zelf direct weer voor de Reds gaan. Zit ook meer garantie op.
[ Voor 21% gewijzigd door Durandal op 04-10-2013 04:38 ]
Het hoeven trouwens geen kasten te zijn waar ook een mobo in kan, Ik zat te denken aan een systeem chassis a-la http://www.supermicro.com...ssis/1U/503/SC503-200.cfm (gaat meer om formaat dan om specs), waarbij ik met expanders (het zij esata, sata of sas) naar een chassis dat daar boven op komt waar alle disks in zitten.
Wat mij aangeraden werd om 2x iets van een http://www.supermicro.com.../mobilerack/CSE-M35TQ.cfm te halen, en die er boven op te leggen.. op zich een optie, maar had gehoopt op een iets nettere oplossing...
Weet je heel zeker dat het (van glas tot achterkant) maar 35CM is?
Even niets...
Bijvoorbeeld: http://www.thomann.de/nl/studiorekken.html
[ Voor 26% gewijzigd door jacovn op 04-10-2013 10:07 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik doelde inderdaad op het aantal platters bij de nieuwste green schijven. Van de red zijn geloof ik alleen maar versies met 1TB platters geloof ik. Het blijft irritant dat onder dezelfde productnaam verschillende schijven uitkomen. Ik weet niet of de pcb nog altijd een indicatie kan zijn van een aantal platters. Zo kon ik destijds toch te weten komen hoeveel platters er in een schijf zaten (kleinere pcb).Verwijderd schreef op vrijdag 04 oktober 2013 @ 01:51:
Dat de Reds zuiniger zijn is overigens grotendeels onwaar. Het punt is dat er verschillende types WDxxEZRX in omloop zijn die zowel 750GB als 1000GB platters hebben. De versie met 1000GB platters is natuurlijk beter omdat je dan een platter minder hebt dus zuiniger. Bovendien zorgt de hogere datadichtheid ervoor dat er hogere sequentiële prestaties worden behaald bij een gelijk toerental.
Overigens dacht ik dat de red schijven ook nog een andere truc hadden om het verbruik lager te houden? Ik zeg truc omdat dat ook in de firmware zou zitten. Maar ik kom het zo snel niet meer tegen.
Twee andere voordelen van de red schijven zijn de langere garantie (drie jaar) en de lage vibratie. Opnieuw, misschien hebben de nieuwste green schijven dat ook.
Ik heb een patch rack, geen patch kast, dus er zit geen glas voor, enkel een muur aan de achterkant, en ja, hij is verstelbaar tot max 35cm, of kleiner.. maar dat heeft natuurlijk nog minder zinFireDrunk schreef op vrijdag 04 oktober 2013 @ 10:04:
35CM is wel echt *heel* klein, zelfs voor een patchkast... Beetje patchkast is al snel 50CM diep?
Weet je heel zeker dat het (van glas tot achterkant) maar 35CM is?
[ Voor 11% gewijzigd door DXaroth op 04-10-2013 10:21 ]
Ik heb nu 6x WD30EZRX in raidz2. Ik hoor de schijven niet, ook niet de headparking issue die volgens websites elke 8 seconden zou gebeuren? Kan ik dit in de smartwaardes terugvinden?
Optie 1. 2 disken en er uit en even zonder redundantie draaien + losse sata controller (als die goedkope kaartjes het doen onder freebsd/zfsguru)
Optie 2. 1 losse 4TB disk in een pc zetten en tijdelijk alle files overzetten?
Andere ideeen?
Reactie op mijn bericht? Zo ja dan 80% kan er wel 65-70% van maken denk ik.FireDrunk schreef op vrijdag 04 oktober 2013 @ 10:31:
Hoe vol is de array?
Even niets...
2 uit de huidige pool halen en nieuwe pool aanmaken met een fake disk? Klinkt wel als een aardig optie!FireDrunk schreef op vrijdag 04 oktober 2013 @ 11:04:
Past de data op 2 schijven? Want dan kan je een RAIDZ2 met een missing member maken.
toch minder marketing praat dan ik dacht gelukkig, al moet ik wel zeggen dat als je zou stellen dat de picopsu+acsteen op dat moment 95% efficiënt is dat jouw bequit dan nog maar 60% efficiënt is.Verwijderd schreef op donderdag 03 oktober 2013 @ 15:32:
Nou ik had misschien moeten verduidelijken tot 50% dat betekent dus maximaal 50% lager energieverbruik bij een kale configuratie. Dit is getest in combinatie met een ASRock B75 Pro 3-M, Core i5 3570, één reepje geheugen, geen ventilators en veel meuk uitgeschakeld in het BIOS. Ook met undervolting. Dan zat ik tussen de 8,3 en 8,7 watt aan het stopcontact. Met die cijfers heb ik een 46,5% lager verbruik met de PicoPSU vergeleken met de geteste ATX-voeding (BeQuiet 400W). Met oudere voedingen was het verschil meer dan het dubbele. Voor de details verwijs ik naar:
Wat tot 50% betekend weet ik en daarom noem ik het ook juist marketing praat want vaak niet in je eigen situatie toepasbaar
Wat je in die post ook al opmerkt dat 15Watt en boven er vanuit dit punt minder reden is voor een relatief dure oplossing als een picopsu.Stroomverbruik Processor+Moederbord+Geheugen.
Nu heb je natuurlijk wel een punt dat zodra je dingen gaat toevoegen zoals hardeschijven de percentuele winst wel omlaag gaat, maar wel blijft bestaan. Afhankelijk van wat voor +12V adapter je gebruikt want dat maakt natuurlijk ook nog uit.
Al moet ik dan ook zeggen als er daadwerkelijk altijd 4Watt verschil bestaat je bij een 24/7 gebruik je met 2 jaar toch een heel eind aan het quitte spelen bent.
de picopsu heeft voordelen en nadelen ben ik mij van bewust en ging mijn opmerking niet over. Ik was uitsluitend ZEER verbaast over je toch wel stevige bewering en die blijkbaar voor jouw opstelling nog wel te verdedigen is ook. Ik ben blij dat je dit ook nog even gedaan hebt, zeker omdat er ook weinig recente testen met picopsu + acsteen testen zijn gedaan.[..]
[ Voor 3% gewijzigd door Mafketel op 04-10-2013 14:08 ]
Klopt, maar wel de enige optie zonder nieuwe schijven te kopen.IceTeaGX schreef op vrijdag 04 oktober 2013 @ 13:37:
Uiteraard wel extreem gevoelig voor fouten.
Even niets...
Maak dat maar aannemelijk.GioStyle schreef op vrijdag 04 oktober 2013 @ 10:22:
Volgens mij zijn de red en green schrijven precies hetzelfde, alleen is de firmware verschillend.
Ja.Ik heb nu 6x WD30EZRX in raidz2. Ik hoor de schijven niet, ook niet de headparking issue die volgens websites elke 8 seconden zou gebeuren? Kan ik dit in de smartwaardes terugvinden?
Dit zijn de waardes van een van mijn Reds. Ze zitten allemaal rond deze waardes (behalve de nieuwe).
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 180 179 021 Pre-fail Always - 5958 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 260 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 ==> 9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7562 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 221 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 212 ==> 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 47 194 Temperature_Celsius 0x0022 117 088 000 Old_age Always - 33 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0 |
47 load cycles op 7562 draaiuren (315 dagen), dat is 9653 minuten interval
Wat zijn jou waardes?
Verwijderd
Zie je alles in 1 oogopslag:

Ook is er een script beschikbaar voor de temperatuur per drive: http://louwrentius.com/li...of-disk-temperatures.html

En voor een overzicht van je netwerk interfaces: http://louwrentius.com/li...interface-properties.html

Echte bronnen heb ik niet maar als ik kijk naar de specificaties dan komen ze verdomd veel overeen: cache hetzelfde (64MB), aansluiting hetzelfde (SATA3), aantal platters hetzelfde (3 platters in 3TB versie), verbruik hetzelfde (Ja, specificaties op WD site kloppen niet, de green versie verbruikt een stuk minder, zie ook StorageReview).
En ik kan me niet voorstellen wat er dan verder anders is? En ik kan me al helemaal niet voorstellen dat ze voor deze 2 type schijven een aparte productieproces opzetten.
Durandal schreef op zaterdag 05 oktober 2013 @ 05:06:
Ja.
Dit zijn de waardes van een van mijn Reds. Ze zitten allemaal rond deze waardes (behalve de nieuwe).
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 180 179 021 Pre-fail Always - 5958 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 260 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 ==> 9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7562 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 221 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 212 ==> 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 47 194 Temperature_Celsius 0x0022 117 088 000 Old_age Always - 33 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
47 load cycles op 7562 draaiuren (315 dagen), dat is 9653 minuten interval(maar deze 47 zijn voornamelijk doordat ik er mee heb zitten spelen; de disks gaan nooit automatisch in spindown)
Wat zijn jou waardes?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 177 176 021 Pre-fail Always - 6141 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 129 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 137 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 106 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 59 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 2071 194 Temperature_Celsius 0x0022 122 104 000 Old_age Always - 28 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0 |
Dat headparkingissue is bij mij dus ook een issue.
Via dos met wdidle3 van 8 seconden naar 300 seconden gezet. Problem solved.
Ik wil minimaal 5st 3,5inch bays erin hebben en minimaal 2st 2,5inch bays erin. Ik wil ze ook hot-swap hebben. Nu zie ik wel van die drive-bays van 5,25 inch => x-aantal 3,5inch of 2,5inch, echter zijn deze in mijn ogen behoorlijk aan de prijs (tussen de 60 a 125 euri per stuk) en ik heb er dan 2 nodig (voor 3,5 en 2,5 inch).
Nou lees ik vaak over 2+ -U oplossingen voor disk-storage, echter ben ik niet superveel disken nodig (ik begin met 2, en wil eenvoudig kunnen uitbreiden zonder gelijk een nieuwe case te moeten kopen, hiernaast wil ik makkelijk migratie-mogelijkheden optioneel houden. Niets makkelijker als extra disken erin hangen en kopieren maar :-))
Ik zou graag de oplossing in een patchkast willen monteren (deze heb ik al in gebruik) echter is het een netwerk-patchkast, hier kan ik dus geen hele diepe chassis in kwijt, de patchkast is 80cm diep, maar de rails zullen denk ik iets van +/-50cm kunnen bevatten (zal het straks eens opmeten).
Hoe lossen de meesten dit hier op? of zijn het veelal van die micro-towertjes (5 bays max)?
Ik heb al wel wat spul van Norco voorbij zien komen (vaak 12+ disken met zware voedingen etc), maar dit is dan vaak net een maatje te groot (fysiek en qua disken).
Mee eens, maar ik gaf al eerder aan dat er ook verschil kan zijn in testen en dat cherry-picking toegepast kan worden.GioStyle schreef op zaterdag 05 oktober 2013 @ 11:29:
Echte bronnen heb ik niet maar als ik kijk naar de specificaties dan komen ze verdomd veel overeen: cache hetzelfde (64MB), aansluiting hetzelfde (SATA3), aantal platters hetzelfde (3 platters in 3TB versie), verbruik hetzelfde (Ja, specificaties op WD site kloppen niet, de green versie verbruikt een stuk minder, zie ook StorageReview).
En ik kan me niet voorstellen wat er dan verder anders is? En ik kan me al helemaal niet voorstellen dat ze voor deze 2 type schijven een aparte productieproces opzetten.
Verder kan je bv. voor reds betere kwaliteit (duurdere) lagers gebruiken dan voor greens omdat je toch minder garantie geeft en geen reputatie hoeft hoog te houden. Dan bespaar je weer wat zonder dat je je productielijn hoeft aan te passen.
Je weet het niet..
Verwijderd
Ik zou gaan voor een RPC-2106:wopie schreef op zaterdag 05 oktober 2013 @ 14:30:
Ik ben bezig met het samenstellen van een ESXi/ZFS combi, nu wil ik ook nog eens om me heen kijken voor evt. een andere behuizing (heb nu een 2,5U 19" behuizing met 3st 5,25 1st floppy en disken intern (9 stuks mogelijk zo uit mijn hoofd).
Ik wil minimaal 5st 3,5inch bays erin hebben en minimaal 2st 2,5inch bays erin. Ik wil ze ook hot-swap hebben. Nu zie ik wel van die drive-bays van 5,25 inch => x-aantal 3,5inch of 2,5inch, echter zijn deze in mijn ogen behoorlijk aan de prijs (tussen de 60 a 125 euri per stuk) en ik heb er dan 2 nodig (voor 3,5 en 2,5 inch).
Nou lees ik vaak over 2+ -U oplossingen voor disk-storage, echter ben ik niet superveel disken nodig (ik begin met 2, en wil eenvoudig kunnen uitbreiden zonder gelijk een nieuwe case te moeten kopen, hiernaast wil ik makkelijk migratie-mogelijkheden optioneel houden. Niets makkelijker als extra disken erin hangen en kopieren maar :-))
Ik zou graag de oplossing in een patchkast willen monteren (deze heb ik al in gebruik) echter is het een netwerk-patchkast, hier kan ik dus geen hele diepe chassis in kwijt, de patchkast is 80cm diep, maar de rails zullen denk ik iets van +/-50cm kunnen bevatten (zal het straks eens opmeten).
Hoe lossen de meesten dit hier op? of zijn het veelal van die micro-towertjes (5 bays max)?
Ik heb al wel wat spul van Norco voorbij zien komen (vaak 12+ disken met zware voedingen etc), maar dit is dan vaak net een maatje te groot (fysiek en qua disken).
- 6x3.5 " hot-swappable drive bays;
- 2x5.25" drive bays (daar kan je dan 2x 4x2,5" als je wilt);
- 483mm x 550mm x 88mm (WxDxH);
En 550mm diep krijg je ook in een rek waarbij de afstand tussen het voor en achterste bevestigingsstijl kleiner is dan 500mm. Hier hebben we een rek met 430mm afstand tussen de bevestigingsstijlen. Past perfect. Rails hebben namelijk een deel dat aan de servercase gemonteerd wordt (deze is niet in te korten) en twee delen (voor en achter) welke aan het rek bevestigd worden. Deze twee delen kan je op een afstand zetten die korter dan de diepte van de case is. Soms een beetje inkorten, maar is geen probleem. Hangt net zo stevig.
Wat betreft de 2,5 inch schijven, daar kan je dan voor op dit moment 56 euro een 4-in-5,25" drive bay in zetten: Icydock MB994SP-4SB-1 Dan ben je in 1 keer klaar.
Ik heb nu ook een versie gemaakt voor SMART waardes.Verwijderd schreef op zaterdag 05 oktober 2013 @ 10:28:
Wat betreft de firmware, daar is een heel makkelijk Python script voor: http://louwrentius.com/sc...ant-disk-information.html
Zie je alles in 1 oogopslag:

http://louwrentius.com/sc...-values-of-all-disks.html
Verwijderd
Ik had wel wat problemen met de installatie van FreeNAS 9.1. Het blijkt dat het moederbord een nieuwe versie van de Gigabit NIC had waardoor de driver niet werd geladen. Heb ik een if_re.ko gevonden die dit moest oplossen. Heb bizar weinig kennis van Linux, dus dat viel niet mee.. zeker niet dat alles read-only was.. Duurde een paar uur, heb je ook wat
Verwijderd
Geeft je al een beeld van de basis status van de systemen. Als we dat nou eens wat uitbreiden met jouw mooie scripts, zijn we een heel eind voor een thuissituatie vind ik...
Nagios/Zabbix is wat te groot en te log om op te zetten voor die paar thuisservers
En voor de Android gebruikers onder ons, bij dezen ook een schitterende app: https://play.google.com/store/apps/details?id=com.phpsysinfo
[ Voor 27% gewijzigd door Verwijderd op 05-10-2013 23:11 ]
voor grafieken ben ik zelf fan van CollectD, die kan je ook netjes koppelen aan andere systemen (push systeem, ipv pull wat normaal gebeurt), en andere leuke geintjes.
edit: Lijkt dat ik niet de enige ben met het probleem: https://bugs.freenas.org/issues/1850 Iemand enig idee wat ik hieraan kan doen? Of wordt het toch een losse NIC kopen?

[ Voor 17% gewijzigd door maniak op 06-10-2013 00:15 ]
Wat ik wel grappig vindt: freenas zou een makkelijke distro moeten zijn, maar je moet vervolgens wel zelf kernel modules gaan lopen toevoegen en laden. Handig!
Ik heb hier ook een Realtek 8111G met FreeNAS. De mijne werkt echter wel stabiel, maar helaas met 45MB/s write en 55MB/s read. Wat zijn je verdere specificaties?maniak schreef op zondag 06 oktober 2013 @ 00:06:
Hhhmm.. misschien kan iemand me hiermee helpen.. Ik heb vandaag al 2x meegemaakt dat de verbinding met de NAS helemaal weg valt tijdens het kopiëren van grote hoeveelheden data. Heb eigenlijk geen idee waar ik het moet zoeken.. welke logs kan ik raadplegen? Komt dit vaker voor? Het betreft een onboard Realtek 8111G Gigabit LAN controller, deze moest ik handmatig installeren door een nieuwe if_re.ko toe te voegen aan FreeNAS.
edit: Lijkt dat ik niet de enige ben met het probleem: https://bugs.freenas.org/issues/1850 Iemand enig idee wat ik hieraan kan doen? Of wordt het toch een losse NIC kopen?
[ Voor 200% gewijzigd door Durandal op 06-10-2013 03:39 ]
Ik heb toevallig zoiets vorig jaar gemaakt omdat er niets was dat ook ZFS in de gaten hield, en ik had ook geen zin om iets ingewikkelds als nagios op te zetten.Verwijderd schreef op zaterdag 05 oktober 2013 @ 20:58:
Wat kan je nog meer voor moois? Een totaalpakket om je storageserver gezondheid in de gaten te houden? Ik denk dat veel tweakers daar blij mee zouden zijn... Je bent al een aardig eind.
Werkt met een config filetje. Alles instelbaar en uitbreidtbaar, ook zaken die je zelf wilt toevoegen.
Standaard houdt het onder andere het volgende in de gaten (elke 15 minuten, via cron):
- cpu /gpu temp
- fans
- aanwezigheid disks
- disk health status
- mdadm status
- ZFS pool status
- vrije ruimte
Rapportage via bv. mail met wat er mis is.
In de configuratie geef je aan bij welke waarden je een waarschuwing krijgt of wanneer een auto-shutdown gedaan wordt. Zelf sys info opzoeken is niet genoeg. Dat is het zelfde als handmatig backups maken; je bent altijd te laat.
Ik moet gewaarschuwd worden als er iets is, en ik moet niet alleen gewaarschuwd worden maar er moet ook zelf actie ondernomen worden als ik dat niet kan. (Ik ben vroeger nl. al eens mijn array kwijt geraakt toen 2 disks van raid 5 binnen anderhalf uur sneuvelden en ik niet thuis was).
Elke week bijvoorbeeld ook een rapportage als alles wel OK is, zodat je weet dat de boel nog draait:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
| Server Report - OK alerter - System test results ---------------------------------------------------------------------- DateTime: 2013/10/05 07:40:04 System : server System passed all test. Status: OK Action: NONE Devices in standby ---------------------------------------------------------------------- Tests results ---------------------------------------------------------------------- OK: CPU temperature (45.5 C > 55) CPU temperature (45.5 C > 60) OK: Chipset temperature (34.0 C > 45) Chipset temperature (34.0 C > 50) OK: Fan speed (750 RPM < 550) Fan speed (750 RPM < 500) OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 OK: Disk /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS1C7S6 OK: Disk /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS18TCQ OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 OK: Disk /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 OK: Disk temperature (41 C > 46) /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS18TCQ Disk temperature (41 C > 50) /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS18TCQ OK: Disk temperature (33 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 Disk temperature (33 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 OK: Disk temperature (34 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 Disk temperature (34 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 OK: Disk temperature (34 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 Disk temperature (34 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 OK: Disk temperature (33 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 Disk temperature (33 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 OK: Disk temperature (34 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 Disk temperature (34 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 OK: Disk temperature (34 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 Disk temperature (34 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 OK: Disk temperature (35 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 Disk temperature (35 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 OK: Disk temperature (35 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 Disk temperature (35 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 OK: Disk temperature (35 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 Disk temperature (35 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 OK: Disk temperature (35 C > 40) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 Disk temperature (35 C > 45) /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 OK: SMART /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS18TCQ Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_ST31500341AS_9VS18TCQ Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 Current Pending Sectors = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 Reallocated Sector Count = 0 OK: SMART /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 Reallocated Sector Count = 0 OK: MDADM array(s) OK: ZPool OK: Data Storage space (35% full) -end test results- |
Draait al net zo lang tot volle tevredenheid en heb er al een paar keer profijt van gehad.
ALs je (of anderen) interesse hebt wil ik het wel ergens online zetten.
Ik draai al tijden op een Freenas 0.7.2 installatie op mijn NAS. Hierbij maak ik gebruik van 4x2TB in software raid 5. Het OS staat op een USB stick.
Afgelopen week besloot ik eens te proberen sickbeard, sabnzbd etc te installeren (Bv met deze tutorial, en ergens in het maken van die jails voor dat soort plugins is het gruwelijk mis gegaan. Het heeft even allemaal gewerkt, en er werden daadwerkelijk bestanden gedownload en verwerkt, maar een dag later wilden de plugins ineens niet meer laden tijdens het opstarten van de NAS.
Ik heb toen een harde reboot uit moeten voeren en alle opstartscripts voor plugins eruit gegooid. Helemaal terug naar basic. Echter begint freenas nu na het opstarten meteen mijn software raid te rebuilden. (Status: rebuilding: hot). Alleen hij komt binnen een uur nog niet eens tot 1% van de eerste schijf en dan stopt het hele systeem met reageren. Tijdens het rebuilden is mijn data wel gewoon toegankelijk maar uiteraard gaat dit erg traag.
Ik vrees dat ik via allerlei umount, mount_unionfs en andere commando's ergens iets kapot gemaakt heb in de freenas installatie waardoor het geheel instabiel is geworden.
Ziet iemand nog een manier mijn huidige installatie te redden?
Of moet ik denken aan een volledig nieuwe installatie en daarin mijn huidige raid weer importeren? En zo ja: welke NAS software dan? Freenas 0.7.2 is redelijk verouderd (inmiddels zijn nas4free, freenas 9.1 en openmediavault betere alternatieven als ik het goed begrijp). Maar kan ik in één van die andere OS'en mijn huidige raid partitie nog importeren? Ik heb openmediavault al op een andere USB stick geprobeerd, maar die ziet gewoon 4 losse harde schijven en geen raid array.
PS: Er staat 5TB data op de raid die ik niet kan backuppen (waar haal ik de ruimte vandaan? +de nas loopt vast voordat ik de kans krijg genoeg data over te zetten). Maar ik wil die data erg graag bewaren!
Alvast super bedankt voor alle hulp en hints!
[ Voor 3% gewijzigd door Goku33 op 06-10-2013 04:14 ]
Ik heb dit op een ander toestel ook met Linux: Realtek wordt gedetecteerd als een 100Mbit versie en krijg hem met geen manier om 1000Mbit, driver kan ik niet aanpassen. Daarom heb ik ook in mijn NAS een Intel NIC geplaatst: geen gedoe en ik haal mooi 118MB/s wat vrij dichtbij het theoretische limiet van Gigabit ligt.maniak schreef op zondag 06 oktober 2013 @ 00:06:
Hhhmm.. misschien kan iemand me hiermee helpen.. Ik heb vandaag al 2x meegemaakt dat de verbinding met de NAS helemaal weg valt tijdens het kopiëren van grote hoeveelheden data. Heb eigenlijk geen idee waar ik het moet zoeken.. welke logs kan ik raadplegen? Komt dit vaker voor? Het betreft een onboard Realtek 8111G Gigabit LAN controller, deze moest ik handmatig installeren door een nieuwe if_re.ko toe te voegen aan FreeNAS.
edit: Lijkt dat ik niet de enige ben met het probleem: https://bugs.freenas.org/issues/1850 Iemand enig idee wat ik hieraan kan doen? Of wordt het toch een losse NIC kopen?
Kan je het op Github zetten, MIT license erop, dan kunnen we een linkje in de topicstart plaatsen?
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Update: ik heb nu freenas 9.1 geinstalleerd en als ik mijn scherm aan de NAS zelf hang, zie ik dat hij mijn GEOM_RAID5 aan het rebuilden is (duurt nog zo'n 450 minuten) en hij crasht vooralsnog niet. Ik zie in de webinterface van freenas nog geen raid pool om te importeren, maar zou dat na het rebuilden wel kunnen denken jullie?Goku33 schreef op zondag 06 oktober 2013 @ 04:12:
Ik heb een probleem en kom er zelf niet meer uit...
Ik draai al tijden op een Freenas 0.7.2 installatie op mijn NAS. Hierbij maak ik gebruik van 4x2TB in software raid 5. Het OS staat op een USB stick.
Afgelopen week besloot ik eens te proberen sickbeard, sabnzbd etc te installeren (Bv met deze tutorial, en ergens in het maken van die jails voor dat soort plugins is het gruwelijk mis gegaan. Het heeft even allemaal gewerkt, en er werden daadwerkelijk bestanden gedownload en verwerkt, maar een dag later wilden de plugins ineens niet meer laden tijdens het opstarten van de NAS.
Ik heb toen een harde reboot uit moeten voeren en alle opstartscripts voor plugins eruit gegooid. Helemaal terug naar basic. Echter begint freenas nu na het opstarten meteen mijn software raid te rebuilden. (Status: rebuilding: hot). Alleen hij komt binnen een uur nog niet eens tot 1% van de eerste schijf en dan stopt het hele systeem met reageren. Tijdens het rebuilden is mijn data wel gewoon toegankelijk maar uiteraard gaat dit erg traag.
Ik vrees dat ik via allerlei umount, mount_unionfs en andere commando's ergens iets kapot gemaakt heb in de freenas installatie waardoor het geheel instabiel is geworden.
Ziet iemand nog een manier mijn huidige installatie te redden?
Of moet ik denken aan een volledig nieuwe installatie en daarin mijn huidige raid weer importeren? En zo ja: welke NAS software dan? Freenas 0.7.2 is redelijk verouderd (inmiddels zijn nas4free, freenas 9.1 en openmediavault betere alternatieven als ik het goed begrijp). Maar kan ik in één van die andere OS'en mijn huidige raid partitie nog importeren? Ik heb openmediavault al op een andere USB stick geprobeerd, maar die ziet gewoon 4 losse harde schijven en geen raid array.
PS: Er staat 5TB data op de raid die ik niet kan backuppen (waar haal ik de ruimte vandaan? +de nas loopt vast voordat ik de kans krijg genoeg data over te zetten). Maar ik wil die data erg graag bewaren!
Alvast super bedankt voor alle hulp en hints!
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.