• Quadro!
  • Registratie: Maart 2004
  • Laatst online: 31-03 13:50
Het grote DIY NAS Topic
Afbeeldingslocatie: http://www.xs4all.nl/~mskramer/diyraidnas3.png
Al weer deeltje drie van "Het grote DIY RAID NAS" topic. Nog steeds blijken veel Tweakers geinteresseerd te zijn in het zelf maken van een NAS met RAID functionaliteit. Voordelen hiervan zijn de doorgaans hogere performance van een zelf gebouwd systeem t.o.v. een embedded oplossing en door het gebruik van een gangbaar OS is men flexibeler in de software die gebruikt wordt. Zo kan het NAS tevens eenvoudig ingezet worden als webserver, domain controller, gameserver, of welke toepassing dan ook die men op een regulier consumenten NAS niet aan de praat krijgt.

Uit het afgelopen topic blijkt dat voor een DIY RAID NAS veelal gebruik gemaakt werd van *NIX besturingssystemen. Een reden hiervoor is dat zodra je aan complexere RAID levels gaat denken als RAID5 en RAID6, dat Windows hier qua software RAID geen fatsoenlijk performende oplossing aanbiedt, terwijl de software RAID van besturingssystemen als Solaris, Linux en FreeBSD vrij goed performed. In dit topic gaan we weer verder met het discussieren over de laatste nieuwtjes die door het een of ander gerelateerd zijn aan het zelf maken van een NAS, vraagstukken behandelen met betrekking tot het aanschaffen van een nieuw NAS of als je gewoon even wilt patsen met je zojuist aangeschafte NAS. Zorg in dat geval wel voor foto's ;)

Lees trouwens voordat je eventueel specifieke RAID vragen wilt gaan stellen in ieder geval de RAID FAQ en de RAID wikidoor, aangezien daar waarschijnlijk veel van je vragen al worden beantwoord.

Over nu naar advies met betrekking tot het samenstellen van je NAS, uitgaande dat je met een schone lei begint.
Hardware:
Processor, moederbord en geheugen:
De kern van je NAS. Hiermee bepaal je in feite al of je een energiezuinige-, een überperformance-, een spotgoedkope- of een guldenmiddenwegfileserver wilt hebben.

Een NAS moet natuurlijk uiteindelijk data over het netwerk pompen. 100mbit trekken vrijwel alle courante CPU's tegenwoordig wel vol, maar wanneer je met gigabit aan de slag gaat, moet je toch wel wat meer cpu power in huis hebben. Een oude P3 of celeron die je eventueel nog hebt liggen zal hoogstwaarschijnlijk op gigabit niet veel sneller zijn dan op 100mbit, maar zal bovendien relatief niet erg zuinig zijn. Als je ouders de energierekening betalen en die het allemaal wel best vinden is dat natuurlijk geen probleem, maar voor de mensen die hun eigen rekening betalen is het wellicht aan te raden eens door te rekenen hoe lang het duurt eer je een nieuw, meer energiezuinig nas er al uit hebt. AMD heeft qua energieverbruik nog altijd een streepje voor op Intel. Mede dankzij de lage prijs is een systeem gebaseerd op een AMD platform ideaal voor een NAS.

Aangezien Software RAID wat ruimte in het geheugen wel prettig vindt en de prijzen ervan tegenwoordig zo belachelijk laag zijn, is 1GB toch echt wel het minimum wat je zou moeten willen.

SATA (RAID) Controllers:
In de meeste gevallen zal software raid wel voldoen, zeker als je RAID0, 1 of zelfs 1+0 gaat draaien. RAID5 is echter een ander verhaal. Hierbij moet immers bij elke write pariteit worden berekend en weggeschreven. Dat resulteert in een lagere write-performace. Zeker als je de standaard onboard RAID5 implementatie van je moederbord of die van windows gaat gebruiken kan de performance bedroevend zijn (minder dan 15MB/sec writes zijn eerder regel dan uitzondering). Gelukkig bestaan er wel goede implementaties, bijvoorbeeld geom_raid5 voor FreeBSD, MDADM voor Linux en de voor het ZFS filesystem beschikbare "RAID-Z".

Hardwarematige raid controllers zijn in de meeste gevallen voor een thuis NAS overkill, maar kunnen nuttig zijn in de volgende situaties.
Je wilt RAID5 of 6 draaien en:
• Je gebruikt Windows op je NAS (de softwarematige RAID5 alternatieven van windows lopen sterk achter op die van Linux en FreeBSD)
• Je móet beslist Online Capacity Expansion of Online Raid Level Migration functionaliteit hebben.
• Hoge IO concurrency (bijv. fileserver op een LAN-party waar veel mensen tegelijk leechen :+)
• Je hebt het geld ervoor en wilt een extra patsfactor aan je NAS toevoegen O-)

Als je tot de conclusie bent gekomen dat je inderdaad een hardwarematige raid controller nodig hebt én over voldoende budget beschikt, zijn bijvoorbeeld de controllers van het merk Areca aan te raden. Deze staan bekend om hun uitstekende performance, degelijkheid en goede support. Daarnaast zijn er natuurlijk voldoende andere aanbieders van raidcontrollers. Zorg in ieder geval dat je een koopt waarbij er een dedicated CPU op zit die de XOR berekeningen uitvoert. Anders wordt je main CPU alsnog lastig gevallen met XOR operaties waar die niet voor is geoptimaliseerd en is je prijs/performance ten opzichte van een goede software raid5 oplossing er veelal flink op achteruit gegaan

Het kan natuurlijk ook zo zijn dat je te weinig SATA poorten hebt en software RAID wilt draaien. In dat geval kun je een gewone, simpele sata controller gebruiken. Let er hierbij wederom wel op dat de PCI-bus vrij snel vol zit. Als je dus nog een leeg PCI-e x1 slot hebt doe je er beter aan een PCI-Express SATA controller te kopen.

Kast en voeding:
Voor een thuisserver is een stille kast in combinatie met een efficiënte voeding meestal de beste oplossing. Bij de drivebays is het ook handig om te weten dat je elke 5.25" met een simpel en goedkope bracket kunt gebruiken voor een 3.5" harde schijf. Enkele merken kasten waarbij je eigenlijk altijd wel goed zit, zijn Antec, Chieftec en CoolerMaster die alle drie ook nog eens stock erg degelijke voedingen meeleveren; niet onbelangrijk voor een fileserver.

Als je om wat voor reden dan ook een rackmount chassis wilt hebben, zou je eens kunnen kijken bij Chenbro. Die kasten zijn over het algemeen erg degelijk voor een relatief vriendelijke prijs.

Als je toch op de energiezuinige tour bent kun je evengoed even kijken naar Mini-ITX oplossingen. Deze kastjes zijn doorgaans voorzien van een redelijk laag wattage voeding en in combinatie met een intel atom 'achtig' systeem kun je dan voor erg weinig watt toch een NASje maken. Een andere optie is om in zo'n kast een moederbord te stoppen waar je een normale (energiezuinige variant van een) desktop CPU op kunt plaatsen om op erg weinig cm3 relatief veel performance te krijgen. Check de Pricewatch voor de mogelijkheden. Een kastje wat zich voor dit doel erg leent is overigens de Chenbro ES34069. Deze kast heeft ruimte voor 4 hot-swappable harde schijven, 1 2.5" harde schijf, 1 slim-drive optical drive en een Mini-ITX moederbord. Helaas is de leverbaarheid van de kast niet om over naar huis te schrijven en gaat de kast in dat geval een substantieel deel van de complete kosten van het NAS innemen.

Harde schijven:
Tenslotte natuurlijk hetgeen waar je de bestanden opslaat: de harde schijven. Er is veel keus en het is maar net hoeveel ruimte je nodig hebt en hoeveel budget je hebt. Over de hoeveelheid schijven en de grootte ervan valt wat te zeggen. Het is handig om allereerst na te gaan hoeveel schijfruimte je in totaal wilt hebben en of je RAID wil gaan draaien. Als je bijvoorbeeld minimaal 4TB schijfruimte wilt hebben EN RAID5 wilt draaien, maar slechts plek hebt voor 4 harde schijven, kun je er voor kiezen 4 harde schijven van 2TB te nemen. Netto houd je dan 6TB over, terwijl als je zat ruimte hebt, misschien beter 1 of 1.5TB schijven kunt gebruiken omdat die een betere prijs/grootte verhouding bieden. Tenzij je natuurlijk het verbruik wilt beperken, want 2 harde schijven verbruiken nog altijd meer dan 1.
Software:
Operating System:

Windows:
Hoewel ik het doorgaans voor een DIY RAD NAS niet zou aanraden is Windows natuurlijk een optie. Het kan prettig zijn als je geen zin hebt om energie en moeite te steken in het 'leren' van een nieuw besturingssysteem; alles is lekker vertrouwd en het is meestal ook nog vrij stabiel te noemen. De RAID5 implementatie van Windows is echter niet zo snel als die van de op *nix gebaseerde varianten. Als je er verder geen problemen mee hebt dat je schrijfsnelheden erg laag zijn ten opzichte van *NIX alternatieven, is Windows een reëele optie. De server edities van Windows ondersteunen standaard RAID5, maar Windows XP niet. Gelukkig hebben we daar de RAID hack voor.

FreeBSD:
FreeBSD is een geavanceerd serverbesturingssysteem met unieke features. Zo kent FreeBSD natuurlijk software RAID met het GEOM-framework, maar het meest bekend onder NAS is FreeBSD vanwege zijn uitstekende ondersteuning voor ZFS. Zelfs met unieke features die andere OS niet hebben; zo kan FreeBSD direct van een RAID-Z pool booten zonder losse systeemdisk nodig te hebben.

FreeNAS:
FreeNAS is een OS gebaseerd op FreeBSD, specifiek voor het draaien van een NAS. Het is lichtgewicht en simpel te configureren via de webinterface. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten erin, inclusief ondersteuning voor ZFS. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 32MB CF kaart), kan dit een goede optie zijn.

NAS4Free:
NAS4Free is een doorontwikkeling van de FreeNAS 7 series web-interface, maar dan draaiende onder een moderne FreeBSD 9 motorkap. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten er in en biedt RAID5 ondersteuning via een oudere (maar stabiele) versie van geom_raid5, maar wel met minder RAM genoeg neemt dan ZFS wat nutuurlijk ook wordt ondersteund. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 128MB CF kaart), kan dit een goede optie zijn..

ZFSguru
ZFSguru is zoals de naam doet vermoeden een NAS-distributie die zich volledig richt op ZFS en van de grond is opgebouwd met een interface die velen prijzen vanwege zijn helderheid en duidelijke opbouw. Dit project is van alle opties het minst doorontwikkeld. Wel zijn er add-on services beschikbaar die de functionaliteit uitbreiden met bijvoorbeeld SABnzbd+, Transmission of VirtualBox. In tegenstelling tot FreeNAS en NAS4Free kun je ZFSguru wel makkelijk uitbreiden; het is namelijk een volledige FreeBSD distributie onder de motorkap zonder zaken wegbezuinigd.

Linux:
Je DIY RAID NAS kun je prima baseren op Linux. MDADM biedt goede prestaties en is erg stabiel gebleken. De community is bovendien erg groot en er is daardoor veel informatie beschikbaar. Op http://linux-raid.osdl.org staat een mooie beschrijving over raid en dan met name de toepassing ervan op een linux machine. Welke distributie je wilt gebruiken is natuurlijk helemaal aan jou. Als je nog niet met een distro bekend bent, kijk dan even in Het grote welk OS (bijvoorbeeld linux distro) topic deel 7. Hieronder een aantal linux distributies die speciaal voor NASses ontwikkeld zijn:
Openfiler
SME Server

OpenSolaris:
Dit OS biedt out-of-the-box support voor ZFS, een erg vooruitstrevend filesystem. Echter zijn er in het vorige topic niet echt veel personen gebleken die hier gebruik van maakten, maar dat er wel interesse in is. Mocht iemand zin hebben hier een stukje over te schrijven: DM me dat even :)
Links:

Linux software RAID optimalisaties
Installatie van ZFS onder FreeBSD (experimenteel!)

[ Voor 8% gewijzigd door Verwijderd op 04-08-2012 13:36 ]


  • hellbringer
  • Registratie: Juni 2001
  • Laatst online: 18-11-2025

hellbringer

Weeeeeeee!

Ik heb zelf maar is een systeempje in elkaar gezet, met wat oude hardware en een USB stick was dat zo geregeld.
Mobo: Asus P4S800-MX SE
CPU: P4 2.80GHz
Mem: 1 GB kingston DDR
Controllers: 2x onboard sata, 2x PCI 2 poorts Sweex (Sil 3112) 1x PCI 2 poorts Promise :|
HDs: 1 x 750GB WD, 3 x 500GB WD, 1 x 400GB Seagate, 3 x 300GB Maxtor (Effectief: 3.55 TB)
Pics:Afbeeldingslocatie: http://tweakers.net/ext/f/l2c6ldAJzkpoFnPSm58KklOR/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/IMMYIOVseZkr4zsFya7ZP7TO/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/DAgUCwfGPJvgvFqiUy7yz6mb/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/s2YZvtB4VBcPYHKyopFOlMtd/thumb.jpg

Al met al geen supersnel/state-of-the-art systeem maar haalt als je vanaf 1 schijf leest zo'n 40 á 50MB/s, rebuild snelheid (mits er een parity drive in zit, in dit geval niet) zo'n 20 á 25MB/s

OS: unRAID Pro 4.4.2 (zie ook Lime-technology.com & What is unraid)
In een notendop:
- Gebaseerd op Slackware met 2.6 kernel
- Volledig systeem/controller/disk onafhankelijk
- Elke combinatie van SATA/PATA drives is mogelijk
- Schijven hoeven niet dezelfde grootte/snelheid te zijn
- Schijven die niet in gebruik zijn worden uitgeschakeld (stoombesparing)
- Herstellen van 1 schijf mogelijk, maar bij crashen van een 2de schijf geen volledig data-loss zoals bij RAID5
unRAID is eigenlijk JBOD + 1 parity disk

Omdat het zo'n weinig besproken OS ik heb ik wat screenshots gemaakt van de (nogal spartaanse) webinterface.
Afbeeldingslocatie: http://tweakers.net/ext/f/Dc8MeAukW3H7rGB7NATxLjFQ/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/y2JHEsfAQGSwmaNDdOge3tHV/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/Nx2mhQyyFvF0cfGIXYhuXK9L/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/aVxaJeDxdhhzm5JOaSQ74y1i/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/bVTHafGmAJF7ELv4rTuPjjyc/thumb.jpg
Vanuit Windows ziet het er dan zo uit:
Afbeeldingslocatie: http://tweakers.net/ext/f/6cRZ7KewTPbRjfqQ1PnGJh5B/thumb.jpg

Zoals je kunt zien zijn er weinig opties om mee te spelen, maar er worden steeds meer aangepaste interfaces gemaakt:
Custom interface & unMenu
Afbeeldingslocatie: http://tweakers.net/ext/f/26L7q6IHhmkwAzU5JcINnCYu/thumb.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/vGtYeHUV1zlKCk0VpkqNrzMy/thumb.jpg

Op dit systeem had ik eerst Win2k3 en alles JBOD draaien, maar doordat er 1 schijf stuk ging was ik alle data op die schijf kwijt.
Ik ging op zoek naar een vervanging en kwam diverse systemen tegen:
Drobo (Geniaal systeem & goed uit te breiden maar duur en dramatische performance)
FreeNAS (gratis, mooie interface maar lastig installeren zonder CD + niet stabiel te krijgen)
Windows Home server (niet gratis, makkelijk uit te beiden maar door bugs niet altijd even veilig met data)

Maar geen van allen bieden ze wat ik zocht, enige nadeel aan unRAID is snelheid, deze is namelijk afhankelijk van de schijf waar de data opstaat (je lees maar van 1 schijf).
Ook schrijven duurt langer dan op een regulier systeem want hiervan wordt ook direct de parity weggeschreven, maar dat is op te lossen door een cache disk te gebruiken

[ Voor 7% gewijzigd door hellbringer op 02-05-2009 23:11 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Ik ben eigenlijk een beetje aan het geilen op deze case:

Afbeeldingslocatie: http://c1.neweggimages.com/NeweggImage/productimage/11-219-021-04.jpg

$289.99

Het is misschien wat ziek. Maar als je flink wat disks kwijt wil is een grote tower met meerdere 5-in-3 bays al snel duurder. En dit is dus 20x hot-swap.

Niet verkeerd. Met 2x8 of 1x16 controller + 4 op het mobo heb je 20 disks. Stel dat je daar 20 disks in stopt. Dan is de vraag wat voor raid config je daar op moet gaan draaien. een grote raid 6. Of 2x raid 6 in een stripe (raid 0).

[ Voor 62% gewijzigd door Q op 10-05-2009 00:42 ]


  • Dutchman01
  • Registratie: Mei 2006
  • Laatst online: 10-03-2023
Als je nog eens een goedkope degelijke kast je zoekt bekijk dan ook eens deze Asus kast.


http://www.alternate.nl/h...Behuizingen&l2=Mini+Tower

zelfde kast nu in het rood

http://www.alternate.nl/h...Behuizingen&l2=Mini+Tower

Afbeeldingslocatie: http://www.asus.com/websites/global/products/VJvJZ2BxTUK0ysMd/P_500.jpg

Fijn met deze kleine zeer toegangkelijke kast is dat je er ruimte genoeg voor schijven hebt

5,25 inch, extern 2
3,5 inch, extern 1 ( normaal voor diskette stataion maar ook een schijf te plaatsen)
3,5 inch, intern 5

Dat maakt dan samen 6 harde schijven mogelijk indien je geen diskette station plaats zoals ik dus niet gedaan heb.

Zie hier een plaatje intern van zijn broertje :)
[img=http://www.dutchmans.serverthuis.nl/pictures/server1.JPG.jpg[/img]

en dit allemaal voor maar 30 tientjes. :)

[ Voor 12% gewijzigd door Dutchman01 op 13-05-2009 19:41 ]


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Krijg vanmiddag 3 extra disken binnen (WD10EADS) en de Chenbro SK33502. Samen met de 2 storage disken die ik al had dus 5 plus 1 bootdisk. Ben alleen nog opzoek naar een simpele PCI-express raid controller die Raid 5 ondersteunt. Weet dat simpel en Raid 5 niet heel goed samen gaan, maar de prestaties hoeven niet super te zijn. De 50MB per seconden die mijn NAS nu doet is ruim voldoende.

Afbeeldingslocatie: http://www.chenbro.eu/assets/2009/05/22/systn8476213255.jpg

Zal ook even een plaatje schieten zodra alles is ingebouwd.

[ Voor 17% gewijzigd door Zware Unit op 10-06-2009 10:40 ]

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
De foto's:
Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=23789&FotoID=3976
Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=23789&FotoID=3977
Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=23789&FotoID=3978
Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=23789&FotoID=3979

Momenteel gebruik ik slechts 3 van de 5 disken, maar dit zal snel veranderen.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • tympie
  • Registratie: Augustus 2002
  • Laatst online: 28-01-2025
Voor de visueel ingestelden: Stacker met Addonics 5-in-3 module (5x1TB Samsung F2, raid-z, netto ruim 3.5TiB :) ) aangesloten op Supermicro AOC-USAS-L8I, en een 4-in-1 module half gevuld met gemirrorde 2.5" disken voor OS.
En genoeg ruimte in de kast over voor nog 10 schijven ;)

Afbeeldingslocatie: http://www.xs4all.nl/~raiden/reptile_front1s.jpg
Afbeeldingslocatie: http://www.xs4all.nl/~raiden/reptile_inside1s.jpg
Afbeeldingslocatie: http://www.xs4all.nl/~raiden/reptile_inside2s.jpg
Afbeeldingslocatie: http://www.xs4all.nl/~raiden/reptile_side1s.jpg

[ Voor 14% gewijzigd door tympie op 11-06-2009 23:03 . Reden: Hmm... plaatjes lijken niet helemaal lekker te werken... ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Deze week binnengekomen uit Amerika.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco4020.jpg

Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.

[ Voor 16% gewijzigd door Q op 15-06-2009 15:48 ]


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Een Full HD stream heeft toch geen 15MB per seconden nodig? Misschien 15Mbit, dus max 2MB per seconden. Mijn config doet max 80MB per seconden (zonder Raid). Wel handig bij het overzetten van gegevens. Vandaag of morgen krijg ik de Dell PERC 5/i binnen. Misschien moet ga ik nog twee 1TB disken erbij halen, zodat ik mijn data makkelijker naar de nieuwe RAID 5 config kan overzetten.

Afbeeldingslocatie: http://www.familie-neumann.name/ebay/perc5i_aufsicht.jpg
Ga trouwens toch een Gbit verbinding aanleggen richting mijn Mac Mini. De WiFi verbinding (G en N) werkt prima, maar is te instabiel zodra andere apparaten de verbinding ook gaan gebruiken (laptop, iPhone, etc). Krijg je vervelende hickups in de video stream.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/nas-001.jpg

10x1TB in een norco rpc-4020 behuizing en Highpoint 2340. Debian Lenny doet het helaas (nog) niet. Kernel shit.

[ Voor 17% gewijzigd door Q op 26-06-2009 00:42 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Mijn NAS is vrijwel klaar.

Kast: Norco RPC-4020
Mobo: Asus P5Q-EM DO ( 6x sata)
CPU: Core 2 Duo E7400
RAM: 4 GB
Controller; HighPoint RocketRAID 2314 (16x poorten)
Voeding: CooMas Silent Pro M 600W ATX2 (geen overkill (spinup = 400+ watt))
HD: Samsung 1 TB SAT2 HD103UJ (10x)
OS: Debian Lenny met custom kernel (backported)

RAID configuratie: 10 disk RAID 6 op basis van Linux software RAID.
Performance: Read: 850 MB/s Write: 300 MB/s
Capacteit: 7,5 GiB of 8 GB.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco03.jpg

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco02.jpg

Zoals je ziet zijn de kabels van de HighPoint eigenlijk wat te lang. Verder blijkt ook deze Highpoint absoluut een ventilator op zijn passieve heatsink nodig te hebben want je kunt je vingers branden aan het ding. De ventilator is er later op gemonteerd (zie je niet).

Met dit weer is koeling wel een probleem. De disks halen zeker de 40+ graden, maar hij staat ook op een ongelukkige plek zonder goede warmte afvoer. Gaat wel goed komen.

Het enige punt nu is dat hij veel geluid maakt. Hij staat echter niet 24/7 aan. Alleen on-demand met WOL.

Ben erg tevreden over het resultaat. Belangrijkste aandachtspunt is eigenlijk de temperatuur.

  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Mijn NAS is af.

Het resultaat is een op Debian Linux (Lenny) gebaseerde NAS met 18 TB capaciteit. Gebaseerd op 20 disks. Read performance: 1.2 GB/s, Write performance: 350 MB/s.

Edit Mei 2011: meest up-to-date status hierzo.

Afbeeldingslocatie: http://louwrentius.com/images/norco05.jpg

Case: Norco RPC-4020
Processor: Core 2 duo E7400 @ 2.8GHz
RAM: 4 GB
Motherboard: Asus P5Q-EM DO
LAN: Intel Gigabit
Controller: HighPoint RocketRAID 2340 (16) and on-board controller (6).
Disks: 20 x Samsung Spinpoint F1, 1 TB(array) and 2 x FUJITSU MHY2060BH (60 GB)
Arrays: Boot: 2x 60 GB RAID 1 and 20 x 1 TB RAID 6 ( 18 TB storage )
RAID: Linux Software RAID build using mdadm
Read performance: 1.2 GB/s
Write performance: 350 MB/s.
OS: Linux Debian Lenny 64-bit, based on backported 2.6.28 kernel.
Filesystem: XFS (can handle > 16 TB partitions.)
Rebuild time: about 5 hours.
UPS: Back-UPS RS 1200 LCD using Apcupsd
Idle power usage: about 130 Watt.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco04.jpg

[ Voor 8% gewijzigd door Q op 01-05-2011 18:54 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
redfoxert schreef op woensdag 29 juli 2009 @ 19:56:
[...]


Als je niet te ver weg woont (Zuid-Limburg of Zuid-Oost Brabant) wil ik wel eens een keertje met mijn VoltCraft Energy Logger 4000 langskomen voor een second opinion :) Ding is behoorlijk nauwkeurig moet ik zeggen.

Anders is het toch een leuke aanwinst. Ik heb er bijvoorbeeld inmiddels zo'n 25% aan stroomverbruik mee weten te achterhalen in huis, EN uiteraard afschieten :)

Die 50 euro die het ding gekost heeft heb ik allang terugverdiend.
Bedankt voor het aanbod, maar ik zit voorbij Hoorn. Zo'n VoltCraft is misschien een leuk verjaardags cadeautje. ;)
Demoniac schreef op woensdag 29 juli 2009 @ 10:17:
Sowieso is een RocketRAID 23x0 trager dan sw RAID :P En afgezien daarvan is het ook een kleine ramp (iets met staggered spinup, ik wil er niet eens meer aan denken :X)
Waar ik wel benieuwd naar ben, zijn de cpu loads tijdens een stresstestje van de array :)
Wat had je precies met staggered spinup? Anyway u vraagt wij draaien (belasting tijdens schijven):

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
top - 23:51:01 up 14 min,  2 users,  load average: 5.08, 3.92, 2.04
Tasks:  81 total,   4 running,  77 sleeping,   0 stopped,   0 zombie
Cpu0  :  0.0%us, 46.4%sy,  0.0%ni, 20.9%id, 16.6%wa,  1.0%hi, 15.2%si,  0.0%st
Cpu1  :  0.0%us, 49.8%sy,  0.0%ni, 18.6%id, 14.3%wa,  1.3%hi, 15.9%si,  0.0%st
Mem:   4023108k total,  3999580k used,    23528k free,     1568k buffers
Swap:  1967864k total,        0k used,  1967864k free,  3776632k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                         
 2731 root      15  -5     0    0    0 S   48  0.0   4:36.72 md5_raid5                                        
 3548 root      18  -2 10352 1688  552 D   38  0.0   3:37.03 dd                                               
  219 root      20   0     0    0    0 D   14  0.0   0:58.61 pdflush                                          
  218 root      20   0     0    0    0 D    8  0.0   1:00.14 pdflush                                          
  220 root      15  -5     0    0    0 S    5  0.0   0:27.62 kswapd0           

HTOP:

  1  [||||||||||||||||||||||||||||||          64.7%]     Tasks: 32 total, 1 running
  2  [||||||||||||||||||||||||||              56.9%]     Load average: 4.60 4.09 2.33 
  Mem[|||||||||||||||||||||||||||||||||||216/3928MB]     Uptime: 00:16:25
  Swp[                                     0/1921MB]

  PID USER     PRI  NI  VIRT   RES   SHR S CPU% MEM%   TIME+  Command                                         
 3548 root      18  -2 10352  1668   532 D 35.8  0.0  4:23.62 dd if /dev/zero of /storage/bla.bin bs 1M


Ik heb dus wel een RAID controller met 16 poorten, maar het zijn 16 losse 'jbod arrays' van 1 disk per stuk. Het is gewoon voor mij een veredelde sata controller die me 16 poorten geeft. De HighPoint driver doet niets qua RAID. Dat is het werk van de Linux kernel. Die 1.1 GB duidt op een bottleneck ergens, omdat het theoretisch veel harder moet kunnen. Maar geen idee wat het kan zijn.


Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/titanslotfan.jpg

Vanwege de crappy airflow in mijn Norco 4020 heb ik twee slotfans in de kast gemonteerd. 1 kleine, 1 slot groot, koelt de HighPoint controller (noodzaak), de 2e (grote) is om die warme lucht uit die kast te zuigen zodat de disks koel blijven. Echt stil zijn ze niet, maar wel functioneel.

[ Voor 10% gewijzigd door Q op 30-07-2009 00:14 ]


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Heb een vreemd probleem met mijn FreeBSD NAS. Gisteren 3 additionele disken opgehaald en geinstalleerd. Perc 5/i controller herkent de disken en met 8 disken heb ik een RAID 5 virtual disk gemaakt. 1 disk dient als hot-spare.

(6 + 1 RAID5) + 1 hot spare = 8 disken

Tijdens fdisk in sysinstall gaat alles ook nog lekker:

Afbeeldingslocatie: http://files.me.com/maartendevries/0zny9p

Echter wanneer ik een disklabel wil aanmaken is er maar ongeveer 1.5TB beschikbaar. Wanneer ik vervolgens fdisk open zie ik de oorzaak. De partitie is verkleind. Ik kan extra partities aanmaken, maar de bedoeling is dat ik een partitie krijg van 5.6TB. Geen 3 partities van 1.5TB:

Afbeeldingslocatie: http://files.me.com/maartendevries/cvo022

Iemand een idee?

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • mschol
  • Registratie: November 2002
  • Niet online
ik heb sinds een paar dagen een Areca 1261ML inclusief 5 Hitachi HDT721010SLA360 in raid 5
hier heb ik wat mee zitten spelen (voornamelijk met 4 disks, de 5de wilde met moeite in mijn disk array)
de schijven zijn qua data wel leeg, geen idee of dit nog invloed heeft op de perfomance?
array build time (4x1TB raid 5): 002:59:38
array rebuild time (4x1TB raid 5): 002:54:49
array migration (4x1TB R5 -> 5x1TB R5): 017:16:59
vooral die laatste vind ik bizar lang...

de 4disk array geeft de volgende resultaten:
Afbeeldingslocatie: http://images.mschol.eu/HDD_Crystaldiskmark.JPG
Afbeeldingslocatie: http://images.mschol.eu/HDD_Crystaldiskmark1.JPG
de stripe size is 64Kbytes en blocksize is 512Bytes

ik heb geen flauw idee of dit een beetje op snelheid is..
iemand die hier wat zinnings op kan zeggen?

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 11-01 23:32

Nvidiot

notepad!

Windows 7 als client van mijn Ubuntu Samba server (backend: linux softraid 5, 4x1TB Hitachi):

Afbeeldingslocatie: http://www.hueck.net/Network%20speed.PNG
102 mbyte/sec, 88.85% van m'n gigabit link in gebruik :)

Samba tweaks:
code:
1
2
[global]
    socket options = TCP_NODELAY IPTOS_LOWDELAY SO_KEEPALIVE SO_RCVBUF=40960 SO_SNDBUF=40960

Tevens de MTU op de Ubuntu machine op 4088 gezet (groter gaf vreemde issues). Op de Windows 7 machine de MTU op 9K gezet.

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 02-04 11:24
redfoxert schreef op woensdag 02 september 2009 @ 13:00:
[...]


Laat mij eens een bord met 12 SATA poorten zien dan :)
http://www.asus.com/searc...earchkey=L1N64-SLI+WS%2FB
^^ server bord maar wel 12x sata

Gigabyte EP45-DQ6 (ff geen link maar wel review)
Afbeeldingslocatie: http://hothardware.com/articleimages/item1192/big_19.jpg

edit: telde eerst toch echt 12 sata poorten :P

[ Voor 9% gewijzigd door The-Source op 03-09-2009 18:07 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Okee,

Kom ik aanzetten met 18 TB maar dit is andere koek:

http://blog.backblaze.com...uild-cheap-cloud-storage/

67 TB voor krap $8000

Afbeeldingslocatie: http://blog.backblaze.com/wp-content/uploads/2009/08/backblaze-cheap-cloud-server-storage2.jpg

En tot mijn genoegen gebouwd op drie RAID 6 arrays met (uiteraard) Debian Linux MDADM.

De truc die ze hier uithalen om het goedkoop te houden, is SATA Port Multipliers. Dit is de truc dus om van die dure raidcontrolers af te komen. Wat je nodig hebt zijn sata poorten, meer niet.

Daar heb je speciale backplates voor nodig, die nu eindelijk in de nieuwere Norco cases zit. Dan kun je 1 sata poort naar 5 poorten converteren. Dan kun je met relatief goedkope non-raid sata controllertjes per poort 5 disks aansturen. Je levert performance in maar dat is met dit soort aparatuur nooit een issue: je Gigabit is meestal de bottleneck.

Afbeeldingslocatie: http://blog.backblaze.com/wp-content/uploads/2009/08/backblaze-storage-pod-sata-cable-wiring-diagram.jpg
SATA Chipsets

SiI3726 on each port multiplier backplane to attach five drives to one SATA port.
SiI3132 on each of the three PCIe SATA cards to attach two backplanes each (six ports total)
SiI3124 on the one PCI SATA card to attach up to four port multiplier backplanes (we only use three of the four ports)

[ Voor 39% gewijzigd door Q op 03-09-2009 19:50 ]


  • campr112
  • Registratie: December 2001
  • Laatst online: 20-03 15:32
timskiej schreef op donderdag 22 oktober 2009 @ 13:09:
Is er een kleine behuizing waar een Atom moederbord met PCI kaart (SATA controller) in past en vier harde schijven? Een standaard ATX case is een optie maar is veel te groot. En ITX behuizingen hebben maar max 1 of 2 plaatsen voor HDD's.
Ik ben op het moment zoiets aan het doen, heb al een aparte topic aangemaakt hiervoor:
http://gathering.tweakers.net/forum/list_messages/1374077

Ga een SUN externe schijven kast gebruiken om het volgende te huisvesten:
1x POV Atom 330 bordje
1x Adaptec 5805 SAS controller
1x SAS Expander
2x SSD schijven van 32Gbyte voor Raid-0 parcheck ruimte
8x 1.5/2Tbyte schijven voor het archief.

Mooie van de Adaptec is dat ie de schijven uit kan zetten als ze niet nodig zijn.

Vriend van mij is ook bezig een eigen kast te maken, en die heeft even snel in Google Sketchup mijn kast er ook bij gezet (de meest linker):
Afbeeldingslocatie: http://campr2.demon.nl/gallery2/gallery/d/12761-2/Nassy-qnap-a4-campr.png

Dus: Nee het is er niet, gewoon zelfbouwen ;-)

Iemand trouwens een idee of een Atom 330 (Dual-core 1.6Ghz) een Gbit link onder Linux volkrijgt met SMB traffic?

Be more, use Linux.


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 02-04 11:24
Win7 bevalt me op het moment goed want de filetransfer gaat nu toch wel een stukje sneller en stabieler.
Afbeeldingslocatie: http://triep.eu/img/nas%20naar%20win7.png

En zoals je aan de tijdsbalk ziet is het niet iets van de 1e secondes maar pas na een paar GB de screenshot gemaakt. (piek was 120MB/s laagste 105MB/s)
Verder scheelt een lege hdd natuurlijk ook wel als daar je data op wordt geschreven (Samsung F1)
Dit is van NAS naar Client 1:1 gbit verbinding over Cat5 soepel :X

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Q schreef op vrijdag 30 oktober 2009 @ 21:08:
Weet je zeker dat je zoveel moeite wilt doen voor ZFS? Voor thuisgebruik is ZFS eigenlijk meer een speeltje en een gimmick. Maakt je keuze voor hardware misschien wat makkelijker?
Geloof me, als je eenmaal een tijd met ZFS werkt wil je nooit meer anders.. Heb nu thuis een virtuele nas met een 1TB zpool, en ik vind het geweldig.. Alleen is de performance niet echt om over naar huis te schrijven, met 12 andere guests op 1 ESX server. Sequentiele doorvoersnelheid vind ik prima (80MB/s), maar iops en latency vallen tegen. En de ruimte raakt op :)

Ik maak ook steeds vaker gebruik van ZFS features. Even een snapshot maken voordat ik weer iets ga proberen, of incrementele snapshots over een ssh pipe offsite sturen, of on-the-fly compressie voor logfile folders, etc..

Tuurlijk, ik zou wel zonder kunnen, maar ik zou niet zonder willen.. En voor mij is het 'spelen' aspect aan het uitzoeken, bouwen en gebruiken van een NAS ook een belangrijk aspect, het is mijn hobby, het gaat me niet slechts om de gigabytjes :)


Trouwens, voor de mensen die het leuk vinden, bekijk de Sun Storage 7000 systems software simulator (gratis registratie vereist) eens.. Dit is een kant-en-klare VMware image met volgens mij 16 1GB schijfjes om te demonstreren hoe de software werkt. Dat is zo'n beetje de biggest and baddest nas-interface die je ooit hebt gezien, met allerlei ontzettend gave realtime statistieken enzo. OpenSolaris is gratis, ZFS is gratis, maar FishWorks, deze software die ze daar bovenop hebben gebouwd helaas niet :'( Toch erg leuk om eens te zien (en misschien kom je dit over een paar jaar tegen in freenas-achtige distributies)

Afbeeldingslocatie: http://t3.gstatic.com/images?q=tbn:ei4_sJcg74o8NM:http://blogs.sun.com/brendan/resource/cifs-1/cifs-1-miops-crop.png%5D

Afbeeldingslocatie: http://t2.gstatic.com/images?q=tbn:-kzq08AXSYWYDM:http://www.gaeltd.com/wp-content/uploads/2008/11/b8348cae-5c42-4fdf-817f-683949a90983.jpg

[ Voor 6% gewijzigd door axis op 30-10-2009 21:47 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Kan iemand een reden verzinnen om niet voor een RPC-3216 (3U, 16 drives) te gaan t.o.v. de genoemde RPC-4220? Behalve dan natuurlijk 16 i.p.v. 20 drives?

Afbeeldingslocatie: http://www.norcotek.com/product_images/flyer/rpc3216_4.jpg

Voor zover ik kan zien passen er nog steeds gewoon full-hight kaarten in en een normale PC voeding en gebruikt het dezelfde backplanes met SFF-8087 Mini SAS connector als de 4220. Deze is ook geschikt voor 3 redundante voedingen (2+1) alhoewel ik zo snel niet kan zien of je die erbij kunt bestellen.

Enige nadeel dat ik kan zien is dat je waarschijnlijk de 80mm fans niet kunt vervangen door 120mm fans zoals dat bij de 4220 wel kan.

[ Voor 5% gewijzigd door PeterPan op 14-11-2009 19:16 ]


  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Even snel een benchmark met de default instellingen van de HP P410 RAID controller en NTFS met 32KB clustersize;

Afbeeldingslocatie: http://i48.tinypic.com/207vsjb.jpg

Dit op een 4 jaar oude P4 machine. De disks zijn vier 2TB low power Seagate SATA schijven in RAID5.

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 02-04 15:47

Shuriken

Life is all about priorities

Voor de mensen die een "domme" controller zoeken met 8 poorten, vroeg ik met af of de SuperMicro AOC-SASLP-MV8 geen betere optie is?

Kost 112 euro en is PCI-E 4x. Das toch aanzienlijk goedkoper dan een RocketRAID 3520. En een betere optie als de AOC-SAT2-MV8 met z'n verouderde PCI-X structuur.

Afbeeldingslocatie: http://www.supermicro.com/a_images/products/Accessories/AOC-SASLP-MV8.gif

[ Voor 39% gewijzigd door Shuriken op 12-12-2009 14:33 ]

I rather have a bottle in front of me, then a frontal lobotomie


  • Aapenootjes
  • Registratie: November 2003
  • Laatst online: 21-02 17:31
Tot nu toe bevalt hij wel goed ja :) 1GB cache is relax, al moet er eigenlijk nog een BBU in. Je krijgt er standaard 6 kabels bij, dat scheelt toch weer een slok op een borrel. Ik heb hem voor ik hem in de server bouwde al een half jaar in mijn gewone pc gebruikt met wat minder schijven. Dat werkte prima en behoorlijk vlotjes :) In mijn gewoon pc zitten nu 2 SSD's, dat is toch nog net wat sneller voor het OS ;)

Ik ben wel benieuwd naar de benches met 10 disks, het expanden is nu op 60%, daar is hij ondertussen 2 dagen mee bezig. Dat valt relatief gezien nog wel mee, bij een vriend van me duurde het 1 week toen hij met zijn areca naar 10 disks van 1TB expandde.

Op verzoek heb ik even wat foto's gemaakt:

Mijn bureau, met op de achtergrond mijn normale pc. Deze foto is van een maand terug, dus toen zat de raidcontroller nog in die pc.

Afbeeldingslocatie: http://i50.tinypic.com/og9evd.jpg

Mijn server:

Afbeeldingslocatie: http://i50.tinypic.com/2vw60xf.jpg

Voor de netwerk kaart gebruik ik een pci-e riser, omdat ik geen pci-e 4x slot meer had. Met wat moederbord standoff schroefjes zit hij toch nog goed vast :+

Afbeeldingslocatie: http://i46.tinypic.com/2h7fkw9.jpg

Hopelijk kunnen jullie de plaatjes zien, ik niet namelijk. Dat komt door een soort netwerkfilter apparaat wat mijn huisbaas geïnstalleerd heeft hier en helaas werkt dat ding voor geen meter, maar dat is een ander verhaal :p

Ik ga de zijkant van mijn server stacker overigens een zelfde window geven als mijn werkstation stacker. Ben er nog wel het een en ander van plan mee op dat gebied :)

En trouwens, hdtune statistieken etc komen pas als hij klaar is met expanden, dat is nu niet echt interessant.

[ Voor 8% gewijzigd door Aapenootjes op 17-12-2009 18:49 ]


  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Zijn er hier meer Norco 4220 gebruikers geïnteresseerd in de 3x 120mm fan mount van cavediver:
link op hardforum

Afbeeldingslocatie: http://i915.photobucket.com/albums/ac351/texascavediver/120mm%20Fan%20Board/DSC_0030.jpg

Afbeeldingslocatie: http://i915.photobucket.com/albums/ac351/texascavediver/120mm%20Fan%20Board/DSC_0032.jpg

Afbeeldingslocatie: http://i915.photobucket.com/albums/ac351/texascavediver/120mm%20Fan%20Board/DSC_0029.jpg

Hiermee kun je de zeer lawaaierige standaard 4x 80mm fans vervangen door 3x 120mm fans.

Prijs incl. verzeding binnen de US is $65 maar ik krijg net een quote voor verzending naar Nederland van $110.
Misschien dat we de wat samen kunnen doen om de verzendkosten wat te drukken?

[ Voor 5% gewijzigd door PeterPan op 22-12-2009 16:21 ]


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

Ik lees al een geruime tijd mee en vind dit echt een geweldige thread. Bij deze mijn bijdrage/inspiratie!

Ik heb ongeveer +/- 3 jaar met een desktop "home" server gedraaid, maar ben kort geleden overgegaan op een MKB setup ;-)

Het begon allemaal in eind 2005 en begin 2006.

Server 1: :LOCHNASSIE - 2005/2006 Server 1: P4 2,66GHz HT

2 Promise TX4 PCI kaartjes erin en Linux Software raid

5x300GB Maxtor Sata2

Afbeeldingslocatie: http://img689.imageshack.us/img689/2820/img1711large.th.jpg

Deze vervolgens uitgebreid naar 8x 300GB

Prima servertje en voldeed uitstekend.

Men wil echter meer ruimte, dus breder orienteren en naar de toekomst kijken.

Server 2: NASSIEBAL - 2007

Stap 1 was een grotere betaalbare behuizing te vinden.

Mijn keuze was toen gevallen op de Chieftec Mesh CA-01SL-SL-B. In mijn optiek nog steeds een ideale "low-cost" servercase, Ik heb van deze case ruim 2 jaar VEEL plezier van gehad.

Afbeeldingslocatie: http://img710.imageshack.us/img710/9848/img1702large.jpg

Afbeeldingslocatie: http://img268.imageshack.us/img268/5255/img1704large.jpg

Ik zou geen tweaker zijn als de kast niet zou worden gemod!

De spinnenwebben verwijderd om de fans stiller te maken. Ook heb ik filter matjes gemonteerd tegen de stof inname.

Ook heb ik een 4 in 3 bay gemonteerd boven de voeding. Al met al resulterend in een case welke 20 hardeschijven kan huisvesten!

Afbeeldingslocatie: http://img684.imageshack.us/img684/4442/img1709large.jpg

Server 1 vs. Server 2

Afbeeldingslocatie: http://img684.imageshack.us/img684/6585/img1710large.jpg

Vervolgens al het oude materiaal overgeplaatst.

Afbeeldingslocatie: http://img268.imageshack.us/img268/1322/img1712largee.jpg

Vervolgens is na +/- 1 jaar de kast uitgebreidt met een zelfgefabriceerde aluminium 12 in 1 casing voor harde schijven, op de plaats waar toen de 4 in 3 zat (heb hier helaas geen foto van). Dit gaf de chieftec een totale capaciteit van 28 schijven! Ook heb ik toen direct een upgrade uitgeveord en een Asus P5e-ws3 bord aangeschaf en eveneens C2D 6300. Als slagroom op de taaart een ARECA 1280ML 24 poorts raid controller aangeschaft incl. 2 GB. Ook werden er 12 x 500 GB Samsung schijven aangeschaft om de 12 in 1 bay op te vullen.

Uiteindelijk is deze server uitgekomen op 10x 1 TB (Raid 6) en 12x 500GB (Raid 6) + 1x 120 GB boot (Raid 1).

Resulterend in 16 TB (13 GB aan bruikbare opslag capaciteit).

Begin 2009 was echt de druppel. Het werd nodig tijd om mijn computer park aan te pakken. Het was op zolder niet meer te doen qua warmte, om alles netjes te managen en de beschikbare ruimte. Ook had ik de nodige problemen met de NAS. Uitvallen van schijven beknelde kabels, gamele voeding. De setup was niet meer betrouwbaar en ik ergerde me groen en geel aan deze situatie.

Inmiddels was mijn serverpark "hobby" uitgegroeid tot extreme proporties. Hieronder staat een overzicht van begin 2009.

- Nas (Openfiler), C2D 6300, 2GB, 12x500GB, 10x 1TB (beide Raid6);
- Firewall / Multiwan (pfSense), Athlon 750MHz, 512 MB, 40GB;
- Gateway (clarkconnect), P4 1,7GHz, 1GB, 2x 120GB (Raid 1);
- Download server, P4 2,66GHz (@2,82 GHz), 2GB, 2x 1TB;
- HTPC, C2D Q6600, 2GB, 300GB;
- Werk PC, X2 4200+, 2GB, 2x 74GB Raptor (Raid 0);
- APC Smart UPS 3000
- Dell 2716, 16 Poort gigabit switch;
- Dell 2724, 24 Poort gigabit switch.

En dan laat ik maar het stroomverbruik achterwegen....

Al met al werd het tijd voor een drastische verandering.




Server 3 - Dreadnought & Razorback - 2009

Ik had de volgende 3 doelstellingen.

1. minder PC's, zelfde functionaliteit;
2. beter management, op de toekomst gericht;
3. verplaatsing van het computerpark van de zolder naar de garage (ruimte).

Dus aanpakken die handel!

Stap 1 orienteren mogelijkheden duurde ongeveer 2 maanden

Stap 2 spullen verzamelen duurde 4 maanden

Stap 3 bouwen en configureren 1 maand (2 weken van mijn vakantie aan opgeofferde)

Ook heb ik geleerd van mijn verleden en had ik besloten om de portomonnae te trekken en het proejct groots aan te pakken. Ik heb gekozen voor A-Merk producten van goede kwaliteit en staat van dienst.

Om doelstelling 1 en 2 te behalen:

Virtualisatie

De bovenstaande machines heb ik gevirtualiseerd op 1 server, (met uizondering van de NAS en Dell 2716 switch). Ik kan zo gemakkelijk het overzicht behouden en waar nodig nieuwe machiens installeren. Gezien de machine een C2Q Q9550 als kern heeft en 8GB werkgeheugen heb ik hier voldoende overcapaciteit.

Om doelstelling 3 te halen heb ik gekozen om de machines samen te voegen in 1 behuizing. Je komt dan automatisch uit op de industriele standaard van een 19 inch rack.

Uiteindelijk is de keus gevallen op als lichaam een 42U HP Serverrack te kiezen.

Afbeeldingslocatie: http://img693.imageshack.us/img693/9366/hpdl360g4rackfront.jpg

Ook heb ik een APC PDU aangeschaf om alle voedingsnoeren netjes te monteren.

Voor de virtualisaite van de bovenstaande machines heb ik met een machine samengesteld gericht op de toekomst. Het SuperMicro board is werkelijk fantastich. Ook levert SuperMicro SERVICE! Ik had eerst problemen met ESXi op dit board (VT-x, VMDirectPath). Na een mail richting SuperMicro een Beta BIOS ontvangen welke alle problemen heeft verholpen. En dit alles binnen 24 uur!

Server: Dreadnought

- Supermicro C2SBX;
- Intel C2Q 9550 (@stock);
- Arctic cooling Freezer 7 Pro;
- 8GB DDR3 ECC Kingston Valueram;
- 4GB USB Bootstick (ESXi 4.0);
- 250GB Samsung Sata2 (Datastore Virtual Machines);
- Corsair CMPSU-850HX, 850 Watt;
- Codegen 4u-600
- 1x Intel 1000 MT PCI-X 4x 1 GBit;
- 2x Intel 1000 PT PCI-e;
- 1x Intel 1000MT onboard;
- Scythe Flex fans;
- Operating system, VMware ESXi 4.0.

Hier een screenshot van de ESXi console

Afbeeldingslocatie: http://img46.imageshack.us/img46/7508/vsphere.jpg

Gezien mijn problemen met de vorige NAS heb ik ook hier besloten om het professioneel aan te pakken.

De SAN is opnieuw opgebouwd met de volgende componenten:

SAN Razorback 24 TB Raid6:

- Asus Serverclass motherboard P5BV-C/4L;
- 8 GB DDR2 ECC Kingston Valueram;
- Intel C2D E8400 (heeft zojuist een E6300 vervangen);
- Arctic cooling Freezer 7 Pro;
- Areca 1280 ML, 24 poorts Sata2 controller, 2GB DDR 2 ECC;
Norco 4020 4U 20 bay servercase;
- Samsung slimline DVD brander;
- Corsair CMPSU-750TX, 750 Watt;
- Boot Array: 2x300GB Maxtor Raid 1;
- Array 1: 12x1TB Western Digital RE3 (@ Raid6);
- Array 2: 12x1TB Gemeleerd gezelschap van desktop schijven (@ Raid6);
- Intel 1000VT PCI-e 4 x 1Gbit;
- Marvell Onboard 4 x 1 Gbit;
- Scythe Flex fans;
- Operating system, Windows Storage Server 2008.

De oplettende lezer heeft gezien dat de 1280ML een 24 poort controller is. Echter heeft de Norco behuizing maar plaats voor maximaal 20 schijven. Ik heb deze behuizing dan ook gemodificeerd met een extra interne rail (achter de 4 fans). Op deze rail heb ik 6 extra schijven gemonteerd. Totaal 42 KG, schoon aan de haak. Om deze aanvulling koel te houden heb ik eveneeens een extra 8cm in de linker PCI sloten gemonteerd.

Areca Webmanagement:

Afbeeldingslocatie: http://img132.imageshack.us/img132/6453/areca.jpg

Ook heb ik even een bench voor jullie gedraaid, gelet wel dat de SAN hier in gebruik is (fileserving en download) en er dus kleine dipjes zijn waar te nemen

Array 1

Afbeeldingslocatie: http://img406.imageshack.us/img406/5981/hdtach2.jpg

Array 2

Afbeeldingslocatie: http://img41.imageshack.us/img41/1066/hdtach1.jpg

En een windows copy van array 1 naar array 2:

Afbeeldingslocatie: http://img195.imageshack.us/img195/7520/arecawindows.jpg

Om overbelasting op de locale LAN op te vangen heb ik deze aangesloten met 2 lijnen op 802.3e Dynamic Link aggregation. Het hart van de installatie vormt een Dell 6224 switch. Gezien de nogal complexe infrastructuur (5 Wan's en Local Wan) is een geavanceerde switch een musthave! Gezien mijn download server (en alle overige servers) op dreadnought draaien is bandbreedte wel gewenst. Hiervoor heb ik zes Gbit lijnen gebundeld d.m.v. MPIO (Dedicated Vlan met Dreadnought, bandbreedte in totaal 6Gbit). De NAS wordt aangeboden d.m.v. iSCSI aan Dreadnought.

Totaal trekt het geheel op bij vollast 600 Watt en idle rond de 450 Watt.

Backup server (mirror van Dreadnought)

Athlon64 X2 4200+
DFI Lanparty Nforce4
4GB Kingston
250GB Samsung

Om het onderhoud verder te vergemakkelijken heb ik alle 3 de kasten voorzien van Kingslide slidingrails. Zo kan ik gemakkelijk alle kasten uit de kast schuiven en zo onderhoud plegen, upgraden etc.. De UPS is voorzien van een sliding tray om dezelfde bovenstaande reden.

Ik kan nog wel een heel verhaal schijven over de voordelen van virtualisatie, infrastructuur en overige zaken, maar daar zitten wij niet op te wachten, aanschouw het resultaat:

Afbeeldingslocatie: http://img38.imageshack.us/img38/6330/img5485large.jpg

Afbeeldingslocatie: http://img38.imageshack.us/img38/9964/img5482large.jpg

Afbeeldingslocatie: http://img689.imageshack.us/img689/9427/img5472large.jpg

Afbeeldingslocatie: http://img69.imageshack.us/img69/7272/img5479large.jpg

Afbeeldingslocatie: http://img69.imageshack.us/img69/8489/img5478large.jpg

Afbeeldingslocatie: http://img710.imageshack.us/img710/7986/img5471large.jpg

Afbeeldingslocatie: http://img189.imageshack.us/img189/1313/img5473large.jpg

Afbeeldingslocatie: http://img192.imageshack.us/img192/9818/img5475large.jpg

Afbeeldingslocatie: http://img684.imageshack.us/img684/8126/img5476large.jpg

Afbeeldingslocatie: http://img38.imageshack.us/img38/8104/img5466large.jpg

Afbeeldingslocatie: http://img38.imageshack.us/img38/6885/img5480large.jpg

En als laatste twee videos:

Video 1

Video 2

Op dit moment dus 24 TB (20 TB bruikbare capaciiteit).

Volgende stap is de 1 TB's uit te faseren en over te gaan op 2 TB schijven.

Op naar de 48 TB. . . . . .



Dit is het resultaat als bij een N*RD zijn hobby uit de hand loopt..

[ Voor 32% gewijzigd door lampie1979 op 24-12-2009 04:54 . Reden: Youtube links ]

They call her... c*ck juggeling Thunderc*nt!


  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 20-03 23:49
haha, leuk dit topic..

nu ik zie dat er andere mensen zijn die net zo gek zijn als ik durf ik ook te posten ;)

zal straks eens nieuwe foto's maken;

ben net als mijn voorgangers al vele malen opnieuw begonnen met de meest bizarre constructies..

verschillende kaartjes gehad, Dell PERC 5I kaartjes, XFX kaartjes, moederbordjes van consumenten spul tot aan 2e hands ebay spul..

en toen had ik het gehad.
dankzij een fijne vakantiedonatie van mijn toenmalige werkgever, en een tekort aan een vriendin op dat momen, heb ik er eens goed geld in gestoken, evenals tijd en moeite :)

op zolder is een geluidsdichte ruimte gebouwd, met daarin een zwevende vloer met een Minkels 18U serverrack.
aanvoer en afvoer vind plaats door een dakdoorvoer met 2 100m3/uur fans...

wat is het dan geworden?
behuizing is klaar
Afbeeldingslocatie: http://i594.photobucket.com/albums/tt22/freakstar1/th_IMG_0390.jpg
geluidslekken dichtpurren
Afbeeldingslocatie: http://i594.photobucket.com/albums/tt22/freakstar1/th_IMG_0394.jpg
aan en afvoer van netwerkkabel en electra icm aanvoer frisse lucht
Afbeeldingslocatie: http://i594.photobucket.com/albums/tt22/freakstar1/th_IMG_0399.jpg
rack!
Afbeeldingslocatie: http://i594.photobucket.com/albums/tt22/freakstar1/th_IMG_0393.jpg
tijdelijke setup
Afbeeldingslocatie: http://i594.photobucket.com/albums/tt22/freakstar1/th_IMG_0398.jpg
ondertussen via Tweakers deze setup wat aangepast. in de foto's staat nog niet de aan/afvoer van de ventilatie, nog geen nieuwe switch, en de oude schijven zitten nog in de server.

momenteel draait de volgende setup.
bak:
Mordor
doel : storage en virtualisatie
chassis: Supermicro SC846. redundant 900 watt PSU, 24 hot swap bays, 2 interne bays
motherboard: Supermicro X7DWN+
memory 16X4GB Reg Ecc kingston memory, 64 gb in total
Dual Quadcore Xeon E5420
Areca 1280ML Raid Controller met 2 GB memory ECC
24 X 2 TBWestern Digital RE4-GP disk.
2 X WD Raptor 36 GB

storage config:
2 X raptor in RAID 1 using onboard raid voor host OS
24 X 2 TB WD RE4-GP in RAID 6, 44 TB usable storage

dit alles wordt geswitched door een Linksys by Cisco SGE2010P switch, 48 poorts met PoE..


server OS:
Server 2008 R2 Enterprise
virtuele machines:
2 x Domain Controller
Exchange 2010 consolidated setup
Exchange 2010 Edge Server
Forefront Threat Management Gateway
Download Gebakje
WMV HD machine (media via UPNP delen met Xbox 360, WMV om precies te zijn)
Test Vista machine
Test Windows 7 machine

ik wil dus wel even de storage trofee overnemen ;)

maar na al dat gerotzooi met zoveel kleine losse machines, is dit zoveel practischer. 1 machine, 1 dikke switch en UPS erbij.. 600 WATT is het verbruik van het ding, inclusief ventilator, switch, server, alles dus..
die losse bakjes die ik destijds geregeld gebruikte kwamen daar vaak met gemak overheen..

virtualisatie roeleerd dus :)

60 TB can not be enough


  • eX0duS
  • Registratie: Juni 2001
  • Laatst online: 26-03 12:51
Ik heb het vrij simpel gehouden:

Ten eerste, een Intel DG33BU moederbord:
Afbeeldingslocatie: http://cache-www.intel.com/cd/00/00/36/20/362044_362044.jpg

Ik heb eerst wat gelezen welk moederbord zou werken in combinatie met vmware esxi, deze zou het moeten kunnen.

Een Intel E5200, geen ondersteuning voor (echte) virtualisatie, maar op dat moment de beste keus.

Uiteindelijk staat er gewoon Windows 7 op.

Verder had ik 2 x 1 TB Samsung Spinpoint schijven, welke ik netjes in onderstaande RAID oplossing gezet heb:
Afbeeldingslocatie: http://www.deonetstorage.com/uploads/pics/v8_01.jpg
Volgens de site alleen RAID1, maar ik kon deze uiteindelijk ook in RAID0 zetten.

Wel "tricky", want een schijf kapot, alle data weg... Maar uiteindelijk staat er niet echt belangrijke data op, wel veel films, welke ik afspeel via mijn mede8er...

Uiteindelijk was dit een mooie oplossing. Ik hoefde zo niet via het moederbord een RAID array aan te maken (heeft het ook niet eens), maar ik kan wel 2 schijven kwijt, en heb toch 2 TB...
Tegenwoordig zijn er uiteraard ook 2 TB schijven te koop, maar op die manier kun je wel mooi een 4 TB partitie maken.

Uiteindelijk heb ik wel niet echt RAID0 snelheid. Want één zo'n schijf haalt ongeveer 120 mb/sec lezen, maar in deze Deonet V8, halen twee stuks dit ook.

Ik heb ook eens twee van deze apparaten in RAID0 gezet, dus twee x RAID0, in RAID0, en dit werkte ook prima. Zo kun je wel een flinke opslagcapaciteit creeren, en het ziet er ook nog eens leuk uit, met het LCD display er op.

[ Voor 7% gewijzigd door eX0duS op 26-12-2009 17:09 ]


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

De beloofde foto's:

Voorkant case

Afbeeldingslocatie: http://img26.imageshack.us/img26/4115/img5508medium.jpg

Overview case

Afbeeldingslocatie: http://img163.imageshack.us/img163/9124/img5509medium.jpg

Areca 1280ML

Afbeeldingslocatie: http://img682.imageshack.us/img682/7271/img5511medium.jpg

Verankerde constructie

Afbeeldingslocatie: http://img403.imageshack.us/img403/460/img5513medium.jpg

Beugel constructie. In hoogte verstelbaar (ondersteuning van het extra gedeelte)

Afbeeldingslocatie: http://img109.imageshack.us/img109/3021/img5515medium.jpg

3e extra Scythe S-Flex slotfan

Afbeeldingslocatie: http://img682.imageshack.us/img682/9942/img5516medium.jpg

Aan de linkerkant de 2 Boot disks in Raid 1 en rechts 4 WD RE3's van Array 1.

Afbeeldingslocatie: http://img403.imageshack.us/img403/4731/img5517medium.jpg

Its a tight fit

Afbeeldingslocatie: http://img191.imageshack.us/img191/6294/img5518medium.jpg

Lichtshow ;)

Afbeeldingslocatie: http://img109.imageshack.us/img109/4219/img5520medium.jpg

Afbeeldingslocatie: http://img163.imageshack.us/img163/757/img5521medium.jpg

They call her... c*ck juggeling Thunderc*nt!


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Ah Super Lampie1979.

Ongekend dat het allemaal past, zo zeg. Alleen die extra Scythe S-Flex slotfan zou je misschien nog eens "voor het oog en voor de mooi" kunnen vervangen door een 'echte' slotfan, maar verder sta ik te kijken wat je in die kast hebt weten te krijgen. Lijkt me dat daar nog wel wat werk in heeft gezeten om het pas te krijgen.

Hangen die schijven aan 1 schroef? Geen issues met trillingen?

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/titanslotfan.jpg

Die achterste fan is dus een extra zware die 2 slots inneemt. Ik heb beide in mijn kast gestopt. De kleine koelt de highpoint en de grote fan is puur voor de airflow.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco6.jpg

Doe maar alsof je de ductape niet ziet... :X

[ Voor 38% gewijzigd door Q op 27-12-2009 00:54 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Helder verhaal. Ik heb het bovenaf ook dicht getaped voor de airflow.

Ik heb zoals je inmiddels ziet wel slotfans toegepast, maar dat moest (koeling raid kaart) en verder geen ruimte voor nog een 80 mm fan er naast. Dat slotfans niet goed zijn voor de airflow wist ik niet. Een 80 mm fan is misschien wel effectiever, dat geloof ik wel. Maar het doel om meer lucht door de kast te jagen bereik ik denk ik wel zodat die schijven nog wat koeling krijgen.

Vol is qua kast wel een understatement, maar je hebt het wel voor elkaar. Maar je kunt nog verder als je wilt. Ik heb als boot schijf 2x GB laptop schijfjes in RAID 1. Met jouw oplossing kun je de huidige 3.5" bootschijven ook nog aan je array knopen... ;)

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/norco04.jpg
(oudere foto)

[ Voor 26% gewijzigd door Q op 27-12-2009 01:17 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Lijkt me niet. Met server grade hardware zou ik niet zo bang zijn. Met consumenten spul wordt dat al iets anders. Maar als je een beetje knappe hardware koopt is dat risico wel beperkt. Ik heb brand/oververhitting vanaf dat ik met computers begon nog nooit meegemaakt.

Deze was van iemand anders, die zich afvroeg waarom de pc telkens uitviel, maar dat is niet echt een issue hier denk ik:

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/dirty/Thumbnails/10.jpg

Zelf zet ik mijn NAS gewoon uit. Met wake on lan (WOL) zet ik 'm aan op de momenten dat ik 'm nodig heb.

Maar wat moet je anders dan dat risico accepteren, of wat doe jij om je er tegen te beschermen?

[ Voor 42% gewijzigd door Q op 27-12-2009 01:27 ]


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

Q schreef op maandag 28 december 2009 @ 11:56:
DJ-Visto, Ik denk dat je beter het advies van ItsValium ter harte kunt nemen. Tenzij je heel handig bent gaat het je niet lukken om binnen afzienbare tijd voldoende geld bij elkaar te sprokkelen om een werkend systeem neer te zetten.

Je kunt makkelijk beneden de 900 euro blijven als je een 'gewone' kast neemt zoal een coolermaster stacker, of een Chieftech. Voor 15 euro heb je zo'n 4in3 module + ventilator zodat je in je kast ook nog disks in 5.25 sloten kwijt kunt.

Tegen die tijd dat je het potentieel van een 4020 kunt en wilt gaan benutten is er al lang weer een betere kast en dan kun je die waarschijnlijk ook beter betalen.

USB sticks als bootschijf vind ik zelf niet top. Die dingen gaan stuk. Beter is om 1 of 2 (RAID1) laptop schijfjes van 40 euro ofzo aan te sluiten.

14? Op die leeftijd zat ik achter een 286. * Q wordt oud. ;(
Als toegewijde DIY Nasser wil ik graag eenzelfde advies uitbrengen.

Kijk b.v. in mijn post op pagina 37:

Afbeeldingslocatie: http://img684.imageshack.us/img684/6585/img1710large.jpg

Afbeeldingslocatie: http://img268.imageshack.us/img268/1322/img1712largee.jpg

Een geweldige kast voor weinig geld, met dezelfde diskruimte als een Norco (als je handig bent zelfs meer!)

Dit geeft je voldoende vrijheid om te spelen en te sparen.

Ik zie zojuist al een mooie voeding voorbij komen!

V&A aangeboden: Corsair TX750W

[ Voor 5% gewijzigd door lampie1979 op 28-12-2009 13:46 ]

They call her... c*ck juggeling Thunderc*nt!


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

Er komt een kleine upgrade aan:

Afbeeldingslocatie: http://www.apcmedia.com/resource/images/500/Front_Left/649B100A-5056-9170-D382B44028A241EC_pr.jpg

Met als insteek de Virtual Machine Infterface (VMi) de taak opzich te nemen om alle VM af te sluiten bij een power failure. Dit geeft mij meer vrijheid gezien ik geen VM os als server hoef aan te wijzen. Bijkomstigheid is de temperature monitoring. Oja ik heb zojusit gekeken, maar gezien mijn load kan het gehele rack +/- 55 minuten doordraaien bij stroomuitval. }:O Let the madness roam free..

[ Voor 21% gewijzigd door lampie1979 op 28-12-2009 13:58 ]

They call her... c*ck juggeling Thunderc*nt!


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Die Chieftech van Lampie is nog mooi ook, vind ik dan.:

Afbeeldingslocatie: http://whiteportal.ru/uploads/posts/1193132284_ca01bbsl.jpg

Het kleinere broertje kan nog steeds 10 disks aan en is ook super.

Afbeeldingslocatie: http://www.alternate.nl//pix/prodpic/450x450/t/tqxc28.jpg

Ik begon ooit met 4x 500 GB in RAID 5 in deze kast en deze draait nu nog als test bak.

Die kast van Lampie is maar 10 of 20 euro duurder dus als je de ruimte wilt hebben. Moet lukken.

[ Voor 12% gewijzigd door Q op 28-12-2009 14:03 ]


  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 15-03 07:47

Midas.e

Is handig met dinges

Na het zien van alle 10+TB nasjes zal ik mijne ook maar eens posten,

Het begon ooit met 2x160GB in raid0, dat werd al snel 6x160GB en 5x250GB. Inmiddels is dat allemaal vervangen door een nieuwe server:
Afbeeldingslocatie: http://hacktheplanet.nl/img/srv06.jpg

Het hele spul is gebaseerd op een Supermicro C2SBX+ mainboard, een areca 1170 (24 port) en een lian li pc 343b. Hieraan hangen 12x1TB Hitachi's en 12x1.5TB Seagates.
Beide arrays draaien in raid6, raw opslag is ruim 30TB.
De nas wordt gebruikt als NFS store voor mn eigen virtualisatie( zie de ml110 ernaast) en mn eigen files.

Hacktheplanet / PVOutput


  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 15-03 07:47

Midas.e

Is handig met dinges

nero355 schreef op donderdag 31 december 2009 @ 14:32:
[...]

Hahaha prachtig !!! Mijn volgende systeem gaat ook in die kast en wordt met waterkoeling (rechterkant ervan) en net als bij jou met hotswap units uitgerust worden :D

Dit topic wordt steeds leuker zo :Y) Keep up the good work !!
Denk daar goed over na, de kast heeft aan de binnekant een stuk minder ruimte dan ik verwachte.
Afbeeldingslocatie: http://hacktheplanet.nl/img/serv07.jpg

Hacktheplanet / PVOutput


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
DJ-Visto schreef op vrijdag 01 januari 2010 @ 22:10:
Ik denk dat het tijdelijk ook wel lukt met mijn X2 7850, als processor, hoeft geen X3 denk ik in, zodat ik voor wat minder kan aanschaffen, mijn idee over dit: 2x 1TB in hardware RAID0 zodat ik 2TB drive krijg, zodat die in mijn RAID5 er bij kan. Kan dat dan?
Als je Linux Software RAID gebruikt kan dat. Maar dan moet deze virtuele 2 TB disk net zo groot zijn als een echte, anders niet. Het beste is om dan de andere echte 2 TB disks ietsje onder te partitioneren of iets minder te gebruiken.

Ik heb iets vergelijkbaars ooit gedaan:

Afbeeldingslocatie: http://2.bp.blogspot.com/_1tZXi-PpPDE/SJ7S_gQ3RyI/AAAAAAAAAAM/1slri-UilCs/s320/raid6scheme.png

Zie hier wat info.

[ Voor 26% gewijzigd door Q op 01-01-2010 23:42 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Vraag aan de Norco bezitters.

Ik heb een scriptje gemaakt dat de temperatuur van iedere disk weergeeft op de positie in het chassis.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/drivetempcolour.jpg

Zoals je kunt zien blijven de bovenste disks relatief koel en hebben de middenste en onderste disks het relatief warm. Het temperatuursverschil tussen de koelste en warmste disks is 8 tot 10 graden.

Het gaat mij niet zozeer om de absolute waarden maar meer om de verschillen. In dit (echte) voorbeeld zijn de waarden hoog omdat de machine met nog een server in een kleine kamer staat met de deur dicht.

Ik gebruik de stock Norco ventilatoren en heb verder niets aangepast. Hooguit achterin nog een paar slot fans. Verder heb ik de gaten in de fan mount onderin afgesloten omdat ik meen dat dit ten gunste is van de airflow.

Mijn vraag is of dit temperatuurbeeld vergelijkbaar is of dat er minder verschillen zijn / er een evenwichtiger beeld is.

[ Voor 6% gewijzigd door Q op 03-01-2010 03:52 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 08:07
De schijfruimte in mijn server begint op te raken, dus ben ik al een tijdje aan het kijken naar een NAS oplossing. De NAS is deels bedoeld voor storage, voorlopig met 4 x 1.5 TB schijven in RAID5. Aangezien deze raidset nog wel moet kunnen groeien, heb ik gekozen voor een Supermicro 8x SATA controller. Hardware raid functionaliteit heb ik niet nodig, ik wil een software raid gaan maken met OpenFiler als OS wat op het 2.5" schijfje komt te draaien.
Het moederbord is gekozen zodat ik later eventueel nog een controller kan toevoegen als ik meer dan 8 schijven nodig heb.

Verder wil ik mijn huidige 4 x 500GB schijven aan de SATA controller van het moederbord hangen en als een tweede software RAID5 set configureren en via iSCSI aanbieden aan een ESXi of Hyper-V box.

Met bovenstaande eisen/wensen in gedachte, kwam ik dan tot de volgende configuratie:

Afbeeldingslocatie: http://tweakers.net/ext/f/fCawW2rqFu1qZygR4ooQUp6j/full.png

Genoeg die-hards hier die er eens een blik op kunnen werpen denk ik en misschien nog aanbevelingen/verbeterpunten zien?

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

Tijd voor wat pics!


De koerier bracht mij een APC9619 Management kaart.

Afbeeldingslocatie: http://img189.imageshack.us/img189/3912/img5546medium.jpg

Afbeeldingslocatie: http://img254.imageshack.us/img254/7780/img5548medium.jpg

Afbeeldingslocatie: http://img51.imageshack.us/img51/8084/img5547medium.jpg

Installeren

Afbeeldingslocatie: http://img254.imageshack.us/img254/2135/img5549medium.jpg

Geinstalleerd in de APC

Afbeeldingslocatie: http://img709.imageshack.us/img709/9083/img5550medium.jpg

De APC Temperatuursensor

Afbeeldingslocatie: http://img707.imageshack.us/img707/9730/img5559medium.jpg

Afbeeldingslocatie: http://img254.imageshack.us/img254/1469/img5558medium.jpg

Bekabeling vanuit de switch naar alle apparatuur

Afbeeldingslocatie: http://img31.imageshack.us/img31/2710/img5557medium.jpg

Afbeeldingslocatie: http://img690.imageshack.us/img690/5728/img5556medium.jpg

Afbeeldingslocatie: http://img690.imageshack.us/img690/5728/img5556medium.jpg

19 inch contactdoos

Afbeeldingslocatie: http://img189.imageshack.us/img189/4627/img5554medium.jpg

Kabels, kabels en kabels ;-)

Afbeeldingslocatie: http://img707.imageshack.us/img707/8659/img5553medium.jpg

Afbeeldingslocatie: http://img707.imageshack.us/img707/4295/img5552medium.jpg

They call her... c*ck juggeling Thunderc*nt!


  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Na een aantal weken test draaien in een oude Dell Precision 370 hangt nu alles aan het uiteindelijke Intel server moederboard (S3200SH serie, S3210SHLC) met Intel E7600 en 2GB ECC geheugen:

Afbeeldingslocatie: http://i45.tinypic.com/orm8w3.jpg

Verder:
-HP Smart Array P410 RAID controller
-4 stuks 2TB Seagate LP SATA disks (ik heb er 6 in totaal maar nu 4 aangesloten) in RAID5
-Corsair HX650W modulaire voeding.

Het Intel board heeft meerdere PCIe aansluitingen zodat ik later eventueel een HP SAS expander kaart kwijt kan om meer dan 8 disks aan de Smart Array controller te kunnen hangen. Verder heeft het board 2 Gbit Ethernet aansluitingen en onboard video. Op eBay te vinden voor ~€100 :9

De behuizing ben ik nog niet uit zoals je kunt zien :)
Ik wilde in eerste instantie direct met de Norco 4220 aan de slag maar ga denk ik als tussenoplossing eerst op zoek naar een niet al te dure (~€100) tower behuizing waar ik 8 schijven in kwijt kan.

[ Voor 14% gewijzigd door PeterPan op 08-01-2010 08:08 ]


  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-02 12:36

lampie1979

Hoepla!

PeterPan schreef op donderdag 07 januari 2010 @ 23:21:
Na een aantal weken test draaien in een oude Dell Precision 370 hangt nu alles aan het uiteindelijke Intel server moederboard (S3200SH serie, S3210SHLC) met Intel E7600 en 2GB ECC geheugen:

[afbeelding]

Verder:
-HP Smart Array P410 RAID controller
-4 stuks 2TB Seagate LP SATA disks (ik heb er 6 in totaal maar nu 4 aangesloten) in RAID5
-Corsair HX650W modulaire voeding.

Het Intel board heeft meerdere PCIe aansluitingen zodat ik later eventueel een HP SAS expander kaart kwijt kan om meer dan 8 disks aan de Smart Array controller te kunnen hangen. Verder heeft het board 2 Gbit Ethernet aansluitingen en onboard video. Op eBay te vinden voor ~€100 :9

De behuizing ben ik nog niet uit zoals je kunt zien :)
Ik wilde in eerste instantie direct met de Norco 4220 aan de slag maar ga denk ik als tussenoplossing eerst op zoek naar een niet al te dure (~€100) tower behuizing waar ik 8 schijven in kwijt kan.
Waarom niet de ANTEC SLK3800? Ik heb deze toendertijd geselecteerd op:

- Capaciteit voor minimaal 8 HD's;
- Compact;
- 120mm ventilatoren (grote airflow en STILTE!);
- Prijs/Prestatie;
- Strakke vormgeving zonder toeters en bellen.

In mijn optiek een ideale kast voor jou toepassing? Je kan hier een zeer comapcte thuisserverbehuizing van maken met nog capaciteit voor uitbreiding. De kast heeft eveneens een afsluitbare voorkant (deur) en stoffilter.

Afbeeldingslocatie: http://img684.imageshack.us/img684/6585/img1710large.jpg

Afbeeldingslocatie: http://img689.imageshack.us/img689/2820/img1711large.jpg

In totaal heb je plek voor 11 HD's en een full-size CDROM drive.

Gezien mijn migratie naar een 19 inch serverkast heb ik nog twee van deze behuizingen staan.. Indien geinteresseerd mag je deze behuizing inclusief een 4 in 3 bay voor een zacht prijsje overnemen (in nieuwstaat zonder ook maar 1 krasje!). Ik heb zelfs de doos nog in mijn bezit. Stuur me een mailtje indien geinteresseerd.

They call her... c*ck juggeling Thunderc*nt!


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Afbeeldingslocatie: http://tweakers.net/ext/f/b6LL4dNvhcLjp7XWlQQwFFJ6/thumb.jpg

Jeej mijn HP Smart Array P400 zit er in, moet alleen nog een beter bracket fixen(aangezien hij nu afentoe niet herkend word..). Overgenomen van Duck zeer aardige gozer en zeer behulpzaam! En natuurlijk [Verwijderde gebruiker] die mij op het idee heeft gebracht en natuurlijk samen met hem de kabels ga kopen!

Voor de geintresseerde de kabels komen vanaf dealextreme. Nu nog een nieuwe kast, dat als eerst! >:)

  • bum
  • Registratie: Juli 2001
  • Laatst online: 18-02 11:47

bum

Tja, zo'n RPC-4220 is natuurlijk maar een laf bakje vergeleken met dit dingetje van Chenbro 8)
Afbeeldingslocatie: http://www.chenbro.nl/assets/2009/05/22/systn851533315.jpg
(Overigens lijken ze wel uit dezelfde fabriek te komen??)

Hebben jullie je Norco cases zelf geïmporteerd (wat was de uiteindelijke prijs?) of is er in Europa ook nog aan te komen? Zit een beetje tegen shipping, invoerrechten en BTW aan te hikken.

HP Zbook G8 | Synology DS1511+


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Ik kwam nog iets leuks tegen:

Afbeeldingslocatie: http://usa.chenbro.com/assets/2009/04/27/systn0745072157.jpg

48 drives van 2,5". Er bestaan 1 TB 2.5" schijven, dus dat is ruwweg 48 TB.
Dat is tevens 48 * ~200 euro dus euh... Nee.

Maar toch. Het is een idee.

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Ik heb op eBay een HP SAS Expander kaart gekocht maar ik krijg er geen leven uit.
Heeft iemand interesse om mijn kaart eens te proberen in zijn setup (b.v Norco 4220 eigenaren)? Je sluit de expander aan op je RAID controller middels 1 of 2 mini SAS SFF-8087 kabels en vanaf de expander kaart ga je met mini SAS SFF-8087 kabels naar de backplanes van je behuizing (of eventueel met een mini SAS naar SATA breakout kabel).

Afbeeldingslocatie: http://i47.tinypic.com/20i8cj9.jpg
Afbeeldingslocatie: http://i49.tinypic.com/2r2vcyq.png

Hij zou met de meeste SAS geschikte RAID controllers moeten werken (Adapect, LSI, Areca). Je hebt een vrij PCIe slot nodig. Mini SAS kabels en een breakout SAS->SATA kabel kan ik er wel bij lenen.

[ Voor 18% gewijzigd door PeterPan op 19-01-2010 08:51 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Om eventuele disk problemen aan te zien komen heb ik wat lopen scripten. Tot nu toe kon dat scriptje alleen de temperatuur van de disks laten zien, maar SMART heeft allerlei waarden die mogelijke doem voorspellen.

Temperatuur:

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/drivetempcolour.jpg

Nu heb ik het scriptje eens aangepast en wat dynamischer gemaakt. Het scriptje kan nu in dezelfde layout ook willekeurige SMART waarden laten zien.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues.jpg

Dit is de waarde Hardware_ECC_Recovered. Het ziet er naar uit dat er een relatie is tussen warmte en deze errors.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues1.png

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues3.png

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues4.png

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues5.png

Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/smartvalues6.png

Maar nu is het zo dat zes disks uit mijn oude server komen. Dat kun je ook mooi zien aan de Power on Hours. En dat zijn ook net de disks die in het warmere deel van de server zitten.

Maar even belangrijker: weet iemand hier iets over Enlightenment?

[ Voor 32% gewijzigd door Q op 25-01-2010 22:46 ]


  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

Dadona schreef op dinsdag 09 februari 2010 @ 08:56:
Heeft iemand een mooi adresje voor goede (Over-Engineered) miniSAS-SATA kabels? Ik krijg echt jeuk van de kabels die ik nu heb. De sleeve ziet er leuk uit, maar zodra het naar de individuele SATA kabels gaat krijg je het dunnere werk Het is wel oké, maar ik had degelijker verwacht. Daarnaast zijn het losse kabeltjes. (Dit zijn ze Interesse, PM me maar, zacht prijsje zijn ze van jou.)
(De andere miniSAS-SATA kabels voor een redelijk bedrag leveren naar mijn idee ook dunnere kabels dan de normale SATA-SATA kabels op.)
Ze zijn inderdaad erg dun (heb zelf soortgelijke in gebruik). Zoiets een alternatief?

Afbeeldingslocatie: http://images.channeladvisor.com/Sell/SSProfiles/23000103/Images/170/LEO-C-FSM79576-01.JPG

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Verwijderd schreef op vrijdag 12 februari 2010 @ 16:03:
[...]

Hierbij raad je aan om de (e)sata poorten (voor het OS) en de software Raid (data) geheel te scheiden. Waar heeft dat mee te maken? Betrouwbaarheid :w , of wellicht met de performance? d:)b


[...]

Yep, de gigabyte optie voor het intranet geeft de doorslag. Geen Atom CPU, maar de snellere combinatie van de AMD Athlon II X2 240e

[...]

Nog een vraag over de HT3 (tbv de grafische kaart.) Wordt deze ondersteund of valt deze terug naar HyperTransport Technology 1 (HT1) wanneer er voor een AMD Athlon II X2 240e wordt gekozen ipv een Phenom CPU? (Deze vraag is niet echt van toepassing voor de NAS, maar meer voor de Power Pc's configuratie... die ik ook aan het samenstellen ben.)

Het voorgestelde geheugen is niet van het ECC type. Het Asus M4A78 PRO bord kan het wel aan begrijp ik? Dan is die optie nog open.
1HP DDR2-800 ECC Memory€ 51,91€ 51,91

Wel een paar tienjes duurder. Gaat dit werken?


[...]


Dat is slimme opmerking over de SAS kabel versus 4 * Sata... 1 SAS kabel staat gelijk aan 2 SATA kabels?

De configuratie begint zijn vorm te krijgen :9

Nog een extra vraag: Wat is eigenlijk het verschil tussen een Athlon X2 en een Phenom X2 CPU?
Antwoord op m'n eigen vraag: citaat: De reeks Athlon II CPU's zijn in feite Phenom II's zonder extra gedeelde L3-cache
Nee zijn twee heeeell verschillende kabels

SAS:
Afbeeldingslocatie: http://www.picco.nl/images/A83050.jpg
SATA:
Afbeeldingslocatie: http://www.stil-ict.nl/webshop/components/com_virtuemart/shop_image/product/Sata_kabel_4aacde4323af3.png

En dan heb je je uiteindelijk SAS -> 4x sata:
Afbeeldingslocatie: http://www.kleinspul.nl/products_pictures/dl_sas-32-4xsata.jpg

Als je daar er 2 van koopt heb je dus 8x sata..

  • Dadona
  • Registratie: September 2007
  • Laatst online: 26-03 12:06
MXL schreef op vrijdag 12 februari 2010 @ 19:57:
Kan jij mij een paar voorbeelden noemen van die zuinigere moederboarden die geschikt zijn voor een NAS
Achter de schermen zijn we bezig met een uitgebreide startpost waarin algemene tips, tricks en informatie komt te staan over zuinige moederborden. Dus als je het nog even kunt ophouden (inschatting: week) dan komt er, zeker voor beginnelingen, wel een leuke startpost aan. Daarin wordt deze vraag wat uitgebreider beantwoord, want het volgende is puur een indicatie en wat kort door de bocht:
Het begint met de chipset van het moederbord, daar ligt de basis van (on)zuingheid. Vervolgens is het aan de fabrikant om er wat leuks mee te doen en daardoor kunnen series wat overlappen. Interessante chipsets bij AMD zijn: 7025/630a en 7050a, 740g, 760g en 790gx. De eerste twee hebben vier SATA poorten, de derde heeft er soms zes (740g moederbord van Gigabyte tot revisie 3) en de laatste twee hebben zes SATA poorten. Wel loopt het verbruik wat op, van een lage 20W (of onder) bij de eerste tot een hoge 20W of lage 30W bij de 760g en 790gx.
Maar nogmaals, dit is maar één aspect en puur opgenoemd om je heel even zoet te houden. Hopelijk kunnen we binnen een week een (veel) omvangrijker antwoord geven, waardoor mensen ook zelf kunnen snappen hoe ze een zuiniger moederbord van een minder zuinig moederbord kunnen herkennen. Wordt vervolgd! :)

@Andrisig. Toegegeven, deels was het ook een soort van terechtwijzing. Het punt is dat een deel van de vragen worden beantwoordt door de eerste resultaten op Google.
Wat vragen en adviezen betreft is het (voor mij) heel simpel. Probeer gericht en gestructureerd een vraag te stellen. Wil je A of B? Niet voortdurend heen en weer blijven gaan want dan wordt het onoverzichtelijk. Dus bijvoobeeld of ECC, of niet. En vervolgens is het kwestie van de vragen lezen en de redenatie erachter proberen in te zien. Dat laatste gaat vaker fout (ook bij mij soms) of wordt zelfs overgeslagen en dat levert de 'frustratie' op. Het punt is dat (bijvoorbeeld) ik veel tijd steek in de onderbouwing. Ik geef niet zomaar aan dat niet, neem dit. Ik geef aan waarom dat (naar mijn mening) zo is. Zo kunnen anderen een tekortkoming in mijn redenatie aanstippen en het advies verbeteren, maar ook dat de persoon niet met dezelfde vraag voor een iets andere component terug hoeft te komen.
Wat alternatieven betreft heb ik inderdaad niet een hele reeks met namen en rugnummers gegeven. Ik heb algemenere adviezen gegeven, zoals: neem geen 780g. Wil je iets van grafische prestaties, neem dan in ieder geval 785g omdat het zuiniger is. Voor een 'echte' NAS, neem weer 740g of 760g. Maar ook ik heb een moederbord genoemd, de M2N68-AM Plus. Heeft 2 SATA poorten minder, maar verbruikt (veel) minder en is goedkoper. Kom je SATA poorten tekort dan koop je een controller die je in totaal meer SATA poorten geeft en toch een lager verbruik kent dan de Pro.
Maar als je nu in je volgende post kort en bondig kunt aangeven wat je precies wil en nodig hebt voor je NAS dan kunnen we ook wat gerichter advies geven. Dus is vier SATA poorten goed? Is laag energieverbruik leuk of een must? Is het puur data afleveren of komt er ook grafisch iets bij? ...

Maar echt, vragen zijn prima (zolang het geen 'wat moet ik kopen' vragen zijn). Ook ik heb ze, maar (zoals ik al eerder, ergens, ooit, .. zei) probeer eerst zelf in deze topic het antwoord te vinden, doe een poging op Google en als je er dan nog niet uitkomt, structureer je vraag goed, lees antwoorden goed en vraag naar extra uitleg als de motivatie niet goed is. Alleen een boodschappenlijstje vragen, dat is op een gegeven moment wat verveld. Zeker omdat de anderen misschien juist veel tijd hebben gestoken in het lezen, testen of zelfs hardware hebben gekocht die een miskoop bleken te zijn
Wat de PM betreft, die werkt gewoon hoor: Afbeeldingslocatie: http://tweakimg.net/g/forum/images/icons/dm.gif

Ik moet echt eens een cursus 'hoe geef ik kortere antwoorden' volgen, volgen mij haakt de helft van de mensen al na een paar regels af bij mijn posts. Hallo?... Iemand nog daar?..Ah crap..

[ Voor 48% gewijzigd door Dadona op 12-02-2010 21:38 ]

De CSL/OT kroeg !


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Zo, na een tijdje hutse prusten, en dat word nogmaals voordat het allemaal goed gaat werken, maar het is voor het goeie doel namelijk alles beter maken!
Afbeeldingslocatie: http://tweakers.net/ext/f/8COLqy5TJQGP5wXKGre4zn2j/full.jpg

Zoals je ziet het staat op zolder, en er ligt nog vele rotzooi om heen zoals je kan zien (mijn oude indianen tent)

Van onder naar boven: MARS tijdelijke server voor alles storage, virtualisatie, daar boven een HP Procurve Switch 2524 (1x 1Gbps uplink 24x 100Mbps) daar boven een kleine Gigabit d-link switch (D-link DGS-1005D) deze ligt er tijdelijk zodat ik over een tijdje een pricewatch: HP Procurve Switch 1810G-24 kan vragen voor mijn verjaardag tussen tijds gaat er uitgebreid worden kwa servers configuratie, dit word het:

Fileserver(MARS):
E2160, 2GB, HP Smart Array P400, OCZ ModXStream Pro 500W, 2x Intel (word dual, eerst beide 1ports), HP mobootje, 2x1TB,2x250GB(RAID1 boot P-ATA boot)

Komen uit eindelijk 2 arrays in:
4x1TB(onboard, moet nog kijken of het losse disks worden of RAID5, heb het moederbord nog niet volledig geinspecteerd aangezien hij nu nog in productie is bij mijn vader :9)
8x2TB(RAID5)

Hyper-V server(Venus):
X2 7850, 8GB, Asus M4A78 PRO, 2x250GB(RAID1, boot) Voeding die in een pc zit (ben vergeten wat), 2xIntel

O+

Wat het mij gaat kosten de uitbreidingen: 2x Intel er bij (word 4x waarschijnlijk ook voor werkstation),
Chieftec CA-01B-B-SL, de rest word uit werkende pc's gehaalt :*)

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 14:00
Ook ik ben bezig om mijn huidige servers te upgraden /consolideren. Ik heb hiervoor een aantal fases uitgedacht:

Stage 1: upgrade NAS (capaciteit)
Stage 2: consolidate and virtualize existing servers / services
Stage 3: performance tuning

Wellicht zijn mijn ervaringen uit het verleden en overwegingen voor de toekomst voor anderen ook nuttig, dus ik probeer zoveel mogelijk hiervan in deze post te delen.

Stage 1 ziet er als volgt uit:

Huidige setup:
  • ASUS K8N4-e Deluxe (8x SATA onboard, 2x PATA, AMD Sempron 64 2800+, 2.5GB mem, 1x PCI-e x16, 3x PCI-e x1)
  • 6x 500GB in RAID-Z2
  • 1x 500GB + 1x 1TB backup
  • 1x PATA disk voor OS
  • FreeBSD 7.2 icm ZFS
Afbeeldingslocatie: http://log.vargo.nl/wp-content/uploads/2009/03/p-1600-1200-0f5bf0dd-33da-45d4-b4f8-317f1ac859ca.jpeg

Ik heb het volgende besteld om de capaciteit uit te breiden:
  • 1x supermicro AOC-USAS-L8i (~120,- EUR) << Lijkt erg op de 2x zo dure LSI LSISAS3081E-R. Al aantal berichten gelezen dat deze controller gewoon werkt in PCI-e x16 slot. En hoewel geen officiele driver support voor FreeBSD & Solaris, schijnt deze toch te werken.
  • 2x 8087 SAS => 4x SATA fanout cables (~2x25,- EUR)
  • 8x 1.5TB (~8x 82,- EUR)
Totale kosten: 850,- EUR. (incl verzendkosten)

Lang zitten twijfelen om 2TB te nemen; echter te kostbaar. En het uitbreiden van een array met meer disks, of van raid-z naar raid-z2 is onder ZFS niet mogelijk (behalve dan door een pool te destroyen en opnieuw aan te maken). Omdat ik ook een dubbele parity setup wilde hebben kwam ik dus op 8x 1.5TB disks uit.

Geplande wijzigingen in NAS:
  • Nieuwe array moet effectief 9TB ruimte creeren (8x 1.5TB @ raid-z2).
  • Oude array wordt backup-array (7x 500GB raidz-2 = 2.5TB).
  • Huidige OS disk wordt met een extra PATA schijf gemirrord.
  • Voedig upgraden met krachtiger exemplaar (indien nodig)
  • 1TB disk gaat naar workstation. PCI-e videokaart eruit; PCI exemplaar terug.
  • Misschien ook naar grotere kast switchen :)
Aan de software kant:
  • Misschien: FreeBSD => (open)solaris (laatste ZFS versie, webgui voor managen storage)
  • Indien FreeBSD => upgrade naar 8.x
  • upgrade van ZFS versie (in 7.2 nog op versie 6): dit is echter inherent aan het feit dat ik de pools opnieuw aanmaak.
  • Backup strategie: 'rolling' snapshots inrichten op het hoofdarray.
    (bijv alles tot een jaar terug op maand-basis snapshotten, laatste 2 maanden op weekbasis, en de laatste week / 2 weken per uur). Een subset hiervan gaat naar het backup array. Misschien mbv ZetaBack als tool om dit alles te managen.
  • Offsite backups: encrypted naar de Amazon Cloud gaan versturen (ook ZFS, dus ook send/receive!). Enkel voor de echt belangrijke data.
  • ik ga veel meer filesystems creeeren onder een pool. Ik had eerst maar 1 filesystem, maar het is eigenlijk veel beter om veel kleine instances te maken (bijv fotos, admin, films, series, muziek etc etc) zodat je per instance een eigen policy kan aanmaken voor encryptie, snapshots, backup, redundancy, userrechten etc. (trouwens, maak nooit een ZFS filesystem aan onder hetzelfde path als je directory structuur: weg is deze namelijk :X => gelukkig kon ik mijn snapshots nog benaderen O-))
Stage 2 en 3 denk ik nog over na, maar alvast een paar van mijn ideeen:
  • kandidaten om te virtualiseren: diverse OSen, webserver (php/ruby/??), database, email, reverse proxy, asterisk (=voip), monowall, FreeNAS, media server, TV recording etc.
  • de 'clone' & 'snapshot' functionaliteit van ZFS gaat hierbij erg handig zijn (zeker nu deduplication in ZFS zit).
  • bij gebrek aan ervaring ga ik in 1e instantie met mijn Q9550+ 4GB workstation testen. Later aparte hardware aanschaffen.
  • netwerk is nu nog 1gbit; misschien tussen NAS en server trunken over meerdere 1gbit lijnen, of upgraden naar 10gbit.
  • mocht de virtualized services nu voor veel IO zorgen, dan overweeg ik om SSDs toe te voegen aan het NAS als level 2 cache (ZFS L2ARC).

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

DJ-NaRRa schreef op donderdag 25 februari 2010 @ 14:34:
[...]


Ik heb ook even gestoeid met esxi server in een vmware omgeving op mijn huidige pc. ter illustratie 20 x 1,5gb schijven aangemaakt en een esxi server gedraaid. Wat mij meteen daarin opviel is dat ik pakweg 10 / 20% space kwijtraak in esxi als ik de schijven in esxi mount (vmpk-images geloof ik dat het heet toch?). Ik heb verder ook geen manier gevonden om schijven direct aan te spreken middels esxi (de gratis variant dan he).

Ik zou verder ook niet weten waarom ik virtualisatie zou moeten doen eigenlijk. ik heb geen ambities om naast mijn NAS nog andere servers (zoals mail / AD e.d.) te draaien thuis. En gamen is nou niet echt optimaal in een gevirtualiseerde omgeving dus daar behoud ik mijn huidige PC voor.

Boot schijven kan ik wel even naar kijken... ik hoef in principe ook geen 80 gb OS drive te hebben, dan pluk ik wel een paar 20gb schijfjes ergens uit de rommelkast ofzo. En inderdaad had ik de tip voor de 4-in-3 elders gelezen in dit topic. Ik wist dan weer niet dat er een nieuwe versie is van dit product. Heb je wellicht een plaatje van het oude product zodat ik Marktplaats eens kan afstruinen?

edit- als ik inderdaad PATA schijven kan gebruiken voor mijn OS kan ik al op zoek naar een 6x sata moederbordje ipv van een minimaal 8x sata moederbordje. Die zullen ongetwijfeld goedkoper zijn :P ik hoef immers ook niet echt onboard raid. Allemaal spul waar ik nu wel voor betaal maar niet gebruik... Goede tip! thx

edit2- Aan wat voor een soort voeding zou ik dan moeten denken? 550watt 80+ rendement voeding? als ik even heel lomp bereken hoor mobo + cpu 150watt 20 x 10 watt schijven in stress = 350 watt. Wat zouden die controllers nog vreten 50 - 70 watt?

De essent gaat in ieder geval blij met mij zijn :P
Nee daar ging het niet om, je moet alleen een ruime voeding nemen (kijk even naar Q of naar Lampie) die hebben beide een mooie zware voeding er in zitten ;)
soulrider schreef op donderdag 25 februari 2010 @ 15:06:
[...]

ik zou dan eerder voor een Sharkoon Rebel12 kast gaan die is een pak goedkoper, kleiner qua externe afmetingen en heeft meer plaats voor harde schijven (zonder te verbouwen) namelijk:
6x 3,5" intern (onderaan), vooraan heeft die 11x 5,25" waar je dus 2x4-in-3 + 2x 3-in-2 modules + 1 DVD-drive in kwijt kunt (of 3x 4-in3 + 1x 3-in-2 zonder DVD-drive) en bovenaan vooraan kan je - waar plaats is gehouden voor een floppydrive - nog een 3,5" schijf kwijt.
Je kan er echter slechts 1 voeding in kwijt.

dat zou in totaal 6 + 2x 4 + 2x3 + 1 = 21 schijven en een DVD-drive, of 6 + 3x4 + 1x3 + 1 = 22 schijven als je geen DVD-drive wilt.

bij die Chieftec stopt mijn teller op 8x 3,5" intern + 2x 3,5" extern + 3x 3-in-2 in de 6x 5,25" extern geeft 8 + 2 + 9 = 19 schijven. tenzij je dan inderdaad dat fan slot nog gaat aanpassen om er een 4x 3,5" coolermaster-bay te hangen.

En dan wordt het enkel keuze naar merk-voorkeur en eigen handigheid.

@DJ NaRRa: je denkt er toch ook aan dat een 350 W voeding nooit 20 schijven in totaal trekt ?
zekers niet tijdens het osptarten... dus denk daar ook even aan als je regelmatig je opslag server wilt kunnen osptarten (na bv een stroomuitval ofzo) ;-)
Mijn teller niet ;) 22x 3.5" kunnen er in, en dan heb je nog best veel ruimte :)

6x 5.25"
2x 3,5"
8x 3,5"

Afbeeldingslocatie: http://img268.imageshack.us/img268/1322/img1712largee.jpg
(thx lampie1979 )
Er kan dus makkelijk een 4 bay voor HDD's bij, dan zit je al op 22 met wat leuke aanpassingen als je dan zoals ik ( :Y) ) over een slimline DVD rewriter verwacht ik dat je die vast nog wel ergens tussen prop..

Eventueel kan je natuurlijk nog 5 in 3 bays uit Amerika laten komen en dan kom je alweer op wat meer uit..
DJ-NaRRa schreef op donderdag 25 februari 2010 @ 15:13:
[...]


Qua looks / afmetingen maakt het me niet veel uit. Kast komt toch in het rommelhok te staan. DVD drive hoeft voor mij ook niet echt. voor de initiele install gooi ik de OS hdd wel even aan mijn gewone PC. Verder voor updates kan allemaal via internet. dus als ik meer schrijven kan plaatsen ten koste van een DVD drive dan heeft dat mijn voorkeur.

Het scheelt inderdaad wel wat geld. Al heb ik geen goede ervaringen met Alternate (ik zal daar never nooit meer bestellen hoe goedkoop ze ook zijn) dus eventjes zien of ik die kast elders zou kunnen krijgen. Het is in ieder geval een goed alternatief.

edit- zie mijn opmerking over de voeding in de voorgaande post. Ik moet zeggen dat ik de voeding eigenlijk had uitgezocht voor de initiele setup van 8 harde schijven. Die moet dus ook vervangen worden :P
Zei boven, dat het aardig groot kan worden :) En lampie1979 (zei hier, er 28 schijven in kunnen doen)
DJ-NaRRa schreef op donderdag 25 februari 2010 @ 15:25:
[...]


Ik hoef "maar" >:) 22 schijven te plaatsen he, en die dingen zijn geen hot-swap dus het heeft voor mij geen meerwaarde om voor een 3 in 2 oplossing te bieden. in die overgebleven ruimte gooi ik dan wel een OS Disk o.i.d.
Dat kan dus met deze kast ;) O.s disks kan je gewoon ergens onder in weg douwen niet? Als die crashen crasht alleen je O.S en een half uur later 2 ouwe rommel disks en je server draait weer? :)

Afbeeldingslocatie: http://tweakers.net/ext/i/productsurvey/10878/9094.jpg
Zo ziet die 4 in 3 bay er uit de ouwe misshcien kan je lampie1979 dm'n of hij er nog een voor je heeft, ik zou voor je 6x 5.25" wel de nieuwe nemen (anders moet je fan girls er voor gaan maken) en dat hebben die nieuwe al..

[ Voor 3% gewijzigd door DJ-Visto op 25-02-2010 16:05 ]


  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 15:46
Ik heb een servertje in elkaar geknutseld met een Pentium Dual core E2160, Intel DG45ID moederbord en 2GB geheugen. Als storage heb ik 4x 1,5TB Samsung Ecogreen en een 160GB WD laptophdd.

De resultaten van de onboard Intel ICH10R op RAID5 vallen me vooralsnog niet tegen:

Afbeeldingslocatie: http://i46.tinypic.com/1488at.png

Afbeeldingslocatie: http://i48.tinypic.com/iymp3q.png

De random en kleine files blijven wat achter, maar aangezien de server vooral gebruikt wordt voor het downloaden en intern beschikbaar stellen van films en muziek zijn de sequentiele snelheden wat belangrijker. De resultaten zijn goed genoeg om een Gbit lijn mee te vullen.

Binnenkort zal ik eens met wat meer programma's testen

De wijzen komen uit het Oosten!


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:22

mphilipp

Romanes eunt domus

Iemand nog een goede tip voor een systeemkast. Mag big tower zijn; er moeten iets van 10 3.5" schijven in kunnen en het liefst moet ik daar een paar fans op kunnen zetten. Een kast zoals in een 19" rack moet kan ik niet kwijt, dus dat gaat 'm niet worden helaast.

Ik had al de Chieftec CA-01B-B-SL gevonden. Ziet er leuk uit; kunnen onderin 8 3.5" drives en een dot fans erop.
Afbeeldingslocatie: http://www.materiel.net/live/79927.jpg

(geen luiheid: het is alleen een beetje lastig uitzoeken omdat je in de pricewatch niet goed op dit soort specs kunt selecteren)

Mac Mini M4Pro | MS Surface Pro 9 | Canon 1Dx III | Bambu Lab H2C | BMW K1600 GTL


  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

I use Debian btw

Afbeeldingslocatie: http://www.overclock3d.net/gfx/articles/2008/01/14110747498l.jpg
Dit sharkoon kastje is supercheap en kan je volhangen met 4 in3 modules zodat je schijven lekker koel blijven.

Alle proemn in n drek


  • Dadona
  • Registratie: September 2007
  • Laatst online: 26-03 12:06
:D Er loopt ook een user rond die 'Q' heet, Quindor :)
Ook wel te herkennen aan de volgende usericon:
Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=1176

De CSL/OT kroeg !


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Demoniac schreef op vrijdag 19 maart 2010 @ 10:08:
[...]
Wat moet je in hemelsnaam met twee dual NIC's?! Een 4 Gbit trunk is leuk, maar je switch moet het ook aankunnen, je disk array moet snel genoeg zijn en je moet voldoende clients hebben om er gebruik van te kunnen maken. En zelfs dan zou ik het teveel geld vinden voor wat het oplevert. (en dat zeg ik niet snel, een Dell PERC5/i of Areca 1220 is imo zijn geld wel waard :P)
Uhm, ik ga een router virtualiseren.

NIC1 -> Modem in
NIC2 -> Router uit
-> Fysieke Switch
-> Virtualisatie Nic

Nic2 gaat dus 2 zaken waarnemen.

Nic3&4 -> NFS verbinding met mijn NAS.

Afbeeldingslocatie: http://mars-bhr.nl/images/infrastructuurdefinitief.jpg

En zo gaat de infrastructuur worden (is alleen de router route die gaat worden afgelegt.
Extera schreef op vrijdag 19 maart 2010 @ 12:10:
@ DJ-Visto.

Ik heb nu een losse NAS, en losse ESXi server draaien.
Ik wil ze echter gaan samenvoegen ivm stroomverbruik.

Heb jij al uitgevogeld hoe je de schijven aan je VM gaat toevoegen?
Ik krijg het op mijn huidige vmware machine namelijk niet voor elkaar om een disk RAW te mappen aan een VM.

Het lijkt me mooi om een virtuele linux NAS in te richten, met de disks gemapped naar die machine.
Ik ga voor los precies om de redenen die jij opnoemt. Lastig!
evt. in de toekomst komt er meer storage, en misschien nog in de machine zelf nu nog even niet. De storage hangt dus helemaal af van de NAS, er komen geen SATA schijven op mijn esxi server, alelen USB stick boot.

[ Voor 8% gewijzigd door DJ-Visto op 19-03-2010 16:23 ]


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Je kunt er natuurlijk voor kiezen om je virtuele nas gewoon virtual disks toe te wijzen, raw device mapping is niet perse nodig.. Ik heb bijvoorbeeld 1 server met ESXi 4 (boot van usb stick) en een 2TB RAID5 volume op een PERC5/i. Daarop draait een FreeBSD nas met 4x256GB virtual disks.

Over het netwerk haal ik toch nog ~70MB/s down, valt me niet tegen:

Afbeeldingslocatie: http://files.hongens.nl/2010/03/19/atto_vnas.PNG

Als ik echter een heleboel intensieve taken ga doen (scrubben, snapshots rsyncen, etc), dan wordt ie wel trager, en de latency is me af en toe ook nog wat te hoog.. Ook vervelend dat als ik met mijn vriendin in de huiskamer een hd-film stream vanaf die nas, dat ie af en toe even hapert als mijn exchange backup start ofzo..

Ik zou liever een apart nasje willen zodat ik er nog meer performance uit zou kunnen persen, en zodat de performance constanter is (en makkelijk naar tapedrive o.i.d. zou kunnen backuppen), maar ik heb geen zin in het extra stroomverbruik en de kosten.. Althans, nog niet..

Voordeel van een virtueel nas met virtual disks is wel weer dat migraties supermakkelijk zijn. Ik ben al eens overgegaan naar een nieuwe ESX server, het enige dat ik hoefde te doen is een andere ESX server ernaast zetten, vm overslepen en weer starten. Klaar migratie :)

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
DJ-Visto schreef op zaterdag 20 maart 2010 @ 16:33:
[...]

Laatste redenen wil ik juist het zo doen, en waarom 4Gbps vanaf mijn fileserver? Juist omdat esxi graag wat wil (virtueel een Win2k8 R2 met exchange etc vraagt heel wat) dan nog wat clients, hupsakee weg bandbreedte.
4Gbps is leuk, maar ik denk wel een beetje overkill :)

Dat Exchange veel bandbreedte vraagt kan ik me niet helemaal in vinden.. Hier zie je wat stats van een virtuele Exchange 2007 server (op Win2003 op een ESX4 machine). Dit is een exchange server met een 100GB mailbox store, en 50-60 gebruikers die hierop werken tussen 07:00 en 18:00. Het ding staat echt compleet uit zijn neus te eten.. En Exchange 2010 belooft zelfs nog minder iops te doen (nog meer uit geheugen).

Afbeeldingslocatie: http://files.hongens.nl/2010/03/20/exchange_bps.png
Afbeeldingslocatie: http://files.hongens.nl/2010/03/20/exchange_iops.png

Nu kan ik natuurlijk niets zeggen over jouw exchange-gebruik, maar met 4Gbps moet je volgens mij wel safe zitten :)

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Quindor schreef op zondag 21 maart 2010 @ 20:11:
[...]

Om dit eventjes te verduidelijken.

1 host naar 1 host = altijd 1Gbit. Ook al beschikken beide hosts over 4Gbit trunks. De enigste mogelijkheid om dat op te lossen is 10Gbit te gebruiken.

Ik werk zelf vrij veel met teaming/802.3ad/LACP/trunk/port channel/etc. verbindingen vanwege de backup servers welke ik neer zet voor mijn werk. Deze server hangen aan bijvoorbeeld 2xLTO4 (120MB/sec native, 1,5:1 compressie 180MB/sec). Die kunnen samen dus met gemak 360MB/sec verwerken. Zo lang je maar zorgt dat je genoeg streams van verschillende hosts samenvoegt, is het geen probleem.

Verder dan 4Gbit trunks gaan heeft ook weinig zin, vanwege het inefficiënte mechanisme waarmee het is opgebouwd. 4Gbit haal je ongeveer 3,4Gbit max mee, maar hoe meer je toevoegt hoe slechter het word. Met 8Gbit trunks kom je praktisch niet boven de 4,5Gbit uit. Op dat moment moet je dus naar 10Gbit gaan kijken.
Als je puur uit gaat van teaming heb je gelijk, en haal je niet meer dan 1Gbit tussen host en server..

Maar in iSCSI land is een veelgebruikte oplossing dat je zowel aan de SAN kant als de host kant meerdere nic's en/of ip's hebt, waardoor je meerdere 1Gbps paths opbouwt. Daaroverheen gebruik je dan bijvoorbeeld MPIO of een ander multipathing algoritme om de load te verdelen. Je maakt dan ook geen gebruik van teaming, en je hebt dus ook niet de overhead van teaming.

Het leuke van Equallogic SAN's is dat ze bijvoorbeeld ook iscsi connecties redirecten naar een minder belaste netwerkpoort op de san unit, om de doorvoer te verbeteren.. Daarnaast schrijven ze zelf ook MPIO modules voor gebruik in Windows/ESX/RHEL om bijvoorbeeld het 'least queue depth' algorithme te implementeren, waarbij de client automatisch de meeste data stuurt over de minst belaste path in plaats van domweg round-robin. Slim!

Dit grafiekje had ik nog liggen van een host met 2 nic's die ik in het SAN hing. Ik heb alleen de 2 nic's geconfigureerd en mijn iscsi client naar het san gepoint, en hij doet zelf (door de EQL plugins) alle multipath configuratie :)

Afbeeldingslocatie: http://files.hongens.nl/2009/06/05/atto_eql_nojumbo_flowctrl.png

Dusseh.. als je bijvoorbeeld in je client 4 nics hebt en in je server 4 nics, en zowel je iscsi initiator en iscsi target ondersteunen multipath, dan kun je de 4gbit in principe voltrekken als de disks het aan kunnen.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 03-03 00:41

Quindor

Switching the universe....

Onder het moto, eerst zien dan geloven! ;)

Plaatje is klikbaar voor het album. Comments, vragen, etc. altijd welkom!

7x2TB Samsung F3EG, 1x1TB Samsung F1, 4x Seagate 7200.11 1.5TB
14 + 1 + 6 = 21TB

Raid config is wat ingewikkeld. Draai deels RAID-5, deels Stripes, deels spanned disks.

Alles draait onder VMware ESXi 4.0u1

Afbeeldingslocatie: http://lh6.ggpht.com/_QV2VDG5jw64/S6afFJU7NdI/AAAAAAAAAXI/jWN_vXKEiHE/s576/IMG_4279.JPG

[ Voor 38% gewijzigd door Quindor op 21-03-2010 23:42 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 03-03 00:41

Quindor

Switching the universe....

Hier zijn wat benchmarks te vinden (klik op plaatje). Benchmarks zijn van 7x2TB Samsung F3EG op een Adaptec 5805 (512MB cache).

De benchmarks via mijn desktop zijn vanuit Windows 7 x64 gemaakt. De benchmarks op mijn server zijn gemaakt draaiende onder VMware ESXi 4.0u1 met daarin een Windows 2008 SP2 R2 x64 guest. Plaatjes zijn nog niet allemaal even duidelijk, maar ik ga proberen deze vandaag van commentaar te voorzien, zodat duidelijk wat wat is!

Deze klikbare is een leuke. Binnen VMware, 1.6GB/sec read vanuit de cache! :D :D
Afbeeldingslocatie: http://lh4.ggpht.com/_QV2VDG5jw64/S6ak7H1xREI/AAAAAAAAAZE/HS3RfHqrK1g/s912/adaptec_5805_7x2TB%20Sam%20F3EG-raid5_invmware_paravirt.jpg

Questions, vragen, opmerkingen, discussies!

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • n0m0r3
  • Registratie: September 2000
  • Laatst online: 12:36
Allen,

Zeer nuttige post, dank voor al het leesplezier.

Ben al enkel dagen bezig om na te denken over mijn zelfbouw NAS.
Op dit moment zit ik nog met het volgende en dat is de warmte ontwikkeling in mijn behuizing.

Ik heb bij CONRAD een 19" behuizing aangeschaft om hier alles in te bouwen.
er komt een ASUS P5GPL-X SE mobo in wat ik nog heb liggen met een Celron D 430 CPU, zeer lage TDP :) , en de bedoeling is om er een 4 met uitbreiding tot 9 HD's in te bouwen.

Nu heb ik ff zitten tekenen om te bepalen waar alle componenten geplaatst moeten worden en ben er niet helemaal over uit wat het beste is ivm de warmte ontwikkeling. Het is niet de bedoeling om additionele koelers in de behuizing te plaatsen. Maar ik kan me voorstellen dat dit niet te voorkomen is.

Er komen in het begin 4 HD's van 1TB in, merk Samsung Spinpoints. En in de toekomst moet dit uitgebreid kunnen worden naar een HD of 9.

iemand een idee? of meer info nodig? tips zijn welkom. owja freeNAS gaat er op geinstalleerd worden.

layout 1
Afbeeldingslocatie: http://www.eksterstraat7.nl/images/nas/nas_layout1.gif

layout 2
Afbeeldingslocatie: http://www.eksterstraat7.nl/images/nas/nas_layout2.gif

of misschien layout 3
Afbeeldingslocatie: http://www.eksterstraat7.nl/images/nas/nas_layout3.gif

  • analog_
  • Registratie: Januari 2004
  • Niet online
Hebben de vaste lezers van dit topic al de Lian Li Q08 ontdekt ?
Afbeeldingslocatie: http://lian-li.com/v2/tw/product/PC-Q08-b.jpg
M-itx kastje voor bijvoorbeeld een atom met 6 3.5" sleuven en een cdrom slot. Als je een beetje handig bent krijg je er denk ik nog wel een schijfje op de bodem plaat gemonteerd.

[ Voor 43% gewijzigd door analog_ op 28-03-2010 16:52 ]


  • BlackWhizz
  • Registratie: September 2004
  • Laatst online: 15-03 15:26
Mr.SiS schreef op zondag 28 maart 2010 @ 16:51:
Hebben de vaste lezers van dit topic al de Lian Li Q08 ontdekt ?
[afbeelding]
M-itx kastje voor bijvoorbeeld een atom met 6 3.5" sleuven en een cdrom slot. Als je een beetje handig bent krijg je er denk ik nog wel een schijfje op de bodem plaat gemonteerd.
Nog een mooi kastje:
Fractal Array Mini ITX Nas case
Afbeeldingslocatie: http://www.fractal-design.com/img_prod/array4.jpg

Ruimte voor 6 3,5" hardeschijven en 1 SSD/2,5" SSD (voor boot) :P

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 13:39
Verwijderd schreef op donderdag 22 april 2010 @ 18:11:
De voeding heeft maar 4 SATA uitgangen. Hoe zit dit precies?
Je kunt overal van dit soort verloopkabeltjes krijgen, dus dat hoeft geen probleem te zijn:
Afbeeldingslocatie: http://www.elektronicawereld.nl/productimages/23672.jpg

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 30-03 21:40
Van:
Naar:
Afbeeldingslocatie: http://i41.tinypic.com/23tqosn.jpg
Afbeeldingslocatie: http://i43.tinypic.com/fmjvc3.jpg


Intel server moederboard (S3200SH serie, S3210SHLC) met Intel E7600 en 2GB ECC geheugen:

Verder:
-HP Smart Array P410 RAID controller
-6 stuks 2TB Seagate LP SATA disks in RAID5
-Corsair HX650W modulaire voeding.

Het Intel board heeft meerdere PCIe aansluitingen zodat ik later eventueel een HP SAS expander kaart kwijt kan om meer dan 8 disks aan de Smart Array controller te kunnen hangen. Verder heeft het board 2 Gbit Ethernet aansluitingen en onboard video. Op eBay te vinden voor ~€100 :9

Ik draai Windows Server 2008 R2.

Als ik meer dan 8 schijven nodig heb verhuis ik de ingewanden naar een Norco 4220. Die Fractal Design kast kan ik dan vast wel weer kwijt in vraag en aanbod.

[ Voor 12% gewijzigd door PeterPan op 30-04-2010 12:19 ]


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Mijn test setup.voor mijn fileserver:

Afbeeldingslocatie: http://mars-bhr.nl/serverpics/100_1563_640x480.JPG

Specs:

E2160(1.80GHz)
1GB samsung ram
80GB 2.5" boot schijf
HP Smart Array P400(met BBU)(met een seagate 250GB schijf)

In een tijdelijke kast met voeding, ding gebruikt zonder seagate maar 48watt idle. Voor de rest gaat de kast geupgrade worden (ik kan er een van [Verwijderde gebruiker] lenen. (geen geld genoeg voor een eigen). In deze kast komt waarschijnlijk mijn esxi apparaat in.

Het grootte probleem bij mijn oude setup was er zat een pci-e x1 boven de P400 zodat als je de kabels er op deed dat het pci-e x1 slot niet meer bruikbaar was.
Dat is met deze opgelost omdat hij hier op de kop (zo kan je het zeggen :P) ingaat, zodat de rest van de sloten gewoon bruikbaar blijven. Er komen op de P400 de volgende schijven:

3x250GB(RAID5)
2x1TB(geen RAID)

Tijdelijke setup is dat dan. Er komt wel zo snel als mogelijk als 3x2TB aan de P400.

Kwa ruimte op 't ram geheugen is meer dan genoeg, nog een beetje aanklooien met Windows Server 2008 R2 en NFS server. 388MB gebruikt dat ding als hij hier staat te idlen.

[ Voor 7% gewijzigd door DJ-Visto op 01-05-2010 14:22 ]


  • brid
  • Registratie: Januari 2001
  • Laatst online: 18-03 14:46

brid

Onze excuses voor het ongemak

Zercom doet meestal niet zo moeilijk, alleen kun je beter bellen.
Dan is het tenminste gelijk geregeld, heb daar weleens een 9800gt door een 4870 xxx laten vervangen, ging zonder problemen.

Coolermaster modules zijn trouwens behoorlijk goed:
hd temps

b,c,d,e zijn daar in geplaatst, samsun green 1.5 GB

[ Voor 42% gewijzigd door brid op 04-05-2010 12:52 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


  • avkmedia
  • Registratie: Mei 2010
  • Laatst online: 23-03-2025
Beste mede-tweakers,

Ik wil een nieuwe nas gaan samenstellen op basis van (thanks voor de aanwijzingen):

#ProductPrijsSubtotaal
1AMD Athlon II X2 235e€ 55,09€ 55,09
1Antec Earthwatts EA 380D Green€ 40,23€ 40,23
1Asus M4A78LT-M LE€ 47,73€ 47,73
2Kingston ValueRAM KVR1066D3N7/1G€ 26,49€ 52,98
Bekijk collectie
Importeer producten
Totaal€ 611,20


Met dan 5x WD Green EARS 1,5 TB en 1 random sata schijfje voor de boot. En misschien een intel nic ivm problemen aangegeven in de vorige posts.

Mijn situatie is als volgt:

Afbeeldingslocatie: http://i40.tinypic.com/n69h03.png

De 2 pc's worden vaak gelijktijdig gebruikt voor het editen van website files en graphics.
De bedoeling is dus om op de nieuwe nas (tussen haakjes) alle files te zetten zodat deze door de 2 pc's bereikt worden via samba. Nu gaat dit via de externe hd die aan de router hangt en dat is super traag. :(

Mijn vragen zijn concreet:

- Mijn idee is om linux soft raid 5 te gaan draaien. Is dit een goede keus voor het beoogde gebruik (dus veel kleine files lezen/schrijven)?

- Hoe kan ik zorgen dat de 2 pc's de nas via een vaste verbinding kunnen bereiken? Gewoon de nas als DHCP server instellen?

- Is de config (proc enz) snel genoeg voor de beoogde doeleinden? Voornaamste is dat wij soepel kunnen werken, verbruik is secundair (hoewel niet onbelangrijk)?

Thanks voor de input!

  • brid
  • Registratie: Januari 2001
  • Laatst online: 18-03 14:46

brid

Onze excuses voor het ongemak

goudviske.be schreef op dinsdag 04 mei 2010 @ 13:26:
Net gebeld en order is aangepast, bedankt voor de tip ;-)

Mooie temperatuur btw. Die coolermaster 4in3's zijn ook vrij stil, nee?
in de trend van ratel, tikken enz is hij heerlijk stil. Je hoort natuurlijk wel het ruizen van de lucht langs de fan en de disk, bewegende lucht = gelijk geluid. maar dat heb je bij iedere fan. Disk zijn in ieder geval wel losgekoppeld van de behuizing. Zitten rubber ringen aan de aan de zij kant die weer verbonden worden met de platen aan de zijkant

@ hierboven
nas met 1 nic(ip static) met dhcp server aan een 1GB switch (+-€30,-) ws aan de switch als dhcp client.
Of je zorgt dat het nas in standaard range van windows AIP zit dan gaat het zonder dhcp.
Vervelende is dan wel dat je weer met dns resolving zit binnen je nas lan.
Je zou er ook voor kunnen kiezen een kabel van je wireless router te pakken en door te trekken naar waar je nas staat en dan daar een switch neer te zetten. Wireless is leuk voor notebooks, maar er is niks zo stabiel als een kabel

Proc is snel genoeg:
cpu load copy

Deel voor 12:00 's nachts was het over pompen van 500GB aan series en 699GB aan films.
1 core draaide op 800Mhz de andere op 2700MHz.
Rechts is sabnzb die +- 20Gb aan het downloaden is :)

[ Voor 24% gewijzigd door brid op 04-05-2010 14:15 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


  • brid
  • Registratie: Januari 2001
  • Laatst online: 18-03 14:46

brid

Onze excuses voor het ongemak

On nog een steentje bij te dragen aan het raid5 vs raid10 en nfs vs smb(of nfs w7 sucks) verhaal even met de crystal disk bench gespeeld:
nog nog kleiner

Dit is dus op een raid5 set van 4 samsung eco green(5400) van 1.5TB op m'n nas
Blijkt dus dat NFS redelijk verliest van smb onder windows7, als je de experts mag geloven zou NFS moeten winnen in het random deel.

Om alles een beetje in verhouding te zetten, hier een stripe set van 2 samsung eco green(5400) van 1.5TB via een ich10R local:
Samsung stripe

Zo slecht is een raid5 set via het netwerk nog niet, alleen bij een hoge load, dropt de 4k random write behoorlijk :o

Prog is denk alleen met lezen niet correct, iets van m'n nas aftrekken gaat in windows 80MB/s

[ Voor 26% gewijzigd door brid op 04-05-2010 22:17 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 05-03 19:56
aangezien ik druk op zoek ben naar een leuke behuizing (hot swap) voor een leuke prijs ben ik overal aan het rondneuzen. En nu zag ik dat Supermicro ook chassis maakt. Ze komen binnenkort met een leuk kastje voor de storage freaks :D

De supermicro SC847E16

De behuizing heeft plek voor 45......jawel 45 hotswap 3.5" HDD's in één 4U kastje 8)7

de voorkant:
Afbeeldingslocatie: http://www.supermicro.com/a_images/products/Chassis/4U/SC847-RJBOD_spec.jpg

de achterkant:
Afbeeldingslocatie: http://www.supermicro.com/a_images/products/Chassis/4U/SC847-R1400JB_alt.jpg

uiteraard komt dit monster met een 1400watt 80+ voeding :9

  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08-2025
Heeft iemand toevallig ervaring met de Zalman MS1000 HS2? Het lijkt me een goede oplossing als je op een budget je eerste raid array wilt gaan bouwen. (passen standaard 6hds in, allemaal hotswappable).

Afbeeldingslocatie: http://www.zalman.com/images/productinfo/MS1000_03.jpg

[ Voor 16% gewijzigd door iBurger op 06-05-2010 20:12 ]


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08-2025
Heb nog meer research gedaan naar power efficient CPUs zoals de Atom en de Core i3, en kwam een goed thread tegen op SilentPCreview. Dacht dat het handig was even terug te rapporteren op tweakers.

> "Current best options for low power NAS/download box"
iBurger wrote:
*old topic*
What did you go for in the end, Mojo? I'm quite interested in your experiences with the Atom based NAS. Also, what raid level did you settle for? I'm researching the same thing, basically, I want a powerful yet energy efficient NAS solution, with some bandwidth for more.

I got an Intel D510MO board. Up until the Atom D510 CPU all the previous ones were pretty poor performers. With the D510 though you get a dual core hyperthreaded CPU (so four virtual CPUs, sort of). I am using a 120W DC-DC PSU, 2.5" WD SATA HDD and 2GB RAM in a single module which gives an idle load of 17W. That's pretty impressive IMHO. I have another 2TB drive which is also on SATA but spun down when not in use. When running it adds another 5W.


Nog een paar highlights:
- Intel & MSI motherboards hebben betere power management systemen, waardoor ze zuiniger zijn.
- Een goede voeding is ook erg belangrijk. Tomshardware maakt melding van een 25W idle, icm met een deze voeding: Fortron FSP220 60 LE 2 power supply.

Afbeeldingslocatie: http://i39.tinypic.com/2vug17p.jpg

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Zo, na een dag klooien hou je dit over:
Afbeeldingslocatie: http://tweakers.net/ext/f/fdJlGNSAnzV9i3uTZl7dP8QF/thumb.jpg

En dit:

Afbeeldingslocatie: http://tweakers.net/ext/f/RvcjsGYMUDeX7dAxPyEG5JsO/thumb.jpg

Fileserver:
Kast mag ik van [Verwijderde gebruiker] lenen 8)
E2160 / 1GB / Intel Nic / OCZ 500watt voeding
2*1TB onboard controller / Smart Array P400(with BBU) 2*250GB

Afbeeldingslocatie: http://tweakers.net/ext/f/P8876t4UQR8fyonO6n4ngaz5/thumb.jpg

Helaas nog niet volledig online, kernel shit, hij draait op Debian Squeeze gemixt met Debian Lenny :+ XFS van de 2*250GB raid array is beschadigd en de 2*1TB kan ik er ook maar 1 van mounten, morgen weer een dag ;) (of vannacht :>)

Esxi server
X2 7850 / 8GB / Dual Intel (2de hands ook van Collie 8)7 ) / Kingston usb stick / Liteon voeding (van een hp miditower)

Afbeeldingslocatie: http://tweakers.net/ext/f/ySOcHqDe3nKC3L9GgklkvykY/thumb.jpg

Dit alles hangt op 't netwerk met een d-link gigabit switch (>:) ( dat rechter witte ding)) en een HP procurve (100Mbit :() wil ik allemaal gaan vervangen voor een 1810G-24 switch. Voor de rest lopen alle kabels ook nog tof in de stelling:

Afbeeldingslocatie: http://tweakers.net/ext/f/ktwdYC2A9foiuHibKppVjRoL/thumb.jpg

Op naar wat nieuwe schijfjes.. Of meer, er zijn geen concrete plannen behalve wat 1TB schijven er bij (of 2TB) en die 1810G-24, eigenlijk ook nog een 1810G-8 maar dat zei ik dan wel weer. O-)

Hier zijn trouwens nog wat foto's te vinden ;)

[ Voor 3% gewijzigd door DJ-Visto op 13-05-2010 23:35 ]


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Afbeeldingslocatie: http://tweakers.net/ext/f/jIRb5n0Is5TItCKydlHPoaG6/thumb.png

Fileserver -> 1Gbps -> NFS -> 1Gbps -> ESXi -> VM

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 15-03 07:47

Midas.e

Is handig met dinges

Ik zal ook mijn nfs read/write stats geven. De esxi host is voorzien van 1 gbit naar de nfs server.
Afbeeldingslocatie: http://hacktheplanet.nl/img/nfs_vmware.png

Hacktheplanet / PVOutput


  • Ben De Wit
  • Registratie: November 2009
  • Laatst online: 18-01 00:11
Afbeeldingslocatie: http://www.witbvba.be/Images/server.jpg

Oude situatie; 3 jaar oude Debian file server (mdadm, samba, proftpd, etc):
  • Asus M2N-E moederbord + 2 Delock Sata controllers (SIL3112), Athlon X2 3600+, 4 GB Kingston DDR2
  • Software raid met 2 x raid 5 array (4 x 500 GB, 5 x 750 GB).
  • Dit alles in een traditionele Coolermaster Stacker ST101 met 4 in 3 modules
Geen gebruik van hardware raid omwille van de problemen die je kan hebben wanneer je met een kapotte controller zit.

Mijn net opgezette omgeving:
  • GIGABYTE H55M-USB3 mATX moederbord met 7 sata poorten, Intel Core i3 330, 8 GB Kingston DDR3
  • Sharkoon Rebel 9 aluminium case
  • 3 x Chieftec SST-3141SAS backplane
  • 1x WD Raptor 74 GB (recup)
  • 4 x Samsung HD203WI 2 TB schijf
  • 4 x Samsung HD753LJ 750 GB (recup)
  • 2 x Western Digital WD5000AACS 500 GB (recup)
  • 1 x Delock SATA controller (recup)
Ik heb een deftige Linux basiskennis, maar ik was het geklooi gewoon beu. Periodiek had ik problemen met onboard en externe sata controllers en mdadm arrays die 12 maanden perfect lopen tot je een update doorvoert. Daarom heb ik nu voor Windows 2008 SBS gekozen, waar ik tot nu toe nog geen spijt van heb gehad. Dat ik nu Hyper-V kan gebruiken buiten de opslagmogelijkheden, is mooi meegenomen, mede omdat dit voor mij persoonlijk professioneel net iets nuttiger is om ervaring met Hyper-V op te doen dan vb. Virtualbox (om maar iets te noemen).

In mijn huidige setup:
  • Tracht ik het gebruik van raid arrays te vermijden
  • Worden er wekelijks 1:1 backups genomen van de schijven dmv robocopy
Ik heb afgeleerd om te besparen op schijven (raid 5 vs 1:1 opslag) aangezien wanneer je later een raid 5 array wilt updaten je aanloopt tegen; te weinig poorten op een controller of falende raid 5 extensions. Er zijn genoeg mogelijkheden tot in place extensions (dmv hardware controllers of allerhande linux speelgoed), maar daar wou ik vanaf, het is mij de miserie niet meer waard wanneer zoiets fout afloopt.

Waarom geen raid1? Omdat dit geen bescherming biedt tegen problemen met het filesystem, nog een laagje dat ik er vantussen wou. Voor homestorage lijkt simplisme mij de gouden graal. Zelfs voor virtuele Hyper-V machines lijkt het mij beter je verschillende machines gewoon te splitsen over verschillende hdds zolang je met geen gigantisch labo's zit (die je dan weer niet op homebrew hardware gaat draaien).

Pluspunten van de hudige setup:
  • De plaatsbesparing, de aluminium ATX kast oogt veel compacter en weegt een pak minder dan de oude Stacker.
  • Backplanes zijn duur, maar een verademing. Geen gepruts meer met Coolermaster 4 in 3 modules en SATA kabels die achteraf gezien toch niet helemaal goed instaken.
  • Homebrew rechten management op een Windows machine vind ik net iets leuker werken. (persoonlijke mening).
Negatief:
  • De backplanes maken gigantisch veel herrie. Ik heb deze beetje gedempt met Zalman fan controllers, maar zelfs op laag toerental blijft het te lawaaierig, maar acceptabel aangezien het op afzonderlijke plaats staat.
Verbruik: 50-55 Watt Idle wanneer gemeten met spinned down disks enabled. Met disks op: 70 Watt Idle.

  • nAffie
  • Registratie: Januari 2002
  • Laatst online: 26-03 12:11

nAffie

...

nAffie schreef op dinsdag 11 mei 2010 @ 02:41:
#ProductPrijsSubtotaal
1AMD Sempron 140€ 30,11€ 30,11
1Asus M4A78L-M€ 55,95€ 55,95
1Cooler Master Silent Pro M500€ 65,45€ 65,45
1Kingston HyperX KHX6400D2K2/2G€ 29,75€ 29,75
1Zalman MS1000-HS2€ 126,41€ 126,41
Bekijk collectie
Importeer producten
Totaal€ 307,67
Eindelijk, na bijna 3 weken m'n onderdeeltjes binnen....(Sempron 140 niet direct op voorraad, wist ik tijdens het bestellen al, dus wachtte geduldig af)

Maar kan nu lekker gaan bouwen dit weekend....

Afbeeldingslocatie: http://www.djnaffie.com/pics/IMG00055-20100529-0337sm.jpg

meh.


  • analog_
  • Registratie: Januari 2004
  • Niet online
axis, bedankt voor je antwoord. Dat was exact wat ik zocht, de cijfers van die bigfoot kloppen. Dit was een gedrocht van een hardeschijf met 5.12" platters.

Ik heb zelf ook inmiddels mijn backup aan de praat. Het idee was een infrastructuur waarbij de verantwoordelijkheid van de backups bij de applicatie of server admin (van de machine) daarom is er besloten om een push systeem te gebruiken met rdiff-backup die mappen backupped via NFS op de fileserver. Om het geheel wat gemakkelijker te maken heb ik een VM bijgemaakt met daarop rdiff-web. Je kan ermee gemakkelijk een bepaalde versie van je file terug vissen. Jammer genoeg zitten niet alle functies van rdiff-backup erin verwerkt. Een diff functie á la wiki tussen twee versies zou leuk zijn of een asynchrone recovery queue (bv. dat je zegt wat,wanneer naar waar en dat hij zelf uitzoekt). Paar kleine screenshots van wat het kan.
Afbeeldingslocatie: http://antw-kot.ath.cx/tmp/webrdiff.png
Afbeeldingslocatie: http://antw-kot.ath.cx/tmp/webrdiff2.png

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 03-03 00:41

Quindor

Switching the universe....

Ik ga het voor mezelf een berekenen! Volgens mij de samsung spec sheet van mijn 2TB F3EG Ecogreen schijven moet ik elke 1 sector in 1015bits een unrecoverable read error krijgen.

Euhm, HowTheFuck bereken ik dat? :S :P

Wel een interessant plaatje gevonden. Berekening is lastiger dan het lijkt! :P
Afbeeldingslocatie: http://lefthandnetworks.typepad.com/photos/uncategorized/2008/02/27/ber_chart_3.jpg

Volgens dit plaatje heb ik naar schatting 5% kans bij het lezen van 5TB. Dat betekend dat als ik 14TB moet lezen (7 disks van een 8 disk RAID array) ik zo'n 14% kans heb dat er tijdens het rebuilden van mijn array nog een error op treed!

Error, ik vergeet wederom de wet van de kans berekening toe te passen, maar ik snap niet zo goed hoe dat werkt......

Afbeeldingslocatie: http://lh6.ggpht.com/_QV2VDG5jw64/TAv6eNoiVtI/AAAAAAAAArk/o9UUYbG8fgM/2TB%20Samsung%20Error%20Rate.png

Dat is voor 1 disk... maar nu als je er 7 volledig moet lezen.........

[ Voor 57% gewijzigd door Quindor op 06-06-2010 21:45 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 03-03 00:41

Quindor

Switching the universe....

Neuh, 10Gbit is inderdaad nog wat duur voor PC's en servers.

Eerst word het altijd gemeen goed in netwerk land en daarna druppelt het door naar servers, daarna desktops en daarna laptops. Eerst moet de standaard vast gelegd worden en daarna goedkoop worden (de 100M versie). Het op dit moment gebruikte 10Gbit is praktisch altijd glas.

Het netwerk dat we op CampZone neer leggen bestaat uit meerdere backbones met een 10Gbit ring (7 backbones). Daarop hebben we nog wat extra poorten voor bepaalde switches en wellicht dit jaar zelfs eventuele servers.

Maar de meeste servers (waar onder die van mij) worden met 2Gbit aangesloten. Dat betekend meestal dat deze in het begin de link volledig vol duwt, maar naar mate de tijd verdord de vraag minder word en 2Gbit of zelfs 1Gbit ruim voldoende is. Echt zware bakken van mensen welke we kennen willen we wel eens met 4Gbit aansluiten, maar effectief zit je dan rond de 3Gbit, en heel veel scheelt het niet.

Dit jaar wel 500Mbit internet! :D :D

Hier nog een plaatje van de netwerk structuur op CZ dit jaar.

De 24p switches worden met 2Gbit aangesloten en de 48p met 4Gbit.

Elke field switch word verder zijn eigen VLAN en subnet en gaat via een virtuele L3 router in de backbone verder te ring op. Een soort mini internet zullen we maar zeggen. Verder hebben we een eigen geprogrammeerde oplossing om te zorgen dat games welke op L2 broadcasten op alle subnetten uitkomen, maar windows broadcast bijvoorbeeld niet.

Afbeeldingslocatie: http://static.gameparty.net/sitedata/campzone/2010/netwerk/cz2010plan_sm.png

Anyway, geen netwerk topic. ;)

[ Voor 18% gewijzigd door Quindor op 21-06-2010 14:47 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08-2025
M'n twee WD5000AAKS schijven draaide vanmiddag op 47 graden. Hoewel ik normaal gesproken niet echt bang ben voor te oververhitting (in de winter lees ik meestal 39 graden celcius af) werd het me een beetje te gek vandaag.

34 graden met ventilator! all-time low! :)

[video=425,350]http://www.youtube.com/watch?v=DrFglMLxpNc"[/video]

Afbeeldingslocatie: http://i50.tinypic.com/117zc4z.jpg

  • brid
  • Registratie: Januari 2001
  • Laatst online: 18-03 14:46

brid

Onze excuses voor het ongemak

Als je met webmin aan de gang gaat zeker ook de module "Historic System Statistics" installeren.
Je moet dan wel een aantal extra pearl dingen installeren en een database engine.

Kun je tenmiste over een langere periode zien wat je systeem heeft gedaan.
Zie bv dat de temp van me disks de afgelopen week +- 3 graden is gestegen, terwijl het makkelijk 10 graden warmer is in de ruimte zelf.

week smart

[ Voor 17% gewijzigd door brid op 28-06-2010 10:53 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12-2025

DJ-Visto

Aye aye, sir!

Afbeeldingslocatie: http://tweakers.net/ext/f/dkg34RU4gy7Az0UWE2VUxOGU/full.png

Mijn 3x1TB die nu aan het bouwen zijn, hopelijk snel klaar! Bedankt Jeroentaverne en hostname

Jeroentaverne voor het lenen van 2x1.5TB zodat mijn data gebackupped kon worden, en hostname voor het helpen met installeren van mijn fileserver. Vooral mijn webui!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 02-01 09:15

Wouter.S

e^(i*pi ) +1 = 0

Ik heb net een NAS samen gesteld ter vervanging van mijn DNS-323. En ik zal mijn ervaringen even delen.

Ik had vooraf met Virtualbox zowat alle besturingssystemen eens geprobeerd (Ubuntu Linux, FreeBSD, Opensolaris, Openfiler, FreeNAS,Windows Server 2008 R2, ...) en hierbij kwam FreeNAS voor mij als winnaar uit de bus. Het is gewoon booten en vanaf dan kan je alles instellen via de webinterface. Openfiler is ongeveer gelijkaardig maar had geen ingebouwde Bittorrent client. Bij Ubuntu ed moet je met webmin of iets dergelijk werken en dat is toch weeral iets omslachtiger.

Een ander voordeel was dat er veel ingebouwde energie besparende zaken aanwezig zijn. Onder andere disk spindown en Powerd klokt de cpu flink terug als hij niet gebruikt wordt. Als linux leek voelde ik me toch ook meer op mijn gemak als ik kon werken met een GUI ipv een CLI. FreeNAS heeft ook uitgebreide SMART ingebouwd met een mailsysteem als er iets mis gaat, niet zo speciaal maar wel leuk allemaal.

Het systeempje zelf bestaat uit:
#ProductPrijsSubtotaal
1MSI 760GTM-P33€ 39,90€ 39,90
1AMD Athlon II X2 240€ 48,84€ 48,84
1OCZ Gold OCZ2G8004GK€ 86,64€ 86,64
1Kingston 8GB CompactFlash Elite Pro 133x€ 25,10€ 25,10
4Samsung EcoGreen F2 EG HD154UI, 1.5TB€ 65,-€ 260,-
1Samsung Spinpoint M7 HM321HI , 320GB€ 40,83€ 40,83
1Cooler Master Elite 335€ 29,95€ 29,95
1be quiet! Pure Power L7 300W€ 32,08€ 32,08
Bekijk collectie
Importeer producten
Totaal€ 563,34


Afbeeldingslocatie: http://i30.tinypic.com/2uxydzm.jpg

Het de kast ligt op de foto op de zijkant, nu is hij ook zo opgesteld bovenop een een kast, op die manier ligt/ staat hij niemand in de weg ;)
FreeNas draait embedded en boot vanaf de CF kaart. De 2.5" HDD is voor tijdelijke opslag en als downloaddisk, op die manier moet de raidz1 ZFS pool niet spinnen als het niet nodig is. Ik heb geen verbruikmeter ter beschikking maar ik denk dat dit systeempje vrij zuinig is, onder andere door de active phase switching van het MSI bordje. Ik heb de x2 240 ook lichtjes ondervolt want alle beetjes helpen...

Het enige probleem met FreeNAS is de lage overdrachtsnelheid. Ik heb al veel rondgekeken en talloze fora gelezen en ik mag nog relatief tevreden zijn. Ik haal 55MB/s read en 40MB/s write naar de ZFS pool dit is met Samba en FTP geeft gelijkaardige snelheden. Het zijn geen verpletterende cijfers maar tov mijn DNS-323 is het een hele verbetering. Het probleem ligt volgens mijn aan de slechte compatibiliteit van FreeNAS gebaseerd op FreeBSD met de onboard gigabit controller. Ik ga eens en intel gigabit kaartje aanschaffen (dus moest iemand nog eentje op overschot hebben, let me know :P) want volgens sommigen levert dit een aanzienlijke prestatiewinst op.

Verder kijk ik ook uit naar CoreNAS en OpenMediaVault de 'vervolgprojecten' van FreeNAS. Hier zouden dan dezelfde functies inzitten maar misschien betere compatibiliteit en betere prestaties.

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


  • The_wave
  • Registratie: December 2000
  • Laatst online: 12-02 10:11
Na het aankopen van 3x Hitachi 7k2000 ben ik eerst begonnen met een extended test uit te voeren via de Drive Fitness tool.
Voor en na de extended test heb ik een screenshot gemaakt van de smart gegevens,

Het viel me op dat "Raw Read Error rate" gezakt is van 100 naar 95.
Ook de reliability die Hard Drive inspector aangeeft is gezakt van 100% naar 94% dit na 9uur uptime.
Dit is enkel van de 1ste disk, de andere 2 heb ik nog niet kunnen testen...

Zijn deze waardes verwaarloosbaar of moet ik me nu zorgen gaan maken (DOA?), deze disks komen in een raid5 setup.
Mijn oude WD10EADS geeft na 2 jaar continue draaien nog steeds 100% reliability aan...

Voor:
Afbeeldingslocatie: http://img6.imageshack.us/img6/6669/beforeby.jpg

Na:
Afbeeldingslocatie: http://img821.imageshack.us/img821/2411/afterj.jpg

  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
Als ik een niet te groot DIY NAS zou bouwen, zou ik een van deze behuizingen gebruiken. Echt prachtig.

Afbeeldingslocatie: http://members.multiweb.nl/nan1/got/467981.jpg
Afbeeldingslocatie: http://members.multiweb.nl/nan1/got/467980.jpg
Afbeeldingslocatie: http://members.multiweb.nl/nan1/got/467979.jpg

Ruimte voor 8 interne 3.5" schijven. Met 2x 5,25 inch bays kun je in totaal zo'n 10/11 disks kwijt in deze kast. Voor de meeste mensen ruim voldoende denk ik.


Edit: wel handig om de naam van de kast te noemen:

Fractal Design, de Define R2, beschikbaar in die drie kleuren. (aldus Dadona)

[ Voor 69% gewijzigd door Q op 08-08-2010 17:06 ]


  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 15:46
Klojum schreef op zondag 30 mei 2010 @ 21:05:
[...]

De Antec NSK1380 heb ik ook, en een HTPC is het enige nuttige wat je ermee kan doen, zolang je je mediabestanden streamt van een externe server. Je kunt hooguit drie 3,5" schijven kwijt (naast een 5,25" slot, meestal de CD/DVD/BD-ruimte.

Daarnaast kent deze kast weinig echte airflow. Er is een weggewerkt luchtrooster aan de voorkant, maar de fan in de kleine voeding trekt te weinig lucht door de kast.De harddisks worden dus relatief warm/heet.

Er wordt standaard een extra PCI-slot-fannetje meegeleverd t.b.v. de chipsetkoeling, wat ook niet te regelen is en de voedingsfan qua kabaal aardig overstemt. Geen echt stille kast dus. Wil je de boel met deze kast stil hebben, neem dan een notebookschijf (of SSD) en trek de mediabestanden ergens anders vandaan.
<knip>

Al met al een systeemkast(je) dat ik niet snel zal aanbevelen...
Beetje ouwe quote, maar ik heb dit kastje dus ook in gebruik en ik ben er opzich niet al te ontevreden over. Voordeel is dat hij erg stil is en dat er een 80plus voeding in zit. Ik heb er 4 schijven van 1,5TB (Samsung F2's) en een 160GB laptopdisk inzitten. Aan de achterzijde heb ik de PCI slot coverplaatjes weggehaald en tegen de openingen een 92mm Noiseblocker fan geplaatst. Luchtverplaatsing genoeg en de HDD's blijven mooi koel. Nadeel is dat de kast nu wel vol zit qua uitbreiding, of deze kast meegaat naar een volgende setup is maar de vraag.

Prestaties met 3,1TiB data op de onboard ICH10R RAID5 array zijn ook nog keurig, ik trek over gigabit nog steeds 100-110MB/s en ATTO scoort 180MB/s schrijven en 210MB/s lezen, wat voor mijn gebruik ruim voldoende is :)

Afbeeldingslocatie: http://i36.tinypic.com/24wzf6e.jpg

Toen de server net in elkaar zat en de disks nog leeg waren was de write een stuk lager en de read een stuk hoger, zie deze post: NoepZor in "Het grote DIY RAID NAS topic deel 3"


Edit: weet iemand hoe je aan de Intel Matrix Storage manager software komt (windows prog), of bestaat deze niet meer?

[ Voor 7% gewijzigd door NoepZor op 10-08-2010 23:36 ]

De wijzen komen uit het Oosten!


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
RAID 5 vs. RAID 6

Afbeeldingslocatie: http://blog.kj.stillabower.net/wp-content/uploads/2009/08/3fail.png

Bron: http://blog.kj.stillabower.net/?p=93


Voor storage porno, klik hier.

[ Voor 29% gewijzigd door Q op 12-08-2010 00:56 ]


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Wel heeft hij de kabels netjes verwerkt. Netjes zelf op maat gemaakt.

Voor:
Afbeeldingslocatie: https://files.me.com/maartendevries/0t0is9

Na:
Afbeeldingslocatie: https://files.me.com/maartendevries/uuoc3o

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Heb uiteindelijk toch gekozen om mijn behuizing te vervangen door een rackmount. Keuze was vrij eenvoudig: Chenbro RM31616M-G

Afbeeldingslocatie: https://files.me.com/maartendevries/02n3k1

Afbeeldingslocatie: https://files.me.com/maartendevries/5re8o8

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 09-01 22:32
Gebruik nu Netatalk voor mijn netwerk shares. Time Machine werkt hier echt erg snel. Zie een stukje uit de handleiding die ik heb geschreven voor mijn installatie. Belangrijk is dat je achter je Time Machine share de "option:tm" gebruikt. Hierdoor wordt je Time Machine share namelijk standaard herkent zonder aanpassing van OSX.

Afbeeldingslocatie: https://files.me.com/maartendevries/qlicrs

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Verwijderd

zijn dit slechte cijfers?
raid via intel P55 chipset.
ben nog op zoek naar leuke hardware raid die 6GB/s aan kan voor mijn raid 5.
heb de schijven beetje op de toekomst gekocht ook met sata600.
even goed googlen en maar afwachten wat er voor komt.
daarnaast valt het wel op dat er weinig cpu load is als ik 100gb schrijf naar de raid 5.
vind het nu ook erg netjes draaien voor onboard raid, had slechter verwacht.

tinypic ligt er even uit, plaatjes komen wel terug denk ik.

Raid 0 WD Caviar Black (2x 500GB, Netto 931.5 GB)
Afbeeldingslocatie: http://i52.tinypic.com/r70qav.jpg

Raid 5 WD Caviar Black WD1002FAEX SATA600 (3x 1 TB, netto 1.819 TB)
zo te zien wel als te verwachten denk ik? single disk write speeds en raid 0 read
Afbeeldingslocatie: http://i54.tinypic.com/jt8bc4.jpg

de settings:
Heb gekozen voor 32kb stripe size omdat dat met 3 schijven de beste resultaten gaf.
Afbeeldingslocatie: http://i52.tinypic.com/dym42r.jpg

[ Voor 33% gewijzigd door Verwijderd op 02-09-2010 08:52 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 13:44
De Antec P183 krijgt ook een SPCR REcommended Product waardering, dus zo negatief zijn ze niet over de R2.

Overigens is nu al de R3 versie uit, maar wat daar beter aan is weet ik niet.

Maar super mooi.

Afbeeldingslocatie: http://content.hwigroup.net/images/news/fractal_design_design_r3_01.jpg

Ze hebben nu ook een XL versie met 10 interne 3.5" HD slots:

Afbeeldingslocatie: http://www.fractal-design.com/img_thumb/FD-CA-DEF-XL-TI_1_medium.jpg

Afbeeldingslocatie: http://www.fractal-design.com/img_thumb/FD-CA-DEF-XL-BL_6_small.jpg

[ Voor 18% gewijzigd door Q op 06-09-2010 23:48 ]


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08-2025
@voodooless
Misschien moet je ook even kijken naar een Intel i3 530 processor. Het systeem is iets duurder in aanschaf maar je hebt meer performance tot je beschikking voor RAID5 en lagere energie kosten (een compleet 530 systeem gebruikt nl. slechts 30W idle).

offtopic:
Het uTorrent-team heeft deze week een Linux beta uitgebracht(!). Me very happy hehe :9

Afbeeldingslocatie: http://a.imageshack.us/img838/2329/utorrent.png

[ Voor 38% gewijzigd door iBurger op 07-09-2010 15:53 ]

Pagina: 1 2 ... 8

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.