Even niets...
Volgens mij haal je netto en bruto door elkaar. Bruto betekent dat je simpelweg de capaciteiten van al je schijven bij elkaar optelt, terwijl netto je totale opslagruimte is dat beschikbaar is nadat je redundancy toegepast hebt. En daarom wordt er dus op netto gesorteerdzzattack schreef op zaterdag 17 september 2011 @ 17:20:
Waarom wordt er op netto capacity en niet op bruto gesorteerd? Dit moedigt een beetje redundancy natuurlijk niet aan... wat in de meeste gevallen hier toch echt wel nuttig zou zijn
Nee, nu 'loont' het om raid5 te kiezen i.p.v. raid6. raid5 levert meer bruikbare ruimte op en daarmee een hogere plaats in de lijst. Triviaal is natuurlijk, maar just sayingPi0tr schreef op woensdag 21 september 2011 @ 23:01:
[...]
Volgens mij haal je netto en bruto door elkaar. Bruto betekent dat je simpelweg de capaciteiten van al je schijven bij elkaar optelt, terwijl netto je totale opslagruimte is dat beschikbaar is nadat je redundancy toegepast hebt. En daarom wordt er dus op netto gesorteerd
Ach het is maar net wat je belangrijk vindt. Je ranking (en de wetenschap dat er heus wel iemand je van je plekje stoot) of de relatieve veiligheid van je data aanwezig in de pool/array.zzattack schreef op donderdag 22 september 2011 @ 00:41:
[...]
Nee, nu 'loont' het om raid5 te kiezen i.p.v. raid6. raid5 levert meer bruikbare ruimte op en daarmee een hogere plaats in de lijst. Triviaal is natuurlijk, maar just saying
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Maar wellicht komt een RAID6 met dezelfde netto capactiteit als een RAID5 wel hoger in de lijst, wegens betere redundantie. en overklassen beiden de RAID1- en RAID10-oplossingen.zzattack schreef op donderdag 22 september 2011 @ 00:41:
[...]
Nee, nu 'loont' het om raid5 te kiezen i.p.v. raid6. raid5 levert meer bruikbare ruimte op en daarmee een hogere plaats in de lijst. Triviaal is natuurlijk, maar just saying
Nu is het de vraag: wie gaat voor die nr.1-positie: >100TB met een RAID5 of RAID6-oplossing ;-)
[ Voor 3% gewijzigd door FireDrunk op 22-09-2011 14:04 ]
Even niets...
Ik heb nog wel een 30GB schijfje liggen, dat mag je wat mij betreft gratis hebben
Hoef je er zelf nog maar 3334 bij te zoeken voor een 100.08TB arraytje
Heiligschennis]Byte\[ schreef op donderdag 22 september 2011 @ 16:28:
* ]Byte[ heeft vorige maand met een oude 30MB disk (NEC 5126 met RLL-controller) weggegooid...
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Hele poos met passthru gewerkt onder ESXi4, werkte altijd prima. Ook ESXi5 draait hier prima (nog in test, weinig gebruik...)thalantis schreef op donderdag 22 september 2011 @ 16:57:
heeft er iemand al eens gestoeid met esx4i of esx5i, het werkt allemaal prima totdat ik de areca 1260 als passthru aanbied aan de vm, dan wil de vm niet meer opstarten, dan blijf ik continue het balkje zien van windows boot scherm
Even niets...
Even niets...
Verwijderd
AMD Athlon II X2 220
ASUS M5A78L-M LX
2 x Crucial 2GB DDR3-1333 CL9
6 x Samsung Spinpoint F2 EcoGreen 1.5TB
Word gebruikt om iso'tjes te sharen op het netwerk en VM'tjes te storen op de nas.
De schijven worden geconfigureerd met een RAID5 setup.
Gaat dit een beetje performen voor mijn doel of moet ik deschijven anders configureren ?
Onder het motto:FireDrunk schreef op vrijdag 23 september 2011 @ 09:11:
Zelfs dat vind ik het niet waard hoor... Stilstaan bij het verleden kost alleen maar tijd...
'Wie wat bewaard, die heeft wat ,... maar verliest enkel tijd met uitzoeken wat er ook al weer bewaard was.'
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Oeh! Da's wel een mooie case! Heb dezelfde mobo maar met een case waar maar 4 schijven + ssd in kunnen. In deze case kunnen 6 schijven met een ssdBierkameel schreef op zaterdag 17 september 2011 @ 19:37:
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Ik mag niet in het officiele lijstje maar ik doe toch ff een showoff want ik heb mijn 10+TB nu nog verdeelt over deze NAS en mijn Synology 410.
Als de 3TB schijven goedkoper worden gaan er 6 in deze NAS en gaat de Synology de deur uit dus dan kan ik officieel in het lijstje
Supermicro X7SPA-HF-D525 met een Atom D525, 6x SATA en 2 x Intel gbit NIC's.
4 GB DDR3 SO-dimm
4 x Samsung HD204UI 2TB
1 x WD Raptor 10K 300GB als cache disk.
1 x 320GB laptopschijfje voor de installatie.
Het kastje is een Fractal Design Array R2 Mini ITX NAS case, heerlijk stil door de 140mm koeler en een goede voeding.
Het gaat mij ook om zuinigheid omdat het ding altijd aanstaat, met alle disken operatief neemt het net iets meer dan 50W dus dat is goed te doen.
Als er 6 x 3TB in zit meld ik me hier wel weer
Edit: hoe ga je dat eigenlijk doen? Je hebt maar 6 SATA poorten. Als daar 6x 3TB op prikt, waar komt dan je OS schijf? USB?
[ Voor 3% gewijzigd door iMars op 23-09-2011 12:08 ]
Geweldig, zo had ik hem nog niet bekekenPantagruel schreef op vrijdag 23 september 2011 @ 11:30:
Onder het motto:
'Wie wat bewaard, die heeft wat ,... maar verliest enkel tijd met uitzoeken wat er ook al weer bewaard was.'
Even niets...
Yupz, er zit zelf een interne USB poort het het moederbordjeiMars schreef op vrijdag 23 september 2011 @ 12:07:
Edit: hoe ga je dat eigenlijk doen? Je hebt maar 6 SATA poorten. Als daar 6x 3TB op prikt, waar komt dan je OS schijf? USB?
Dat weet ik, ik heb hem ook... maar ik dacht eigenlijk dat je een harddisk als OS disk wildeBierkameel schreef op vrijdag 23 september 2011 @ 20:27:
[...]
Yupz, er zit zelf een interne USB poort het het moederbordje
en wat is het nut van een pass through disk op de areca controller zelf?
[ Voor 19% gewijzigd door thalantis op 24-09-2011 20:23 ]
pass through disk op de controller is simpelweg een "domme" sata controller. dat wil zeggen dat de areca zich niet bezighoud met de schijf in RAID gooien, maar hem gewoon aanbiedt aan het OS.thalantis schreef op zaterdag 24 september 2011 @ 20:21:
wil graag gaan virtualiseren, maar zit met een dilemma, hoe krijg ik de data vanaf mijn areca 1260 op de vm, als ik hem als passthru aanbied start de vm niet op.
en wat is het nut van een pass through disk op de areca controller zelf?
maar waarom zou je je VM als pass through willen draaien? waarom niet gewoon een fixed size disk?
de overhead die je krijgt van VHD is minimaal (MITS FIXED SIZE!!!) en het voordeel is veel groter dan een pass through disk.. je hebt het voordeel van je complete RAID systeem qua I/O, en moven naar een ander systeem is appeltje eitje..
60 TB can not be enough
Vanaf ca 2004/200 bezig met een aparte opslag voor data, bereikbaar over het netwerk/internet. PentiumII/III hiervoor gebruikt in grote towerkasten met veel harde schijven van 250/500GB. FreeBSD was hierop mijn OS. Mooi OS en erg goed te onderhouden. Dit is tot 2007/2008 in gebruik gebleven maar werd steeds onbetrouwbaarder.
Vanaf 2007/2008 wat externe schijven in gebruik genomen (Mybook's vooral) tot ca 2009 het weer tijd werd voor een centrale opslag van data. In verband met de gebruiksvriendelijkheid en de mogelijkheid voor het toevoegen van packages ben ik gegaan voor een Synology DS409.
Nu dus doorgegroeid naar een DS2411+, weer om de gebruiksvriendelijkheid en de packages. Specifiek de 2411+ i.v.m. het makkelijk (fysiek) uitbreiden van de hoeveelheid disks en de snelheid van de processor (ivm unrarren)
Oude systeem;
1*DS409
4*2TB Hitachi HDD
Netto ca 5TB.
Nieuwe Systeem;
1*Synology 2411+
1*2GB geheugen uitbreiding (deze moet nog wel ingebouwd worden, nog bezig met wat kopieeracties en het bouwen/uitbreiden van de RAID duurde erg lang allemaal)
6*3TB WD Caviar Green 3TB IntelliPower 64MB SATA3 in SHR raid met 2disk redundancy
1*Netgear ProSafe GS108T 8-Poort Gigabit Switch
1*APC Back-UPS CS 650VA 230V
Bruto 18TB, netto 10,73TB (volgens DSM)
De DS409 zal als backup off-site d.m.v. rsync over glasvezel worden gebruikt voor de belangrijkste data (hetgeen wat niet te downloaden is dus)
Wanneer mijn huis klaar is met de upgrade
Gebruik zal voornamelijk Films, Series en Backup van de iMac zijn. Verder heb ik nog wel een paar GB aan eigen videofilm projectjes en foto's.
Foto's van oud en nieuw op de nog steeds tijdelijk plaats :-)


[ Voor 8% gewijzigd door erikafoort op 25-09-2011 18:39 ]
En wat doe je met de overgebleven 2TB disks?
wil esx5i gaan draaien met een van de areca 1230 als datastore, dat wil op zich wel, maar hoe krijg ik de data van de fysieke win 2008 r2 die tegen de areca 1260 staat aan te babbelen naar een win 2008 r2 die als vm draait op de areca 1230 datastorefreak1 schreef op zondag 25 september 2011 @ 08:08:
[...]
pass through disk op de controller is simpelweg een "domme" sata controller. dat wil zeggen dat de areca zich niet bezighoud met de schijf in RAID gooien, maar hem gewoon aanbiedt aan het OS.
maar waarom zou je je VM als pass through willen draaien? waarom niet gewoon een fixed size disk?
de overhead die je krijgt van VHD is minimaal (MITS FIXED SIZE!!!) en het voordeel is veel groter dan een pass through disk.. je hebt het voordeel van je complete RAID systeem qua I/O, en moven naar een ander systeem is appeltje eitje..
kopieeren?thalantis schreef op zondag 25 september 2011 @ 15:05:
[...]
wil esx5i gaan draaien met een van de areca 1230 als datastore, dat wil op zich wel, maar hoe krijg ik de data van de fysieke win 2008 r2 die tegen de areca 1260 staat aan te babbelen naar een win 2008 r2 die als vm draait op de areca 1230 datastore
ik heb niet echt een idee wat je wilt?
je hebt 2 servers maak ik hierop uit..
1 server met esx 5i, en 1 server met server 2008 r2.
en wat wil je dan bereiken?
60 TB can not be enough
^^post is aangevuld.zzattack schreef op zondag 25 september 2011 @ 13:45:
Net systeempje. Foto's?
En wat doe je met de overgebleven 2TB disks?
Ik moet wel zeggen dat zo'n Synology er erg mooi uitziet en een mooie oplossing is. Maar voor rond de 1100 euro kun je een grotere behuizing volduwen met betere specced hardware die meer flexibiliteit kan bieden. Maar dat is een beetje een Nerd-aanpak.
De keuze voor de Synology is analoog aan de keuze voor die iMac 27"? (gezien de doos waar hij op staat) dus ik begrijp het wel. Geen gezeik gewoon werken. Zo'n server bouwen is veel tijd en moeite en dan moet je nog maar zien dat het werkt en compatibel is.
[ Voor 69% gewijzigd door Q op 25-09-2011 19:59 ]
Aanpassing requirements systeem post
Ik vind de systeem posts nog al een onsamenhangende bende zonder consistentie.Daarom heb ik een standaard tabel gemaakt die ingevuld moet worden om zo de posts leesbaar te houden voor bezoekers. Zie de topic start. Een ingevuld voorbeeld is mijn eigen systeem.
Q in "Storage showoff topic - 10+ TB storage systems"
Tips en commentaar altijd ok.
Aanpassing requirements systeem post
[ Voor 5% gewijzigd door Q op 25-09-2011 20:00 ]
Algemene beoordeling; Het is wat ik verwachtte, dus een algemeen oordeel gegeven.Q schreef op zondag 25 september 2011 @ 19:49:
@erikafoort je staat er in. Je product review was niet super positief over de Synology, kun je die motivatie in je topic overnemen?
Inbouwmogelijkheden; Het doel waarvoor ik hem kocht, inbouwmogelijkheid van 12 disks. Daarnaast nog een mogelijkheid voor een 'expander' (DX1211) dus hoge score.
Vormgeving, Ik blijf het niet erg mooie kasten vinden. De 2411 zou niet in de woonkamer mogen staan, dus een lagere score. Hij staat bij mij in de voorraadkast, krijgt zijn eigen plank daar.
Modbaarheid Wordt dat fysiek bedoeld (dat is een erg lage score) of software (dat is weer een hoge score), dus maar beetje laag ingezet.
Bouwkwaliteit; je kan alleen de bays eruit halen volgens mij maar die zagen er wel goed uit. Ervaring van de DS409 is dat daar niks mis mee is. Beetje op ervaring afgegaan.
Koelingsmogelijkheden; Lijkt me compleet, is in te stellen naar voorkeur.
Installatiegemak; samen met de synology assistant is dat een eitje.
Ik ben jaren bezig geweest met FreeBSD op de server en (hoofdzakelijk Fedora) Linux op de desktop. FreeBSD is een prima server OS maar je moet het wel zelf onderhouden. Nu download ik een update en installeer ik die remote, 10 minuten en klaar. FreeBSD was heerlijk om de Nerd aspiraties op los te laten, vooral scripts maken heeft me altijd erg beziggehouden maar kost allemaal veel meer tijd. Verdiepen in de materie voor keuzes als ZFS, EXT4 etc trekt me al een paar jaren niet meer. Hier is de Synology (linux based) een goed voorbeeld van Plug and Play.Ik moet wel zeggen dat zo'n Synology er erg mooi uitziet en een mooie oplossing is. Maar voor rond de 1100 euro kun je een grotere behuizing volduwen met betere specced hardware die meer flexibiliteit kan bieden. Maar dat is een beetje een Nerd-aanpak.
Windowsspul komt er bij mij al heel lang niet meer in, hoogstens een virtuele XP (die licentie heb ik nog) voor AutoCAD maar sinds AutoCAD gewoon voor de Mac te krijgen is..... Dus als server OS ging dat het helemaal niet worden.
Op mijn werk heb ik een Windows computer staan maar met onverklaarbare freezes wordt het vertrouwen in windows als OS niet groter. Op zich heb ik niks tegen windows, heck het was jaren het OS voor mij maar op gegeven moment had ik de mogelijkheid om verder te gaan met de mac en dat was voor mij hetgeen waar ik al een tijdje naar op zoek was.
Je mag inderdaad bovenstaand verhaal voor de server wel doortrekken naar de keuze voor de desktop. Ook hier geldt dat een computer gewoon zijn werk moet doen. Daarbij komen nog de applicaties voor de iPad/iPhone die naadloos werken. Serverbeheer vanaf een iPhone/iPad, allemaal standaard ondersteund. Bestanden beheren, mogelijkheid voor het beeld bekjiken van een camera aan de 2411. etc etc. Zal vast ook kunnen voor een *nix server (of een windows server) maar hoe en wat... dit werkt uit de doos.De keuze voor de Synology is analoog aan de keuze voor die iMac 27"? (gezien de doos waar hij op staat) dus ik begrijp het wel. Geen gezeik gewoon werken.
Dit soort applicaties maken voor mij een server.
Ik ben een beetje offtopic gegaan denk ik maar wilde graag de vraag beantwoorden.Zo'n server bouwen is veel tijd en moeite en dan moet je nog maar zien dat het werkt en compatibel is.
Concluderend heb ik een duidelijke keuze gemaakt voor gebruikersgemak en ik ben me bewust dat dat mij wat meer kost.
Een hoop mensen werken 36 tot 40 uur per week en dan wil je gewoon dat thuis alles werkt zonder geklooi. Ik behoor tot de zieke geesten die thuis ook graag klooit. Maar dat is voor ieder verschillend. En nu zou ik het anders doen dan 2 jaar geleden.
Het is absoluut zinnig om te lezen wat de insteek van iemand is om tot een bepaalde keuze te komen, je weet immers nooit of je huidige inzicht gaat veranderen of dat je het constante gefröbel aan je zelfbouw server zat zult worden. Het zou jammer zijn als dit showoff topic beperkt zou blijven tot enkel eigen bouw oplossingen. Je merkt terecht op dat er hordes mensen zijn die willen dat het 'gewoon werkt' en er geen glorie in zien om vanaf de cli een script te draaien dat ze in elkaar geflanst hebben.Q schreef op zondag 25 september 2011 @ 23:00:
Ik denk dat dit een waardevolle toelichting is en zeker iets is voor mensen om in hun overwegingen mee te nemen. Ik denk dat dit zeker niet offtopic is.
Een hoop mensen werken 36 tot 40 uur per week en dan wil je gewoon dat thuis alles werkt zonder geklooi. Ik behoor tot de zieke geesten die thuis ook graag klooit. Maar dat is voor ieder verschillend. En nu zou ik het anders doen dan 2 jaar geleden.
Ach, ziek, een ietwat uit de hand gelopen hobby misschien

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Iedere keer bij booten checksum failure
Wat blijkt na 1 uur proberen, DVD drive defect...

Na vervanging een pijnloze update!
Eind goed al goed ;-)
[ Voor 8% gewijzigd door lampie1979 op 26-09-2011 01:34 ]
They call her... c*ck juggeling Thunderc*nt!
Done => lampie1979 in "Storage showoff topic - 10+ TB storage systems"Q schreef op zondag 25 september 2011 @ 19:59:Aanpassing requirements systeem post
Ik vind de systeem posts nog al een onsamenhangende bende zonder consistentie.
Daarom heb ik een standaard tabel gemaakt die ingevuld moet worden om zo de posts leesbaar te houden voor bezoekers. Zie de topic start. Een ingevuld voorbeeld is mijn eigen systeem.
Q in "Storage showoff topic - 10+ TB storage systems"
Tips en commentaar altijd ok.Aanpassing requirements systeem post
They call her... c*ck juggeling Thunderc*nt!
Je had het ook via usb kunnen doenlampie1979 schreef op maandag 26 september 2011 @ 01:21:
ESXi 4.1 ge-update naar ESXi 5
Iedere keer bij booten checksum failure, 4x DVD gebrand met 2 verschillende branders...
Wat blijkt na 1 uur proberen, DVD drive defect...
Na vervanging een pijnloze update!
Eind goed al goed ;-)
Freak1's DS3611xs
System specifications | |
Component | Value |
---|---|
Case | Synology DS3611xs + 2 X DX1211 |
CPU | Intel Core I5 (bromolow) |
RAM | 8 GB |
Motherboard | Synology Made |
Operating system | Synology Custom Linux Distro |
Controller | Custom |
Hard drive | 24 X WD20EARS, 12 X WD2002FYPS, plus per 12 schijven 1 van hetzelfde type als coldspare |
RAID array configuration | 3 X 12 disk Synology Hybrid Raid met 2 disk redundancy (RAID 6 variant) |
Netto storage capacity | 60 TB |
Network | 4 X 1gbit in LAG, 4 Gbit effectief |
UPS | Ja, SmartUPS 3000VA |
Filesystem | Synology bepaalt |
Idle power usage | idle ongeveer 120 watt. full power 220 watt |
en natuurlijk de pics..

60 TB can not be enough


Geen zin in. Dat geklooi met USB, daar heb ik 9 van de 10 keer ruzie meeDJ-Visto schreef op maandag 26 september 2011 @ 07:43:
[...]
Je had het ook via usb kunnen doenOh en negeren van dat je de usb/dvd er uit moet trekken als hij gaat restarten moet je ook echt doen anders boot hij nog vrolijk met 4.1 mag je weer aan de slag
They call her... c*ck juggeling Thunderc*nt!
Bruut! Kussentje eroverheen en je kan lekker lounges ;-)freak1 schreef op maandag 26 september 2011 @ 10:34:
dan ook mijn systeem eens goed opgenomen :
Freak1's DS3611xs
Miauw
en natuurlijk de pics..
[afbeelding]
They call her... c*ck juggeling Thunderc*nt!

System specifications | |
Component | Value |
---|---|
Case | Synology DS2411+ |
CPU | Moet ik nog uitzoeken welke het nou precies is (ivm bootstrap). |
RAM | 3 GB |
Motherboard | Synology Made |
Operating system | Synology Custom Linux Distro |
Controller | Custom |
Hard drive | 6 X WD 3TB |
RAID array configuration | 1 X 6 disk Synology Hybrid Raid met 2 disk redundancy (RAID 6 variant) |
Netto storage capacity | 10,8 :-) TB |
Network | 2 X 1gbit |
UPS | SmartUPS 650VA |
Filesystem | Synology bepaalt |
Idle power usage | twee keer de helft (nog niet gemeten) |
[ Voor 3% gewijzigd door erikafoort op 28-09-2011 06:22 ]
Hij staat al een aantal maandjes te draaien maar had tot dusver niet veel tijd om hem hier ook even te showen. Ik heb er erg lang over nagedacht om ZFS software RAID te gaan draaien maar mede door gebrek aan kennis, en de "zin" om aan m'n storage te klooien heb ik uiteindelijk toch gekozen voor een Areca hardware RAID controller. Wat ook wel meespeelde is dat je op het gegeven moment het een en ander in je verlanglijstje zet, Quadcore processor is best fijn voor ZFS, veel geheugen, hoppa een SSD erbij enzovoort. De kosten begonnen toch wel een beetje de pan uit te rijzen. Het ZFS zou namelijk op een apart systeem moeten komen te draaien omdat ik de storage (nog) niet wil gaan virtualiseren, en ik Windows Server 2008 met HyperV als host wil hebben draaien. En je komt op die manier ook wel een beetje in de problemen te zitten met warmteontwikkeling en stroomverbruik. Één zware server is wel genoeg.
Elke keer als ik wat nieuws voor de server bestel denk ik, "nu is ie echt af", maar dat is hij nog steeds niet. Ik hoop dat de geheugenfabrikanten eindelijk eens 8GB ECC UDIMM's uitvinden zodat ik 32GB RAM er in kan zetten. Daarnaast vind ik de opstelling van de HDD's ook nog niet perfect. De RAID6 doet goed z'n werk, nu 4TB gevuld van de 12, maar de array van 4x WD 2TB voor de HyperV machines moet echt anders, net zoals de 250 GB schijf voor het OS. De Hyper-V machines gebruik ik vooral voor wat test doeleinden en een Sharepoint/Exchange machine + wordpress waar ik mijn blog op host (www.jeroen92.nl) Nu ik DPM 2010 ook geinstalleerd heb merk ik dat het host OS vaak erg traag reageert en zit dus te denken om de 80GB Intel SSD uit mijn eigen PC hier in te zetten. Tot een paar maand terug stond alle data van de RAID6 Array nog op de vier 2TB disks van Western Digital maar omdat die vaak niet goed functioneren op een HW RAID controller heb ik daarvoor de Samsungs aangeschaft. De WD's zijn nu dus over, maar eigenlijk wil ik deze ook vervangen door een grote SSD (ca 300GB). De Western Digitals moeten dan naar een nog aan te schaffen backup server gaan, want RAID is natuurlijk geen backup
Plannen genoeg dus!
De specificaties van de server staan hieronder beschreven. De server hangt in een 12U 19" serverkast van Alfaco, samen met de HP Procurve V1910 16 poort Gigabit switch (eigenlijk een 3com maar met een HP naam). Als laatst hangt er ook nog een zelfbouw 1U Atom servertje in. Deze functioneert als domeincontroller en wat andere applicaties zoals Windows Deployment Services. Aanvankelijk had ik deze gevirtualiseerd maar omdat ik hypervisor zelf ook in het domein wil hebben ivm NTFS ACL's leverde dit nogal wat vage problemen op. Weet niet of het hier mag staan maar voor de geïnteresseerden zet ik de specs wel even neer.
System specifications zelfbouw 1U server | |
Component | Value |
---|---|
Case | Supremicro CSE-510T-200B |
CPU | Intel Atom D510 |
RAM | 4GB Kingston SODIMM |
Motherboard | Supermicro X7SPA-HF-O |
Operating system | Windows Server 2008 R2 |
Controller | N.v.t. |
Hard drive | 1 WD 80 2,5" Scorpio |
RAID array configuration | N.v.t. |
Netto storage capacity | 80GB |
Network | 2x 1Gbit IEEE 802.3ad Dynamic Link Aggregation naar de HP V1910-16G switch |
UPS | Nog niet, staat wel op de planning |
Filesystem | NTFS |
Idle power usage | Nog nooit gemeten |
System specifications zelfbouw 3U storage en HyperV bak | |
Component | Value |
---|---|
Case | Norcotech RPC 3116 |
CPU | Intel Xeon E3 1220 (LGA 1155, Quad Core, 3.1 GHz |
RAM | 16GB Kingston ValueRAM ECC UDIMM |
Motherboard | Supermicro X9SCM-F (iPMI, KVM over IP, dual Gbit LAN |
Operating system | Windows Server 2008 R2 |
Controller | Areca ARC-1222, Intel SASUC8i |
Hard drive | 8x Samsung EcoGreen F4EG HD204UI (2TB), 4x WD20EARS (2TB), 3x WD10EADS (1TB), 1x WD250ABYX (250GB) |
RAID array configuration | 8x Samsung op de Areca in RAID6, 4 WD 2TB in RAID0 |
Netto storage capacity | 23TB |
Network | 2x 1Gbit IEEE 802.3ad Dynamic Link Aggregation naar de HP V1910-16G switch |
UPS | Nog niet, staat wel op de planning |
Filesystem | NTFS |
Idle power usage | Nog nooit gemeten |
En de foto's (de standaard fans van de Norco heb ik trouwens vervangen voor wat "kalmere" exemplaren)








Bedankt @ de mensen die hun bestaande post al hebben bijgewerkt. Ik ben erg tevreden over de tabel, de posts worden er helderder door.
Verwijderd
Heel mooi systeempje, in de toekomst wil ik ook met HyperV en virtualisatie (WHS en windows 2008 server) mijn systeem opbouwen.fcg123 schreef op woensdag 28 september 2011 @ 12:47:
Hierbij zal ik mijn homeserver ook maar even aankondigen
...
Maw ik mag nu ook posten in dit topic.
foto's:
Login:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| _sudZUZ#Z#XZo=_ DDDD EEEEEE BBBB IIIIII AAAA NN NN _jmZZ2!!~---~!!X##wa DD DD EE BB BB II AA AA NNN NN .<wdP~~ -!YZL, DD DD EEEEE BBBBB II AAAAAA NNNN NN .mX2' _%aaa__ XZ[. DD DD EE BB BB II AA AA NN NNNN oZ[ _jdXY!~?S#wa ]Xb; DDDD EEEEEE BBBBB IIIIII AA AA NN NN _#e' .]X2( ~Xw| )XXc .2Z` ]X[. xY| ]oZ( Linux Version 2.6.37.6-bbox .2#; )3k; _s!~ jXf` Compiled #1 SMP Sat Jun 18 10:32:33 CEST 2011 1Z> -]Xb/ ~ __#2( Two 1.6GHz Intel Pentium(R) Dual-Core CPU E6300 @ 2.80GHz Processors, 6GB RAM -Zo; +!4ZwaaaauZZXY' 11199 Bogomips Total *#[, ~-?!!!!!!-~ Load Average 0.01, 0.07, 0.21 XUb;. Uptime 10 days 16 hours 41 minutes )YXL,, bbox +3#bc, -)SSL,, ~~~~~ |
benchmark:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| bbox:/mnt# hdparm -tT /dev/md126 /dev/md126: Timing cached reads: 2378 MB in 2.00 seconds = 1189.07 MB/sec Timing buffered disk reads: 1216 MB in 3.00 seconds = 405.29 MB/sec bbox:/mnt# hdparm -tT /dev/md0 /dev/md0: Timing cached reads: 2314 MB in 2.00 seconds = 1156.66 MB/sec Timing buffered disk reads: 1444 MB in 3.00 seconds = 480.77 MB/sec bbox:/mnt# hdparm -tT /dev/md1 /dev/md1: Timing cached reads: 2238 MB in 2.00 seconds = 1119.50 MB/sec Timing buffered disk reads: 1292 MB in 3.01 seconds = 429.66 MB/sec |
cmdline output:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
| bbox:/mnt# cat /proc/mdstat Personalities : [raid0] [raid6] [raid5] [raid4] md1 : active raid6 sdn1[6] sdh1[5] sdg1[4] sdf1[3] sdt1[2] sdu1[1] sdq1[0] 4883793920 blocks super 1.2 level 6, 1024k chunk, algorithm 2 [7/7] [UUUUUUU] md0 : active raid6 sdc1[6] sda1[5] sdm1[4] sdo1[3] sdk1[2] sdb1[1] sdi1[0] 4883793920 blocks super 1.2 level 6, 1024k chunk, algorithm 2 [7/7] [UUUUUUU] md126 : active raid5 sdr1[0] sdp1[6] sdl1[4] sdj1[3] sde1[2] sdd1[1] 9767531520 blocks super 1.2 level 5, 1024k chunk, algorithm 2 [6/6] [UUUUUU] unused devices: <none> bbox:/mnt# lspci 00:00.0 Host bridge: Intel Corporation 4 Series Chipset DRAM Controller (rev 02) 00:01.0 PCI bridge: Intel Corporation 4 Series Chipset PCI Express Root Port (rev 02) 00:06.0 PCI bridge: Intel Corporation 4 Series Chipset PCI Express Root Port (rev 02) 00:1a.0 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #4 00:1a.1 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #5 00:1a.2 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #6 00:1a.7 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #2 00:1c.0 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 1 00:1c.4 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 5 00:1d.0 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #1 00:1d.1 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #2 00:1d.2 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #3 00:1d.7 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #1 00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev 90) 00:1f.0 ISA bridge: Intel Corporation 82801JIR (ICH10R) LPC Interface Controller 00:1f.2 IDE interface: Intel Corporation 82801JI (ICH10 Family) 4 port SATA IDE Controller #1 00:1f.3 SMBus: Intel Corporation 82801JI (ICH10 Family) SMBus Controller 00:1f.5 IDE interface: Intel Corporation 82801JI (ICH10 Family) 2 port SATA IDE Controller #2 01:00.0 VGA compatible controller: nVidia Corporation G73 [GeForce 7300 GT] (rev a1) 02:00.0 PCI bridge: Intel Corporation 41210 [Lanai] Serial to Parallel PCI Bridge (A-Segment Bridge) (rev 09) 02:00.2 PCI bridge: Intel Corporation 41210 [Lanai] Serial to Parallel PCI Bridge (B-Segment Bridge) (rev 09) 03:04.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 2340 16 Port SATA-II Controller (rev 09) 04:04.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 2340 16 Port SATA-II Controller (rev 09) 05:00.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:01.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:02.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:03.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:04.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:05.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 06:06.0 PCI bridge: Integrated Device Technology, Inc. PES16T7 PCI Express Switch (rev 0d) 08:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168B PCI Express Gigabit Ethernet controller (rev 02) 09:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168B PCI Express Gigabit Ethernet controller (rev 02) 0a:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168B PCI Express Gigabit Ethernet controller (rev 02) 0b:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168B PCI Express Gigabit Ethernet controller (rev 02) 0d:00.0 SATA controller: JMicron Technology Corp. JMB362/JMB363 Serial ATA Controller (rev 02) 0d:00.1 IDE interface: JMicron Technology Corp. JMB362/JMB363 Serial ATA Controller (rev 02) 0e:06.0 FireWire (IEEE 1394): Texas Instruments TSB43AB23 IEEE-1394a-2000 Controller (PHY/Link) bbox:/mnt# lsscsi [2:0:0:0] disk ATA WDC WD10EADS-00L 01.0 /dev/sdq [3:0:0:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sdr [3:0:1:0] disk ATA ST9500325AS 0001 /dev/sds [4:0:0:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sdt [5:0:0:0] disk ATA WDC WD10EADS-00L 01.0 /dev/sdu [6:0:0:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sda [6:0:1:0] disk ATA WDC WD10EADS-65L 01.0 /dev/sdb [6:0:2:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sdc [6:0:3:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sdd [6:0:4:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sde [6:0:5:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sdf [6:0:6:0] disk ATA WDC WD10EADS-00M 01.0 /dev/sdg [6:0:7:0] disk ATA WDC WD10EADS-00M 01.0 /dev/sdh [6:0:8:0] disk ATA WDC WD10EADS-00L 01.0 /dev/sdi [6:0:9:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sdj [6:0:10:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sdk [6:0:11:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sdl [6:0:12:0] disk ATA WDC WD10EADS-65L 01.0 /dev/sdm [6:0:13:0] disk ATA WDC WD10EADS-65L 01.0 /dev/sdn [6:0:14:0] disk ATA WDC WD10EACS-00D 01.0 /dev/sdo [6:0:15:0] disk ATA WDC WD20EARX-00P 51.0 /dev/sdp |
Dien voornamelijk als file storage, maar draaien ook enkele continuous integration omgevingen op en wat databases, geen virtualisatie, en eigenlijk ook geen plannen toe.
Veel van de hardware heeft al een hele historiek achter de rug, het is ooit begonnen met 6 van de 1TB disks op een via c7 mobo met enkele cheap ass 4port sata controllertjes, dan tussentijds kreeg de server een upgrade naar een c2d en een grotere case, en nu uiteindelijk in een norco case geeindigd met een hoop disks. De volgende upgrade zal waarschijnlijk een heel nieuw chassis zijn + allemaal nieuwe hardware, zodat ik ze verticaal kan beginnen stapelen in een 19" cabinet hier thuis
If it ain't broken it doesn't have enough features
They call her... c*ck juggeling Thunderc*nt!
Test de read en write performance eens met dd?
dd if=/dev/zero of=/storage/path/test.bin bs=1M count=20000 (write)
dd if=/storage/path/test.bin of=/dev/null bs=1M (read)
Als je de systeem info in een nette tabel plaatst mag je in de lijst.
[ Voor 19% gewijzigd door Q op 02-10-2011 23:51 ]
verder heb ik bij webconnexxion die Highpoint DC7280 DATACenter HBA 32x SATA PCI-E 2.0 x8 gezien en die vind ik wel interessant maar is niet een raid kaart alleen maar een hba, iemand ervaring ermee of gewoon voor een echte areca1280ml gaan?
het hoeft geen snelle machine te zijn alleen voor storage doeleinden.
[ Voor 6% gewijzigd door zzattack op 04-10-2011 14:40 ]
Beter is het om the benchmarken oflag=direct te gebruiken bij de eerste en iflag=direct bij de tweede, om zo de dirty writeback niet mee te nemen (eerste) en data die reeds in het filesystem cache staat even buiten spel te zetten (tweede). Dat is wat realistischer en écht vanaf/naar disk iig.Q schreef op zondag 02 oktober 2011 @ 23:50:
dd if=/dev/zero of=/storage/path/test.bin bs=1M count=20000 (write)
dd if=/storage/path/test.bin of=/dev/null bs=1M (read)
Kia e-Niro 2021 64 kWh DynamicPlusLine. See my GitHub and my blog for articles on security and other stuff.
Ik bedoel, HD video is ongeveer 2GB/hr en FullHD loopt al aardig richting de 5GB/hr. Dat is met 1TB al snel 200 uur aan FullHD. Haal je compressie weg, misschien 100 uur. Maar wat moet je met 5000 uur aan FullHD beeld op 50TB? Patsen met je pr0n collectie?
EDIT:
Ik heb overigens zelf 2x 1.5TB, 2TB en 1TB en dus samen 6TB wat al aardig wat is.
[ Voor 8% gewijzigd door Nox op 04-10-2011 15:21 ]
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Uncompressed full hd-video met 32bits kleurdiepte en 25fps is bijna 700GB per uur. Het zal wat minder zijn als je lossless compressie gebruikt. Als je serieus met video-editing aan de slag gaat en je hebt uncompressed of lossless compressed hd video als tussenstap nodig dan heb je véél storage nodig.NoxiuZ schreef op dinsdag 04 oktober 2011 @ 15:20:
Ik bedoel, HD video is ongeveer 2GB/hr en FullHD loopt al aardig richting de 5GB/hr. Dat is met 1TB al snel 200 uur aan FullHD. Haal je compressie weg, misschien 100 uur. Maar wat moet je met 5000 uur aan FullHD beeld op 50TB? Patsen met je pr0n collectie?
Na het lezen van een paar tutorials is het in Debian volgens mij niet veel meer dan het intypen van ongeveer 10 regeltjes in de command line, maar er staat een 'gewone' unmanaged switch. Werkt dat daar ook op? En wat is het verschil qua snelheid, scheelt het 10 MBps of zijn jullie in staat om bijvoorbeeld 160 - 180 MBps te halen?
Nu wil ik de clients slechts met één kabel aansluiten, maar even als voorbeeld. De snelheid moet gewoon contstant blijven, ook bij streamen of downloaden (in de toekomst met 120 Mbps)
De gemiddelde FullHD film van de internets is bij mij 8GB. Voor een serie van 40 minuten is dit al heel lang 1.12GB incl pariteitscontrole. Die cijfers raken aardig kant en wal. Het is alleen compressed. RAW is inderdaad wel vele malen groter.zzattack schreef op dinsdag 04 oktober 2011 @ 15:31:
Je cijfers raken kant noch wal
Maar misschien leuk om erbij te zetten waar je de storage voor gebruikt in de tabel.
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
En aangezien de builds hier allemaal voor thuisgebruik bedoeld zijn, mag ik toch zeker wel aannemen dat je begrijpt dat men hier niet te koop loopt met wat er dan zoal op die disks staat
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
NoxiuZ schreef op dinsdag 04 oktober 2011 @ 15:20:
En nu de hamvraag, wat in godsnaam doe je er mee?
Storage van oceanen vol met porno
Geldt voor iedereen hier. Gewauwel over VMware en virtualisatie etc. allemaal smoke en mirrors. Niemand geloofd je. Juist de mensen die het ontkennen hoarden de echt zieke shit.[ Voor 5% gewijzigd door Q op 04-10-2011 18:55 ]
Adus diegene met een 18TB-nas.Q schreef op dinsdag 04 oktober 2011 @ 18:55:
[...]Storage van oceanen vol met porno
Geldt voor iedereen hier. Gewauwel over VMware en virtualisatie etc. allemaal smoke en mirrors. Niemand geloofd je. Juist de mensen die het ontkennen hoarden de echt zieke shit.
Alle storage is voor porno. Mensen die 10+TB neerzetten hebben alleen meer porno dan gemiddeld.
Wie dus zich ophoudt in topics over 10+ TB storage is op zijn minst erg geïnteresseerd in porno.
[ Voor 20% gewijzigd door Q op 04-10-2011 19:08 ]
thalantis schreef op dinsdag 04 oktober 2011 @ 19:17:
ik bewaar gewoon alles, bv alle 26 seizoenen van doctor who e.d.
Rule 34 !Q schreef op dinsdag 04 oktober 2011 @ 19:19:
En porno niet te vergeten.

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Plaatje boven gefixt. <-- plaatje weg
[ Voor 58% gewijzigd door Xesxen op 04-10-2011 19:59 ]
Rare vogel in spe
Verwijderd
Ik gebruik Intel Pro 1000 PT en GT kaartjes, zowel dual als quad port. Ik heb 2 fileservers, momenteel 1tje op een 4 Gbit trunk en 1tje op een 2 Gbit trunk. Met meerdere clients tegelijk heb ik op een 2 Gbit trunk al ruim 220 MBps weten te balen, meer clients met zulke snelle storage om dat bij te houden had ik even niet bij de hand. Ik maak echter gebruik van Windows op alle machines en een managed switch met LACP.marcop23 schreef op dinsdag 04 oktober 2011 @ 17:52:
Zijn er trouwens veel mensen die gebruik maken van Link Aggregration om twee Gigabit NIC's (onboard en waarschijnlijk een extra Intel NIC) om bijvoorbeeld te zorgen dat de kopiersnelheid niet inzakt wanneer er iemand gaat streamen? Ik ben benieuwd om het makkelijk is om te doen, en of het zinvol is.
Na het lezen van een paar tutorials is het in Debian volgens mij niet veel meer dan het intypen van ongeveer 10 regeltjes in de command line, maar er staat een 'gewone' unmanaged switch. Werkt dat daar ook op? En wat is het verschil qua snelheid, scheelt het 10 MBps of zijn jullie in staat om bijvoorbeeld 160 - 180 MBps te halen?
Nu wil ik de clients slechts met één kabel aansluiten, maar even als voorbeeld. De snelheid moet gewoon contstant blijven, ook bij streamen of downloaden (in de toekomst met 120 Mbps)
Hoe dat onder Debian gaat kan ik je niet mee helpen.
enne... btw... op mijn 36TB netto staat geen bitje porno, en op mijn 2e fileservertje met momenteel 8 TB ook niet. De rest laat ik even buiten beschouwing

Maar serieus, het grootste deel van mijn storage wordt in beslag genomen door films en series. Untouched bluray rips tikken lekker aan, met tegen de 40 GB per disc. Meerdere seizoenen voor een serie, stuk of 4 discs per seizoen, dan gaat het hard. Daarnaast zit ik over de 1 TB aan ebooks en comics, en de lossless muziek gaat ook hard richting de 1 TB.
Op het gevaar af Rule 34 te schaden, ga je je afvragen of iemand met een NAS....
AAhhh.
I'm blind!
60 TB can not be enough
of
de areca 1880ix24 of areca 1680ix-24
als je niet naar de prijs kijkt, bij de eerste zal ik met software raid gaan werken.
kast heb ik min of meer al besloten dat word een norco 4220
http://www.lsi.com/produc...Pages/LSISAS9201-16i.aspx
Even niets...
Sallandthalantis schreef op woensdag 05 oktober 2011 @ 15:57:
alleen wie verkoopt die dingen?
disclaimer: niet als reclame bedoeld en niet omdat ik er beter van zal worden
wel een schaamteloze plug van mijn eigen V&A ad
[ Voor 22% gewijzigd door Pantagruel op 05-10-2011 16:17 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Omdat van de LSI kaart bekend is dat deze onder zowel FreeBSD als OpenSolaris/OpenIndiana vlekkeloos werkt en van de Highpoint is dat maar nog de vraag.thalantis schreef op woensdag 05 oktober 2011 @ 16:31:
ok maar waarom wel LSI en niet Highpoint, ik heb eigenlijk meer ervaringen met areca
De Areca kaarten zijn top, maar eigenlijk overdone voor ZFS aangezien je de RAID chip niet nodig hebt omdat je ZFS zelf de integriteitsdata wilt laten doen. Je kunt t gros van de Areca adapters wel in pass through mode gebruiken maar eerlijkheidshalve zeg ik erbij dat dit problemen geeft in combinatie met ZFS (aan den lijve errhhm, het array
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik gebruik nu een HTPC (fractal R3) met Win7 en Arc1222+bbu met 8x2TB Raid6 en 2 losse 2TB disks (die 2 disks wil ik 'beveiligen' met flexraid).
Verder een ZFS server die eindelijk draait maar performance is niet optimaal. Maar goed deze is voor het archiveren en draait niet 24/7. Schrijven SMB is rond de 80-100MB/s maar lezen slechts rond de 50MB/s. Dat zal dan wel door de JM322 controller komen maar wilde graag een 'goedkope' oplossing dus daarom dit mobo met 10 poorten. Ik heb ook ashift 9 maar ik begrijp dat het 'slechts' 10% uitmaakt.
OpenIndiana1.51 met Napp-it
Gigabyte MA790FXT-UD5P 10xsata
Simpel grafisch kaartje, X700?
X2 245 2.9Ghz
3x2GB (2e tripple channel kit van mijn 'game' pc)
Nexus value 430
NZXT Hush kast
Dealextreme IDE-> sata met 2,5" OS disk
10x 2TB EARS
Verbruik idle 100watt maar omdat ie niet altijd aan staat heb ik daar verder niet meer naar gekeken.
Installatie was nogal problematisch. USB-DVD gaf problemen. Toen DVD aan sata aangesloten maar ook problemen, uiteindelijk op een andere poort aangesloten en toen ging de installatie ok.
Omdat ik ook problemen had met een andere ZFS server die ik wilde opzetten had ik er ff genoeg van en ik wil ook graag mijn oude server verkopen (nu ik er nog iets voor krijg). Dus ja het draait nu, niet te snel maar wel betrouwbaar hoop ik :-)
Ik heb op ebay een M1015 kunnen kopen dus daar wacht ik op dan kan ik nog wat verder stoeien
Wat mij wel nog tegenvalt is dat je blijkbaar 10% van de ZFS pool vrij zou moeten houden? Blijft er toch niet zoveel meer over van 20TB
Iig bedankt iedereen voor de support, vooral CiPHER
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Even niets...
System specifications | |
Component | Value |
---|---|
Case | Custom 4u case |
CPU | Intel Core i7 870 @2,93GHz |
RAM | 16 GB |
Motherboard | Asus P7P55D EVO |
Operating system | Windows Server 2008 R2 |
Controller | n.v.t. Software Raid |
Hard drive | 45 x Samsung Spinpoint F4EG, 2 TB(array) |
Hard drive | 1 x intel SSD (80 GB) |
RAID array configuration | 45 x 2 TB split into multiple RAID 0 |
Netto storage capacity | 90 TB |
Network | Intel Gigabit (onboard) |
UPS | n.v.t. |
Filesystem | NTFS |
Power Supply | 2x OCZ Fatal1ty 750 Watt |
Idle power usage | not measured as of today |
Spare parts | 5x Samsung Spinpoint F4EG 2TB, in case of disk failure |
Even niets...
en plaatjes graag

System specifications | |
Component | Value |
---|---|
Case | Zalman MS1000-HS2 |
CPU | AMD Athlon II X2 240E |
RAM | Kingston ValueRAM KVR800D2N6K2/2G |
Motherboard | Gigabyte GA-MA74GM-S2H |
Operating system | Windows Home Server 1 |
Controller | Promise FastTrak SATA 300 TX4 |
Hard drive | Western Digital Caviar Green WD10EADS, 1TB (1x) Samsung EcoGreen F4EG HD204UI, 2TB (5x) Samsung EcoGreen F3EG, 2TB (1x) |
RAID array configuration | Drive Extender |
Netto storage capacity | 6.5 TB |
Network | Gigabit |
UPS | Nee |
Filesystem | WHS |
Idle power usage | 75 Watt (zonder spindown volgens mij) |
Extra |
Mijn nieuwe NAS waarop ik FreeNAS wil gaan draaien via een USB drive moet er als volgt uit gaan zien:
System specifications | |
Component | Value |
---|---|
Case | Zalman MS1000-HS2 |
CPU | Intel Xeon E3-1220 |
RAM | Kingston ValueRAM KVR1333D3E9SK2/8 x2 = 16Gb |
Motherboard | Intel S1200BTS |
Operating system | FreeNAS 8.01 |
Controller | LSI SAS 9211-8i |
Hard drive | Samsung EcoGreen F4EG HD204UI, 2TB (10x) |
RAID array configuration | RAID-Z2 |
Netto storage capacity | 16 TB |
Network | Gigabit |
UPS | Nee |
Filesystem | ZFS |
Idle power usage | ???; ben ik nog erg benieuwd naar |
Extra |
Vanavond/vanacht eerst nog een deel van de data (3 Gb) van mijn huidige NAS tijdelijk overzetten naar wat extra losse schijven in mijn algemene PC. Het grootste deel heb ik inmddels al overgezet, met snelheden van rond de 50 Mb/sec, dus het gaat wel ff duren.
Dan de boel demonteren (mobo + CPU krijgen een herbestemming als HTPC voor in de slaapkamer) en de nieuwe componenten in de Zalman inbouwen; 9x hot swap plaatsen + 1 in de laatste vrije reguliere 5.25 positie.
Voor mij als oefenTweaker zal het flashen van de LSI SAS naar de IT-modus nog de grootste uitdaging vormen; ik kwam al berichten tegen dat dit lastig kan zijn op bepaalde moederborden. Gelukkig heb ik hier 4 PC's met verschillende mobo's, dus in minimaal 1-tje zou het wel moeten lukken, hoop ik.
En dan FreeNAS via een losse DVD drive installeren op de USB stick die op een USB header op het bord terecht komt, configureren en de NAS in het netwerk zien terug te vinden (Samba enzo zegt me nu nog nix
Hopelijk kan ik binnenkort met gepaste trots melden dat de boel functioneert, waarna ik dan wat foto's zal posten.
Het wissen van de firmware ROM is doorgaans geen probleemPsycho_Bartje schreef op vrijdag 07 oktober 2011 @ 19:36:
... snipz..
Voor mij als oefenTweaker zal het flashen van de LSI SAS naar de IT-modus nog de grootste uitdaging vormen; ik kwam al berichten tegen dat dit lastig kan zijn op bepaalde moederborden. Gelukkig heb ik hier 4 PC's met verschillende mobo's, dus in minimaal 1-tje zou het wel moeten lukken, hoop ik.
En dan FreeNAS via een losse DVD drive installeren op de USB stick die op een USB header op het bord terecht komt, configureren en de NAS in het netwerk zien terug te vinden (Samba enzo zegt me nu nog nix) . Gelukkig zijn er installatie handleidingen.
Hopelijk kan ik binnenkort met gepaste trots melden dat de boel functioneert, waarna ik dan wat foto's zal posten.
Het flashen van de M1015's naar IT firmware werkte niet in de X9SCM-F ('unable to initialize PAL' foutmelding) en in de P5N7A-VM (weet de exacte foutmelding niet meer, flasher kon de kaart geloof ik niet vinden). In de GA-X38-DQ6 waren de kaartjes wel te flashen. wat dat betreft is het een beetje trial and error.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Trial en Error op 1 bord met die settings helpt vaak ook wel.
En inderdaad, mijn 3081 flashen ging via EFI veel makkelijker
Even niets...
Volgens mij was hij bezig met Sata Port MultipliersFireDrunk schreef op vrijdag 07 oktober 2011 @ 09:21:
Hoewel je controller misschien voor RAID niet van toepassing is, vind ik het wel leuk om te weten hoe je 50 disks op een P7P55D prikt...
die kaart bij salland is oem helaas, is toch weer 20 euro per kabelPantagruel schreef op woensdag 05 oktober 2011 @ 16:06:
[...]
Salland
disclaimer: niet als reclame bedoeld en niet omdat ik er beter van zal worden
wel een schaamteloze plug van mijn eigen V&A adIs een Areca ARC-1221x, iets minder geschikt voor ZFS gebruik.
http://www.dealextreme.co...cable-red-1m-length-40722thalantis schreef op maandag 10 oktober 2011 @ 15:56:
[...]
die kaart bij salland is oem helaas, is toch weer 20 9 euro per kabel
Even niets...
De webshop van LSI biedt hem ook enkel aan zonder kabels en de optie om kabels los bij te bestellen .thalantis schreef op maandag 10 oktober 2011 @ 15:56:
[...]
die kaart bij salland is oem helaas, is toch weer 20 euro per kabel
Ik gok dat LSI uitgaat van de aanname dat de koper kabels besteld afhankelijk van zijn/haar eisen, direct de hdd's op de controller aansluiten (SFF8087->4x SATA) of een kabel op de back-plane prikken (SFF8087-> wat dan ook).
En inderdaad zo extreem duur zijn die SFF-8087->4x SATA fan out kabels nu ook weer niet.
[ Voor 14% gewijzigd door Pantagruel op 10-10-2011 16:13 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Wrong! Ik heb deze kabels ook eens besteld, het zijn echter geen SFF-8087 kabels, maar SFF-8086, wat dus niet past. (Zie evt. ook de comments bij het item)
Bij ri-vier zijn ze voor zover ik kon vinden het goedkoopst en werken prima.
PS: Mocht iemand interesse hebben in 4x SFF-8086 naar SAS/SATA, geef een seintje; ik kan er niets mee.
[ Voor 3% gewijzigd door tricksel op 10-10-2011 16:47 . Reden: kleine toevoeging ]
Je kan het ook --gedeeltelijk-- offline bewaren ;-) Scheelt 40 poorten a 50 euro. Een HD heb je in 20 sec. aangesloten tegenwoordig. En laten we eerlijk zijn het meeste heb je niet 1 x per jaar nodig. Waarschijnlijk maar 1x in de 5 jaar.freak1 schreef op dinsdag 04 oktober 2011 @ 22:59:
pfff ik wil gewoon niet nadenken over wat ik weg moet gooien. 60 TB FTW!

APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
Thuis in mijn ouderlijk huis heb ik een TP-Link 1043 geplaatst met DD-WRT en in mijn nieuwe huis een E3000 die ik ook ga voorzien van DD-WRT.
Voordeel is dat beide routers een USB poort hebben, waar een mooi USB diskje aan kan.
Even rsyncen tussen de apparaten et voila, offsite backup
(nu nog ZFS-on-the-go op DD-WRT
Klopt, ik heb dit ook al gehad, ze hebben ze wel, en na een mailtje heb ik de goede nagestuurd gekregen tegen inkoopprijs. Toendertijd hebben ze mij beloofd dat ze de productinformatie zouden aanpassen.tricksel schreef op maandag 10 oktober 2011 @ 16:47:
Wrong! Ik heb deze kabels ook eens besteld, het zijn echter geen SFF-8087 kabels, maar SFF-8086, wat dus niet past. (Zie evt. ook de comments bij het item)
Bij ri-vier zijn ze voor zover ik kon vinden het goedkoopst en werken prima.
PS: Mocht iemand interesse hebben in 4x SFF-8086 naar SAS/SATA, geef een seintje; ik kan er niets mee.
Je ZOU dus als je ze nu besteld, de goede moeten krijgen, maar dat is inderdaad nog maar de vraag.
[ Voor 46% gewijzigd door FireDrunk op 12-10-2011 10:03 ]
Even niets...
Misschien kun je je eigen "Storage showoff topic - 5000+ CD storage in de kledingkast" topic openentHe_BiNk schreef op woensdag 12 oktober 2011 @ 09:55:
[...]
Je kan het ook offline bewaren ;-) Scheelt 40 poorten a 50 euro. Een HD heb je in 20 sec. aangesloten tegenwoordig. En laten we eerlijk zijn het meeste heb je niet 1 x per jaar nodig. Waarschijnlijk maar 1x in de 5 jaar.
[afbeelding]
Ik backup/store sinds 2007 niks meer op CD/DVD. Heb tegenwoordig zelfs mij optical drive niet meer aangesloten, die schijfjes zijn echt compleet achterhaald. Alle DVD players staan hier gewoon stof te happen. XBMC all the way baby. :-) Vroeger had ik een kast vol met 1000den disks voor de Amiga nu past het met gemak op 1 heel oude HD.brederodekater schreef op woensdag 12 oktober 2011 @ 10:50:
[...]
Misschien kun je je eigen "Storage showoff topic - 5000+ CD storage in de kledingkast" topic openen
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
De 'oude dame' is officieel met pensioen gegaan en vervangen door de volgende setup:
System specifications | |
Component | Value |
---|---|
Case | CoolerMaster Stacker (STC-T01) |
CPU | Intel Xeon E3-1230, Quad core 3.2 GHz |
RAM | 16 GiB ECC UDIMM DDR3 (4x4 GiB) |
Motherboard | Supermicro X9SCM-F (IPMI,iKVM) |
Operating system | ZFSGuru (FreeBSD 8.2-stable + ZFSGuru 1.19-beta3) |
Controller | IBM ServeRAID M1015 (flashed to LSI 9240-8i IT/SAS2008 IT) |
Hard drive | 2x Western Digital Raptor WD360ADFD, 36GiB for OS |
Hard drive | 10x WD Caviar GreenPower WD20EARS, 2TiB for array |
RAID array configuration | 2x WD Raptor 36 Gib RAID-1 10x WD WD20EARS RAID-Z2 |
Netto storage capacity | 16 TiB |
Network | NIC 1: Intel 1 Gbit, iKVM NIC 2: Intel Gbit nic PCI, network |
PSU | Antec 560W |
UPS | None |
Filesystem | Root-on-ZFS/ZFS |
Idle power usage | ~68 Watt |
Extra | 3 x 4-in-3 modules CM |
Pic's or it didn't happen:
De hardewaren:
RAM,MoBo en CPU | Bench test |
![]() | ![]() |
En ja, 't doosje van de RAM reepjes is inderdaad leeg.
Na driftig schroeven zit de boel in de CM Stacker. De module met de aan/uit-, reset knop, geluid- en usb aansluitingen is verwijderd om ruimte te maken zodat er maximaal 4 stuks 4-in-3/5-in-3 modules in de STC-T01 kunnen. Op dit moment ontbreken er nog 2 frontjes, die liggen nog ergens achter de knie-schotten in een doos. Op dit moment is er nog 3x een 5 1/4" slot vrij (1x een 4-in-3 module) en vraag ik me af of ik nu beter 2 stuks 5-in-3 kan bij bestellen om later nog 10 HDD's bij te kunnen plaatsen (8 stuks op een tweede M1015 die ik heb liggen en 2 op de on-board SATA) of er 2 stuks 4-in-3 en een van de modules in de kast vast te schroeven. Op het zij aanzicht is duidelijk zichtbaar dat er nog voldoende ruimte over is onder het moederbord om zowel een 4-in-3 module op de bodem vast te schroeven als een kleine hdd kooi die ik nog heb liggen voor de twee OS schijven.
Front | Zij aanzicht | Close up mobo | Disks |
![]() | ![]() | ![]() |
![]() |
Benchmarks:
Virgin pool:
Pool : Vault
Read throughput : 671.8 MB/s
Read throughput : 640.6 MiB/s
Write throughput: 493.8 MB/s
Write throughput: 470.9 MiB/s
ca. 50% vol
Pool : Vault
Read throughput : 566.9 MB/s
Read throughput : 540.6 MiB/s
Write throughput: 481.9 MB/s
Write throughput: 459.6 MiB/s
Wat opvalt is dat vooral de Read last heeft van een voller wordende array. Echter geen nood, de netwerkverbinding is slechts 1 Gbit en makkelijk verzadigd worden.
To Do:
- Kabel management op orde krijgen, het werkt maar kan beter.
- Op zoek naar een passend full height PCIe slotplaatje. Beide M1015's waren van een low profile bracket
voorzien. Op dit moment zit de kaart op zijn plek mbv een PCI slotplaatje en wat spacertjes.
- Aan-/uit knop in 't dak van de behuizing 'modden'. De vraag blijft of dit echt nodig is, mbv IPMI kan ik de
server ook aan en uit zetten.
- Frontjes uitzuigen, op de foto valt op dat er toch wat stof in gevangen zit.
- Zijpanelen erop schroeven
[ Voor 0% gewijzigd door Pantagruel op 14-10-2011 23:45 . Reden: Idle power usage met full spindown ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb met 8 disks actief nog geen 100W, en heb maar 2 disks minder...
Even niets...
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.
Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!