Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d

ik moet straks 24 schijveng aan overzetten, ik bid dat dat goed gaat met de controller..
60 TB can not be enough
Net wat je zegt, simpele pass through inderdaad. Wellicht dat de HDD leds niet kunnen werken met RAId 6 ofzo?freak1 schreef op vrijdag 01 juli 2011 @ 14:27:
ik begin me nu toch wat zorgen te maken over de Norco Modules.. daar staat expliciet raid 1, raid 0 en raid 5 bij.. dat moet toch geen fluit uitmaken? het zijn gewoon pass-through modules
ik moet straks 24 schijveng aan overzetten, ik bid dat dat goed gaat met de controller..
Zou het zo snel ook niet weten waarom het niet zou werken
bl44t
Het kan natuurlijk wel zijn dat ze het afraden ivm bandbreedte.
Even niets...
Ik heb ook interesse is zo'n kast omdat het handig is om veel schijven in kwijt te kunnen.
Waar heb je je kast laten maken en hoeveel kostte dat?
Welke sata port multiplier bordjes heb je gebruikt en welke sata kaartjes?
Weet je toevallig hoe het zit met de support van die hardware onder GNU/Linux?
Heeft hier iemand toevallig ervaring met de sata port-multiplier onder Ubuntu?
Ik heb dat een geprobeerd met de Quickport DUO II van Sharkoon, maar ik zag enkel 1 schijf.
Mijn moederbord is een MSI X58 Pro, maar voor zover ik gevonden heb, zou de port-multiplier functionaliteit ondersteund moeten zijn door de chips die erop zitten...
Voor de liefhebbers wat meer info over mijn setup:
Momenteel heb ik 28 schijven voor data (6 keer een RAID-5 van 4 schijven en 4 losse schijven) goed voor totaal 44TB bruto (of 35TB netto).
Ik gebruik twee QuickPort DUO's (v1) van sharkoon om 4 schijven via e-SATA met een PC te verbinden.
Per 4 schijven heb ik een software raid gemaakt m.b.v. mdadm (host PC draait Ubuntu 10.04) en als bestandssysteem gebruik ik ext4 (betere suggesties zijn altijd welkom)
In een 2de PC heb ik twee 3-bay QuickPort Intern van Sharkoon zitten, zodat ik 2 RAID volumes tegelijk kan mounten.
Het voordeel van deze setup is dat hij heel goedkoop is en weinig verbuikt: enkel de actieve schijven verbuiken stroom. Een ander groot voordeel is dat ik de raid volumes op een willekeurige PC kan mounten (voorwaarde is wel 4 e-SATA connecties en mdadm). Het stuk gaan van een host PC heeft dus geen invloed de bestaande RAID volumes.
[ Voor 41% gewijzigd door petervdb op 01-07-2011 15:06 ]
naja precies, dat dacht ik dus ook. het zijn geen expanders, maar gewoon doorlus dingen.. maar waarom dan zo stellig raidlevels opgeven..FireDrunk schreef op vrijdag 01 juli 2011 @ 14:40:
Nee, dat maakt niets uit... Er gaat nul,nul informatie over RAID over de kabel... Op sata niveau is het allemaal blokjes opvragen, of smart info uitlezen. Meer niet. Expanders en die hele reut hebben niets te maken met RAID.
Het kan natuurlijk wel zijn dat ze het afraden ivm bandbreedte.
naja, iemand 40 tb beschikbaar zodat ik een backup kan maken?
60 TB can not be enough
Even niets...
Zag dat jij een ubuntu nfs file server gebruikte voor het hosten van onder andere je vm's Welk file system gebruik je hier voor? Xfs, ext3 ext4? Lees namelijk een hoop wisselende verhalen over het gebruik in combinatie met esx.
@borroz
Open indi met napp-it en die fantastische huge ass zfs oplossing. Vreet deze nu daadwerkelijk 16gb mem. Ik heb nu zelf 7tb in raidz staan maar als ik me 8gb gebruik van me ml115 draait het goed maar ik hoef niet te proberen om er nog een vm naast te draaien. Kan me voorstellen met jouw setup dat die 16gb goed benut word maar hoe performen je overige vm's?
Verwijderd
Ik heb Open Indiana niet 'bare metal maar onder ESXi 4.1 draaien.whocarez schreef op vrijdag 01 juli 2011 @ 23:21:
@borroz
Open indi met napp-it en die fantastische huge ass zfs oplossing. Vreet deze nu daadwerkelijk 16gb mem. Ik heb nu zelf 7tb in raidz staan maar als ik me 8gb gebruik van me ml115 draait het goed maar ik hoef niet te proberen om er nog een vm naast te draaien. Kan me voorstellen met jouw setup dat die 16gb goed benut word maar hoe performen je overige vm's?
Daardoor kan (en moet) ik een bepaalde hoeveelheid geheugen toekennen aan de OI VM, van belang want stel dat andere VM's veel geheugen in gebruik hebben en ik start de OI VM met te weinig geheugen.
Maar met wat meer geheugen draait eea lekker soepel (naast elkaar) , ik zag toevallig gisteren dat 16gb ecc in 1 maand weer 40,- minder kost dus overweeg ik het geheugen uit te breiden naar 32 gb
Which metric to use for monitoring memory?
.
de 6 SS-500s komen vandaag binnen
moederbord, geheugen en proc staan allemaal in backorder, wat ook wel verwacht was.. hopelijk wel deze week een update qua levertijd, maar dat zien we dan wel. zit er nu wel erg over te denken om die Lian-Li eens goed te inspecteren of ik er niet eventueel extra schijven intern in kan zetten.. wil er eigenlijk een 2e RAID array naast gaan draaien om zekerheid te hebben over specifieke data.. en 48 TB can never me enough..
*edit*
en voor de geinteresseerden (en dat ben je, anders keek je hier niet rond)
mijn oude server mag weg voor 1000 euro. dan krijg je het supermicro chassis (SC846-R900B) , het Supermicro MOBO (X7DWN+), 16 GB Geheugen, 2 maal een E5420 Xeon, en 2 X een WD Raptor 72 GB
alles met boekjes en bonnen etc. ik ben de eerste eigenaar, en zoals in het topic te lezen, ik ben zuinig op mijn spullen
[ Voor 22% gewijzigd door KorneelB op 02-07-2011 10:54 ]
60 TB can not be enough
Verwijderd
8 DB.. is dat het geluidsniveau ? of eigenlijk helemaal geen geluid dus
60 TB can not be enough
Noctua NH-U12DO < opteron koeler die op socket G34 zou moeten passen
Enermax Cluster UCCL8 - 80 x 80 x 25 mm < om de standaard fans van de SS-500 te vervangen
Scythe Gentle Typhoon D1225C12B4AP-11 - 120 x 120 x 25 mm. < kastkoelers
*edit*
oh kut. ik zie die U12DO op veel plekker staan als compatible met socket G34, en nu staat op de homepage dat hij dat niet is. teringjantje. ff mailen volgens mij

[ Voor 25% gewijzigd door KorneelB op 02-07-2011 11:03 ]
60 TB can not be enough
Verwijderd
nou alles bij elkaar zal dat een 'stille combinatie zijn denk ik.freak1 schreef op zaterdag 02 juli 2011 @ 11:02:
qua koeling heb ik:
Noctua NH-U12DO < opteron koeler die op socket G34 zou moeten passen
Enermax Cluster UCCL8 - 80 x 80 x 25 mm < om de standaard fans van de SS-500 te vervangen
Scythe Gentle Typhoon D1225C12B4AP-11 - 120 x 120 x 25 mm. < kastkoelers
*edit*
oh kut. ik zie die U12DO op veel plekker staan als compatible met socket G34, en nu staat op de homepage dat hij dat niet is. teringjantje. ff mailen volgens mij
die Scythe heb ik ook wel eens gebruikt.. laag toerental prima luchtverplaatsing en erg stil
60 TB can not be enough
Verwijderd
was dat even schrikken op de zaterdagmorgenfreak1 schreef op zaterdag 02 juli 2011 @ 11:08:
ik heb maar ff gemailed, het blijkt dat die U12DO alleen compatible is met opteron G34 indien revisie A3.. heb ze gevraagd of ze dat wel even kunnen controleren..
Ik heb getest met een Ubuntu 11.04 server die als ESXi VM draait en een mdadm RAID6 array via NFS aanbiedt aan ESXi, zodat ik daar mijn Windows VMs op kwijt kan.whocarez schreef op vrijdag 01 juli 2011 @ 23:21:
@FireDunk
Zag dat jij een ubuntu nfs file server gebruikte voor het hosten van onder andere je vm's Welk file system gebruik je hier voor? Xfs, ext3 ext4? Lees namelijk een hoop wisselende verhalen over het gebruik in combinatie met esx.
Het filesysteem wat ik gebruik is XFS en ik heb tijdens die test in ieder geval geen problemen gehad. Performance was prima (een seconde of 15 voor opstarten Server 2008R2 tot de ctrl-alt-del message).
Norco SS-500s
heb ze binnen, ben onder de indruk. mooi spul!
grote doos met modules

en het zijn ze echt!

handleiding op de zijkant, en ja hoor, RAID 6 support

netjes verpakt

mooie modules

netjes afgewerkt..

ook van binnen

stevige drive-trays. fijn dat er een beschermende onderkant aanzit!

achterkantje eraf.. zit ook een pin voor een fan op de backplane, en belangrijker, de jumpers voor fan snelheden!

slim pci-e poortje gerecycled

en de achterkant van de module

met een mooie 3 pins aansluiting voor de nieuwe fans

al met al, mooie strakke modules, goed afgewerkt, ben erg tevreden..
nu nog wachten op mijn order met fans zodat ik deze kan gaan vervangen.. en natuurlijk de rest om het ook in te gaan bouwen.
ook een pluim voor ri-vier, smiddags was het geld binnen, en meteen alles op de post.. dat kan ook stukken trager zoals bij de vrienden van salland

60 TB can not be enough
Opzich een enkele vm was ook niet echt het probleem wat ik lees bij vele maar op het moment dat je er meerdere op zet word het problematisch. Aangezien ik hier gemiddeld een 8 tot 10 tal vm's heb draaien/Sleepie schreef op zaterdag 02 juli 2011 @ 11:15:
[...]
Ik heb getest met een Ubuntu 11.04 server die als ESXi VM draait en een mdadm RAID6 array via NFS aanbiedt aan ESXi, zodat ik daar mijn Windows VMs op kwijt kan.
Het filesysteem wat ik gebruik is XFS en ik heb tijdens die test in ieder geval geen problemen gehad. Performance was prima (een seconde of 15 voor opstarten Server 2008R2 tot de ctrl-alt-del message).
Dat word wat vervelend met op dit moment nog de geheugen beperking van 8gb. Vamdaar mijn oog op mdadm
het ligt stil..
de spullen zijn als het goed is gisteren binnengekomen bij de leverancier,maar ik weet dus niet of het gisteren ook naar mij toe is gekomen, aangezien de leverancier altijd 2 dagen achterloopt met zijn statuspagina..
heb ondertussen wel ontdekt dat er in de Lian li nog 9 schijven extra kunnen in de 120 mm modules!
dus heb meteen 3 van die bays erbij besteld, dat worden straks 39 schijven in de kast, waarvan 30 hot swappable
60 TB can not be enough
Sneakpreview



(Ik weet het bekabeling moet netter)
Configuratie:
- Behuizing: Nexus Edge
- Moederbord: Asus P5Q DeLuxe
- Geheugen: 8 GB DDR2
- Videokaart: ATI HD2600
- Processor: Intel Q6600+ Arctic Cooling Freezer 7 Pro koeler
- Koeling: 3x 140mm | 1000RPM (standaard)
- Hot Swap Rek: 1x Chieftec SNT-2131 SATA
- O.S.: Windows 7
- 4x Samsung 2 TB HD204UI - Onboard Intel ICH10R, Raid 5, Netto 5,45 TB
- 4x Samsung 1.5 TB HD154UI - Highpoint RocketRaid 2300, Raid 5, Netto 4,09 TB
- 4x Samsung 1 TB HD103SJ - Highpoint RocketRaid 2300, Raid 5, Netto 2,72 TB
- 2x Samsung 1 TB HD103SJ - Sil5723 raid Controller, Raid 0, 1,81 TB
- 1x Samsung 500 GB HD501LJ - Onboard Intel ICH10R, Bootdisk
- 1x TSSTCorp CD DVDW SH-203N - DVD writer
Er komt nog een tweede Hot-Swap rek, momenteel zitten twee schijven in een rekje uit een Antec P180. Verder wil ik sommige SATA kabels vervangen voor langere, om het netter te kunnen afwerken.
Ik maak geen fouten, ik creëer leer momenten.
Alles der in eindelijk en je raidset volledig opgebouwdDJ-Visto schreef op zondag 10 juli 2011 @ 22:43:
Ik mag ook meedoen, ik heb heel wat te show offen, dus ik ga morgenavond een uitgebreide post maken
Ja dat ookwhocarez schreef op zondag 10 juli 2011 @ 22:54:
[...]
Alles der in eindelijk en je raidset volledig opgebouwd
eerst de airflow verbeteren.
van:

naar:

nieuwe fans..

voorbereiding
[url=http://www.flickr.com/photos/35439668@N02/5930159504/][img]
en inbouw

nice..

en dan zijn er 6 klaar!

netjes ingebouwd

en gelabeld

photo by
tower of storage

ook de achterkant labelen

huge ding..

klaar voor inbouw

60 TB can not be enough
Zeer nice! Ik ben benieuwd naar het totaal plaatje als de norco's erin zitten!freak1 schreef op dinsdag 12 juli 2011 @ 16:10:
vandaag weer wat spulletjes binnengekregen, dus ook update
eerst de airflow verbeteren.
van:
[afbeelding]
naar:
[afbeelding]
nieuwe fans..
[afbeelding]
voorbereiding
[url=http://www.flickr.com/photos/35439668@N02/5930159504/][img]
en inbouw
[afbeelding]
nice..
[afbeelding]
en dan zijn er 6 klaar!
[afbeelding]
netjes ingebouwd
[afbeelding]
en gelabeld
[afbeelding]
photo by
tower of storage
[afbeelding]
ook de achterkant labelen
[afbeelding]
huge ding..
[afbeelding]
klaar voor inbouw
[afbeelding]
60 TB can not be enough
Vergeet niet ook een soort totale eindpost te maken met het hele verhaal er bij hoe hij is opgebouwd, hoe je de 39 disks hebt opgezet, etc!
Ben benieuwd.
Ga je voor nummer 1?
nahQ schreef op dinsdag 12 juli 2011 @ 18:52:
Hele toffe build.
Vergeet niet ook een soort totale eindpost te maken met het hele verhaal er bij hoe hij is opgebouwd, hoe je de 39 disks hebt opgezet, etc!
Ben benieuwd.
Ga je voor nummer 1?
in principe ga ik gewoon mijn oude server overbouwen (zie plek nummer 2
maar nu ruimte voor eventueel een extra array. sowieso is het type build tussen mij en de nummer 1 anders. ik ben gegaan voor hardware matige controllers en flinke performance in combinatie met dataveiligheid (enterprise class schijven e.d.) omdat mijn doel was virtualisatie, met mooie bijvangst veel storage. het doel van de nummer 1 momenteel is gewoon storage, en dataverlies voor lief nemen. en daar is hij heel goed in geslaagd, 90 TB is gewoon bizar veel
60 TB can not be enough
Mijn DIY NAS is eindelijk af *.
NAS HARDWARE:
DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.
HET DIY 19" RACK:
Twee weken bezig geweest met zelf een portable 19" rack te bouwen. Naast de 3U hoge NAS is er plaats voor 1U hoge rackmount LCD en 2U hoge APC Smart UPS 3000. Zowel de rackmount LCD (~60 Euro) als de UPS (50 Euro) heb ik via eBay / Marktplaats gekocht. Heb nog 3U vrij in het rack, maar wil de ruimte boven en onder de NAS niet vullen ivm de warmte. Verwacht nog een Gbit switch in het rack erbij te plaatsen, maar moet eerst de kabels in mijn huis opnieuw gaan leggen.
*Een DIY project is natuurlijk nooit helemaal af, want er zijn altijd wel een paar additionele tweaks uit te voeren.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
mooi mesh venster met blauwe/rode verlichting erachter. NIce. Ben al aan het bietsen voor een worklog of tekening. Vind dit persoonlijk 1 van de mooiste DIY 19" rack.Tsurany schreef op dinsdag 12 juli 2011 @ 21:53:
Ziet er goed uit, mooi kastje heb je daar gemaakt. Komt er nog iets aan de voorkant zoals een deur?
Na mijn vakantie zal ik de topic start eens bijwerken.
[ Voor 20% gewijzigd door Q op 13-07-2011 00:05 ]
eerlijk gezegt dacht ik dat dat rack een versterkers warenZware Unit schreef op dinsdag 12 juli 2011 @ 21:43:
Een kopie van mijn post in "Het grote DIY RAID NAS topic"
Mijn DIY NAS is eindelijk af *.
NAS HARDWARE:
DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.
HET DIY 19" RACK:
Twee weken bezig geweest met zelf een portable 19" rack te bouwen. Naast de 3U hoge NAS is er plaats voor 1U hoge rackmount LCD en 2U hoge APC Smart UPS 3000. Zowel de rackmount LCD (~60 Euro) als de UPS (50 Euro) heb ik via eBay / Marktplaats gekocht. Heb nog 3U vrij in het rack, maar wil de ruimte boven en onder de NAS niet vullen ivm de warmte. Verwacht nog een Gbit switch in het rack erbij te plaatsen, maar moet eerst de kabels in mijn huis opnieuw gaan leggen.
[afbeelding]
[afbeelding]
*Een DIY project is natuurlijk nooit helemaal af, want er zijn altijd wel een paar additionele tweaks uit te voeren.
wat is het energie verbruik? en kan de nas (tot je het zo ver kan noemen) zelf uitschakelen als de ups leeg begint te raken?
Verwijderd
je zit hier in het : Storage showoff topic - 10+ TB storage systemswat is het energie verbruik?
hier kijken en lezen we graag over bijzondere storage builds... energie verbruik geneuzel is wat minder belangrijk
Spreek voor jezelf borroz, energie verbruik maakt onderdeel uit van het totale plaatje en is dus wel degelijk interessantVerwijderd schreef op donderdag 14 juli 2011 @ 22:25:
[...]
je zit hier in het : Storage showoff topic - 10+ TB storage systems
hier kijken en lezen we graag over bijzondere storage builds... energie verbruik geneuzel is wat minder belangrijk
Maar dan mag je toch nog wel vragen hoe (on)zuinig hij rijdt?whocarez schreef op vrijdag 15 juli 2011 @ 01:17:
mwha kan me wel vinden in borroz zijn mening. Het is en blijft een pats topic. Zie het maar als een ferrari die koop je ook niet omdat hij zo zuinig rijd.
Ik ben er in ieder geval ook geinteresseerd in, niet omdat ik graag een energiezuinige NAS wil maken, maar ik wil wel graag weten wat de extra energiekosten zijn die erbij komen voordat ik zelf een 10+TB systeem ga maken.
Maar eigenlijk is het ook te voorspelbaar om lang over te discusieren.
De basis is al meer dan genoeg besproken Nieuwe Zuinige Server (discussie)
Daarnaast kost elke schijf je +- 10 Watt, en daar heb je zelf geen invloed op.
De enige variable die overblijven dan :
-Laat je ze uitzetten na verloop van tijd
-Wil je een raid oplossing (meer verbruik want alle disken moeten opspinnen voor 1 bestand)
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
alleen de server doet ongeveer 450 a 500 watt..
ik ben nu een nieuwe aan het bouwen waarop ik rond de 200 a 250 watt inzet..
60 TB can not be enough
@ freak1 of iemand anders, wat is de case die gebruikt wordt? Zelf heb ik momenteel een oude stacker met 12 x 3.5" bays, maar ben op zoek naar iets groter, TIA?freak1 schreef op dinsdag 12 juli 2011 @ 16:10:
vandaag weer wat spulletjes binnengekregen, dus ook update
klaar voor inbouw
[afbeelding]
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
Opzich kan dit meevallen. Als je maar kleine RAID's aanmaakt. Zelf heb ik 3 keer RAID5*5 als ik muziek luister staan er maar 5 schijven aan, als ik video kijk staan er maar 5 aan, en als ik aan het werk staan er maar 5 schijven aan (heb een Areca 1261ML, 16 poorten). Een grote RAID6 array (16 schijven) vind ik persoonlijk niet nodig, ook omdat je heel snel aan je max zit van je gigabyte ethernet (Thunderbolt biedt hopelijk 600+ MB/sec in de toekomst). Een H67 met een pentium en een RAID kaart hoeft niet eens zoveel te verbruiken, 60 watt continu (5 schijven up en running).heuveltje schreef op vrijdag 15 juli 2011 @ 09:54:
Stroom kosten zijn idd niet iets waar je te veel bij na wilt denken
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
lian-li pc343BtHe_BiNk schreef op zaterdag 16 juli 2011 @ 03:04:
[...]
@ freak1 of iemand anders, wat is de case die gebruikt wordt? Zelf heb ik momenteel een oude stacker met 12 x 3.5" bays, maar ben op zoek naar iets groter, TIA?
60 TB can not be enough
whocarez schreef op vrijdag 15 juli 2011 @ 01:17:
mwha kan me wel vinden in borroz zijn mening. Het is en blijft een pats topic. Zie het maar als een ferrari die koop je ook niet omdat hij zo zuinig rijd.
nee!
Dit topic is voor discussie over big storage. De basis voor die discussie zijn de builds van de bezoekers. Niet alleen maar wie de grootste lul heeft. Als iemand het verbruik wil weten dan is dat zeker een vraag die hier thuis hoort.Verwijderd
nou dat is heel watt minder.. een groene server zeg maarfreak1 schreef op vrijdag 15 juli 2011 @ 12:13:
ik ben nu een nieuwe aan het bouwen waarop ik rond de 200 a 250 watt inzet..
zie dat de GROTE NORCO's weer in het land zijn
[ Voor 34% gewijzigd door Verwijderd op 18-07-2011 18:01 ]
Toevallig heb ik dezelfde case en het is een Lian-Li PC-343B. Tis wel goed zoeken want ze verkopen hm bijna nergens of voor de hoofdprijs. Case is sowieso niet goedkoop maar mijn exemplaar komt uit Duitsland omdat dat met de nederlandse webshops die hm destijds hadden bijna 100 euro scheelde.tHe_BiNk schreef op zaterdag 16 juli 2011 @ 03:04:
[...]
@ freak1 of iemand anders, wat is de case die gebruikt wordt? Zelf heb ik momenteel een oude stacker met 12 x 3.5" bays, maar ben op zoek naar iets groter, TIA?
@ freak1: ik ben benieuwd wat jij van deze kast maakt, het zal vast anders zijn dan wat ik ermee gedaan heb
Verwijderd
hoe gaat het met de bouw.. ben nieuwsgierig of de Norco SS-500's al in de lian li zitten en hoe dat eruit ziet natuurlijk
ben benieuwd...DJ-Visto schreef op zondag 10 juli 2011 @ 22:43:
Ik mag ook meedoen, ik heb heel wat te show offen, dus ik ga morgenavond een uitgebreide post maken
de bouw ligt even stil.. er moet een proc geleverd worden, maar die is nog steeds niet binnenVerwijderd schreef op maandag 18 juli 2011 @ 18:05:
[...]
hoe gaat het met de bouw.. ben nieuwsgierig of de Norco SS-500's al in de lian li zitten en hoe dat eruit ziet natuurlijk

60 TB can not be enough
dvl-2 schreef op dinsdag 19 juli 2011 @ 07:33:
Wordt die lijst uberhaupt nog wel geupdate? Een paar honderd posts geleden heb ik foto's en specs gepost maar zie mezelf nog steeds niet terug in de lijst
Q schreef op woensdag 13 juli 2011 @ 00:05:
Na mijn vakantie zal ik de topic start eens bijwerken.
vandaag zijn er enkele spulletjes binnengekomen;
namelijk:
voeding!

extra molex kabels

modulaire kabels in een tasje


en ingebouwd!

en aansluiten..

moederbordje..

passieve koeling.. daar houden we van.

en het geheugen..

wel vaag... de losse reepjes hebben heatsinks, maar de sets van 3 niet, zelfde typenr

en ingebouwd!

64 gig aan happyness
en in de Lian-Li

zo gaat de koeler erop.. als de CPU er eindelijk is


bekabeling erbij

front-view

en kabelde zij-view

alles even getest, doet de fan op 1 van de bays het niet meer... klote

andere fan gepakt, hielp niets. morgen maar eens op een andere pc aansluiten, kijken wat het is.
60 TB can not be enough
* robertobadjo is zo jaloers op de rest

Even niets...
lol nee dat dan weer nietFireDrunk schreef op woensdag 20 juli 2011 @ 19:42:
Ach, je bent vast niet jaloers op de stroomrekening

Verwijderd
vind ik ookPeterPan schreef op woensdag 20 juli 2011 @ 21:41:
freak1: als 'tie af is zou ik 'm ook posten op HardForm aangezien je best een origineel concept hebt.
* denkt : wat zou ESXi 5 aan licenties gaan kosten op deze machine
[ Voor 14% gewijzigd door Verwijderd op 20-07-2011 22:11 ]
@Borroz:
Hyper-V is gelukkig iets goedkoper en werkt ook prima
Ik hoop ZO dat er VT-d/IOMMU in Hyper-V 3.0 zit.. Dat zou goed voor de concurrentie zijn
Even niets...
ik heb ook een Lian-LI PC-343B tweedehands gekocht via tweakers voor 100 euriesdvl-2 schreef op maandag 18 juli 2011 @ 10:22:
[...]
Toevallig heb ik dezelfde case en het is een Lian-Li PC-343B. Tis wel goed zoeken want ze verkopen hm bijna nergens of voor de hoofdprijs. Case is sowieso niet goedkoop maar mijn exemplaar komt uit Duitsland omdat dat met de nederlandse webshops die hm destijds hadden bijna 100 euro scheelde.
@ freak1: ik ben benieuwd wat jij van deze kast maakt, het zal vast anders zijn dan wat ik ermee gedaan heb
heb er 2x areca inzitten een 12 en 16 poort met 2tb schijven eraan
60 TB can not be enough
denk erom met die bay voor die 3 schijven achterin, die boven het moederbord paste bij mij niet goed, dus daarvoor heb ik wat moeten modden (boren)
ik heb hem er nu niet meer inzitten ivm warmte ontwikkeling, ik heb mijn cpu nu gekoeld met een corsair h80
Verwijderd
idd prima servicefreak1 schreef op donderdag 21 juli 2011 @ 08:29:
evven eenupdate, een van de bays was dus stuk. ri-vier gemailed, en kan vandaag nog de bay komen omwisselen.. superservice dus. nu even kijken of ik alleen de electronice kan wisselen, dat scheelt me erg veel gelazer met stickeren enzo
Kast - Lian LI 343B
Moederbord - Asus Sabertooth X58
CPU - Intel Core i7 960
Geheugen - Corsair 6x2GB, DDR3, PC12800, CL9, XMS3
Raid Card 1 = Areca 1230 12 poorten sata
Raid Card 2 = Areca 1260 16 poorten sata
17 x 2TB Samsung Spinpoint F3EG
11 x 2TB Samsung Spinpoint F4EG
2 x Zalman ZM-MFC1 Plus
SSD - OCZ Vertex 2 SATA II 2.5" SSD 60GB
Corsair H80 cpu koeling
maar ja het is mijn server die staat ook bijna nooit uit
Verwijderd
PICS !thalantis schreef op donderdag 21 juli 2011 @ 09:22:
mijn systeempje
Kast - Lian LI 343B
Moederbord - Asus Sabertooth X58
CPU - Intel Core i7 960
Geheugen - Corsair 6x2GB, DDR3, PC12800, CL9, XMS3
Raid Card 1 = Areca 1230 12 poorten sata
Raid Card 2 = Areca 1260 16 poorten sata
17 x 2TB Samsung Spinpoint F3EG
11 x 2TB Samsung Spinpoint F4EG
2 x Zalman ZM-MFC1 Plus
SSD - OCZ Vertex 2 SATA II 2.5" SSD 60GB
Corsair H80 cpu koeling
Geen videokaart? Het ziet er meer uit als een desktopthalantis schreef op donderdag 21 juli 2011 @ 09:58:
het booten duurt even doordat de areca kaarten firmware gaan checken en de schijven gaan niet allemaal tegelijk aan, staggering spinup staat op 0,4 sec.
maar ja het is mijn server die staat ook bijna nooit uit
Een i7 in je server, pfff, die zal het niet druk hebben
Wel mooi spul uiteraard
[ Voor 3% gewijzigd door FireDrunk op 21-07-2011 10:17 ]
Even niets...
Leuke specs!thalantis schreef op donderdag 21 juli 2011 @ 09:22:
mijn systeempje
Kast - Lian LI 343B
Moederbord - Asus Sabertooth X58
CPU - Intel Core i7 960
Geheugen - Corsair 6x2GB, DDR3, PC12800, CL9, XMS3
Raid Card 1 = Areca 1230 12 poorten sata
Raid Card 2 = Areca 1260 16 poorten sata
17 x 2TB Samsung Spinpoint F3EG
11 x 2TB Samsung Spinpoint F4EG
2 x Zalman ZM-MFC1 Plus
SSD - OCZ Vertex 2 SATA II 2.5" SSD 60GB
Corsair H80 cpu koeling
Het idee van dit topic is dat je niet alleen wat specs neer smijt maar ook iets verteld over het systeem. Op zijn minst de informatie die wordt gevraagd in de topic start en foto's zijn essentieel.
En meer is altijd beter, dan kan ik nog een beetje genieten van het slechte weer in ZwitserlandQ schreef op donderdag 21 juli 2011 @ 10:36:
[...]
Leuke specs!
Het idee van dit topic is dat je niet alleen wat specs neer smijt maar ook iets verteld over het systeem. Op zijn minst de informatie die wordt gevraagd in de topic start en foto's zijn essentieel.
Server draait windows 2008 r2, de 16x schijven staan in raid 6 met een hot spare blijft er 25TB in windows over
de 12x schijven staan in raid 5, blijft er 21 TB over in windows.
ik heb gekozen voor de asus sabertooth ivm met de 3x pci-e x16 sloten, dit ivm de 2x areca kaarten en de netwerk kaart de intel p1000 met 2x netwerk aansluiting.
de videokaart een Matrox G550 PCIe | G55-MDDE32F was ik nog vergeten maar heb een tijdje lang geen video kaart erin gehad wat ook niet nodig is voor rdp, de vorige werd te heet.
ik kan alles van afstand regelen door middel van een raritan DKX2-101 DOMINION KX II 101 kvm over ip.
de stroom kan ik ook regelen van afstand met een ip power 9258.
60 TB can not be enough
System specifications | |
Component | Value |
---|---|
Case | Lian-Li V2100 |
CPU | Core 2 Duo E8400, 3GHz |
RAM | 4x 2048MB, PC2-6400 |
Motherboard | Asus P5BV-SAS |
Operating system | Windows server 2008 R2 |
Controller | Areca ARC-1160, 16-Ports |
Hard drive | Boot: 1x Seagate ST3500620AS 500GB |
Hard drive | Data-1: 12x Hitachi 5K3000 2TB |
Hard drive | Data-2: 4x Western Digital WD15EARS 1.5TB |
RAID array configuration | Data-1= RAID 6 & Data-2= RAID 5 |
Netto storage capacity | 25TB |
Network 1 | 1 Gigabit Ethernet - LAN |
Network 2 | 10 Gigabit Ethernet - Workstation (p2p) |
UPS | Nee |
Filesystem | NTFS |
Idle power usage | Nooi gemeten |
Zoals aangegeven in de tabel draai ik Windows server 2008 R2 + Vmware workstation met 2x VMs. Op de ene VM staat Windows 2003 en deze dient als VPN server voor m’n werk & op de andere VM staat Fedora 10 en deze houd de server in de gaten (Syslog & Cacti).
Hieronder nog wat foto’s. Misschien niet al te duidelijk, want de onderdelen zijn veelal zwart & ik heb een crappy camera






[ Voor 27% gewijzigd door brederodekater op 07-01-2012 18:05 ]
[ Voor 33% gewijzigd door tricksel op 21-07-2011 22:49 . Reden: kleine toevoeging ]
Verwijderd
ziet er goed uitbrederodekater schreef op donderdag 21 juli 2011 @ 21:34:
Ik ben net klaar met de upgrade van mijn server
Koel! Waarvoor heb je het systeem gebouwd?thalantis schreef op donderdag 21 juli 2011 @ 11:08:
Ok even wat meer over de server
Server draait windows 2008 r2, de 16x schijven staan in raid 6 met een hot spare blijft er 25TB in windows over
de 12x schijven staan in raid 5, blijft er 21 TB over in windows.
ik heb gekozen voor de asus sabertooth ivm met de 3x pci-e x16 sloten, dit ivm de 2x areca kaarten en de netwerk kaart de intel p1000 met 2x netwerk aansluiting.
de videokaart een Matrox G550 PCIe | G55-MDDE32F was ik nog vergeten maar heb een tijdje lang geen video kaart erin gehad wat ook niet nodig is voor rdp, de vorige werd te heet.
ik kan alles van afstand regelen door middel van een raritan DKX2-101 DOMINION KX II 101 kvm over ip.
de stroom kan ik ook regelen van afstand met een ip power 9258.
Thanks!tricksel schreef op donderdag 21 juli 2011 @ 22:47:
Zéér nette cable job vanaf je controller. Zelfbouw of ergens aangeschaft? Ben op zich ook op zoek naar dergelijke voedingkabels voor m'n schijven...
Die voedingskabels zijn inderdaad helemaal geweldig & ze zijn erg makkelijk zelf te maken. Voordat ik de individuele onderdelen voor de custom kabels binnen had was alles aangesloten met 4 kabels vanaf de voeding + meerdere Y-kabeltjes.. van die situatie heb ik maar geen foto genomen
APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.
klopt. maar daarom is het ook een server ;-)tHe_BiNk schreef op vrijdag 22 juli 2011 @ 07:17:
@freak1 die kast is idd niet erg diep (46 cm. geloof ik), jammer dat deze niet 55 of 65 cm. diep is. Ook als je grote videokaarten hebt zal je in problemen komen. Ik blijf voorlopig nog maar even bij mijn oude CM stacker.
ik vermoed dat 1 van mijn 5 in 3 bays uit zal gaan steken omdat de areca kaart redelijk fors is.. verder heb ik niks te klagen.
60 TB can not be enough
ziet er fucking nice uit. mooie kast vooralbrederodekater schreef op donderdag 21 juli 2011 @ 21:34:
Ik ben net klaar met de upgrade van mijn server, er zijn 12x 2TB schijven bijgezet in combinatie met een Areca controller. Al m’n data staat op de 2TB schijven & de oude schijven worden gebruikt als semi-backup voor echt belangrijke data + tijdelijke/ongesorteerde data.
De volledige specificaties:Totale opslag bruto: 30.5TB & netto: 25TB
- Kast: Lian-Li V2000
- Moederbord: Asus P5BV-SAS
- CPU: Core 2 Duo E8400, 3GHz
- Geheugen: 2x 2048MB, PC2-6400
- RAID-Controller: Areca ARC-1160, 16-Ports
- Boot-disk: Seagate ST3500620AS 500GB
- Data 1: 12x Hitachi 5K3000 2TB, RAID-6 (Areca)
- Data 2: 4x Western Digital WD15EARS 1.5TB, RAID-5 (Onboard)
Ik draai Windows server 2008 R2 + Vmware workstation met 2x VMs. Op de ene VM staat Windows 2003 en deze dient als VPN server voor m’n werk & op de andere VM staat Fedora 10 en deze houd de server in de gaten (Syslog & Cacti).
Hieronder nog wat foto’s. Misschien niet al te duidelijk, want de onderdelen zijn veelal zwart & ik heb een crappy camera![]()
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
De eerste 6 schijven waar de fans direct tegenaan gemonteerd zijn zitten nu tussen 34 en 36 graden & de tweede rij met 6 schijven zitten tussen de 37 and 41 graden. Op zich zouden ze nog wat warmer mogen worden, maar ik ben er niet helemaal happy mee.
Ik ga eens kijken of ik een gatenkaas kan maken van dit wandje zodat de lucht beter doorgevoerd kan worden naar helemaal achterin de kast, waar ik dan ook nog eens 2 fans kan monteren om de warmte uit de kast te dirigeren. Het enigste probleem is dat het wandje met klinknagels vast zit, dus dit wordt interessant
Hoe staat het eigenlijk met jullie temps? En hebben jullie ook wel eens rigoureuze stappen met de kast moeten ondernemen om alles naar wens te krijgen?
Grappig om m`n "oude" disk array weer te zien
Ziet er goed uit hoor! Leuke specs ook.
"Sommige mensen zeggen dat ik gek ben, maar gekken horen toch thuis in het gekkenhuis, of ben ik nou gek??"
Bedankt voor alle info. Deze server verdient een plaatsje in de lijst met grote builds, maar zonder foto's komt ie 'r niet in (pics or it didn't happen), dus wil je wat foto's beschikbaar stellen?thalantis schreef op donderdag 21 juli 2011 @ 11:08:
Ok even wat meer over de server
[ Voor 79% gewijzigd door Q op 24-07-2011 01:13 ]
http://blog.backblaze.com...-0revealing-more-secrets/
135 TB storage pod van Backblaze. (v2.0 met aangepaste hardwarelijst)
Wie gaat de uitdaging aan die na te bouwen en de nr1 te worden??
(Misschien eens een inkoopactie doen voor die case en de port-multipliers...)
Als iemand het voor mij betaald, ga ik de uitdaging aansoulrider schreef op zaterdag 23 juli 2011 @ 23:57:
In het DIY-NAS-topic is die al gepasseerd, maar hier is de info wellicht iets beter op zijn plaats:
http://blog.backblaze.com...-0revealing-more-secrets/
135 TB storage pod van Backblaze. (v2.0 met aangepaste hardwarelijst)
Wie gaat de uitdaging aan die na te bouwen en de nr1 te worden??
(Misschien eens een inkoopactie doen voor die case en de port-multipliers...)
Ik zou mijn goed niet weten wat ik met zoveel opslag capaciteit zou moeten
Gewoon zoals iedereen in dit topic: nog meer porno opslaan?iMars schreef op zondag 24 juli 2011 @ 00:01:
[...]
Ik zou mijn goed niet weten wat ik met zoveel opslag capaciteit zou moeten
[ Voor 9% gewijzigd door Q op 24-07-2011 00:04 ]
LOLQ schreef op zondag 24 juli 2011 @ 00:04:
[...]
Gewoon zoals iedereen in dit topic: nog meer porno opslaan?
Al die 20+ megapixel RAW files en al die HD footage, dat gaat hard natuurlijk.
[ Voor 33% gewijzigd door Q op 24-07-2011 00:14 ]
Met al die multipliers zijn die pods wel redelijk traag (vergeleken met de setups die hier voorbij komen), dus ik zou sowieso denk ik niet voor zo'n oplossing gaan.
Overigens heeft mijn systeem nu 12TB netto (10 x 1.5Gb in raid6), dus ik mag hier ook meedoen
Binnenkort eens foto's maken en een verhaaltje schrijven (al is de kans groot dat er nog heel wat gaat veranderen aan die machine
Status update:
Toegevoegd aan tabel:R0SS!
iRReeL
DVL-2
Brederodekater
Marc H
Zware Unit
Niet toegevoegd aan tabel:
thalantis: nog geen pics
Freekweb: Alleen setups die privaat worden gebruikt worden opgenomen.
Petervdb: geen mooie post met duidelijke info een fotos.
@Borroz en Freak1:
Willen jullie ieder uiteindelijk 1 post maken met daarin het eind resultaat? Graag met alle specs, het verhaal er omheen en wat foto's.
[ Voor 18% gewijzigd door Q op 24-07-2011 01:15 ]
You are the manThe_Cyberspace schreef op zaterdag 23 juli 2011 @ 19:09:
[...]
Grappig om m`n "oude" disk array weer te zien
Ziet er goed uit hoor! Leuke specs ook.
Defineer traagSleepie schreef op zondag 24 juli 2011 @ 00:49:
135TB is wel heel erg veel (maar gezien bovenstaande komt dat waarschijnlijk door mijn gebrek aan een pr0n collectie)
Met al die multipliers zijn die pods wel redelijk traag (vergeleken met de setups die hier voorbij komen), dus ik zou sowieso denk ik niet voor zo'n oplossing gaan.
Naar eigen zeggen kunnen ze de 2 gigabit verbinding zonder enig probleem volkrijgen.
Ze hebben 3 kaarten met elk 4x300MB/s verbindingen die elk begrenst worden door een 500MB/s pci-e verbinding. Dus ik zou verwachten dat als ze semi-optimaal gebruikt worden, er toch een verdomd leuke snelheid behaald moet kunnen worden :0
Overigens grappig detail, ze willen de kosten voor alles zo laag mogelijk houden.
Maar ze hebben wel een powerschakelaar van $30

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Verwijderd
Q schreef op zondag 24 juli 2011 @ 01:13:
@Sleepie: niemand in dit topic gelooft dat je geen porno collectie hebt, dat snap je wel toch? Dit soort ontkenningen suggereert alleen maar dat je wat meer kinky dingen verzamelt. Is je goed recht hoor.

Die power-switch was mij ook al opgevallen jaheuveltje schreef op zondag 24 juli 2011 @ 10:18:
Defineer traag
Naar eigen zeggen kunnen ze de 2 gigabit verbinding zonder enig probleem volkrijgen.
Ze hebben 3 kaarten met elk 4x300MB/s verbindingen die elk begrenst worden door een 500MB/s pci-e verbinding. Dus ik zou verwachten dat als ze semi-optimaal gebruikt worden, er toch een verdomd leuke snelheid behaald moet kunnen worden :0
Overigens grappig detail, ze willen de kosten voor alles zo laag mogelijk houden.
Maar ze hebben wel een powerschakelaar van $30
Ik had het over de local read/write snelheid per pod, die is volgens mij toch echt lager dan wat wij hier halen. Het blijft natuurlijk wel een mooi project
Sterker nog, de Backblaze 1 was eigenlijk de aanleiding tot mijn eigen NAS server.
@Q: Die reactie had ik wel verwacht
Verwijderd
Ik heb op deze regendag dit topic van begin tot eind gelezen. Wat hier zoal de revue passeert valt bij mij net zo goed onder pr0n!Maar ik geloof dat het al-dan-niet bestaan van Sleepie's Pr0n Collection niet echt ontopic is
Leuk, en inspirerend.
[ Voor 6% gewijzigd door Verwijderd op 24-07-2011 16:39 ]
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.
Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!