• kn00pje
  • Registratie: September 2012
  • Laatst online: 08-09-2022
Goedemorgen,

Ik weet niet of ik hier juist post, maar ik wil ook graag een eigen NAS/VMware server bouwen. Ik ben alleen niet meer zo op de hoogte van de hedendaagse hardware etc. Ik heb de config ongeveer gepikt van mijn collega en ben eigenlijk wel benieuwd of jullie nog op en aanmerkingen hebben.

Ik installeer ESXi.
VMs
3x linux
1x windows
Af en toe backtrack
Soms nog wat extra om te kloten
Verder gebruik ik geen RAID. Ik kan het prima verdelen over verschillende disken en maak altijd een externe backup.

Board:
Zotac H67 WIFI (Socket 1155, WiFi)
-Vanwege de 6 SATA aansluitingen. Wifi heb ik trouwens niet perse nodig!

Case:
Fractal Design Array R2 Mini ITX NAS Behuizing 300W Zwart
-Mooi, klein, zuinig en 6 disken.

Geheugen:
Kingston 8GB PC3-10666 ValueRAM DDR3 SDRAM (2x 4GB, 1333MHz, CL9)
-Meer en sneller krijg ik er volgens mij niet in met deze config.

CPU:
Intel Core i5 3570K (Socket 1155, Boxed)
-Ik zie door de bomen het bos niet meer, wat is nou het beste model in ongeveer deze prijsklasse?
-Zit hier nou ook een cooler bij?

Disken:
Western Digital 250GB VelociRaptor (SATA-600, 3.5")
-Naar mijn mening hoe sneller hoe beter voor de VMs en ESXI installatie.
Western Digital 2TB Caviar Green (SATA-600, 3.5", 5400RPM, 64MB)
-Voor data, ik er nog nog een liggen, dus start met 4TB

Ik ben benieuwd of jullie nog tips en aanmerkingen hebben. Ik wil ook niet meer dan 750 euro uitgeven. Deze configuratie kost 650 euro

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
en de pin 11 in de voedingstekker oplossing?

voor hierboven, waarom nog velociraptor's gebruiken? ssd niet een beter idee?

[ Voor 47% gewijzigd door Mafketel op 30-09-2012 10:47 ]


  • kn00pje
  • Registratie: September 2012
  • Laatst online: 08-09-2022
Mafketel schreef op zondag 30 september 2012 @ 10:45:
en de pin 11 in de voedingstekker oplossing?

voor hierboven, waarom nog velociraptor's gebruiken? ssd niet een beter idee?
Prijstechnisch niet dacht ik, maar ik zie dat de samsung disken nog wel meevallen.

In plaats van de velociraptor een
Samsung 256GB 830 Solid State Drive (SATA-600, 2.5", Desktop kit)
?

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 22:10
3570K is overigens complete overkill voor wat jij nodig hebt. En zeker als je geen VT-d nodig hebt snap ik niet waarom je niet voor iets kleiners gaat want je bak staat immers het grootste deel van de tijd de idlen.

Any job you can do in your pajamas is not the hardest job in the world.


  • kn00pje
  • Registratie: September 2012
  • Laatst online: 08-09-2022
Waar dient VT-d precies voor? Ik heb maar een processor gekozen. Zou je wel een I5 aanraden of een I3 of nog heel wat anders?

Ik werk trouwens wel veel met gentoo linux. Dan nog installereer ik niet de hele dag packages, maar ik vind het wel fijn als het compilen lekker doorloopt ;-).

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Als je het over de prijs gaat hebben is alleen
pricewatch: Seagate Cheetah 15K.7 ST3450657SS, 450GB SAS-2.0, 16MB, 15000rpm
van 15krpm schijven interesant maar dan moet je er nog wel een
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x
erbij kopen ... zoek criteria waren op prijs minimaal 240gb 15krpm
de tweede schijf is meteen €180 wat bovenste 2 bij elkaar ook zijn ;)
een 250gb ssd is ook €160

ik zie dat 10krpm schijven wat goedkoper zijn... maar dan nog als je daar geld aan gaat uitgeven heb je meer lol met een ssd

[ Voor 9% gewijzigd door Mafketel op 30-09-2012 12:03 ]


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Mafketel schreef op zondag 30 september 2012 @ 11:59:
Als je het over de prijs gaat hebben is alleen
pricewatch: Seagate Cheetah 15K.7 ST3450657SS, 450GB SAS-2.0, 16MB, 15000rpm
van 15krpm schijven interesant maar dan moet je er nog wel een
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x
erbij kopen ... zoek criteria waren op prijs minimaal 240gb 15krpm
de tweede schijf is meteen €180 wat bovenste 2 bij elkaar ook zijn ;)
een 250gb ssd is ook €160

ik zie dat 10krpm schijven wat goedkoper zijn... maar dan nog als je daar geld aan gaat uitgeven heb je meer lol met een ssd
Ik heb een tijdje terug een aantal benchmarks gedaan met 2x 300GB Seagate 15k SAS 2.0 schijven icm een M1015 SAS controller. dit waren de resultaten: http://gathering.tweakers.net/forum/view_message/38849542

Conclusie: Zelfs een enkele 128/256GB Samsung SSD is sneller als 2 dezelfde SAS schijven in een RAID0 opstelling.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Mafketel schreef op zondag 30 september 2012 @ 10:45:
en de pin 11 in de voedingstekker oplossing?
Vergeten. Heb ik dus niet geprobeerd, maar dat is niet echt een wenselijke oplossing omdat die niet zo makkelijk terug te draaien is.
Any way, voor mij geen probleem meer met die grotere voeding.

  • sn33ky
  • Registratie: Juni 2004
  • Laatst online: 04-12 23:58
Ik zou ook graag een eigen NAS gaan maken met 8 x 3,5inch in Raid 5. Welke RAID kaart kan ik hier best voor kopen? Laag budget.

  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

sn33ky schreef op vrijdag 05 oktober 2012 @ 11:18:
Ik zou ook graag een eigen NAS gaan maken met 8 x 3,5inch in Raid 5. Welke RAID kaart kan ik hier best voor kopen? Laag budget.
Dat ligt er helemaal aan wat voor OS je wil gaan draaien. Low budget zou ik soft-raid doen. Maar liever een fs als ZFS ipv raid-5 dan.

[ Voor 6% gewijzigd door B2 op 05-10-2012 11:31 ]


  • sn33ky
  • Registratie: Juni 2004
  • Laatst online: 04-12 23:58
B2 schreef op vrijdag 05 oktober 2012 @ 11:31:
[...]


Dat ligt er helemaal aan wat voor OS je wil gaan draaien. Low budget zou ik soft-raid doen. Maar liever een fs als ZFS ipv raid-5 dan.
Linux. Zou bijvoorbeeld de pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x voldoen? Het moederbord heeft maar 4 SATA 600 aansluitingen wat te weinig is.
Wat zijn de voordelen van ZFS tegenover Raid 5?

[ Voor 6% gewijzigd door sn33ky op 05-10-2012 11:42 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

sn33ky schreef op vrijdag 05 oktober 2012 @ 11:35:
[...]

Linux. Zou bijvoorbeeld de pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x voldoen? Het moederbord heeft maar 4 SATA 600 aansluitingen wat te weinig is.
Welke moederbord heb je voor ogen?. De M1015 is een bruikbare controller voor zowel software RAID als ZFS, moet je wel de IR firmware flashen naar IT (GoT even doorzoeken, is reeds beschreven)
Wat zijn de voordelen van ZFS tegenover Raid 5?
Zet een flinke kan koffie, surf naar het ZFS topic en sla aan het lezen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • sn33ky
  • Registratie: Juni 2004
  • Laatst online: 04-12 23:58
Pantagruel schreef op vrijdag 05 oktober 2012 @ 12:45:
[...]


Welke moederbord heb je voor ogen?. De M1015 is een bruikbare controller voor zowel software RAID als ZFS, moet je wel de IR firmware flashen naar IT (GoT even doorzoeken, is reeds beschreven)


[...]


Zet een flinke kan koffie, surf naar het ZFS topic en sla aan het lezen.
Inderdaad een handig topic. Ik ben overtuigt van de voordelen van ZFS.

Paar moederborden waar ik naar kijk. (PC word ook gebruikt als alway's on media center)
- pricewatch: Asus C60M1-I - AMD Low power
- pricewatch: Gigabyte GA-Z77M-D3H - Intel i3
- pricewatch: Asus F2A55-M - FM2 AMD power
- pricewatch: Asrock E350M1 - AMD low power with more power

[ Voor 27% gewijzigd door sn33ky op 05-10-2012 14:24 ]


  • Pluppie
  • Registratie: Februari 2004
  • Laatst online: 16-09-2021
Ik ben op zoek naar wat extra hulp ivm het samenstellen van enkele stevige SAN's voor in een studentenomgeving, een een eigen NASje voor thuisgebruik. Eerst het grote werk;
Ik heb 32 blades voor studenten en momenteel 2 SAN's van HP (MSA2000 G2's). Deze MSA's hangen op 2 C3000 chassis via iScsi, maar hierop draait onze studenten fileserver en nog wat webservers. Aangezien deze in een live omgeving worden gebruikt zou ik de studenten hier volledig vanaf willen halen voor hun lessen. Nu hebben we ook nog wat ouder speelmateriaal (24x bl20p G4 blades) voor onze studenten. Daarop leren ze virtualisatie, ESXI, Iscsi, etc... Momenteel laten we ze connecteren op de MSA's met 1x 1Gbit connectie naar een Gigabit switch richting SAN, maar dat is onwerkbaar traag natuurlijk.
Nu dacht ik een aantal kwalitatieve maar goedkope (max 2500-3000 Euro) SAN's te bouwen in Windows 2008 Server. Ik dacht per 6 blades één zelfbouwSAN te fabriceren waarmee ze dan naar hartenlust kunnen spelen.
Het moet NIET redundant zijn, het dient enkel als lesmateriaal. De SAN's moeten natuurlijk wel voldoende snelheid hebben om ongeveer een 25tal VM's tegelijk te laten draaien (dacht aan 10MB/s per VM max dus met 4x 1GBit netwerkkaart dacht ik toe te komen). Ik heb nog wel ergens een pci netwerkkaart voor management, dus daar hoeft geen rekening mee gehouden te worden. Volgende onderdelen heb ik zowat bijeen gezocht, maar alle ervaring is natuurlijk welkom;

case: 825TQ-560LPB 385 pricewatch: Supermicro 825TQ-560LPB
mainboard: C7P67 190 pricewatch: Supermicro C7P67
Intel i7 3,5Ghz 275 pricewatch: Intel Core i7 2700K Boxed
LSI SAS3081E-R-KIT 300 pricewatch: LSI LSI SAS3081E-R-KIT
32GB 4x 1333Mhz 145 pricewatch: Kingston KVR1333D3N9K4/32G
8x SAS 300GB 10krpm 190 pricewatch: Western Digital Enterprise XE, 300GB SAS-2.0, 32MB, 10000rpm
Dual Gigabit netwerkkaart 120 pricewatch: HP NC360T PCI-E twee-poorts Gigabit serveradapter (412648-B21)

Ik kom in totaal op een 3000 euro uit. Zo zou ik er dan 3 willen bouwen.
Besturingssysteem: Windows 2008 Server met StarWind iSsi connectie. Ik heb wel een aantal Gbit switches liggen, maar geen fiber. Fiber is dus uit den boze (tenzij mij iemand fiberswitches kan leveren tegen dumpprijs ;-) ) Iemand opmerkingen/ervaringen?
Iemand een gedacht hoeveel stroom dat bordje trekt? Anders lijkt me dat ook een ideaal bordje voor mijn thuisNAS (zie hieronder)

  • Pluppie
  • Registratie: Februari 2004
  • Laatst online: 16-09-2021
En nu dus mijn thuisnas.
Ik heb een 14tal SATA disks. Momenteel zijn die verspreid over 2 NASjes van 4 schijven en een Windows 7 bak met de rest van de schijven.
Graag zou ik alles in RAID 5 willen zetten in een kast.
Ik heb al een maxi tower (pricewatch: Sharkoon Rebel12 Economy (Zwart).
De rest moet ik nog aankopen.
Hier zijn 2 zaken heel belangrijk voor mij; energiebesparing en voldoende SATA aansluitingen. Geluid etc maakt niet uit, het staat toch in een afgesloten ruimte.
Het mobo moet dus sowieso min 8 SATA connectors hebben, en min 2 PCI-E 8X aansluitingen om 2 extra SAS- of SATA controllers op aan te sluiten. De harddisks worden niet intensief gebruikt dus software raid is voldoende.
Qua CPU dacht ik een i3 2120T ( pricewatch: Intel Core i3 2120T Boxed ) te kopen voor energiezuinigheid. Veel zware cpukracht heb ik niet nodig, het dient enkel voor nas en eventueel wat te internetten. Er komt W2008 of W7/8 op.
Als extra SATA/SAS controller dacht ik aan LSI SAS3081E-R-KIT ( pricewatch: LSI LSI SAS3081E-R-KIT ) en dan nog een 8GB geheugen.
Maar wat als mobo en voeding? Liefst zo energiezuinig, ik kijk niet op 50 euro extra aankoopprijs aangezien het toch op de zaak komt.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

sn33ky schreef op vrijdag 05 oktober 2012 @ 14:20:
[...]

Inderdaad een handig topic. Ik ben overtuigt van de voordelen van ZFS.

Paar moederborden waar ik naar kijk. (PC word ook gebruikt als alway's on media center)
- pricewatch: Asus C60M1-I - AMD Low power
- pricewatch: Gigabyte GA-Z77M-D3H - Intel i3
- pricewatch: Asus F2A55-M - FM2 AMD power
- pricewatch: Asrock E350M1 - AMD low power with more power
Even Google'n op de combinatie moederbord naam en M1015, wordt je wijzer of de controller mee wil werken in het bord van keuze.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Pluppie schreef op vrijdag 05 oktober 2012 @ 15:41:
En nu dus mijn thuisnas.
Ik heb een 14tal SATA disks.
Wat voor schijven heb je allemaal? En als je er toch ook op gaat internetten is het eigenlijk niet echt een NAS. Meer een werkstation met opslag ruimte.

Zelf heb ik een intel G930T in een ESXi host zitten die heeft ook een TDP van 35Watt en is ruim voldoende voor wat je van van plan bent volgens mij

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Even Google'n op de combinatie moederbord naam en M1015, wordt je wijzer of de controller mee wil werken in het bord van keuze.
De Asus E45M1 Pro in ieder geval wel. Zijn broertjes ook neem ik aan.

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Heb zojuist een tweedehands cabinet (14u) gekocht voor 150 euro. Is echt als nieuw. Zal binnenkort enkele foto's plaatsen.

Afbeeldingslocatie: http://product-images.www8-hp.com/digmedialib/prodimg/lowres/c02162385.png (link)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
Waar heb je die gevonden? Wat een mooi ding :) Laast zag ik ook al 20U modellen hier voorbij komen. Niet verkeerd! Wat voor moois ga je er van maken?

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • analog_
  • Registratie: Januari 2004
  • Niet online
Afgelopen weekeinde wat SSDs bijgekocht en tijdelijk een LSI 9266-8i geleend van het werk. Heb gisternacht allerlei configuraties lopen benchen op een i5/8GB setup. Ik heb raid0, 5, 6 en 10 getest met AS SSD, atto (qd 4 en 10) en HD Tune Pro (r/w, rnd r/w, file bench, extra bench). Ik zal niet alles posten wat ik heb, maar een snelle samenvatting.

RAID 0
Afbeeldingslocatie: http://tweakers.net/ext/f/Dj1FxrftPo9hcDi9mFwIZ64Y/full.pngAfbeeldingslocatie: http://tweakers.net/ext/f/ZhWWs4egEIWBLRPb3aaHInYh/medium.png
Afbeeldingslocatie: http://tweakers.net/ext/f/NSrBXv2zfja9vGgE1Ewsv88b/full.pngAfbeeldingslocatie: http://tweakers.net/ext/f/ct9MxpoPoVEHP9xtmVFNcPDq/full.png
RAID 5
Afbeeldingslocatie: http://tweakers.net/ext/f/3zNq92cDIR9kLdzL0RkSVMas/full.pngAfbeeldingslocatie: http://tweakers.net/ext/f/DrQF02Y0McQW7U8fkfnTgX33/medium.png
RAID 6
Afbeeldingslocatie: http://tweakers.net/ext/f/W99GtRyLMnhD82ai5767jWFM/full.pngAfbeeldingslocatie: http://tweakers.net/ext/f/2QvgZdMjXBO4CzhoWQinsDJl/medium.png
RAID 10
Afbeeldingslocatie: http://tweakers.net/ext/f/GLbAMmT8TaevxVLASU0IwbHw/full.pngAfbeeldingslocatie: http://tweakers.net/ext/f/RYCD3czIQzYf6dbg1h5VMI1A/medium.png

Wat mij vooral opvalt is dat er duidelijk tijdens r5 en r6 gebruikt maakt worden caching algoritmes waardoor die belachelijk hoge waardes in atto en het gruwelijk slecht doen in random iops 4k performance in AS SSD. Ook opmerkelijk is dat in r0 (of elke mode eigenlijk) de write-endurance niet meer dan een 50-tal GB duurt en dat erna de performance nogal instort. Iemand uitleg?
Ik heb veel meer data maar t.net/fotoalbum is één per één uploaden (vreselijk) dus mochten jullie meer willen, just ask.

[ Voor 38% gewijzigd door analog_ op 06-10-2012 18:36 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
analog_ schreef op zaterdag 06 oktober 2012 @ 18:08:
'....tijdelijk een LSI 9266-8i geleend....Ik heb veel meer data maar t.net/fotoalbum is één per één uploaden (vreselijk) dus mochten jullie meer willen, just ask.
lijkt me meer thuis in een ander topic?

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
thof schreef op zaterdag 06 oktober 2012 @ 16:24:
Waar heb je die gevonden? Wat een mooi ding :) Laast zag ik ook al 20U modellen hier voorbij komen. Niet verkeerd! Wat voor moois ga je er van maken?
Op marktplaats. Meteen geboden en opgehaald. Ze zijn lastig te vinden, want meestal gaan de voor > 300 euro weg. Mijn DIY rack zal dan ook worden vervangen. Komende week druk, dus zal wel volgend weekend worden.

Afbeeldingslocatie: http://t3.gstatic.com/images?q=tbn:ANd9GcSqHRWGRT8dHph3q-rvUkhSLeinBlQxhRaS1yk5AGO-aw8-IDBKqLZp04gqvg

Afbeeldingslocatie: http://t3.gstatic.com/images?q=tbn:ANd9GcQ7hX97jbHkwFEMqfeEIWkSyksaov1hZWMWK22eQaKtMWXunYMyNenKcbNk

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Rest heb ik even niet naar gekeken. Maar waarom deze schijf als een paar post daarboven min of meer hetzelfde is behandeld.
256Gb ssd net zo duur , 15krpm schijf stuk goedkoper maar stuk trager dan ssd.

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Mijn nasje draait ondertussen met de 150 w. pico + adapter. Energie verbruik volgens dezelfde meter: 40.4 w. Dit is dus minder dan 3 watt winst in vergelijking met de stock silverstone PS van de sugo sg05, kwa kosten kan het dus bij lange na niet uit! De aanschaf kosten van de pico maken het het duurste onderdeel van mijn server....

Mijn idee is dus ook dat een picoPSU alleen zinnig is qua ruimte en geluidsbeperking.

Idee: zou ik gewoon zonder de data kabel aan te sluiten hdd's kunnen blijven bij prikken om te kijken wat het maximaal aantal is waarmee een pico150 boot?

- raid does not fix stupid -


Verwijderd

@patatjemet: ik heb zojuist een heleboel metingen die het tegendeel bewijzen. Maar als jij @ 40W draait dan is dat natuurlijk niet de range waar de PicoPSU zijn beste voetje laat zien, dat is eerder @ 8W, waar ATX voedingen tegen de 20W zwerven. Daar zit je winst, en dat was al bekend dat de PicoPSU het pas goed doet onder de 20W DC.

De vraag die je jezelf kunt stellen is: waar gaat die 40 watt naartoe? Kan ik dat verder verminderen? Het idee van PicoPSU is dat je onder de 10W idle doet met misschien piekjes naar boven, maar als je nooit onder de 40W komt is een PicoPSU wel een beetje zonde.

En verder de prijs; 75 euro voor een PicoPSU + netvoeding combo is toch niet zo duur? Duurste onderdeel, mja wat geven jullie uit aan een ATX voeding dan? Geen 13,95 toch, meeste voedingen gaan ook tussen de 50 en 75 euro. Dus de hoge prijs van PicoPSU vind ik slecht onderbouwd. alleen versus een prutvoeding is het een duur ding. Wel geldt dat de beschikbaarheid van goede netvoedingen benedenmaats is, en dat het piekvermogen van de PicoPSU ook problemen kan geven.

Als je geïnteresseerd bent in mijn metingen moet je nog even wachten, maar ik heb wel een stoot aan meetgegevens beschikbaar. :)

En ja, natuurlijk kun je schijven aansluiten met alleen de stroomconnector. Ik heb al meerdere systemen gebouwd met 6 schijven + Brazos + PicoPSU-150 dus dat is gewoon mogelijk.

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Voorop gesteld, ik heb deze set-up zo gebouwd omdat ik niet wou dat ik mijn schijven in spindown zou moeten laten gaan. Dit ivm met snapshots en de (hypothese) langere levensduur. Door de aanschafprijs van de 2.5" disks en alles er omheen is deze build - voor de opslag die het bied - erg duur. Het is ook gewoon een stuk hobby natuurlijk. Ik bedoel niks negatief tegenover mensen persoonlijk en kies bewust voor alles zelf, maar probeer wel informatie te bieden die mensen kan helpen bij het maken van hun keuze voor een nas.
Verwijderd schreef op donderdag 11 oktober 2012 @ 14:05:
@patatjemet: ik heb zojuist een heleboel metingen die het tegendeel bewijzen. Maar als jij @ 40W draait dan is dat natuurlijk niet de range waar de PicoPSU zijn beste voetje laat zien, dat is eerder @ 8W, waar ATX voedingen tegen de 20W zwerven. Daar zit je winst, en dat was al bekend dat de PicoPSU het pas goed doet onder de 20W DC.

De vraag die je jezelf kunt stellen is: waar gaat die 40 watt naartoe? Kan ik dat verder verminderen? Het idee van PicoPSU is dat je onder de 10W idle doet met misschien piekjes naar boven, maar als je nooit onder de 40W komt is een PicoPSU wel een beetje zonde.
Mijn set-up is (verbruiksnummers even snel gegoogled):

- mini itx asus p8h67-i met g620 (met Intel Core i5-2400S 12 w. idle)
- ibm 1015 (9 w.)
- 2 x 8 gb ddr3 (4 w. ps ??)
- 12 cm fan (2 w.)
- 10 x 640 gb samsung HM641JI (0.7 idle)
- 1 x 250 gb wd (1 w. idle)

Totaal kom ik dan op: (12+9+8+2+7+1=) 39 w.

Ik weet niet wat ik kan doen om het verbruik verder te verminderen (naast schijven in spindown - wat ik dus liefst niet wil in verband met levensduur en snapshots). Ik geloof dat ik usb3 etc al uit heb gezet in het bios, maar dit zal ik na de memtest even controleren.
Verwijderd schreef op donderdag 11 oktober 2012 @ 14:05:
En verder de prijs; 75 euro voor een PicoPSU + netvoeding combo is toch niet zo duur? Wel geldt dat de beschikbaarheid van goede netvoedingen benedenmaats is, en dat het piekvermogen van de PicoPSU ook problemen kan geven.
Volgens mij is de 150 w. pico + psu voor 75 euro van streacom, vanwege de slechte reviews heb ik het risico niet genomen en voor een mini box gegaan (immers, de ketting is zo sterk als de zwakste schakel). (minibox.de - 12 v / 12.5 A adapter a 55 euro + pico 150xt a 47.50 euro + verzenden a 20 euro = ~125 euro).
Verwijderd schreef op donderdag 11 oktober 2012 @ 14:05:Als je geïnteresseerd bent in mijn metingen moet je nog even wachten, maar ik heb wel een stoot aan meetgegevens beschikbaar. :)

En ja, natuurlijk kun je schijven aansluiten met alleen de stroomconnector. Ik heb al meerdere systemen gebouwd met 6 schijven + Brazos + PicoPSU-150 dus dat is gewoon mogelijk.
De meetgegevens ben ik zeker benieuwd naar! Uiteindelijk is 40 w. ook nog te bezien, zeker gezien de groei potentie (10 schijven!), de compacte case, het gebrek aan geluid en het niet in spindown te hoeven draaien.

- raid does not fix stupid -


Verwijderd

Als je een 150W adapter wilt is het duur, maar met een iets mindere adapter is het prima te doen:
pricewatch: Mini-box picoPSU 80 + 60W Adapter Power Kit
pricewatch: Mini-box picoPSU 90 + 80W Adapter Power Kit
pricewatch: Mini-box picoPSU 150-XT + 80W Adapter Power Kit

Ik kan die adapters veel goedkoper krijgen, dus daar heb ik mijn voordeel mee gedaan. :)

En onder welk OS draai je? Dat maakt ook uit als je stroommetingen doet. FreeBSD moet je eerst eens de power saving van je CPU inschakelen:
ee /etc/rc.conf

performance_cx_lowest="Cmax"
economy_cx_lowest="Cmax"

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Ja, die 150 w. adapter nekt hem. Maar zoals hierboven besproken, met 11 disks wou ik liever veilig kwa stroom voorziening (11 * 1 A power up current). Tevens is de 150 w. met staggered spinup (!) misschien wel met 20 disks te gebruiken en dus leuker voor toekomstige projecten (op het moment dat deze 10 disks vol data zitten).

Draai momenteel freenas. Ga na de memtest experimenteren met zfsguru en nas4free.

- raid does not fix stupid -


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Patatjemet schreef op donderdag 11 oktober 2012 @ 18:06:
Tevens is de 150 w. met staggered spinup (!) misschien wel met 20 disks te gebruiken
Staggered Spinup werkt bij mij niet met de M1015 (oude en nieuwe firmware, IT en IR) en WD Red 3TBs. Doet het alleen goed op de moederbordaansluitingen (brazos).

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
Durandal schreef op vrijdag 12 oktober 2012 @ 02:00:
[...]

Staggered Spinup werkt bij mij niet met de M1015 (oude en nieuwe firmware, IT en IR) en WD Red 3TBs. Doet het alleen goed op de moederbordaansluitingen (brazos).
Is het en/en? Mijn vraag is dan ook, kan de M1015 geen staggered spin-up of is het de combinatie met de WD Red schijven die het onmogelijk maakt?

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Even een kort vraagje, als ik een M1015 in IT mode wil gebruiken als HBA voor ZFS dan heb ik forward breakout kabel als deze nodig toch? De OCF versie ipv OCR? En is 3ware aan te raden als kabel merk?

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
B2 schreef op zaterdag 13 oktober 2012 @ 15:41:
Even een kort vraagje, als ik een M1015 in IT mode wil gebruiken als HBA voor ZFS dan heb ik forward breakout kabel als deze nodig toch? De OCF versie ipv OCR? En is 3ware aan te raden als kabel merk?
Klopt, je hebt die kabel nodig. de OCF.
Ik heb zelf dit soort kabels van Digitus. (stond alleen op het zakje en niet op de kabel)

[ Voor 9% gewijzigd door Birdie_NL op 13-10-2012 15:43 ]


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
http://forums.overclocker...a&p=14188196&postcount=43

google en gij zult vinden dat m1015 staggered spinup doet....

Mag ik de vraagstellers er even op attent maken dat staggered spinup zal werken zodra de schijf niet direct aan gaat als je de stroom er op zet. En dat dit te bewerkstelligen zou moeten zijn met pinnetje 11.

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Sinds een paar dagen een Xserve (2008) als thuis server.

Afbeeldingslocatie: http://tweakers.net/ext/f/1z5BKaF7ZPYRZLXXQejfNErl/full.png

Zal binnenkort even de details posten.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Verwijderd

Heeft iemand al recente benchmarks van Server 2012 met refs/storage spaces gezien? Ik begreep dat in de rc's nog wat bugs zaten die je data konden vernaggelen en dat de performance niet echt jofel was. Zou dit inmiddels zijn opgelost?

Het kunnen toevoegen van een losse extra disk spreekt me erg aan, daarnaast ben ik onder vmware niet in staat om m'n disks in spin down te krijgen. Ik ben erg benieuwd wat Server 2012 in die zin voor me kan betekenen :)

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Er slingert ergens een blog/paper rond met testresultaten van de nieuwe SMB versie die Multipathing ondersteunt. Dat kan ook interessant zijn.

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
webfreakz.nl schreef op zaterdag 13 oktober 2012 @ 19:20:
Er slingert ergens een blog/paper rond met testresultaten van de nieuwe SMB versie die Multipathing ondersteunt. Dat kan ook interessant zijn.
Klopt, SMB 3.0 wordt die genoemt. Het kan zijn dat je in sommige documentatie versie 2.2 tegen komt. Versie 3.0 == 2.2, met dank aan de marketing afdeling van Microsoft ;)

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • Saajb
  • Registratie: Januari 2012
  • Laatst online: 11-12 15:32
Ik ben nieuw op dit forum en ben al een tijdje aan het overwegen om een NAS aan te schaffen / zelf te bouwen. Ik had eerst gedacht aan een synology ds212+, maar merkte dat ik voor de prijs van deze NAS misschien beter zelf één kan bouwen met 4 hdd's en dus meer opslagcapaciteit heb + betere redundancy. :)

Nu weet ik niet goed waar te beginnen met keuze voor moederbord en processor. Liefst zo zuinig mogelijk maar hij mag toch wat rekenkracht hebben zodat ik er eventueel een MySQL kan op draaien voor testdoeleinden.

Ik weet wel ongeveer wat ik zou willen:
- waarschijnlijk FreeNAS (compabiliteit van moederbord en SATA controller ?)
- 4 hdd's in ZFS equivalent van RAID5
- misschien ondersteuning voor LACP dmv PCI-E uitbreiding

In mijn netwerk heb ik voor het grootste deel Mac's dus de meeste bestandoverdracht zal verlopen via AFP en UPnP voor de TV's en PS3.

Mijn grootste probleem is dus om een combinatie moederbord/processor te vinden dat compatibel is met FreeNAS, zuinig is tijdens idle en toch geen slak is :D

Heeft er iemand suggesties of kan ik ergens recente configuraties vinden waarvan mensen weten dat ze voldoen aan wat ik zoek?

Alvast bedankt,

Siebe

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
thof schreef op zaterdag 13 oktober 2012 @ 12:50:
[...]


Is het en/en? Mijn vraag is dan ook, kan de M1015 geen staggered spin-up of is het de combinatie met de WD Red schijven die het onmogelijk maakt?
Weet ik niet. Ik had niet genoeg andere disks om het te testen.
Mafketel schreef op zaterdag 13 oktober 2012 @ 17:42:
http://forums.overclocker...a&p=14188196&postcount=43

google en gij zult vinden dat m1015 staggered spinup doet....

Mag ik de vraagstellers er even op attent maken dat staggered spinup zal werken zodra de schijf niet direct aan gaat als je de stroom er op zet. En dat dit te bewerkstelligen zou moeten zijn met pinnetje 11.
Maar ook met jumper op pin 3-4 van de WD pins (power up on standby, PUIS). Werkte niet.

[ Voor 46% gewijzigd door Durandal op 14-10-2012 00:29 ]


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Wat bedoel je met dat puis niet werkt?

je sluit de hdd aan op de stroom en begint met opspinnen?
je sluit de hdd aan op de stroom en mb sata en de disk begint met opspinnen?
je sluit de hdd aan op de m1015 en stroom en de disk begint met opspinnen?

Of nog een andere variatie?

  • GNML
  • Registratie: Juli 2003
  • Laatst online: 10-12 22:54

GNML

applebuyguide.com

Zware Unit schreef op zaterdag 06 oktober 2012 @ 18:55:
[...]

Op marktplaats. Meteen geboden en opgehaald. Ze zijn lastig te vinden, want meestal gaan de voor > 300 euro weg. Mijn DIY rack zal dan ook worden vervangen. Komende week druk, dus zal wel volgend weekend worden.

[afbeelding]

[afbeelding]
Bij serverhome zijn ze te koop voor 279.. moet zeggen die hebben best veel spul voor relatief weinig geld!

heb precies hetzelfde kastje thuis hangen met 2x 380g5's en een nas (7tb op dit moment).

iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
GNML schreef op maandag 15 oktober 2012 @ 13:36:
[...]


Bij serverhome zijn ze te koop voor 279.. moet zeggen die hebben best veel spul voor relatief weinig geld!

heb precies hetzelfde kastje thuis hangen met 2x 380g5's en een nas (7tb op dit moment).
ServerHome heeft deze al een tijdje niet meer. Helaas blijven ze er wel mee adverteren op Marktplaats. Heb de nu een aantal maal een mail gestuurd mbt het HP rack, maar ze kunnen alleen een veel duurder IBM rack leveren.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
Zware Unit schreef op maandag 15 oktober 2012 @ 20:11:
[...]

ServerHome heeft deze al een tijdje niet meer. Helaas blijven ze er wel mee adverteren op Marktplaats. Heb de nu een aantal maal een mail gestuurd mbt het HP rack, maar ze kunnen alleen een veel duurder IBM rack leveren.
Klopt zelde ervaring hier. Ze adverteren er op diverse locaties mee maar hebben hem niet meer. Eerder met een ander HP rack al hetzelfde ervaren...

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:37
Saajb schreef op zaterdag 13 oktober 2012 @ 22:23:
Ik ben nieuw op dit forum en ben al een tijdje aan het overwegen om een NAS aan te schaffen / zelf te bouwen. Ik had eerst gedacht aan een synology ds212+, maar merkte dat ik voor de prijs van deze NAS misschien beter zelf één kan bouwen met 4 hdd's en dus meer opslagcapaciteit heb + betere redundancy. :)

Nu weet ik niet goed waar te beginnen met keuze voor moederbord en processor. Liefst zo zuinig mogelijk maar hij mag toch wat rekenkracht hebben zodat ik er eventueel een MySQL kan op draaien voor testdoeleinden.

Ik weet wel ongeveer wat ik zou willen:
- waarschijnlijk FreeNAS (compabiliteit van moederbord en SATA controller ?)
- 4 hdd's in ZFS equivalent van RAID5
- misschien ondersteuning voor LACP dmv PCI-E uitbreiding

In mijn netwerk heb ik voor het grootste deel Mac's dus de meeste bestandoverdracht zal verlopen via AFP en UPnP voor de TV's en PS3.

Mijn grootste probleem is dus om een combinatie moederbord/processor te vinden dat compatibel is met FreeNAS, zuinig is tijdens idle en toch geen slak is :D

Heeft er iemand suggesties of kan ik ergens recente configuraties vinden waarvan mensen weten dat ze voldoen aan wat ik zoek?

Alvast bedankt,

Siebe
Is dit misschien iets? pricewatch: HP Proliant Microserver N40L (658553-421)


zie ook het topic voor de mogelijkheden van dit machientje: HP Proliant Microserver N40L

  • GNML
  • Registratie: Juli 2003
  • Laatst online: 10-12 22:54

GNML

applebuyguide.com

thof schreef op maandag 15 oktober 2012 @ 20:15:
[...]


Klopt zelde ervaring hier. Ze adverteren er op diverse locaties mee maar hebben hem niet meer. Eerder met een ander HP rack al hetzelfde ervaren...
hmm gek hoor, heb hem in juli opgehaald daar. Misschien dat ik geluk had..

Maar is een mooi kastje, maar vind hem wat klein worden en denk toch dat ik over ga op een 18 of 22u.

patchkast(dot)com is trouwens ook vrij goedkoop met die kasten.

iPhone 11 | 3x HP Microserver gen8 E3-1265LV2 | www.applebuyguide.com


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Ben ook bezig met een nieuwe build, een Xeon based machine voor (KVM) virtualisatie op Fedora. Het NAS gedeelte zal worden verzorgd door ZFSGuru in een eigen VM. Geïnspireerd door de build van Patatjemet met het rack met 2.5inch disken wil ik iets soortgelijks gaan doen.

Her en der heb ik via v&a al wat leuke hardware op de kop weten te tikken, namelijk een Antec NSK1380 case, en een Intel X25-E SSD om de VM's op te zetten. De volgende hardware zal ik verder gaan gebruiken :

#ProductPrijsSubtotaal
1Intel Xeon E3-1230V2 Boxed€ 210,70€ 210,70
7Seagate Spinpoint M8 ST1000LM024, 1TB€ 76,95€ 538,65
4Kingston KVR1333D3E9S/8G€ 66,66€ 266,64
1Silverstone SST-CP06 4x SATA€ 8,01€ 8,01
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Supermicro X9SCM-F€ 182,50€ 182,50
Bekijk collectie
Importeer producten
Totaal€ 1.325,08


De Xeon heb ik bewust gekozen vanwege de 4 cores en de HT functionaliteit. Zo kan ik 7 vm's hun eigen vpcu geven. Het Supermicro bord vanwege de leuke IPMI en management features, en ECC RAM ondersteuning. De Silverstone CP06 kabeltjes zijn inmiddels ook binnen.

Ik zit alleen nog even naar de indeling van de disken te kijken. Deze zullen aan de M1015 gehangen worden, en deze M1015 wordt middels VT-d echt doorgegeven aan de ZFSGuru VM. Ik ga eigenlijk drie dingen opslaan : films, series en andere downloads en kritieke data zoals homevideo's en foto's. Niet als back-up. En als laatste nog timemachine backups.

Nu zit ik te denken om de 7 of 8 disken onder te verdelen in twee ZFS pools. Eentje van 3 schijven met raidz voor de series en films (minder kritiek) en een zpool van 4 schijven in raidz2 voor de kritieke data. Ik heb dit zo gekozen omdat dan niet voor iedere download die er weggeschreven wordt 7 disken telkens op moeten spinnen.

Verder zit ik nog over de voeding te denken. In de case past standaard een SFX voeding (de standaard voeding is kapot). Omdat ik de case al redelijk volhang met het schijven rack is het de vraag of het wel zo handig is om een SFX voeding te plaatsen. Sowieso zou het een modulaire voeding moeten zijn denk ik, dus dan kom je op de Silverstone SST-ST45SF-G uit a 113 euro (en slecht leverbaar). Een picoPSU 150XT met een 12.5A adapter is ook een optie.

Ik heb de case alvast gestript en ben aan het kijken hoe ik het rack zou kunnen bevestigen. Ik heb nu twee aluminium hoekprofielen gemaakt waar het rek in komt te hangen. De exacte plaatsing is nog even afhankelijk van het moederbord en de positie van de CPU en koeler. Het liefst zou ik nog een fan voor de disken willen om het geheel een beetje van airflow te voorzien.

NSK1380
De Xeon heb ik bewust gekozen vanwege de 4 cores en de HT functionaliteit. Zo kan ik 7 vm's hun eigen vpcu geven.
Dat is natuurlijk een beetje raar.. HT cores zijn nep cores...

Ik zou 1 grote RAIDZ2 pool maken.. Die paar watt extra van die 3 laptopschijfjes.

Spindown op een M1015 is nogal tricky en hangt heel erg af van welke disks je gebruikt. Heb je al gekeken of er andere mensen zijn die het werkend hebben?

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

FireDrunk schreef op dinsdag 16 oktober 2012 @ 21:22:
[...]


Dat is natuurlijk een beetje raar.. HT cores zijn nep cores...
Inderdaad, het zijn nep cores, maar je kunt zo wel elke vm een eigen thread geven.
Ik zou 1 grote RAIDZ2 pool maken.. Die paar watt extra van die 3 laptopschijfjes.

Spindown op een M1015 is nogal tricky en hangt heel erg af van welke disks je gebruikt. Heb je al gekeken of er andere mensen zijn die het werkend hebben?
Nee nog niet gevonden, ik denk ook niet dat er veel setup zullen zijn met 2.5inch disken aan een M1015...
8 disken die aanstaan verbruiken toch snel zo'n 16 tot 18 Watt. Plus belangrijker, stel een SFX voeding zou niet passen en ik ben op een picoPSU aangewezen, het maximale aantal A van die adapters valt nogal tegen.

Zou je een andere HBA adviseren?

[ Voor 17% gewijzigd door B2 op 16-10-2012 21:41 ]

Eigen thread? Die moet nog steeds door dezelfde CPU heen hoor...

Bovendien is ESXi HT aware en scheduled alleen bepaalde instructies naar HT cores.

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

FireDrunk schreef op dinsdag 16 oktober 2012 @ 21:41:
Eigen thread? Die moet nog steeds door dezelfde CPU heen hoor...

Bovendien is ESXi HT aware en scheduled alleen bepaalde instructies naar HT cores.
Ik gebruik geen ESXi...Maar los daarvan, de processor is op zich niet zo interessant. Het gaat meer om het geheel en de configuratie van de disken icm de M1015 of een andere HBA.

[ Voor 21% gewijzigd door B2 op 16-10-2012 21:47 ]

Wat dan? Want ik ken eerlijk gezegd maar 1 Virtualisatie programma wat niet HT aware is, en dat is VirtualBox.
Volgens mij kunnen alle andere "HyperVisors" (ja VirtualBox is geen hypervisor :) ) met HT omgaan.

HT is niets anders dan de pipeline van een CPU 'optimaal' proberen te benutten. Voor multitasking kan dan soms iets sneller zijn, maar doorgaans heeft het niet heel veel zin.
Ik zou iig niet VM's vastpinnen op een bepaalde CPU. Dat houdt alleen maar Cores actief terwijl je die lekker wil laten sleepen.

Als elke VM elke seconde 1 keer wakker moet worden, kan je dat beter op 1 core hebben dan op 4 (of 7) verschillende cores. 1 core wakker maken scheelt een boel stroom ten opzichte van 4 cores wakker maken (C3 -> C1).

Ik zou die VM's lekker 1 vCpu geven en nergens op vastpinnen :)

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Zoals ik in mn eerste post aangaf KVM ;) ik was ook niet van plan om vast te gaan pinnen inderdaad. Verkeerde topic maar volgens mij zou de kernel elk proces (want meer is een vm niet bij kvm) toch netjes over de (HT) cores moeten verdelen?

Maakt ook niet uit, belangrijkerder vraag, zou je geen M1015 gebruiken met spindown? En welke dan wel?
Mja, nu je het zegt, KVM is inderdaad (nog) niet zo heel slim... Maar de 'gewone' process scheduler is volgens mij ook al HT aware, en doet niet zomaar een Context Switch als deze te 'duur' zou zijn.

Er zijn maar weinig controllers die 100% spindown ondersteunen. Het heeft er doorgaans mee te maken of je vanuit de disk spindown wil, of vanuit je OS.

Ik heb zelf ook een M1015 en moet me nog een keer storten op spindown...
Spindown werkt bij mij gewoon, alleen heb ik Addonics hotswap bays, en misschien dat het daardoor werkt.

Overigens verbruikt mijn 10 Disk RAIDZ2 monster maar 44W met de disks in standby :D

[ Voor 18% gewijzigd door FireDrunk op 16-10-2012 23:25 ]

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Mafketel schreef op maandag 15 oktober 2012 @ 08:56:
Wat bedoel je met dat puis niet werkt?

je sluit de hdd aan op de stroom en begint met opspinnen?
je sluit de hdd aan op de stroom en mb sata en de disk begint met opspinnen?
je sluit de hdd aan op de m1015 en stroom en de disk begint met opspinnen?

Of nog een andere variatie?
Goed, het is al een tijdje geleden, maar het moet in ieder geval de derde optie zijn geweest. Direct en tegelijk opspinnen aan de M1015 met jumper op pin 3-4 (PUIS). Ik was namelijk op zoek om staggered spinup te laten werken met de M1015 via de jumper omdat via hdparm niet werkte.

Wat hij deed aan het MB met alleen de jumper (dus niet via de hdparm setting) weet ik niet meer.

  • Toasterlabs
  • Registratie: Februari 2010
  • Laatst online: 18-12 17:21
FireDrunk schreef op dinsdag 16 oktober 2012 @ 22:10:
Wat dan? Want ik ken eerlijk gezegd maar 1 Virtualisatie programma wat niet HT aware is, en dat is VirtualBox.
Ik ken er nog eentje... Hyper-V... Dat gezegt, hij is wel HT aware maar maakt geen onderscheid tussen een virtuele cpu (HT CPU) en een "normale" cpu. Het zou dus zomaar kunnen dat je VM een HT CPU krijgt toegewezen en bagger gaat lopen! Gelukkig hebben ze dit nou eindelijk opgelost in WS 2012.

GUidance vanuit microsoft op HyperV en HT is dan ook altijd geweest "please disable HT"

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Wat overigens niet in de startpost staat is dat je ook de synology disk manager kan installeren. :Y)

Ontwikkelaar van NPM library Gleamy


  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
In het synology topic krijg ik totaal geen antwoord, dus wellicht hier, volgens mij is men wat technischer onderlegt ;)
Anyway, ik heb het probleem van een hoge load en lage cpu op gezette tijden. Gedurende deze momenten is het iowait percentage praktisch 100% en zijn er altijd 1 of meerdere threads die in de 'd state' (uninterruptable sleep) vast zitten. De NAS is gedurende deze momenten vrijwel totaal unresponsive, ook via ssh.
Dit kan zo 5-15 minuten aanhouden en lijkt wel enigszins afhankelijk van mijn memory usage, maar verre van compleet. Als ik bijvoorbeeld alle extra's uitzet (sab/couch/sickbeard) kan het nog steeds gebeuren, ook al is memory usage dan slechts 40 van de 128 MB.

Kthreads die in de d state staan zijn dan ook geregeld zaken als swapd en jbod (ik draai een simpele jbod van 2 schijven). Ik kan alleen niet echt vast stellen of dat nou oorzaak of gevolg is. Het is bovendien niet zo dat het altijd die threads zijn.

M'n vraag is waar het eventueel aan kan liggen en hoe ik dit kan troubleshooten? SMART tools geeft geen fouten op de disks.

Ik denk al tijden aan een zelfbouw NAS vanwege de lage memory en cpu van de synology, waardoor ik in dit topic zit, maar ik begin steeds meer te vermoeden dat het evt. aan m'n disks ligt en dan zou dat niets oplossen natuurlijk.

[ Voor 5% gewijzigd door kingmob op 17-10-2012 16:42 ]


Verwijderd

IOWAIT wil zeggen dat er applicaties draaien die veel random seeks op je disk doen, waardoor de disks een wachtrij hebben van I/O die ze moeten afhandelen. Dit ken je bij oude computers als het 'ratelen' van de hardeschijf die het niet meer bij kan houden; applicaties kunnen enorm traag of 'hangen' tijdens deze momenten.

Niet de schuld van de schijf; maar van je software. Je zou een hardeschijf moeten gebruiken als massaopslag; niet als random I/O medium. Een IOwait van 100% betekent vrijwel altijd dat je hardeschijven bottlenecked zijn met random I/O. Alles in het hele systeem wacht dan totdat de hardeschijf zijn mechanische kunsten heeft verricht. Een modern systeem laat een hardeschijf niet continu seeken; dan gebruik je een hardeschijf namelijk voor het verkeerde doeleinde.

Aangezien ik Synology niet ken, weet ik niet waar de I/O vandaan komt. Maar jij misschien wel?

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Ja, da's een probleem, de kernel heeft geen ondersteuning voor iostat en dergelijke tools, dus dat weet ik niet :\
Ik weet wel dat ik natuurlijk verreweg niet de enige ben die synology gebruikt, maar het lijkt er op dat ik de enige ben met dit probleem, waardoor ik een hardware probleem vermoed. Bovendien lijkt het me niet normaal dat zo'n hang gewoon 15 minuten kan duren, zelfs in extreme I/O omstandigheden?

Voor de duidelijkheid, tussendoor werkt het systeem dus wel en is het duidelijk gewoon flink belast. Soms dan ratelt de schijf dus idd en is er een iowait van misschien maximaal 20% en een vrij hoge load. Dat gaat allemaal prima. Het lijkt zeer weinig te maken te hebben met daadwerkelijke belasting van het systeem, ik krijg gewoon m'n vinger niet er op wat het veroorzaakt :/
SWAP usage? IOWAIT op swap kan namelijk ook.

Even niets...


  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
zou kunnen, m'n vraag is een beetje, hoe kom ik daar achter :P
Heb je top?

Even niets...


  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Ja, gebruik htop, maar daarmee kan je volgens mij niet ontdekken wanneer een proces swapped?

Verwijderd

Benchmarks Storage spaces + refs:
http://social.technet.mic...a-4c5c-a3a8-03261186882d/

http://blog.insanegenius....e-spaces-leaves-me-empty/

Niet hoopgevend. refs presteert niet zo best en storage spaces met parity presteert ook belabberd bij het schrijven van data. Het is misschien alsnog een optie hier omdat 80-90% leeswerk is maar toch.

Kun je in Windows nog iets tunen aan de read ahead configuratie? We willen hier mogelijk met wat mensen gaan streamen, maar om te voorkomen dat de array veel random i/o te verduren krijgt zou het fijn zijn als Windows per stream enkele tientallen MB's vooruit leest. Geheugen is geen probleem :)

[ Voor 52% gewijzigd door Verwijderd op 17-10-2012 21:36 ]


  • Sponge
  • Registratie: Januari 2002
  • Laatst online: 19-12 22:23

Sponge

Serious Game Developer

Vanwege een steeds grotere collectie worden foto's en FullHD videos wil ik ook een extra NAS hebben. Een backup van mijn backup QNAP met een 2TB RAID1 setup. Eerst wilde ik voor een QNAP rackserver gaan, maar nadat ik de specs bekeken had (en na een discussie in een eerder topic een tijdje terug), leek het mij ook wel mogelijk om een degelijk systeem te maken met vergelijkbare hardware. Alleen goedkoper.

Nu wil ik deze NAS waarschijnlijk colocaten, thuis kan ik wel een 30/30 verbinding krijgen, maar daar heb ik niets aan als er hier iets gebeurd. Thuis plaatsen is geen optie :| . Familieleden zitten in "Ziggo space" met redelijke download, maar de upload is een ramp (40/4 of 80/8). Als NAS functie zou het in principe kunnen (alleen data terughalen is een probleem, dat wordt een retourtje naar het noorden ;)).

Nu heb ik de volgende config gebouwd:

#ProductPrijsSubtotaal
1Supermicro X7SPA-HF-D525€ 211,99€ 211,99
1Supermicro CSE-822T-400LPB€ 253,48€ 253,48
1Kingston ValueRAM KVR1333D3N9K2/8G€ 32,45€ 32,45
Totaal€ 497,92


Bij serverdirect.eu is de prijs 30e goedkoper in totaal, maar die staan niet in de pricewatch. Hierbij komen nog een viertal schijven bij. De case heeft ruimte voor 6, later er misschien nog 2 schijven bij. De case is gewoon eenvoudig (2U), en compleet met voeding e.d. Voor die prijs leek me dat best wel aardig. Of hebben jullie nog suggesties? Is het overkill? Het bordje is de wel bekende D525 dual atom. Bij een coloboer gaat stroomverbruik na een tijdje ook behoorlijk meetellen!

Ik zit te denken aan FreeNAS (als ik het goed begrijp van wat fora/ervaringen moet dat lukken met 8GB, maar van de nieuwste release candidate weet ik dat nog niet) op NAS4Free (weinig over gelezen). Ik wil eigenlijk alle data encrypted naar deze machine sturen, klinkt als overkill misschien, maar er staat heel veel op wat niet in verkeerde handen moet vallen >:) :P.

Overigens, zat ik ook al te denken om eens een schifting te maken '2012 en eerder' en dat op een tweetal externe HD's te zetten (en verspreid te plaatsen) zodat die data niet meer op deze 'externe' NAS hoeft. Vraagt wel om behoorlijke discipline om niet meer aan die directories te komen, want anders wordt versie beheer een ramp.

Ik heb best wel een tijdje gedaan om deze config te creeren, wat heel typisch klinkt met zo weinig onderdelen. Hebben jullie nog op of aanmerkingen?

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Edit: Na wat gezoek is het 100% zeker de western digital HDD. De rest van de post laat ik staan voor het nageslacht ;)

Net een paar "hdparm -tT" gedaan, ze fluctueren geweldig, bijvoorbeeld:
code:
1
2
3
4
5
6
7
8
9
10
11
12
/dev/md0:
 Timing cached reads:   568 MB in  2.01 seconds = 283.24 MB/sec
 Timing buffered disk reads:   4 MB in  3.63 seconds =   1.10 MB/sec

/dev/md0:
 Timing cached reads:   568 MB in  2.00 seconds = 284.02 MB/sec
 Timing buffered disk reads:  32 MB in  3.84 seconds =   8.33 MB/sec
Sint> hdparm -tT /dev/md0

/dev/md0:
 Timing cached reads:   188 MB in  2.00 seconds =  93.99 MB/sec
 Timing buffered disk reads: 118 MB in  3.04 seconds =  38.87 MB/sec

Dit is met de meeste processen uitgeschakeld.

en op de disks zelf:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
/dev/sda:
 Timing cached reads:   576 MB in  2.01 seconds = 287.28 MB/sec
 Timing buffered disk reads:  46 MB in  3.83 seconds =  12.01 MB/sec
Sint> hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   370 MB in  2.00 seconds = 184.88 MB/sec
 Timing buffered disk reads:  34 MB in  3.91 seconds =   8.70 MB/sec
Sint> hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   564 MB in  2.01 seconds = 281.26 MB/sec
 Timing buffered disk reads:  34 MB in  3.84 seconds =   8.86 MB/sec

/dev/sdb:
 Timing cached reads:   546 MB in  2.00 seconds = 272.49 MB/sec
 Timing buffered disk reads: 354 MB in  3.01 seconds = 117.55 MB/sec
Sint> hdparm -tT /dev/sdb

/dev/sdb:
 Timing cached reads:   534 MB in  2.00 seconds = 266.91 MB/sec
 Timing buffered disk reads: 350 MB in  3.00 seconds = 116.57 MB/sec
Sint> hdparm -tT /dev/sdb

/dev/sdb:
 Timing cached reads:   562 MB in  2.00 seconds = 280.50 MB/sec
 Timing buffered disk reads: 368 MB in  3.01 seconds = 122.18 MB/sec

Met andere woorden er is iets mis met /dev/sdb! Dat is een western digital schijf met type WD15EADS. Aan de hdparm -I /dev/sda zie ik niks bijzonder,s maar dat is nou niet bepaald mijn specialiteit...
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
hdparm -I /dev/sda

/dev/sda:

ATA device, with non-removable media
        Model Number:       WDC WD15EADS-00P8B0
        Serial Number:      WD-WMAVU0415753
        Firmware Revision:  01.00A01
        Transport:          Serial, SATA 1.0a, SATA II Extensions, SATA Rev 2.5, SATA Rev 2.6
Standards:
        Supported: 8 7 6 5
        Likely used: 8
Configuration:
        Logical         max     current
        cylinders       16383   16383
        heads           16      16
        sectors/track   63      63
        --
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 2930277168
        Logical/Physical Sector size:           512 bytes
        device size with M = 1024*1024:     1430799 MBytes
        device size with M = 1000*1000:     1500301 MBytes (1500 GB)
        cache/buffer size  = unknown
Capabilities:
        LBA, IORDY(can be disabled)
        Queue depth: 32
        Standby timer values: spec'd by Standard, with device specific minimum
        R/W multiple sector transfer: Max = 16  Current = 0
        Recommended acoustic management value: 128, current value: 254
        DMA: mdma0 mdma1 mdma2 udma0 udma1 udma2 udma3 udma4 udma5 *udma6
             Cycle time: min=120ns recommended=120ns
        PIO: pio0 pio1 pio2 pio3 pio4
             Cycle time: no flow control=120ns  IORDY flow control=120ns
Commands/features:
        Enabled Supported:
           *    SMART feature set
                Security Mode feature set
           *    Power Management feature set
           *    Write cache
           *    Look-ahead
           *    Host Protected Area feature set
           *    WRITE_BUFFER command
           *    READ_BUFFER command
           *    NOP cmd
           *    DOWNLOAD_MICROCODE
                Power-Up In Standby feature set
           *    SET_FEATURES required to spinup after power up
                SET_MAX security extension
           *    Automatic Acoustic Management feature set
           *    48-bit Address feature set
           *    Device Configuration Overlay feature set
           *    Mandatory FLUSH_CACHE
           *    FLUSH_CACHE_EXT
           *    SMART error logging
           *    SMART self-test
           *    General Purpose Logging feature set
           *    64-bit World wide name
           *    WRITE_UNCORRECTABLE_EXT command
           *    {READ,WRITE}_DMA_EXT_GPL commands
           *    Segmented DOWNLOAD_MICROCODE
           *    Gen1 signaling speed (1.5Gb/s)
           *    Gen2 signaling speed (3.0Gb/s)
           *    Native Command Queueing (NCQ)
           *    Host-initiated interface power management
           *    Phy event counters
           *    NCQ priority information
                DMA Setup Auto-Activate optimization
           *    Software settings preservation
           *    SMART Command Transport (SCT) feature set
           *    SCT Long Sector Access (AC1)
           *    SCT LBA Segment Access (AC2)
           *    SCT Error Recovery Control (AC3)
           *    SCT Features Control (AC4)
           *    SCT Data Tables (AC5)
                unknown 206[12] (vendor specific)
                unknown 206[13] (vendor specific)
Security:
        Master password revision code = 65534
                supported
        not     enabled
        not     locked
        not     frozen
        not     expired: security count
                supported: enhanced erase
        338min for SECURITY ERASE UNIT. 338min for ENHANCED SECURITY ERASE UNIT.
Logical Unit WWN Device Identifier: 50014ee056f49ba1
        NAA             : 5
        IEEE OUI        : 0014ee
        Unique ID       : 056f49ba1
Checksum: correct

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
B2 schreef op dinsdag 16 oktober 2012 @ 23:14:
Zoals ik in mn eerste post aangaf KVM ;) ik was ook niet van plan om vast te gaan pinnen inderdaad. Verkeerde topic maar volgens mij zou de kernel elk proces (want meer is een vm niet bij kvm) toch netjes over de (HT) cores moeten verdelen?

Maakt ook niet uit, belangrijkerder vraag, zou je geen M1015 gebruiken met spindown? En welke dan wel?
Mocht je een keer een avondje willen spelen met een M1015, ik heb er eentje liggen. Die wacht nog totdat ik mijn exacte build en netwerk voor elkaar heb. Heb er ook 1 SAS naar 4x SATA kabel bij, maar ze zijn allemaal nog niet getest (niet de hardware voor)...

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

thof schreef op vrijdag 19 oktober 2012 @ 19:55:
[...]


Mocht je een keer een avondje willen spelen met een M1015, ik heb er eentje liggen. Die wacht nog totdat ik mijn exacte build en netwerk voor elkaar heb. Heb er ook 1 SAS naar 4x SATA kabel bij, maar ze zijn allemaal nog niet getest (niet de hardware voor)...
Thx, maar hetzelfde probleem hier. De hardware en disken zijn ook nog niet niet besteld of binnen. Ben voornamelijk nog bezig met dingen uitproberen hoe ik de disken het beste in de case kan krijgen. Uitprobeer status toe nu toe :

Afbeeldingslocatie: http://tweakers.net/ext/f/vC2VV6B2OeoYKE2ZESm7Kv19/medium.jpg

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 19:50
B2 schreef op vrijdag 19 oktober 2012 @ 22:21:
[...]


Thx, maar hetzelfde probleem hier. De hardware en disken zijn ook nog niet niet besteld of binnen. Ben voornamelijk nog bezig met dingen uitproberen hoe ik de disken het beste in de case kan krijgen. Uitprobeer status toe nu toe :

[afbeelding]
Ik ben blij dat mijn kast goed terecht is gekomen :) Ik heb er nog één hier dus kan ik mooi inspiratie op doen...

Sinds de 2 dagen regel reageer ik hier niet meer


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Ik kwam er onlangs achter (tijdens het bouwen van mijn nieuwe server - hier mijn cad ontwerp, ik zal later wel ergens een post maken) dat 3.5 inch harddisks in een 2x30x2 aluminium U profiel passen die je bij de bouwmarkt kan kopen. De binnenkant is dan 26mm (en hier passen ook de 26.5 mm hoge WD Reds in die blijkbaar toch iets minder hoog zijn)

Deze kan je dan makkelijk op maat zagen en aan elkaar kitten/popnagelen om zo een rack met Harddisk sleuven te maken. Is ook goed toepasbaar op je verherbouw-kast. Ik heb zo vroeger al eens een rack gemaakt met 10 disks met L profielen.

Voordeel is verder dat aluminium goed de warmte geleid en makkelijk te bewerken is.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Best balen hierzo sinds een aantal weken. Om een lamp te vervangen heeft onze pa de stroom even uitgezet op de verdeler. Resultaat: de Synology backup nas (die we ff vergeten waren) ging dus genadeloos neer, waardoor de NAS zijn backup mount kwijtspeelde.

Net als vorige keer was dus het resultaat: /media/backup wordt vrolijk volgepompt door een cron'ed backup script. Alleen is /media/backup niet meer de NAS maar de lokale SSD. Gevolg: / op 100% en de hele nas beginnen bokken.

Intussen sterft er een van mijn HD204UI samsung disken, maar door de volle / en bijhorende nukken stuurt mdadm nooit een DegradedArray mail door. Ik draai dus al een aantal weken doodleuk een degraded Raid5. Bijkomend is dan nog eens dat ik 4GB aan FLAC gekopieerd heb naar de NAS die er nu na een reboot en een cleanup van / niet meer staat.

En dan nog eentje waarom het vooraf checken van disken zo belangrijk is:
Mijn replacement samsung krijg ik pas als de disk geanalyseerd is bij Seagate/Samsung. 4 tot 8 weken wachten dus. Bibi haalt dan maar een HGST 7k3000 en wat blijkt, na een eerste run van HDtune blijken er al 2 kapotte sectoren te zijn. Deze nacht dan maar een low pass erase gedaan en hij is nu opnieuw de blokken aan het checken.

Moraal: Stop dus NOOIT zomaar een nieuwe disk in je array.
Behalve als je ZFS draait :+


* FireDrunk rent...

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Hahaha inderdaad :D. Ik kan eigenlijk niet wachten op het moment van maturiteit van ZFS-on-Linux.

  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Durandal schreef op zaterdag 20 oktober 2012 @ 00:07:
Ik kwam er onlangs achter (tijdens het bouwen van mijn nieuwe server - hier mijn cad ontwerp, ik zal later wel ergens een post maken) dat 3.5 inch harddisks in een 2x30x2 aluminium U profiel passen die je bij de bouwmarkt kan kopen. De binnenkant is dan 26mm (en hier passen ook de 26.5 mm hoge WD Reds in die blijkbaar toch iets minder hoog zijn)

Deze kan je dan makkelijk op maat zagen en aan elkaar kitten/popnagelen om zo een rack met Harddisk sleuven te maken. Is ook goed toepasbaar op je verherbouw-kast. Ik heb zo vroeger al eens een rack gemaakt met 10 disks met L profielen.

Voordeel is verder dat aluminium goed de warmte geleid en makkelijk te bewerken is.
Ben erg benieuwd naar je case. Ga je hem zelf bouwen? Als ik het ontwerp bekijk maak je nu nog geen gebruik van het U-profiel om een 3.5 inch disk in te drukken?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
@ B2: Hoe belangrijk is toegankelijkheid voor jou in die case? Lijkt erop dat je nu bij een defecte disk de hele rataplan moet opengooien.

  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Jormungandr schreef op zaterdag 20 oktober 2012 @ 14:03:
@ B2: Hoe belangrijk is toegankelijkheid voor jou in die case? Lijkt erop dat je nu bij een defecte disk de hele rataplan moet opengooien.
Mhah, dat valt wel mee. Het enige wat ik dan moet doen is de bovenkant van de case loshalen en twee schroefjes losmaken. Tenminste als het ontwerp zo blijft.
Het kan maar zo zijn dat het ontwerp weer wijzigt of ik toch naar iets anders ga kijken. Ik zit namelijk nu nog met de voeding. Een picopsu zou ik qua ruimte het liefst gebruiken, maar ik kan maar max een 12.5A adapter vinden. En dat is qua piekstroom te weinig schat ik. Een sfx voeding plaatsen zo betekenen dat ik de outtake fan moet opofferen.

Met een schuin oog ben ik ook al wel een beetje naar DIY houten case aan het kijken.

[ Voor 34% gewijzigd door B2 op 20-10-2012 14:21 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Als je ergens een sas backplane kan scoren kan je misschien wel fijne dingen doen met verticale shelves. Ben benieuwd naar je buildlog :).

  • Mattijs.id
  • Registratie: December 2011
  • Laatst online: 10-12 12:37
Tweakers; Weten jullie wat de performance is die ik kan verwachten met materiaal als: dit ?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Maximaal de snelheid van één SATA poort. Ik neem aan dat de chip intelligent genoeg is om de bandbreedte van die ene SATA poort te laten delen door de vijf poorten, in plaats van deze simpelweg statisch te alloceren naar de verschillende poorten (resulterende in max 1/5e van SATA poort snelheid per poort). Of de multplier de theoretische snelheid kan leveren is mij verder niet bekend. Ik heb geen praktijk ervaring met dit soort multipliers.

Dat gezegd hebbende, heb je de multiplier echt nodig? Heb je een >=4x pci-e slot over? In dat geval zou ik persoonlijk altijd voor de losse controller gaan. Weliswaar neemt je verbruik toe, is het wat duurder, maar de snelheid zal ook hoger liggen. Daarnaast schiet je er, bijvoorbeeld in het geval van de m1015, vier extra SATA poorten mee op.

[ Voor 7% gewijzigd door Dadona op 20-10-2012 21:05 ]

De CSL/OT kroeg !


  • Mattijs.id
  • Registratie: December 2011
  • Laatst online: 10-12 12:37
Dadona schreef op zaterdag 20 oktober 2012 @ 21:04:
Maximaal de snelheid van één SATA poort. Ik neem aan dat de chip intelligent genoeg is om de bandbreedte van die ene SATA poort te laten delen door de vijf poorten, in plaats van deze simpelweg statisch te alloceren naar de verschillende poorten (resulterende in max 1/5e van SATA poort snelheid per poort). Of de multplier de theoretische snelheid kan leveren is mij verder niet bekend. Ik heb geen praktijk ervaring met dit soort multipliers.

Dat gezegd hebbende, heb je de multiplier echt nodig? Heb je een >=4x pci-e slot over? In dat geval zou ik persoonlijk altijd voor de losse controller gaan. Weliswaar neemt je verbruik toe, is het wat duurder, maar de snelheid zal ook hoger liggen. Daarnaast schiet je er, bijvoorbeeld in het geval van de m1015, vier extra SATA poorten mee op.
dit moederbord heeft die mogelijkheid niet. Grootste wat ik heb gezien is 2 extra poorten, maar ik heb maar 1 pci-e 2.x1.x lane.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
En wat is er mis met het x16? En bedenk dat een kaart als de m1015 SAS aansluitingen heeft. Gebruik een SAS-SATA kabel en je krijgt per poort vier SATA poorten.

[ Voor 69% gewijzigd door Dadona op 20-10-2012 21:18 ]

De CSL/OT kroeg !


  • Mattijs.id
  • Registratie: December 2011
  • Laatst online: 10-12 12:37
Dadona schreef op zaterdag 20 oktober 2012 @ 21:17:
En wat is er mis met het x16? En bedenk dat een kaart als de m1015 SAS aansluitingen heeft. Gebruik een SAS-SATA kabel en je krijgt per poort vier SATA poorten.
Ben even benieuwd; kan ik deze ook in de x16 gooien?

Ik probeer het qua prijs wat naar beneden te brengen

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het verstandigste is om even te zoeken naar andere mensen die hetzelfde moederbord hebben en niet-grafische kaarten in dat x16 slot hebben geplaatst. Vaak/meestal kan dat gewoon, maar er zijn ook helaas recent nog borden verschenen die daar wel een probleem mee hebben. (Meest recente voorbeeld dat ik ken zijn twee Brazos Asus moederborden, één daarvan kreeg een Bios update.)

En voor je geld gaat steken in controllers zou ik je eerst even inlezen wat de verschillen tussen al die kaartjes precies zijn. Hoewel je met de genoemde drie smaakjes aan het einde van de rit extra SATA poorten krijgt zit er wel een verschil tussen. (Delen bandbreedte, geen gedeelde bandbreedte en mogelijkheid tot het volledig uitschakelen van intelligentie van de kaart en tot slot een kaart waarbij je om datzelfde - ongeveer - te bereiken de schijven in Legacy mode moet draaien.) Of dat voor jou uitmaakt, dat kan ik zo niet zeggen. Ik heb alleen in een (ver) verleden wel mijn lesje geleerd wat dit soort controllers betreft. ;)

De CSL/OT kroeg !


  • analog_
  • Registratie: Januari 2004
  • Niet online
Theorie stelt dat alles in alles past en werkt, praktijk zegt dat grotere kaarten fysiek niet in kleinere slots passen, echter kan je dat zelf natuurlijk 'bijwerken'.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Allereerst zijn er wel degelijk moederborden met een 'open' achterkant. Dus dan past een fysiek grotere kaart ook in de praktijk gewoon in een kleiner slot. En anders kun je inderdaad de dremel erbij pakken (of met een - flexibele - pci-e riser gaan werken).
Maar ik had het over dat het moederbord mogelijk simpelweg de kaart niet pakt (niet registreert / niet werkt / half werkt / werkt mits - insert random rare theoretisch onzinnige conditie -, ook al past deze zonder hamer of wat. Ongeacht de fysieke grootte van het slot en het aantal lanes (per slot van rekening is een x16 slot niet noodzakelijkerwijs een x16 elektrisch).

De CSL/OT kroeg !


  • Mattijs.id
  • Registratie: December 2011
  • Laatst online: 10-12 12:37
Situatieschets:
4x2tb in raid 5, 1tb boot schijf, 1tb los.
nog ruimte voor 4 schijven in mijn behuizing
voornamelijk opslag bak,en zolang ik met gigabit lan (110mb/s) kan blijven schrijven naar de raid5 (toekomst raid6) array en ik verder vrolijk kan streamen, is dat voor nu de performance-marker.

A.d.h.v. bovenstaande verhaal; welke smaak zou dan het verstandigst zijn?

  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

Even een benchmark tussendoor van de server die ik vandaag aan het inrichten ben.
Raid6 van 6 * WD Red 3TB schijven hangend aan een Perc H710P controller, met xfs filesystem :

code:
1
2
3
4
5
6
7
8
9
10
11
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
t620.a2000.nu   63G  1202  98 540955  36 228018  23  2800  87 588798  29 392.2  26
Latency             11232us   30778us     138ms   60239us   73707us   96330us
Version  1.96       ------Sequential Create------ --------Random Create--------
t620.a2000.nu       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  6034  13 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency              1864ms      92us     134us      81us      20us      75us
1.96,1.96,t620.a2000.nu,1,1350758378,63G,,1202,98,540955,36,228018,23,2800,87,588798,29,392.2,26,16,,,,,6034,13,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,11232us,30778us,138ms,60239us,73707us,96330us,1864ms,92us,134us,81us,20us,75us

(er hangt ook 1 ssd drive aan voor cachecade read cache, maar dat is lastig te benchmarken, hopenlijk wel merkbaar)

https://www.strava.com/athletes/2323035


  • LoCuTuS2000
  • Registratie: Oktober 2000
  • Laatst online: 10:22

LoCuTuS2000

Resistance is futile

Normaal gesproken zou ik dit topic doorzoeken maar die functie lijkt nu niet te werken. Vandaag heb ik het volgende besteld om als NAS te laten draaien.:

#ProductPrijsSubtotaal
1Sapphire PURE Fusion Mini E350€ 81,-€ 81,-
1BitFenix Prodigy€ 70,80€ 70,80
1Corsair CMSO8GX3M2A1333C9€ 29,95€ 29,95
1Cooler Master Elite Power 400W€ 32,-€ 32,-
Bekijk collectie
Importeer producten
Totaal€ 213,75


Mijn huidige idee is om VMWare ESXi vanaf een USB stick te laten draaien, alle SATA poorten te pushen naar een VM die een NAS functie heeft en vervolgens een NFS volume aan ESXi te leveren om een Ubuntu VM op te draaien die SABNZBd, Couchpotato, Sickbeard & Subsonic als taken heeft.

Nu weet ik nog niet of ik OpenFiler, FreeNAS of NAS4Free wil draaien maar ik heb wel een wens; ik heb nu 3x2TB en ik wil daar nog een 4e en 5e bijplaatsen in de toekomst en aan de bestaande array toevoegen (RAID Expand). Voor zover ik het nu heb kunnen lezen wordt dit bij alle 3 niet ondersteund. Kan iemand dit bevestigen?

Of misschien moet ik gewoon Ubuntu als host os installeren en dan software RAID instellen. Wat zeggen jullie?

  • K4F
  • Registratie: Juli 2008
  • Laatst online: 21:28

K4F

Je kan wel degelijk je array vergroten. Standaard maakt Openfiler bijvoorbeeld een LVM VG aan bovenop je raid array, je LV's kan je vergroten waarna je (EXT) kan resizen, well offline als het even kan. De kans is echter groot dat je dit vanaf de command line moet doen. Openfiler's laatste stable is echter inmiddels 17 maanden oud, het heeft veel outdated tools en lijkt niet op korte termijn geupdate te worden

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
B2 schreef op zaterdag 20 oktober 2012 @ 11:28:
[...]


Ben erg benieuwd naar je case. Ga je hem zelf bouwen? Als ik het ontwerp bekijk maak je nu nog geen gebruik van het U-profiel om een 3.5 inch disk in te drukken?
Sterker nog, dat heb ik al gedaan. Hij staat hier naast me, bijna muisstil en mooi wit gespoten.
Als ik het morgen op mijn heupen krijg maak ik wel wat fotootjes. Helaas alleen mijn mobieltje om foto's mee te maken maar met wat licht moet het lukken. Ik ga hem alleen niet uit elkaar halen.

Dat 2x30x2mm U profiel heb ik niet gebruikt nee, omdat toen ik het CAD ontwerp maakte de disks nog niet had en dacht dat ze niet zouden passen.
Ik moest wat anders verzinnen om de disks er makkelijk in te doen dus dan maar die dubbele maxtrix (onder en boven) van 10mm U profieltjes.

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
hallo allemaal,

Op dit moment heb ik een Qnap ts-410, nu loop ik toch tegen veel beperkingen op aangezien het een ARM processor is. Nu wil een een homeserver die toch wel wat meer kan.

Nu dacht ik aan een ESXI server met daarop

-Freenas (zfs raidz1 of raidz2 voor opslag en back-ups)
-Windows server 2k8 r2
  • MySQL database voor XBMC bibliotheken
  • sickbeard, couchpotato, sabnzb en headphones.
-Linux (ip camera's)
-En nog wat test vm's

Ik heb vooral gekozen voor deze hardware omdat:
- Krachtige CPU voor uitpakken
- Mobo met genoeg uitbreidingsplekken
- Voordelige 5400 toeren 3TB schijven
- Behuizing voor in me rack
- Veel ram geheugen voor zfs
- HBA voor extra storage
- standaard voeding
Ook komt er een 100GB ssd bij die ik nog heb liggen van me pc.
#ProductPrijsSubtotaal
1Intel Core i5 3330 Boxed€ 159,45€ 159,45
1MSI Z77A-G45€ 99,99€ 99,99
8Hitachi Deskstar 5K3000, 3TB€ 167,79€ 1.342,32
1Norcotek RPC-4224€ 487,03€ 487,03
1Scythe Mugen 2 Rev. B€ 38,09€ 38,09
2Corsair Vengeance CML16GX3M2A1600C10€ 65,75€ 131,50
1LSI SAS 9201-16i€ 383,11€ 383,11
1OCZ ModXStream Pro 500W€ 56,94€ 56,94
Bekijk collectie
Importeer producten
Totaal€ 2.698,43

Nu aan jullie de volgende vragen:
- Zijn er intussen "beter keuzes" voor de hardware, vooral voor de hdd's en HBA
- Eventueel tips over het makkelijk toevoegen van nzb's aan sabnzb

  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

Waar ga je die 5k3000 disken vandaan halen, de pricewatch linkt geeft volgens mij alleen nog shops die hem niet uit assortiment hebben gehaald.
Misschien optie om de wd red disken te nemen ?

https://www.strava.com/athletes/2323035


  • LoCuTuS2000
  • Registratie: Oktober 2000
  • Laatst online: 10:22

LoCuTuS2000

Resistance is futile

K4F schreef op zondag 21 oktober 2012 @ 00:07:
Je kan wel degelijk je array vergroten. Standaard maakt Openfiler bijvoorbeeld een LVM VG aan bovenop je raid array, je LV's kan je vergroten waarna je (EXT) kan resizen, well offline als het even kan. De kans is echter groot dat je dit vanaf de command line moet doen. Openfiler's laatste stable is echter inmiddels 17 maanden oud, het heeft veel outdated tools en lijkt niet op korte termijn geupdate te worden
Dat is dus waar ik bang voor ben; Nas4free/FreeNAS zijn recenter maar lijken geen RAID expand optie te bieden :(

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 21:46
LoCuTuS2000 schreef op zondag 21 oktober 2012 @ 08:21:
[...]

Dat is dus waar ik bang voor ben; Nas4free/FreeNAS zijn recenter maar lijken geen RAID expand optie te bieden :(
Dit werkt met ZFS al niet ;). Met ZFS kun je niet gemakkelijk je raid uitbreiden. Veelal betekend dit in 1x 3 of meer harde schijven toevoegen (een nieuwe RaidZ1 / Z2 array). Details vind je in het ZFS topic.

Openfiller is gebasseerd op Linux en kan geen ZFS als bestandssysteem bevatten (naja, ZFS-on-Linux is nog niet stabiel / af).

[ Voor 12% gewijzigd door EnerQi op 21-10-2012 11:42 ]


  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

Afbeeldingslocatie: http://tweakers.net/ext/f/FqGZbOyFhohZWjO6jOcxelut/medium.jpg

Zonder het frontje :
Afbeeldingslocatie: http://tweakers.net/ext/f/wjIYNyxUKOg1ZNBPTrUgaXxX/medium.jpg

Server staat nu nog naast z'n oudere broertje op de grond, maar hij zal vanavond omgewisseld worden :
Afbeeldingslocatie: http://tweakers.net/ext/f/Mvsgjh0jQ9cOSzV83yPAyHS4/medium.jpg

En uiteraard nog even foto's van de binnenkant :
Afbeeldingslocatie: http://tweakers.net/ext/f/Ri45p6DqHqLUfW4LBRzUOJ7U/medium.jpg

En genoeg uitbreidingsmogelijkheden :
Afbeeldingslocatie: http://tweakers.net/ext/f/aA3MJAmDncpjsSHkDyvofjS4/medium.jpg

System specifications
ComponentValue
CaseDell PowerEdge T620
CPUIntel E5-2620
RAM32GB (2x 16GB 1333Mhz DDR3)
MotherboardIets met Intel C600 chipset van Dell
Operating systemCentOS 6
ControllerDell Perc H710P (1GB cache)
Hard drive4 x Intel 520 SSD 180GB (ingesteld op 140GB)
RAID array configuration 3 disken in RAID 5
Hard drive6 x WD Red 3TB
RAID array configuration 6 disken in RAID 6 + 1 SSD als read cache
Netto storage capacity12.3TB
NetworkStandaard gigabit
UPSAPC Back-UPS RS 1500
Filesystemxfs
Idle power usage56W als wd's in spindown zijn, anders 84W


code:
1
2
3
4
5
6
7
8
9
10
11
[root@t620 ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_t620--1-lv_root
                      9.9G  1.9G  7.6G  20% /
tmpfs                  16G     0   16G   0% /dev/shm
/dev/sda2             485M   63M  397M  14% /boot
/dev/sda1             200M  268K  200M   1% /boot/efi
/dev/mapper/vg_t620--2-lv_raid
                       11T  2.5T  8.5T  23% /raid
/dev/mapper/vg_t620--1-lv_ssdraid
                      270G   99G  171G  37% /ssdraid


Bonnie++ benchmark van de Raid5 met 3 SSD's :
code:
1
2
3
4
5
6
7
8
9
10
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
t620.a2000.nu   63G  1213  99 564403  39 281986  29  3151  99 883785  39  1877 119
Latency              9884us     127ms     118ms    4968us   23803us    4729us
Version  1.96       ------Sequential Create------ --------Random Create--------
t620.a2000.nu       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency              1290us     191us     130us     105us      23us      72us

Bonnie++ benchmark van de Raid6 met 6 WD's:
code:
1
2
3
4
5
6
7
8
9
10
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
t620.a2000.nu   63G  1202  98 540955  36 228018  23  2800  87 588798  29 392.2  26
Latency             11232us   30778us     138ms   60239us   73707us   96330us
Version  1.96       ------Sequential Create------ --------Random Create--------
t620.a2000.nu       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  6034  13 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency              1864ms      92us     134us      81us      20us      75us


Waarom een Dell oplossing :
-stil
De oude Dell poweredge T300 hoorde je niet meer als deur dicht was, de T620 zou zelfs naast m'n bed kunnen staan, zitten 2 fans in die 500-1000 RPM draaien
Voor m'n T300 heb ik aantal zelfbouw servers gehad maar dat waren ongeveer vliegtuigen die je in kamer ernaast nog duidelijk hoorde.
-idrac7
eigen netwerk poort met remote console/virtual media
-management software
dell openmanage waarmee je alles kan uitlezen, inclusief raid status ed
-perc h710p raid controller
goede hw raid controller
-5 jaar garantie
De t300 heb ik nu ook ruim 5 jaar gehad, was ik met deze server ook weer van plan

En omdat budget niet oneindig is, via ebay drive caddy's besteld en disken niet via dell.

Systeem draait Centos 6, op de ssd raid draaien een aantal vm's (via qemu/kvm) zoals bijvoorbeeld mailserver.
Ik heb nog even ruzie met spindown van de hd's ivm xfs filesystem wat ongeveer continu aangesproken wordt.
(oorzaak http://old.nabble.com/xfs...n-down-td30523706i20.html)

https://www.strava.com/athletes/2323035


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Goed, na B2's verzoek, dan nu wat tijd om mijn kastje te delen.

Voor mijn nieuwe server heb ik besloten de kast zelf te bouwen. Dit komt ongeveer op 100 euro maar dan heb ik wel wat ik wil qua afmetingen (past 'ie in de meterkast) en aantal disks. Platen kan je halen bij de metaalwinkel en de profieltjes bij de grotere DHZ zaak. Verder ben je met een dremel, schroeventol, bankschroef en wat handgereedschap klaar.

De server moet dienen als file-, download en TV server (backend voor meerdere XBMC clients).

De hele boel gaat Zfs-on-Linux draaien onder Ubuntu 12.04LTS. Ik ben niet zo bang dat dit niet 'stable' zou zijn. Ik heb de ontwikkeling een beetje gevolgd en ik zie niets wat me ongerust maakt. Mijns inziens een betere (en noodzakelijke) keuze dan standaard raid omdat je geen last van bit rot hebt. Mijn echt kritieke data wordt uiteraard gebackupped.

Ik maak gebruik van 12 disks. 10 voor de ZFS pool en 2 boot disks zodat de pool in spindown kan gaan.
De 2 boot disks hebben een boot partitie in mirror (MDADM) omdat ik er nog niet aan wil om te booten van ZFS. Verder hebben ze een mirror voor een interne backup (externe is uiteraard ook voorhanden), en heeft de ene disk een Scratch partitie voor news/torrents en de andere er een voor TV.

Belangrijkste onderdelenOp dit moment ben ik nog met ZFS aan het spelen en mijn disks aan het testen. De hardware is inmiddels af. Verder ben ik de software configuratie op 'papier' aan het zetten.

Deze keer vooraf een CAD design gemaakt (mm-precies). Dit kan ik iedereen aanbevelen; bij mijn vorige kast (die simpeler was) was ik veel tijd kwijt aan zaken die anders bleken te zijn dan ik dacht. Die problemen had ik nu niet.

(Click voor grotere foto's. Kwaliteit is helaas niet top, ik heb het met mijn mobieltje moeten doen)
Afbeeldingslocatie: http://2imgs.com/2i/t/afdcc1eb38.jpg
De voorkant van de kast bestaat uit twee delen. De onderkant zit vast voor stabiliteit maar de bovenkant kan er als een lade uitgeschoven worden. Hieraan zit dan het bovenste harddisk-rek vast zodat je vrij bij de onderste kan komen als het moet. Uiteraard moeten hiervoor eerst de disks er uit.

Afbeeldingslocatie: http://2imgs.com/2i/t/9ceff2d80b.jpg
Afbeeldingslocatie: http://2imgs.com/2i/t/62011c36e5.jpg
Afbeeldingslocatie: http://2imgs.com/2i/t/26455872a1.jpg
Ook de achterkant bestaat uit twee stukken, maar hier kan de onderkant ook los. Daarachter zit dan het moederbord en de uitbreidingskaarten en een gebogen plaatje aluminium die de airflow naar het koelblok van de processor ombuigt. Het MB is dan ook passief gekoeld. De hele kast wordt gekoeld met twee 12cm fans op 600RPM.
De bovenkant kan er wederom als een lade uitgeschoven worden. Hierop zit dan de SFX voeding ontdaan van casing zodat de airflow ook hem passief kan koelen. Na het verwijderen van de voedingslade kan je beter bij het moederbord.

Afbeeldingslocatie: http://2imgs.com/2i/t/40233e14c7.jpg
Afbeeldingslocatie: http://2imgs.com/2i/t/51322f05d6.jpg
Aan de bovenkant zie je links het gedeelte voor moederbord met daarbovenop de PSU. Rechts de disk array. De disks steunen aan alle kanten op (schuim)rubbertjes om trillingen te dempen.
In het midden zitten de twee 12cm fans die lucht aanzuigen door de disks en uitblazen over de voeding en het moederbord. De ZFS disks (WD Reds) blijven consistent 30graden. De oudere Hitachi boot disk (die ik ga vervangen) 35.
De voeding levert 32A over de 12V op een rail, met twee uitgangen. Hij is modulair en na wat aanpassen van de twee kabels heb ik 6 disks per uitgang. De voedingsstekkers zijn te vinden op ebay.
Via de andere kant van de kast komen de SATA kabels. Een van 50 en een van 60cm. Alles loopt bovenlangs, net onder de deksel zodat ik er makkelijk bij kan.
De deksel zelf rust los op de bovenkant. Het hele project zit met 200 popnagels aan elkaar ;)

Verbruik: 58W met de disks in spindown (10xWD Red, 1x oude Hitachi), 87W met met de disk in standby (draaiend).

  • B2
  • Registratie: April 2000
  • Laatst online: 20:28

B2

wa' seggie?

Durandal schreef op zondag 21 oktober 2012 @ 15:22:
Goed, na B2's verzoek, dan nu wat tijd om mijn kastje te delen.

Voor mijn nieuwe server heb ik besloten de kast zelf te bouwen. Dit komt ongeveer op 100 euro maar dan heb ik wel wat ik wil qua afmetingen (past 'ie in de meterkast) en aantal disks. Platen kan je halen bij de metaalwinkel en de profieltjes bij de grotere DHZ zaak. Verder ben je met een dremel, schroeventol, bankschroef en wat handgereedschap klaar.

De server moet dienen als file-, download en TV server (backend voor meerdere XBMC clients).

De hele boel gaat Zfs-on-Linux draaien onder Ubuntu 12.04LTS. Ik ben niet zo bang dat dit niet 'stable' zou zijn. Ik heb de ontwikkeling een beetje gevolgd en ik zie niets wat me ongerust maakt. Mijns inziens een betere (en noodzakelijke) keuze dan standaard raid omdat je geen last van bit rot hebt. Mijn echt kritieke data wordt uiteraard gebackupped.

Ik maak gebruik van 12 disks. 10 voor de ZFS pool en 2 boot disks zodat de pool in spindown kan gaan.
De 2 boot disks hebben een boot partitie in mirror (MDADM) omdat ik er nog niet aan wil om te booten van ZFS. Verder hebben ze een mirror voor een interne backup (externe is uiteraard ook voorhanden), en heeft de ene disk een Scratch partitie voor news/torrents en de andere er een voor TV.

Belangrijkste onderdelenOp dit moment ben ik nog met ZFS aan het spelen en mijn disks aan het testen. De hardware is inmiddels af. Verder ben ik de software configuratie op 'papier' aan het zetten.

Deze keer vooraf een CAD design gemaakt (mm-precies). Dit kan ik iedereen aanbevelen; bij mijn vorige kast (die simpeler was) was ik veel tijd kwijt aan zaken die anders bleken te zijn dan ik dacht. Die problemen had ik nu niet.

(Click voor grotere foto's. Kwaliteit is helaas niet top, ik heb het met mijn mobieltje moeten doen)
[afbeelding]
De voorkant van de kast bestaat uit twee delen. De onderkant zit vast voor stabiliteit maar de bovenkant kan er als een lade uitgeschoven worden. Hieraan zit dan het bovenste harddisk-rek vast zodat je vrij bij de onderste kan komen als het moet. Uiteraard moeten hiervoor eerst de disks er uit.

[afbeelding]
[afbeelding]
[afbeelding]
Ook de achterkant bestaat uit twee stukken, maar hier kan de onderkant ook los. Daarachter zit dan het moederbord en de uitbreidingskaarten en een gebogen plaatje aluminium die de airflow naar het koelblok van de processor ombuigt. Het MB is dan ook passief gekoeld. De hele kast wordt gekoeld met twee 12cm fans op 600RPM.
De bovenkant kan er wederom als een lade uitgeschoven worden. Hierop zit dan de SFX voeding ontdaan van casing zodat de airflow ook hem passief kan koelen. Na het verwijderen van de voedingslade kan je beter bij het moederbord.

[afbeelding]
[afbeelding]
Aan de bovenkant zie je links het gedeelte voor moederbord met daarbovenop de PSU. Rechts de disk array. De disks steunen aan alle kanten op (schuim)rubbertjes om trillingen te dempen.
In het midden zitten de twee 12cm fans die lucht aanzuigen door de disks en uitblazen over de voeding en het moederbord. De ZFS disks (WD Reds) blijven consistent 30graden. De oudere Hitachi boot disk (die ik ga vervangen) 35.
De voeding levert 32A over de 12V op een rail, met twee uitgangen. Hij is modulair en na wat aanpassen van de twee kabels heb ik 6 disks per uitgang. De voedingsstekkers zijn te vinden op ebay.
Via de andere kant van de kast komen de SATA kabels. Een van 50 en een van 60cm. Alles loopt bovenlangs, net onder de deksel zodat ik er makkelijk bij kan.
De deksel zelf rust los op de bovenkant. Het hele project zit met 200 popnagels aan elkaar ;)

Verbruik: 58W met de disks in spindown (10xWD Red, 1x oude Hitachi), 87W met met de disk in standby (draaiend).
Echt erg gaaf gedaan! Case ziet er superstrak uit! Eigenlijk ben ik er wel uit dat ik ook maar voor een DIY case wil gaan. De NSK1380 gaat het niet worden, door gebrek aan ruimte voor de voeding. Ik zal mijn case van hout gaan maken, heb namelijk geen ervaring met metaalbewerking :) Ach, dan kunnen we het onder de noemer duurzaam gaan doen :)

Heb je er nog iets van een buildlog van gemaakt?

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Dank je :)
Wat versta je onder een build log? Ik wilde foto's maken van de bouw, maar dat is er niet van gekomen. Ik ben met de onderplaat begonnen en heb dan omhoog gebouwd. Als laatste de PSU lade, back panel en bekabeling. Ik kan me alles nog wel herinneren dus als je vragen hebt ..

Ik zou persoonlijk toch eens Aluminium proberen. Haal eens een profieltje van twee euro bij de bouwmarkt en boor en zaag er eens in. Je zal zien dat het best makkelijk gaat. Je hebt echt aan een schroeventol, dremel en bankschroef en lineaaltje/geo genoeg. Daar bovenop is aluminium geen isolator (voert de warmte goed af), zijn de profielen die je koopt ook exact op maat, is het sterk en licht en boven alles brandt het niet zo makkelijk :D

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Ziet er zeker vet uit! :) Kan je je CAD designs delen?

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!

Pagina: 1 ... 110 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.