Even niets...
LOL... passieve koeling
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Even niets...
Wat mij wel is opgevallen is dat windows klaagt dat de bestandsnamen te lang zijn tijdens het kopieren.
Bestandssysteem is XFS en transfer over SAMBA.
Wij eisen foto's!FireDrunk schreef op dinsdag 20 september 2011 @ 22:03:
Das toch precies wat ik zeg?
> 255 karakters?BlackShadow schreef op woensdag 21 september 2011 @ 09:27:
Ondertussen alle netjes stabiel en al mijn data over gezet.
Wat mij wel is opgevallen is dat windows klaagt dat de bestandsnamen te lang zijn tijdens het kopieren.
Bestandssysteem is XFS en transfer over SAMBA.
Even niets...
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Potdomme thijs, je moet beter kijken...
[ Voor 33% gewijzigd door FireDrunk op 21-09-2011 21:55 ]
Even niets...
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Even niets...
Tzt de rebuild van de data server ook op de gevoelige plaat vast leggen.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Mooie setup, lekker strak en opgeruimd. Als ik zo brutaal mag zijn. Wat voor rackkast gebruik je?
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
| # | Product | Prijs | Subtotaal |
| 5 | Samsung EcoGreen F4EG HD204UI, 2TB | € 58,99 | € 294,95 |
| 1 | Lian Li PC-V354B | € 130,41 | € 130,41 |
| 2 | Supermicro CBL-0097L-02 | € 15,90 | € 31,80 |
| 1 | Intel RAID Controller SASUC8I | € 133,90 | € 133,90 |
| 1 | Intel Core i5 2400 | € 149,95 | € 149,95 |
| 2 | Kingston ValueRAM KVR1333D3N9K2/8G | € 39,- | € 78,- |
| 1 | Intel Desktop Board DQ67OWB3 | € 97,50 | € 97,50 |
| Totaal | € 916,51 | ||
Als ik alles goed begrepen heb kan met deze hardware een ZFS/ESXi all-in-one server gemaakt worden. De NAS word gebruikt om fotos/films/muziek op te slaan, enkele VMs en backups voor twee laptops (een keer apple mbv time machine en keer windows). Op dit moment ga ik bij mij keuze uit van raidz1. Dit leek me voldoende, omdat ik de belangrijke data ook elders (off-site) opsla lijkt één "parity" schijf mij voldoende.
Echter mis ik volgens mij nog twee dingen:
- Een voeding (zou geen idee hebben hoe ik weet of ik een voldoende sterke voeding heb)
- Een schijf om ESX van te booten. Nu wilde ik daar een goedkopere schijf voor gebruiken van een paar honderd GiB.
WD BEVT (grootte maakt niet zoveel uit) is een zuinige schijf.
Iets sneller BEKT (Black Edition)
Beide 2.5" schijfjes die prima werken in een desktop.
Je zou een SSD kunnen overwegen, maar dat is aan jezelf.
Verder kun je voor je voeding veel of weinig geld uitgeven.
Een Be Qieut L7 300W is een prima voeding.
Maar je kan ook iets meer uitgeven voor een Passieve Seasonic. Duurder maar stiller en iets zuiniger.
RAIDZ1 is prima voor jou gebruik, en 5 schijven is ook een prima aantal om optimaal gebruik te maken van ZFS.
[ Voor 4% gewijzigd door FireDrunk op 22-09-2011 08:07 ]
Even niets...
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon E3-1220L Boxed | € 176,- | € 176,- |
| 4 | Kingston ValueRAM KVR1333D3E9S/4GEC | € 33,49 | € 133,96 |
| 1 | Intel RAID Controller SASUC8I | € 136,92 | € 136,92 |
| 1 | Supermicro X9SCM-F | € 177,16 | € 177,16 |
| Bekijk collectie Importeer producten | Totaal | € 624,04 | |
Voorlopig wil ik een RAID-Z2 onder FreeNAS of ZFSguru opzetten met 10x Samsung F4 2TB in mijn bestaande behuizing: Zalman HS1000-HS2 met ruimte voor 10 HDD's door 1 extra HDD bay.
Dit moederbord geeft me volgens mij de mogelijkheid om in de toekomst (en extra budget) een 2e Intel SAS HBA bij te plaatsen voor de dan wellicht noodzaklijke extra behoefte aan opslagruimte. Dan zal natuurlijk ook een grotere behuizing zijn; waarbij de keuze zal gaan tussen een Norco 20 bay of een Lian Li PC-343B, waar volgens mij de HDD bays van de Zalman ook wel in gaan passen (of om het helemaal fraai te doen natuurlijk 6 x een Lian Li EX-H34B).
Het enige wat ik me afvraag is of de door mij gekozen Xeon E3-1220L dat met 2x een RAID-Z2 van 10x2TB Samsungs gaat "redden" of dat ik met het oog op deze toekomstige uitbreiding beter een wat minder energiezuinige, maar krachtigere Xeon E3-1220 kan kiezen (is in aanschaf op dit moment nog eens iets goedkoper ook).
Gaarne jullie advies en/of commentaar.
Sowieso is er amper performance verschil tussen de L en de non-L versie... Als je performance tekort komt, zul je naar een nog snellere CPU moeten gaan (1240/1270)
Even niets...
Verwijderd
@Psycho_Bartje: je CPU gaat het prima trekken, mits je geen overmatig gebruik van compressie, encryptie of dedup gaat maken. Je geheugen hoeveelheid van 16GiB blijft de bottleneck met 20 schijven zo schat ik. Overigens, je bord kan ECC aan; waarom dan geen ECC geheugen dat is nu erg goedkoop: pricewatch: ICIDU Value DDR3,1333-8GB KIT
Over die processor nog. Volgens mij scheelt het qua idle power niet zoveel of je een Intel 20W TDP CPU neemt of een 80W TDP CPU. Dus waarom wil je laag TDP? Om idle stroom te besparen kan het vrij nutteloos zijn. Dus je kunt ook gewoon een pricewatch: Intel Xeon E3-1220 Boxed overwegen, quadcore zonder hyperthreading en ondersteunt ook ECC enzo. Het stelt wel eisen aan je koeling, dus een temp-gestuurde fan wordt dan een must, zodat als hij een keer lang moet werken (zeldzaam) je de power ook hebt). Die 20W TDP zou ik alleen doen als je een PicoPSU setup wilt maken maar dat gaat met 20 schijven niet lukken.
Even niets...
RAID saves the day (and data).
Verwijderd
Ah inderdaad, ECC UDIMM. Maar wel met heel veel chips; 72 chips per latje. Dan denk ik dat het veel zuiniger is om grotere chips te nemen zodat je minder chips nodig hebt.FireDrunk schreef op donderdag 22 september 2011 @ 12:50:
Hij heeft ECC geheugen uitgezocht...
Zoals:
pricewatch: ICIDU Value DDR3,1333-8GB KIT
Is ook nog eens veel goedkoper, en zit gewoon Micron geheugen op.
[ Voor 24% gewijzigd door Verwijderd op 22-09-2011 14:02 ]
Intussen ook maar mijn upgradeplan in werking stellen en een Pentium G620 erbij halen met een 80+ voeding. Server slikt met schijven op spindown nog steeds 79 watt en da's toch wat veel.
Wat zou het beste zijn denken jullie? Eerst de array opnieuw laten rebuilden met een nieuwe schijf en dan de nieuwe hardware installeren of andersom.
Even niets...
LOL, ik zie het eerder als zo hard mogelijk met je thuis-kommertje rijden zodat je thuis bent voordat t bandje knalt (ooit als intelligente reden gehoord waarom iemand 140km/h reed op zo'n kruiwagen bandje dat max. 80 mag).FireDrunk schreef op donderdag 22 september 2011 @ 14:37:
Eerst rebuilden... Je gaat toch ook niet eerst een nieuwe moter in je auto zetten en dan pas het reservewiel eronderuit halen?
Snel de cold spare van t schap trekken of naar de winkel hollen en de hdd eerst eventjes solo testen en dan de array van een verse extra schijf voorzien, succes.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
En ik zou gewoon in de winkel uitleggen dat de schijf deel uitmaakt van een RAID array en dat je natuurlijk niet heel die tijd met een degraded RAID set kunt/wilt draaien.
Dan gewoon proberen af te spreken dat je nu gewoon een nieuwe schijf betaalt en meeneemt, en dat je je geld terug krijgt (of een tegoedbon eventueel) als je oude schijf echt kapot blijkt te zijn.
Tenzij je de originele schijf ergens anders hebt gekocht, dan gaat mijn sprookje niet op
Ik heb dat bij Azerty op die manier zonder problemen kunnen regelen (via Internet met een RAID6 array het risico genomen dat ik die 2 dagen met een degraded array wel doorkom).
Ik weet nu wel wat doen met men tijd:
- alles overbouwen
- nieuwe schijven testen
- rebuilden
- woopwoop.
@ Sleepie: Met een RAID6 zou ik nog wel eens durven "ach of het nu vandaag of morgen is" zeggen. Met een RAID5 al een heel stuk minder
3x Samsung HD204UI
1x Samsung HD203WI
Volgens mij is die 204 met 3 platters en de 203 met 4 platters, gaat dat dan wel goed met een RAID5?
[ Voor 4% gewijzigd door HarmoniousVibe op 22-09-2011 17:50 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Wat is er mis met de Marvell controller?HarmoniousVibe schreef op donderdag 22 september 2011 @ 17:50:
Ik zou me eerder druk maken over die controller (Marvell) dan over de schijven. Dat met die schijven gaat allemaal wel goed.
De reden om voor die door mij genoemde modules te kiezen is simpel; ze kwamen voor op de lijst van Supermicro geteste en in orde bevonden modules.Verwijderd schreef op donderdag 22 september 2011 @ 14:01:
[...]
Ah inderdaad, ECC UDIMM. Maar wel met heel veel chips; 72 chips per latje. Dan denk ik dat het veel zuiniger is om grotere chips te nemen zodat je minder chips nodig hebt.
Zoals:
pricewatch: ICIDU Value DDR3,1333-8GB KIT
Is ook nog eens veel goedkoper, en zit gewoon Micron geheugen op.
Nou zegt het feit dat die ICIDU modules er NIET op staan natuurlijk ook niet alles, maar een beetje een gok is dat dan wel, toch
En natuurlijk zou ik graag 32 GB plaatsen, maar 4x8 GB ECC UDIMM voor een schappelijke prijs ben ik nog niet tegen gekomen. Ik vermoed anderen ook nog niet, anders hadden die inmiddels hier allang in dit topic voorbij gekomen, vermoed ik
Als die "zuinige" Xeon in de praktijk niet veel zuiniger is, is de keuze voor de Xeon E3-1220 wel logischer.
Even als de keuze voor een 6Gb LSI HBA, vanwege de mogelijkheid om in de toekomst ook >2TB HDD's aan te kunnen sluiten.
Kortom; weer een stapje verder gekomen in de beslissingsboom, waarvoor dank
Welke dan ? in je Inventaris zie ik dat je 2x een 16GB kit hebt; maar dat zijn 2x4x4GB en dat is niet wat ik bedoelzzattack schreef op donderdag 22 september 2011 @ 18:12:
niet zó schappelijk maar voor E260,- zit er bij mij 8x4gb quad channel in
Ik heb dus wel 32GB geplaatst. Ok, bij aankoop was het dubbel zo duur, maar nu is het quite affordable vind ik. Of je 4x8GB of 8x4GB doet maakt niet veel uit. De Registered ECC dimms van Kingston kosten evenveel.Psycho_Bartje schreef op donderdag 22 september 2011 @ 18:09:
En natuurlijk zou ik graag 32 GB plaatsen, maar 4x8 GB ECC UDIMM voor een schappelijke prijs ben ik nog niet tegen gekomen. Ik vermoed anderen ook nog niet, anders hadden die inmiddels hier allang in dit topic voorbij gekomen, vermoed ik
pricewatch: Kingston KVR1066D3Q8R7SK2/16G
Ben nu gestart met een badblocks -wvs op de vervangschijf. Als die erdoor komt meteen de array rebuilden zodat die in orde is. Daarna zal ik wel op het gemak de 2e schijf checken en de array expanden
Fotootjes volgen asap!
Maar Registered ECC modules gaan niet werken; het moeten Unbuffered ECC (UDIMM's) zijn, dat is nou net het jammere ervan.zzattack schreef op donderdag 22 september 2011 @ 18:53:
[...]
Ik heb dus wel 32GB geplaatst. Ok, bij aankoop was het dubbel zo duur, maar nu is het quite affordable vind ik. Of je 4x8GB of 8x4GB doet maakt niet veel uit. De Registered ECC dimms van Kingston kosten evenveel.
pricewatch: Kingston KVR1066D3Q8R7SK2/16G
Maar goed, voorlopig ga ik een RAID-Z2 met 10x2 op dit bord draaien en heb ik aan 16 GB wel genoeg, wat ik hier en in het ZFS topic zo gelezen heb.
Tegen de tijd dat ik misschien de ruimte voor een 2e RAID-Z2 van nog eens 10x2TB nodig heb, zijn er misschien wel betaalbare 8GB ECC UDIMM's te krijgen; ik las vandaag het nieuws over de in gebruikname van een nieuwe chipfabriek met 22 nm chips voor DIMMS; wordt het misschien ook makkelijker om ze te fabriceren
1
2
3
4
5
| [wouter@DKNAS2 ~]$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdd[3] sdb[0] sdc[1]
3907026848 blocks super 1.2 level 5, 4k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 4.2% (83816040/1953513424) finish=264.5min speed=117793K/sec |
Next up: 4e schijf erbij wanneer de recovery gedaan is
Even niets...
Fotos:

(klik voor zupahgroot)
Specs:
- Athlon 64 X2 4000+
- Asus M2A-VM
- 2x4GB DDR2
- IBM M1015
- 1x WD Caviar Blue 320GB SATA
- 4x Samsung HD204UI 2TB SATA
- Be Quiet! 300W
- Fractal Design Core 3000
- Arch Linux
Timeline: Vroegah gestart met dezelfde CPU+MB+mem in een Aopen H600B met 1x 160GB, 1x 320GB en 1x 750GB schijf. Daar draaide toen Freenas op. De snelheden vielen echter serieus tegen (40MB/s). Intussen waren mijn ouders ook geen fan van een extra pc die 24/7 draait, dus exit DIY NAS en enter Synology.
Een DS210J met 2x WD EARS 1TB in RAID0 was vanaf dan onze centrale NAS voor zowat alles dat hier thuis circuleert. De home directories werden 4x per week gebackupped naar een externe schijf. Alle andere data kon wel een DL verdragen.
Een paar maand geleden stootten we echter tegen de magische 80% grens van de NAS. Neem daarbij dat de snelheden alsnog niet denderend waren (50 a 60 MB/s met wat geluk) was de keuze snel gemaakt. Opnieuw terug naar DIY NAS dus. Terug de gouwe ouwe AMD X2 setup van zolder gehaald en een IBM met 3 2TB schijven erin gepleurd. Dit alles op basis van Arch Linux. Momenteel presenteert deze nas een LAMP webserver, SMB en NFS storage.
Waarom de keuze voor Arch?
Arch is een lightweight distro na installatie. De footprint is daardoor zeer laag en je kan er echt enkel ingooien wat je echt wil. Daarnaast bieden de Arch distro's steeds de nieuwste versies van packages (iets wat bij sommige distros niet zo is). Daardoor heb ik steeds de nieuwste versies van bv php/mysql/samba/... . Uiteraard check ik voor elke software update de changelogs om te kijken of er nergens een addertje onder het gras zit.
Wat schuilt er over de horizon
Het was normaal de bedoeling om de AMD setup uit te faseren en samen met de nieuwe HDD naar een Pentium platform over te stappen. Dit plan is echter verschoven naar eind herfst (als ik nog eens vakantie heb).
Ook de luide/warme caviar Blue moet weg en zal waarschijnlijk vervangen worden door 2 320GB 2.5" schijven in RAID1. Zo hebben naast media ook de home directory's een voet tussen de deur tegen hardware uitval. Deze zullen waarschijnlijk in een hotswap bay in een van de 5.25" sloten komen. Zo komt er terug een tray vrij voor een extra 2TB schijf moest dat nodig zijn.
Last but not least: een UPS.
Dan maar "op safe" gegaan en de volgende onderdelen besteld:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Server Board S1200BTS | € 156,90 | € 156,90 |
| 1 | LSI SAS 9211-8i (SAS9211-8I/SGL) | € 210,13 | € 210,13 |
| 1 | Intel Xeon E3-1220 Boxed | € 171,72 | € 171,72 |
| 1 | Scythe Mugen 2 Rev. B | € 34,- | € 34,- |
| 2 | Kingston ValueRAM KVR1333D3E9SK2/8GI | € 67,48 | € 134,96 |
| Bekijk collectie Importeer producten | Totaal | € 707,71 | |
Wellicht had het goedkoper gekund door ipv van de LSI bijvoorbeld een rebranded IBM te nemen en andere geheugenmodules (ICIDU), maar hiermee verwacht ik een hopelijk probleemloze installatie.
Nu nog 5 Samsungs 2TB erbij een dan een RAID-Z2 met in totaal 10 schijven onder FreeNAS opzetten als alles komende week (hopelijk) binnen is
Even niets...
Gaat wat sneller dan bij mij :Jormungandr schreef op vrijdag 23 september 2011 @ 14:51:
Na 18 uur badblocks (en nog steeds niet klaar), had ik er wel genoeg van.
code:
1 2 3 4 5[wouter@DKNAS2 ~]$ cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sdd[3] sdb[0] sdc[1] 3907026848 blocks super 1.2 level 5, 4k chunk, algorithm 2 [3/2] [UU_] [>....................] recovery = 4.2% (83816040/1953513424) finish=264.5min speed=117793K/sec
Next up: 4e schijf erbij wanneer de recovery gedaan is
1
2
3
4
5
6
7
| root@illumia:/var/www/spotweb# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdo[16] sdp[11] sdm[13] sdj[8] sdn[10] sdq[9] sdk[15] sdl[14] sdg[5] sdi[7] sdh[6] sde[3] sdf[4] sdd[2] sdc[1] sdb[0]
27343748096 blocks level 6, 512k chunk, algorithm 2 [16/15] [UUUUUUUUUUUU_UUU]
[==>..................] recovery = 12.7% (248786432/1953124864) finish=781.6min speed=36339K/sec
unused devices: <none> |
Even niets...
1
2
| root@server:~# cat /proc/sys/dev/raid/speed_limit_max 200000 |
[ Voor 76% gewijzigd door Q op 24-09-2011 13:47 ]
Ik ook; tijd om ook maar eens een Voltcraft Energy monitor 3000 aan te schaffenFireDrunk schreef op zaterdag 24 september 2011 @ 13:01:
Ben benieuwd naar de verbruiksresultaten!
Beter een Energy Logger kopen
Even niets...
Dacht ik me nog wel aardig te hebben ingelezenFireDrunk schreef op zaterdag 24 september 2011 @ 14:34:
Nee, die heb ik ook, en die schijnt erg slecht te zijn
Beter een Energy Logger kopen
De Voltcraft energy-logger 4000 krijgt op de site van Conrad inderdaad overwegend positieve reviews, dat gaat hem dan worden.
Even niets...
Verwijderd
Nee hoor, het is de Energy Check die je niet moet hebben. De Monitor is prima.FireDrunk schreef op zaterdag 24 september 2011 @ 14:34:
Nee, die heb ik ook, en die schijnt erg slecht te zijn
Beter een Energy Logger kopen
Ah sorry, dan ben ik in de war, ik heb inderdaad de Energy Check 3000Dadona schreef op zaterdag 24 september 2011 @ 17:39:
[...]
Nee hoor, het is de Energy Check die je niet moet hebben. De Monitor is prima.
Even niets...
Als ik de leveringsprognoses van dat Intel plankje zie dan wordt ik ook niet echt warm van binnen.Psycho_Bartje schreef op zaterdag 24 september 2011 @ 11:32:
Wil ik na lang uitzoeken, wikken & wegen eindelijk de spullen voor mijn nieuwe NAS gaan bestellen, blijkt het Supermicro bord ineens slecht leverbaar.![]()
Dan maar "op safe" gegaan en de volgende onderdelen besteld:
# Product Prijs Subtotaal 1 Intel Server Board S1200BTS € 156,90 € 156,90 1 LSI SAS 9211-8i (SAS9211-8I/SGL) € 210,13 € 210,13 1 Intel Xeon E3-1220 Boxed € 171,72 € 171,72 1 Scythe Mugen 2 Rev. B € 34,- € 34,- 2 Kingston ValueRAM KVR1333D3E9SK2/8GI € 67,48 € 134,96 Bekijk collectie
Importeer productenTotaal € 707,71
Wellicht had het goedkoper gekund door ipv van de LSI bijvoorbeld een rebranded IBM te nemen en andere geheugenmodules (ICIDU), maar hiermee verwacht ik een hopelijk probleemloze installatie.
Nu nog 5 Samsungs 2TB erbij een dan een RAID-Z2 met in totaal 10 schijven onder FreeNAS opzetten als alles komende week (hopelijk) binnen isKijken of mij dat als oefenTweaker lukken gaat....
Ik heb destijds 2 weken moeten wachten op mijn X9SCM-F bordje, ondanks dat de winkel op de site vrolijk vermelde dat de leveringstijd 5 dagen zou zijn. Maar uiteindelijk is de plank het wachten wel waard.
En inderdaad de SAS oplossing had wat goedkoper kunnen zijn, maar dat is een persoonlijke keuze en een goed gevoel is ook wat waard.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Hieronder staat mijn I/O-profiel als hij een beetje moet werken. Momenteel zijn er enkele honderden torrents aan het seeden, welke in totaal op dit moment zo'n 1MiB/s aan upload veroorzaken. Tevens ben ik met 7MiB/s een andere torrent aan het downloaden en staat dc++ te hashen met 80-150MiB/s en te uploaden met 9MiB/s.
Volgens iostat -mx 1 ziet het resultaat er als volgt uit:
avg-cpu: %user %nice %system %iowait %steal %idle
21,00 28,50 22,50 12,50 0,00 15,50
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sdb 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sdc 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sda 292,00 48,00 66,00 47,00 17,55 0,36 324,74 37,85 487,88 28,18 1133,40 8,85 100,00
md5 0,00 0,00 1887,00 41,00 163,12 3,31 176,79 0,00 0,00 0,00 0,00 0,00 0,00
sdd 332,00 114,00 60,00 16,00 15,72 0,50 437,16 6,20 59,61 36,50 146,25 5,00 38,00
sde 407,00 0,00 81,00 2,00 17,80 0,00 439,33 2,22 24,10 24,32 15,00 4,22 35,00
sdf 410,00 0,00 93,00 4,00 17,77 0,00 375,18 2,87 39,90 35,38 145,00 3,92 38,00
sdg 369,00 57,00 94,00 13,00 20,41 0,43 398,88 2,22 58,04 54,68 82,31 3,64 39,00
sdh 57,00 116,00 196,00 133,00 18,69 0,96 122,33 45,89 245,56 27,70 566,62 3,04 100,00
sdi 74,00 143,00 141,00 112,00 16,82 0,99 144,22 34,27 64,47 45,74 88,04 3,44 87,00
sdj 198,00 179,00 84,00 15,00 18,79 0,75 404,28 2,88 29,09 26,67 42,67 3,33 33,00
sdk 291,00 148,00 73,00 10,00 19,26 0,61 490,22 4,54 54,70 51,78 76,00 3,86 32,00
sdb en sdb zijn overigens mijn OS SSD's, dus die tellen niet mee. md5 is mijn array en de rest zijn block devices die onderdeel uitmaken van md5:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md5 : active raid6 sdk[10] sdj[9] sdh[7] sdi[8] sdg[3] sdf[4] sde[1] sdd[5] sda[6]
13674590720 blocks super 1.2 level 6, 512k chunk, algorithm 2 [9/9] [UUUUUUUUU]
unused devices: <none>
Vooral die ~ 100%util op sommige devices (soms wel 3 of 4) lijken mij verdacht. Overigens is de %util ook zo hoog als ik geen hoge throughput veroorzaak. Zou dit de oorzaak kunnen zijn van het vertragen/freezen van rtorrent? Het vreemde is wel dat ik er veel meer last van lijk te hebben als de array ook aan het schrijven is.
Denken jullie dat er qua optimalisaties op het niveau van OS, MDADM (chuck size), XFS of scheduler (momenteel deadline) of NCQ (of iets anders softwarematigs) nog iets te doen is? Of had ik gewoon geen Green drives moeten kopen en iets moeten pakken met meer IOPS?
edit: heb even DC++ (sequential reads) uitgezet, maar zelfde resultaat:
avg-cpu: %user %nice %system %iowait %steal %idle
38,50 0,00 31,00 5,00 0,00 25,50
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sdb 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sdc 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sda 708,00 373,00 173,00 143,00 7,33 2,02 60,61 1,64 5,25 8,55 1,26 1,20 38,00
md5 0,00 0,00 291,00 155,00 21,17 10,35 144,74 0,00 0,00 0,00 0,00 0,00 0,00
sdd 453,00 124,00 339,00 532,00 6,79 2,56 21,99 76,31 48,09 37,46 54,87 1,15 100,00
sde 645,00 459,00 85,00 186,00 5,44 2,81 62,32 3,31 13,47 26,71 7,42 1,81 49,00
sdf 796,00 362,00 125,00 107,00 7,75 1,84 84,59 2,94 12,84 17,60 7,29 2,37 55,00
sdg 539,00 579,00 112,00 160,00 5,58 3,01 64,68 1,65 6,62 14,55 1,06 1,58 43,00
sdh 746,00 386,00 124,00 103,00 5,64 1,91 68,16 1,57 7,05 11,37 1,84 1,76 40,00
sdi 631,00 543,00 109,00 111,00 5,86 2,55 78,29 2,15 9,86 14,77 5,05 2,18 48,00
sdj 528,00 149,00 322,00 403,00 6,57 2,15 24,64 60,11 58,86 32,70 79,75 1,38 100,00
sdk 515,00 195,00 325,00 410,00 6,94 2,36 25,93 63,75 56,91 32,83 76,00 1,36 100,00
Zo ziet het eruit als rtorrent frozen is:
avg-cpu: %user %nice %system %iowait %steal %idle
29,00 0,00 4,00 0,00 0,00 67,00
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sdb 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sdc 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
sda 213,00 31,00 16,00 6,00 0,89 0,14 96,00 0,16 7,27 6,25 10,00 2,73 6,00
md5 0,00 0,00 0,00 16,00 0,00 1,12 144,00 0,00 0,00 0,00 0,00 0,00 0,00
sdd 145,00 75,00 7,00 39,00 0,59 0,44 45,91 0,29 6,30 38,57 0,51 1,96 9,00
sde 107,00 0,00 121,00 82,00 0,89 0,31 12,14 32,05 148,13 24,71 330,24 4,93 100,00
sdf 72,00 73,00 46,00 125,00 0,46 0,77 14,69 37,35 229,59 51,30 295,20 5,85 100,00
sdg 242,00 0,00 22,00 2,00 1,03 0,00 88,00 0,37 15,42 15,91 10,00 4,17 10,00
sdh 73,00 0,00 64,00 160,00 0,54 0,62 10,54 13,36 59,64 10,78 79,19 3,04 68,00
sdi 132,00 108,00 22,00 9,00 0,60 0,45 69,42 0,42 50,65 10,91 147,78 4,52 14,00
sdj 127,00 111,00 21,00 7,00 0,58 0,45 75,43 0,26 9,29 9,52 8,57 3,21 9,00
sdk 147,00 72,00 7,00 40,00 0,60 0,43 44,94 0,21 4,47 25,71 0,75 1,70 8,00
[ Voor 37% gewijzigd door HarmoniousVibe op 24-09-2011 21:45 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ik heb hier Biostar H61 bordjes liggen, vergelijkbaar met H67 alleen geen Sata3.
Even niets...
Op dit moment draai ik vrijwel de setup die je hier (niet al te specifiek benoemt) dus barst los..._-= Erikje =-_ schreef op maandag 26 september 2011 @ 09:03:
Hmm, iemand ervaring met die mini itx bordjes van Asus? (ASUS P8H67-I Rev.3.0), ik zit er aan te denken zo'n ding met een simpele i3 in m'n 4bay behuizing te hangen (CFI A7879) om met freenas aan de gang te gaan. Voornaamste probleem is denk ik dat er maar 2 DIMM sloten op zitten dus meer dan 8 Gbyte zal een uitdaging zijn. Ben er ook nog niet uit of ik 'm met m'n huidige 2Tbyte schijven ga vullen of dat ik nieuwe 3 Tbyte aan ga schaffen
Sinds de 2 dagen regel reageer ik hier niet meer
Qua RAM hangt het er natuurlijk vanaf hoe groot je zpool gaat worden. Je kan tot max. 16gig dus dat moet (buiten de kosten om) dus voldoende mogelijkheden geven.
Sinds de 2 dagen regel reageer ik hier niet meer
| # | Product | Prijs | Subtotaal |
| 4 | Western Digital 2TB green | € 00,00 | € 00,00 |
| 1 | Intel Core i3 2120 Boxed | € 109,- | € 109,- |
| 1 | Kingston ValueRAM KVR1066D3N7K2/8G | € 42,84 | € 42,84 |
| 1 | Asus P8H67-I Rev 3 | € 97,00 | € 97,00 |
| Totaal | € 248,84 | ||
Schijven heb ik nog/al (moet alleen nog even verzinnen hoe ik de bestaande data over ga krijgen
Even niets...
Waar dacht je een onboard video voor nodig te hebben buiten de installatie fase van je systeem? Kan je dus opnieuw weer wat specifieker zijn._-= Erikje =-_ schreef op maandag 26 september 2011 @ 12:32:
Is ook zo, maar 't is wel fijn als unrarren/par2 geen halve dag duurtHoe zit het met de onboard video tegenwoordig?
Sinds de 2 dagen regel reageer ik hier niet meer
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Ik ben dus nog steeds bezig met een NAS op basis van E35M1-M PRO
Lange tijd heb ik gebruik gemaakt van 2x Highpoint RocketRaid 620.
Vandaag echter kreeg ik als bij wonder BIOS 1301 die het mogelijk maakt om andere raidkaarten zoals de Intel SASUC8i in het PCIe 16x(@4x) slot te gebruiken. Bios is nog niet beschikbaar op de website.
Het werkt dus en is door zijn lage verbruik en hoog aantal Sata III poorten ideaal.
Nu las ik net dat AMD A75 Fis Based Switching aankan:
Wikipedia: Port multiplier
Dit wil dus zeggen dat je tot 15 sata schijven op één sata aansluiting kan krijgen... Nu is mijn vraag: Hoe?
Het gaat dus niet om SAS voor alle duidelijkheid.
Indien er een soort bay of enclosure bestaat hiervoor kan je dus 6x15 schijven kwijt op dit bordje.
En 3TB schijven worden reeds ondersteund!
Let wel op dat je de bandbreedte deelt.
http://www.addonics.com/p..._controller/ad5sapm-e.asp
[ Voor 22% gewijzigd door FireDrunk op 26-09-2011 14:20 ]
Even niets...
Het is dus werkelijk bedoeld voor eSata?FireDrunk schreef op maandag 26 september 2011 @ 14:19:
Om dat te doen heb je een Port Multiplier nodig. Addonics verkoopt ze.
Let wel op dat je de bandbreedte deelt.
http://www.addonics.com/p..._controller/ad5sapm-e.asp
Mijn onboard sata poorten ondersteunen dit ook (is natuurlijk hetzelfde als de eSata, behalve de connector), maar daar zie ik niets voor...
Het zou handig zijn als ik met 1 sata kabel naar zo'n drivebay voor 5 schijven kan gaan... Kunnen die dingen sata III aan en de 3TB schijven (>2TB schijven)?
Bandbreedte delen is geen probleem.. Die gigabit verbinding zit toch zo vol, en ik ben van plan over te schakelen naar 3TB Green disks van WD, die zijn al niet zo snel
Bestaan er al versies voor sata 3?.
Deze is voor non eSata gebruik.
Addonics heeft (voor zover ik kan vinden) nog geen SATA3 port multipliers.
http://www.addonics.com/p...roller/tutorial_pm.asp#cc
[ Voor 17% gewijzigd door FireDrunk op 26-09-2011 16:47 ]
Even niets...
Ik ben trouwens zeer te spreken over de Fractal Core 3000 kast. Mede dankzij de fan controller die erbij zit is hij echt zeer stil te krijgen. Het enige dat nog ecth hoorbaar geluid maakt is de stock AMD CPU koeler.
Even niets...
Even niets...
Ik heb al diverse opties bekeken. Momenteel een ch3snas in de meterkast, maar ik wil wat meer power.
Behuizing twijfel ik nog. Minimaal 6 3.5discs (6*3) en een SSD (voor cache) Ik ga unraid gebruiken.
Keus is A. Fractal array B. Lian Li 08 C.?
Moederbord (6 of 7 Sata zou mooi zijn!)
A. Atom B. AMD Fusion C. ? (Sandy of Ivy bridge?) D. Toch dat VIA ding?
Voeding
A. Pico B. Zuinige ATX C. Iets wat nog in de kast ligt..
Ik wil draaien op unraid, systeem zal doordeweeks met name stil staan. Dus zuinigheid is belangrijk.
Budget, in redelijkheid oneindig..
Wie kan mij helpen met de afweging?
Dan zit je of aan een losse controller of aan een 1155 bord wat niet echt super zuinig is.
Het is OF features OF super zuinig...
Redelijk zuinig moet wel lukken met i3-2100 een: pricewatch: Intel Desktop Board DH67CF (B3)
met een losse controller...
[ Voor 10% gewijzigd door FireDrunk op 27-09-2011 19:10 ]
Even niets...
6 Sata zal mijn voorkeur dan hebben. Tegen de tijd dat ik de 6 poorten vol heb ziet de wereld er misschien anders uit, maar 4 is definitief te weinig. pci kaartje zal ook weer paar watt verstoken
geen idee wanneer ze ook echt leverbaar zijn though..
@hieronder
dat wist ik niet, ook voor de "desktop" varianten?
je zou denken dat geen zelfrespecterend processor fabrikant nog een chip met zo'n beperking durft uit te brengen..
[ Voor 29% gewijzigd door lange op 28-09-2011 11:21 ]
Even niets...
Even niets...
Kleine uitleg: Ik heb een desktop met een Areca 1280ML, met 8X een Hitachi 7K2000 (2TB, 7200rpm) in Raid 5. Heb nog een 9de liggen om hier Raid6 van te maken. 1 is er laatst gecrasht, en nu moet ik een vervanger hebben, met wat extra schijven, als ik dan toch bezig ben. De 7K2000 is er uit, daar is nu de 7K3000 voor, maar de 5K3000 trekt mijn aandacht, minder herrie er bij, leuker geprijsd. Maar ja, dan moet dit wel "verantwoord" zijn
pricewatch: Hitachi Deskstar 7K2000, 2TB
pricewatch: Hitachi Deskstar 5K3000, 2TB
pricewatch: Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB
Had besloten om die vraag hier maar even te dumpen, aangezien het hier ook in mate over Raid gaat, beetje onzinnig om eigen topic aan te maken. Google heeft me niet echt verder geholpen, kom meer van dit soort vragen tegen, maar voornamelijk over Raid0/1..
[ Voor 11% gewijzigd door GoldenBatt op 28-09-2011 14:06 ]
Even niets...
Dat is niet helemaal waar. Bij normale striping krijg je bij het mixen van verschillende harde schijven een prestatieniveau dat zich ergens tussen dat van de traagste en snelste harde schijf bevindt. Er vinden namelijk ook veel transfers plaats die kleiner zijn dan de stripe size en door een enkele disk afgehandeld kunnen worden.FireDrunk schreef op woensdag 28 september 2011 @ 14:08:
Het kan altijd, maar je array is zo snel als de langzaamste schijf in het geheel, dus als dat je niet boeit, zie ik geen reden om te niet te mixen.
Bij raid-z in zfs is de penalty van het gebruik van een enkele trage harde schijf vermoedelijk wel groter omdat elke schrijfactie een full-stripe write is en alle disks erbij worden betrokken.
Mijn pc heeft maar 1 kaart maar het lijkt toch iets sneller :
[root@desktop christian]# dd if=/dev/zero of=/home/christian/NAS/testfile bs=1M count=40k
40960+0 records in
40960+0 records out
42949672960 bytes (43 GB) copied, 396.611 s, 108 MB/s
Met een dd vanaf mijn pc en laptop tegelijk haal ik totaal ongeveer hetzelfde. Ik hoopte boven 100MB te komen.
In eerste instantie was ik erover uit wat het zou worden: Een Qnap 459+ met Atom 1,8 proc. Deze kan namelijk alles aan wat ik wil maar hiervoor zou ik 600 euro (schijven even buiten beschouwing gelaten) uit mijn zak moeten trekken. Geen hele grote ramp, ware het niet dat de wetenschap dat mijn oude pc stof staat te happen aan mijn geweten knaagt...
Oude PC is een Core 2 Duo E6400 op een Asus P5KR ATX-bordje met 6 GB RAM. Wat ik mij nu afvraag is of ik niet beter een NAS-casing, micro-ATX-bordje en een RAID-controller aan kan schaffen om mijn eigen NAS in elkaar te zetten.
Grootste dilemma's in deze keuze:
- Stroomverbruik: De Qnap verbruikt 23W idle en 34W loaded. Volgens de Antec PSU calculator zal mijn DIY NAS 98W loaded verbruiken (idle onbekend). Volgens mijn berekening betekent een verschil in verbruik van 60W een verschil van € 100 aan energiekosten op jaarbasis. Mits ik met maximaal 200 euro aan onderdelen klaar ben zijn de energiekosten dus te rechtvaardigen voor 4 jaar. Of (en dit is de daadwerkelijke vraag) kan ik het stroomverbruik van mijn DIY omlaag brengen???
- OS/SW: De Qnap kan zoals gezegd alles wat ik van mijn NAS wil. Er zijn op internet goede guides/tutorials te vinden voor redelijk veel zaken. Als ik mijn NAS zelf in elkaar zet, welk OS zou ik dan moeten gebruiken? Ik heb geen verstand van Linux, veel verstand van Windows, maar zou voor een NAS een OS welke van zichzelf zo min mogelijk resources trekt prefereren. Tevens wil ik op de NAS Plex server, Couchpotato, Headphones, Sickbeard en een usenet NZB-client draaien. Op dit gebied zou ik ook graag wat advies op prijs stellen.
Bij elke raid implementatie word bij schrijven toch een full-stripe geschreven?Femme schreef op woensdag 28 september 2011 @ 17:17:
[...]
Dat is niet helemaal waar. Bij normale striping krijg je bij het mixen van verschillende harde schijven een prestatieniveau dat zich ergens tussen dat van de traagste en snelste harde schijf bevindt. Er vinden namelijk ook veel transfers plaats die kleiner zijn dan de stripe size en door een enkele disk afgehandeld kunnen worden.
Bij raid-z in zfs is de penalty van het gebruik van een enkele trage harde schijf vermoedelijk wel groter omdat elke schrijfactie een full-stripe write is en alle disks erbij worden betrokken.
Je correcite klopt inderdaad bij lezen, daar zal het iets minder uitmaken, maar je zit nog met het verschil in latency, wat de raid engine vaak niet zo leuk vind.
Bij schrijven heb je mijns inziens altijd de snelheid van de langzaamste schijf, omdat je controller wacht tot de stripe volledig op disk staat voordat hij verder gaat...
Even niets...
Weet iemand hoe ik dit voor elkaar heb gekregen?
In FreeNAS:

In Windows:

Ik snap niet waar deze grootte vandaan komt,
Het gevaarte loopt op een AMD Athlon 64 3000+ met Windows XP en op VMware FreeNAS
2x SAMSUNG HD204UI/1AQ10001
Geen idee hoe het kan, maar ik kan nu dus van de Windows 7 computers geen back-up erop zetten..
Iemand enig idee?
In Windows XP zijn de harde schijven ook niet bekend (in Deze Computer niet), alleen in de VMware, of maakt dat niks uit?ItsValium schreef op donderdag 29 september 2011 @ 13:56:
windows xp kan out of the box geen volumes groter dan 2TB herkennen, google naar mogelijke oplossingen zou je verder moeten helpen.
en waarom 0,97 gB?
anyway als je een df -h had gedaan had je zelf het antwoord kunnen vinden.
Bij mij geeft win7 bij total size de gebruikte ruimte door dat filesysteem.
En vrije ruimte is de vrije ruimte in de zpool.
oftewel.
windows home geeft 3,44GB vrij en 28GB total size
df -h geeft size 29G used 25G avail3.5G
zfs -list geeft used 27.1G avail 3.44G refer24.6G
zfs list -t snapshot geeft
snapshot1 used 1.78G - refer 25.9G
snapshot2 used 71.7M - refer 24.2G
met wat afrondingen te begrijpen zo denk ik.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.