DIY RAID NAS bouwen Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 7 ... 14 Laatste
Acties:
  • 61.197 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Unicron
  • Registratie: November 2001
  • Laatst online: 05-07 20:47
Anoniem: 41852 schreef op maandag 28 mei 2007 @ 19:59:
[...]

Vind je dat niet zonde? 500GB schijven koop je nu voor 96 euro en zijn daarmee stukken goedkoper dan 750GB schijven die 200 euro kosten. Bovendien stukken stiller en energiezuiniger. Koop dan 6x500GB, hou je ook meer over bij RAID5 aangezien daarbij de overhead afneemt bij het aantal schijven.

3x750GB = 1.5TB opslag tegen 600 euro - 400 euro per TB <---- erg ongunstig
4x500GB = 1.5TB opslag tegen 384 euro - 256 euro per TB
5x500GB = 2.0TB opslag tegen 480 euro - 240 euro per TB
6x500GB = 2.5TB opslag tegen 576 euro - 230 euro per TB <--- een veel beter alternatief
8x500GB = 3.5TB opslag tegen 768 euro - 219 euro per TB

:)


[...]

Dan denk ik aan AMD Athlon 64 X2 4400+ Energy Efficient voor 80 euro met Samsung T166 500GB schijven en een "groene" voeding (85% efficient). Dan heb je een krachtige processor voor weinig geld, leuke schijven en een goede en zuinige voeding.

Draai je windows kun je overwegen om de 'storage' in vmware te draaien voor meer performance en veiligheid (beter filesystem).
Boven de 4 schijven wordt het denk ik wel weer duurder omdat je op een mobo volgens mij bijna nooit meer dan 4 sata poorten hebt. Dan moet er dus weer een controller bij neem ik aan.

Acties:
  • 0 Henk 'm!

  • Diabolical
  • Registratie: Augustus 2005
  • Laatst online: 02-10-2023
Unicron schreef op maandag 28 mei 2007 @ 22:04:
[...]


Boven de 4 schijven wordt het denk ik wel weer duurder omdat je op een mobo volgens mij bijna nooit meer dan 4 sata poorten hebt. Dan moet er dus weer een controller bij neem ik aan.
Je ziet steeds vaker bordjes met 6 of 8 Sata aansluitingen. Dat zal niet zozeer het probleem zijn denk ik.

"The internet has given a voice to the voiceless, but unfortunately it hasn't given a brain to the brainless."


Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
Anoniem: 41852 schreef op maandag 28 mei 2007 @ 19:59:

Vind je dat niet zonde? 500GB schijven koop je nu voor 96 euro en zijn daarmee stukken goedkoper dan 750GB schijven die 200 euro kosten. Bovendien stukken stiller en energiezuiniger. Koop dan 6x500GB, hou je ook meer over bij RAID5 aangezien daarbij de overhead afneemt bij het aantal schijven.

3x750GB = 1.5TB opslag tegen 600 euro - 400 euro per TB <---- erg ongunstig
4x500GB = 1.5TB opslag tegen 384 euro - 256 euro per TB
5x500GB = 2.0TB opslag tegen 480 euro - 240 euro per TB
6x500GB = 2.5TB opslag tegen 576 euro - 230 euro per TB <--- een veel beter alternatief
8x500GB = 3.5TB opslag tegen 768 euro - 219 euro per TB

:)

Dan denk ik aan AMD Athlon 64 X2 4400+ Energy Efficient voor 80 euro met Samsung T166 500GB schijven en een "groene" voeding (85% efficient). Dan heb je een krachtige processor voor weinig geld, leuke schijven en een goede en zuinige voeding.

Draai je windows kun je overwegen om de 'storage' in vmware te draaien voor meer performance en veiligheid (beter filesystem).
Unicron schreef op maandag 28 mei 2007 @ 22:04:
[...]


Boven de 4 schijven wordt het denk ik wel weer duurder omdat je op een mobo volgens mij bijna nooit meer dan 4 sata poorten hebt. Dan moet er dus weer een controller bij neem ik aan.
In princiepe hebben jullie beide gelijk het is immers een keuze die je moet maken. Op dit moment zijn de 750 GB schijven erg duur maar niet onbetaalbaar (€ 450,- bij introductie). Met 3 schijven zit je echter wel op 1,5 TB bruto storage. Er vanuit gaande dat ik een mobo pak met 8 sata poorten zou ik dus kunnen doorgroeien tot 6 TB tegenover 4TB met 500GB schijven.

Tevens zit je met het probleem dat schijven niet meer geleverd worden na verloop van tijd en ik gok er dan ook op dat de 750GB schijven wat langer in het arsortiment blijven dan de 500 GB schijven.

De keuze is overigens nog niet definitief, op dit moment dus ik zou nog prima kunnen kiezen voor de 500 GB schijven.


Qua processor zat ik in eerste instantie ook in de richting van een EE variant te denken. Ik heb de X2 4600 EE in mijn desktop en die bevalt me prima qua prijs / prestatie verhouding.

In juli zal Intel echter de prijzen fors verlagen waardoor een instap Quadcore ook erg interessant kan zijn. Ik heb op mijn werk de gelegenheid gehad om met een Dual QX6700 setup te spelen en daar zal echt ontzettend veel power in.

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

  • TheSiemNL
  • Registratie: Juni 2005
  • Laatst online: 04-07 17:18
sPENKMAN schreef op maandag 28 mei 2007 @ 22:51:
Tevens zit je met het probleem dat schijven niet meer geleverd worden na verloop van tijd en ik gok er dan ook op dat de 750GB schijven wat langer in het arsortiment blijven dan de 500 GB schijven.
80 gig wordt al vele jaren geleverd, de kans dat de 500GB er de komende 5 jaar uitgaat is erg klein!

Acties:
  • 0 Henk 'm!

Anoniem: 41852

sPENKMAN schreef op maandag 28 mei 2007 @ 22:51:
Op dit moment zijn de 750 GB schijven erg duur maar niet onbetaalbaar (€ 450,- bij introductie). Met 3 schijven zit je echter wel op 1,5 TB bruto storage.
Netto bedoel je. :)

Maar voor nog minder geld zit je op 2,5 TB netto storage. Daarom de vraag: vind je dat niet gruwelijk zonde?
Er vanuit gaande dat ik een mobo pak met 8 sata poorten zou ik dus kunnen doorgroeien tot 6 TB tegenover 4TB met 500GB schijven.
Met PATA erbij en een 4 poorts goedkope controller zit je op 8+4+4 = 16 disks. Genoeg uitbreidingsvermogen voor een enkele server dus. En wat kost een simpele fileserver nou? 30+50+20=100 euro zonder kast, zeg 150 all-in.

Ik ben dus bang dat je onder het mom van uitbreidingsmogelijkheid meer dan 200 euro over de balk smijt waarvoor je sowieso al een extra fileserver voor kunt kopen. Ik denk dat je je mogelijkheden nog maar eens op een rij moet zetten, voordat je dingen koopt met een significant lagere prijs-prestatie (of in dit geval prijs-capaciteit) verhouding.
In juli zal Intel echter de prijzen fors verlagen waardoor een instap Quadcore ook erg interessant kan zijn. Ik heb op mijn werk de gelegenheid gehad om met een Dual QX6700 setup te spelen en daar zal echt ontzettend veel power in.
Valt wel mee, zoveel schaalt een dualcore -> quadcore niet, daar heeft ook tweakers.net een review over gedaan. En dat is nog wel met multithreaded software; veel softwarematige RAID5 implementaties zijn single threaded. Ik vermoed dus dat quadcore niet veel sneller zal zijn dan dualcore, zeker in jouw situatie.

Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
Je hebt gelijk, foutje van mijn kant.
Maar voor nog minder geld zit je op 2,5 TB netto storage. Daarom de vraag: vind je dat niet gruwelijk zonde?

Met PATA erbij en een 4 poorts goedkope controller zit je op 8+4+4 = 16 disks. Genoeg uitbreidingsvermogen voor een enkele server dus. En wat kost een simpele fileserver nou? 30+50+20=100 euro zonder kast, zeg 150 all-in.

Ik ben dus bang dat je onder het mom van uitbreidingsmogelijkheid meer dan 200 euro over de balk smijt waarvoor je sowieso al een extra fileserver voor kunt kopen. Ik denk dat je je mogelijkheden nog maar eens op een rij moet zetten, voordat je dingen koopt met een significant lagere prijs-prestatie (of in dit geval prijs-capaciteit) verhouding.
Klopt ruimte zat op voorhand dat je de ruimte heb in een kast. Hierbij verbruiken 16 schijven wel een stuk meer dan 8 stuks waarbij je ook meer warmte en geluid hebt. Voor een thuis situatie is dat natuurlijk een con.
Valt wel mee, zoveel schaalt een dualcore -> quadcore niet, daar heeft ook tweakers.net een review over gedaan. En dat is nog wel met multithreaded software; veel softwarematige RAID5 implementaties zijn single threaded. Ik vermoed dus dat quadcore niet veel sneller zal zijn dan dualcore, zeker in jouw situatie.
Als ik uberhaupt voor een Quad core zou gaan is niet voor de pariteit berekeningen maar voor de mogelijkheid om een aantal stevige gameservers thuis te draaien. Hierbij kan je wel profijt hebben van 4 cores aangezien je een aantal gameservers per core kan draaien.


Met een quadcore zit ik met een hoger stroomverbruik maar heb ik weer meer cpu kracht voor de toekomst. Met 750 GB schijven betaal ik veel per GB (op dit moment) maar kan ik uitbreiden tot 8 stuks in de toekomst wanneer de prijs per GB ongetwijfeld lager zal zijn.

Ik heb in ieder geval voldoende input gehad vanuit dit topic om mijn gedachten eens goed over te laten gedaan, top!

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

  • LinuZZ
  • Registratie: Januari 2004
  • Laatst online: 05-07 21:33
is er iemand die mij iets kan vertellen mbt de performance in RAID 5 van een Nforce 570 controller? ik heb namelijk wat gestruind op internet, maar kom niet veel verder dan tomshardware en tweakers reviews over allerhande raid 5 kaarten. onboard laten ze daar ongemoeid

enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 05-07 22:44
Volgens mij heb je een beetje lalst van 'grootheidswaanzin', no offence.
Toen ik jaren terug mijn eerste thuisserver in mekaar zette dacht ik ook dat ik gameservers ging draaien, dikke ftp, mail voor iedereen die ik kende, ik hield rekening met elke idiote situatie die ik kon bedenken. Uiteindelijk blijkt dat je adsl latency, je upload en je portemonnee toch een grotere hinder vormen dan die eventuele service die je in de toekomst zou moeten kunnen draaien.

Maak gewoon reele plannen voor de komende 2-3 jaar, en schat daar je storage en cpuspeed op af, dan kun je over een paar jaar gewoon de hele mik vervangen door iets dat in zn geheel sneller is. een budget Dual core ga je echt nog jaaaaren mee vooruit kunnen iig.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Vergeet ook niet dat zeker bij Intel de bus (FSB) en de cache gedeeld is. Dus het is niet zo dat je 4 cores hebt die even snel kunnen. Gevolg is dat de 4x1 situatie niet meer opgaat; want al zou je 1 core gebruiken dan kan die de hele shared cache en geheugenbandbreedte (FSB) inpikken, waardoor gebruik van een 2e core dus geen verdubbeling van de capaciteit betekent.

Bij quadcore geldt dit natuurlijk nog sterker en vooral bij intel die snel even een quadcore uit de fabriek heeft laten rollen door wat laswerk. Zie ook de benchmark van t.net hierover:
reviews: Intel Core 2 Extreme QX6700 review

Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
P5ycho schreef op dinsdag 29 mei 2007 @ 09:10:
Volgens mij heb je een beetje lalst van 'grootheidswaanzin', no offence.
non taken ;)
Toen ik jaren terug mijn eerste thuisserver in mekaar zette dacht ik ook dat ik gameservers ging draaien, dikke ftp, mail voor iedereen die ik kende, ik hield rekening met elke idiote situatie die ik kon bedenken. Uiteindelijk blijkt dat je adsl latency, je upload en je portemonnee toch een grotere hinder vormen dan die eventuele service die je in de toekomst zou moeten kunnen draaien.
Als ik enkel een ADSL verbinding zou hebben dan heeft het inderdaad geen nut. Ik zit echter wat ruimte in de bandbreedte waardoor dat geen issues zijn, blijft de portomonnee natuurlijk over.
Maak gewoon reele plannen voor de komende 2-3 jaar, en schat daar je storage en cpuspeed op af, dan kun je over een paar jaar gewoon de hele mik vervangen door iets dat in zn geheel sneller is. een budget Dual core ga je echt nog jaaaaren mee vooruit kunnen iig.
Ik snap jullie punt wel. Een quad core is natuurlijk leuk en in de vorm (een flinke hoeveelheid threads) waarin ik hem zou gebruiken nog nuttig kunnenzijn ook. Na de prijsdaling in juli zou de aanschafprijs ook geen drempel meer zijn, maar wat ik belangrijke vind is het stroom verbruik. Dit is bij de C2D cpu's met de Conroe core een stuk lager (65 Watt).

Ik zeg zelf ook al "Als ik uberhaupt voor een Quad core zou gaan is niet voor de pariteit berekeningen maar voor de mogelijkheid om een aantal stevige gameservers thuis te draaien." waarmee ik in weze aangeef dit toch wel wat teveel van het goede is ;)


Naar aanleiding van de 500 / 750 GB kwestie heb ik wat zitten rekenen qua stroom verbruik, een aantal variabelen:

Verbruik per schijf (idle / active)
WD Caviar® SE16 (9.3 / 12.8)
SG Bar. 7200.10 (8.4 / 8.77)

Wanneer je een opslag ruimte van 5 TB zou hebben (11x 500 of 8 x 750) zou je met de 8x 750 slechts 20 Watt minder verbruiken op basis van idle verbruik. Per jaar zou je met de 750GB € 50, - aan stroom besparen ( uitgegaan van € 0,30 per KwH).

In mijn theorie zou ik nu een 3-tal dure schijven kopen en de array verder aanvullen wanneer de prijzen een betere prijsverhouding zouden hebben. Gezien het feit dat concurentie nog niet echt meekomt met de perpendiculaire techniek zou dit nog wel eens tegen kunnen vallen.

Kijkend naar het bovenstaande lijkt 500 GB meer voor de hand te liggen zoals hier in het topic ook veelvuldig wordt aangeraden. Als het dan toch groter moet kan een andere kast er toch nog wel van af...
Anoniem: 41852 schreef op dinsdag 29 mei 2007 @ 10:52:
Vergeet ook niet dat zeker bij Intel de bus (FSB) en de cache gedeeld is. Dus het is niet zo dat je 4 cores hebt die even snel kunnen. Gevolg is dat de 4x1 situatie niet meer opgaat; want al zou je 1 core gebruiken dan kan die de hele shared cache en geheugenbandbreedte (FSB) inpikken, waardoor gebruik van een 2e core dus geen verdubbeling van de capaciteit betekent.

Bij quadcore geldt dit natuurlijk nog sterker en vooral bij intel die snel even een quadcore uit de fabriek heeft laten rollen door wat laswerk. Zie ook de benchmark van t.net hierover:
reviews: Intel Core 2 Extreme QX6700 review
Deze benchmarks spitsen zich wel veel toe tot desktop gebruik wat ik persoonlijk vrij jammer vindt. Ik ben niet echt in staat een oordeel te vellen daar ik hier te weinig bekend ben met de diepgaande specificaties van de Quad core processoren :)

Ik heb op het werk mogen spelen met een Dual Quad core setup met 16GB ram en daar zat toch wel erg veel power in. Hierbij baal ik alleen weer van het feit dat ik geen tests hebben kunnen draaien waarbij ik een Dual DC vergelijk met een Dual QC.

[ Voor 21% gewijzigd door sPENKMAN op 29-05-2007 21:30 ]

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,
Ik hoop dat je me verder kunt helpen met de volgende vraag: Kan de MSI K9N Platinum met FreeNAS (en dus FreeBSD) overweg?
Zelf heb ik op de FreeBSD-site rondgeneusd, maar niets over dit moederbord kunnen vinden.
Het moederbord bezit 6 SATA 2 aansluitingen en geen actieve chipset-koeler, dus stil. jammer genoeg is het een AM2-bord, maar 939-borden met 6 of meer SATA aansluitingen worden erg zeldzaam.
Alvast bedankt.

Printerman

Acties:
  • 0 Henk 'm!

Anoniem: 41852

printerman schreef op vrijdag 01 juni 2007 @ 19:06:
Enlightenment,
Ik hoop dat je me verder kunt helpen met de volgende vraag: Kan de MSI K9N Platinum met FreeNAS (en dus FreeBSD) overweg?
Getuige deze pagina zou Serial ATA op dit bord moeten werken vanaf FreeBSD 6.1, en dus ook met FreeNAS. Onboard ethernet kan ik niets over vinden, alhoewel in FreeBSD -CURRENT (de ontwikkel versie) wel veel chips (PHYs) worden ondersteund die in 6.2 nog niet werken. Maar ik neem aan dat het je gaat om de 6 SATA poorten. Verder lijkt USB2 te werken en mja.. onboard audio enzo zal je denk ik niet veel interesseren.

Mooi bordje trouwens, hoe duur is 'ie? Socket AM2 was idd langzamer en iets duurder dus niet zo'n beste keus. Tegenwoordig is DDR2 geheugen stuk goedkoper dan DDR geheugen en is Socket 939 gewoon End Of Life, en met goedkoop DDR/800 geheugen (1GB voor 40 euro ofzo?) valt die performance-penalty ook wel mee. Geen reen om geen Socket AM2 meer te kiezen lijkt me. :)

Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,
Bedankt voor je reactie.
Het is inderdaad een mooi bord, misschien zelfs wel overkill voor een NAS. Het lijkt erop dat er geen eenvoudige moederborden zijn met 6 of meer SATA aansluitingen. Wat ik tot nu toe gevonden heb zijn allemaal high-end moederborden, maar ja wat moet je anders. De prijs is nog onbekend, want het is geen nieuwe. Pricewatch zegt dat een nieuwe vanaf 91 euro te koop is, maar ik laat het je weten zodra het bekend is.
De USB en geluidsmogelijkheden interesseren me niet. Ik ben van plan een CF naar IDE converter in te zetten met een CF-kaart voor het besturingssysteem en dan maximaal 6 Samsung 500GB schijven in Raid 5 natuurlijk.
Het enige dat ik nog niet begrijp uit een van je vorige bijdrages is de versies van FreeNAS. Jij zegt dat 0.68 stable is, maar volgens de website is deze in Beta. Of heb ik iets over het hoofd gezien.
Printerman

Acties:
  • 0 Henk 'm!

Anoniem: 41852

0.68 is stable, 0.68.4 is beta. Natuurlijk is het nog geen 1.0 release, dus in die zin is zelfs 0.68 niet af te noemen, maar op dit moment nog wel de meest stabiele versie. Let verder ook op dat de auteur met GPT op RAID5 bezig is in de beta's, wat zeker voor problemen kan zorgen en een expansion kan belemmeren.

Zelf heb ik een Asus K8N4-E Deluxe, een Socket 754 bordje met 8x SATA, werkt erg fijn. :)

Acties:
  • 0 Henk 'm!

Anoniem: 74530

@Enlightenment: Ik weet niet hoe ver je inmiddels met je handleiding staat, mischien wil je een beta-copy met me delen....ik wil nl graag aan mijn reeds in gebruik zijnde 3x500Gb geom-raid5 nu schijven toevoegen, zonder alles te wissen.....hoe krijg ik dat voor elkaar?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

@Obiwantje, sorry wist niet dat je op me wachtte *bloos*, is het goed als ik je mail? Kan ik het je uitleggen enzo, en script sturen natuurlijk. :)

Hm moet je wel je email vrijgeven of DM inschakelen. ;)

[ Voor 16% gewijzigd door Anoniem: 41852 op 02-06-2007 01:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 74530

@Enlightenment: Inmiddels zowel DM als email open gesteld :-)

Dank voor je hulp, heb inmiddels een hele stapel schijven klaarliggen om toe te voegen....!

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Anoniem: 41852 schreef op vrijdag 01 juni 2007 @ 21:33:
0.68 is stable, 0.68.4 is beta. Natuurlijk is het nog geen 1.0 release, dus in die zin is zelfs 0.68 niet af te noemen, maar op dit moment nog wel de meest stabiele versie. Let verder ook op dat de auteur met GPT op RAID5 bezig is in de beta's, wat zeker voor problemen kan zorgen en een expansion kan belemmeren.

Zelf heb ik een Asus K8N4-E Deluxe, een Socket 754 bordje met 8x SATA, werkt erg fijn. :)
Er is ook een nightly release 0.68.5 welke een NFS bug fixed uit 0.68.4. In 0.68.4 kan je nl. geen hosts toevoegen aan NFS. Dus je kan het nooit gebruiken.

Ik heb die versie zelf nu een week erop staan en merk geen verschil. Wel is het startmenu aangepast en heeft de ontwikkelaar een splashscreen erin gestopt.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • fv
  • Registratie: Augustus 2000
  • Laatst online: 09:26

fv

-------------------> hiero

@Enlightenment:

Ook ik wil graag je "graid5 capacity expansion procedure" uitproberen. :)

Indien je dit wil kan je deze naar meelboxs at xs4all.nl sturen...

Videoprojectie engineer, hardware & software development, ICT en veel meer. De meest nutteloze technische projecten zijn het leukst.


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Shuriken schreef op zaterdag 02 juni 2007 @ 09:51:
Er is ook een nightly release 0.68.5 welke een NFS bug fixed uit 0.68.4. In 0.68.4 kan je nl. geen hosts toevoegen aan NFS. Dus je kan het nooit gebruiken.
Als je die functie gebruikt dan heb je idd reden om een nightly te gebruiken, maar aangezien het hier wel gaat om jouw storage ben ik toch huiverig om een instabiele versie te gebruiken. Er zijn genoeg verhalen van dataverlies of arrayproblemen bekend omdat de auteur ging stoeien met GPT bijvoorbeeld. Dus als het nu goed werkt: niet zomaar upgraden. Als je upgrade, zorg dat je je data gebackupt hebt. En wees je goed bewust van de veranderingen en mogelijke problemen mbt je software RAID array.
Ik heb die versie zelf nu een week erop staan en merk geen verschil. Wel is het startmenu aangepast en heeft de ontwikkelaar een splashscreen erin gestopt.
Mja maar dat is de interface, terwijl dingen als GPT dus echt achter de schermen bevinden. Maar gaat iets mee mis dan heb je dus een niet-toegankelijke array en zie dat met een minimalistisch OS als FreeNAS maar eens te fixen via SSH. :P

Acties:
  • 0 Henk 'm!

Anoniem: 41852

fv schreef op zaterdag 02 juni 2007 @ 15:47:
@Enlightenment:

Ook ik wil graag je "graid5 capacity expansion procedure" uitproberen. :)
Hey dat is mooi! O+

Ik ben het mailtje nu aan het schrijven (met instructies). Wil nog even een klein testje doen in VMware en daarna verstuur ik hem. Maarja kan ook vanavond worden want lig hier heerlijk in de zon. 8)

Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,
Zoals beloofd de prijs van de MSI K9N Platinum: 50 euro gaat ie me kosten. Daar ben ik blij mij.
Ja, die Asus van je is erg leuk, maar helaas niet aan te komen. Ik heb op een tweedehands bordje geboden, maar nooit meer wat van gehoord. Vandaar mijn overstap naar een AM2 bord.

Voor de mensen die een kast met hot swappable SATA bays zochten: Kijk eens bij Cooler Master naar de iTower. Deze heeft 4 hotswap SATA bays aan boord en ziet er gelikt uit.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

50 euro? Gelijk doen. :)
Supermooi bordje voor die extreem lage prijs!

Wat betreft hot-swap: weet dat je OS dit ook moet ondersteunen! En dat hangt af van de drivers, het zou goed kunnen dat FreeBSD bijvoorbeeld geen hot-swap op nVidia MCP ondersteunt. Gevolg: na een 'detach' ziet FreeBSD dat er een disk weg is. Sluit je hem weer aan, ziet hij hem nog steeds niet. Je zult dan moeten rebooten om de schijf weer te kunnen zien.

[ Voor 25% gewijzigd door Anoniem: 41852 op 02-06-2007 17:58 ]


Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,

Is de zon inmiddels achter de wolken verdwenen? 8)

Ja, het bord is niet duur en daar ben ik blij mee.
Ik was zelf niet van plan de Cooler Master te kopen, omdat ik 6 drives wil gaan gebruiken. Alleen waren er anderen die wel hot swappable drive bays zochten. Vandaar mijn suggestie.

Nu nog iets verzinnen voor de backup van al die schijven en ik kan met een gerust hart gaan slapen.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

printerman schreef op zaterdag 02 juni 2007 @ 18:09:
Enlightenment,

Is de zon inmiddels achter de wolken verdwenen? 8)
Nee ik zit heerlijk met mn laptopje en milkshake in het zonnetje, met persoonlijke bediening natuurlijk. O+
Ja, het bord is niet duur en daar ben ik blij mee.
Ik was zelf niet van plan de Cooler Master te kopen, omdat ik 6 drives wil gaan gebruiken. Alleen waren er anderen die wel hot swappable drive bays zochten. Vandaar mijn suggestie.
Hm nou wat wel handig is, is als je een methode hebt om gemakklijk een fan op de schijven te zetten. Ik heb bijvoorbeeld een grote 120mm fan aan de voorkant waar normaal je CDROM enzo in zit, die al gelijk 4 schijven koelt dan. Dan beneden nog een fan en je hebt je schijfjes lekker koel. :)
Nu nog iets verzinnen voor de backup van al die schijven en ik kan met een gerust hart gaan slapen.
Daar heb ik zelf een nightly backup server voor, dus een 2e server zeg maar. In BIOS heb ik ingesteld dat hij op bepaalde tijd (3:00) aangaat en dan een backup trekt van de hoofdserver. Nadat dat is voltooid gaat hij weer uit. Hij is dus hooguit een uurtje aan. Aangezien hij alleen veranderde files echt downloadt hoeft hij dus niet elke keer terabytes te kopieren, dus valt de tijdsduur best mee. Dit kun je doen met rsync/rdist.

Acties:
  • 0 Henk 'm!

  • junkbuster
  • Registratie: November 2000
  • Laatst online: 11-06 16:59

junkbuster

Try 2 Hack Me...

LinuZZ schreef op dinsdag 29 mei 2007 @ 09:05:
is er iemand die mij iets kan vertellen mbt de performance in RAID 5 van een Nforce 570 controller? ik heb namelijk wat gestruind op internet, maar kom niet veel verder dan tomshardware en tweakers reviews over allerhande raid 5 kaarten. onboard laten ze daar ongemoeid
Om je een indruk te geven, ik heb in m'n linuxsysteem (Asus A8N-E, nForce4 controller, AMD X2 3800 proc) de volgende prestaties gemeten (met Bonnie++) op de (4) SATA-schijven:

Een enkele disk : read 70 MB/s write 62 MB/s.
RAID5 4 disks: read 148 MB/s, write 87 MB/s. Processorbelasting ca. 43%.

Dit betreft een RAID5-array van tweemaal 250 GB Maxtor Maxline III, plus tweemaal Samsung SpinPoint 500 GB (waarvan ca. (250 GB in een partitie werd gebruikt, die qua omvang matcht met de Maxtors).

Mijn indruk is dat de schrijfsnelheid in software raid5 op dit systeem wel toeneemt maar niet zo spectaculair. De leessnelheid neemt wel toe, maar een verwachte factor 3 (in het ideale geval, wat ik zou verwachten bij raid5-4 disks) haal je niet. Wel is het zo dat de lees- en schrijfsnelheid toeneemt naarmate je meer disks toevoegt vanwege het striping-effect.

N.B. Ik draai nu in RAID 01 (een stripe bovenop twee mirrorsets) en haal de volgende snelheden: read 140 MB/S, write 116 MB/s.

Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,

Dan heb je het beter als hier, want hier is de zon inmiddels achter de wolken verdwenen.
Helaas geen milkshake voor mij, maar wel verse aardbeien met ijs en slagroom als toetje. Ze waren overheerlijk :9

Ja, aan een backupserver had ik ook al gedacht. In eerste instantie dacht ik een grote usb-schijf te gebruiken, maar met uiteindeljk 2,5 TB netto opslagcapaciteit wordt dat wat lastig. Het vervelende is dat backup noodzakelijk is. Ik heb op werk al meerdere malen meegemaakt dat er een schijf kapot ging van een server met raid 5. Deze werd vervangen en tijdens het rebuilden ging er een tweede schijf kapot. Toen was het over met de pret. Dan maar een backup teruggezet. Verwonderlijk vond ik het overigens niet, want de schijven zijn zeer waarschijnlijk van dezelfde productiebatch geweest en die hebben over het algemeen dezelfde levensduur. De les die je daaruit leert is: Zorg voor een goede backup. Het is bittere noodzaak wil je niet zonder belangrijke gegevens komen te zitten. Dat geldt net zo goed voor bedrijven als onze eigen gegevens.

Zo, genoeg gefilosofeerd. Ik ga maar weer eens over een backupserver nadenken.

Acties:
  • 0 Henk 'm!

  • DrClaw
  • Registratie: November 2002
  • Laatst online: 06-06 18:07
tja. ik heb ook een thuisservertje, met daarin zo'n 11 harde schijven, waarvan er 4 op een areca 1210 geprikt zitten. het mobo is een A8N32-SLI Deluxe, met een AMD 64 3200+, en het draait een getweakte ubuntu.

dit is de bonnie++ output van het raid array:
code:
1
2
3
4
5
6
7
8
Version  1.03       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
xxxxxxxxx.xxxxxx 2G 45236  86 92723  36 42722  10 50321  82 155514  15 217.5   0
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  2624  99 +++++ +++ +++++ +++  2528  99 +++++ +++  9708 100


waarschijnlijk doe ik iets verkeerd ofzo, want de getallen van de vorige poster haal ik bv nooit. of ik kijk niet goed.

ook heb ik een gigabit netwerkje liggen, waar ik ooit van mem -> mem data heen en weer stuurde, en daar kwam uit dat de snelheid feitelijk tussen de 400 en 500 mbit lag, wat ik eigenlijk nog wel netjes vond. maar ook daar is misschien te optimaliseren, zodra ik weet hoe.

[ Voor 9% gewijzigd door DrClaw op 02-06-2007 20:01 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

junkbuster schreef op zaterdag 02 juni 2007 @ 19:21:
Om je een indruk te geven, ik heb in m'n linuxsysteem (Asus A8N-E, nForce4 controller, AMD X2 3800 proc) de volgende prestaties gemeten (met Bonnie++) op de (4) SATA-schijven:

Een enkele disk : read 70 MB/s write 62 MB/s.
RAID5 4 disks: read 148 MB/s, write 87 MB/s. Processorbelasting ca. 43%.
Je moet wel begrijpen dat je in Linux en BSD geen 'onboard RAID5' gebruikt. Het kan dus prima zijn dat je in linux prima snelheden op je RAID5 array krijgt maar in Windows slechte performance. Dit komt omdat onboard RAID niet bestaat, daarom wordt het ook fake RAID genoemd. De windows-drivers implementeren softwarematige RAID5. Het enige wat ze moeten weten is welke disks, welke stripesize etc. Die informatie wordt opgeslagen op de schijven zelf, die metainformatie wordt wel door de BIOS van de controller verzorgt. Het enige wat je controller in feite doet is de metainfo wegschrijven, een BIOS utility om alles in te stellen en bootstrap support. Meer niet.

Start je nou Linux/BSD op dan leest die de metainformatie uit en ziet "hey dit is een schijf die onderdeel is van een nVidia RAID5 array". Dan pakt het zijn eigen RAID5 implementatie en maakt er een RAID5 array van. Op performancegebied mag je dit dus niet vergelijken met de Windows drivers van je nVidia RAID5 array!
DrClaw schreef op zaterdag 02 juni 2007 @ 19:42:
tja. ik heb ook een thuisservertje, met daarin zo'n 11 harde schijven, waarvan er 4 op een areca 1210 geprikt zitten.

dit is de bonnie++ output van het raid array:
(..)
waarschijnlijk doe ik iets verkeerd ofzo, want de getallen van de vorige poster haal ik bv nooit.
Je hebt een gepatchde bonnie binary nodig die een cool-down periode inlast na elke benchmark run. Anders heb je het probleem dat bonnie direct na de putc-benchmark begint met de block write benchmark, en op dat moment zit je areca nog barstens vol schrijfopdrachten van de vorige benchmark.

Het benchmarken van dergelijke slimme controllers dient uiterst zorgvuldig te gebeuren, of je krijgt kunstmatig resultaten hoge of lage resultaten, die geen goed beeld geven van performance in real-world scenario's.
printerman schreef op zaterdag 02 juni 2007 @ 19:33:
Zo, genoeg gefilosofeerd. Ik ga maar weer eens over een backupserver nadenken.
Koop gelijk twee van die bordjes? :)
Dus alles dubbel, incl. schijfjes. 1e hoofdserver ander backup server over het netwerk met synchronisatiesoftware. Ben je in 1 keer klaar. :)

[ Voor 7% gewijzigd door Anoniem: 41852 op 02-06-2007 20:05 ]


Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Enlightenment,

Is een goede oplossing, maar wel een dure. Je bent nog vergeten in iedere server een extra netwerkkaart te plaatsen voor hun eigen backup netwerk :)

Daarbij weet ik niet of hij twee van die bordjes heeft. Tempting.

Acties:
  • 0 Henk 'm!

  • junkbuster
  • Registratie: November 2000
  • Laatst online: 11-06 16:59

junkbuster

Try 2 Hack Me...

DrClaw schreef op zaterdag 02 juni 2007 @ 19:42:
... snip ...
code:
1
2
3
4
5
6
7
8
Version  1.03       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
xxxxxxxxx.xxxxxx 2G 45236  86 92723  36 42722  10 50321  82 155514  15 217.5   0
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  2624  99 +++++ +++ +++++ +++  2528  99 +++++ +++  9708 100


waarschijnlijk doe ik iets verkeerd ofzo, want de getallen van de vorige poster haal ik bv nooit. of ik kijk niet goed.
Ik had de zgn. block read en block writes beschreven (sequential input/output getallen in Bonnie++), in jouw verhaal staat er 155 MB/s read en 92 MB/s writes (op de regel met de xxxxx). Dat lijkt wel redelijk met mijn linux software-raid5 (geen NVidia-raid!) overeen te komen hoor, tikkeltje sneller zelfs. Let wel dat dit soort metingen slechts indicaties zijn en dat meerdere metingen achter elkaar verschillende resultaten kunnen opleveren.

Om onduidelijkheid weg te halen: ik gebruik voor raid uitsluitend linux-software raid invullingen, geen hardware-ondersteunde systemen. De SATA-poorten op mijn mobo (Asus A8N-E) zitten zowieso niet aan een RAID-controller.

Edit: Ik gebruik Bonnie++ versie 1.93c (onder Gentoo Linux). Een voortborduursel op de 'originele' Bonnie geloof ik.

[ Voor 13% gewijzigd door junkbuster op 02-06-2007 20:46 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

printerman schreef op zaterdag 02 juni 2007 @ 20:18:
Enlightenment,

Is een goede oplossing, maar wel een dure. Je bent nog vergeten in iedere server een extra netwerkkaart te plaatsen voor hun eigen backup netwerk :)
Is dat nodig? Gewoon via de LAN toch? Neem aan dat het niet erg is dat je 's nachts wat bandbreedte mist.

Acties:
  • 0 Henk 'm!

  • LinuZZ
  • Registratie: Januari 2004
  • Laatst online: 05-07 21:33
junkbuster schreef op zaterdag 02 juni 2007 @ 19:21:
[...]

Om je een indruk te geven, ik heb in m'n linuxsysteem (Asus A8N-E, nForce4 controller, AMD X2 3800 proc) de volgende prestaties gemeten (met Bonnie++) op de (4) SATA-schijven:

Een enkele disk : read 70 MB/s write 62 MB/s.
RAID5 4 disks: read 148 MB/s, write 87 MB/s. Processorbelasting ca. 43%.

Dit betreft een RAID5-array van tweemaal 250 GB Maxtor Maxline III, plus tweemaal Samsung SpinPoint 500 GB (waarvan ca. (250 GB in een partitie werd gebruikt, die qua omvang matcht met de Maxtors).

Mijn indruk is dat de schrijfsnelheid in software raid5 op dit systeem wel toeneemt maar niet zo spectaculair. De leessnelheid neemt wel toe, maar een verwachte factor 3 (in het ideale geval, wat ik zou verwachten bij raid5-4 disks) haal je niet. Wel is het zo dat de lees- en schrijfsnelheid toeneemt naarmate je meer disks toevoegt vanwege het striping-effect.

N.B. Ik draai nu in RAID 01 (een stripe bovenop twee mirrorsets) en haal de volgende snelheden: read 140 MB/S, write 116 MB/s.
Bedankt voor je reactie, dit lijkt me kwa snelhied ruim voldoende voor mijn doel.

Enlightment, jij ook bedankt voor je inschatting,

ik heb mijn plannen een beetje gewijzigd en laat het moederbord nog even zitten omdat ik nog een P-m machine hebt staan met 4x320 GB welke ik na een aanschaf van extra schijven in RAID 5 zal plaatsen van mijn tx4310 controller. extra schijven zullen los komen.

enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk


Acties:
  • 0 Henk 'm!

  • Ibidem
  • Registratie: Oktober 2001
  • Laatst online: 30-06 21:06
Ook ik moet binnenkort geloven aan centrale opslag en twijfel tussen een aantal zaken. Ga ik de pc als extra werkstation gebruiken? Dus daarop grote rar sets downloaden, quickparren, uitpakken en wegschrijven. Wil ik dat handmatig doen? Of gebruik ik een Linux NZB oplossing als SABNZB?

Voor Quickpar is een flinke sloot geheugen nodig (meer dan 2 GB is aan te raden is mijn ervaring) i.c.m. een flinke verwerkingssnelheid van je HDD's (hardwarematige raid5 op een areca controller?) Plus een snelle cpu?

Ik heb wel wat hardware over... AMD X2 4600+ i.c.m. DFI bord en 2 GB geheugen Die kan deze klus wel klaren denk ik, alleen het moederbord is niet zo heel lekker denk ik. Altijd problemen mee (3e DFI al) plus dat ik al jaren problemen heb met hardware. Ligt vast aan de gebruiker :? Of is de stroom bij ons niet zo stabiel?

Kan iemand een advies geven over mijn situatie, wat handig is, snel en veel opslag heeft? Minimaal 2 TB aan vrije ruimte wil ik kunnen besteden. Ben niet thuis in de Linux materie, maar wil dat wel leren.

..::System Specs::..


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-07 20:48
Het is klaar als het klaar is, 1GB of 2GB. Uren/dagen aan het downloaden en dan vallen over die paar minuten die Quickpar nodig heeft :P
Ik ga denk ik voor de Linux-oplossing, ik heb al een servertje, die kan sabnzb er makkelijk bij hebben.

Iemand enig idee hoe ik bonnie++ oid op FreeNAS draai?
Ik heb een aantal servers, van dual xeon 2.4 via dual xeon 3.0 naar dual opteron 248 en dual core X64, maar ik mag in mijn handjes wringen als ik meer dan 20 mb/schijf haal :r
Van die dualcore FreeNAS weet ik het nog niet, maar die dual Xeon 2.4/400 met Areca en Maxtor 300GB schijven haalt maar 20mb/s lokaal, zowel met win2k3 als met Debian :( Eens kijken of de controller op een ander PCI-X slot helpt enzo. De opteron doet het niet veel beter, maar volgens mij (en een vriend van me, had dezelfde kaart) is de LSI Megaraid 300-8x gewoon zo brak als wat.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • printerman
  • Registratie: Juni 2000
  • Laatst online: 29-06 17:42
Anoniem: 41852 schreef op zaterdag 02 juni 2007 @ 20:45:
[...]

Is dat nodig? Gewoon via de LAN toch? Neem aan dat het niet erg is dat je 's nachts wat bandbreedte mist.
Enlightenment,

Nee het is niet nodig, maar als we toch uitgebreid aan het doen zijn met twee NAS-servers dan kunnen die twee extra netwerkkaarten er ook wel bij. Wel is het zo, dat ik 's avonds niet ga backuppen, omdat de machines in mijn slaapkamer staan en ik nogal slecht tegen herrie kan. Dus, helemaal onlogisch is het ook niet.

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

poehee, lekker topic :)

ik heb al een flinke fileserver hier, maar zo af en toe heb ik vreemde problemen, en aangezien de hardware toch aan vervanging toe is wil ik mijn server vernieuwen.
server staat trouwens nooit 24/7 aan (is nergens voor nodig)

qua hardware denk ik aan het volgende: (aanschaffen)
  • Gigabyte GA-M61P-S3 ATX, AM2 (Geforce6100/nForce430), 1x PATA, 4x SATA, RT8211 Gbit (volgens mij wordt alles wel ondersteund door freebsd 6.2)
  • Athlon X2 3800+ of hoger (low voltage, liefst wacht ik nog ff op de 45W versie)
  • 1 of meer GB ram (CL3 ofzo)
  • minstens 2x 500GB samsung HDD, dan kan ik de data gefaseerd omzetten naar non-NTFS
al in bezit:
  • Promise SATAII 150TX4 (PCI) voor 4x 300GB SATA
  • Promise Ultra133TX2 (PCI) voor 4x 200GB PATA
  • 2x 200GB voor onboard PATA controller
  • Chieftec Dragon Hightower met Tagan 480W PSU
qua software heeft dit topic mij erg verleid tot FreeBSD/FreeNAS maar ik zit met een paar dingen:
  1. het liefst wil ik van alle schijven samen 1 groot volume, ik dacht dat dit kon met LVM in linux, maar hoe zit dat dan met geom_raid5, ZFS e.d. ??
  2. die 6x 200GB PATA komt weer terug in de nieuwe server, maar moet op den duur wel vervangen kunnen worden voor sata schijven. dus ik moet in dat megavolume niet alleen schijven kunnen toevoegen, maar ze ook kunnen verwijderen zonder data loss
  3. 4 jaar geleden had ik op campzone erg goede ervaringen met XFS, had een slackware fileserver (celly 300 met een 3c905c) met een paar schijven XFS geformatteerd en gedeeld met samba. maar ik heb daarmee wel de hoogste up en down ooit gehaald op 100Mbit (11MB/s up EN 10MB/s down, tegelijkertijd dus). plus toen een schijf bad sectors kreeg heb ik na een ghost en een xfs_repair alle data terug kunnen halen (phew)
    XFS roeleert voor mij dus (ook al was de driver voor slackware toen ook al experimenteel) jammer dat FreeNAS het niet ondersteund. en hoe "experimenteel" is de FreeBSD driver?
  4. ZFS klinkt heeeel erg lekker, maar ik vraag me af hoe punt 2 dan werkt? en of dat kan natuurlijk.
  5. ik heb al 2.2TB aan data in NTFS, waarvan 1 RAID5 volume van 1TB (6x 200GB) Ik wil dus wel de data gefaseerd overzetten naar ZFS/XFS, en dát volume zou dus ook mee moeten schalen ivm punt 1
ik vraag me dus vooral af of ik 1 groot volume met geom_raid5/ZFS/XFS kan maken (met die rotzooi aan schijven dus ;) ) en dit later kan vergroten/verkleinen.

mijn linux kennis is niet zo heel groot, vooral SuSE/Slackware, maar als FreeBSD niet zo heel moeilijk schijnt te zijn wil ik dat wel wagen. Ik ben niet bang voor de commandline/ssh. Ik durf eigenlijk niet zo goed aan OpenSolaris (stabielere ZFS), vooral met de beoogde hardware.

als backup heb ik trouwens 3 vrienden, met elk ook ongeveer >2TB data en samen hebben we minstens alles wel 1x dubbel :z

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

  • fv
  • Registratie: Augustus 2000
  • Laatst online: 09:26

fv

-------------------> hiero

zyberteq schreef op maandag 04 juni 2007 @ 18:40:
poehee, lekker topic :)

ik heb al een flinke fileserver hier, maar zo af en toe heb ik vreemde problemen, en aangezien de hardware toch aan vervanging toe is wil ik mijn server vernieuwen.
server staat trouwens nooit 24/7 aan (is nergens voor nodig)

qua hardware denk ik aan het volgende: (aanschaffen)
  • Gigabyte GA-M61P-S3 ATX, AM2 (Geforce6100/nForce430), 1x PATA, 4x SATA, RT8211 Gbit (volgens mij wordt alles wel ondersteund door freebsd 6.2)
  • Athlon X2 3800+ of hoger (low voltage, liefst wacht ik nog ff op de 45W versie)
  • 1 of meer GB ram (CL3 ofzo)
  • minstens 2x 500GB samsung HDD, dan kan ik de data gefaseerd omzetten naar non-NTFS
(knip)
Heee, die Gigabyte lijkt mij ook wel wat. Het gaat erom of FreeNAS (FreeBSD) hiermee vlekkenloos overweg kan. Na wat Google vond ik dat FreeBSD 6.2-release geen driver heeft voor de RTL8211 en meer problemen...

Ik zoek namelijk een nieuwe mobo met de volgende eisen:

1) minimaal 3x PCI (voor extra PATA/SATA cards)
2) AM2 socket
3) onboard 1Gb LAN + VGA (of geen VGA maar dan wel 'headless' kunnen draaien)
4) volledige ondersteuning door FreeNAS (FreeBSD) (<--- lastig)

Is toch allemaal, blijkt, niet zo makkelijk...

[ Voor 0% gewijzigd door fv op 04-06-2007 21:12 . Reden: aanvulling ]

Videoprojectie engineer, hardware & software development, ICT en veel meer. De meest nutteloze technische projecten zijn het leukst.


Acties:
  • 0 Henk 'm!

  • junkbuster
  • Registratie: November 2000
  • Laatst online: 11-06 16:59

junkbuster

Try 2 Hack Me...

Iemand enig idee hoe ik bonnie++ oid op FreeNAS draai?
Wat dacht je van downloaden, compileren en starten? Ik zie op de site dat BSD ondersteund wordt, zou FreeNas (FreeBSD?) ook niet werken dan? http://www.coker.com.au/bonnie++/experimental/

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-07 20:48
FreeNAS is een hele kleine installatie, 30mb oid, met een webinterface en verder erg weinig. Ik heb echt geen idee hoe je daar een build environment inkrijgt enzo :P Ik heb verder ook niet zo gek veel zin om de hele installatie om zeep te helpen alleen maar om 1 klein benchmarkdingetje te draaien :S

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Paul Nieuwkamp schreef op maandag 04 juni 2007 @ 21:59:
FreeNAS is een hele kleine installatie, 30mb oid, met een webinterface en verder erg weinig. Ik heb echt geen idee hoe je daar een build environment inkrijgt enzo :P Ik heb verder ook niet zo gek veel zin om de hele installatie om zeep te helpen alleen maar om 1 klein benchmarkdingetje te draaien :S
Ik gok dat Enlightment wel een binary voor je heeft :P

Ik ken het 20-25 MB/s schrijf probleem met zowel Linux als W2k3. Dat had ik ook met mijn huidige schijven. Met geom_raid5 haal ik echter veel betere waarden. Via iscsi haal ik 50-60 MB/s schrijf. SMB is wat lager maar stabiel boven de 45 MB/s.

Mijn conclusie is dat de software raid implementatie van Freebsd veruit superieur is.

[ Voor 26% gewijzigd door Shuriken op 04-06-2007 22:15 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 03-07 22:02

C@SP

Biertje ??

Ik kan aan Seagate ES schijven komen voor dezelfde prijs als de Samsungs T166. Is dit de moeite waard?

Verder wil ik mijn My Documents laten verwijzen naar mijn toekomstige NAS, gaat dit goedkomen als ik NFS ga gebruiken?

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • multipasser
  • Registratie: Oktober 2001
  • Laatst online: 02-07 23:49

multipasser

Daftpunk Ownz Ya!

Anoniem: 41852 schreef op maandag 28 mei 2007 @ 23:39:
[...]

Netto bedoel je. :)

Maar voor nog minder geld zit je op 2,5 TB netto storage. Daarom de vraag: vind je dat niet gruwelijk zonde?


[...]

Met PATA erbij en een 4 poorts goedkope controller zit je op 8+4+4 = 16 disks. Genoeg uitbreidingsvermogen voor een enkele server dus. En wat kost een simpele fileserver nou? 30+50+20=100 euro zonder kast, zeg 150 all-in.

Ik ben dus bang dat je onder het mom van uitbreidingsmogelijkheid meer dan 200 euro over de balk smijt waarvoor je sowieso al een extra fileserver voor kunt kopen. Ik denk dat je je mogelijkheden nog maar eens op een rij moet zetten, voordat je dingen koopt met een significant lagere prijs-prestatie (of in dit geval prijs-capaciteit) verhouding.


[...]

Valt wel mee, zoveel schaalt een dualcore -> quadcore niet, daar heeft ook tweakers.net een review over gedaan. En dat is nog wel met multithreaded software; veel softwarematige RAID5 implementaties zijn single threaded. Ik vermoed dus dat quadcore niet veel sneller zal zijn dan dualcore, zeker in jouw situatie.
Vind wel dat als je 4+ schijven gaat steken. Je toch niet meer op software raid moet gaan werken.
Ten eerste heb je geen online expansie mogelijkheden (of betrouwbare mogelijkheden). En ineens 8 schijven kopen is ook kostelijk. Dus lijkt me een 8lane areca nog steeds beste oplossen. Gecombineerd in begin met 3x 500gb of 3x 750gb. Later kan je er nog 5 bijsteken.
Die kaart is snel, betrouwbaar en zal weinig problemen opleveren.

Een amiga 500 met 512 kb ram !


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Shuriken schreef op maandag 04 juni 2007 @ 22:10:
[...]

Ik gok dat Enlightment Enlightenment wel een binary voor je heeft :P
:P

Goed hier dan: http://www.fluffles.net/files/bonnie-6.2-i386

Of in FreeNAS via ssh inloggen, dan:
fetch http://www.fluffles.net/files/bonnie-6.2-i386
chmod 777 bonnie-6.2-i386
./bonnie-6.2-i386 -s 4096 -d /pad/naar/filesystem


Met dat laatste commando gebruik je 4GB testfile. Je moet het pad wel aanpassen naar waar je filesystem gemount is. Check met df -h welke mounts je allemaal hebt.
Mijn conclusie is dat de software raid implementatie van Freebsd veruit superieur is.
Woei! 8)
Paul Nieuwkamp schreef op maandag 04 juni 2007 @ 12:52:
maar ik mag in mijn handjes wringen als ik meer dan 20 mb/schijf haal :r
Over het netwerk of lokaal? Welke setup? Met name welk RAID level op welke schijven. En of er een rebuild gaande is of niet. Als je 20MB/s lokaal haalt doe je toch echt wat verkeerd, welk RAID level je (softwarematig) ook gebruikt. Alleen Windows RAID5 presteert het om onder die waardes te komen (en met moeite!) :P

Acties:
  • 0 Henk 'm!

Anoniem: 41852

multipasser schreef op maandag 04 juni 2007 @ 23:01:
Vind wel dat als je 4+ schijven gaat steken. Je toch niet meer op software raid moet gaan werken.
Ik draai hier met 10 schijven en anderen mensen 14 tot 16 schijven in RAID5. Softmarematig. :*)
Ten eerste heb je geen online expansie mogelijkheden (of betrouwbare mogelijkheden). En ineens 8 schijven kopen is ook kostelijk. Dus lijkt me een 8lane areca nog steeds beste oplossen. Gecombineerd in begin met 3x 500gb of 3x 750gb. Later kan je er nog 5 bijsteken.
Dus vanwege kosten en features zeg je. Goed laten we eerst de kosten eens uitrekenen:

Met Areca
3x500GB = 300 euro
1xAreca 8-poorts = 500 euro ?
Totaal: 800 euro (na uitbreiding 8 schijven: 1300 euro)

Zonder Areca
8x500GB = 800 euro

Conclusie: door gelijk de maximale aantal schijven te kopen die je wilt heb je:
1) geen expansion nodig
2) geld gespaard aan een dure controller waardoor je alles in 1 keer goed kunt kopen
3) uiteindelijk dus goedkoper uit (na uitbreiding is areca dus 500 euro duurder)
4) omdat je met Areca maar 3 schijfjes hebt in het begin dat is 900GB bruikbare ruimte in RAID5. Nu heb je voor hetzelfde geld gelijk 3,2TB bruikbare ruimte in RAID5.

Dus qua kosten pakt jouw Areca oplossing het meest slechte uit. En door het gelijk goed te doen heb je ook geen zorgen meer om expansion. Dus ik zou zeggen: als performance niet belangrijk is (gaat immers toch over ethernet) dan is een Areca controller zonde van je geld.

Acties:
  • 0 Henk 'm!

  • Quadro!
  • Registratie: Maart 2004
  • Laatst online: 13:40
Tekn0z schreef op maandag 04 juni 2007 @ 12:41:
Ook ik moet binnenkort geloven aan centrale opslag en twijfel tussen een aantal zaken. Ga ik de pc als extra werkstation gebruiken? Dus daarop grote rar sets downloaden, quickparren, uitpakken en wegschrijven. Wil ik dat handmatig doen? Of gebruik ik een Linux NZB oplossing als SABNZB?

Voor Quickpar is een flinke sloot geheugen nodig (meer dan 2 GB is aan te raden is mijn ervaring) i.c.m. een flinke verwerkingssnelheid van je HDD's (hardwarematige raid5 op een areca controller?) Plus een snelle cpu?
...
Ik zou gewoon voor een all-in-one oplossing als SABnzbd gaan; waarom moeilijk doen als het ook makkelijk kan? Daarnaast is Quickpar misschien wel zwaar, maar ik heb het een hele tijd op een servertje met 512MB gebruikt en die deed dat meer dan prima. 2GB puur voor Quickpar is wellicht overkill, bovendien gaat het bij applicaties zoals winrar, quickpar enz. voornamelijk om de snelheid van het geheugen.

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

Ik zit toch ff verder te kijken naar andere moederborden...
maar hoewel het aanbod voor AM2 Athlons groot genoeg is, is dat vooral met de NForce 5x0 chipsets, waarbij de nforce 570 vaak 6x SATAII onboard heeft :9 ik zit dan te denken aan bordjes als de:
Gigabyte GA-M57SLI-S4 en de
MSI K9N Platinum
die msi heeft vitesse VSC8601 gbit lan, maar volgens mij is dat gewoon een realtek chip, en anders kan ik altijd nog die intel kaart halen ;)

maar ik kan niet echt duidelijk vinden of FreeBSD de nforce570 sata ondersteund
(de HCL van FreeBSD 6.2 laat namelijk wel nforce4 zien, maar niet voor sata :S, en ik heb nog geen HCL voor 7.0 gevonden)
weet iemand dit?

[ Voor 7% gewijzigd door zyberteq op 05-06-2007 22:37 ]

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

MCP51 van nVidia wordt ondersteunt in FreeBSD 6.2, dus ja dat zou moeten werken. Ergens terug had ik een link met ook een nForce 5xx chipset van Gigabyte, waarop ieamand bootte van de SATA schijf.

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

bedankt :)
en ik heb die reply van je gevonden, gaat zelfs precies om die MSI K9N Platinum, maar ik ga toch voor de MSI K9N SLI ivm iets meer PCI-e sloten, en voor iets meer dan 70 euro is het een goede prijs voor zijn features. en voor de rest is het gewoon hetzelfde bord als die platinum.

nu maar hopen dat de 45W Athlon X2's snel beschikbaar zijn.
nog weer net iets zuiniger dan de huidige 65W van de meeste athlons :)

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Hm weet wel dat die TDP in feite geen ruk uitmaakt. Die haal je onder volle belasting hooguit. Wat echt belangrijk is, is hoeveel energie hij slurpt wanneer hij idle is, al dan niet met gebruik van Cool'N'Quiet (ook ondersteund door FreeBSD via cpufreq(4) driver). Je fileserver zit namelijk niet continu tegen de 100% CPU aan.

Zeker voor 24/7 systemen zou je moeten rekenen op 98% idle en 2% stressed, of iets in die richting. Als je CPU dan 6W idle doet en 50W stressed is dat beter dan 9W idle en 35W stressed.

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

true, erg true, maar mijn server staat toch geen 24/7 aan, (lijkt er niet eens op) en als ie aan staat dan gebruik ik em ook echt. mijn gedachtegang is meer dat ik weet dat ie max 45W gebruikt (ongeveer) en dat ik dus wat meer ruimte overhoud op mijn voeding, (Tagan 480W) en ik hang er sowieso al 14 schijven aan.
nu weet ik dat die voeding dat aan kan, want dat hangt er nu ook aan. (14 maxtors) maar dat is wel met een Athlon XP-Mobile 2200+ (weet niet wat daar de TDP van is, maar erg weinig iig)
volgens mijn UPS heb ik 23% belasting van de 1400VA, wat ongeveer 200W is dacht ik (ben nu niet thuis dus doe dat uit mijn hoofd)

het gaat er mij vooral om dat de voeding het trekt namelijk en dan is minder verbruik voor mij meer zekerheid. ik heb namelijk al eens wat HD's verloren dankzij een te zwakke voeding (en slechte connectoren)

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Oke daar heb je zeker een punt. VA kun je trouwens in principe zien als Watt, mits je een Active PFC voeding hebt. Die heeft dan een power factor van 0.99, bijna 1.00.

W = V x A x PowerFactor, als ik het goed heb. :)

Bij een normale Passive PFC voeding heb je een power factor van 0.70 of iets in die richting, dan kun je met een 1400VA UPS slechts 980W vermogen trekken. Overigens vind ik 480W wel erg matig voor 14 schijven. Aangenomen van 30W spin-up current is dat dus 14 * 30 = 420W, blijft er weinig over voor de rest. Nu kan een voeding vaak wel even iets meer stroom leveren (peak current) maar het is vaak de beveiliging die roet in het eten gooit. Op het electronicaforum vind je trouwens "doe-het-zelf" staggered spinup oplossingen. :)

[ Voor 33% gewijzigd door Anoniem: 41852 op 06-06-2007 11:33 ]


Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
Anoniem: 41852 schreef op woensdag 06 juni 2007 @ 10:53:
Hm weet wel dat die TDP in feite geen ruk uitmaakt. Die haal je onder volle belasting hooguit. Wat echt belangrijk is, is hoeveel energie hij slurpt wanneer hij idle is, al dan niet met gebruik van Cool'N'Quiet (ook ondersteund door FreeBSD via cpufreq(4) driver). Je fileserver zit namelijk niet continu tegen de 100% CPU aan.
Dat kan allemaal wel zijn, maar het is zeer aannemelijk dat een processor met een lagere TDP in het algemeen minder gebruikt (ook idle) dan een processor met een hogere TDP. In ieder geval niet meer :)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Twynn schreef op woensdag 06 juni 2007 @ 11:32:
[...]


Dat kan allemaal wel zijn, maar het is zeer aannemelijk dat een processor met een lagere TDP in het algemeen minder gebruikt (ook idle) dan een processor met een hogere TDP. In ieder geval niet meer :)
Toch niet altijd. Neem nou Core 2 Duo versus Athlon 64:

Athlon 64: idle 7W, load 69W
Core2Duo: idle 29W, load 55W
(even uit mn hoofd)

Core2Duo heeft een lagere TDP dan de Athlon 64 X2 (90nm) maar toch is de laatstgenoemde zuiniger in de praktijk vanwege het lage energieverbruik in idle toestand. Maargoed nu gaat het om een nieuwer model van AMD, waarbij je inderdaad aan mag nemen dat het idle verbruik of lager ligt of gelijk blijft. Ik vermoed dat hij gelijk blijft; zelf zou ik het liefst willen dat een processor rond de 2W verbruikt als hij idle is. Dat hij dan bij pieken eens een keer 100W gebruikt is dan helemaal niet zo boeiend. In principe is het gemiddelde energieverbruik belangrijk. Met uitzondering dan van overwegingen met de voeding zoals bij zyberteq natuurlijk. :)

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

Anoniem: 41852 schreef op woensdag 06 juni 2007 @ 11:30:
...Overigens vind ik 480W wel erg matig voor 14 schijven. Aangenomen van 30W spin-up current is dat dus 14 * 30 = 420W, blijft er weinig over voor de rest.
ben ik het wel mee eens, maar ik merk tot nog toe niets vreemds.
ik zal binnenkort eens die server stressen (dus veel netwerk en disk-activiteit genereren) en dan de 12V en 5V waardes in de gaten houden.
ik heb uit ervaring geleerd dat dat wel een goede maatstaf is, als 1 van die 2 lijnen te laag komt (regelmatig) dan is de voeding te zwak. (daarom heb ik 2jr terug ook de standaard Chieftec 360W psu vervangen voor de huidige 480W psu)
...Op het electronicaforum vind je trouwens "doe-het-zelf" staggered spinup oplossingen. :)
ik zal eens zoeken. al ben ik absoluut geen held in elektronica DHZ ;)

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
ik bedoelde natuurlijk wel in dezelfde serie.. (dus core2duo met core2duo en x2 met x2 vergelijken!)

Verder is wat intel onder tdp verstaat iets heel anders als wat amd eronder verstaat. 't blijft dus appels met peren vergelijken.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 41852 schreef op dinsdag 05 juni 2007 @ 01:31:Goed hier dan: http://www.fluffles.net/files/bonnie-6.2-i386

Of in FreeNAS via ssh inloggen, dan:
fetch http://www.fluffles.net/files/bonnie-6.2-i386
chmod 777 bonnie-6.2-i386
./bonnie-6.2-i386 -s 4096 -d /pad/naar/filesystem


Met dat laatste commando gebruik je 4GB testfile. Je moet het pad wel aanpassen naar waar je filesystem gemount is. Check met df -h welke mounts je allemaal hebt.
Ehm... is dat bonnie ding niet gewoon uit de ports te compilen desnoods via Linux Emulatie ?!?!

Als ik 1 ding geleerd heb met FreeBSD is het wel dat de ports heilig zijn en je daarmee niet moet prutsen. VOORAL NIET dingen direct van het internet downloaden en installeren |:( Dat was echt een grote OOPS :$

We hebben het hier weliswaar vooral over FreeNAS, maar het is allemaal FreeBSD wat mij betreft :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 01:18

heuveltje

KoelkastFilosoof

Anoniem: 41852 schreef op woensdag 06 juni 2007 @ 11:30:
Overigens vind ik 480W wel erg matig voor 14 schijven. Aangenomen van 30W spin-up current is dat dus 14 * 30 = 420W, blijft er weinig over voor de rest. Nu kan een voeding vaak wel even iets meer stroom leveren (peak current) maar het is vaak de beveiliging die roet in het eten gooit. Op het electronicaforum vind je trouwens "doe-het-zelf" staggered spinup oplossingen. :)
Denk dat je een beetje te hoog zit met je 30W.
IIg heeft mijn 380W voeding totaal geen problemen om 16 schijven op te spinnen.
Verder duurt opspinnen zelf maar een seconde of 4. te kort om echte problemen te veroorzaken lijkt me.

[ Voor 38% gewijzigd door heuveltje op 06-06-2007 13:33 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 13:33
Zo ik heb hem draaiend *O* .

specs:

-codegen behuizing (niet super kwaliteit maar het kan er mee door)
-Igreen 430watt voeding
-asus m2n-sli deluxe moederbord (dit vanwege de 6sata poorten op de southbridge)
-2x512 mb ddr2 667 geheugen.
-amd x2 3800+
-geforce 7300gt vga kaartje
-nec dvd fikker (ook sata)
-samsung 80gig hd (systeem schijf)
-3x samsung 500gig hd (opslag)

Dit alles draait onder winxp sp2 met de raid hack. De 3 500gig schijven draaien in software raid5.

Na een paar aanloop probleempjes draait het nu prima :) . Alleen nog een gigabit switch kopen, want 100mbit schiet niet echt op.

Als laatste nog 2 fototjes van het systeem.

Afbeeldingslocatie: http://members.home.nl/freekjb/nas1.JPG

Afbeeldingslocatie: http://members.home.nl/freekjb/nas2.JPG

Acties:
  • 0 Henk 'm!

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
heuveltje schreef op woensdag 06 juni 2007 @ 13:32:
[...]


Denk dat je een beetje te hoog zit met je 30W.
IIg heeft mijn 380W voeding totaal geen problemen om 16 schijven op te spinnen.
Verder duurt opspinnen zelf maar een seconde of 4. te kort om echte problemen te veroorzaken lijkt me.
Dat denk ik ook. Ik heb 11 schijven gehad op een 360W Asus voeding. En dat is nooit een probleem geweest...

iRacing Profiel


Acties:
  • 0 Henk 'm!

Anoniem: 41852

heuveltje schreef op woensdag 06 juni 2007 @ 13:32:
[...]


Denk dat je een beetje te hoog zit met je 30W.
Hm nou toch niet altijd:

Seagate 7200.10 zegt 2.8A
Samsung T166 zegt 2.4A

Nu ga ik er vanuit dat dit op +12V slaat, waarbij 2.8A * 12V = 33,6W. En als ik deze lijst (scroll naar beneden) zo bekijk zitten ze bijna allemaal rond en boven de 30W, Samsung en Hitachi als afwijkende.
IIg heeft mijn 380W voeding totaal geen problemen om 16 schijven op te spinnen.
Verder duurt opspinnen zelf maar een seconde of 4. te kort om echte problemen te veroorzaken lijkt me.
Nouja dat is niet helemaal waar, aangezien ik zelf meerdere malen een sterkere voeding nodig had omdat mijn NAS uitviel tijdens het booten (de beveiliging van de voeding vindt het te gortig worden). Eenmaal geboot is het verbruik 129W met alle schijven draaiende. Misschien heeft jouw 380W voeding wel geen beveiliging maar trekt hij het in de piek nog net wel? Het is vooral de beveiliging van een moderne voeding die je begrenst, niet de capaciteiten van het ding zelf.
nero355 schreef op woensdag 06 juni 2007 @ 13:24:
Ehm... is dat bonnie ding niet gewoon uit de ports te compilen desnoods via Linux Emulatie ?!?!
Ports, Linux emulatie? We hebben het over FreeNAS toch? Daar heb je geeneens een "grep" laat staan een build-omgeving. Het hele OS is 30MB met Apache, PHP, Samba en de hele kinderclub, dan blijft er echt weinig over voor dingen waar het OS toch niet voor gemaakt is. Wel jammer, ik zou namelijk ook wel een FreeNAS willen die wel een 'complete' FreeBSD installatie is.
Als ik 1 ding geleerd heb met FreeBSD is het wel dat de ports heilig zijn en je daarmee niet moet prutsen. VOORAL NIET dingen direct van het internet downloaden en installeren |:( Dat was echt een grote OOPS :$
Bij X.org zou ik dat niet doen nee, maar voor een enkele binary hoef je echt niet te vrezen hoor. :)
In feite installeer je niks. Het is net als in windows een .exe draaien die geen installatie nodig heeft, zoals putty.exe.

Acties:
  • 0 Henk 'm!

  • kmf
  • Registratie: November 2000
  • Niet online

kmf

OK. na veel nagelezen te hebben ben ik ook van plan om mijn huidige server te vervangen door een RAID5-server
Deze server is vooral bedoeld voor opslag, schrijf en leessnelheid zijn niet van belang.

Omdat ik de server ook gebruikt om te ontwikkelen en te testen moet het een ubuntu server zijn.

Ik heb dit al gevonden: http://bfish.xaedalus.net/?p=188 om raid5 op ubunte mogelijk te maken.
Alleen vraag ik me af, als ik van plan ben om de OS te vervangen door een andere distributie of gewoon door de OS opnieuw te installeren of gewoon up te graden, moet ik dan oppassen dat ik de RAID5-array kwijt ben? Oftewel, de parity zit wel in de array verdeeld, maar kan elk OS daar mee om, of alleen de OS die het geinstalleerd had?

One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp


Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
tilde schreef op woensdag 06 juni 2007 @ 15:50:
specs:

-asus m2n-sli deluxe moederbord (dit vanwege de 6sata poorten op de southbridge)
-2x512 mb ddr2 667 geheugen.
-amd x2 3800+
-3x samsung 500gig hd (opslag)
*knipper de knip*

Ben je toevallig in de gelegenheid om het stroom verbruik van jouw setup te meten? Ik ben er wel erg nieuwschierig naar namelijk _/-\o_

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

  • Unicron
  • Registratie: November 2001
  • Laatst online: 05-07 20:47
even een vraagje voor diegene met veel NAS kennis: Is de raid performance van FreeBSD ook beter dan Linux (Ubuntu) als je gebruik maakt van een hardware raid oplossing van Areca?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Unicron schreef op woensdag 06 juni 2007 @ 22:07:
even een vraagje voor diegene met veel NAS kennis: Is de raid performance van FreeBSD ook beter dan Linux (Ubuntu) als je gebruik maakt van een hardware raid oplossing van Areca?
Dat zou niet uit mogen maken. Maar NAS houdt in dat je via het netwerk werkt, en dan biedt een Areca geen snelheidsvoordeel boven een softwarematige oplossing.

[ Voor 4% gewijzigd door Anoniem: 41852 op 06-06-2007 23:38 ]


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 13:33
sPENKMAN schreef op woensdag 06 juni 2007 @ 21:59:
[...]


*knipper de knip*

Ben je toevallig in de gelegenheid om het stroom verbruik van jouw setup te meten? Ik ben er wel erg nieuwschierig naar namelijk _/-\o_
Helaas niet. Ik heb het systeem niet echt gebouwd met een zo laag mogelijk stroomverbruik in gedachten. Hij staat dan ook alleen aan als het nodig is ;) .

Acties:
  • 0 Henk 'm!

Anoniem: 41852

kmf schreef op woensdag 06 juni 2007 @ 20:40:
Deze server is vooral bedoeld voor opslag, schrijf en leessnelheid zijn niet van belang.
Ik weet niet hoeveel gegevens je wilt opslaan, maar bij multiterabyte systemen is het vaak wel vervelend als je met maar 10MB/s gegevens kunt transporteren. 50MB/s is al een stuk lekkerder. Tenzij je het niet echt als een NAS gebruikt natuurlijk.
Ik heb dit al gevonden: http://bfish.xaedalus.net/?p=188 om raid5 op ubunte mogelijk te maken.
Alleen vraag ik me af, als ik van plan ben om de OS te vervangen door een andere distributie of gewoon door de OS opnieuw te installeren of gewoon up te graden, moet ik dan oppassen dat ik de RAID5-array kwijt ben? Oftewel, de parity zit wel in de array verdeeld, maar kan elk OS daar mee om, of alleen de OS die het geinstalleerd had?
Nee niet elk OS kan daar mee om, alleen de RAID implementatie die de array heeft aangemaakt (linux's md RAID5) kan ermee werken. Wel zou het niet moeten uitmaken of je Debian of Ubuntu draait, zolang je maar geen oudere versie van Linux's md RAID5 gebruikt, dat zou nog problemen kunnen geven. Ubuntu upgraden zou dus ook zonder problemen moeten kunnen, maar gooi je er windows of FreeBSD op dan kunnen die je array natuurlijk niet lezen.

Acties:
  • 0 Henk 'm!

  • kmf
  • Registratie: November 2000
  • Niet online

kmf

Anoniem: 41852 schreef op vrijdag 08 juni 2007 @ 17:58:
[...]

Ik weet niet hoeveel gegevens je wilt opslaan, maar bij multiterabyte systemen is het vaak wel vervelend als je met maar 10MB/s gegevens kunt transporteren. 50MB/s is al een stuk lekkerder. Tenzij je het niet echt als een NAS gebruikt natuurlijk.
Het komt te hangen aan een Gigabit-netwerk, maar pure throughput gaat maar naar 1 workstation.
Het verplaatsen van dingen is wel handig.
[...]

Nee niet elk OS kan daar mee om, alleen de RAID implementatie die de array heeft aangemaakt (linux's md RAID5) kan ermee werken. Wel zou het niet moeten uitmaken of je Debian of Ubuntu draait, zolang je maar geen oudere versie van Linux's md RAID5 gebruikt, dat zou nog problemen kunnen geven. Ubuntu upgraden zou dus ook zonder problemen moeten kunnen, maar gooi je er windows of FreeBSD op dan kunnen die je array natuurlijk niet lezen.
Dan maar gewoon een image HDD maken met de OS, just to be sure :)
Data blijven dus op raid-array, maar downloads en andere dingen die gaan in eerste instantie op de aparte OS-disk.
Het wordt dus een 320GB HDD voor OS en temp stuff, en de rest in data-array

One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp


Acties:
  • 0 Henk 'm!

Anoniem: 41852

zyberteq schreef op maandag 04 juni 2007 @ 18:40:
al in bezit:
  • Promise SATAII 150TX4 (PCI) voor 4x 300GB SATA
  • Promise Ultra133TX2 (PCI) voor 4x 200GB PATA
  • 2x 200GB voor onboard PATA controller
Hou er rekening mee dat je die PCI controllers het beste niet kunt gebruiken maar juist je onboard aansluitingen.
het liefst wil ik van alle schijven samen 1 groot volume, ik dacht dat dit kon met LVM in linux, maar hoe zit dat dan met geom_raid5, ZFS e.d. ??
Met alle RAID-systemen krijg je een volume, het is aan jou of je daar nog partities op aanbrengt of niet, maar in principe gedraagt het zich dus als 1 grote schijf. ZFS is zowel RAID-subsystem als Filesystem, maar werkt met een shared storage pool, dat wil zeggen: je kunt wel meerdere 'filesystems' maken maar die delen dezelfde vrije ruimte uit een 'pool'. Dat is zoiets als we drinken allemaal ons water uit 1 groot meer, zodat het niet hier op is en daar nog in overvloedde. Gebruik je geom_raid5, dan kun je gewoon 1 grote partitie maken (met ZFS of UFS, naar jouw keus).
die 6x 200GB PATA komt weer terug in de nieuwe server, maar moet op den duur wel vervangen kunnen worden voor sata schijven. dus ik moet in dat megavolume niet alleen schijven kunnen toevoegen, maar ze ook kunnen verwijderen zonder data loss
Je kunt je array niet shrinken. Dat is: je kunt niet zomaar een schijf uit een array halen. Je kunt wel de ene schijf voor de andere vervangen. Maar je kunt dus niet terug van 4 schijven naar 3, bijvoorbeeld. Zowel software als hardware RAID kennen deze beperking, alhoewel het theoretisch wel mogelijk zou zijn, is het ingewikkeld en weinig vraag naar.
XFS roeleert voor mij dus (ook al was de driver voor slackware toen ook al experimenteel) jammer dat FreeNAS het niet ondersteund. en hoe "experimenteel" is de FreeBSD driver?
XFS is een filesystem, FreeNAS gebruikt gewoon UFS, een filesystem dat al tientallen jaren op de meest kritieke productieservers draait. Dat gezegd, is UFS wel erg oldschool en biedt niet de stoere features van moderne filesystemen, zoals XFS en met name ZFS.

[quote]ZFS klinkt heeeel erg lekker, maar ik vraag me af hoe punt 2 dan werkt? en of dat kan natuurlijk.[/li]
Ook in ZFS kun je schijven vervangen met het 'replace' commando.
ik heb al 2.2TB aan data in NTFS, waarvan 1 RAID5 volume van 1TB (6x 200GB) Ik wil dus wel de data gefaseerd overzetten naar ZFS/XFS, en dát volume zou dus ook mee moeten schalen ivm punt 1
Ik snap je niet helemaal? Je hebt 6x200GB in je oude server zitten, je nieuwe server moet dan wel nieuwe/andere schijven hebben natuurlijk. Je kunt niet een windows RAID5 volume met NTFS 'converteren' in een linux/BSD oplossing.
ik vraag me dus vooral af of ik 1 groot volume met geom_raid5/ZFS/XFS kan maken (met die rotzooi aan schijven dus ;) ) en dit later kan vergroten/verkleinen.
Verkleinen kan nooit. Vergroten dus wel, mits ondersteund. ZFS ondersteund dit, XFS weet ik niet. geom_raid5 heeft experimentele expansion die eerst nog goed getest moet worden. UFS heeft expansion (growfs). Dus opzich zit je wel goed denk ik.
mijn linux kennis is niet zo heel groot, vooral SuSE/Slackware, maar als FreeBSD niet zo heel moeilijk schijnt te zijn wil ik dat wel wagen. Ik ben niet bang voor de commandline/ssh. Ik durf eigenlijk niet zo goed aan OpenSolaris (stabielere ZFS), vooral met de beoogde hardware.

als backup heb ik trouwens 3 vrienden, met elk ook ongeveer >2TB data en samen hebben we minstens alles wel 1x dubbel :z
Oke dat is een goede oplossing. Zorg wel dat je regelmatig synct. :)

En FreeBSD is niet zo heel moeilijk, niet moeilijker dan Linux iig. Wil je ook graag helpen hier of via mail, of zelf inloggen op ssh als je er niet uitkomt. Met 'watch' kun je meekijken dan. :P

Hoop dat je wat aan deze antwoorden hebt.

Acties:
  • 0 Henk 'm!

Anoniem: 39949

is er een manier om data naar een tapestreamer te schrijven in FreeNAS?

ik zou zoiets verwachten
code:
1
find / -depth -print | cpio -opties /dev/st0

maar helaas geen sigaar voor Henkie

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Ik zit nog met een klein probleempje. Volgens mij schakeld de CPU niet terug in snelheid d.m.v. CnQ.

Als ik kijk in de webinterface staat ie steeds op 1808 Mhz. Je zou toch verwachten dat ie op een gegeven moment naar de 900 Mhz zou zakken.

Ik heb de Power Daemon al aangezet onder advanced, maar dat maakt geen zichtbaar verschil. In bios staat CnQ uiteraard aan.

Edit:
Nevermind....kennelijk geeft de webinterface de boel niet goed weer. Als ik een
code:
1
 sysctl -a |grep cpu
doe dan is de dev.cpu.0.freq 1000

Ik zit qua stroom verbruik op 57 Watt idle.....Na wat meer aanpassing m.b.t. apm zit ik nu op 44.6 Watt idle.

[ Voor 26% gewijzigd door Shuriken op 10-06-2007 20:25 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Met welke hardware Shuriken? Weet ook dat je voeding bottleneck kan zijn; die hebben vaak een minimum verbruik van 40W en bij lage belasting kennen ze een minder goede efficientie dan op 70% belasting. Dus met een 500W voeding de 40W idle halen kan wel eens lastig zijn.

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Anoniem: 41852 schreef op zondag 10 juni 2007 @ 20:36:
Met welke hardware Shuriken? Weet ook dat je voeding bottleneck kan zijn; die hebben vaak een minimum verbruik van 40W en bij lage belasting kennen ze een minder goede efficientie dan op 70% belasting. Dus met een 500W voeding de 40W idle halen kan wel eens lastig zijn.
  • Moederbord: Asus A8N-VM CSM, GeForce 6150 (mATX, PCI-e, Sound, G-LAN, SATA II, VGA)
  • Processor: AMD Athlon 64 3000+ Venice (S939, 1.8GHz, 512KB, 400MHz Bus, 67W)
  • Koeler: Silverstone SST-NT06 (Socket 478/479/775/754/939/940)
  • Geheugen: 2 x 512MB PC3200 DDR (Infineon Original)
  • Schijven: 3 x Hitachi Deskstar 7K250, 120GB (7200rpm, SATA, 8MB)
  • Behuizing: Silverstone SG-01 Evolution (mATX, Geen PSU, Zwart)
  • Voeding: Silverstone ST50EF+, 500W (ATX12V 2.2, Short Cable, 80 Plus)
  • Drive Cage: Chieftec SNT-2131SATA Harddisk Rack
  • NIC:Intel Pro 1000 MT PCI
  • Boot Device: El Cheapo USB stick
Dus ja een 500 Watt voeding...maar wel 80+.

Ik denk echter dat je niet veel lager gaat komen als 44 Watt met een dergelijke opstelling.

[ Voor 3% gewijzigd door Shuriken op 10-06-2007 21:34 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Voor die hardware is 57W idle heel mooi lijkt me. Met een 500W voeding kun je op 350 tot 400W belasting idd op >80% efficiency rekenen, maar de efficiency kan ernstig zakken bij iets als 40W verbruik. Stel de efficiency is dan nog maar 61%, dan zit je op 40 * (100/61) = 65,6W netto verbruik aan het stopcontact.

Sommige voedingen doen het nog heel aardig bij laag verbruik met een efficiency van 79% terwijl bij modale belasting de efficiency rond de 84% zit. Maar geen enkele voeding kan, naar mijn weten, 85% efficiency halen op slechts 10% van het maximale vermogen.

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Anoniem: 41852 schreef op zondag 10 juni 2007 @ 22:07:
Voor die hardware is 57W idle heel mooi lijkt me. Met een 500W voeding kun je op 350 tot 400W belasting idd op >80% efficiency rekenen, maar de efficiency kan ernstig zakken bij iets als 40W verbruik. Stel de efficiency is dan nog maar 61%, dan zit je op 40 * (100/61) = 65,6W netto verbruik aan het stopcontact.

Sommige voedingen doen het nog heel aardig bij laag verbruik met een efficiency van 79% terwijl bij modale belasting de efficiency rond de 84% zit. Maar geen enkele voeding kan, naar mijn weten, 85% efficiency halen op slechts 10% van het maximale vermogen.
57 Idle was zonder harddisk standby. Zit nu met harddisk standby op 44.6 Watt. Het probleem met 80 plus voedingen is dat ze onder de 400 Watt bijna niet te krijgen zijn. Voor mij opstelling zou 300 Watt wel genoeg zijn. Deze voeding schijnt tussen de 73 en de 78 % te doen bij huidige belasting.

[ Voor 12% gewijzigd door Shuriken op 10-06-2007 22:32 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Nouja met 44,6W op het stopcontact in sleep mode mag je toch niet klagen. :)

Alhoewel je mogelijk nog extremer kunt gaan tot 15-20W maar dan niet met normale hardware denk ik. Meer iets als AMD Geode en een mini voeding (weet niet precies hoe ze heten, maar ze waren geintegreerd in de ATX stekker).

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Anoniem: 41852 schreef op zondag 10 juni 2007 @ 22:37:
Nouja met 44,6W op het stopcontact in sleep mode mag je toch niet klagen. :)

Alhoewel je mogelijk nog extremer kunt gaan tot 15-20W maar dan niet met normale hardware denk ik. Meer iets als AMD Geode en een mini voeding (weet niet precies hoe ze heten, maar ze waren geintegreerd in de ATX stekker).
Pico PSU ;)

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 05-07 22:44
dan doe je 40W aan t stopcontact met een PicoPSU, epia en15000 en 2x 7200.10 :)

Ik ben een beetje ingeburgerd wat betreft FreeBSD ondertussen, and i love it O+
Bevalt me veel beter dan Gentoo, het ports systeem werkt ook geweldig. Die USE keywords van Gentoo kunnen me ook gestolen worden eigenlijk. make config werkt ook prima.

Enlightenment, klein vraagje: Ik heb polling aangezet voor mn netwerkkaarten. Werkt perfect met de intel MT Gbit kaart (em), maar de onboard Gbit Via controller (miibus/vge) gaat dood na een bepaalde tijd. Heb het maar uitgezet voor vge, maar kan geen info vinden over een soortgelijk probleem. Is het de moeite om een bugreport te doen?

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

- Linux kan prima overweg met die promise controllers dus ik denk niet dat freebsd dat erg gaat vinden. (dat zeg ik nu wel zo makkelijk, maar ik zie ze niet in de HCL staan van FreeBSD6.2, ff testen dus.)
- Jammer dat raid shrinking geen mogelijkheid is, maar dat dacht ik eigenlijk al. wist het alleen niet zeker. in dat geval doe ik met mijn huidige idee gewoon 3 grote volumes.
dan kan ik iig het geplande 3x 500GB array langzaam uitbreiden en migreer ik gewoon alle data daarnaartoe.

Ik zal binnenkort de hardware aanschaffen en dan heb ik voor mezelf tot campzone de tijd om de nieuwe server werkend te hebben. Moet toch lukken lijkt mij.
Het gaat mij er meer om dat ik mijn fileserver in stapjes dichterbij het einddoel kan brengen, dat de 1e stap dan wel groot is maakt mij niet zo veel uit. maar 9x 500GB schijven in 1x is een beetje prijzig ;) dus doe ik eerst maar 3x 500GB (ik kan immers wel expanden)

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

P5ycho schreef op maandag 11 juni 2007 @ 09:46:
Ik ben een beetje ingeburgerd wat betreft FreeBSD ondertussen, and i love it O+
Welcome to the church of Satan })
Enlightenment, klein vraagje: Ik heb polling aangezet voor mn netwerkkaarten. Werkt perfect met de intel MT Gbit kaart (em), maar de onboard Gbit Via controller (miibus/vge) gaat dood na een bepaalde tijd. Heb het maar uitgezet voor vge, maar kan geen info vinden over een soortgelijk probleem. Is het de moeite om een bugreport te doen?
Zou ik zeker doen ja, en/of de maintainer mailen op wpaul@windriver.com.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

zyberteq schreef op maandag 11 juni 2007 @ 10:40:
- Linux kan prima overweg met die promise controllers dus ik denk niet dat freebsd dat erg gaat vinden. (dat zeg ik nu wel zo makkelijk, maar ik zie ze niet in de HCL staan van FreeBSD6.2, ff testen dus.)
man ata(4) ;)
Promise: PDC20246, PDC20262, PDC20263, PDC20265, PDC20267,
PDC20268, PDC20269, PDC20270, PDC20271, PDC20275,
PDC20276, PDC20277, PDC20318, PDC20319, PDC20371,
PDC20375, PDC20376, PDC20377, PDC20378, PDC20379,
PDC20571, PDC20575, PDC20579, PDC20580, PDC20617,
PDC20618, PDC20619, PDC20620, PDC20621, PDC20622,
PDC40518, PDC40519, PDC40718, PDC40719.
Zijn supported.

En voor fakeraid support moet je bij ataraid(4) zijn:
The ataraid driver can read the following metadata formats:
o Promise FastTrak
The ataraid driver can write the following metadata formats:
o Promise FastTrak
Dus ja je Promise wordt ondersteund, zowel in IDE mode als in (fake-)RAID mode. Maar wat ik bedoelde was of je wel je promise controller wilt gebruiken ipv je onboard aansluitingen. Onboard kan beter zijn om twee redenen:
- onboard loopt normaliter via zijn eigen (embedded) bus en kent dus geen bottleneck zoals PCI
- promise controllers worden nog weleens verketterd vanwege bugs e.d. maar zelf heeft het bij mij wel redelijk gewerkt.
Het gaat mij er meer om dat ik mijn fileserver in stapjes dichterbij het einddoel kan brengen, dat de 1e stap dan wel groot is maakt mij niet zo veel uit. maar 9x 500GB schijven in 1x is een beetje prijzig ;) dus doe ik eerst maar 3x 500GB (ik kan immers wel expanden)
Weet je al voor welke RAID oplossing en welk filesystem je wilt gaan?

Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

qua RAID en FS weet ik het nog niet zeker, maar met FreeNAS wordt dat gewoon geom_raid5 + UFS. Ik wil nog steeds een beetje aan de slag met FreeBSD en ZFS/XFS, maar iig de komende week ga ik daar weinig tijd voor hebben ivm school.

die 2 promise kaarten zijn vanwege het grote aantal HD's wel nodig.

[ Voor 24% gewijzigd door zyberteq op 11-06-2007 17:36 ]

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

zyberteq schreef op maandag 11 juni 2007 @ 17:36:
qua RAID en FS weet ik het nog niet zeker, maar met FreeNAS wordt dat gewoon geom_raid5 + UFS. Ik wil nog steeds een beetje aan de slag met FreeBSD en ZFS/XFS, maar iig de komende week ga ik daar weinig tijd voor hebben ivm school.
Ben tot nu toe niet echt tevreden met de performance van ZFS. ;(
Maar wel coole features. :)
Stabiliteit is redelijk, mits je de kmem (kernel memory pool) tot 512MB verhoogt. Lager dan dat krijg je een 'kmem_map too small' panic, hoger dan dat op een i386 machine boot het hele systeem niet (32-bit limitatie). Je hebt dus minimaal 768MB RAM nodig om ZFS redelijk te laten werken.
die 2 promise kaarten zijn vanwege het grote aantal HD's wel nodig.
Ehm, hoeveel schijven gaan er via PCI lopen dan? Daar is een RAID5 solution zoals geom_raid5 wel erg gevoelig voor; PCI verhoogt de patency voor elke I/O en dat betekent dat de performance instort aangezien voor elke I/O vaak 4-5 fysieke I/O's veroorzaken waarvan 1 blocking I/O. You've been warned. :P

[ Voor 14% gewijzigd door Anoniem: 41852 op 13-06-2007 05:45 ]


Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 13-05 22:31

zyberteq

nou, dat dus

Je hebt dus minimaal 768MB RAM nodig om ZFS redelijk te laten werken.
Ik ben toch van plan om 2GB RAM te halen, dus dat moet geen probleem worden.
Ehm, hoeveel schijven gaan er via PCI lopen dan? Daar is een RAID5 solution zoals geom_raid5 wel erg gevoelig voor; PCI verhoogt de patency voor elke I/O en dat betekent dat de performance instort aangezien voor elke I/O vaak 4-5 fysieke I/O's veroorzaken waarvan 1 blocking I/O. You've been warned. :P
true true, das het rotte van PCI, en ehmmm, 8 schijven? O-)
naja, ik sluit dan wel wat minder aan. En ik zal die 6 PATA schijven dan niet op raid5 doen, dat is idd helemaal langzaam, vooral omdat PATA de bus deelt voor 2 schijven, dus mss met 3 schijven op 3 controllers nog wel te doen, maar met 6 schijven op 3 controllers creeer ik alleen maar een bottleneck

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

  • TheSiemNL
  • Registratie: Juni 2005
  • Laatst online: 04-07 17:18
Ik heb op internet een paar NAS / Ethernet disken gekocht. Die wil ik naast mijn NAS gebruiken. Ik ben de gelukkige eigenaar van een Newisys NA1400 en daarnaast ben ik ook zelf bezig een NAS te bouwen op basis van een Via Eden Mini-ITX bordje met 1 gig ram, een Netcell Raid 3 controller en 5 500GB disken. Helaas heeft het bordje alleen 10/100. In eerste instantie wilde ik hier FreeNas op zetten, maar ik heb toch besloten er Windows SBS 2003 op te zetten (voor mijn mail en testdoeleinden).

Nu ben ik op zoek naar een simpel programmatje om de snelheid van data overdracht te meten. Wie heeft er iets?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

zyberteq schreef op woensdag 13 juni 2007 @ 13:55:
Ik ben toch van plan om 2GB RAM te halen, dus dat moet geen probleem worden.
Dat is idd voldoende. Maar vergeet niet dat mocht je ZFS wil gaan gebruiken je:
- FreeBSD 7-CURRENT nodig hebt
- je zelf de kmem_map waarde naar 500MB moet verhogen
- indien je hoger dan 512MB kernel geheugen wilt, je AMD64 moet draaien ipv i386
true true, das het rotte van PCI, en ehmmm, 8 schijven? O-)
OMG dat gaat echt lage performance geven. :'(
naja, ik sluit dan wel wat minder aan. En ik zal die 6 PATA schijven dan niet op raid5 doen, dat is idd helemaal langzaam, vooral omdat PATA de bus deelt voor 2 schijven, dus mss met 3 schijven op 3 controllers nog wel te doen, maar met 6 schijven op 3 controllers creeer ik alleen maar een bottleneck
Geloof me onboard PATA is al minimaal 20x beter dan PCI, wat voornamelijk met latency te maken heeft. Dus liever de onboard PATA connectors (die dus niet via PCI lopen) dan iets op een PCI kaartje. PCI-express kaartjes zijn wel prima te gebruiken, aangezien PCI-express een low-latency interface is met bovendien veel bandbreedte.
jantje.vlaam schreef op woensdag 13 juni 2007 @ 14:00:
Nu ben ik op zoek naar een simpel programmatje om de snelheid van data overdracht te meten. Wie heeft er iets?
Vanaf je client kun je SiSoftware Sandra gebruiken, zie het RAID benchmark topic, 2e post, hoe je dat prog moet gebruiken. Je hebt dus de Filesystem benchmark nodig, niet de disk benchmark. Als je puur de bandbreedte wilt testen kun je iets als iPerf ofzo gebruiken, en nog iets anders waar ik de naam van kwijt ben. :P

[ Voor 18% gewijzigd door Anoniem: 41852 op 13-06-2007 15:18 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

P5ycho schreef op maandag 11 juni 2007 @ 09:46:
dan doe je 40W aan t stopcontact met een PicoPSU, epia en15000 en 2x 7200.10 :)

Ik ben een beetje ingeburgerd wat betreft FreeBSD ondertussen, and i love it O+
Bevalt me veel beter dan Gentoo, het ports systeem werkt ook geweldig. Die USE keywords van Gentoo kunnen me ook gestolen worden eigenlijk. make config werkt ook prima.

Enlightenment, klein vraagje: Ik heb polling aangezet voor mn netwerkkaarten. Werkt perfect met de intel MT Gbit kaart (em), maar de onboard Gbit Via controller (miibus/vge) gaat dood na een bepaalde tijd. Heb het maar uitgezet voor vge, maar kan geen info vinden over een soortgelijk probleem. Is het de moeite om een bugreport te doen?
Toch niet gek als ik dan nu 44.6 Wat aan het stopcontact doe :P

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 05-07 22:44
Helemaal niet slecht idd, met als enige verschil de HDD spindown. Dat is hier echt geen optie. Zeker overdag niet, het ding dient tegenwoordig ook als een Slimserver (Squeezebox) en die staat toch wel 8 uur per dag aan..

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 03-07 13:03
Release Name: 0.685b

Notes:
Lot's of Changes in the release 0.685b!
All the system scripts have been completly re-write (for matching the original FreeBSD system scripts).
This is why ALL services must be re-tested!

There is a new filename convention:
-i386-liveCD (old "generic-pc-cdrom"). This ISO file is to be burned on a CD-ROM, and permit to test, install or upgrade FreeNAS.
-i386-embedded (old "generic-pc"). This IMG file is used for upgrading existing 'embedded' or 'generic-pc' release, or to be dumped on flash card.
-i386-full (new). This TGZ file is for upgrading FreeNAS installed in 'full' mode. This new install method no more use RAM disk, but create a real OS install. More easy to customize, add package and... crashing.

Because the previous release doesn't accept this new name convention, The IMG firmware file is providew with the old convention name (generic-pc): This will permit to upgrade FreeNAS without problem.
Note: If your are using a 'nightbuild' 0.685b release, you should rename this file (i386-embedded) before to upgrade your release.

Help needed:
For adding LDAP authentication feature: Major services can be easly authenticated using PAM-LDAP, but for Samba too is
arder.


Changes:
Majors changes:
- Add Dynamic DNS service
- Permit to mount ISO files
- Add packages build infrastructure and WebGUI
- Add IPv6 support on the WebGUI
- Upgrade fusefs-libs to 2.6.4 and fusefs-ntfs to 1.417
- Code review from the FreeNAS core engine
- Upgrade PHP to 5.2.3
- Upgrade lighttpd to 1.4.15
- Improve UPnP WebGUI/Service
- Refactoring build scripts (Makefiles)
- New platform name:
+ liveCD (old "generic-pc-cdrom") for the CD-ROM release
+ embedded (old "generic-pc") for install on hard drive or flash device
+ full (new platform) for real install (no more use RAM disk)
- Use sysvinit for services. Convert most of the system and services code into s
hell scripts.
- Upgrade iscsi_initiator to 2.0.92
- New language: Bulgarian (Thanks to Boris)

Minors changes:
- Enhance build scripts (to build packages/plugins)
- Add missing pccard.conf file to get pccardd daemon working
- Create /etc/hosts file after interface initialization (current IP was not avai
lable when using DHCP)
- Add boot splash screen (just for fun)
- Tune graid5 RAM usage depending of detected RAM
- Permit to configure FTP file and directory mask
- Display DNS servers on 'System/General setup' page when using DHCP (edit contr
ols are disabled in this case)
- Fix bug in system_systime_set function. Thanks to Paul Wheels for the tip
- Improve hidden diagnostic status.php page
- ATA timeout default value (5) was changed to 15 second when graid5 is used
- Add geom NOP: Will permit to add drives to an existing graid5 volume (still no
t possible from the WebGUI)

- CIFS: Added option to enable/disable 'large readwrite' support
- CIFS: Added option to enable/disable 'ea support'
- CIFS: Added new "pipe-lined read support" for improved performance when transferring files with Vista client
- CIFS: Added "netatalk" VFS plugin for hidding Netatalk (AFP) system file (DISA
BLED: It crash samba)
- Add netatalk patches
- Add sed stream editor (for internal scripting)

Bug fixs:
- Add missing winbind/smbpass pam modules
- French accent are correclty displayed now
- Change the SSL certificate (the previous is no more valid)
- Fix script error in rc.shutdown when pressing Ctrl+halt+del key
- Fix the "You must add disks first" message with older software RAID formatted
disk
- Fix bug in interface initialization code - the 'default' route was deleted
- Fix Bug: Add line PubkeyAuthentication on sshd_config file
- Fix UPnP bug - now supports blanks in directory names
- Fix UPnP bug - service was not started on system startup
- Fix beep bug
- Fix bug in ftp services page - Handle incorrect values for 'Number of clients' and 'Max. conn. per IP'

- Disk encrypted WebGUI - Disk wasn't correct named when using gvinum RAID disk
- Disk size was calculated incorrect for 2 partition installation
- Fix local RSYNC bug logs each minute and crontab bug
- Fix SWAP file size change bug
- Add missing softlink /usr/share/misc/termcap -> /etc/termcap
- Fix bug for preventing to mount system disk (thanks to SF.net user : snikulin)
- Fix bug concerning runmsntp.sh (File mode was DOS -> changed to UNIX)

Known bugs:
- NTFS mount points are not mounted after creation, a reboot is necessary.
- If DHCP for IPv4 is used, the IPv6 statically configured DNS server will be ov
verride by the IPv4 DNS server.
- IPv6: auto mode is not tested
http://sourceforge.net/pr...tes.php?release_id=520069

Enlightenment - is het 'Add geom NOP jouw script?

Acties:
  • 0 Henk 'm!

  • Xe0n
  • Registratie: April 2003
  • Laatst online: 05-07 23:46

Xe0n

^ Me

Ik heb hier thuis een fileserver waar Debian op draait met 4 * 250gb in raid. Nu begin ik oa door Enlightenment (jaja weer 1 over de brug) steeds geinteresseerder te raken in FreeNAS.

Maare wordt mij moederboord ondersteund : Asus A8N-SLI Premium

Ik had hier ( http://www.freebsd.org/releases/6.2R/hardware.html ) gezien dat de nforce netwerkchip ondersteund wordt, alleen wordt ik hier een beetje bang van:
The nve driver supports the following media types:

autoselect Enable autoselection of the media type and options.

10baseT/UTP Set 10Mbps operation.

100baseTX Set 100Mbps (Fast Ethernet) operation.
Geen gigabit ethernet en jammer genoeg kan ik de marvel netwerkchip (die ook gigabit heeft) ook niet vinden :(

Enne hoe zit het met Disk Controllers ik kan de nforce chipset en de Silicon Image 3114 ook zo snel niet vinden.

Enlightenment hoop dat jij me wat zekerheid kan geven

...


Acties:
  • 0 Henk 'm!

Anoniem: 41852

NOP is een geom class voor debugging en andere zaken, die onder andere door graid5 expansion gebruikt wordt. Of mijn script in de nieuwste nightly is opgenomen weet ik niet, de licentie laat dat wel toe maar ik heb geen mail gehad van Olivier ofzo hierover (de dev van FreeNAS).
Xe0n schreef op woensdag 04 juli 2007 @ 22:33:
Ik heb hier thuis een fileserver waar Debian op draait met 4 * 250gb in raid. Nu begin ik oa door Enlightenment (jaja weer 1 over de brug) steeds geinteresseerder te raken in FreeNAS.
Weer iemand bekeerd })
Ik had hier ( http://www.freebsd.org/releases/6.2R/hardware.html ) gezien dat de nforce netwerkchip ondersteund wordt, alleen wordt ik hier een beetje bang van:
Geen gigabit ethernet en jammer genoeg kan ik de marvel netwerkchip (die ook gigabit heeft) ook niet vinden :(
nForce NICs worden ondersteund door twee drivers: nve (oud) en nfe (nieuw). Die laatste zit nu in -CURRENT (de ontwikkelversie van FreeBSD) maar nog niet in 6.2-RELEASE. Echter met een nieuwe kernel kun je nfe ook prima onder 6.2 gebruiken. FreeNAS heeft dat mogelijk (iig in de nieuwe beta's) al voor je gedaan. Mocht dat nog niet zo zijn of wens je de stable versie te willen gebruiken, kan ik je een nieuwe kernel toemailen met wat instructies.

Zowel de nve als nfe driver ondersteunen gewoon gigabit (1000BaseT) modus in Full Duplex. Overigens kan het zijn dat een bepaalde PHY niet ondersteund wordt, maar marvell PHYs worden door de nfe driver wel goed ondersteund. Voor de duidelijkheid: een netwerkadapter bestaat uit een NIC en een PHY (physical). De NIC zit in dit geval in je chipset, maar de PHY plaatst je moederbordfabrikant er zelf op en kan dus verschillen per mobo.
Enne hoe zit het met Disk Controllers ik kan de nforce chipset en de Silicon Image 3114 ook zo snel niet vinden.
Alle normale PATA en SATA controllers zitten in de ata(4) driver, en SiI-3114 wordt ook ondersteund (gebruik ik zelf ook). Je moet wel weten dat deze via PCI loopt wat een performancepenalty gaat geven, met name in RAID5 en RAID3. RAID0 of RAID1 hebben minder last van omdat die geen 2-phase writes kennen, maar je blijft natuurlijk sowieso een bandbreedte bottleneck houden. Maar als je met 50MB/s via samba tevreden bent zou dat geen punt mogen zijn. :)
Enlightenment hoop dat jij me wat zekerheid kan geven
Zekerheid is een groot woord, maar informatie/ervaring misschien wel. :P

Acties:
  • 0 Henk 'm!

  • Yokidrink
  • Registratie: November 2000
  • Laatst online: 04-07 17:04
Ik heb sinds een paar dagen ook een Freenas server (via usbstick) en ben bezig om de drives over te zetten van mijn win2k3 server.
Momenteel draai ik nog geen raid maar aan het eind van het jaar ga ik over op 6*500GB RAID5

Ik heb een test gedaan:

# ./bonnie-6.2-i386 -s 2096 -d /mnt/250GB_I
File '/mnt/250GB_I/Bonnie.1308', size: 2197815296
Writing with putc()...done
Rewriting...done
Writing intelligently...done
Reading with getc()...done
Reading intelligently...done
Seeker 1...Seeker 2...Seeker 3...start 'em...done...done...done...
-------Sequential Output-------- ---Sequential Input-- --Random--
-Per Char- --Block--- -Rewrite-- -Per Char- --Block--- --Seeks---
Machine MB K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU /sec %CPU
2096 56310 55.6 55490 18.9 19720 7.1 48028 51.7 57425 13.1 202.0 0.9

# df -h
Filesystem Size Used Avail Capacity Mounted on
/dev/md0 41M 38M 2.8M 93% /
devfs 1.0K 1.0K 0B 100% /dev
/dev/ad1p1 289G 214G 69G 76% /mnt/320GB_I
/dev/ad2p1 226G 195G 25G 89% /mnt/250GB_I
/dev/ad3p1 184G 175G 5.4G 97% /mnt/200GB_I
/dev/da0a 20M 19M 1.1M 94% /cf

OS Version FreeBSD 6.2-RELEASE-p3 (revison 199506)
Platform generic-pc on AMD Athlon(tm) XP 2400+ running at 2007 MHz

nu heb ik alleen geen idee of de test goed was of niet? en ik heb gemerkt dat het transferren van data van windows naar de nas server met ongeveer 8mb/s gaat (100mbit link)

*edit
Net een paar leuke lesjes geleerd:
* gebruik cp -rp wanneer je via ssh op de box files gaat copieren anders ben je user rights kwijt (changes to root)
* Webgui waarschuwt niet wanneer de mnt naam invalid is. Ik had de naam verandert van '400GB' naar ' Series Compleet' Alles goed en wel maar daarna kon ik de mount niet online krijgen. Even verandert naar 'Series_Compleet' en de server is een happy bunny.

en ja.. ben geen (freebsd)(l)unix goeroe O-)

[ Voor 12% gewijzigd door Yokidrink op 06-07-2007 15:56 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Je scores zien er prima uit. :)

Weet wel dat mocht je een RAID5-array willen benchen je een gepatchde bonnie nodig hebt, om een cooldown-periode in te lasten. Doe je dat niet krijg je ongeldige (lage) resultaten. Een 'kale' disk of een simpel RAID level als RAID0 / RAID1 heeft hier geen last van.

Acties:
  • 0 Henk 'm!

Anoniem: 222236

Ik heb dit topic even doorgelezen omdat ik ook aan het kijken ben voor een zelfbouw NAS. Deze wordt hoofdzakelijk voor opslag bedoeld zodat de andere pc's ook gebruik kunnen maken van de bestanden.
Mijn gedachte gaat uit naar een energiezuinige NAS voor 8 SATA2 schijven in RAID5. In dit topic staan wel onderdelen genoemd, maar goed verkrijgbaar zijn ze lang niet altijd. Ik ben een nieuweling wat betrefd NAS maar wil er wel eentje gaan bouwen vanaf het begin. Mijn vraag is welke geschikte onderdelen ik daarvoor nodig heb (kast, mobo, voeding etc), die goed verkrijgbaar zijn en niet al te duur ;) (is namelijk voor thuis). Ik zat wel te denken aan een AMD setup vanwege de energiezuinigheid.Het gaat me voornamelijk om de onderdelen van het systeem, de HD's daar ben ik denk wel uit.

Software RAID is voor mij goed genoeg, hoeft echt geen hardware RAID te zijn.

Acties:
  • 0 Henk 'm!

  • Yokidrink
  • Registratie: November 2000
  • Laatst online: 04-07 17:04
Anoniem: 41852 schreef op zaterdag 07 juli 2007 @ 02:32:
Je scores zien er prima uit. :)

Weet wel dat mocht je een RAID5-array willen benchen je een gepatchde bonnie nodig hebt, om een cooldown-periode in te lasten. Doe je dat niet krijg je ongeldige (lage) resultaten. Een 'kale' disk of een simpel RAID level als RAID0 / RAID1 heeft hier geen last van.
Helaas ben ik tegen een flink probleem aangelopen .... sil3112a onboard controller
het lijkt erop dat die erg instabiel is (interrupt storms en reboot gedurende hoge load) en hierdoor moet ik misschien een nieuwe oplossing zoeken.
Heb jij of iemand hier ervaring met die sil3112 drivers op freenas en hoe het stabiel te krijgen?

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 05-07 09:58

Shuriken

Life is all about priorities

Yokidrink schreef op zaterdag 07 juli 2007 @ 20:38:
[...]


Helaas ben ik tegen een flink probleem aangelopen .... sil3112a onboard controller
het lijkt erop dat die erg instabiel is (interrupt storms en reboot gedurende hoge load) en hierdoor moet ik misschien een nieuwe oplossing zoeken.
Heb jij of iemand hier ervaring met die sil3112 drivers op freenas en hoe het stabiel te krijgen?
Wat voor chipset gebruik je? Nforce2?

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • Yokidrink
  • Registratie: November 2000
  • Laatst online: 04-07 17:04
linkje

is blijkbaar een nforce2 u400 (EP-8RDA3+)

nForce2 Ultra 400 AGPset/400MHz FSB/3 DIMM with DDR400/1 AGP-8X/5 PCI/USB2.0/ATA-133/Dual 100MbE LAN/IEEE-1394/SI3112/6CH Audio/ATX

Acties:
  • 0 Henk 'm!

Anoniem: 224530

Ik heb FreeNAS 0.684b op deze onderdelen stabiel lopen.

AMD Sempron 64 3200+ 1.8Ghz HT 128kB AM2 Box
Asus M2N-SLI Deluxe nForce 570 SLI
2x Kingston 512MB DDR2 SDRAM PC5300 CL5.0
Intel PCI-e Adapter Pro1000PT Dual Port LAN 100/1000Mbit
Zalman Powersupply ZM500-HP 500W
6x Samsung 500GB SATA (Raid5 2,2 TB)
1x Samsung 120GB IDE (Boot en opslag)
1x Samsung 400GB IDE

Nu zit ik er over te denken om een HighPoint RocketRAID 2310
+ 5x Samsung 500GB SATA er bij te plaatsen.
Wat kan ik het beste met de nieuwe schijven doen?
1 - Aan de bestaande Raid5 toevoegen
2 - Een nieuwe software Raid5 maken
3 - Wachten op ondersteuning van ZFS in Freenas

Weet iemand hoe ik dit moederbord via de usb op kan starten?
De bedoeling is dat 120GB vervangen wordt door een 400GB en dat de IDE's dan in Raid0 gaan.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 222236 schreef op zaterdag 07 juli 2007 @ 14:02:
Mijn gedachte gaat uit naar een energiezuinige NAS voor 8 SATA2 schijven in RAID5. In dit topic staan wel onderdelen genoemd, maar goed verkrijgbaar zijn ze lang niet altijd.
Om 8 SATA-schijven aan te sluiten heb je ook 8x onboard SATA nodig. Een moederbord vinden met die mogelijkheid kan best moeilijk zijn. Of je komt bij peperdure workstation of serverborden, of je hebt geluk en vindt een relatief goedkoop bordje met deze mogelijkheden. Als je nou 6 SATA aansluitingen zou willen, ben je met een nForce5 bordje al klaar. Dat is namelijk vrij makkelijk te realiseren. Overige schijven kun je eventueel via een PCIe-kaartje aansluiten, of via Parallel ATA. Dat laatste betekent dus dat je een paar PATA schijven ipv SATA moet kopen.

Wil je echt goedkoop, dan neem je 4 PATA schijven en 4 SATA schijven, dan heb je slechts een goedkoop bordje nodig en 4x SATA hebben zelfs die budgetkrengen al. Hoe denk je over deze twee mogelijkheden?
de HD's daar ben ik denk wel uit.
Welke heb je op het oog?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Yokidrink schreef op zaterdag 07 juli 2007 @ 20:38:
Helaas ben ik tegen een flink probleem aangelopen .... sil3112a onboard controller
het lijkt erop dat die erg instabiel is (interrupt storms en reboot gedurende hoge load) en hierdoor moet ik misschien een nieuwe oplossing zoeken.
Heb jij of iemand hier ervaring met die sil3112 drivers op freenas en hoe het stabiel te krijgen?
Ik heb alleen ervaring met Silicon Image 3114 en 3132, beide werken prima.

Reboots lijken me onwaarschijnlijk. Krijg je geen kernel panic met een automatische reboot na 15 seconden? Zo ja, maak snel een foto van de foutmelding dan heb je wat om mee te werken. Verder ben ik benieuwd of je de controller puur als IDE controller gebruikt of als RAID controller. Met dat laatste bedoel ik dus dat je in de BIOS Setup een array hebt aangemaakt, oftewel firmware/driver/fake RAID.
Anoniem: 224530 schreef op zondag 08 juli 2007 @ 00:42:
Nu zit ik er over te denken om een HighPoint RocketRAID 2310
+ 5x Samsung 500GB SATA er bij te plaatsen.
Wat kan ik het beste met de nieuwe schijven doen?
1 - Aan de bestaande Raid5 toevoegen
2 - Een nieuwe software Raid5 maken
3 - Wachten op ondersteuning van ZFS in Freenas
geom_raid5 expansion is nog niet voldoende getest. Mocht je ze willen 'toevoegen' heb je daarom een backup nodig. Mocht je dat hebben zou het wel een mooie 'echte' testcase zijn voor mijn expansion script. :P

Echter mijn script werkt nog niet onder de minimalistische omgeving van FreeNAS (32MB mist gewoon een aantal dingen). ZFS is niet zo zaligmakend, bugs, lage performance en gevoeligheid van ZFS zelf hebben mij ervan weerhouden. Voorbeeldje: als ZFS een sector op je disk niet kan lezen (niet eens schrijven maar lezen), krijg je gelijk een kernel panic. Dit ligt niet aan FreeBSD aangezien ditzelfde probleem zich voordoet op Solaris en lijkt een 'design choice' te zijn van de devs. Mja, niet erg sexy als je het mij vraagt. :P

Waarom gebruik je die Highpoint kaart niet als RAID-controller? Zijn zelfs officiele drivers voor voor FreeBSD dacht ik. T'is een Hardware Assisted controller die vrij aardige performance zou kunnen halen.
Weet iemand hoe ik dit moederbord via de usb op kan starten?
De bedoeling is dat 120GB vervangen wordt door een 400GB en dat de IDE's dan in Raid0 gaan.
USB boot is bugged in FreeBSD, helaas. Soms werkt het, soms ook niet. Puur een bug in de bootloader. Je kunt trouwens wel een 400GB disk disk partitioneren en 10GB als boot/systeem disk gebruiken, en de resterende ruimte in RAID0 gooien met een andere disk. Dat is de flexibiliteit die je hebt met software RAID. :)

[ Voor 49% gewijzigd door Anoniem: 41852 op 08-07-2007 04:52 ]

Pagina: 1 ... 7 ... 14 Laatste

Dit topic is gesloten.