DIY RAID NAS bouwen Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 14 Laatste
Acties:
  • 61.058 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Mannekino
  • Registratie: Maart 2001
  • Laatst online: 24-03 21:12
c70070540 schreef op dinsdag 06 februari 2007 @ 09:45:
[...]

Tja, je zou eens kunnen kijken naar de NZXT Zero. (link) Ik ben erg tevreden over deze kast. Bijzonder geluidsarm, ook alheeft hij heel veel 12cm ventilatoren. Er zit alleen 1 iets luidere 8cm fan bovenin, maar die kan je niet gebruiken of vervangen door een stillere. 6 harddisk bay's onderin, en verder veel ruimte. Mijn Core2Duo draait er passief gekoeld in!
Hmz, ik vind deze kast weer een beetje teveel kermisattractie. Ik hou niet zo van kleurtjes en rondingen in de vormgeving, daarnaast zitten er teveel ventilatoren in, zoveel koeling heb ik bij lange na niet nodig. Voor mijn werkstation heb ik nu een Lian-Li PC-V1100 Plus. Dergelijke behuizingen spreken mij erg aan: functioneel, degelijk zeer goede kwaliteit en geen fratsen. Ik ga er nog even goed over nadenken maar ik baal er wel van dat het Tyan bord wat ik heb uitgezocht niet goed werkt i.c.m. met FreeBSD. Ik snap dat niet, voor mijn bedrijf heb ik een stuk of 18 dual AMD Opteron servers hangen allemaal voorzien van Tyan moederborden op deel van deze servers draait Linux. Ik mag toch aannemen dat een degelijk 'workstation' / 'entry level server' moederbord goed ondersteund worden door besturingssystemen als Linux of FreeBSD.

[ Voor 18% gewijzigd door Mannekino op 06-02-2007 10:42 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

C@SP schreef op dinsdag 06 februari 2007 @ 09:00:
Ik heb inmiddels redelijk wat ervaring met unix, dus dat moet niet zo'n probleem zijn. Ik ga nu toch investeren in een nieuw dedicated NAS systeem, dus het zou wel fijn zijn om er gelijk ook een ftp en webserver van te maken. Aan de andere kant spreekt de webinterface van FreeNAS mij ook wel erg aan. Ga je in je artikel dieper in over het configureren van FreeBSD?
Niet van FreeBSD nee, wel van FreeNAS. Het artikel is nu al 11 pagina's dus met FreeBSD erbij zou het te lang worden. Maar ik kan wel een apart artikel maken voor FreeBSD, een soort addon ofzo. Maar als jij nu FreeBSD wilt dan kan ik het ook voor je configgen hoor, mits je b.v. SSH toegang regelt. Dan zet ik je server op en leg je uit hoe je het kunt beheren verder; daarna heb je er in feite weinig omkijken meer na.
chewbacca schreef op dinsdag 06 februari 2007 @ 09:31:
Waarom dan geen linux? Ja oke FreeBSD heeft hele goeie records wat stabliliteit ed? Maar linux is ook niet mis
Linux heeft geen geom_raid5. 8)
En portstree is wel zo handig als je zelf wilt beheren/installeren. Ik denk dat FreeBSD makkelijker in het gebruik/beheer is dan Linux.
Helaas komt Freebsd nog niet verder dan raid 0,1 of 5, kent het geen raid-extention, snapshotting of LVM (dacht ik, anders heb ik het iig niet kunnen vinden).
FreeBSD doet RAID 0,1,3,4,5,10 en andere combinaties. Met de ZFS-import ook RAID-Z2 (RAID6). Qua RAID mogelijkheden is FreeBSD superieur aan Linux; met name qua performance. Linux md-raid5 kan gewoon niet opboksen tegen geom_raid5. Ook de vele leuke modules (gvirstor, geli, gbde) vind ik een plus.

Maar afgezien van deze argumenten; als jij linux beter ziet zitten of je je daar lekker bij voelt: vooral doen! Maar als je op dit moment geen directe voorkeur hebt voor een van de twee zou ik zelf geneigd zijn om voor FreeBSD te gaan.
Mannekino schreef op dinsdag 06 februari 2007 @ 10:39:
ik baal er wel van dat het Tyan bord wat ik heb uitgezocht niet goed werkt i.c.m. met FreeBSD. Ik snap dat niet, voor mijn bedrijf heb ik een stuk of 18 dual AMD Opteron servers hangen allemaal voorzien van Tyan moederborden op deel van deze servers draait Linux. Ik mag toch aannemen dat een degelijk 'workstation' / 'entry level server' moederbord goed ondersteund worden door besturingssystemen als Linux of FreeBSD.
Nou dat is een gevaarlijke aanname; Tyan valt onder de noemer 'exotisch' en dus hebben maar weinig mensen zo'n bord met vaak afwijkende hardware. Gevolg is dat de 'markt' of 'doelgroep' met vraag naar hardware support dus kleiner is. Soms stellen bedrijven wel linux binary drivers beschikbaar, maar daar heb je met een afwijkende dist/platform (AMD64) of OS (freebsd) dus niks aan. Al met al ben je veel beter af met mainstream hardware; populaire hardware die 'iedereen heeft' en derhalve dus een grote vraag naar is voor support; en dat vertaalt zich in werkende drivers.

Maar de NIC werkte met patch toch wel van dat Tyan bord? En vond je mijn ASRock 939SLI32-eSATA2 bord niks?

Acties:
  • 0 Henk 'm!

  • Tacoos
  • Registratie: Januari 2001
  • Laatst online: 06:39

Tacoos

i am i

Anoniem: 41852 schreef op dinsdag 06 februari 2007 @ 12:28:
[...]

En portstree is wel zo handig als je zelf wilt beheren/installeren. Ik denk dat FreeBSD makkelijker in het gebruik/beheer is dan Linux.

[...]

FreeBSD doet RAID 0,1,3,4,5,10 en andere combinaties. Met de ZFS-import ook RAID-Z2 (RAID6). Qua RAID mogelijkheden is FreeBSD superieur aan Linux; met name qua performance. Linux md-raid5 kan gewoon niet opboksen tegen geom_raid5. Ook de vele leuke modules (gvirstor, geli, gbde) vind ik een plus.
Wat is wijsheid:
FreeBSD op een aparte schijf installeren of op de RAID array (of kan dat uberhaupt niet)?

Doe maar gewoon, dan doe je al gek genoeg...


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Tacoos schreef op dinsdag 06 februari 2007 @ 13:06:
[...]


Wat is wijsheid:
FreeBSD op een aparte schijf installeren of op de RAID array (of kan dat uberhaupt niet)?
Een software RAID array is niet bootable, op geen enkel OS. Sommige mensen willen dat tegenspreken omdat dmv trucs wel mogelijk is om RAID1/JBOD te booten; maar je boot dan in feite van een enkele schijf en niet van de array; dat is mogelijk omdat de informatie op de schijven bij RAID1 en JBOD 'contigious' is, oftwel aansluitend. Wil je booten van een ingewikkelder RAID-array heb je daar BIOS support voor nodig; een bootstrap-programma kan niet meet dan 512 bytes groot zijn (1 sector) dus het is begrijpelijk dat die geen RAID5 kan decoden enzo.

Wat je wel kunt doen:
- een enkele schijf gebruiken om FreeBSD op te zetten (boot only); dat betekent dat je ongeveer 100MB kwijt bent op alle disks; geen ramp dus met 500GB disks.
- netboot (PXE) gebruiken; daarmee boot je van netwerk en daarna mount je je RAID5 array, dit is wat ik nu gebruik; je benut dan de volledige capaciteit en het OS zelf staat dus ook op de RAID5 array. Je hebt dan wel in je netwerk een linux/BSD bak nodig die PXE netboot voorziet, kort gezegd betekent dat een TFTP en DHCP server met de juiste configuratie.
- van pendrive/compactflash/cd/oude hdd booten

Optie 1 is het makkelijkst. Je maakt dan op de 1e schijf twee partities, eerste partitie is iets van 100MB en daarvan zul je gaan booten; 2e partitie is de datapartitie; die zul je later voor je RAID-array gaan gebruiken.

Acties:
  • 0 Henk 'm!

  • chewbacca
  • Registratie: Januari 2004
  • Laatst online: 22-04 20:06
Anoniem: 41852 schreef op dinsdag 06 februari 2007 @ 12:28:
En portstree is wel zo handig als je zelf wilt beheren/installeren. Ik denk dat FreeBSD makkelijker in het gebruik/beheer is dan Linux.
Mag ik je dan uitnodigen om een keer naar apt (debian) of portage (gentoo) te kijken. Dit bied nl dezelfde functionaliteit als portstree en is net zo gemakkelijk in beheer.
Anoniem: 41852 schreef op dinsdag 06 februari 2007 @ 12:28:
FreeBSD doet RAID 0,1,3,4,5,10 en andere combinaties. Met de ZFS-import ook RAID-Z2 (RAID6). Qua RAID mogelijkheden is FreeBSD superieur aan Linux; met name qua performance. Linux md-raid5 kan gewoon niet opboksen tegen geom_raid5. Ook de vele leuke modules (gvirstor, geli, gbde) vind ik een plus.
Kun je dat onderbouwen met cijfers/benchmarks? In de documentatie van FreeBSD (handbook & wiki) vindt ik de RAID-mogelijkheden nogal erg beperkt. Daar vind ik onder GEOM enkel RAID 0 & 1 terug en onder Gvinum RAID 5. Op de freebsd mailinglists daarentegen wordt er wel gesproken over een GEOM_Raid5 module die nog experimental is? Mocht je echter ergens uitgebreidere documentie online weten ben ik erg geinteresseerd.
Anoniem: 41852 schreef op dinsdag 06 februari 2007 @ 12:28:
Maar afgezien van deze argumenten; als jij linux beter ziet zitten of je je daar lekker bij voelt: vooral doen! Maar als je op dit moment geen directe voorkeur hebt voor een van de twee zou ik zelf geneigd zijn om voor FreeBSD te gaan.
Mee eens, zo kies ik eerder voor Linux, maar onbekend maakt onbemind, dus vandaar dat ik de mogelijkheid linux/evms aanhaal. Dan kan iemand nl zelf kiezen.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

chewbacca schreef op dinsdag 06 februari 2007 @ 21:08:
[...]

Mag ik je dan uitnodigen om een keer naar apt (debian) of portage (gentoo) te kijken. Dit bied nl dezelfde functionaliteit als portstree en is net zo gemakkelijk in beheer.
Oke FreeBSD is niet de enige met een mooi update-mechanisme. Maar apt-get en portage zijn package-based, toch? FreeBSD is source-based; beide hebben voor- en nadelen. Voordeel van source is dat je met je eigen CPU kunt optimizen (optimized C-flags) en voor je eigen platform kunt compileren; nadeel is dat het simpelweg langer duurt. Maar met moderne processors is dat ook niet echt een probleem meer. Ben je puur eind-gebruiker dan zijn packages wel fijner denk ik.
Kun je dat onderbouwen met cijfers/benchmarks?
Sure i can. :)

code:
1
2
3
4
              -------Sequential Output-------- ---Sequential Input-- --Random--
              -Per Char- --Block--- -Rewrite-- -Per Char- --Block--- --Seeks---
Machine    MB K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU  /sec %CPU
         4096 130164 96.7 188219 51.9 33061  9.2 100914 96.4 189805 21.6 370.4  2.7


Bonnie bench van 4-disk RAID5 array met 128KB stripe en Soft Updates / noatime / 64KB blocksize newfs parameters. geom_raid5 doet dus 190MB/s read en 188MB/s write; dat is een uitmuntend hoge score voor software RAID5. Disks doen 65MB/s ofzo maximaal dus theoretische maximum write speed is 195MB/s en max read is 260MB/s. Het is vooral bijzonder dat de schrijfsnelheid zo dicht benaderd wordt (188MB/s). Wil je bonnie gebruiken moet je die overigens wel patchen met een cool-down periode na elke individuele test.

Vergelijk ook eens met een 4-disk RAID0 array via Areca:

code:
1
2
3
4
              -------Sequential Output-------- ---Sequential Input-- --Random--
              -Per Char- --Block--- -Rewrite-- -Per Char- --Block--- --Seeks---
Machine    MB K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU K/sec %CPU  /sec %CPU
         4096 141570 98.2 237774 49.2 99989 23.5 101944 97.9 246793 29.7 334.9  2.4


Zoals je ziet komt geom_raid5 aardig dichtbij; en dit is wel een echte hardware controller en ook nog eens RAID0; dus dubbel oneerlijke vergelijking. Areca wordt hier overigens duidelijk gelimiteerd door de disks. Merk op dat de rewrite-snelheid stukken hoger ligt (factor 3). Random I/O maakt areca gehakt van geom_raid5 trouwens, maargoed.
In de documentatie van FreeBSD (handbook & wiki) vindt ik de RAID-mogelijkheden nogal erg beperkt. Daar vind ik onder GEOM enkel RAID 0 & 1 terug en onder Gvinum RAID 5. Op de freebsd mailinglists daarentegen wordt er wel gesproken over een GEOM_Raid5 module die nog experimental is? Mocht je echter ergens uitgebreidere documentie online weten ben ik erg geinteresseerd.
Handbook loopt wel achter ja. graid3 (RAID3) is er echter al sinds FreeBSD 5.3 (nu zitten we bij 6.2) en graid5 is idd nog niet in de CVS (-CURRENT). Alles wat nieuw is, zou je experimenteel kunnen noemen; maar betekent niet per definitie instabiel. Zo heeft FreeNAS, dat ook geom_raid5 gebruikt, onlangs de label 'unstable' weggehaald bij geom_raid5. Ik gebruik ook al 4 maanden ofzo graid5 en dat werkt prima; alhoewel de ontwikkelaar wel de fout heeft gemaakt de stabiele en ontwikkel versies van graid5 niet te scheiden qua URL; dat is nu wel het geval.

Documentatie voor graid5 vind je in de manpage van graid5 maar eigenlijk werkt alles van geom bijna hetzelfde, man geom kan dus ook. :)
Mee eens, zo kies ik eerder voor Linux, maar onbekend maakt onbemind, dus vandaar dat ik de mogelijkheid linux/evms aanhaal. Dan kan iemand nl zelf kiezen.
FreeBSD is echt wat om uit te proberen hoor, zeker qua storage. Zo cool gewoon; je hebt in feite alles, zeker met gjournal en ZFS-import straks.

[ Voor 12% gewijzigd door Anoniem: 41852 op 07-02-2007 11:42 ]


Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Happy birthday Enlightenment :)

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • Jan Laros
  • Registratie: November 2001
  • Laatst online: 12-02 15:40

Jan Laros

Aerschtuner

*O*

C@SP, wat heb je betaald voor dat moederbord?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Dank je wel. O+ :>

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Jan Laros schreef op woensdag 07 februari 2007 @ 12:34:
[...]


*O*

C@SP, wat heb je betaald voor dat moederbord?
Nieuw in doos aus Deutshland fur 45 euro. Helaas de 15 euro actie bij Cool Prices gemist.

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • Jan Laros
  • Registratie: November 2001
  • Laatst online: 12-02 15:40

Jan Laros

Aerschtuner

C@SP schreef op woensdag 07 februari 2007 @ 13:44:
[...]


Nieuw in doos aus Deutshland fur 45 euro. Helaas de 15 euro actie bij Cool Prices gemist.
Sicherlich nicht zu teuer mein Lieber! :) Het is wel een uitdaging om een goed presterend NASje te bouwen voor zo min mogelijk euro's.

Is op zich trouwens ook wel een optie om bepaalde bestanden die op jouw NAS komen te staan ook beschikbaar voor derden (me!) te maken. Denk hierbij aan die irritante SAP installatiebestanden. Dat gaat in ieder geval beter dan van die brakke servers in Waldorff.

Acties:
  • 0 Henk 'm!

  • KhaZ
  • Registratie: November 2003
  • Laatst online: 18-05 22:42

KhaZ

Alfa Romeo

Ik ben dus ook van plan een NAS te maken, alleen zie ik 1 probleem, namelijk de kast.

Graag zou ik zo'n klein mAtx mobo gebruiken, en dan in een barebone of een klein maatje groter. Het probleem is vaak, dat je in zulke kastje niet 4 of 5 schijven kwijt kan. Ik zoek dus een kleine kast, met veel ruimte voor harde schijven, iets wat bijna onvindbaar lijkt. Heb een CM Stacker als desktopcase, maar voor een server zoek ik iets echt kleins.

Is er hier iemand die als het ware een desktopbehuizing in een barebonebehuizing heeft/weet te vinden?

AMD 5800X3D | MSI B450 Tomahawk MAX | 16GB DDR4 Crucial 3.200Mhz CAS 16 | PNY GeForce RTX 2060 | Samsung 970 Evo Plus 500GB


Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Uiteraard! Met een beetje hulp van Enlightenment gaat die bak FreeBSD draaien met geom_raid5 en een ftp- en webserver.

Performance over het net zal niet denderend zijn met 1 Mb upload.

[ Voor 22% gewijzigd door C@SP op 07-02-2007 13:57 ]

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

Anoniem: 97275

Microkid schreef op woensdag 10 januari 2007 @ 21:21:
Mijn opzetje
1 x Asus P5B-VM @ € 105.00 = € 105.00
1 x Intel Celeron D346 3.06Ghz @ € 50.00 = € 50.00
1 x Corsair Twin2X1024 @ € 100.00 = € 100.00
1 x Zalman CNPS7700B @ € 30.00 = € 30.00
1 x 3Ware 9650SE @ € 210.00 = € 210.00
3 x Samsung Spinpoint HD300LJ @ € 85.00 = € 255.00
1 x ICY Dock MB454SPF @ € 140.00 = € 140.00
1 x CF to IDE adapter @ € 18.00 = € 18.00
Nofi, maar waarom pak je geen AMD Athlon systeem? Dit is waarschijnlijk goedkoper (moederbord zal een stuk cheaper zijn) en je hebt meer rekenpower aan boord voor hetzelfde geld. Om heel eerlijk te zijn heb ik zelf ook liever Intel, maar ik heb zelf ook AMD aangeschaft voor mijn server om de kosten wat te drukken en dit draait natuurlijk prima.

Acties:
  • 0 Henk 'm!

  • Jan Laros
  • Registratie: November 2001
  • Laatst online: 12-02 15:40

Jan Laros

Aerschtuner

C@SP schreef op woensdag 07 februari 2007 @ 13:54:
Performance over het net zal niet denderend zijn met 1 Mb upload.
Nope, maar in ieder geval wel stabiel. Ik heb liever dat het 48 uur staat te stampen en dat het dan klaar is, dan dat ik de downloads tig keer opnieuw aan moet slingeren :).

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Jan Laros schreef op woensdag 07 februari 2007 @ 14:05:
[...]


Nope, maar in ieder geval wel stabiel. Ik heb liever dat het 48 uur staat te stampen en dat het dan klaar is, dan dat ik de downloads tig keer opnieuw aan moet slingeren :).
Dat lijkt me geen goed idee met 8 DVD's en 35 cd's. Gebruik de Download Manager maar.

back ontopic

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 97275 schreef op woensdag 07 februari 2007 @ 13:58:
[...]

Nofi, maar waarom pak je geen AMD Athlon systeem? Dit is waarschijnlijk goedkoper (moederbord zal een stuk cheaper zijn) en je hebt meer rekenpower aan boord voor hetzelfde geld.
En ook niet onbelangrijk: het energieverbruik (idle) is een stuk lager. Daar is AMD nog altijd onverslaanbaar in met zijn 5W (Athlon 64 3000+).

Acties:
  • 0 Henk 'm!

  • chewbacca
  • Registratie: Januari 2004
  • Laatst online: 22-04 20:06
He, ja, gefeli Enlightenment :)
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 11:05:
Maar apt-get en portage zijn package-based, toch? FreeBSD is source-based
Apt is idd binary, Portage is echter net als portstree source-based.
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 11:05:
Sure i can. :)
[...]
Zoals je ziet komt geom_raid5 aardig dichtbij; en dit is wel een echte hardware controller en ook nog eens RAID0; dus dubbel oneerlijke vergelijking. Areca wordt hier overigens duidelijk gelimiteerd door de disks. Merk op dat de rewrite-snelheid stukken hoger ligt (factor 3). Random I/O maakt areca gehakt van geom_raid5 trouwens, maargoed.
Ja, oke, leuk, geeft idd wel aan dat FreeBSD hard kan gaan. Maar dit is appels met peren vergelijken. (Zeker aangezien ik niet weet over wat voor hardware we het hier hebben). Waar ik echter eerder in geinteresseerd ben is een vergelijk van md_raid5 met GEOM_raid5 op dezelfde hardware. Misschien dat ik binnenkort maar eens de voeding van mijn eigen FreeBSD bak ga repareren. Dan kan ik zelf een benchmark draaien voor een vergelijk.
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 11:05:
Handbook loopt wel achter ja. graid3 (RAID3) is er echter al sinds FreeBSD 5.3 (nu zitten we bij 6.2) en graid5 is idd nog niet in de CVS (-CURRENT). Alles wat nieuw is, zou je experimenteel kunnen noemen; maar betekent niet per definitie instabiel. Zo heeft FreeNAS, dat ook geom_raid5 gebruikt, onlangs de label 'unstable' weggehaald bij geom_raid5. Ik gebruik ook al 4 maanden ofzo graid5 en dat werkt prima; alhoewel de ontwikkelaar wel de fout heeft gemaakt de stabiele en ontwikkel versies van graid5 niet te scheiden qua URL
Ik heb ook (expres) niet gezegd dat het instabiel (zou) zijn. Maar oke, mis ik alleen nog RAID-reshaping onder FreeBSD/FreeNAS. En na enige ervaringen op te hebben mogen doen met de Netapp bij ons op het werk vindt ik dat toch wel een belangrijke feature voor een NAS. (En ben dan ook blij verrast dat Linux MD dat dus kan).
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 11:05:
FreeBSD is echt wat om uit te proberen hoor, zeker qua storage. Zo cool gewoon; je hebt in feite alles, zeker met gjournal en ZFS-import straks.
Alles wat linux heeft bedoel je >:) ? Ik ben iig blij dat je het cool vindt, maar het kan ook wel eens lonend om iets verder te kijken dan je horizon hoor. Ik zal iig naar aanleiding van jou hallelujah-verhaal binnenkort wel weer eens kritisch kijken naar FreeBSD (vanuit mijn Linux-hoekje), maar ben eigenlijk ook wel nieuwschierig naar OpenSolaris met native ZFS support. (Wat trouwens ook naar linux geport word onder FUSE. Oh en journalling filesystems heb je al jaren onder linux hoor.)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

chewbacca schreef op woensdag 07 februari 2007 @ 20:59:
Apt is idd binary, Portage is echter net als portstree source-based.
Ah oke, met portage nog geen ervaring idd.
Ja, oke, leuk, geeft idd wel aan dat FreeBSD hard kan gaan. Maar dit is appels met peren vergelijken. (Zeker aangezien ik niet weet over wat voor hardware we het hier hebben). Waar ik echter eerder in geinteresseerd ben is een vergelijk van md_raid5 met GEOM_raid5 op dezelfde hardware.
Ik heb nog geen directe benchmarks van linux md-raid5; wel benchmarks van anderen om te vergelijken. Dat is inderdaad het appels-peren verhaal, maar toch weer niet helemaal: je kunt namelijk wel kijken naar wat de hardware max zou kunnen en wat er dus uiteindelijk gehaald wordt. In de geom raid review die ik aan het schrijven ben zal overigens wel een goede vergelijking komen met de RAID-mogelijkheden van linux; momenteel heb ik daar nog niet veel aandacht aan geschonken. Ben nu nog bezig met FreeNAS-artikel. :)
Misschien dat ik binnenkort maar eens de voeding van mijn eigen FreeBSD bak ga repareren. Dan kan ik zelf een benchmark draaien voor een vergelijk.
Zorg dan wel dat je bonnie patcht, want in zijn huidige vorm is de benchmark flawed. geom_raid5 houdt standaard een 8MB buffercache achter zich voor write combining wat nog opgevoerd kan worden tot 40MB b.v.; terwijl geom_raid5 de buffer aan het wegschrijven is begint bonnie vrolijk al een nieuwe benchmark; dan kun je in elk geval niet meer afzonderlijk de scores interpreteren hetgeen wel de opzet is bij een semi-synthetische benchmark. Hopelijk zal de maintainer binnenkort mijn patches integreren.

FreeNAS werkt ook met een iets oudere versie van geom_raid5. Maar in elk geval zou die de 100MB/s prima moeten kunnen halen; hetgeen graid5 iig niet tot bottleneck maakt over een gigabit netwerk. Dus dan zou het nog neerkomen op random I/O performance en daarbij heeft RAID5 natuurlijk wel een nadeel ten opzichte van RAID0 of RAID3.
Ik heb ook (expres) niet gezegd dat het instabiel (zou) zijn. Maar oke, mis ik alleen nog RAID-reshaping onder FreeBSD/FreeNAS. En na enige ervaringen op te hebben mogen doen met de Netapp bij ons op het werk vindt ik dat toch wel een belangrijke feature voor een NAS. (En ben dan ook blij verrast dat Linux MD dat dus kan).
Idd coole feature die geom op dit moment nog mist! Nu is de auteur van graid5 wel bezig met online capacity expansion dus dat komt eraan. Leuke is dus dat je met graid5 van vandaag straks voer x maanden dus kunt expanden; dus in principe zou je die feature al op je lijstje kunnen zetten. En volgens mij kan ZFS dat ook (iemand die dit kan bevestigen?)
Alles wat linux heeft bedoel je >:) ?
Nou nee, allereerst is de ZFS-import voor linux niet echt sexy te noemen; door de restrictieve GPL-licentie zal ZFS in userland geimporteerd moeten worden; dat is geen implementatie die de schoonheidsprijs verdient en ik ben benieuwd naar de gevolgen qua performance en stabiliteit; naar mijn mening zou fundamentele peilers als storage toch echt in de kernel thuishoren; maargoed.
Oh en journalling filesystems heb je al jaren onder linux hoor.)
Ja klopt, FreeBSD is daar erg laat mee. Jammer ook want opzich is UFS niet verkeerd alleen het gebrek aan journaling is wel een grote min. Daar komt (helaas nu pas) verandering in met gjournal, hetgeen overigens op elk filesystem zou moeten kunnen werken (dat is wel weer een plus). En natuurlijk is er ZFS dat bij BSD wel in de kernel (KLD) wordt geport. FreeBSD heeft wel veel keuzes qua storage layers, firewalls e.d. maar filesystems loopt het wel achterop; ik wil een stabiele NTFS read/write en XFS/Ext2/Ext3 modules. FreeBSD heeft keuze altijd hoog gehouden. Maar helaas zijn er vaak wel technische of juridische obstakels die een port bemoeilijken. Zoals het feit dat Linux wel alles van BSD kan jatten maar andersom niet mag; vanwege licentie restricties enzo.

Acties:
  • 0 Henk 'm!

  • DarkHelmet
  • Registratie: Mei 2000
  • Laatst online: 01-05 15:03
Microkid schreef op woensdag 10 januari 2007 @ 21:21:

Mijn opzetje
1 x Asus P5B-VM @ € 105.00 = € 105.00
1 x Intel Celeron D346 3.06Ghz @ € 50.00 = € 50.00
1 x Corsair Twin2X1024 @ € 100.00 = € 100.00
1 x Zalman CNPS7700B @ € 30.00 = € 30.00
1 x 3Ware 9650SE @ € 210.00 = € 210.00
3 x Samsung Spinpoint HD300LJ @ € 85.00 = € 255.00
1 x ICY Dock MB454SPF @ € 140.00 = € 140.00
1 x CF to IDE adapter @ € 18.00 = € 18.00
Die 3Ware prijs heb je zeker van hardeschijven.com?
Als ik daar naar de 3Ware voor 210 kijk is dat de 9650SE 2LP variant en volgens de 3Ware site is dat de 2 poort versie, of heb ik het dan verkeerd omdat je met ML (=MultiLane) er in totaal 4 kaarten aan kan hangen?

"A study in the Washington Post says that women have better verbal skills than men. I just want to say to the authors of that study: Duh."


Acties:
  • 0 Henk 'm!

  • carpcatcher
  • Registratie: Oktober 2002
  • Laatst online: 24-04 18:31
Modbreak:*knip*

Voor elk op zichzelf staand vraag dien je een nieuw topic te starten. Daarnaast is dit ook nog compleet offtopic. Neem ook eens de Registratievoorwaarden / korte FAQ door voor een uitleg over de werking van GoT :)

[ Voor 82% gewijzigd door BalusC op 08-02-2007 18:57 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14-05 17:57

Shuriken

Life is all about priorities

DarkHelmet schreef op donderdag 08 februari 2007 @ 15:25:
[...]


Die 3Ware prijs heb je zeker van hardeschijven.com?
Als ik daar naar de 3Ware voor 210 kijk is dat de 9650SE 2LP variant en volgens de 3Ware site is dat de 2 poort versie, of heb ik het dan verkeerd omdat je met ML (=MultiLane) er in totaal 4 kaarten aan kan hangen?
Er klopt iets niet in de prijslijst bij hardeschijven.com. Die versie is idd de 2 poorts SATA versie. Daar kan je dus max 2 schijven op aansluiten.

[ Voor 86% gewijzigd door een moderator op 08-02-2007 18:57 . Reden: irrelevant stukje weggeknipt ;) ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Zojuist gespot bij alternate: Intel® PRO/1000 GT Desktop Adapter voor 29,- euro.
http://www.alternate.nl/h...?artno=lgpi05&baseId=2237
http://www.intel.com/netw...a_sheets/pro1000gt_da.pdf
Significantly reduces CPU utilization and increases throughput
Nu nog de vraag hoe de kaart het in de praktijk doet:
- driver support voor FreeNAS/FreeDSB/Linux (windows support zal vast ok zijn)
- benchmarks (performance, cpu offload)

Edit: beetje karige feedback, maar wel positieve reacties: http://www.newegg.com/Pro....asp?item=N82E16833106121

[ Voor 11% gewijzigd door vargo op 08-02-2007 18:18 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

vargo schreef op donderdag 08 februari 2007 @ 18:03:
Zojuist gespot bij alternate: Intel® PRO/1000 GT Desktop Adapter voor 29,- euro.
http://www.alternate.nl/h...?artno=lgpi05&baseId=2237
Je hebt geen PCI-express?
Nu nog de vraag hoe de kaart het in de praktijk doet:
- driver support voor FreeNAS/FreeDSB/Linux (windows support zal vast ok zijn)
- benchmarks (performance, cpu offload)
De Intel Pro/1000 PT die ik heb doet het prima; drivers van Intel zelf werken ook goed. In de nieuwe versie (6.2-RELEASE en 7-CURRENT) zitten ook de nieuwe opensource drives; die heb ik niet getest verder maar de oude opensource drivers werkte niet voor mij. Huidige versie van FreeNAS is gebaseerd op 6.2-PRERELEASE dus mogelijk dat dit nog de oude drives hebben; dan zou je handmatig FreeNAS een nieuwe driver moeten bezorgen; no big deal verder. :)

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Niet in alle machines. Voor de nieuwe NAS ga ik eerst de onboard controller proberen...

Acties:
  • 0 Henk 'm!

  • KhaZ
  • Registratie: November 2003
  • Laatst online: 18-05 22:42

KhaZ

Alfa Romeo

KhaZ schreef op woensdag 07 februari 2007 @ 13:52:
Ik ben dus ook van plan een NAS te maken, alleen zie ik 1 probleem, namelijk de kast.

Graag zou ik zo'n klein mAtx mobo gebruiken, en dan in een barebone of een klein maatje groter. Het probleem is vaak, dat je in zulke kastje niet 4 of 5 schijven kwijt kan. Ik zoek dus een kleine kast, met veel ruimte voor harde schijven, iets wat bijna onvindbaar lijkt. Heb een CM Stacker als desktopcase, maar voor een server zoek ik iets echt kleins.

Is er hier iemand die als het ware een desktopbehuizing in een barebonebehuizing heeft/weet te vinden?
Niet om opdringerig te zijn, maar om het tussen de raid5 benchmarks door toch even onder de aandacht te brengen: heb nog eens goed gezocht naar een kast, en m'n oog is gevallen op de Lian Li PC-V300 (klik voor plaatjes). Het zier er naar uit dat er sowieso 2 of 3 schijven in kunnen, en als je de drivebay voor de DVD/CD niet gebruikt, en eventueel wat dingen ombouwt, passen er denk ik prima 4 schijven in. En toch is dit niet helemaal wat ik zoek.

Het mooist zou zijn een kast met de breedte van een hardeschijf, dus zo'n 10-12cm, en de hoogte van een barebone. De lengte mag best wat langer zijn. Iemand hier die toevallig zoiets heeft?

AMD 5800X3D | MSI B450 Tomahawk MAX | 16GB DDR4 Crucial 3.200Mhz CAS 16 | PNY GeForce RTX 2060 | Samsung 970 Evo Plus 500GB


Acties:
  • 0 Henk 'm!

  • chewbacca
  • Registratie: Januari 2004
  • Laatst online: 22-04 20:06
vargo schreef op donderdag 08 februari 2007 @ 18:03:
Nu nog de vraag hoe de kaart het in de praktijk doet:
- driver support voor FreeNAS/FreeDSB/Linux (windows support zal vast ok zijn)
- benchmarks (performance, cpu offload)
Linux support voor de intel (e1000 driver) reeks zit wel snor. Mijn laatste benchmark is alweer een tijd(je) geleden, maar ik dat was volgens mij >= 70MB/s over NFS (zal morgen es ff testje draaien als ik tijd heb). CPU-offload geen idee.
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 22:15:
Zorg dan wel dat je bonnie patcht, want in zijn huidige vorm is de benchmark flawed......
Ik was eigenlijk van plan IOzone te gaan gebruiken, die is wat grondiger denk ik. Maar bedankt voor de tip.
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 22:15:
Idd coole feature die geom op dit moment nog mist! [...] En volgens mij kan ZFS dat ook (iemand die dit kan bevestigen?)
ZFS-raid reshaping: zfs_last.pdf blz. 21. Niet helemaal een eenduidig antwoord, maar het wijst idd wel in die richting. Wat FreeNAS betreft, zodra het logical volumes en raid(5)-reshaping ondersteund is het voor mij echt ideaal.
Anoniem: 41852 schreef op woensdag 07 februari 2007 @ 22:15:
aar mijn mening zou fundamentele peilers als storage toch echt in de kernel thuishoren; maargoed.
Hier moek je helaas gelijk in geven. :( (Hopelijk dat ze het ook ooit onder een GPL-compatibele license vrijgeven).

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Ik heb mijn spullen sinds dit weekend binnen. Ga vanavond de hardware in elkaar schroeven en misschien al een 1e test draaien met FreeNAS.

Zou natuurlijk mooi zijn als 'we' een gezamelijk set benchmarks hebben zodat we onderlinge performance kunnen vergelijken. Die Bonnie benchmark klinkt vrij outdated... Iemand enige ervaring met http://tweakers.net/benchdb ?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

vargo schreef op maandag 12 februari 2007 @ 11:37:
Ik heb mijn spullen sinds dit weekend binnen. Ga vanavond de hardware in elkaar schroeven en misschien al een 1e test draaien met FreeNAS.
Hey cool, voor welke hardware ben je nou gegaan?
Zou natuurlijk mooi zijn als 'we' een gezamelijk set benchmarks hebben zodat we onderlinge performance kunnen vergelijken. Die Bonnie benchmark klinkt vrij outdated... Iemand enige ervaring met http://tweakers.net/benchdb ?
BenchDB heeft alleen windows-benchmarks (die femme toch :+), maar wat is er mis met bonnie?
Ik kan jullie wel een serie benchmark-scripts toesturen die ik zelf gebruik voor geom benches; dat geeft een heel aardig beeld van de performance, zowel STR als random I/O. Deze bevatten o.a.:

- DD benchmark (raw device STR)
- Bonnie benchmark (patched met cooldown periode)
- raidtest (random I/O)
- rawIO (idem)
- tar portsfile extracten naar mounted device; en dan cpu time en real time meten

Dat zou een leuk beeld moeten geven van je performance. :)

Maar aangezien het een NAS is, kun je natuurlijk ook met SiSoftware Sandra over het netwerk testen; dat is namelijk de performance die je uiteindelijk zult halen.

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Mijn cpu en mamaplank zijn momenteel ook onderweg. Keuze is gevallen op een Sempron 3000+ en een Asus K8N4E-Deluxe. Ik heb nog 2 reepjes 128 MB PC2700 DDR van Samsung liggen, tenzij dit een bottleneck gaat vormen voor de performance, anders gooi ik er 512 in. Schijven worden waarschijnlijk 4x 320 GB Maxtor met 16 MB Cache.

Ik ben wel geinteresseerd in die scripts. Misschien een idee om ze ergens op een site te zetten?

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Anoniem: 41852 schreef op maandag 12 februari 2007 @ 12:20:
[...]

Hey cool, voor welke hardware ben je nou gegaan?
Het lijstje wat ik eerder poste. Dus Asus K8N4-E Deluxe, sempron 2800+, 512MB, 3x 500GB.
Ik moet ook het netwerk binnenkort nog eens een keer upgraden, maar eerst maar eens het NAS draaiende krijgen.
[...]

BenchDB heeft alleen windows-benchmarks (die femme toch :+), maar wat is er mis met bonnie?
Ik kan jullie wel een serie benchmark-scripts toesturen die ik zelf gebruik voor geom benches; dat geeft een heel aardig beeld van de performance, zowel STR als random I/O. Deze bevatten o.a.:

- DD benchmark (raw device STR)
- Bonnie benchmark (patched met cooldown periode)
- raidtest (random I/O)
- rawIO (idem)
- tar portsfile extracten naar mounted device; en dan cpu time en real time meten

Dat zou een leuk beeld moeten geven van je performance. :)

Maar aangezien het een NAS is, kun je natuurlijk ook met SiSoftware Sandra over het netwerk testen; dat is namelijk de performance die je uiteindelijk zult halen.
Benchmark scripts: graag!

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
De Asrock 939sli32-esata2 staat wel in de pricewatsch, maar niet (meer?) bij de bedrijven op de webshop. Wel mobo zou men dan aanraden? 4x sata, onboard video, onboard gigabit en als het ff kan SDR SD-RAM (daar heb ik nog gigabytes van liggen :P) met als belangrijkste eis: ondersteund door FreeNAS :P
Edit: Okee, SDR wordt dus echt helemaal niets :+ Dan maar DDR :P
Edit2: Asus A8N-VM CSM zou moeten werken met deze netwerkdriver. SATA moet ik nog uitzoeken.
Edit3: Onder de supported devices staan alleen raidcontrollers 8)7 Iemand enig idee waar ik een lijst supported non-raid controllers kan vinden? :P
Edit4: Bij de omschrijving van de ATA-driver :P Ik neem aan dat nForce 430 onder nForce4 valt?
Edit5: Ja dus :P nForce 430 == nForce4 soutchbridge met ingebouwde GeForce 6150
Ik heb een bordje gevonden \o/ :P 4x SATA op de southbridge, 1x gigabit op de northbridge, onboard VGA, voor 68 euro ex transport als je de webshop aandurft ("voldoende" als shopsurvey).

Dit op basis van http://www.freebsd.org/releases/6.2R/hardware-i386.html
Ik weet allen niet op welke versie van FreeBSD FreeNAS is geinspireerd, en of ik die kernel gerecompiled krijg zoals hier staat http://www.se.hiroshima-u...software/freebsd-nfe.html

[ Voor 47% gewijzigd door Paul op 12-02-2007 15:35 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Net even de nieuwe graid5-versie (The Next Generation :P) getest op 8 disks:
.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
 DD benchmark(1GB)      Results in MB/s                 avg
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
4k      READ            58.1    58.7    59.0            58.6
        WRITE           155.5   155.8   154.3           155.2
16k     READ            130.0   125.6   129.5           128.3
        WRITE           308.5   306.3   306.9           307.2
64k     READ            183.8   183.9   188.9           185.5
        WRITE           416.9   416.7   415.8           416.4
128k    READ            197.3   194.4   197.6           196.4
        WRITE           421.0   426.2   399.7           415.6
1m      READ            193.0   196.8   198.1           195.9
        WRITE           327.6   330.3   331.0           329.6

416MB/s software RAID5 write, gewoon hoeeeeeee geil. :X 8) >:)

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Anoniem: 41852 schreef op maandag 12 februari 2007 @ 14:58:
416MB/s software RAID5 write, gewoon hoeeeeeee geil. :X 8) >:)
Mischien een stomme vraag, maar hoe kan het dat writes sneller zijn dan reads?

Acties:
  • 0 Henk 'm!

Anoniem: 41852

El Cid schreef op maandag 12 februari 2007 @ 15:10:
[...]


Mischien een stomme vraag, maar hoe kan het dat writes sneller zijn dan reads?
Geen read-ahead; dit zijn gewoon raw device benchmarks zonder enige vorm van optimalisatie. Bij writes doet geom_raid5 zelf al request combining dus dat werkt erg efficient, voor reads dus niks. Test je met bonnie dan heeft die ook 400MB/s read speed; al moet de writes iets inleveren (236MB/s).

We zijn nu bezig de instellingen aan het optimaliseren voor een array van deze grootte, om te kijken of we met UFS' 8-queue diepte de write speed kunnen vasthouden; dan merk je de performance dus ook IRL. :)

Maar de potentie is er, de bottleneck is nog steeds de fysieke disken zelf! Zou me niks verbazen als met de 16 disk NAS die mn vriend gaat bouwen we snelheden zien die Areca niet kan halen. 8)

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

Enlightenment, denk je dat 256 MB geheugen de performance erg nadelig beinvloedt?

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

Anoniem: 41852

C@SP schreef op maandag 12 februari 2007 @ 15:46:
Enlightenment, denk je dat 256 MB geheugen de performance erg nadelig beinvloedt?
Niet genoeg om veel uit te maken via gigabit. Ik heb zelf FreeNAS gebenched op mn 2GB server maar het geheugen gelimit tot 256MB en daarbij haalde ik prima snelheden. Ik denk niet dat het geheugen een bottleneck is; iig 0% swap gebruikt ofzo.

Wat wel zo is, is dat geheugen als filecache gebruikt wordt. Dat kan b.v. dingen als random read sterk versnellen. Stel je zou spellen/applicaties of andere dingen op je NAS draaien waar er dus niet sequentieel gelezen wordt, dan kan het uit de RAM cache getrokken worden en dat is wel stukken sneller. Maar meestal gebruik je een NAS voor opslag van grote bestanden, dus zou dat niet zo'n issue zijn.

Wil je dalijk ook X gaan draaien (al dan niet remote) zodat je torrents/aMule/P2P etc. kunt draaien dan zou ik wel minimaal 512MB nemen; maar voor alleen NAS zou 256MB echt voldoende moeten zijn.

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 10:56

C@SP

Biertje ??

In het begin zal het puur NAS gebruik zijn, eventueel een web- of ftp servertje erbij. Is het mogelijk om de nieuwe release van geom_raid5 te gebruiken met FreeNAS?

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 11:55

Microkid

Frontpage Admin / Moderator PW/VA

Smile

Topicstarter
Anoniem: 41852 schreef op maandag 12 februari 2007 @ 14:58:
Net even de nieuwe graid5-versie (The Next Generation :P) getest op 8 disks:
.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
 DD benchmark(1GB)      Results in MB/s                 avg
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
4k      READ            58.1    58.7    59.0            58.6
        WRITE           155.5   155.8   154.3           155.2
16k     READ            130.0   125.6   129.5           128.3
        WRITE           308.5   306.3   306.9           307.2
64k     READ            183.8   183.9   188.9           185.5
        WRITE           416.9   416.7   415.8           416.4
128k    READ            197.3   194.4   197.6           196.4
        WRITE           421.0   426.2   399.7           415.6
1m      READ            193.0   196.8   198.1           195.9
        WRITE           327.6   330.3   331.0           329.6

416MB/s software RAID5 write, gewoon hoeeeeeee geil. :X 8) >:)
Dit zijn natuurlijk weinig zeggende getallen. Ga eens een flinke directory (bijv i386) kopieren en neem dan de tijd nog eens op. :)

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Acties:
  • 0 Henk 'm!

Anoniem: 41852

C@SP schreef op maandag 12 februari 2007 @ 18:00:
In het begin zal het puur NAS gebruik zijn, eventueel een web- of ftp servertje erbij. Is het mogelijk om de nieuwe release van geom_raid5 te gebruiken met FreeNAS?
Sure, gewoon op FreeBSD bak compileren en kopieren. Handigste is natuurlijk als je de FreeNAS-schijf in een BSD pc kunt inbouwen; of als je FreeBSD op een andere partitie dan FreeNAS draait; dan kun je met FreeBSD dus wat dingen aan FreeNAS veranderen.

Maar uiteindelijk zullen nieuwe FreeNAS-versies ook de nieuwe geom_raid5 gebruiken.

Acties:
  • 0 Henk 'm!

  • chewbacca
  • Registratie: Januari 2004
  • Laatst online: 22-04 20:06
Microkid schreef op maandag 12 februari 2007 @ 18:24:
Dit zijn natuurlijk weinig zeggende getallen. Ga eens een flinke directory (bijv i386) kopieren en neem dan de tijd nog eens op. :)
Kweetnie hoor, maar als ik dit correct lees word er een File van 1 Gigabyte gelezen en geschreven in stripes van 4, 16, 64 ,128 en 1024KB, dus zijn dat best wel indrukwekkende getallen. Wat ik mij meer afvraag is wat is de gebruikte hardware en hoe hoog is je CPU-load? Dan weet je ongeveer in welke context je het moet plaatsen

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Microkid schreef op maandag 12 februari 2007 @ 18:24:
Dit zijn natuurlijk weinig zeggende getallen. Ga eens een flinke directory (bijv i386) kopieren en neem dan de tijd nog eens op. :)
Je bedoelt veel kleine files? Ja dan heb je natuurlijk niet met puur sequentiele performance te maken. Voor een NAS, waarbij doorgaans met grote files (700MB of 4GB) wordt gewerkt is sequentiele performance wel heel belangrijk. Dus in die zin is het niet 'weinig zeggend'. Maar het zegt weinig over random I/O performance, akkoord. Meer ingewikkeldere benches heeft voor NAS geen zin, maar komt wel in mijn geom raid artikel.
chewbacca schreef op maandag 12 februari 2007 @ 18:53:
Kweetnie hoor, maar als ik dit correct lees word er een File van 1 Gigabyte gelezen en geschreven in stripes van 4, 16, 64 ,128 en 1024KB, dus zijn dat best wel indrukwekkende getallen. Wat ik mij meer afvraag is wat is de gebruikte hardware en hoe hoog is je CPU-load? Dan weet je ongeveer in welke context je het moet plaatsen
Bonnie gebruikt zelfs 4GB. Maar bij DD benchmark die ik postte is er geen RAM buffer in het spel (raw device) dus zou dat geen kunstmatig hoge resultaten mogen opleveren.

Gebruikte hardware:
AMD Athlon 64 X2 3800+ (2x2.0GHz, 512KB)
2x1GB = 2GB DDR/400 CL2,5
8x Maxtor Maxline III 250GB SATA
draaiend op FreeBSD 7-CURRENT met graid5-tng (feb-2007), stripesize 128KB.

CPU belasting heb ik net even test voor gedaan met simpele DD naar raw device toe. De cpu bleef daarbij 45% idle. Het zijn twee cores; dus zeg dat hij 1 core helemaal opslokt; 2.0GHz. Tijdens de DD was dat met 420MB/s write snelheid op totaal 47GB overdracht:
47755034624 bytes transferred in 113.446281 secs (420948437 bytes/sec)

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Ik heb geprobeerd een alternatief te vinden voor het Asus k8n4e-deluxe moederbord wat niet meer verkrijgbaar lijkt....ik zou wat hulp bijzonder op prijs stellen daar ik zeer geinspireerd ben geraakt om eens aan de slag te gaan met FreeNAS (Thx boys!)

Ik zoek een FreeNAS ondersteund moederbord met tenminste 8x SATA onboard en liefst ook 2x 1Gb netwerk. Nu heb ik de MSI K8N Neo4 gezien met de volgende specs:

CPU
• Supports 64-bit AMD® Opteron™, Athlon™ 64 X2 Dual Core, Athlon™ 64 FX, Athlon™ 64 processor (Socket 939)
• Supports up to 3500+, 3800+ Athlon 64 FX 53, or higher CPU

Chipset

• NVIDIA® nForce4 Ultra Chipset
- HyperTransport link to the AMD Athlon 64/Athlon 64 FX CPU
- HyperTransport supporting speed up to 1GHz (2000MT/s)
- Supports PCI Express x16/x1 interface
- Two independent SATA controllers, for four drives

• Supports dual LAN jacks
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E1111 PHY
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E8053

On-Board IDE
• An IDE controller on the NVIDIA nForce4 Ultra chipset provides IDE HDD/CD-ROM with PIO,
Bus Master and Ultra DMA133/100/66 operation modes.
- Can connect up to 4 IDE devices

On-Board SATA
• NV RAID supports 4 SATA II ports(SATA 1 to 4). Transfer rate is up to 300MB/s.
NV RAID (Software)
• Supports up to 4 SATA and 4 ATA133 Hard drives
- RAID 0 or 1, 0+1, JBOD is supported
- RAID function available for ATA133+SATA H/D drives

Silicon Image's SATARAID5™ (Software) (Met Silicon Image 3114 chip heb ik begrepen)
• RAID 0 or 1, RAID5, RAID10, and JBOD groups are supported
• Support up to 4 SATA devices connected to a single controller

Memory
• Supports dual channel DDR 266/333/400, using four 184-pin DDR DIMMs.
• Supports a maximum memory size up to 4GB without ECC.

• One PCI Express x16 slot (supports PCI Express Bus specification v1.0a compliant)
• One PCI Express x4 slots (support PCI Express x2 only)
• One PCI Express x1 slots (support PCI Express Bus specification v1.0a compliant)
• Four 32-bit v2.3 Master PCI bus slots (support 3.3v/5v PCI bus interface).

Is dit een bord waar ik mee aan de slag kan? En wat voor een processor moet aan denken om de prestatie van de 2x1Gb netwerk ook zo hoog mogelijk te krijgen? Deze server hoeft dus ALLEEN FreeNAS te draaien, en dus geen ftp, web of net wat.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Volgens http://www.freebsd.org/releases/6.2R/hardware-i386.html ondersteund de "ata"-driver de nForce4 en de Sil3114, de "nve"-driver de netwerkkaarten, dan zit je alleen nog met de PHY-dingesen.

Voor die 88E1111 moet je hiermee je kernel patchen en compileren, voor de 88E8053 schijn je drivers op de Marvell-site te kunnen downloaden maar die is momenteel uit de lucht.

Gezien de specs (2e NIC en 2e SATA-controller) heb je het over de Platinum-uitvoering :P
pricewatch: MSI K8N Neo4 Platinum, nForce 4 Ultra (Sound, LAN, SATA-RAID, 1394)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 74530 schreef op maandag 12 februari 2007 @ 21:02:
Ik heb geprobeerd een alternatief te vinden voor het Asus k8n4e-deluxe moederbord wat niet meer verkrijgbaar lijkt
Ja erg jammer; en het ASRock bordje was ook al niet meer verkrijgbaar. :(
....ik zou wat hulp bijzonder op prijs stellen daar ik zeer geinspireerd ben geraakt om eens aan de slag te gaan met FreeNAS (Thx boys!)
Nu voel ik mij gediscrimineerd ;(
Ik zoek een FreeNAS ondersteund moederbord met tenminste 8x SATA onboard en liefst ook 2x 1Gb netwerk. Nu heb ik de MSI K8N Neo4 gezien met de volgende specs:
Ziet er goed uit! Ik ben ook tijdje opzoek geweest naar borden met 8x SATA maar die waren toch enorm zeldzaam; en vaak erg duur. In de pricewatch zie ik een link voor 74 euro; als ze ze daar nog kunnen krijgen; gelijk kopen! Zeker goeie prijs voor wat je krijgt. :)
Is dit een bord waar ik mee aan de slag kan? En wat voor een processor moet aan denken om de prestatie van de 2x1Gb netwerk ook zo hoog mogelijk te krijgen? Deze server hoeft dus ALLEEN FreeNAS te draaien, en dus geen ftp, web of net wat.
Hangt erg van de drivers af; maar zelfs bij de slechte nForce4 (nve) drivers haal je met Sempron makkelijk 80MB/s network performance (hetgeen neerkomt op 62MB/s CIFS/SMB netto performance).

Zelf zou ik een Athlon 64 3000+ nemen, vanwege energieverbruik en lage kosten. Wil je meer, kijk dan naar een Athlon 64 3800+ X2; dan heb je voor FreeNAS wel een SMP kernel nodig (ik weet niet of dat standaard al erin zit). Die goedkope dualcores zijn nu wel voordelig denk ik. FreeBSD kan er goed mee overweg.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Kleine 1e update!

Ik heb 2e hands een MSI K8N Neo4 Platinum kunnen kopen, wordt nu verstuurd! Nu nog even geheugen en een processor vinden :-)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Stoer =)

PS: geheugen als het even kan CL 2,5; als je goed zoekt is dan geeneens duurder dan CL 3,0. DDR/400 natuurlijk. Als je dan op DDR/333 draait (voor sempron) dan kun je ook op CAS2 draaien wat natuurljik lekker snel is. :)
graid5 is erg gesteld op geheugen latency. Liever 256MB snel geheugen dan 512MB langzamer.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Jij bent een dame naar mijn hart :-) Geweldig dank voor je hulp so-far aan eenieder in dit topic!

Tot zo met updates!

Je sprak overigens over een Athlon 64 3800+ X2 krijg ik daar beide Gbit adapters mee dicht? Ik wil echt proberen zo snel mogelijk te gaan (gegevens over mijn Gbit switch post ik zo even, moet ik even opzoeken in het serverrack.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Volgens mij zou dit moeten kunnen passen?

V&A aangeboden: 512MB x 2 (1GB) PC3500 DDR, CL2.5 (TwinMOS, Speed Premium)
N00b Vraag: Is CL2 dan niet NOG sneller?
Voorbeeld:
V&A aangeboden: 512MB x 2 (1GB) PC3200 DDR, CL2 (Corsair TWINX1024-3200C2)

Nu nog een x2 proc :-(

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Beide links? Wil je aan link aggregation gaan doen, dus 2Gbps link? Daar heb ik nog geen ervaring mee.

Als je drivers schoon zijn (die intel drivers zijn wel goed denk ik) dan zou dat wel lukken met dualcore denk ik ja. Ik zou dan sowieso wel een dualcore nemen. Zijn tegenwoordig ook goed betaalbaar.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Ik wil inderdaad proberen met de ONBOARD 2x NW 1Gb link aggregation te doen (als de switch dat aankan) Overigens ga ik nog deftig hulp van iemand (hint, hint) nodig hebben om een compile te maken voor deze setup van FreeNAS, want ik heb echt geen fluit verstand van Linux vrees ik; en ik begrijp dat sowieso de beide netwerkchips nog erbij gecompiled dienen te worden.

Ik ben echt excited over dit project, gaat een hoop centjes kosten maar je hebt mij (ons?) echt aangespoord tot experimenteren Enlightement!

Dus nu nog proc en geheugen (zie vorige vraag) en dan even wachten of ik eea bij elkaar krijg :-)

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Ervaring met Linux is ook niet vereist, al is het wel nuttig, aangezien FreeBSD (Waar FreeNAS van is afgeleid) een stuk meer op Linux lijkt dan op bijvoorbeeld Windows :P

Met http://www.freenas.org/downloads/docs/devel-docs/ moet je een heel eind kunnen komen. Heb je ergens een FreeBSD-doos voor nodig tijdens een van de stappen dan kun je daarvoor bijvoorbeeld de gratis VMWare player met een (net zo gratis) FreeBSD 6.2 appliance voor gebruiken :)

Hmm, die devel-docs zien er nog behoorlijk ingewikkeld uit als je daar nog nooit eerder iets mee hebt gedaan :P Googlen op "compile kernel freenas" of "compile kernel freebsd" moet nog wel meer nuttige info opleveren lijkt me, dus waarschijnlijk ook wat simpeler dingen :+

[ Voor 19% gewijzigd door Paul op 13-02-2007 23:53 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • _PM
  • Registratie: Mei 2003
  • Laatst online: 00:42

_PM

Anoniem: 41852 schreef op dinsdag 13 februari 2007 @ 00:15:
...
Zelf zou ik een Athlon 64 3000+ nemen, vanwege energieverbruik en lage kosten. Wil je meer, kijk dan naar een Athlon 64 3800+ X2; dan heb je voor FreeNAS wel een SMP kernel nodig (ik weet niet of dat standaard al erin zit). Die goedkope dualcores zijn nu wel voordelig denk ik. FreeBSD kan er goed mee overweg.
Wat voor energie zuinig moederbord zou je bij een Athlon 64 3000+ nemen? Geen met Nvidia chipset neem ik aan?

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14-05 17:57

Shuriken

Life is all about priorities

_PM schreef op woensdag 14 februari 2007 @ 10:14:
[...]


Wat voor energie zuinig moederbord zou je bij een Athlon 64 3000+ nemen? Geen met Nvidia chipset neem ik aan?
De boardjes met ATI RS485 (ATI Radeon Xpress 1150) schijnen het energie zuinigste te zijn volgens een test bij Tomshardware. Ik heb alleen geen flauw idee hoe de Freebsd support hiervoor is.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • DFY
  • Registratie: Februari 2001
  • Laatst online: 16-05 06:44

DFY

Sja...

Ik ben vol interesse dit topic aan het volgen en zit er ook aan te denken om zo'n systeem te bouwen.
Ik wil er waarschijnlijk freenas op gaan draaien in RAID5 met 4 SATA schijven om mee te beginnen.
Aangezien ik ook nog 3 externe firewire schijven heb wil ik die er ook op aan gaan sluiten (maar dan niet in RAID "natuurlijk").

Enlightenment, aangezien jij wel verstand van zaken lijkt ;) te hebben en ervaring met freenas, kan je wat zinnigs over de volgende keuze van hardware vertellen:

GigaByte Behuizing GZ-X1 Zwart, 350 Watt, 1 X 120 Mm --------------------------------------- € 53,78
Asrock Moederbord ALiveNF6G-DVI --------------------------------------------------------------------- € 52,94
Kingston ValueRam Dual Channel 512 MB, PC5300, 667 MHz, 5, Kit Of 2 -------------- € 32,77
AMD CPU Sempron 64 3200+ 1.8 GHz, 333 MHz, 128 KB L1, 256 KB L2, Boxed --- € 43,70
LaCie FireWire 400 -------------------------------------------------------------------------------------------- € 13,02
Samsung SpinPoint T166 320 GB, 7200 Rpm, 16 MB, S-ATA II/300 (x 4) --------------- € 292,44

Totaal Incl. BTW € 581,49

Het lijkt mij een zeer kostenefficiente en interessante samenstelling die ik heb bedacht maar ben er niet van overtuigd of het gaat werken met freenas en of ik hier enige performance van mag verwachten.
Belangrijk voor mij zijn: prijs, compact, +- 1TB bruikbaar, enige performance, RAID5, laag energieverbruik en dat het werkt met freenas.
En, kan ik ook mijn firewire schijven gebruiken onder freenas?

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14-05 17:57

Shuriken

Life is all about priorities

DFY schreef op woensdag 14 februari 2007 @ 13:00:
[knip]
AMD CPU Sempron 64 3000+ 1.8 GHz, 333 MHz, 128 KB L1, 256 KB L2, Boxed --- € 33,61
[knip]
Mag ik je een Sempron 3200+ aanraden. Dit ondersteund nl. wel CnQ dus is uiteindelijk energie zuiniger.

[ Voor 33% gewijzigd door Shuriken op 14-02-2007 13:37 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • DFY
  • Registratie: Februari 2001
  • Laatst online: 16-05 06:44

DFY

Sja...

Ja je hebt gelijk! Goeie, heb het direct aangepast :)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 74530 schreef op dinsdag 13 februari 2007 @ 23:17:
Ik wil inderdaad proberen met de ONBOARD 2x NW 1Gb link aggregation te doen (als de switch dat aankan)
Hm niet elke NIC driver ondersteunt dat; ik zou niet durven zeggen of dat met twee verschillende NICs (iig verschillende PHYs) wel gaat werken. Wel hoor ik verhalen van FreeBSD met een intel NIC met 2 poorten; die je dan met link aggregation tot een 2Gbps link koppelt. Is het een 'harde eis' van je? Zo ja dan zou je eerst zeker moeten zijn dat het gaat werken met de hardware. En dan ook nog maar de vraag of dat gaat werken met FreeNAS of dat je toch voor een 'volwaardige' FreeBSD installatie moet gaan. FreeNAS is niet zo heel makkelijk te 'tunen' omdat het erg minimalistisch is.
Overigens ga ik nog deftig hulp van iemand (hint, hint) nodig hebben om een compile te maken voor deze setup van FreeNAS, want ik heb echt geen fluit verstand van Linux vrees ik; en ik begrijp dat sowieso de beide netwerkchips nog erbij gecompiled dienen te worden.
Dat kan ik wel voor je doen. Denk wel even over je wensen/eisen of je voor FreeNAS wilt of toch voor FreeBSD.
Ik ben echt excited over dit project, gaat een hoop centjes kosten maar je hebt mij (ons?) echt aangespoord tot experimenteren Enlightement!
En jullie mij. :>
En met name voor het schrijven van NAS artikel (nog niet af!).
_PM schreef op woensdag 14 februari 2007 @ 10:14:
Wat voor energie zuinig moederbord zou je bij een Athlon 64 3000+ nemen? Geen met Nvidia chipset neem ik aan?
nVidia chipsets zijn vaak actief gekoeld; dat is een aardige indicatie dat hij wel trek heeft in wat extra elektronen. Een ULi chipset daarintegen is altijd passief gekoeld met een klein heatsinkje. Daar kun je aardig goed uit afleiden dat die een stuk minder energie verbruikt. ATi chipsets weet ik niet; maar ook daar geldt: passief gekoeld? Dan zou het wel binnen de perken moeten blijven. Tenzij je een heatsink-setup ziet; dan kan het passief gekoeld zijn en toch relatief veel energie verbruiken.
DFY schreef op woensdag 14 februari 2007 @ 13:00:
Ik ben vol interesse dit topic aan het volgen en zit er ook aan te denken om zo'n systeem te bouwen.
Ik wil er waarschijnlijk freenas op gaan draaien in RAID5 met 4 SATA schijven om mee te beginnen.
Aangezien ik ook nog 3 externe firewire schijven heb wil ik die er ook op aan gaan sluiten (maar dan niet in RAID "natuurlijk").
Je zou eventueel je firewire schijven prima kunnen 'meenemen' in je RAID5 array. Dan zou je dus 7 schijven hebben in RAID5; dan is je overhead ook weer minder. Let wel: de schijven moeten dezelfde grootte hebben. Is een schijf 20GB minder, dan zal die ruimte 'verspild' worden op de overige schijven. De kleinste schijf is dus bepalend voor de ruimte.
Het lijkt mij een zeer kostenefficiente en interessante samenstelling die ik heb bedacht maar ben er niet van overtuigd of het gaat werken met freenas en of ik hier enige performance van mag verwachten.
Paar opmerkingen:
  • voeding: 350W is voldoende voor nu, maar voor 8+ schijven op te laten spinnen heb je 400W nodig. Zelf ga ik graag voor een efficiente voeding (>85%), zoals CoolerMaster iGreen 430W. Erg goede voeding, maar wel aan de prijs natuurlijk, alhoewel goed betaalbaar voor een kwaliteitsvoeding. Die 400W heb je overigens maar 7 seconden nodig ofzo; bij het opspinnen verbruikt een schijf tussen 20 en 35 watt. Daarna in idle iets van 8W. En standby (spindown) maar 0.5W.
  • DDR2 is iets minder geschikt; zeker aangezien geom_raid5 van een lage latency houdt, maar het zal vast ook weer niet superveel uitmaken.
  • Let erop dat je je processor voor de juiste socket koopt! Ik zie de socket niet in je lijstje staan namelijk. Is het socket 754 of AM2?
  • Firewire kaartje misschien overbodig als je mobo neemt waar firewire support al in zit.
  • belangrijkste is natuurlijk je moederbord. Het lijkt erop dat de nieuwe Realtek PHY niet ondersteund wordt (ook niet door linux). Veel kan ik er ook niet over vinden. Misschien toch even doorzoeken naar ander bordje?
  • is onboard video (IGP) echt nodig? Waarom niet gewoon een fullsize bordje en even een pci kaartje lenen uit een oude pc voor de install?
En, kan ik ook mijn firewire schijven gebruiken onder freenas?
Goeie vraag, denk van wel. FreeBSD heeft iig firewire support. Zal eens navragen. :)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Hier link naar MSI K8N Neo4 Platinum bordje (Socket 939) van vorige pagina:
http://www.msi.com.tw/pro...ro_mbd_detail.php?UID=637

Heeft: 8x SATA, 2x Gigabit LAN, Firewire (2 poorten)

Je moet wel opletten want er zijn twee versies van dit mobo, revisie 1 moet je hebben, revisie 3 heeft maar 4x SATA, enkele gigabit en een PCI-express slot minder. Marvell LAN PHYs moet ik ff checken, maar dacht dat die wel werkten met patch.

Acties:
  • 0 Henk 'm!

  • KhaZ
  • Registratie: November 2003
  • Laatst online: 18-05 22:42

KhaZ

Alfa Romeo

Anoniem: 41852 schreef op woensdag 14 februari 2007 @ 15:04:
Hier link naar MSI K8N Neo4 Platinum bordje (Socket 939) van vorige pagina:
http://www.msi.com.tw/pro...ro_mbd_detail.php?UID=637

Heeft: 8x SATA, 2x Gigabit LAN, Firewire (2 poorten)

Je moet wel opletten want er zijn twee versies van dit mobo, revisie 1 moet je hebben, revisie 3 heeft maar 4x SATA, enkele gigabit en een PCI-express slot minder. Marvell LAN PHYs moet ik ff checken, maar dacht dat die wel werkten met patch.
Moederbord is veelbelovend, maar ik denk nergens meer leverbaar. Is er nog een webshop die 'm wel heeft liggen? Alle 3 de shops in de PW hebben een ander model liggen of helemaal niets.

AMD 5800X3D | MSI B450 Tomahawk MAX | 16GB DDR4 Crucial 3.200Mhz CAS 16 | PNY GeForce RTX 2060 | Samsung 970 Evo Plus 500GB


Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 00:00
Shuriken schreef op woensdag 14 februari 2007 @ 13:36:
[...]

Mag ik je een Sempron 3200+ aanraden. Dit ondersteund nl. wel CnQ dus is uiteindelijk energie zuiniger.
Als dit socket AM2 is heb je zelfs een 3400+ nodig voor CnQ ondersteuning, de cpu moet namelijk een kloksnelheid van 1800Mhz of hoger hebben.

Acties:
  • 0 Henk 'm!

  • DFY
  • Registratie: Februari 2001
  • Laatst online: 16-05 06:44

DFY

Sja...

Je zou eventueel je firewire schijven prima kunnen 'meenemen' in je RAID5 array. Dan zou je dus 7 schijven hebben in RAID5; dan is je overhead ook weer minder. Let wel: de schijven moeten dezelfde grootte hebben. Is een schijf 20GB minder, dan zal die ruimte 'verspild' worden op de overige schijven. De kleinste schijf is dus bepalend voor de ruimte.
Dat is helder :) Maar ik neem de schijven liever niet mee in de RAID config omdat ik die schijven portable wil houden. Het komt wel is voor dat ik er 1 in m'n tas stop, vandaar.
• voeding: 350W is voldoende voor nu, maar voor 8+ schijven op te laten spinnen heb je 400W nodig. Zelf ga ik graag voor een efficiente voeding (>85%), zoals CoolerMaster iGreen 430W. Erg goede voeding, maar wel aan de prijs natuurlijk, alhoewel goed betaalbaar voor een kwaliteitsvoeding. Die 400W heb je overigens maar 7 seconden nodig ofzo; bij het opspinnen verbruikt een schijf tussen 20 en 35 watt. Daarna in idle iets van 8W. En standby (spindown) maar 0.5W.
Duidelijk :) Mocht ik er schijven aan toevoegen, dan worden het er max 2. Dus 6 in totaal en dat moet normaliter geen probleem zijn voor een 350W voeding (al zou het een erg ineffeciente voeding zijn van minder dan 80%!)
• DDR2 is iets minder geschikt; zeker aangezien geom_raid5 van een lage latency houdt, maar het zal vast ook weer niet superveel uitmaken.
Inherent aan de keuze van het moederbord met AM2 socket.
• Let erop dat je je processor voor de juiste socket koopt! Ik zie de socket niet in je lijstje staan namelijk. Is het socket 754 of AM2?
AM2, op gelet maar toch bedankt want ik hou me al een tijdje niet meer zo bezig met al die hardware tegenwoordig.
• Firewire kaartje misschien overbodig als je mobo neemt waar firewire support al in zit.
Klopt, maar ik ben geen mooier bord tegengekomen dat
- goed geprijsd is (+- 50 euro vind ik voldoende)
- firewire heeft
- 4 SATA
- onboard video
- goed leverbaar!
• belangrijkste is natuurlijk je moederbord. Het lijkt erop dat de nieuwe Realtek PHY niet ondersteund wordt (ook niet door linux). Veel kan ik er ook niet over vinden. Misschien toch even doorzoeken naar ander bordje?
Ik ben me ervan bewust dat het moederbord het belangrijkste is, daarom leverde me dat ook de meeste problemen op om die te vinden. Zie punten bij vraag hierboven.
Maar als de Realtek PHY niet ondersteund word dan houd het natuurlijk op. Dan moet ik een ander bordje vinden. Ik ga weer op zoek :)
• is onboard video (IGP) echt nodig? Waarom niet gewoon een fullsize bordje en even een pci kaartje lenen uit een oude pc voor de install?
Ja ik ben zo iemand die dat dan toch een prettig gevoel geeft dat ik er een monitor aan kan hangen.
Goeie vraag, denk van wel. FreeBSD heeft iig firewire support. Zal eens navragen. :)
Graag, ik zou het heel fijn vinden als ik die schijven kan aansluiten.

Acties:
  • 0 Henk 'm!

  • DFY
  • Registratie: Februari 2001
  • Laatst online: 16-05 06:44

DFY

Sja...

Nielson schreef op woensdag 14 februari 2007 @ 15:22:
[...]
Als dit socket AM2 is heb je zelfs een 3400+ nodig voor CnQ ondersteuning, de cpu moet namelijk een kloksnelheid van 1800Mhz of hoger hebben.
Dat heeft de 3200+ . Zie ook deze link.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

[quote]Anoniem: 41852 schreef op woensdag 14 februari 2007 @ 14:49:
[...]

Hm niet elke NIC driver ondersteunt dat; ik zou niet durven zeggen of dat met twee verschillende NICs (iig verschillende PHYs) wel gaat werken. Wel hoor ik verhalen van FreeBSD met een intel NIC met 2 poorten; die je dan met link aggregation tot een 2Gbps link koppelt. Is het een 'harde eis' van je? Zo ja dan zou je eerst zeker moeten zijn dat het gaat werken met de hardware. En dan ook nog maar de vraag of dat gaat werken met FreeNAS of dat je toch voor een 'volwaardige' FreeBSD installatie moet gaan. FreeNAS is niet zo heel makkelijk te 'tunen' omdat het erg minimalistisch is.


[...]

Dat kan ik wel voor je doen. Denk wel even over je wensen/eisen of je voor FreeNAS wilt of toch voor FreeBSD.

----

Uiteraard heb ik geen enkel bezwaar om met FreeBSD te draaien (graag zelfs) al zal mijn hulpvraag dan alleen toenemen, ik ben echt op zoek naar de snelst mogelijke oplossing. Dus als link aggregation niet zou werken is de kans groot dat ik er alsnog een Intel dualLan bij ga zetten....

Overigens: Moet ik voor 256Mb intern geheugen gaan of voor 512Mb (of 1Gb)?

Het vinden van een processor (2e Hands X2) val me vooralsnog behoorlijk tegen.....:-(

[ Voor 3% gewijzigd door Anoniem: 74530 op 14-02-2007 18:24 ]


  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

Goh FreeNAS is hier wel erg heilig blijkbaar terwijl je er eigenlijk geen zak mee kan behalve als fileservertje laten draaien.
Gooi er dan een volledige Linux versie op of een Win2k3 installatie aangezien veel mensen hun eigen windows toch al niet zo legaal draaien.
Kan je er tenminste meerdere taken op draaien, ik vind het nogal zonde om zo'n snel systeem te kopen en er dan FreeNAS op te zetten.

Zelf draai ik FreeNAS gewoon onder VMware op OpenSuse 10.2 naast andere VM's
Dankzij VMware heb ik een Domain Controller, DHCP, DNS, mailserver,fileserver, en meerdere VM's om mee te prutsen zoals Ubuntu en FreeNAS.
Zo haal je wel het maximale uit je hardware.

[ Voor 15% gewijzigd door Bierkameel op 15-02-2007 10:25 ]


  • Mark-
  • Registratie: Juli 2003
  • Laatst online: 15-05 14:21
Misschien is het je ontgaan hoor, maar ik wil het nog wel even herhalen:

Voor software raid is deze distro de beste keus op het moment.
Zeker voor de wat minder ervaren gebruikers.
FreeNAS/FreeBSD ondersteunt geom_raid5.
deze software raid oplossing performed duidelijk beter dan elke andere die ik tot nu toe ben tegengekomen.
Ik denk dat je via vmware een hoop performance inlevert...

  • Paul
  • Registratie: September 2000
  • Nu online
Voor software raid is FreeBSD _en afgeleiden_ momenteel (mogelijk, ik heb geen vergelijkende benches gezien of gedaan :+ ) de beste keuze. Dat neemt niet weg dat FreeNAS niet veel meer is dan een fileserver.

Goed, je hebt dus PHP en een webserver (naast Samba, SCP, FTP en iSCSI) dus webbased torrents of newsgroupen binnenslepen zou nog wel moeten lukken denk ik, maar veel meer toch niet.

Dingen als DNS, databases, gameservers etc wordt lastig :)

Daarom kun je er altijd nog FreeBSD opzetten; zelfde software raid maar minder limieten. Wel een stukje lastiger op te zetten denk ik :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Mark-
  • Registratie: Juli 2003
  • Laatst online: 15-05 14:21
Daarom hou ik ook mooi mn linuxbox ernaast,
en gaat de freebsd machine inderdaad alleen files serveren d:)b


Het begin van mn eigen serverpark :Y

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 08:46
Ook al ben ik het stiekum wel een beetje met Bierkameel eens, dit topic gaat toch over een NAS bouwen, en ja.. Dat is niet meer of minder dan een basic fileserver.

Persoonlijk zou ik ook gewoon liever een full-functional server draaien waarbij je de file-server functionaliteit gewoon meeneemt. En dat kan inderdaad onder bijna elk os wat je maar wilt :)

Een van de grote nadelen van freenas / freebsd vind ik overigens echt het ontbreken van die online capacity expansion. Gewoon beginnen met een paar schijven en uitbreiden wanneer nodig.

Met een normaal linux-os en evms schijnt het wel mogelijk te zijn (ook al heb ik daar ook nog niet zo heel veel over gevonden).

En een ander goed idee wat ik over oce heb gevonden was om niet een groot raid-5 array te maken, maar meerdere kleine arrays en deze later via lvm te joinen. Op het moment dat je schijven wilt toevoegen moet je op het totale lvm array alleen genoeg vrije ruimte hebben om 1 klein array te kunnen missen. Op die manier kun je array voor array met een of meerdere extra disks uitrusten. Wel een tijdrovend karwij trouwens :)

  • Mark-
  • Registratie: Juli 2003
  • Laatst online: 15-05 14:21
Even wachten op ZFS. De port naar FreeBSD is voor 98% klaar.
zie hier voor meer info over ZFS.


Verder heb ik ook begrepen dat de ontwikkelaar van FreeNAS werkt aan een offline/online capacity expansion.

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14-05 17:57

Shuriken

Life is all about priorities

Ik ben aan het wachten op wat extra spullen:
Silverstone Sugo Evolution
pricewatch: Silverstone SST-NT06 (Socket 478/479/775/754/939/940)
pricewatch: Silverstone ST50EF+, 500W (ATX12V 2.2)

De laatste is een 80 plus voeding (en in mijn geval met short cables). Ik hoop daarmee een kleine energiezuinige en stille "NAS" te kunnen gaan bouwen.

Daarin wil ik dan mn A8N-VM CSM met Venice 3000+ en 1 gig DDR400 zetten met daarbij 3 Hitachi 7k250 120GB.

Ik heb tevens nog een hardware raid 5 kaart op de plank liggen. Deze is echter PCI-X en zal waarschijnlijk niet volledig tot zijn recht komen. Aan de andere kant is het misschien zo dat ie genoeg performance kan leveren om mn gigabit netwerk te kunnen voorzien.

Dan wil ik eens gaan testen met FreeNas, openfiler (iscsi support) en wellicht Windows Home Server beta.

Nadeel aan laatste is dat ik die waarschijnlijk niet van een flash module af kan draaien.

[ Voor 24% gewijzigd door Shuriken op 15-02-2007 10:53 ]

I rather have a bottle in front of me, then a frontal lobotomie


  • Paul
  • Registratie: September 2000
  • Nu online
\o/ iemand die het aandruft een nVidia chipset met Marvell PHY te gebruiken :P zou je hier willen melden of je het aan de gang krijg, en hoe? :P Waarschijnlijk door de kernel te patchen en compileren, maar ik heb het meestal niet zo op .patches op vage Japanse sites :+

@ Hieronder: Ik bedoel dan ook met name (of eigenlijk alleen maar:) in combinatie met FreeBSD :P
Ik heb zelf ook een nVidia chipset. "Erger" nog, ik kom er net achter dat ik zelfs dezelfde PHY's heb als dat Asus-bordje, dus ik zou het zelf nog wel kunnen testen ook :o

[ Voor 28% gewijzigd door Paul op 15-02-2007 11:45 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14-05 17:57

Shuriken

Life is all about priorities

Paul Nieuwkamp schreef op donderdag 15 februari 2007 @ 10:59:
\o/ iemand die het aandruft een nVidia chipset met Marvell PHY te gebruiken :P zou je hier willen melden of je het aan de gang krijg, en hoe? :P Waarschijnlijk door de kernel te patchen en compileren, maar ik heb het meestal niet zo op .patches op vage Japanse sites :+
Ik heb het board op dit moment in mn HTPC zitten. Dus redelijk risicoloos. Als ik het zootje binnen heb zal ik eens kijken of ik het aan de praat krijg. Ik kan mn weg in linux redelijk goed vinden. Maar heb weinig tot geen ervaring met FreeBSD, dus zal even puzzelen worden.

I rather have a bottle in front of me, then a frontal lobotomie


Anoniem: 41852

Twynn schreef op donderdag 15 februari 2007 @ 09:57:
Ook al ben ik het stiekum wel een beetje met Bierkameel eens, dit topic gaat toch over een NAS bouwen, en ja.. Dat is niet meer of minder dan een basic fileserver.
Inderdaad; wil je iets meer dan een NAS dan ben je opzoek naar een multifunctionele server. Dit topic gaat over een NAS; dus logisch dat FreeNAS voorbij komt omdat dit zeer geschikt is als NAS OS en tevens zeer makkelijk in het gebruik.
Persoonlijk zou ik ook gewoon liever een full-functional server draaien waarbij je de file-server functionaliteit gewoon meeneemt. En dat kan inderdaad onder bijna elk os wat je maar wilt :)
Dat is waar; ware het niet dat je met Windows veel minder deftige RAID5 support hebt, en dat geldt voor linux in mindere mate ook.

Wat je natuurlijk wel kunt doen is eerst een tijdje FreeNAS draaien, en op het moment dat je wat meer wilt, installeeer je FreeBSD. Beide gebruiken geom_raid5 dus in feite is dat een kleine 'omschakeling'. Je moet dan alleen wel zelf aan de gang met Samba, Apache, MySQL etc.

Ik kan me voorstellen dat iemand uiteindelijk wel een full-fledges server wilt, maar 'rustig aan' wilt beginnen. Dan zou ik aanraden eerst FreeNAS een tijdje te gebruiken en zodra hij/zij meer wilt er FreeBSD op te zetten.
Een van de grote nadelen van freenas / freebsd vind ik overigens echt het ontbreken van die online capacity expansion. Gewoon beginnen met een paar schijven en uitbreiden wanneer nodig.
Ik zou aanraden om het gelijk 'goed' te doen; bijvoorbeeld 8 schijven van 500GB in RAID5. Geld voor de schijven moet je dan wel hebben natuurlijk.

Online capacity expansion is in ontwikkeling voor geom_raid5; dus wanneer je nu FreeNAS installeert is de kans groot dat je tegen de herfst die functie kunt gebruiken. Aangezien je de functie dan pas nodig hebt, is het dus niet erg dat deze nu nog ontbreekt. Straks update je FreeNAS en dan zit die functie er dus gewoon in; en dan pak je dus gewoon 2 of meer schijven bij je array. Maar garanties zijn er natuurlijk niet; maar tegen die tijd zal ZFS-port ook stabiel zijn en goed bruikbaar. En die ondersteunt ook online capacity expansion.
En een ander goed idee wat ik over oce heb gevonden was om niet een groot raid-5 array te maken, maar meerdere kleine arrays en deze later via lvm te joinen.
Hoe denk je over een 10-disk RAID5 volume? Of 14-disk? Dat is wat een vriend van me nu draait, en snel joh. :)

Misschien dat andere RAID5-implementaties wel slecht tegen een groot array kunnen; geom_raid5 lust graag meer schijfjes. :9

[ Voor 3% gewijzigd door Anoniem: 41852 op 15-02-2007 13:59 ]


Acties:
  • 0 Henk 'm!

  • Tacoos
  • Registratie: Januari 2001
  • Laatst online: 06:39

Tacoos

i am i

Gisteren heb ik van m'n stapel oude onderdelen een pceetje gebakken met linux mdraid 5:
celery 366 @ 460
448 Mb RAM
2 x 60 GB maxtor ATA133 aan promise 1
2 x 12 GB maxtor ATA66 aan promise 2

OS: opensuse 10.2

OS staat op 1x 60 GB maxtor, de drie raid partities van 12 GB 1x op een 12 GB maxtor en op beide 60 GB schijven 1x

Is alleen maar om effe te kijken hoe moeilijk 't is om zo'n systeem op te zetten. Met Opensuse in elk geval tot zover een fluitje van een cent >:)
De bedoeling is om daar FreeBSD met geom_raid 5 naast te zetten, of misschien wel FreeNAS, want geom_raid 5 inrichten onder FreeBSD is tamelijk complex voor mij :9

Nic is een 100 Mbit 3com3c905 aan een linksys router.
De prestaties zullen niet erg indrukwekkend zijn, maar ik zal eens kijken hoe filetransfer mbv samba gaat en een keer een HD 'saboteren' om te zien hoe een rebuild in z'n werk gaat.

[ Voor 15% gewijzigd door Tacoos op 16-02-2007 13:56 ]

Doe maar gewoon, dan doe je al gek genoeg...


Acties:
  • 0 Henk 'm!

Anoniem: 41852

FreeNAS zou heel simpel moeten zijn, als je een cd/dvd hebt tenminste.
FreeBSD vergt inderdaad wat meer tijd, maar kan heel leerzaam zijn. Daar ga ik ook nog tutorials voor schrijven. Maar alles op zijn tijd. :)

Je moet idd niet veel verwachten van de RAID5 prestaties van zo'n oude computer. Maar kan een goede test zijn inderdaad. Je hebt iig wel genoeg RAM (aangenomen dat je MB bedoelde ipv Mb). ;)

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Update!

Ik heb mijn MSI AMD s939 K8N Neo4 Platinum board binnen (de versie 1.0 met de 8x Sata aansluiting) !
Inmiddels is ook een Athlon 64 X2 3800+ (S939, 2x2.0GHz, 512KB, 400MHz Bus, 89W, Boxed) onderweg! Nu nog even geheugen bestellen en dan kan ik @Enlightment eens heel lief aankijken om te zien of ik er FreeBSD op geconifgged kan krijgen :-)

Dit wordt echt heel leuk!

Acties:
  • 0 Henk 'm!

  • Tacoos
  • Registratie: Januari 2001
  • Laatst online: 06:39

Tacoos

i am i

Ahum! help!

Er is een schijf uit de raid weggeweest en die probeer ik nu opnieuw erin te hangen.
/de/md0 --ad/dev/hdg2 geeft: permission denied
umount /dev/md0 geeft device is busy
fuser -k /dev/md0 geeft geen antwoord maar lijkt ook niet te helpen, wat nu?
Op /dev/md0 staat /usr

Dit alles onder root op OpenSuse 10.2

Doe maar gewoon, dan doe je al gek genoeg...


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Je kunt niet zomaar je /usr unmounten, want daarop draaien denk ik veel processen. Je zou of al die processen kunnen killen (inclusief de shell die je gebruikt), cd-en naar / en dan opnieuw proberen, of in single user mode booten.

Maar eigenlijk begrijp ik niet waarom je zou moeten unmounten; een schijf vervangen hoeft toch geen service interruption te betekenen, of kan md-raid niet anders? Dat zou wel heel stom zijn namelijk.

Acties:
  • 0 Henk 'm!

  • Tacoos
  • Registratie: Januari 2001
  • Laatst online: 06:39

Tacoos

i am i

Anoniem: 41852 schreef op zaterdag 17 februari 2007 @ 13:29:
Je kunt niet zomaar je /usr unmounten, want daarop draaien denk ik veel processen. Je zou of al die processen kunnen killen (inclusief de shell die je gebruikt), cd-en naar / en dan opnieuw proberen, of in single user mode booten.

Maar eigenlijk begrijp ik niet waarom je zou moeten unmounten; een schijf vervangen hoeft toch geen service interruption te betekenen, of kan md-raid niet anders? Dat zou wel heel stom zijn namelijk.
Ook in runlevel 1 lukt 't niet.
Volgens deze link zou 't toch zo moeten:
http://en.opensuse.org/Ho...tware_RAID#Reconstruction
maar ik krijg nog steeds geen toegang.
Nou is mijn linux kennis ook maar beperkt, dus ik weet 't niet meer :'(

Doe maar gewoon, dan doe je al gek genoeg...


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Daar lees ik dat je moet gebruiken:
/dev/mdX --add /dev/sdX

Terwijl jij opnoemde:
/de/md0 --ad/dev/hdg2

Of je maakte drie typo's, of je deed toch iets verkeerd. ;-)

/dev/md0 --add /dev/hdg2
zou dus moeten werken. Als hdg2 de 'vervangen' schijf, check even of die ook bestaat in /dev/ ! Anders rad ik je aan even op forum van suse te posten; daar weten ze er meer vanaf dan ik. Of natuurlijk hier op het NOS forum. Dit is een beetje linux-specifiek.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Goed nieuws voor iedereen die graid5 wilt gaan gebruiken: de offline capacity expansion-functie is klaar en zojuist getest door mij; en het werkt! Je kunt nu dus schijven toevoegen aan je bestaande graid5-array. :)

De expansion is 'offline'; je hebt dus wel een service interruption. Doordat het omzetten van de data lang kan duren (bij mij 3 uur) is wel een tijdje je raid5-volume down. Dat lijkt me geen probleem voor thuisgebruikers; heb je graid5 op je systeemvolume is het wel ingewikkelder en zul je tijdelijk van een andere HDD of pendrive moeten booten om de procedure uit te voeren. Maar al met al een nieuwe stap op weg naar een sexy NAS. 8)

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Anoniem: 41852 schreef op zondag 18 februari 2007 @ 14:41:
Goed nieuws voor iedereen die graid5 wilt gaan gebruiken: de offline capacity expansion-functie is klaar en zojuist getest door mij; en het werkt! Je kunt nu dus schijven toevoegen aan je bestaande graid5-array. :)

De expansion is 'offline'; je hebt dus wel een service interruption. Doordat het omzetten van de data lang kan duren (bij mij 3 uur) is wel een tijdje je raid5-volume down. Dat lijkt me geen probleem voor thuisgebruikers; heb je graid5 op je systeemvolume is het wel ingewikkelder en zul je tijdelijk van een andere HDD of pendrive moeten booten om de procedure uit te voeren. Maar al met al een nieuwe stap op weg naar een sexy NAS. 8)
Klinkt goed. Nu nog tijd vinden om eindelijk het systeem in elkaar te klussen...

Edit:
nieuws: Google: hoge temperatuur geen oorzaak van harddiskfouten

Dat wordt dus gewoon zoveel mogelijk in een zo klein mogelijk kastje proppen 8)7

[ Voor 13% gewijzigd door vargo op 19-02-2007 12:16 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 11:37
Hebben jullie de stroomkosten weleens helemaal berekend?
Ik heb zelf ook een kleine server-van-alles, specs:

Epia EN15000G (20W incl mem)
1GB DDR2
1x onboard Gbit -> dsl
1x Intel MT/GT Gbit -> lan (<3W)
2x SATA 7200.10 320GB (raid1) (15W)

Taken:
nat, dns, dhcp, ntp, mail, torrents, nas storage, etc

OS:
Gentoo linux

Dit gebruikt minder dan 50W totaal.
Volgens mij loopt het echt de spuigaten uit als je 4+ HDs continu laat draaien. Het mag voor sommigen geen geldkwestie zijn, maar ik vind zelf het bewust met energie omgaan wel belangrijk, zeker bij zo'n 24/7 device.

Nu zit ik te overigens wel te denken om daar nog een schijf bij te steken (op PATA) en de boel te migreren naar raid5. Daarmee verdubbel ik de storage space. Echter, ik ben bang dat raid5 met 3 devices trager is dan raid1.

Ook ben ik aan het kijken of booten van compact flash via IDE adapter me nog voordelen op kan leveren. Tot nu toe kom ik uit op:
- Huidige /boot is 32MB raid1, veiliger dan 1x CF?
- CF gaat sneller dood, echter dat is niet relevant omdat hij readonly gemount wordt
- Als er iets rampzaligs gebeurt met je array(s) dan kun je iig nog je kernel booten
- als je een foutje maakt met bijv. een kernelcompile kun je altijd de CF er even uittrekken en je fout corrigeren, dit is minder handig met een array. Een liveCD is dan ook een optie.
- sommige (oudere) hardware raid adapters hebben geen boot support
- sommige software raid oplossingen hebben ook geen boot support. een raid1 /boot partitie is dan voldoende.

Ik wou nog gaan spelen met solaris / freebsd icm ZFS, dat ik de komende jaren nog niet betrouwbaar op linux toegepast zie ivm license-issues. Ik wil ZFS omdat hardware corruptie (omgevallen bitjes etc) gewoon altijd gedetecteerd worden dmv checksums. Verder is het gewoon bloedjesnel en makkelijk.

Testen jullie ook welke stripesize en clustergrootte het snelst is voor jullie toepassing, of laten jullie dat achterwege?

Enlightenment, kun je me misschien vertellen wat precies het verschil is tussen de freebsd en linux (en in mindere mate windows) software raid5 implementatie?

[ Voor 3% gewijzigd door P5ycho op 20-02-2007 10:09 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Anoniem: 41852

P5ycho schreef op dinsdag 20 februari 2007 @ 10:08:
Dit gebruikt minder dan 50W totaal.
Volgens mij loopt het echt de spuigaten uit als je 4+ HDs continu laat draaien. Het mag voor sommigen geen geldkwestie zijn, maar ik vind zelf het bewust met energie omgaan wel belangrijk, zeker bij zo'n 24/7 device.
Vandaar dat je vele mensen na ziet denken over een energiezuinige processor (5W) en efficiente voeding (>85%). Gekoppeld met features als FreeBSD/FreeNAS waarbij de schijven downspinnen als ze x minuten niet gebruikt worden, kun je het energieverbruik drastisch terugdringen. Dit is overigens diverse malen besproken in dit topic. :)
Nu zit ik te overigens wel te denken om daar nog een schijf bij te steken (op PATA) en de boel te migreren naar raid5. Daarmee verdubbel ik de storage space. Echter, ik ben bang dat raid5 met 3 devices trager is dan raid1.
Sequentieel zal het sneller zijn, random read zal het sneller zijn, random write zal langzamer zijn (2-phase write). Dus het hangt er vanaf waarvoor je het gaat gebruiken. Ik neem overigens aan dat je het over geom_raid5 hebt; wil je software RAID5 in Windows gebruiken dan is dat natuurlijk een heel ander verhaal.
Ook ben ik aan het kijken of booten van compact flash via IDE adapter me nog voordelen op kan leveren. Tot nu toe kom ik uit op:
- Huidige /boot is 32MB raid1, veiliger dan 1x CF?
- CF gaat sneller dood, echter dat is niet relevant omdat hij readonly gemount wordt
- Als er iets rampzaligs gebeurt met je array(s) dan kun je iig nog je kernel booten
- als je een foutje maakt met bijv. een kernelcompile kun je altijd de CF er even uittrekken en je fout corrigeren, dit is minder handig met een array. Een liveCD is dan ook een optie.
- sommige (oudere) hardware raid adapters hebben geen boot support
- sommige software raid oplossingen hebben ook geen boot support. een raid1 /boot partitie is dan voldoende.
Geen enkele software RAID array is bootable; maar door de kenmerken van RAID1 en JBOD kun je wel van de 1e losse schijf booten, omdat de gegevens daar samenhangend op staan. Klein detail. ;)
Verder klopt je lijstje wel; flash is niet geschikt om veel naar geschreven te worden, maar lezen zou enorm vaak kunnen gebeuren. Het is dus inderdaad ideaal voor het booten van je NAS / server.

Heb je ook overwogen om zo'n 2GB IDE flash disk te kopen? Waren maar 18,75 ofzo; best goedkoop. :)
Ik wou nog gaan spelen met solaris / freebsd icm ZFS, dat ik de komende jaren nog niet betrouwbaar op linux toegepast zie ivm license-issues. Ik wil ZFS omdat hardware corruptie (omgevallen bitjes etc) gewoon altijd gedetecteerd worden dmv checksums. Verder is het gewoon bloedjesnel en makkelijk.
ZFS heeft coole features, maar bij mij was het nog niet stabiel. Ik heb liever iets dat werkt en betrouwbaar is dan experimentele code.
Testen jullie ook welke stripesize en clustergrootte het snelst is voor jullie toepassing, of laten jullie dat achterwege?
In mijn tests was een grote stripesize altijd beter; zeker in random I/O zodat een enkele I/O request door een enkele schijf kan worden behandeld en dat de overige schijven in de array dus andere requests kunnen behandelen.
Enlightenment, kun je me misschien vertellen wat precies het verschil is tussen de freebsd en linux (en in mindere mate windows) software raid5 implementatie?
De meeste RAID5 implementaties zijn 'dom', waarmee ik bedoel dat ze niets doen aan het grote probleem van RAID5: de write hole. Bij RAID5 is het zo dat als je iets schrijft, eerst moet lezen en dan pas de pariteit kunt berekenen, en vervolgens alles wegschrijft. Je kunt begrijpen dat dat 'eerst lezen dan schrijven' erg traag is. Niet alleen omdat je nu meer I/O veroorzaakt op de fysieke schijven maar ook omdat de schijven elke keer moeten seeken naar de juiste positie en er van sequentiele I/O dus geen sprake meer is. Dit noemen we een 2-phase write, omdat er twee fases voor benodigd zijn.

Voor dit probleem zijn twee oplossingen:
- request combining (2-phase omzetten naar 1-phase)
- variabele stripesize (2-phase writes komen nooit voor)

geom_raid5 gebruikt de 1e methode, sequentieel schrijven blijft ook echt sequentieel en is dus heel snel (400MB/s in mijn tests met 8 schijven). Je kunt er ieder filesystem op draaien. De tweede optie vereist dat RAID-implementatie en Filesystem samengevoegd zijn in 1 stuk software, dat is het geval bij ZFS. Voordeel is dat je nooit geen trage 2-phase writes meer hebt; nadeel is dat je alleen ZFS kunt gebruiken.

Windows en veel onboard dingen gebruiken geen dergelijke optimalisatie en zijn dus gewoon domme implementaties. Linux mdraid durf ik niet te zeggen; geen sourcecode bekeken. Uit testresultaten blijkt wel dat geom_raid5 stukken sneller is.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 11:37
Anoniem: 41852 schreef op dinsdag 20 februari 2007 @ 14:01:
Vandaar dat je vele mensen na ziet denken over een energiezuinige processor (5W) en efficiente voeding (>85%). Gekoppeld met features als FreeBSD/FreeNAS waarbij de schijven downspinnen als ze x minuten niet gebruikt worden, kun je het energieverbruik drastisch terugdringen. Dit is overigens diverse malen besproken in dit topic. :)
Ik heb heel het topic gelezen idd, maar das al een tijdje terug. Ik ben geen fan van downspinnende schijven, behalve in laptops. Daar is het te doen om writes uit te stellen ed., in 24/7 toepassingen weet je gewoon nooit wat er wanneer aan operations te wachten staat en dat maakt downspinnen niet echt nuttig imho. Zeker icm andere tasks naast puur NAS.
Sequentieel zal het sneller zijn, random read zal het sneller zijn, random write zal langzamer zijn (2-phase write). Dus het hangt er vanaf waarvoor je het gaat gebruiken. Ik neem overigens aan dat je het over geom_raid5 hebt; wil je software RAID5 in Windows gebruiken dan is dat natuurlijk een heel ander verhaal.
Ik ga eigenlijk uit van mdraid, daar ik nu linux draai en dat waarschijnlijk zo ga houden. Het is een afweging dus, waarmee ik als ik ook de cpuload meeneem toch maar even bij raid1 blijf.
Geen enkele software RAID array is bootable; maar door de kenmerken van RAID1 en JBOD kun je wel van de 1e losse schijf booten, omdat de gegevens daar samenhangend op staan. Klein detail. ;)
Verder klopt je lijstje wel; flash is niet geschikt om veel naar geschreven te worden, maar lezen zou enorm vaak kunnen gebeuren. Het is dus inderdaad ideaal voor het booten van je NAS / server.
Dat snap ik :)
Heb je ook overwogen om zo'n 2GB IDE flash disk te kopen? Waren maar 18,75 ofzo; best goedkoop. :)
Ik heb net een CF to IDE adaptertje besteld voor een tientje, wou ik een 512MB CF in proppen (sandisk ultraII, 9MB/s)
ZFS heeft coole features, maar bij mij was het nog niet stabiel. Ik heb liever iets dat werkt en betrouwbaar is dan experimentele code.
ZFS zit als sinds eind 2005 in solaris, dat is ook de reden dat ik daar nog even mee ga spelen binnenkort. Ben de iso aan het branden as we speak.
In mijn tests was een grote stripesize altijd beter; zeker in random I/O zodat een enkele I/O request door een enkele schijf kan worden behandeld en dat de overige schijven in de array dus andere requests kunnen behandelen.

De meeste RAID5 implementaties zijn 'dom', waarmee ik bedoel dat ze niets doen aan het grote probleem van RAID5: de write hole. Bij RAID5 is het zo dat als je iets schrijft, eerst moet lezen en dan pas de pariteit kunt berekenen, en vervolgens alles wegschrijft. Je kunt begrijpen dat dat 'eerst lezen dan schrijven' erg traag is. Niet alleen omdat je nu meer I/O veroorzaakt op de fysieke schijven maar ook omdat de schijven elke keer moeten seeken naar de juiste positie en er van sequentiele I/O dus geen sprake meer is. Dit noemen we een 2-phase write, omdat er twee fases voor benodigd zijn.

Voor dit probleem zijn twee oplossingen:
- request combining (2-phase omzetten naar 1-phase)
- variabele stripesize (2-phase writes komen nooit voor)

geom_raid5 gebruikt de 1e methode, sequentieel schrijven blijft ook echt sequentieel en is dus heel snel (400MB/s in mijn tests met 8 schijven). Je kunt er ieder filesystem op draaien. De tweede optie vereist dat RAID-implementatie en Filesystem samengevoegd zijn in 1 stuk software, dat is het geval bij ZFS. Voordeel is dat je nooit geen trage 2-phase writes meer hebt; nadeel is dat je alleen ZFS kunt gebruiken.

Windows en veel onboard dingen gebruiken geen dergelijke optimalisatie en zijn dus gewoon domme implementaties. Linux mdraid durf ik niet te zeggen; geen sourcecode bekeken. Uit testresultaten blijkt wel dat geom_raid5 stukken sneller is.
Raid5 is vooral echt mooi met een gigantische bak vol schijven, ik blijf het zonde vinden. (Zowel het stroomverbruik als cpuload, met een epia.) Misschien dat ik raidZ wel even ga proberen, nieuwe epia bakje is toch nog niet producktierijp.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Nog geen test resultaten van mij; ik heb gisteren het systeem in elkaar geklust, maar werken wil het niet. Misschien is dit topic niet het juiste topic hiervoor, maar omdat er wel veel mensen zijn met dezelfde hardware wil ik toch even het probleem aanstippen; misschien heeft iemand hetzelfde gehad.

Specs:
1 Cooler Master Elite 330 (ATX, 380W, Zwart/Zilver)
1 Coolermaster CPU Super Silent Skt 939 CK8-9JD2B-OC Silent
1 AMD Sempron 64 2800+ (S754, 1,6 GHz, 256KB, Boxed)
1 Club3D GeForce 6200 LE 128MB DDR (PCI-e, DVI) CGNX-L6216
Asus K8N4-E Deluxe skt754 (1 Maand Garantie) OEM RMA Partij OP=OP
1 Kingston 512MB DDR PC3200 CL3
3 Samsung 500GB SATA II 7200RPM 16MB (HD501LJ)
Op het moment dat ik het systeem aanzet spinnen de fans even op, maar daarna stoppen ze weer. Ik krijg dus niet eens een BIOS post.

Uit de Hangen en Opstartproblemen troubleshooter:
Slaat het wel aan?
* Als de fans niet draaien of slechts eventjes aanslaan, dan is er mogelijk sprake van een overbelaste voeding of een kortsluiting ergens (zie onder Moederbord bij Conflicten).
* Ontkoppel de voeding van het moederbord en test het met een papierclipje/stroomdraadje op de ATX connector: groene draad doorlussen naar een willekeurig zwarte draad. Zie verder ook dit topic voor meer details: [EL] PC Voeding-tester/gebruik als projectvoeding + pinouts
Al getest:
- alle apparaten loskoppelen muv cpu + koeler (en mobo op houten plank)
- de voeding op bovenstaande manier getest
- hardwarematige BIOS reset
- 2 verschillend koelers getest (waaronder de 'boxed' versie) - ivm het evt detecteren van een te laag toerental v/d koeler

De hoofdverdachten:
- de voeding (CoolerMaster 380W voeding)
- de (RMA) Asus K8N4-E Deluxe skt754

Ik heb helaas geen 2e voeding liggen om de schuldige te kunnen aanwijzen... (althans, niet met 4pins 12V CPU-power connector). Zou het mobo moeten starten zonder cpu en de extra cpu stekkers?

Heeft iemand anders deze problemen gehad?
(Misschien de tune-on delay zoals beschreven in Welke voeding heb ik nodig? Deel 16?)

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 00:00
Afbeeldingslocatie: http://www.fukung.net/images/537/disksvin.jpg

8)

moest het even kwijt hier :$

[ Voor 7% gewijzigd door Keiichi op 21-02-2007 10:57 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • OrakelJos
  • Registratie: December 2004
  • Niet online
(overleden)
Anoniem: 41852 schreef op dinsdag 20 februari 2007 @ 14:01:
[...]

Windows en veel onboard dingen gebruiken geen dergelijke optimalisatie en zijn dus gewoon domme implementaties. Linux mdraid durf ik niet te zeggen; geen sourcecode bekeken. Uit testresultaten blijkt wel dat geom_raid5 stukken sneller is.
Als je een hardware controller gebruikt zoals 3Ware of Areca heb je dan ook een vertraging met schrijven of rekent de controller eerst alles netjes uit voordat geschreven wordt?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Als je write-behind-cache aanstaat zal de controller een tijdje wachten met wegschrijven tot het wat rustiger is of tot er meerdere dingen in hetzelfde blok veranderen, dit om het aantal read-modify-write-bewerkingen (write hole?) terug te dringen.

Puur sequentieel (op fysiek niveau, bij fragmentatie is het dus niet meer 100% sequentieel) verander je toch alle blokken in de stripe dus daar maakt het niet zoveel uit. Pas bij random I/O's (en dan dus bij het schrijven) speelt dit echt een rol. Door de write-behind cache wordt dat dus opgevangen. Let wel dat deze cache meestal standaard uitstaat, omdat er standaard geen BBU op de controllers is geplaatst.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

P5ycho schreef op dinsdag 20 februari 2007 @ 16:53:
Ik heb heel het topic gelezen idd, maar das al een tijdje terug. Ik ben geen fan van downspinnende schijven, behalve in laptops. Daar is het te doen om writes uit te stellen ed., in 24/7 toepassingen weet je gewoon nooit wat er wanneer aan operations te wachten staat en dat maakt downspinnen niet echt nuttig imho. Zeker icm andere tasks naast puur NAS.
Als je NAS echt 24/7 gebruikt wordt niet nee, maar als jij 's nachts slaapt en er verder niks gebeurt lijkt het mij zonde de schijven te laten draaien. Eerst maakte je je zo zorgen om energieverbruik maar schijven urenlang voor niks laten draaien heb je weer geen moeite mee?

Juist een hele mooie feature dat ataidle, zit ook in FreeNAS. Ik gebruik het zelf ook. Als ik dan mn array weer aanspreek moet ik idd 8 tot 10 seconden wachten, maar dat heb ik er voor over.
Ik ga eigenlijk uit van mdraid, daar ik nu linux draai en dat waarschijnlijk zo ga houden. Het is een afweging dus, waarmee ik als ik ook de cpuload meeneem toch maar even bij raid1 blijf.
Jammer, zelf denk ik dat een beetje CPU load niet erg is; als je zoveel I/O hebt dat dit een rol gaat spelen lijkt me dat je ook wilt dat de I/O zo snel mogelijk voorbij is, dan zit je met RAID5 beter want een RAID5 array van 3 of meer schijven is sneller dan een mirror.
ZFS zit als sinds eind 2005 in solaris, dat is ook de reden dat ik daar nog even mee ga spelen binnenkort. Ben de iso aan het branden as we speak.
OpenSolaris is idd leuk, zelf zou ik dan liever voor FreeBSD gaan vanwege de gebruiksvriendelijkheid, linux compatibility, portstree en hardware support. Wel vreemd; FreeBSD ruil je in voor Linux maar Solaris (UNIX) wil je dan wel weer proberen. :P
Raid5 is vooral echt mooi met een gigantische bak vol schijven, ik blijf het zonde vinden. (Zowel het stroomverbruik als cpuload, met een epia.) Misschien dat ik raidZ wel even ga proberen, nieuwe epia bakje is toch nog niet producktierijp.
Ik snap je verhaal toch niet helemaal, wat vind je nou precies zonde? Het stroomverbruik? Ja maar als jij 2TB aan ruimte wilt/nodig hebt dan zit je daar aan vast, en met ataidle kun je dat overigens flink terugbrengen. En Samsung gebruiken ipv Seagate. CPU gebruik vind je zonde? Je hebt liever een NAS die 50% cpu gebruikt maar er twee keer zo lang over doet dan eentje die zn CPU wel gebruikt maar eerder klaar is? Je processor heb je niet voor niets. :)

Bovendien zal het CPU verbruik wel meevallen; uitgaande van 400MB/s op Athlon 64 X2 3800+ kom je dan uit op 25% utilization op 100MB/s. Ik zie het probleem niet. Als ik je zo hoor ben je tegen het hele concept van NAS. Want je draait een NAS natuurlijk niet voor een enkele schijf zonder enige redundancy.
En dat trekt die ene voeding allemaal? :D
Zal wel 1000W moeten zijn ofzo; bij het opspinnen zal dit gigantisch veel stroom verbruiken, en het is allemaal PATA zie ik dus geen staggered spinup.
OrakelJos schreef op woensdag 21 februari 2007 @ 11:12:
Als je een hardware controller gebruikt zoals 3Ware of Areca heb je dan ook een vertraging met schrijven of rekent de controller eerst alles netjes uit voordat geschreven wordt?
Areca probeert de requests te combinen inderdaad. Lukt dat niet (b.v. random I/O) dan wordt het een 2-phase write. Areca heeft een eigen buffercache dus kan request uitstellen en zo efficient mogelijk 'indelen'. Zie verder uitleg van Paul Nieuwkamp. :)

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 11:37
Anoniem: 41852 schreef op woensdag 21 februari 2007 @ 12:21:
Als je NAS echt 24/7 gebruikt wordt niet nee, maar als jij 's nachts slaapt en er verder niks gebeurt lijkt het mij zonde de schijven te laten draaien. Eerst maakte je je zo zorgen om energieverbruik maar schijven urenlang voor niks laten draaien heb je weer geen moeite mee?

Juist een hele mooie feature dat ataidle, zit ook in FreeNAS. Ik gebruik het zelf ook. Als ik dan mn array weer aanspreek moet ik idd 8 tot 10 seconden wachten, maar dat heb ik er voor over.
Ik vind die 5-10sec wachten als ik bijv. even webmail ga checken juist vreselijk. Ik wil instant response :)
Hierbij moet idd wel vermeld worden dat ik geen pure NAS server wil, maar een manusje-van-alles. Er wordt hier zoveel gemaild dat dat of allemaal gecached moet worden, of die schijven constant aan het op- en downspinnen zijn.
Jammer, zelf denk ik dat een beetje CPU load niet erg is; als je zoveel I/O hebt dat dit een rol gaat spelen lijkt me dat je ook wilt dat de I/O zo snel mogelijk voorbij is, dan zit je met RAID5 beter want een RAID5 array van 3 of meer schijven is sneller dan een mirror.

OpenSolaris is idd leuk, zelf zou ik dan liever voor FreeBSD gaan vanwege de gebruiksvriendelijkheid, linux compatibility, portstree en hardware support. Wel vreemd; FreeBSD ruil je in voor Linux maar Solaris (UNIX) wil je dan wel weer proberen. :P
Ik ben ondertussen al aardig thuis in linux, maar freebsd en solaris heb ik nog niets mee gedaan. Ik heb dus nog geen voorkeur, behalve dat ik (gentoo)linux helemaal niet slecht vind. Zeker tegenover win2k3server dat nu op een andere epia800 draait hier. Dat is echt... treurig gewoon.
Ik snap je verhaal toch niet helemaal, wat vind je nou precies zonde? Het stroomverbruik? Ja maar als jij 2TB aan ruimte wilt/nodig hebt dan zit je daar aan vast, en met ataidle kun je dat overigens flink terugbrengen. En Samsung gebruiken ipv Seagate. CPU gebruik vind je zonde? Je hebt liever een NAS die 50% cpu gebruikt maar er twee keer zo lang over doet dan eentje die zn CPU wel gebruikt maar eerder klaar is? Je processor heb je niet voor niets. :)

Bovendien zal het CPU verbruik wel meevallen; uitgaande van 400MB/s op Athlon 64 X2 3800+ kom je dan uit op 25% utilization op 100MB/s. Ik zie het probleem niet. Als ik je zo hoor ben je tegen het hele concept van NAS. Want je draait een NAS natuurlijk niet voor een enkele schijf zonder enige redundancy.
Ik heb idd geen 2TB nodig. Dan zou ik mezelf toch beschuldigen van een stevig geval van verzamelwoede. no offence uiteraard, andere mensen andere behoeften. 320-640GB is op zich al voldoende voor me. Dat zal echter nog wel toenemen in de nabije toekomst, en daarom sluit ik raid5 ook niet uit. Het NAS concept gebruik ik al minstens 3 jaar, zij het een raid1 opstelling (epia800, 2x 120GB, win2k3, 100mbit). Tijd voor een upgrade dus.
Ik heb in mn desktop alleen 2x 18,4GB zitten waarvan 1 schijf linux en 1 windows, bijna alles komt van t netwerk af.

Over de CPUload kwestie: een 3800+ is toch wel een factor 3-4 sneller dan een via C7 1,5Ghz, dan is de cpuload schrikbarend hoger vrees ik. Daarom spring ik wat voorzichtiger om met de rekenkracht die ik heb. Ik zal eens kijken of ik nog 1-2 PATA schijven kan bemachtigen, dan gaan we het gewoon testen :)

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


  • Mark-
  • Registratie: Juli 2003
  • Laatst online: 15-05 14:21
Keiichi schreef op woensdag 21 februari 2007 @ 10:56:
impressive plaatje

8)

moest het even kwijt hier :$
hey!
Dat is een Aopen HQ08 toch?
Die heb ik hier dus ook klaar staan om een NAS te bouwen..
Heb je die ijzertjes/rekjes voor de drives gekocht of zelf geknutseld??

Hoeveel TB is dit nou?

  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

Dat zal niet zoveel zijn, waarschijnlijk ook niet van hem want het plaatje is al een paar jaar oud.

Acties:
  • 0 Henk 'm!

Anoniem: 132168

Goed, ik heb inmiddels ook weer iets meer tijd gestopt in mijn persoonlijke projectje :)

Heb nu 2 schijven in het systeem hangen (250 en 160gb, komt weer lekker mooit uit).

Heb nu wat lopen spelen met oa verschillende besturingsystemen.

FreeNAS ziet er goed uit en is supergemakkelijk te installeren en configureren. Helaas ondersteunt het weer net geen XFS bestandssysteem.. waar ik ongeveer van de bovenstaande 310GB, 200 GB op heb staan. :/

OpenFiler, op zich ook mooi, maar hmm hoe zeg ik dit: persoonlijk is het gewoon niet helemaal mijn ding.

Heb ook nog Belenix geprobeerd, een OpenSolaris LiveCD. Helaas kreeg ik die maar niet aan de praat op mijn systeem... misschien is het mijn 10 jaar oude Trident videokaartje :P
[ http://www.genunix.org/distributions/belenix_site/ ]

Kortom, eigenlijk kan ik gewoon niet wachten totdat FreeBSD gewoon ZFS helemaal goed ondersteunt (liefst niet in de CURRENT versie). Als FreeNAS het dan ook nog snel ondersteunt ben ik echt verkocht, anders ga ik zelf nog wel eens met het een en ander prutsen onder FreeBSD zelf.

Tenslotte ben ik nu wat aan het rondkijken naar wat meer opslagruimte, ook om de omvang van de verschillende harde schijven nu eens recht te trekken.

Ik twijfel nu wel een beetje op dat gebied wat wijsheid is. 3x 320 GB of 2x 500GB.. kost vrijwel hetzelfde. Eigenlijk dus de keuze ook tussen RAID-5/RAID-Z en RAID-1:

http://www.z-a-recovery.com/art-raid-estimator.htm


"The explanation I'll offer for why RAID-Z (RAID-5) is worse than mirroring (RAID-1) or double parity RAID-Z2 (RAID-6) is that the probability of two disks failing remains the same. But the probability that two disks failing and causing you to have an interruption is very different. I think this clearly shows what David Patterson alluded to in a presentation he gave at the Sun Technical Conference once: single parity RAID-5 just doesn't give enough protection, double parity (e.g. RAID-Z2) would have been a better choice. He also mentioned that people hassle him because they've lost data with RAID-5. Needless to say, I'm not a big fan of RAID-5."

http://blogs.sun.com/rell..._recommendations_space_vs

Iemand hier misschien nog gedachten danwel tips over die mij misschien wat kunnen helpen?

Ben namelijk niet zo thuis in dit soort afwegingen aangezien mijn verdere ervaring met RAID/opslagsystemen 0,0 is :)

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Anoniem: 132168 schreef op zondag 25 februari 2007 @ 17:36:
Ik twijfel nu wel een beetje op dat gebied wat wijsheid is. 3x 320 GB of 2x 500GB.. kost vrijwel hetzelfde. Eigenlijk dus de keuze ook tussen RAID-5/RAID-Z en RAID-1:
Volgens mij is RAID-1 ietsje veiliger dan RAID-5. Stel je voor dat in beide gevallen een schijf faalt. De kans dat vervolgens een schijf uitvalt in je RAID-5 array, is tweemaal zo groot als de kans dat die ene schijf in je RAID-1 array uitvalt, voordat je een nieuwe schijf hebt geplaatst. En als je kiest voor RAID in software, dan kun je ook gewoon booten van een RAID-1 array. Met RAID-5 kan dat alleen met een (dure) RAID-kaart. Ook geeft RAID-1 meer flexibiliteit als je schijven wilt uitwisselen tussen verschillende besturingssystemen.

Acties:
  • 0 Henk 'm!

Anoniem: 132168

Ah, kijk. Dat is een aantal punten waar ik zeker wat aan heb! _/-\o_

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 11:37
De performance van een degraded of rebuilding raid5 array is ook zeer slecht te noemen tov raid1/raid10.
In linux voorkom je boot-ellende in raid5 gewoon door je kernel in een 32MB raid1 bootpartitie te zetten. Weet niet of freebsd dat ook (standaard) kan.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 18-05 22:27
Mijn NAS is ook operationeel! RAID5 (3x 500GB) onder FreeNAS. Array staat nu te rebuilden (ruim 2 uur voor nodig).

Acties:
  • 0 Henk 'm!

Anoniem: 41852

P5ycho schreef op woensdag 21 februari 2007 @ 13:33:
Ik vind die 5-10sec wachten als ik bijv. even webmail ga checken juist vreselijk. Ik wil instant response :)
Dan wil je denk ik het onmogelijke:
- extreem laag energieverbruik (minder dan een gemiddelde gloeilamp)
- on-demand toegang zonder vertraging tot storage
- RAID NAS met veel opslag

Misschien moet je dan wachten tot Flash disks uit zijn met respectabele grootte. Nu is de technologie er nog niet wat je wilt, tenzij ik je verkeerd begrijp natuurlijk. Valt me wel op dat je een paar posts terug het belangrijk vond om energiezuinig om te gaan, maar er kennelijk geen moeite mee hebt als je schijven voor niets aan het draaien zijn.
Er wordt hier zoveel gemaild dat dat of allemaal gecached moet worden, of die schijven constant aan het op- en downspinnen zijn.
Je kunt de tijd instellen op een uur bijvoorbeeld. Als je ze gebruikt zullen ze dus nooit downspinnen als je aan het werk bent. Ik neem aan dat je ook een keer slaap nodig hebt dus is dat minimaal 8 uur dat je schijfjes dan met je meeslapen, toch 33% besparing. Als het gaat om een mailserver: die zet je natuurlijk op een aparte systeemschijf / partitie zodat die niet rechtstreeks op je array draait. Mocht je dan allerlei processen actief hebben hoeft daarvoor niet je hele RAID5 array aangezwengeld te worden.
Ik ben ondertussen al aardig thuis in linux, maar freebsd en solaris heb ik nog niets mee gedaan. Ik heb dus nog geen voorkeur, behalve dat ik (gentoo)linux helemaal niet slecht vind.
Als je je thuis voelt bij Gentoo moet je opzeker eens bij FreeBSD kijken. Zo eng is BSD trouwens niet, en niet alles is opeens anders. Alle unices werken om min of meer dezelfde manier.
Ik heb idd geen 2TB nodig. Dan zou ik mezelf toch beschuldigen van een stevig geval van verzamelwoede. no offence uiteraard, andere mensen andere behoeften. 320-640GB is op zich al voldoende voor me.
Hm oke. Maar je post wel in het RAID NAS topic he. :P Terwijl voor jou een enkele 500GB schijf dus al genoeg zou zijn.

Overigens denk ik dat je in plaats van die mirror beter een (nightly) backup kunt maken . Scheelt je ook weer 80% energie voor de backup schijf omdat die de overige tijd gewoon kan downspinnen. Een backup is in principe meer waardevol dan een mirror (history).
Over de CPUload kwestie: een 3800+ is toch wel een factor 3-4 sneller dan een via C7 1,5Ghz, dan is de cpuload schrikbarend hoger vrees ik. Daarom spring ik wat voorzichtiger om met de rekenkracht die ik heb. Ik zal eens kijken of ik nog 1-2 PATA schijven kan bemachtigen, dan gaan we het gewoon testen :)
Daar heb je gelijk in ja. Om die reden zou ik ook een Athlon 64 3000+ ofzo aanbevelen; die verbruikt idle ook maar 5W. Maar kan toch cpu power leveren als dat nodig is. Maar zo'n Epia is ook wel schattig; maar software RAID5 moet je dan geen wonderen van verwachten. ;)

Maar nogmaals; wat in dit topic besproken wordt is denk ik wat anders dan de eisen die jij er aan stelt. De mensen hier gaan voor een NAS oplossing; dedicated voor het opslaan van (veel) storage. Jij wilt gewoon een server en daarin een schijfje voor centrale opslag. Dat zou je ook NAS kunnen noemen maar je valt daarin wel in een heel andere categorie. Ik zelf zou dat gewoon multipurpose server noemen en niet zozeer een "RAID NAS". Met zo weinig behoefte aan opslag zou ik je aanraden om voor een backup te gaan ipv mirror; op een tweetal 500GB schijfjes van Samsung (energiezuinig).
Pagina: 1 ... 3 ... 14 Laatste

Dit topic is gesloten.