Toon posts:

Vragen over opzet fileserver.

Pagina: 1
Acties:
  • 115 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Ik wil hier thuis een fileserver gaan draaien voor prive-doeleinden. Er moet genoeg capaciteit zijn om mee te beginnen, denk aan 1TB. Als er over enige tijd meer ruimte nodig is, wil ik het makkelijk kunnen uitbreiden. Ik zat zelf dus te denken aan een SATA Raid5 configuratie. Heb niet het grootste budget, dus SCSI en hele duurde controllers zitten er niet in...maar ik hoef ook niet op de zogenaamde kleintjes te letten ;)


Waar ik nog niet over uit zijn de volgende dingen:

- Waar laat ik dit alles in draaien? Is het misschien verstandig om een rackmount te kopen en de schijven daarin te hangen? Of zou het goed gaan om ze in een goedkopere kast te hangen? Persoonlijk neig ik naar het laatste maar misschien dat er goede redenen zijn voor de rackmount.

- Waarop laat ik dit draaien? Persoonlijk heb ik alleen ervaring met diverse windows varianten, maar ik heb rondgelezen en zag ook wat andere opties langskomen, zoals Linux/Samba enz.

- Welke controller? Eentje voor 4 schijven of eentje voor 8? Maakt qua prijs niet veel uit.

- Uitbreidbaarheid? Nieuwe controller, nieuwe schijven...maar waar laat ik het dan?

Ik hoop dat mn vragen duidelijk zijn ;) Alvast bedankt!

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 21:25

The Third Man

The Third Jellyfish

Doe zoals ik: neem een CoolerMaster Stacker met 2 extra 4-in-3 modules, kan je er 12 3,5" schijven in kwijt, vervolgens een paar 250 GB schijven (op dit moment een behoorlijke prijs/GB verhouding, alleen 200 GB schijven zijn nog iets goedkoper per GB), een moederbord met 4 SATA poorten en draai software Raid 5.

Dit is de simpelste manier, ik weet niet exact of je jezelf een dual-systeem kan veroorloven maar dat zou een hoop schelen in de prestaties, het ideaalst is een dik bord met 2 PCI-X bridges en dan koop je alvast 1 PCI-X SATA-RAID kaart (broadcom of iets dergelijks), dan kan je de boel altijd nog uitbreiden met een extra kaart met nauwelijks prestatieverlies.

Software is een beetje wikken en wegen, persoonlijk vind ik Windows prima voor privégebruik omdat het makkelijker werkt, ook qua drivers en dergelijke, stabiel is het toch wel (mijn servertje draait Windows XP en is ook nog niet vastgelopen)... Als je linux relaxter vindt kan je dat natuurlijk ook gebruiken maar ik zie er het nut niet van in.

EDIT
Zie ook dit verhaal http://www.tomshardware.com/storage/20041006/index.html

[ Voor 5% gewijzigd door The Third Man op 05-01-2005 15:44 ]


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Toevallig zijn er meer mensen met dat soort vragen.

Opstelling voor Gbit doorvoer.
Terabytes aan opslag?
+1 Terabyte opslag zelfbouw

Ik heb zelf een Debian GNU/Linux pc met daarop proftpd en samba, en dit werkt perfect :) Deze is echter te klein (1,15 TB) dus ik ben op zoek naar iets anders, waarna ik mijn huidige verkoop.

Ik ga over op 200gb schijven (goedkoopste per gb) op een Areca 16p controller. Dit komt hoogstwaarschijnlijk in een rackmount, maar daar ben ik nog mee bezig.
Omdat ik vrij goedkoop aan een paar 400mhz fsb Xeons kon komen heb ik op ebay een serverbord gekocht.

Ik ga voor een rackmount omdat ik een rack heb staan, en omdat rackmounts vaak geoptimaliseerd zijn voor koeling, niet onbelangrijk bij veel harde schijven.
Andere optie is bijvoorbeeld een Coolermaster Stacker, met een paar 4-in-3 drivecages (waar tevens een 12cm fan inzit).

Mijn Debian/Samba combo draait perfect, dus dat gaat mijn nieuwe ook doen :) Je kunt gewoon gebruikers aanmaken in Linux en in Samba, of je laat iedereen er als guest naar connecten :)

Nieuwe controllers of schijven stop je gewoon in een pci-slot of in een drivebay. Configuratie is dan de volgende stap. Ik meen wel dat er tools zijn om ext2 partities te vergroten (journal weghalen, vergroten, journal aanmaken voor ext3 ;)), maar zeker weet ik dat niet. Met XFS of Reiser heb ik geen ervaring, daar ga ik mee testen / spelen op de nieuwe fileserver :)

[ Voor 8% gewijzigd door Paul op 05-01-2005 16:00 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • sig69
  • Registratie: Mei 2002
  • Laatst online: 21:23
of zoek een sata raid controller voor 8 schijven die online expansion ondersteund. Schijf vol? hup een d'r bij!

Roomba E5 te koop


  • MBV
  • Registratie: Februari 2002
  • Laatst online: 04-03 21:45

MBV

Ik ga voor linux. Al is het maar voor de leerzame ervaring. Debian testing zonder gui installeren (zonder GUI bijna altijd probleemloos), SWAT installeren voor het beheren van je shares, evt webserver en FTP om er ook van buiten op te kunnen, en evt mldonkey als eMule vervanging installeren. Klaar!
Wat ik nu schets kan ik, met ervaring, in 4 uur geinstalleerd hebben (inclusief wachten). Zonder ervaring zal je er wat langer over doen, maar binnen een paar dagen moet het werken. Je zal alleen heel goed op moeten letten bij het kopen van je RAID-controller. Wordt die wel volledig ondersteund in linux?

Verwijderd

Topicstarter
Die CoolerMaster Stacker is een goede oplossing, kan er in ieder geval genoeg drives in kwijt, bedankt! Hij is niet zo duur ook, 8)
Dit is de simpelste manier, ik weet niet exact of je jezelf een dual-systeem kan veroorloven maar dat zou een hoop schelen in de prestaties, het ideaalst is een dik bord met 2 PCI-X bridges en dan koop je alvast 1 PCI-X SATA-RAID kaart (broadcom of iets dergelijks), dan kan je de boel altijd nog uitbreiden met een extra kaart met nauwelijks prestatieverlies.
Hmm, ik had hier nog niet naar gekeken. Maar is er echt zoveel performance nodig voor een fileserver? Het is puur storage, er wordt niet extreem veel vanaf gehaald en zeker niet door meer dan 3 gebruikers tegelijk. Ik denk dat dan zo'n nieuwe raid kaart te kopen een beetje overkill is?


Wat betreft het OS, is het meer een kwestie van smaak zoals ik uit hierboven kan opmaken. Ik heb best wel ervaring met Linux, maar ben er niet kapot van.

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 21:25

The Third Man

The Third Jellyfish

Verwijderd schreef op woensdag 05 januari 2005 @ 16:03:
Die CoolerMaster Stacker is een goede oplossing, kan er in ieder geval genoeg drives in kwijt, bedankt! Hij is niet zo duur ook, 8)


[...]


Hmm, ik had hier nog niet naar gekeken. Maar is er echt zoveel performance nodig voor een fileserver? Het is puur storage, er wordt niet extreem veel vanaf gehaald en zeker niet door meer dan 3 gebruikers tegelijk. Ik denk dat dan zo'n nieuwe raid kaart te kopen een beetje overkill is?


Wat betreft het OS, is het meer een kwestie van smaak zoals ik uit hierboven kan opmaken. Ik heb best wel ervaring met Linux, maar ben er niet kapot van.
Tja het hangt een beetje van je performancewensen af, als je toch 100BaseT gebruikt dan kan je net zo goed software raid 5 draaien en dan ben je met een goedkoop socket a mobo + barton + 512 mb al klaar.

  • RutgerLAN
  • Registratie: Februari 2004
  • Laatst online: 09-07-2023
Waar ga je hem voor gebruiken? Hoeveel verkeer schat je dat er dagelijks overheen gaat? Wat voor een netwerkaansluiting ga je gebruiken?

Verwijderd

Topicstarter
RutgerLAN schreef op woensdag 05 januari 2005 @ 16:35:
Waar ga je hem voor gebruiken? Hoeveel verkeer schat je dat er dagelijks overheen gaat? Wat voor een netwerkaansluiting ga je gebruiken?
Wordt gebruikt om mijn film/muziek/spel/programma collectie op te slaan. Hij staat aangesloten op een netwerk waarop 6 gebruikers/computers staan aangesloten. Deze zullen zo nu en dan dingen van de server afhalen, maar niet continu. De netwerk aansluiting op dit moment is nog 100BaseT, wil wel vervangen door 1Gbit binnenkort...

Ik heb net al een topic zitten doorlezen dat Paul hierboven had gepost. Ik denk ook niet dat ik extreme hardware nodig heb. Die CoolerMaster Stacker kast is goed uitbreidbaar, paar goedkope RAID controllers erin en het moet denk ik wel loslopen denk ik?

  • NBK
  • Registratie: Oktober 2002
  • Laatst online: 27-02 10:15

NBK

Weercam-Avatar

Lekkere Kwal schreef op woensdag 05 januari 2005 @ 15:43:
Doe zoals ik: neem een CoolerMaster Stacker met 2 extra 4-in-3 modules, kan je er 12 3,5" schijven in kwijt, vervolgens een paar 250 GB schijven (op dit moment een behoorlijke prijs/GB verhouding, alleen 200 GB schijven zijn nog iets goedkoper per GB), een moederbord met 4 SATA poorten en draai software Raid 5.
[...]
Ga dan meteen voor 300GB schijven. Deze zijn wel weer iets duurder maar per GB goedkoper dan 250GB en bovendien makkelijker uit te breiden.
Die stacker is wel een mooie kast voor een fileserver zeker met die 4-3 modules. Er zijn echter ook losse 4-3 modules te koop en zeker met een SATA versie kun je dan een heel mooie hotswap oplossing bouwen.

PC's; Home; Met 8619 units als 72e geëindigd bij DPC @ SETI-classic


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Ik vind 250 of 300gb schijven momenteel niet de overweging waard. Voor de eerste 200gb betaal je 100 euro, of 25 euro per 50 GB. Iedere komende 50 GB betaal je 50 euro per GB, oftewel 2x zoveel.

Voor de laatste 100gb (naar 400gb schijven) betaal je overigens 70 euro per 50 GB

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Verwijderd

Topicstarter
Die stacker is wel een mooie kast voor een fileserver zeker met die 4-3 modules. Er zijn echter ook losse 4-3 modules te koop en zeker met een SATA versie kun je dan een heel mooie hotswap oplossing bouwen.
Ik had inderdaad gezien dat ze los verkocht werden. Maar ik begrijp even je stap naar hotswap oplossing niet? In die stacker module zitten de schijven toch gewoon vast?

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 21:25

The Third Man

The Third Jellyfish

NBK schreef op woensdag 05 januari 2005 @ 17:13:
[...]

Ga dan meteen voor 300GB schijven. Deze zijn wel weer iets duurder maar per GB goedkoper dan 250GB en bovendien makkelijker uit te breiden.
Die stacker is wel een mooie kast voor een fileserver zeker met die 4-3 modules. Er zijn echter ook losse 4-3 modules te koop en zeker met een SATA versie kun je dan een heel mooie hotswap oplossing bouwen.
300 GB schijven zijn volgens de T.net pricewatch niet goedkoper hoor, daar is de goedkoopste 300 GB schijf nog steeds 0,62 euro per GB, bij 200 GB 0,55 en bij 200 GB zelfs 0,49...

  • sig69
  • Registratie: Mei 2002
  • Laatst online: 21:23
Verwijderd schreef op woensdag 05 januari 2005 @ 17:19:
[...]


Ik had inderdaad gezien dat ze los verkocht werden. Maar ik begrijp even je stap naar hotswap oplossing niet? In die stacker module zitten de schijven toch gewoon vast?
In die module zitten ze vast ja. Overigens is die kast met 8+ pata schijven niet ideaal meer, maar dat komt meer door de enorme kabel zooi die pata kabels met zich meebrengen. Wat dat betreft is sata een stuk relaxter. Denk dat ik ook maar overstap binnenkort.

Roomba E5 te koop


Verwijderd

Topicstarter
Dus even samenvattend;

Voor mijn low-performance needs heb ik niet veel meer nodig dan een standaard raid controller en een aantal schijven, dit allemaal in een mn oude 1Ghz kastje hangen en op mn netwerk aansluiten...right?

Mocht ik uitbreiding nodig hebben, kan ik een controller erbij pluggen en daarop de nieuwe schijven aansluiten.

Iets vergeten?

  • sig69
  • Registratie: Mei 2002
  • Laatst online: 21:23
Je hebt niet eens echt een raid controller nodig, xp ( en 2000 dacht ik ook ) kunnen ook software raid draaien

Roomba E5 te koop


Verwijderd

Topicstarter
sig69 schreef op woensdag 05 januari 2005 @ 17:38:
Je hebt niet eens echt een raid controller nodig, xp ( en 2000 dacht ik ook ) kunnen ook software raid draaien
Dat is ook zo.. ik zal eens kijken daarnaar. Iig bedankt voor de info :)

  • Tom_G
  • Registratie: Januari 2004
  • Laatst online: 27-02 09:04
Verwijderd schreef op woensdag 05 januari 2005 @ 17:42:
[...]


Dat is ook zo.. ik zal eens kijken daarnaar. Iig bedankt voor de info :)
Vergeet niet dat je voor raid 5 dan wel wat cpu kracht nodig hebt om de parity data te berekenen.

Of dit op een 1 Ghz systeem een bottleneck vormt voor data geleverd langs 100 mbit, weet ik niet.

Mocht je naar gigabit willen overschakelen, zal zeker een krachtiger systeem (eventueel dual cpu's) nodig zijn om die raid array bij te benen....
Anders een hardware raid controller met XOR engine.

  • sig69
  • Registratie: Mei 2002
  • Laatst online: 21:23
Dat is voornamelijk voor schrijven toch? Lezen is meestal niet zo'n punt.

Roomba E5 te koop


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Dat valt wel mee hoor :) Mijn fileserver doet momenteel ook software raid 5, en daar zie je iedere boot een benchmarkje langkomen. Met de juiste instructies (hij doet er een paar, SSE, SSE2, MMX, etc) haalt hij vlot 2 GB per seconde aan XOR, ofwel 16x zo snel als gigabit.

Bij software raid gaat vooral de ontbrekende cache meespelen, en dan met name write behind. Zonder write behind cache is iedere schrijfactie niet slechts een schrijfactie, het is een schrijfactie met de data, een leesactie om alle bij elkaar horende stripes te lezen en dan nog een schrijfactie om de uitkomst van de XOR weg te schrijven.

Ik haal hier makkelijk 60mb/s lezen, alleen schrijven is een stukje langzamer, zo'n 30mb/s na de eerste GB (dan zit het ram van de fileserver vol :+ )

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Ik ben ook bezig een fileserver neer te zetten met de volgende specs:
  • ASUS TR-DLS (2 x PCI-64bit/66MHz 3V slots)
  • Dual PIII-1.26GHZ Socket-370 512kb cache
  • 2GB SDRAM Registered ECC (4x 512MB SDRAM)
  • Antec True430 430W PSU (een tweede na uitbreiding van de HDD)
  • Intel GBit LAN
  • CoolerMaster CM Stacker
  • FreeBSD
Hierin wil ik uiteindelijk 16x 200GB S-ATA HDD's hebben (tja, ook ik bewaar te veel). Ik zit nu te twijfelen wat ik het beste kan doen.
Of een Areca PCI-X controller voor 16x S-ATA of twee Highpoint RocketRAID 1820A S-ATA controller (ieder 8 S-ATA poorten). Het systeem in nagenoeg nieuw en het is puur voor thuisgebruik.

Ik heb geen idee in hoeverre een Dual PIII-1.26GHZ 512kb cache software raid 5 draait. De Areca heeft een processor, de Highpoint niet. Daarmee zijn 2xHighpoint dan ook de helft goedkoper dan de Areca.

De bedoeling is dat het systeem toch een +5jaar meegaat, daarna zie ik wel weer verder.

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Als je hier ziet hoeveel je aan een voeding kunt hangen en toch slechts 210w (aan het stopcontact, met een voedingsefficienty van 70% is dat dus 150 aan apparatuur) gebruiken, kun je met een degelijke (en een Antec True is een degelijke :P) voeding best die 16 schijven eraan hangen, kost je nog eens 160w. Enige tricky stukje is dan het booten. Daarvoor kun je time-delayed of staggered spinup gebruiken (pin 11 van de voedingsconnector is daar mede verantwoordelijk voor, maar als je controller alle PHYs tegelijk initialiseerd heb je daar nog niets aan :P)

Ik ben niet bekend met BSD, maar als dat hetzelfde presteert als Linux met software raid dan is dat voor thuis volkomen acceptabel, en zou je de goedkoopste oplossing kunnen zoeken.

Beide hardware controllers worden door de fabrikant onder FreeBSD ondersteund.

Dan blijft over: welke moet je nemen :)
Van goedkoop -> duur gaat tevens van goed zat :) tot SNEL :9~
Ik weet niet wat de restwaarde van de Areca over 5 jaar is, maar ik kan me zo indenken dat dat niet echt laag zal zijn. De highpoints zullen ook nog wel wat waard zijn en voor TX4-tjes (goedkoopste sata-controllers rekening houdend met het aantal pci-sloten) zul je niet veel meer terugkrijgen.

Ik kan zo niet vinden of 2 RocketRaids samen kunnen werken aan 1 array, ik neem aan van wel, 3ware, lsi en areca kunnen het ook :P
De areca heeft verder nog het voordeel van SATA-300 en NCQ, zeker als je de schijven nog moet kopen.

Je moet dus voor jezelf de afweging maken: wat heb ik nodig, wat wil ik, hoeveel geld heb ik er nu voor over, wat is de restwaarde na 5 jaar en welke controller wil ik dus?

Ik heb zelf wel voor de Areca gekozen. Ik schrijf nog redelijk veel naar mijn fileserver, en juist dat loopt het meeste achter bij software raid :)

Om in de stacker 4 van die 4-in-3 dingen kwijt te kunnen moet je de bay met alle ledjes etc eruithalen. Ik heb me er nog niet voldoende in verdiept om te weten of dat mogelijk is en of dat dan ook een extra 5.25" bay oplevert. Ik zou het wel stom vinden van Coolermaster als dat niet zo is, want anders haalt dat het nut van die bovenste 2 beetje weg, in een fileserver (waar anders wil je 16 schijven in kwijt) is een cdrom speler of een flop alleen bij installatie nodig.

[ Voor 6% gewijzigd door Paul op 13-01-2005 12:01 . Reden: Uitbreiding ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Paul Nieuwkamp schreef op donderdag 13 januari 2005 @ 11:58:
Als je hier ziet hoeveel je aan een voeding kunt hangen en toch slechts 210w (aan het stopcontact, met een voedingsefficienty van 70% is dat dus 150 aan apparatuur) gebruiken, kun je met een degelijke (en een Antec True is een degelijke :P) voeding best die 16 schijven eraan hangen, kost je nog eens 160w. Enige tricky stukje is dan het booten. ****KNIP****
Voeding is dus geen probleem. Over het booten, is het verstandig om een single bootdisk te hebben (bv Maxtor DiamondMax plus 9 80GB)?
Dan blijft over: welke moet je nemen :)
***KNIP***

Ik heb zelf wel voor de Areca gekozen. Ik schrijf nog redelijk veel naar mijn fileserver, en juist dat loopt het meeste achter bij software raid :)
Ik denk dat ik maar ga doorsparen voor een Areca 16poorts PCI-X. Als ik over een paar jaar mijn Dual Xeon (ASUS NCCH-DL, 2.8GHZ Nonoca) doorschuif kan ik hem overzetten. Verder is de processor load een heel stuk lager.
Om in de stacker 4 van die 4-in-3 dingen kwijt te kunnen moet je de bay met alle ledjes etc eruithalen. Ik heb me er nog niet
voldoende in verdiept om te weten of dat mogelijk is en of dat dan ook een extra 5.25" bay oplevert. Ik zou het wel stom vinden van Coolermaster als dat niet zo is, want anders haalt dat het nut van die bovenste 2 beetje weg, in een fileserver (waar anders wil je 16 schijven in kwijt) is een cdrom speler of een flop alleen bij installatie nodig.
4x 4-3Device is mogelijk dus 16 schijven in 1 CM stacker is geen probleem, en de koeling dus ook niet (eventueel vervang ik de standaard fans)

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Ik heb een andere kast waar ik dus nog 2x 7k2 9gb scsi schijfjes inzet om te booten (2e hands mobo heeft toch onboard scsi, dus waarom niet :P), in een stacker moet je gaan knutselen om er dus meer dan 16 schijven in te zetten.

Een losse boot-disk (of 2 in raid1) kan zeker geen kwaad, maar om daar een 80gb schijf voor te nemen? :P Eenmaal opgestart worden er zo ongeveer alleen nog maar logfiles bijgehouden op de bootschijf, dus pak dan een oude 4gb van de plank of van marktplaats of zo :)

Een andere optie is om van iedere schijf 1gb te gebruiken voor je OS en de rest in een andere array. Dan kun je dus (bij 16 schijven) een 7 raid1 arrays van ieder een GB maken voor de diverse mountpoints en 2 swap-schijven (raid0 kan, Linux doet dat geloof ik intern al, BSD weet ik niet) of zo.

Waar laat je de ledjes / powerknop die nu op dat 5.25" frontje zitten? Alleen een powerknop ergens modden of zo?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Paul Nieuwkamp schreef op donderdag 13 januari 2005 @ 14:33:
Ik heb een andere kast waar ik dus nog 2x 7k2 9gb scsi schijfjes inzet om te booten (2e hands mobo heeft toch onboard scsi, dus waarom niet ), in een stacker moet je gaan knutselen om er dus meer dan 16 schijven in te zetten.
De bedoeling is om in de toekoms een tweede CM Stacker aan te schaffen. Ze komen naast elkaar te staan. Waarom geen rack bij mij? Ik vind het persoonlijk niet zo mooi, tenzij de rackmounts hetzelfde zijn (zie bv dit project: [rml][ CIP] -XIXIV- [ x4][/rml]). De stackers vind ik prachtig. De gene die ik al heb en gebruik al workstation wordt vervangen voor een Lian Li V1200, voor extended mobo's.
Een losse boot-disk (of 2 in raid1) kan zeker geen kwaad, maar om daar een 80gb schijf voor te nemen? :P Eenmaal opgestart worden er zo ongeveer alleen nog maar logfiles bijgehouden op de bootschijf, dus pak dan een oude 4gb van de plank of van marktplaats of zo :)
Mooi, ik heb hier nog twee 2,5GB schijven liggen (Seagate), anders nog een 20GB Maxtor, deze is wel een stuk stiller :/
Een andere optie is om van iedere schijf 1gb te gebruiken voor je OS en de rest in een andere array. Dan kun je dus (bij 16 schijven) een 7 raid1 arrays van ieder een GB maken voor de diverse mountpoints en 2 swap-schijven (raid0 kan, Linux doet dat geloof ik intern al, BSD weet ik niet) of zo.
Hier moet ik nog naar kijken, het is dan ook mijn eerste fileserver. Scheelt wel weer ruimte voor een extra HDD.
Waar laat je de ledjes / powerknop die nu op dat 5.25" frontje zitten? Alleen een powerknop ergens modden of zo?
Powerbutton aan de achterkant was mijn eerste optie. Nu zit ik te denken aan een externe module met een 20x4LCD, Power/reset button en Power/HDD led. Dan kan ik gelijk het een en ander in de gaten houden.

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:32

rapture

Zelfs daar netwerken?

Ik zou voor Linux gaan, Gentoo + Samba configureren is niet moeilijk, zolang je de manual volgt.

Fileservers kunnen in verschillende smaken gebouwd worden.

De meeste leechers hebben interesse in zoveel mogelijk GB's aan een zo laag mogelijke prijs, hier steek je ATA133- of SATA-controllers en een stel 200GB harde schijven erin. Indien nodig softwarematig RAID 5 toepassen.

Als performance belangrijk wordt of je wilt gewoon je rijkdom/status op een lan showen, ja er zijn mensen die een Quad Opteron bak op lans gebruiken om CS te spelen. Die weten nog eens niet waarvoor een Quad Opteren goed is, maar kopen het gewoon omdat het duur is.
Als je nu begint, dan met een serverbord bv dual Opteron's. Hier op staan PCI-X sloten, deze heb je nodig om de Areca's in te steken. Deze RAID-controllers zijn het beste dat er bestaat, want de concurrentie vraagt even veel geld voor hun zooi dat minstens 2x zo traag werkt.
Je kan ook wachten op goede PCI-Express-mobo's (volgende generatie chipsets), deze zullen merkbaar goedkoper zijn dan serverborden met Registered ECC ram en Opteron's.

Stel je voor 16 Seagate 7000.8 400GB harddisks in RAID 5, hiermee kan je transfer rates boven 500MB/s halen. Dat is alleen mogelijk als men maar 1 brok data tegelijkertijd afhaalt, daarom zijn er wachtlijsten op de leechers-servers op lanparties. Als er 20 man aan jouw server zit te leechen, dan zakt de performance in elkaar.

[ Voor 13% gewijzigd door rapture op 13-01-2005 15:13 ]


  • NBK
  • Registratie: Oktober 2002
  • Laatst online: 27-02 10:15

NBK

Weercam-Avatar

Je hoeft niet perse de 4-3 module van coolermaster in je stacker te gooien. D'r is veel mooier spul verkrijgbaar. Ik heb nu 2 StorCase Rhino®JR RJR400's in me server liggen. 4xSATA in 3x5,25", Hotswap met 8cm fan voor koeling, 2x molex of SATA-power voor stroomtoevoer en 4x SATA-data om de sata door te lussen naar je controller. Het hoofdaspect van de koeling ligt trouwens op koelen dus echt stil is ie niet maar hij is stiller dan de gemiddelde losse HDD koeler van coolermaster.

Afbeeldingslocatie: http://www.nbkonline.nl/Temp/SC/SANY5150.JPG

Hier staan trouwens nog meer detail foto'tjes.
Ze staan op een 1024/512 verbinding dus laden kan paar tellen duren...

[ Voor 29% gewijzigd door NBK op 27-06-2006 16:21 . Reden: verkeerde URL, URL gefixed ]

PC's; Home; Met 8619 units als 72e geëindigd bij DPC @ SETI-classic


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 17:47

heuveltje

KoelkastFilosoof

in de nieuwe chieftecs kunnen 20 schijven (extra 4in1 boven de voeding)
(en die is maar 125 euro met 420W voeding)
NBK schreef op zondag 16 januari 2005 @ 18:33:
Je hoeft niet perse de 4-3 module van coolermaster in je stacker te gooien. D'r is veel mooier spul verkrijgbaar. Ik heb nu 2 StorCase Rhino®JR RJR400's in me server liggen. 4xSATA in 3x5,25", Hotswap
Mooi zeker
maar een cm4in1 kost 14 euro, wat kosten die wel niet ?
Tom_G schreef op woensdag 05 januari 2005 @ 18:56:
[...]

Vergeet niet dat je voor raid 5 dan wel wat cpu kracht nodig hebt om de parity data te berekenen.

Of dit op een 1 Ghz systeem een bottleneck vormt voor data geleverd langs 100
Mbit, weet ik niet.
Nope. heb ik momenteel (wel met maar 4 schijven), swraid5, en een amd1200.
10MB/sec is geen probleem. met niet te veel gebruikers (2of3) doet ie rond de 20Mb.

overigens kost van raid5 lezen niet veel cpu, er op schrijven wel
Mocht je naar gigabit willen overschakelen, zal zeker een krachtiger systeem (eventueel dual cpu's) nodig zijn om die raid array bij te benen....
Anders een hardware raid controller met XOR engine.
Thuis staat mijn systeem altijd duimen te draaien, op lanparties heeft ie het idd aanzienlijk drukker. maar om daar nou allerlei extra dure software te kopen ?

Hou er wel ff rekening mee dat SWraid5 niet later uit te breiden is.

[ Voor 92% gewijzigd door heuveltje op 16-01-2005 18:54 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • NBK
  • Registratie: Oktober 2002
  • Laatst online: 27-02 10:15

NBK

Weercam-Avatar

heuveltje schreef op zondag 16 januari 2005 @ 18:42:
in de [url=http://www.chieftec.de/?page=products_show&item=3801&k_id=&language=de]nieuwe chieftecs [/b] kunnen 20 schijven (extra 4in1 boven de voeding)
[...]
Mooi zeker
maar een cm4in1 kost 14 euro, wat kosten die wel niet ?
[...]
Nope. heb ik momenteel (wel met maar 4 schijven), swraid5, en een amd1200.
10MB/sec is geen probleem. met niet te veel gebruikers (2of3) doet ie rond de 20Mb.
overigens kost van raid5 lezen niet veel cpu, er op schrijven wel
[...]
Thuis staat mijn systeem altijd duimen te draaien, op lanparties heeft ie het idd aanzienlijk drukker. maar om daar nou allerlei extra dure software te kopen ?

Hou er wel ff rekening mee dat SWraid5 niet later uit te breiden is.
Deze waren iets duurder dan 14 euro. Zeg maar 155 euro meer... per stuk dus...
Maar een losse hotswap module voor 1 HDD van promise is al 70 euro dus in dat opzicht was het wel betaalbaar.
Voor software RAID heb je trouwens evengoed nog een veel-kanaals controller nodig en die zijn ook niet echt goedkoop. Geef dan liever 200 euro oid meer uit voor een HW-RAID controller. Die bieden veel meer mogelijkheden (met een hotswap HDD-module kun je zelfs online de capaciteit uitbreiden.)

PC's; Home; Met 8619 units als 72e geëindigd bij DPC @ SETI-classic


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 17:47

heuveltje

KoelkastFilosoof

NBK schreef op zondag 16 januari 2005 @ 18:58:
[...]

Deze waren iets duurder dan 14 euro. Zeg maar 155 euro meer... per stuk dus...
Maar een losse hotswap module voor 1 HDD van promise is al 70 euro dus in dat opzicht was het wel betaalbaar.
mmmm :X
dat is me ietswat veel te veel geld :(

maar hotswap is mij het veel geld ook niet waard
het is maar een thuis server. dus mocht er een disk stuk gaan, dan moet ie maar ff uit. das nu ook weer niet zo'n probleem :)
Voor software RAID heb je trouwens evengoed nog een veel-kanaals controller nodig en die zijn ook niet echt goedkoop. Geef dan liever 200 euro oid meer uit voor een HW-RAID controller. Die bieden veel meer mogelijkheden (met een hotswap HDD-module kun je zelfs online de capaciteit uitbreiden.)
zoals gezegd hotswap is niet echt een rendabel voordeel voor mij

en sja ik heb nu een promise s150tx-4 (4 poorts, 17E per poort)
twijfel nu tussen nog zon ding of een HP1820 (8poorts, 22 euro per poort)
zon areca of iets dergelijks kost bijna het 4voudige (72 euro per poort). en dat is het mij persoonlijkecht niet waard.
zeker omdat ik weet dat er
A: toch weer binnen 1,5 jaar alweer meer disken bij gaan.
B: de performance van sw raid veel meer is dan ik nodig heb. (meer is uiteraard leuker, maar mocht ik daar de extra $$ voor hebben, steek ik dat liever in meer diskruimte)

[ Voor 12% gewijzigd door heuveltje op 16-01-2005 19:17 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 17:47

heuveltje

KoelkastFilosoof

Paul Nieuwkamp schreef op woensdag 05 januari 2005 @ 17:16:
Ik vind 250 of 300gb schijven momenteel niet de overweging waard. Voor de eerste 200gb betaal je 100 euro, of 25 euro per 50 GB. Iedere komende 50 GB betaal je 50 euro per GB, oftewel 2x zoveel.

Voor de laatste 100gb (naar 400gb schijven) betaal je overigens 70 euro per 50 GB
opzich heb je gelijk.

hou er echter ook rekening mee dat je voor elke sata poort moet betalen. dus als je 1. tb wilt halen kan dat goedkoper worden met 4 300 gb schijven en 1 4poorts kaart, dan 6 200GB schijven en 2 4poorts kaarten.
nog even afgezien dat je maar een beperkt aantal pci sloten op je mobo hebt


Als je later wil uitbreiden kan het ook interesant zijn (nu zijn 200gb schijven het goedkoopst. over een half jaar misschien wel 250GB schijven)

[ Voor 7% gewijzigd door heuveltje op 16-01-2005 19:30 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Nog een vraagje. Ik wil een Areca 16-poorts controller aan gaan schaffen met hierop uiteindelijk 16x Hitachi Deskstar T7K250 in raid6. Ik wil mijn huidige Dual PIII-1.26GHz 512KB cache moederboard hiervoor gaan gebruiken.

Is dit een verstandige keuze of kan ik beter een Dual Xeon 2.8GHz Nonoca hiervoor gaan gebruiken :?
Dit met het oog op een High-End controller op een ouder serverboard. en omdat mijn huidige serverboard "slechts" een PCI64 bit slot heeft @ 66MHz (de Areca kan tot 133MHz aan).

Weet iemand of er veel verschilzit in een PCI-X en een PCI-E comtroller qua snelheid? (Ik hou dit topic in de gaten: Review: ervaringen met SATA RAID 5-adapters gevraagd)

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Als het enige wat dat ding gaat doen bestanden serveren is, dan gaat dat makkelijk op je oude moederbord. Kun je er zelfs nog 1 van de processoren uithalen.

Ik weet niet welk moederbord het is en of er gigabit onboard zit, maar stel dat alles via 1 PCI64/66 bus moet.. PCI64/66 kan 64 * 66 / 8 = 528 mb per seconde verwerken, gigabit (full duplex) is 256 mb/s. Dus zelfs met 1 PCI-bus waar 2 PCI64/66 sloten op zitten trek je die bus niet vol.

Dan de processorcapaciteit. Die Areca (en fatsoenlijke gigabitkaarten) zijn volledig in hardware uitgevoerd, en vragen dus niets of vrijwel niets van je processor.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Het is een Asus TR-DLS noederboard met 2x PCI64 sloten. Helaas geen onboard gigabit. De Areca komt in een slot en een gigabit PCI64 in de andere.
Geheugen wordt 2 of 3GB.

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 14:02

Femme

Hardwareconnaisseur

Official Jony Ive fan

64-bit 66MHz PCI doet in de praktijk zo'n 400MB/s. PCI-X heeft een wat hogere busefficiëntie en zal bij gelijke kloksnelheid iets beter presteren. 400MB/s is meer dan genoeg voor een enkele gigabit verbinding. Natuurlijk is een nieuw Opteron- of Xeon-moederbord met twee 133MHz PCI-X-bussen en een nieuwe processor mooier, maar het zal wel een stuk duurder zijn.

Het verschil kun je waarschijnlijk ook enigzins compenseren door 512MB ipv 128MB cache op de ARC-1160 te zetten. Dat zou vooral moeten helpen als je fileserver (tijdens een LAN-party?) veel lezende en schrijvende clients heeft.

Voor fileserver zijn de Areca-kaart perfect. Hier twee grafieken van fileserverscenario's:

Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1106069825.png

Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1106070022.png

Dit is nog met de oude 1.33 firmware. Inmiddels heb ik van Areca de 1.35 beta firmware ontvangen die de random I/O prestaties aanzienlijk verbeterd. Areca kwam er nogal slecht af in een recente review van Tom's Hardware Guide (die review was overigens waardeloos van opzet), waar alleen synthetische random I/O werd getest. Het probleem is opgelost in de 1.35 firmware. Dit resulteert in mijn tests met vier schijven in RAID 5 in een prestatieverbetering van respectievelijk 23,5 en 11,7 procent in de bovenstaande tests (zie deze pagina voor een directe vergelijking), waardoor geen enkele andere kaart meer aan de fileserverprestaties van de Areca's kan tippen. De Areca-kaarten presteren nu ook veel beter in de database- en mailserverscenario's, wat eigenlijk het enige zwakke punt van deze adapters was.

[ Voor 55% gewijzigd door Femme op 23-01-2005 12:54 ]


  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 21:39
Femme schreef op zondag 23 januari 2005 @ 12:48:
64-bit 66MHz PCI doet in de praktijk zo'n 400MB/s. PCI-X heeft een wat hogere busefficiëntie en zal bij gelijke kloksnelheid iets beter presteren. 400MB/s is meer dan genoeg voor een enkele gigabit verbinding. Natuurlijk is een nieuw Opteron- of Xeon-moederbord met twee 133MHz PCI-X-bussen en een nieuwe processor mooier, maar het zal wel een stuk duurder zijn.
Het is puur voor thuis gebruik, dus niet veel gebruikers.
Het verschil kun je waarschijnlijk ook enigzins compenseren door 512MB ipv 128MB cache op de ARC-1160 te zetten. Dat zou vooral moeten helpen als je fileserver (tijdens een LAN-party?) veel lezende en schrijvende clients heeft.
Dat had ik al in gedachten. 512MB SoDIMM is goed betaalbaar, 1GB is niet meer leuk. Zit er eigenlijk al een SoDIMM bij van 128MB?

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 14:02

Femme

Hardwareconnaisseur

Official Jony Ive fan

Voor thuisgebruik lijkt me het prestatieverschil tussen 64-bit 66MHz en PCI-X in een fileserver niet relevant.

Als het goed is krijg ik binnenkort een ARC-1160. Die wil ik gaan testen met de standaard 128MB cache en met 512MB en 1GB cache.
Pagina: 1