Toon posts:

Hoe bouwt men een snelle terabyte nas?

Pagina: 1
Acties:
  • 616 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Dag Tweakertjes,

Kunnen jullie mij helpen met het bouwen van een leuke configuratie?

Ik wil een NAS, van een terabyte ofzo, want dan kan ik er voorlopig even mee vooruit. Da's op zich niet zo moeilijk, maar ik wil hem vanaf mijn PC ook kunnen benaderen met de performance van een lokale schijf (dus iets in de sfeer van 100+ Mbyte/s). Dat kan ook, maar is al wel iets moeilijker. Een paar dingen heb ik op een rij, maar het moet nog wat gefinetuned worden en wellicht hebben jullie wat goede suggeties.

Mijn zorg zit hem in het volgende:

Met 100Mbyte/s ambitie trek je een Gbit ethernet kaart volgens mij een heel eind dicht (en is een acceptabele bottleneck ;-)) maar dat betekent wel dat je hem ook moet kunnen voeden. Oftewel: je moederbord moet ingesteld zijn om de data te kunnen verwerken en bovendien moet de data ook nog eens tussen je RAID controller en NIC op en neer reizen.

Concreet heb daarom de volgende vragen:

- Wie heeft concrete ervaring met een dergelijke setup? Hoe is de performance, gemeten vanaf de client pc?

- Kunnen data transfers tussen NIC en disk direct of gaan ze altijd indirect (via geheugen)? In zoverre een wezenlijke vraag, want in de indirecte situatie moet je bussnelheid ten minste twee keer zo hoog zijn. Is dit uberhaupt een boeiende vraagstelling of zijn de nieuwe moederborden met PCI-X ondersteuning zowiezo snel genoeg?

- Naast zelf bouwen kan je natuurlijk ook een kant-en-klaar oplossing nemen die prijseffectief is. Het ontbreekt me alleen een aan reviews. Ken je een product dat je zo goed vindt performen dat het wellicht slimmer is om die te komen dan om zelf te bouwen?

Cheers & thanks,

Improph.

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 22:53

The Third Man

The Third Jellyfish

Gigabit is moeilijk benutbaar met goedkope (lees PCI 32-bits/33MHz) kaartjes dus daar zal je toch aan een 64-bits of PCI-X oplossing moeten gaan denken. Tegelijk is het dan verstandig om hetzelfde voor de RAID-controller te doen. Eigenlijk met die twee ingrediënten op een brede bus zit je al goed (mits je niet al te weinig RAM en een te trage cpu neemt, maar dat hoeft ook niet het beste van het beste te zijn).

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 16:06

heuveltje

KoelkastFilosoof

Verwijderd schreef op donderdag 25 augustus 2005 @ 23:57:
Dag Tweakertjes,

Kunnen jullie mij helpen met het bouwen van een leuke configuratie?
Ik wil een NAS, van een terabyte ofzo, want dan kan ik er voorlopig even mee vooruit. ik wil hem vanaf mijn PC ook kunnen benaderen met de performance van een lokale schijf (dus iets in de sfeer van 100+ Mbyte/s).

Een paar dingen heb ik op een rij, Mijn zorg zit hem in het volgende:

Met 100Mbyte/s ambitie trek je een Gbit ethernet kaart volgens mij een heel eind dicht (en is een acceptabele bottleneck ;-)) maar dat betekent wel dat je hem ook moet kunnen voeden. Oftewel: je moederbord moet ingesteld zijn om de data te kunnen verwerken en bovendien moet de data ook nog eens tussen je RAID controller en NIC op en neer reizen.

Concreet heb daarom de volgende vragen:
paar losse opmerkingen.
Niet daadwerkelijk vragen, maar meer overwwegingen

je schijf in je client pc heeft misschien theoretisch 133mb/s maar in de praktijk komt dat nooit voor.
zelfs al zou je schijver op de server het kunnen leveren dan houd je processor het niet bij !
en hoe snel kun je data wegschrijven op je client pc. je zult dus niet alleen een nas moeten bouwen, maar ook een client pc die op deze snelheid kan werken

1tb zijn 3 400 GB schijven. dat kun je net zo makkelijk in je eigen pc kwijt en dan heb je zeker de performance die je wilt, en je hoeft geen 2 nieuwe pc's te kopen !

Heb je al overwogen wat voor data je op NAS kwijt wil. als dat zoals ik vermoed iso's films en mp3's ED zijn. bedenk dan eens hoe snel dat echt moet zijn voor je ook maar enig verschil zou merken.....

Als dit wel een serieusere vraag is. kom dan eens met hoeveel K je budget is. wat de eisen zijn, wat precies het doel is van de nas. welke hardware je al tot je beschikking hebt hoeveel gebruikers etc

BTW
Heb servers met meerder scsi schijven in raid en glasvezel nics nooit meer dan 70 a 80 MB/s sustained reallife zien doen. om 100MB+/s langere tijd vol te houden heb je enorme setups nodig

[ Voor 22% gewijzigd door heuveltje op 26-08-2005 04:13 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Maasluip
  • Registratie: April 2002
  • Laatst online: 15:34

Maasluip

Frontpage Admin

Kabbelend watertje

Signatures zijn voor boomers.


  • Shuriken
  • Registratie: November 1999
  • Laatst online: 14:29

Shuriken

Life is all about priorities

Ik wil nog een opmerking plaatsen. Heb je wel een Gbit switch die al dit geweld aan kan? want zonder een switch die Jumbo Packets ondersteund ga je niet eens in de richting van 100 Mb/s halen. Eerder de helft daarvan.

[ Voor 7% gewijzigd door Shuriken op 26-08-2005 09:55 ]

I rather have a bottle in front of me, then a frontal lobotomie


  • leuk_he
  • Registratie: Augustus 2000
  • Laatst online: 04-03 01:03

leuk_he

1. Controleer de kabel!

Verwijderd schreef op donderdag 25 augustus 2005 @ 23:57:
- Kunnen data transfers tussen NIC en disk direct of gaan ze altijd indirect (via geheugen)? In zoverre een wezenlijke vraag, want in de indirecte situatie moet je bussnelheid ten minste twee keer zo hoog zijn. Is dit uberhaupt een boeiende vraagstelling of zijn de nieuwe moederborden met PCI-X ondersteuning zowiezo snel genoeg?
Ja het gaat altijd via de processor. En je geheugen lijkt me alleen maar een voordeel aangezien dit als cache gaat implementeren.

Een gigabyte voltrekken is niet zo simpel hoor. (reken eerder op 80MB/s dan 100) De bottleneck lijkt eerder de PCI bus te zijn dan de bus tussen de chipset & processor. Een gigbit die goed geimplementeerd is op het moderbord (b.v. intel CSA, ik geloof ook nforce amd).

http://www.anandtech.com/.../printarticle.aspx?i=2004

PCI-X wil je dan een (relatief dure) pci-x giga netwerkkaart kopen? of zijn die goedkoper geworden toen ik even de andere kant op keek. 8)

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Verwijderd

Topicstarter
Thanks voor de reacties. Goede tips ook.

De disk die ik zoek, of wil bouwen (want dat zal me om het even zijn), wil ik altijd aan hebben zodat hij ook vanaf het i-net te benaderen is. Maar, omdat mijn eigen PC in de woonkamer staat ben ik terughoudend om een aantal loeiende schijven en blowers in mijn PC te plaatsen en die dan altijd aan te laten staan. Ik realiseer me dat schijven tegenwoordig heel lief en stil zijn, maar als het 's avonds laat is en je zit lekker op de bank en je PC staat als enige nog aan... ja, dan hoor ik hem dus wel.

Vandaar mijn gedachte om een mooie NAS te bouwen, maar dan wel om te gebruiken als een vorm van storage waar ik aktief gebruik van maak. Reden dus om hem met een goede performance uit te rusten.

Buffalo heeft op zich een mooie NAS, ook qua prijs, maar ik maak me een zorgen over de werkelijke performance. Jullie geven terecht aan dat je een gigabit kaart niet zomaar dicht trekt en dat je over een doelstelling als deze dus wel goed moet nadenken. Als dat betekent dat de disk effectief 80Mb/s doet omdat dat de state of art is, dan so be it. Maar, wat ik moeilijker zou kunnen verkroppen is een goede performance op de disks en dan onnodige bottlenecks hebben in een bus.

Volgens mij ziet het plaatje er inmiddels ongeveer zo uit (na gesuggereerd leeswerk)
1. Mobo: Asus PSCH-L omdat hij een PCI-X 133 slot heeft en de intel Gbit nic chipset die voor zover ik heb kunnen vinden in reviews als een van de beste er uit komt. Alternatief is de DFI 855GME-MGF zoals gesuggereerd door Mashie. Bij beiden nog even nakijken of jumbo packets ondersteund worden op de NIC.

2. Raid controller: Adaptec 2810SA (is PCI64 maar als ik goed gelezen heb is PCI-X backwards compatible en zou deze kaart dus moeten functioneren) of de Areca ARC-1120 want die is toch al PCI-X. De adaptec vindt ik qua functionalteit erg goed (o.a. expanden van RAID sets (nee, niet je partities, da's een ander verhaal). Bij de Areca moet ik dat nog even nazoeken. Twee keer een hotswap bay erbij voor 4 drives.

3. Schijven: Seagate Barracuda 7200.8 250GB SATA. De Maxtor Diamonds zijn iets goedkoper op deze capaciteit maar creeeren meer warmte. Qua omvang lijkt mij op dit moment de 250Gb de beste prijs per gig verhouding.

4. Als client een mooie stille shuttle. Ik realiseer me dat deze wat aan de performance teniet kan doen, maar dan telt de stilte zwaarder.

In totaal verwacht ik hier wel een aantal euro's aan uit te moeten geven ja. De server zelf gaat ongetwijfeld over de 1.000 euro heen en dan wil ik ook nog een leuk werkstation. De optelsom heb ik alvast gemaakt.

Ik blijf dan nog met de volgende vragen zitten:
A. Maakt het, in het kader van filesharing, nog veel uit of je een 2.0Ghz P4 neemt of een hogere? Ik realiseer me dat voor het aanmaken van IP data packets echt een CPU vereist is, maar de impact kan ik niet zo goed inschatten.

B. Zou met deze config de Gbit de bottleneck worden. Zoja, dan ben ik een blij mens.

C. Heeft het nog zin om de client met een cross-cable aan de server te hangen, in plaats van via een switch? Niets beperkt me om een lokale route te maken op basis van Gbit en de internet connectivity op basis van een eigen LAN aansluiting. (wel even goed configureren, dat snap ik).

  • leonbong
  • Registratie: Augustus 2002
  • Laatst online: 21:46
Als je het om gigabit voltrekken gaat kan je beter die adaptec vergeten en areca ook. Adaptec te traag/duur areca te snel/duur voor het doel. Highpoint 1820A of 2020A nemen en dan met het geld wat je uitspaart een 3com pci-x gbit kaart zoals dit bijvoorbeeld aanschaffen.

130 mb/s dat haalt zo'n highpoint wel. Areca gaat daar dik overheen maar de prijs ook.

[ Voor 13% gewijzigd door leonbong op 26-08-2005 23:14 ]


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 16:06

heuveltje

KoelkastFilosoof

leonbong schreef op vrijdag 26 augustus 2005 @ 23:13:
Als je het om gigabit voltrekken gaat kan je beter die adaptec vergeten en areca ook. Adaptec te traag/duur areca te snel/duur voor het doel. Highpoint 1820A of 2020A nemen en dan met het geld wat je uitspaart een 3com pci-x gbit kaart zoals dit bijvoorbeeld aanschaffen.

130 mb/s dat haalt zo'n highpoint wel. Areca gaat daar dik overheen maar de prijs ook.
um uitgaande van raid5 haalt een 1820A dat niet :)
mijne doet met 8 schijven in benches op zijn maximale net 110MB/s (pci max)
maar gewoon normale doorvoer is stukken lager :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Verwijderd

Topicstarter
De Adaptec is inderdaad iets langzamer, dus mogelijk valt die af. Zowel de Adaptec als de Areca hebben goede RAID features met online recovery en reconfiguration en expansion van een raid set. Dit zie ik bij Highpoint niet in de specs terug dus dat maakt de highpoint, ondanks het aantrekkelijke prijskaartje, wat minder interessant.

  • leonbong
  • Registratie: Augustus 2002
  • Laatst online: 21:46
Al die functies die je noemt zitten op de 2020A.
Op de 1820A zit van die functies alleen online expansion er niet op.
Een 1820A haalt makkelijk 130mb/s.
Als je Femme's test leest is het een middenvelder.

[ Voor 8% gewijzigd door leonbong op 27-08-2005 13:15 ]


  • Kirpeknots
  • Registratie: Mei 2001
  • Laatst online: 13:57

Kirpeknots

Wazzup!

Ik zou voor een linksys (cisco) NLSU2 usb2.0 NAS gaan met 2 goedkope conceptronics USB harddiskbehuizingen en 2 Hitachi 7K500 sata 500Gb schijven er aan.
Ik heb zelf 2 7K400 400Gb schijven en 1 7K250 250Gb schijf in mijn server hangen en daar ben ik erg tevreden over (Snelheid/geluis)

Haalt de gewenste niet maar heeft wel hele mooie files-/weberver functionaliteit.
http://www1.linksys.com/i...duct.asp?coid=28&ipid=553

Hij schopt er ongeveer 25Mbit/s uit over de ethernet interface.

Veel pleziah Joost.

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 22:53

The Third Man

The Third Jellyfish

Kirpeknots schreef op zaterdag 27 augustus 2005 @ 13:48:
Ik zou voor een linksys (cisco) NLSU2 usb2.0 NAS gaan met 2 goedkope conceptronics USB harddiskbehuizingen en 2 Hitachi 7K500 sata 500Gb schijven er aan.
Ik heb zelf 2 7K400 400Gb schijven en 1 7K250 250Gb schijf in mijn server hangen en daar ben ik erg tevreden over (Snelheid/geluis)

Haalt de gewenste niet maar heeft wel hele mooie files-/weberver functionaliteit.
http://www1.linksys.com/i...duct.asp?coid=28&ipid=553

Hij schopt er ongeveer 25Mbit/s uit over de ethernet interface.

Veel pleziah Joost.
25 Mbit/s is wel erg traag hoor, terwijl hier juist snelheid het punt is waar TS naar zoekt.

  • bigfoot1942
  • Registratie: Juni 2003
  • Niet online
realiseer je wel, dat je dan ook een dikke raid-kaart in je client PC wilt zetten, en een moederbord met PCI-X?
Een normale IDE schijf levert sowieso niet meer dan 40MB/s sustained, helemaal wanneer je t ook nog over een gbit nic op een gewone PCI-bus trekt.
Beetje zonde om dan een server te bouwen die 80MB/s gaat trekken, terwijl je er nooit meer dan 40MB/s op kan zetten...

  • leuk_he
  • Registratie: Augustus 2000
  • Laatst online: 04-03 01:03

leuk_he

1. Controleer de kabel!

bigfoot1942 schreef op zaterdag 27 augustus 2005 @ 14:06:
realiseer je wel, dat je dan ook een dikke raid-kaart in je client PC wilt zetten, en een moederbord met PCI-X?
Een normale IDE schijf levert sowieso niet meer dan 40MB/s sustained, helemaal wanneer je t ook nog over een gbit nic op een gewone PCI-bus trekt.
Beetje zonde om dan een server te bouwen die 80MB/s gaat trekken, terwijl je er nooit meer dan 40MB/s op kan zetten...
Hij heeft het niet over een gbit nic Die je er los bijzet, maar die hem heeft geintegreed op de chipset van het moederbord.

Nou heb ik alleen een beetje moeite reviews te vinden van he moederbord wat hij noemt ( Asus PSCH-L) dus moet ik er maar vanuit gaan dat T zijn huiswerk gedaan heeft. Als de Gbit direct op de southbridge (of zelfs een direct link naar de northbrdige heeft) hoeft dit niet je bottelneck te zijn.

Ik ik zou inderdaad een aprte kabel gebruiken zodat je geen switch _moet_ gebruiken naar alle PC's. Anders blijkt straks weer dat de switch de bottelneck is (van switches is het helemaal moeilijk reviews te vinden)

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Verwijderd

Ik vraag mij nog steeds af, waarom je dit nodig hebt.

Je gebruikt het alleen als je bestanden kopieerd van de ene client (jouw PC) naar de NAS (of andersom). Hoevaak doe je dat? Want vanaf nu zullen al je downloads en andere zooi die je van internet afhaald toch rechtstreeks op die NAS verdwijnen. En als je iets wilt afspelen (DIVX/MP3) is een 10 MB netwerk ook nog voldoende. Alleen als je misschien iets vanaf een ISO wilt installeren kun je het gebruiken (maar dan moet je eigen client PC het ook aan kunnen). Maar installeren van software is toch niet echt van through put afhankelijk, meer van access time.

Als je een NAS voor een studentenhuis gaat bouwen is het meer noodzakelijk om meer snelheid te hebben, maar 1 of twee clients, vind ik dit weggegooid geld.

Pak een tweedehands PC, gooi er een raid controllerkaart in met tig schijven en spelen maar.

Mijn punt is dus ook dat je met een langzamer NAS een veel grotere (meer schijven) kunt maken met hetzelfde geld. Waar je dus ook lang mee zou kunnen doen.

[ Voor 10% gewijzigd door Verwijderd op 27-08-2005 16:04 ]


Verwijderd

Topicstarter
Kirpeknots
Hij schopt er ongeveer 25Mbit/s uit over de ethernet interface.
Dank je, Roy, maar mij net te langzaam.
bigfoot1942
realiseer je wel, dat je dan ook een dikke raid-kaart in je client PC wilt zetten, en een moederbord met PCI-X?
Ik begrijp dat je in de veronderstelling bent dat ik bestanden die op mijn NAS staan naar mijn lokale schijf wil kopieren en er dan mee wil werken en vice versa.

Dat is niet helemaal het geval. Ik ben nog veel luier. Ik wil de NAS als primaire storage gebruiken. Dat betekent dat als ik met 4 video bestanden in adobe premiere bezig ben (ik noem maar even een zijstraat) dan wil ik dat gewoon op de NAS kunnen doen. Wat ik op mijn client wel nodig heb is een retesnelle gigabit ethernet kaart. Ofwel onboard, ofwel in een PCI-X slot, ofwel als enige kaart in een PCI32 bus (die laatste twijfel ik nog een beetje).
leuk_he
dus moet ik er maar vanuit gaan dat T zijn huiswerk gedaan heeft
Zo goed als dat ik kan wel ja. Het lijkt er op dat iedereen het er over eens is dat de Areca veel sneller kan blazen dan dat de gigabit NIC kan verwerken. Over de highpoint zie ik nog wat gemengde gevoelens voorbij komen, dus de Areca laat ik nog even op nummer 1 staan. Dan is nu de vraag: hoe krijg je die datastroom van en naar de Areca zo snel mogelijk bij de NIC. Dat betekent: een goed moederbord zoeken met de juiste chipset. En daar schiet mijn kennis te kort. Ik kan wel sloten tellen en ik snap dat de systeembus een bottleneck kan zijn en dat het slim is om de NIC direct op de systeembus te hebben en niet in een PCI-X slot (hoe midder stappen hoe minder latency), maar dat laat onverlet dat het moederbord (en de CPU voor de IP packaging) het werk ook aan moet kunnen.

Het moederbord dat ik voorstelde is een uit velen, en gekozen uit de basale specs op alternate.nl. Als je een alternatief hebt die voor deze toepassing functioneert dan ben ik erg benieuwd. Vanavond ga ik de specs lezen van de netwerk kaart. Hij moet jumbo packets ondersteunen weet ik al en ik ga meer lezen over de chipset van het moederbord.

BTW: Wie is 'T' / 'TS'?

En nog effe een quotje:
Knarfy
Ik vraag mij nog steeds af, waarom je dit nodig hebt.
...
maar 1 of twee clients, vind ik dit weggegooid geld.
Waarom ik dit nodig heb? Eerlijk gezegd denk ik dat ik dat helemaal niet nodig heb, net als een heleboel andere dingen in mijn huis en mijn omgeving zoals bijvoorbeeld een stereo toren en een vuil ophaaldienst want in veel meeste plaatsen in de wereld kunnen ze zonder. Maar da's nog geen reden om het niet te doen.

More importantly:
  • Ik bouw maar eens in de paar jaar een nieuwe configuratie en dan wil ik er echt een hele tijd mee vooruit.
  • Het is best cool om top-of-the-line te bouwen of iets te bouwen wat tegen de limits van de performance aanzit en de aardigheid is dat als je goed uitvogelt waaar de bottlenecks zitten en die weghaalt, je wel hoge performance kunt krijgen voor maar een kleine meerprijs t.o.v. een andere setup (ja het gaat om procenten, maar da's de sport).
  • Ik zie anderen hetzelfde doen met 3D kaarten als ze age of empires willen spelen. Het is maar wat je boeiend vind denk ik. Trouwens, ik weet niet eens of age of empires wel de laatste koele 3d game is want games zijn niet mijn ding, maar ik kan me wel voorstellen waarom het voor een gamer op een lan party geen weggegooid geld is om een vet coole (maar toch waarschijnlijk geld kostende) doom3 mod te maken: http://www.hardforum.com/showthread.php?t=802808
  • Ik ben een nerd.

  • Jesse
  • Registratie: Februari 2001
  • Laatst online: 20:41
De TS dat ben jij.

Verwijderd

Topicstarter
Dat gokte ik al, maar waar staat TS dan voor?

Taak-Steller
Tering-Systeembouwer
Terras-Stoel
Technisch-Specialst
Tafel-Speelgoed
Tigabit-Switch

Terabyte-Server?

  • The Third Man
  • Registratie: September 2001
  • Laatst online: 22:53

The Third Man

The Third Jellyfish

Topic Starter ;)

  • aghos
  • Registratie: Juni 2005
  • Laatst online: 08-01 15:59
Topic Starter

edit : to late pagina stond open maar had ni op verstuur geklikt ;)

[ Voor 77% gewijzigd door aghos op 27-08-2005 18:11 ]


  • the_stickie
  • Registratie: Juli 2001
  • Laatst online: 14-09-2025
Sowieso kies je best voor een goeie on-board netwerkaart gebasserd op een deftige chip.
Voor de rest denk ik eigenlijk niet dat je moederbord veel gaat uitmaken; zolang je een goeie chipset kiest en zorgt dat je een voldoende snelle verbinding hebt voor je RAID controller (geen gewwon PCI dus) Vooral dat laatste beperkt je.
Aangezein de cpu niet zoveel in de pap te brokken heeft (daarom heb je immers een deftige netwerkaart gekozen ;) ) zou je met een Ghz al toekoemen.

Heb je al eens nagedacht over welke software je zou willen gebruiken? Het lijkt me een beetje zonde om een state-of-the-art server te gaan bouwen (dat is toch zo'n beetje wat je wil doen?) enkel en alleen als NAS...

Verwijderd

Topicstarter
Hey Stickie,

Moet mijn CPU niet altijd alsnog die dikke datastroom van mijn RAID controller met een keukenmes in stukken hakken om er IP packets van te maken, of kan de netwerkkaart dat ook? Dat zou nieuw zijn voor me. Heb je de naam van die voorziening, dan ga ik zelf wel lezen hoe het werkt.

Verwijderd

Bouw een solid state disk RAID-setup, met bijv.: http://www.memtech.com/pdfs/sa3580ds.pdf . Geen geluidsproductie en extreem lage toegangstijden. En over temperaturen, stroomverbruik e.d. hoef je je geen zorgen te maken. ;)

  • bigfoot1942
  • Registratie: Juni 2003
  • Niet online
zoek een moederbord waarbij de onboard gigabit netwerkkaart aan de Northbridge hangt ipv aan de southbridge. de Northbridge is nl veel sneller...

voor intel heet dat de "Intel® CSA Gigabit LAN" oid zoals al eerder vermeld, voor een AMD tegenhanger moet je maar ff googlen...

Verwijderd

Infrant READYNAS600

Dit lijkt me leuk terabyte NAS speelgoed

Verwijderd

Topicstarter
Koele link en mooi apparaat.

Maar, kijk eens naar de volgende grafiek, uit de review:

Afbeeldingslocatie: http://www.tomsnetworking.com/Reviews/images/scrnshots/infrant_readynas/X6_read_1G.png

De read performance topt op 35Mbytes per seconde. Mijn conclusie zou zijn, hoewel dit stukken beter is dan andere producten, dat er nog ergens een behoorlijke bottleneck zit in het apparaat, aangezien de Gbit verbinding toch zeker het dubbele aan zou moeten kunnen.

  • TheBorg
  • Registratie: November 2002
  • Laatst online: 03-03 14:19

TheBorg

Resistance is futile.

Ik heb ook wel oren naar zo'n systeem. Op Tom's Hardware staat een artikel over een aantal GBit NIC's. Opvallend is vooral de CPU Load. Voor de fileserver geen probleem, maar voor de workstation m.i. de grootste vijand. Alleen al daarom zou een Dual Core in de workstation een goede keuze zijn.

Wat ik me nog af vraag is of een plank met de Intel 82547EI / CSA i.c.m. een simpele PCI/33 RAID controller genoeg is om de volledige RAID snelheid over het netwerk te krijgen.

Verwijderd

Topicstarter
En klaar is klara...

Thanks voor alle input. Erg waardevol. Volgens mij ziet de componentenlijst er als volgt uit, samen met prijzen uit de pricewatch en elders.

MoederbordASUS PSCH-LPricewatch: 162,00
Intel P4 2,8Ghz/1Mb/800Mhz FSB Pricewatch: 166,68
Geheugen2x512Mb PC3200/400 DDRPricewatch: 91,90
VoedingCooler Master RS 430 Extreme Power ATX Pricewatch: 35,39
Blowers2 x Cooler Master SAF-S12-E1 (120 mm) voor bovenin de kastPricewatch: 17,60
Raid controllerAreca ARC-1120 8*SATA II 128Mb Pricewatch: 577,15
KabelsSATA en voedingstelpost 50,00
Harde schijven4 x Seagate Barracuda 250Gb Pricewatch: 476,00
Schijf enclosures2 * 5 SATA op 3 5.25" baywww.servercase.com: 340,00
Extra netwerkkaart3Com 3c509CX-TX-M 10/100 Pricewatch: 22,58

Totaal: EUR 1.939,3

Da's veel geld. Dus een vergelijk is wel wat waard, maar misschien is het interessant om eerst even naar de keuzes te kijken:

Het moederbord heeft de intel E7210 chipset op basis van Intel Hub Architecture. De onboard gigabit NIC is een intel 82547gi zit direct op de CSA bus en heeft daarmee snelle toegang tot het geheugen. De nic ondersteunt bovendien jumbo packets tot 16kb en large send offload, waardoor de datastream direct vanuit het geheugen naar de NIC gaat en de NIC de opsplitsing doet naar MTU size packets. De meest actuele status van large send offload binnen het windows platform ken ik niet, maar in 2001 was microsoft nog voorzichtig (zie link), dus de werkelijke beschikbaarheid is op dit moment nog twijfelachtig. CPU, geheugen en voeding zijn vrij standaard. De raid controller heeft ruimte voor 8 sata schijven die in een hotswap enclosure bay komen. Ik heb zelf een vreselijke hekel aan schroeven, vandaar. De bay bevat maximaal 5 schijven waardoor er in totaal ruimte is voor 10 disks. Het moederboard ondersteunt ook twee sata raid0/1 schijven die daarmee ook in de enclosures kunnen worden opgenomen.
Deze zijn eventueel te gebruiken als system disk (als je het echt mooi wilt doen). Qua performance zit de raid controller op de PCI-X bus met een maximum doorvoer van 4,2Gbyte per seconde, het geheugen op een bus van max 3,2Gbyte/s en de CSA op 266Gb/s. Potentieel kan de Aretec de netwerk kaart daarmee dicht trekken. Om optimaal vanaf de client de NAS te kunnen benaderen wordt de onboard NIC op met een cross-cable aan de client gehangen. De 3Com kaart wordt gebruikt als extratje om ook een route naar de switch voor het internet te hebben. Komen er in de toekomst grotere schijven en wil je meer kwijt (de ervaring heeft ons toch al lang geleerd, nietwaar?) dan kan je die online bijprikken. Zou je de netwerk performance ook nog willen opschroeven dan bestaat de mogelijkheid om een intel 10Gbit netwerk kaart in het tweede PCI-X slot te steken. Om de performance, zowel nu als later, op de gbit interface hoog te houden is het mogelijk verstandig om de MTU van de IP stack op te hogen.
Tegen de warmte komen bovenin de kast twee extra stille naar-boven-blazende blowers. Onderin de kast komen gaten voor de aanzuiging. De seagates doen het qua warmte iets beter dan de maxtors. Vandaar deze keus.

Nou het geld. Hoe verhoudt deze config zich tot andere oplossingen?

Buffalo Terabyte NAS 1.0Gb: Volgens Pricewatch 967,24 euro, heeft weliswaar dezelfde startcapaciteit, maar geen groeicapaciteit meer. Bovenstaande config kan nog groeien tot 8 schijven en heeft bovendien hot swap storage enclosures die je als optioneel kunt beschouwen. Zou je beiden eraf halen, dan zou je 340 euro sparen op de enclosures en 199,15 op het verschil in de 4 of 8 poorts controllers. Je zit dan nog steeds op 1400,15, heel wat meer. Het voornaamste verschil wat dan overblijft is dat de terraserver qua doorvoorsnelheid op het netwerk erg laag scoort. Daar zal het bij deze config (hopelijk) niet aan liggen.

Infrant READYNAS X6:Volgens de tomshardware.com zo rond de 975 euro ($1299), ook dezelfde startcapaciteit en geen groeicapaciteit meer. De performance is wel een stuk beter als de buffalo maar heeft ook geen storage enclosures.

Mijn conclusie: Bovenstaande is wat aan de dure kant op het gebied van prijs/kwaliteit. De performance zal ongetwijfeld hoog zijn maar om met de top-of-de-line te spelen moet je ook euro's uitgeven. Op dit moment lijkt het daarom wat over de top, maar je bent wel klaar voor de toekomst en nieuwe uitbreidingen (disks en netwerk) kan je moeiteloos bijprikken en je hoeft geen herinvestering meer te doen in het basismateriaal.

Links:
Moederbord: http://www.alternate.nl/h...rue&artno=GQEA77&#tecData
Onboard NIC: http://www.intel.com/desi...n/controllers/82547ei.htm
Voeding: http://www.coolermaster-e...-PMAR%2FP+eXtreme%20Power
Blowers: http://www.coolermaster-e...E1+Aluminum%20Fan%20120mm
Raid controller: http://www.areca.com.tw/products/html/pcix-sata.htm
Schijven: http://www.seagate.com/products/personal/barracuda.html
5-drive hot swap bay: http://www.servercase.com...R-SS35&Category_Code=SATA
Onderzoek naar te lage MTU sizes: http://www.gelato.org/pdf...04_transfers_hirstius.pdf
Microsoft's visie over large send offload (verouderd): http://www.microsoft.com/.../network/taskoffload.mspx
bigfoot1942
voor intel heet dat de "Intel® CSA Gigabit LAN"
Ik herkende de benaming eerst niet, maar dit is equivalent aan de genoemde onboard 82547GI nic.

En nu
Mocht je nog een glitch zien, zeg het! Dan ga ik in de tussentijd alvast een sponsor zoeken :r Over een paar dagen komt het spaarloon vrij van de afgelopen jaren ;) ;) ;)

Als ik hem inderdaad ga bouwen, is iemand dan geinteresseerd in een performance rating?

Verwijderd

Topicstarter
TheBorg schreef op zaterdag 27 augustus 2005 @ 21:59:
Ik heb ook wel oren naar zo'n systeem.
Gezellig..
Kijk nog even op Tom's Hardware op deze link: http://www.tomshardware.c.../gigabit_ethernet-05.html

De config hierboven heeft dezelfde chipset. Het enige verschil is dat de chipset hierboven, de E7210, PCI-X ondersteund en de 875P niet. Verder zijn ze hetzelfde. Concreet betekent dat dat de config op Tom's hardware niet in staat zou zijn om ook aan de disk array kant de datastroom te voeden maar voor hun is dat niet erg want daar hebben ze niet op getoetst.
TheBorg schreef op zaterdag 27 augustus 2005 @ 21:59:
Alleen al daarom zou een Dual Core in de workstation een goede keuze zijn
Ja, we moeten nog een twee config maken. Maar waarom een dual core? Het lijkt me dat de CPU in de client net zoveel moet doen als wanneer hij vanaf disk laadt. Ik heb nog geen onderzoek gedaan naar dit deel hoor, dus misschien ben ik optimistisch? Verklaar je nader zou ik zeggen.

  • Coen Rosdorff
  • Registratie: Januari 2000
  • Niet online
Verwijderd schreef op zaterdag 27 augustus 2005 @ 23:36:
Raid controllerAreca ARC-1120 8*SATA II 128Mb Pricewatch: 577,15
Harde schijven4 x Seagate Barracuda 250Gb Pricewatch: 476,00
Met 4*250 GB kom je niet aan een Terabyte NAS natuurlijk. Ik neem tenminste niet aan dat het de bedoeling is op Raid-0 te gaan draaien. Als dat wel het geval is kan je flink in je kosten snijden.

  • Lennieboy83
  • Registratie: Februari 2002
  • Laatst online: 31-05-2024
Improphecy die Areca kaart is echt overkill op dat mobo, de PCI-X poorten lopen maar maximaal op 266 MB/s shared met een hele hoop andere apparaten, ik heb zelf een Asus NCCH-DL dual-Xeon mobo gehad met diezelfde 6300ESB chipset en omdat ik het bord vond tegenvallen icm. met mijn SCSI RAID controller ben ik overgegaan op een profi-bord die 133 mhz PCI-X heeft (ipv. 66 mhz PCI-X) en dat scheelt aanzienlijk, zorg dus voor een bord die dus niet teveel apparaten op het zelfde kanaal zitten die deel uitmaken van die 266 MB/s link met de MCH, op deze manier is een 10 Gbit netwerkkaart helemaal overkill B) denk dus aan het toekomstperspectief ;)
Als je me niet gelooft moet je de datasheet van de Intel E7210 even nalezen op de Intel site ;)

Verwijderd

Topicstarter
little_soundman schreef op zondag 28 augustus 2005 @ 01:23:
[...]
Ik neem tenminste niet aan dat het de bedoeling is op Raid-0 te gaan draaien.
Klopt. De enige reden waarom ik hierboven 4x250Gb heb neergezet (en daarmee geen effectieve Terabyte haal) is om de prijs vergelijking met andere producten makkelijker te maken omdat die vaak ook initieel met 4 schijven komen. Om aan effectief 1Tb te komen zal ik initieel 5 schijven moeten kopen.
SCSI beest
de PCI-X poorten lopen maar maximaal op 266 MB/s shared met een hele hoop andere apparaten
Opmerkelijk. De E7210 chipset is inderdaad gepaard met de 6300ESB. Ik ben met de bepaling van de specificaties uitgegaan van de gegevens uit het chipset diagram zoals dat op de datasheet pagina van de E7210 op de intel website staat:
Afbeeldingslocatie: http://www.intel.com/products/i/chipsets/e7210/e7210_block_lg.gif
Zoals je ziet staat er in dit diagram 533Mt/s tussen de 6300ESB en de PCI-X bus. Dat is duidelijk anders dan wat jij noemt dus ik ben op zoek gegaan naar bevestiging en onkrachting van de snelheid op verschillende plekken en er is inderdaad iets vreemds aan de hand:
  • In het diagram van de E7210 staat 533 MT/s.
  • In het datasheet van E7210 kan ik niets teruglezen over de snelheid van de PCI-X bus (http://www.intel.com/design/chipsets/e7210/300798.htm)
  • In het datasheet van 6300ESB staat nergens (voor zover ik kan zien) expliciet genoemd hoe snel de PCI-X interface is. Wel geven diagrammen de indruk dat de PCI en PCI-X interface sterk met elkaar vermengd zijn en de maximale snelheid daardoor 66MT/s is.
  • Als je een chipset comparison opvraagt tussen de E7210 en de 875P (uit jouw asus moederbord) dan staat bij 875P helemaal geen PCI-X en bij E7210 staat PCI-X 1.0 (check: http://indigo.intel.com/c...&familyID=9&culture=en-US). Op de psi-sig website staat netjes uitgelegd dat PCI-X 1.0 maximaal 133MT/s heeft.
  • Op de chipset pagina van de E7210 noemt Intel een related product moeder bord. Dit bord (http://www.intel.com/desi...rds/SE7210TP1-E/index.htm) heeft drie PCI-X 66 MT/s sloten.
Wat mij betreft bewijst dit al (naast je eigen ervaring) dat je een goed punt naar voren brengt. Het lijkt erop dat intel onduidelijk is in haar specificaties en 533 MT/s is mogelijk een onjuiste specificatie. Omdat het datasheet van de 6300ESB en de specificaties van het intel moederbord met elkaar overeen komen op 66 MT/s zou 66 Mhz wel eens de werkelijke bussnelheid kunnen zijn met als gevolg dat de E7210 de verkeerde chipset is voor deze toepassing. Als dat zo is, zouden namelijk al je opmerkingen over performance en toekomst perspectief juist zijn. Aangezien de 875P chipset volgens de comparison geen PCI-X ondersteunt: Had je je kaart soms voorheen in een PCI32 slot zitten? Dat kan eventueel ook de oorzaak zijn van je performance probleem natuurlijk.

Ik zal morgen eens kijken of ik Asus en Intel zover kan krijgen hierover iets terug te mailen.

Welk moederbord met welke chipset gebruik je nu?

PS: We zijn wel lekker met specs aan het gooien, vindt je niet?

  • snooze
  • Registratie: September 2002
  • Laatst online: 27-07-2025

snooze

kinda busy atm.

je zou voor de client pc iig kunnen kijken naar moederborden met een intel CSA netwerk chip(zoals in bovenstaande post. of voor amd een chip die op een HT hangt (meen het ergens gezien te hebben not quite sure).

[ Voor 8% gewijzigd door snooze op 28-08-2005 06:35 ]

weet iemand nog een leuke signature?


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 16:06

heuveltje

KoelkastFilosoof

Verwijderd schreef op zaterdag 27 augustus 2005 @ 23:36:
[tr][td]Schijf enclosures[/td][td]2 * 5 SATA op 3 5.25" bay[/td][td]www.servercase.com: 340,00[/td][/tr]
ik neem aan dat je 4 sata op 3 5.25" bay bedoelt ?
5 op 3 heb ik nog nooit gezien. en past volgens mij ook niet !

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Jesse
  • Registratie: Februari 2001
  • Laatst online: 20:41
heuveltje schreef op zondag 28 augustus 2005 @ 11:23:
[...]

ik neem aan dat je 4 sata op 3 5.25" bay bedoelt ?
5 op 3 heb ik nog nooit gezien. en past volgens mij ook niet !
Past wel, op zijn kant. Zie hier.
Dit is btw niet degene die TS bedoelt volgens mij.

Edit: Lekker spuit 11 weer. 8)7

Zoiets word volgens mij wel behoorlijk warm btw. Zo dicht op elkaar zoals het in zulke racks gaat is meer bedoelt voor als je em in een geairconditioneerde ruimte neerzet.

[ Voor 27% gewijzigd door Jesse op 28-08-2005 11:45 ]


  • Lennieboy83
  • Registratie: Februari 2002
  • Laatst online: 31-05-2024
Ok Improphecy ik heb de datasheet voor je: http://www.intel.com/design/chipsets/e7210/30079801.pdf

Scroll naar 1.4.3 - Hub Interface, daar staat alles haarfijn beschreven, 266 MT/s al die borden blijken dus hetzelfde te zijn kwa snelheid tussen de North & Southbridge die de 6300ESB chipset gebruiken B)

En nog eentje scroll naar 1.3 en kijk naar het plaatje daar staat zelfs duidelijk 266 MB/s, niet echt bevordelijk dus.

[ Voor 17% gewijzigd door Lennieboy83 op 28-08-2005 12:49 ]


Verwijderd

Topicstarter
Lennieboy83 schreef op zondag 28 augustus 2005 @ 12:43:
Ok Improphecy ik heb de datasheet voor je: http://www.intel.com/design/chipsets/e7210/30079801.pdf

Scroll naar 1.4.3 - Hub Interface, daar staat alles haarfijn beschreven, 266 MT/s al die borden blijken dus hetzelfde te zijn kwa snelheid tussen de North & Southbridge die de 6300ESB chipset gebruiken B)

En nog eentje scroll naar 1.3 en kijk naar het plaatje daar staat zelfs duidelijk 266 MB/s, niet echt bevordelijk dus.
He, thanks.

Toch even mailen dus. Los van de verschillende specificaties ben ik eerder geneigd een datasheet dan een marketingplaatje te vertrouwen. Zou wel zonde zijn want zelfs op 66 Mhz genereert de PCI-X bus 528MB/s. Dan zou er dus echt een bottleneck in het design zitten. Daarnaast moet ik dan nog even van moederbord gaan wisselen.

Ik ben wel nog steeds benieuwd naar het moederbord en kaart die je nu gebruikt.

  • Skaah
  • Registratie: Juni 2001
  • Niet online
Je kunt - in plaats van via samba je schijven over het netwerk te mounten - misschien iscsi gebruiken? Dat geeft een veel hogere performance, en bovendien is het 'cooler'.

  • Lennieboy83
  • Registratie: Februari 2002
  • Laatst online: 31-05-2024
Ik dacht eerst ook met mijn NCCH-DL mobo van Asus dat het een grap was maar de benchmarks liegen er niet om helaas :'( , kreeg er idd maar maximaal zo'n 250 MB/s uit op reads, writes maar de helft daarvan, (komt omdat de cached writes waarschijnlijk dubbel de bus over moeten), zie het volgende plaatje:

Afbeeldingslocatie: http://hetjuisteforum.nl/ht/atto320x.jpg

Nu ik met een Supermicro server bord zit met 133 mhz PCI-X haal ik het volgende:

Afbeeldingslocatie: http://www.hetjuisteforum.nl/ht/attopcix133.jpg

Dat is wel even wat anders dus

  • the_stickie
  • Registratie: Juli 2001
  • Laatst online: 14-09-2025
Verwijderd schreef op zaterdag 27 augustus 2005 @ 18:16:
Hey Stickie,

Moet mijn CPU niet altijd alsnog die dikke datastroom van mijn RAID controller met een keukenmes in stukken hakken om er IP packets van te maken, of kan de netwerkkaart dat ook? Dat zou nieuw zijn voor me. Heb je de naam van die voorziening, dan ga ik zelf wel lezen hoe het werkt.
Natuurlijk moet je cpu ook nog wat doen. Maar dot is inet écht veel werk.
Geen enkele netwerkkaart kan zonder cpu, maar er is wel een significant verschil in cpu gebruik tussen bijvoorbeeld een kaartje met een realtek chipje of een intel chipje...

Als je de juiste netwerkkaart kiest, hoeft je cpu dus minder te zweten en kn je evengoed een tragere nemen.

(ff voorbeel een realtek (10/100!)kaartje neemt op mijn athlon XP 2000+ 60% cpu, een 3com kan dit met 15% en een intel haalt het al met iets meer dan 10%. Bovendien is de troughput van de twee laatsten zo'n 20% hoger! _/-\o_ (resultaten zijn niet exact... ;)

Anyway: netwerkkaart is dus wel degelijk iets wat je wil uitzoeken ;)
Pagina: 1