Server met 5 NIC's / 6 HD's / RAID ? *help*

Pagina: 1
Acties:
  • 507 views sinds 30-01-2008
  • Reageer

  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Ik moet een server bouwen met de volgende ingredienten.

- Processor (AMD Duron 1000 ofzo ? lekker goedkoop)
- Geheugen (KINSGTON Sd-ram 1024 ?)
- 5 netwerkaarten (kunnen er niet minder door omstandigheden, kan ook niet anders opgelost worden)
- 6 (misschien meer) Harde schijven van ieder 80 Gb 7200 ata 100
- Een RAID 0 (performance) systeem

Nu mijn vraagjes:
- Welk mammaplankie heeft zoveel PCI sloten ?
- Hoe fix ik het RAID, hoeveel schijven (4 toch?) kunnen op 1 controller ? En kost een controller dan weer een pci slot extra ?
- Kunnen jullie mij misschien adviseren over welke hardware goed is in dit geval ?

Dit alles moet (relatief) zo goedkoop mogelijk gedaan worden.

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:06 schreef DaPoztMaster het volgende:
- 5 netwerkaarten (kunnen er niet minder door omstandigheden, kan ook niet anders opgelost worden)
intrigerend vraagstuk :) maar eh klein vraagje tussendoor (puur nieuwsgierigheid van mijn kant: waarom zoveel netwerkaarten?

A wise man's life is based around fuck you


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Omdat er 4 internet aansluitingen (load balacing wordt door iemand anders gefixed, die regelt dat gedeelte) op aangesloten worden en ik geen geld heb voor een "Sisco achtige" oplossing...

En 1 kaartje om internet door te routeren naar een hub, waar het internet dan weer verdeeld kan worden.

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:12 schreef DaPoztMaster het volgende:
Omdat er 4 internet aansluitingen (load balacing wordt door iemand anders gefixed, die regelt dat gedeelte) op aangesloten worden en ik geen geld heb voor een "Sisco achtige" oplossing...

En 1 kaartje om internet door te routeren naar een hub, waar het internet dan weer verdeeld kan worden.
mischien een intel server NIC? die heeft 2 aansluitingen op 1 netwerkaartje, dus dan kun je er 3 indoen en heb je 6 aansluitingen (en maar 3 slots bezet)

A wise man's life is based around fuck you


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Op dinsdag 04 december 2001 22:15 schreef zwelgje2 het volgende:

[..]

mischien een intel server NIC? die heeft 2 aansluitingen op 1 netwerkaartje, dus dan kun je er 3 indoen en heb je 6 aansluitingen (en maar 3 slots bezet)
Maar trekt een PCI slot dan 200 mbit (daar heb ik geen id van) En wat kost zo'n ding ? Bij pricewatch zie ik hem (denk ik) niet staan...

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
die kaartjes zijn aardig in de prijs ja, helaas

ook de snelheid wordt dan een probleem, wil je het goed aanpakken dan zul je een echt serverboard moeten kopen, eentje met een 'gespleten pci-bus' (dus niet meerdere sloten, maar meerdere bussen, waarbij elke bus onafhankelijk van de andere functioneerd)

anyway, wil je het goed dan zul je er voor moeten betalen, tis niet anders: voor een dubbeltje kun je niet op de eerste rang zitten, (kan mischien wel maar je wordt er dan wel snel weer afgeschopt)

maar je hebt dus 4 internet aansluitingen als het goed heb gelezen, deze server wordt ergens rechtstreeks op het internet aangesloten? (bij een grote provider in het serverhok?)

volgende vraag dan:

waar gaat deze server voor dienen? aangezien er ook veel hdd ruimte in moet

A wise man's life is based around fuck you


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Er moeten 4 x (afzonderlijke) 100 mbit aansluitingen op komen. De server moet worden gebruikt om data op te slaan, die vanaf een andere vestiging (bedrijf) zo snel mogelijk over gepompt moet worden.

Aan de andere kant (bedrijf) is de verbinding sneller dan 400 upload (geen id wat voor kast of server dat is verder) en deze moet al die data kunnen verwerken op 1 of andere manier... (zo min mogelijk vertraging)

  • Sick Nick
  • Registratie: Februari 2001
  • Laatst online: 02-05 15:42

Sick Nick

Drop the top!

Data met meer dan 400 Mbit verplaatsen (dus lezen of schrijven met 50 MB/sec) vergt enorm veel van je pc, dus dan moet je in ieder geval niet beginnen met IDE. Het kan wel als je mirrored en striped en alle shit maar SCSI is in dit geval toch wel iets beter.

  • CubicQ
  • Registratie: September 1999
  • Laatst online: 22:54
Moet dat RAID systeem 8x RAID 0 zijn? Dat zou betekenen dat je 4 channels op je controller moet hebben, dat betekent dat je niet die goedkope/onboard gevallen kunt gebruiken (die hebben er 2, waardoor je maximaal 4x schijven kunt gebruiken, daar zou je er dan 2 van nodig moeten hebben (1 onboard, 1 los?)).

netwerkkaarten: misschien kijken naar (dual) onboard? Dat scheelt weer 2 PCI sloten.

Qua RAID zit je al snel op iets als een 8-port Escalade 7810 (1x PCI).

Misschien ook wel iets om te kijken of je wel genoeg hebt aan een duron 1000, om 5x 100 MBit vol te krijgen en 8 harddisken tegelijk aan de praat te houden kan je best wel wat CPU gebruiken en om bij zo'n monster nou 100 piek te willen besparen door een duron te nemen... tsja...

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:31 schreef Sick_Nick het volgende:
Data met meer dan 400 Mbit verplaatsen (dus lezen of schrijven met 50 MB/sec) vergt enorm veel van je pc, dus dan moet je in ieder geval niet beginnen met IDE. Het kan wel als je mirrored en striped en alle shit maar SCSI is in dit geval toch wel iets beter.
inderdaad dat was mijn volgende opmerking, maar dat hoeft al niet meer, :)

A wise man's life is based around fuck you


  • CubicQ
  • Registratie: September 1999
  • Laatst online: 22:54
hmm, dan is Dual AMD Thunderbird 1400 MP goedkoper dan SCSI. Met zo'n Tyan bordje heb je ook meteen 2x NIC op moederbord geintegreerd volgens mij.

  • The Dolf
  • Registratie: November 2000
  • Niet online
Neem iig geen duron maar een TB of XP. Voor servers is een duron zwaar klote

Gezocht!
Samsung 1TB HD103SI printplaat
Router
If everything seems to be going well, you have obviously overlooked something


  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
Bedrijven die data met 400Mbit/s moeten verplaatsen hebben echt wel geld voor echte apparatuur. Hiermee bedoel ik dus echte routers/switches en merk servers (IBM,Compaq,Dell).

Beetje hoog bla gehalte dit topic....

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:36 schreef RedRoon het volgende:
Bedrijven die data met 400Mbit/s moeten verplaatsen hebben echt wel geld voor echte apparatuur. Hiermee bedoel ik dus echte routers/switches en merk servers (IBM,Compaq,Dell).

Beetje hoog bla gehalte dit topic....
volledig mee eens,

ik zou als bedrijf waarbij het er echt om ging, geen selfmade servers inzetten (no flame intended) kies dan liever voor compaq/dell/hp)

kost wat meer, maar levert ook weer wat op,

A wise man's life is based around fuck you


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Op dinsdag 04 december 2001 22:36 schreef RedRoon het volgende:
Bedrijven die data met 400Mbit/s moeten verplaatsen hebben echt wel geld voor echte apparatuur. Hiermee bedoel ik dus echte routers/switches en merk servers (IBM,Compaq,Dell).

Beetje hoog bla gehalte dit topic....
En bedankt, ik dus niet..

[ontopic]
Het is inderdaad waar over die proc. Maar wat is de bandbreedte/maximale data doorvoer van een pci slot eigenlijk ? Of moet je alle sloten bij elkaar optellen..

Laat ik de vraag anders stellen:
Wat kan je het beste doen met:

- Een betaalbaar mammaplankie
- Zoveel mogelijk HD (minder als 6 waarschijnlijk)
- Zo snel mogelijke data doorvoer op de HD
- Geen SCSI (te duur)

  • Kippenijzer
  • Registratie: Juni 2001
  • Laatst online: 28-04 20:21

Kippenijzer

McFallafel, nu met paardevlees

Neem bijvoorbeeld de nieuwe (duurt nog maandje ofzo) Asus Dual Athlon bordje... Heeft 64Bit's 66MHz pci... Ooit een gehoord van een 4poort 10/100 UTP kaart... Is vast wel een andere dan 32bits 33MHz pci... Je PCI doet maximaal 133Mbyte/s

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:41 schreef DaPoztMaster het volgende:

[..]

En bedankt, ik dus niet..

[ontopic]
Het is inderdaad waar over die proc. Maar wat is de bandbreedte/maximale data doorvoer van een pci slot eigenlijk ? Of moet je alle sloten bij elkaar optellen..

Laat ik de vraag anders stellen:
Wat kan je het beste doen met:

- Een betaalbaar mammaplankie
- Zoveel mogelijk HD (minder als 6 waarschijnlijk)
- Zo snel mogelijke data doorvoer op de HD
- Geen SCSI (te duur)
je stelt bijna onmogelijke eisen :)

-snelle doorvoor, maar GEEN scsi

-betaalbaar mainboard, (wat jij nodig hebt om je performance te behouden is niet goedkoop te krijgen, je komt nu eenmaal uit in het hogere segment

-Amd cpu's, duurdere kwaliteits (lees server) mainboard draaien voornamelijk met intel cpu's (duurder)

hoe zit het met betrouwbaarheid? is dat geen eis?? en wat voor OS komt erop?

A wise man's life is based around fuck you


  • Sick Nick
  • Registratie: Februari 2001
  • Laatst online: 02-05 15:42

Sick Nick

Drop the top!

Op dinsdag 04 december 2001 22:48 schreef zwelgje2 het volgende:

[..]
Hoe zit het met betrouwbaarheid? is dat geen eis?? en wat voor OS komt erop?
OS lijkt me een Unix of Linux variant ofzo, en als het al windows word dan iets van Win 2k adv. server ofzo want de meeste andere windowsen worden niet zo vrolijk van 5 of 6 Nic's ;(

  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
AMD CPU's zijn absoluut geen procs om in een server te duwen (of je moet elke dag kijken of het fannetje nog loopt).
Verschil is dat elke Intel proc nog doodleuk doorloopt (of zichzelf uischakelt) als de CPU fan kapot gaat en een AMD binnen een seconde of 30 zeker het loodje legt....

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:49 schreef Sick_Nick het volgende:

[..]

OS lijkt me een Unix of Linux variant ofzo, en als het al windows word dan iets van Win 2k adv. server ofzo want de meeste andere windowsen worden niet zo vrolijk van 5 of 6 Nic's ;(
beetje vaag, heeft het bedrijf geen standaard OS voor serverdoeleinden? welk OS wordt er aan de andere kant van de lijn gebruikt?

hoe wordt die data overgepompt? via samba of ftp of iets anders?,

/edit deze vragen zijn voor de topicstarter :)

A wise man's life is based around fuck you


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Er komt linux (debian) op te staan en intel heeft zich inderdaad al bewezen op de server markt (standaard zinnetje :P))

Data gaat inderdaad via FTP

Maar ik denk dat de CPU (tot op zekere hoogte) niet eens de bottle neck zal zijn in dit hele verhaal.

Eerder het "Aantal PCI sloten en hun maximale doorvoer" zal (als eerste) een probleem zijn...

  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
Tik een oud BX board op de kop, daar zitten 9 van de 10 keer wel 5 PCI sloten op (Abit BE6 en BP6 bijvoorbeeld).

En over de doorvoer zou ik mij geen zorgen maken, neem niet aan dat je 4 uplinks hebt richting internet die 100Mbit dik zijn. Als je die wel hebt dan hoef je ook geen zelfbouwserver te maken....

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:54 schreef DaPoztMaster het volgende:
Eerder het "Aantal PCI sloten en hun maximale doorvoer" zal (als eerste) een probleem zijn...
dit lijkt me ook,

anders wat, wat voor verbinding ligt er tussen server 1 (ander bedrijf) en de nieuwe server? (maw hoe ver is de afstand?) en over wat voor soort lijn gaat deze data?

mischien is de gebruikte router wel de bottleneck..

A wise man's life is based around fuck you


Verwijderd

Op dinsdag 04 december 2001 22:36 schreef RedRoon het volgende:
Bedrijven die data met 400Mbit/s moeten verplaatsen hebben echt wel geld voor echte apparatuur. Hiermee bedoel ik dus echte routers/switches en merk servers (IBM,Compaq,Dell).

Beetje hoog bla gehalte dit topic....
Idd, als je zoiets wil als bedrijf moet je echt wel iets anders in elkaar zetten dan dit hoor! Duron |:( -> Xeon :)
Ide raid 0? |:( -> Scsi Fiberoptic Aray raid 0+1+5 :)

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op dinsdag 04 december 2001 22:58 schreef RedRoon het volgende:
Tik een oud BX board op de kop, daar zitten 9 van de 10 keer wel 5 PCI sloten op (Abit BE6 en BP6 bijvoorbeeld).

En over de doorvoer zou ik mij geen zorgen maken, neem niet aan dat je 4 uplinks hebt richting internet die 100Mbit dik zijn. Als je die wel hebt dan hoef je ook geen zelfbouwserver te maken....
die slots zijn het probleem dan niet, maar 5 nics erin en je kan je RAID kaart niet meer kwijt ;) (aangezien de BX maar tot udma33 gaat

A wise man's life is based around fuck you


  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
Op dinsdag 04 december 2001 22:59 schreef zwelgje2 het volgende:

[..]

die slots zijn het probleem dan niet, maar 5 nics erin en je kan je RAID kaart niet meer kwijt ;) (aangezien de BX maar tot udma33 gaat
Maar een BP6 heeft al een Highpoint controller onboard ;)

  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
Op dinsdag 04 december 2001 22:59 schreef Flipke het volgende:

[..]

Idd, als je zoiets wil als bedrijf moet je echt wel iets anders in elkaar zetten dan dit hoor! Duron |:( -> Xeon :)
Ide raid 0? |:( -> Scsi Fiberoptic Aray raid 0+1+5 :)
SSA r0xx0r's ;)

  • Rukapul
  • Registratie: Februari 2000
  • Laatst online: 00:07
Waarom moet dit alles in 1 server???

Je geeft aan dat je geen Cisco zut etc wil kopen maar waarom niet 2 goedkope servers?

- Raid file server
- Load balancer (met 4 inet aansluitingen)
- 1 GB link tussen de file server en de load balancer

Overigens vraag ik me serieus af hoeveel rekenkracht het kost om 400 mbit te routeren en te verwerken door een pc
edit:
Bij wat testen laatst haalde ik max 60 mbit op een PPro200 onder FreeBSD
. Als je ook nog security (IPsec?) gaat gebruiken kan ik je op voorhand zeggen dat het niet mogelijk is dit te bereiken zonder dedicated hardware matige oplossingen.

  • --HYPER--392
  • Registratie: Maart 2001
  • Laatst online: 17:02

--HYPER--392

Powered by Fiat

dis trouwens ook een leuke voor je irqs :-) 5 nics + raid kaaart

Do not pray for easy lives. Pray to be stronger men.


  • Redje
  • Registratie: Juli 2000
  • Laatst online: 30-04 20:59
Op dinsdag 04 december 2001 23:15 schreef --HYPER-- het volgende:
dis trouwens ook een leuke voor je irqs :-) 5 nics + raid kaaart
Wheheeh dit gaat ook zeker niet lukke met een amd/via plank. Ik kreeg al probs met 4 kaarten :)

Nah ik zou gewoon voor een robuuste oplossing gaan en dus gewoon voor een merk machine. Daar kan je vaak wel irqs per slot instellen. Kijk eens bij www.lebox.nl voor erg leuk geprijste Dell servers.

Kijk eens naar een Dell PowerEdge 1300, P-III dus lekker koel, veel PCI slots, dual proc ready, scsi onboard, eventeel met Raid.

  • Bockelaar
  • Registratie: Juli 2001
  • Laatst online: 15:37
Op mij komt dit hele verhaal nogal vreemd over:

- een Duron 1G (ofzo ;) )is zeker geen optie voor een serieuze bedrijfsserver. Deze hoort thuis in een gamestation.

- Voor een server neem je geen SDRAM, maar ECC (of registered ECC). Neem je toch een Duron, lijkt het me handig dat je er DDR in stopt. (is net zo duur, 2x zo snel, en hoort prima bij die Duron)

- 5 NIC's in een server: BULLSHIT. Neem daar dan een router voor of een PC die dedicated daarvoor neergezet wordt.

- Voor dataopslag zijn IDE schijven prima, maar voor datadoorvoersnelheid en redundancy neem je echt gewoon SCSI.

- RAID0 is echt geen optie in een DATAserver. Daar wil je echt gewoon RAID5 in hebben. RAID5 is nl. aanmerkelijk sneller, en biedt gewoon dezelfde redundancy als RAID0. Sterker nog, in een RAID0 configuratie ben je de helft van je capaciteit kwijt, met een RAID5 set met 6 schijven slechts 16,67%.

En nu een serieuze vraag: waar hebben we het over? Een "bedrijf" wil met 4x 100mbit een remote dataopslag faciliteit opzetten. ALS dit waar is, dan ga je dus echt niet bezuinigen op je hardware. Immers: remote dataopslag betekent dat je data belangrijk is. Die ga je dan dus niet op een zelfbouw "playstation" systeem "veiligstellen".

Remember: A CRAY is the only computer that runs an endless loop in just 4 hours...


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
[quote]Op dinsdag 04 december 2001 23:27 schreef Bockelaar het volgende:
Op mij komt dit hele verhaal nogal vreemd over:

Fijn dat je inderdaad alles ff afkraakt, kan je nou niet gewoon ff helpen denken IPV alles af kraken en dingen gaan suggeren die nou eenmaal niet waar zijn,

Het idee van Rukapul lijkt me stukken beter !

- Raid file server
- Load balancer (met 4 inet aansluitingen)
- 1 GB link tussen de file server en de load balancer

Dan heb ik al weer minder dure hardware nodig denk ik !

  • Rukapul
  • Registratie: Februari 2000
  • Laatst online: 00:07
Op dinsdag 04 december 2001 23:27 schreef Bockelaar het volgende:
En nu een serieuze vraag: waar hebben we het over? Een "bedrijf" wil met 4x 100mbit een remote dataopslag faciliteit opzetten. ALS dit waar is, dan ga je dus echt niet bezuinigen op je hardware. Immers: remote dataopslag betekent dat je data belangrijk is. Die ga je dan dus niet op een zelfbouw "playstation" systeem "veiligstellen".
Bedenk ook eens wat 4x100mbit kost en zet dat af tegen de kosten die hij bereid is te maken voor de serverfarm.

* Rukapul zou haast denken dat ie wat vriendjes op een universiteitsnetwerk heeft zitten en een zo groot en snel mogelijke warez box wil neerzetten :+

Verwijderd

Volgens mij zit er iemand uit zijn nek te lullen.

Je gaat geen server met die soort eisen kopen met een goedkoop moederbord en een duron?!

Ik zou zeggen, ga naar een professioneel, maarja zo te zien is daar geen geld voor, geeft weer eens het niveau van dit soort forums aan.

  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Dan ga je toch lekker je eigen site bouwen ?

  • Bockelaar
  • Registratie: Juli 2001
  • Laatst online: 15:37
Op dinsdag 04 december 2001 23:39 schreef DaPoztMaster het volgende:
Fijn dat je inderdaad alles ff afkraakt, kan je nou niet gewoon ff helpen denken IPV alles af kraken en dingen gaan suggeren die nou eenmaal niet waar zijn,

.....

Dan heb ik al weer minder dure hardware nodig denk ik !
Wat ik heb aangegeven is niet alleen afkraken, maar ook een suggestie wat je wel zou kunnen doen. Daarnaast is het erg vreemd om met 4x 100mbit lijntjes een goedkoop servertje neer te zetten. IDE harddisks hebben een datatransfer rate van ruwweg 30-35 Mb per seconde, met 4x100mbit kom je tot 45Mb per seconde.....daar heb je bijvoorbeeld al een groot probleem.

De vraagstelling en situatieschets komen mij erg vreemd over. Of je weet niet waar je het over hebt, of je loopt iedereen een beetje in de zeik te nemen.
Remote dataopslag is nu eenmaal prijzig, een bedrijf wat dat nodig denkt te hebben, heeft ook geld over voor de hardware en know-how van een professioneel bedrijf om dat voor hun te regelen.

* Bockelaar doet nl. dagelijks niet anders :+

Remember: A CRAY is the only computer that runs an endless loop in just 4 hours...


  • CubicQ
  • Registratie: September 1999
  • Laatst online: 22:54
Wat heeft dit nou dan weer met een site te maken? Wil je google gaan overnemen ofzo? Weet jij uberhaupt wel hoe veel 400 MBit is, en hoe fucking duur 40 MB/s is (paar honderd piek per uur aan dataverkeer) en dan ga je serieus vertellen dat je geen 20K voor een server hebt?

Sorry hoor, maar het is gewoon een beetje moeilijk om dit serieus te nemen...

  • Ferdo
  • Registratie: Oktober 2001
  • Laatst online: 17-01 17:24

Ferdo

Dido Armstrong :9~

Op dinsdag 04 december 2001 23:44 schreef worldpunch het volgende:
Volgens mij zit er iemand uit zijn nek te lullen.

Je gaat geen server met die soort eisen kopen met een goedkoop moederbord en een duron?!

Ik zou zeggen, ga naar een professioneel, maarja zo te zien is daar geen geld voor, geeft weer eens het niveau van dit soort forums aan.
Als dit forum beneden je stand is, zoek je gewoon toch een andere, lijkt me... ;)

Geeft weer eens het niveau van de user aan. |:( Van worldpunch...voor alle duidelijkheid. :)

Audioscrobbler profile
Begin de dag met een dansje, begin de dag met een lach,
want wie vrolijk kijkt in de morgen, die lacht de hele dag,
jaaa, die lacht de hele dag!


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Inderdaad FERDO !

maarum.. ik maak geen geintje mensen.. Weet ik veel wat dit allemaal met zich meebrengt.

het moet gewoon SNEL zijn, de internet connectie is erg snel (4x 100mbit) maar de pc die het opvangt moet het wel aankunnen..

Dus vandaar dat ik om advies vroeg (en geen gelul over forum's)

  • Klovan
  • Registratie: April 2000
  • Laatst online: 18:35
Op dinsdag 04 december 2001 22:50 schreef RedRoon het volgende:
Verschil is dat elke Intel proc nog doodleuk doorloopt (of zichzelf uischakelt) als de CPU fan kapot gaat en een AMD binnen een seconde of 30 zeker het loodje legt....
dat van die 30 seconden klopt niet, ik kan 3 minuten mijn CPU fan stil houden en hij is niet doorgebrand oid, hij is alleen wel 10 graden warmer geworden en op de nieuwe mobo's kan je ook instellen dat de pc uit gaat, als de proc te warm wordt, duzzz :z

  • CubicQ
  • Registratie: September 1999
  • Laatst online: 22:54
Euh, is begrijpend lezen nou zo moeilijk? Datgene wat je wil gaat allemaal best, maar niet voor het budget dat je hebt (wat is je budget eigenlijk?). En als verschillende mensen je dat vertellen en je blijft nog steeds vragen om advies, tjsa, aan wie ligt het dan?

Wat je nu doet is vragen om een auto die 0-200 in 3.8 seconde haalt omdat je volgend jaar in de F1 gaat rijden, oh ja, hij mag niet te duur zijn, een V8 kan ik niet betalen..

  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Dat wil ik helemaal niet.

Ik wil alleen weten hoe ik zo optimaal mogelijk 4 x 100 mbit benut met zo weinig mogelijk geld.

Als dat dat nou eenmaal niet mogelijk is, dan zal er dus bezuinigd moeten worden op de hardware, waardoor het langzamer gaat (dat moet dan maar)

  • Sir Abarth
  • Registratie: Juni 2000
  • Laatst online: 18-01-2024

Sir Abarth

The secret word is: ToeT!

Op woensdag 05 december 2001 00:02 schreef CubicQ het volgende:
Wat je nu doet is vragen om een auto die 0-200 in 3.8 seconde haalt omdat je volgend jaar in de F1 gaat rijden, oh ja, hij mag niet te duur zijn, een V8 kan ik niet betalen..
F1 rijdt alleen met V10 ;)

ToeTerdeToeTToeT! | May the ToeT be with you | There is no ToeT | specs
Still the gentleman ;)
[Clan of ToeT]


Verwijderd

Op dinsdag 04 december 2001 23:15 schreef --HYPER-- het volgende:
dis trouwens ook een leuke voor je irqs :-) 5 nics + raid kaaart
Een dual CPU-machine heeft meer IRQs.


Kijk overigens voor je netwerkkaart eens bij Adaptec. Hier bijvoorbeeld. Is een 64-bits 66 MHz netwerkkaart met 4 connectoren. Zorg wel dat je moederbord dat ondersteund (SuperMicro heeft leuke plankjes daarvoor).

Verwijderd

Op dinsdag 04 december 2001 22:06 schreef DaPoztMaster het volgende:
Ik moet een server bouwen met de volgende ingredienten.

- 6 (misschien meer) Harde schijven van ieder 80 Gb 7200 ata 100
- Een RAID 0 (performance) systeem
Als het toch perfomance systeem moet worden neem dan meteen scsi disken. Deze hebben veeeeel minder proc load en zijn tevens vééééél sneller. Alleen wel een stukkie duurder.

  • -=unicron=-
  • Registratie: Maart 2001
  • Laatst online: 13-04 09:58

-=unicron=-

Betrayal can never be forgiven

Dit met een AMD Duh!!!! ja het kan maar ik zeg je dat je niet 24/7 uptime heb met een AMD. als ik de baas op bedrijf daar was vloog je er uit als met zo een voorstel komt.(no flame intended) voor wat je daar al maal mee wilt moet een compaq of dell server koopen. kost wel veel geld maar daar heeft het bedrijf ook veel aan.

AMD Ryzen 7 3800X/MSI MPG X570 Gaming Plus/HyperX Fury RGB HX432C16FB3AK2/64/Inno3D GeForce RTX 3060 TWIN X2 OC 12GB/Samsung SSD 850 EVO 500GB/2XSamsung 870 QVO 2TB


  • Gregoor
  • Registratie: Juni 1999
  • Laatst online: 23-04 14:22
* Rukapul zou haast denken dat ie wat vriendjes op een universiteitsnetwerk heeft zitten en een zo groot en snel mogelijke warez box wil neerzetten :+

Hehe, dat was ook wat er bij mij opkwam :)

Verwijderd

Op dinsdag 04 december 2001 23:27 schreef Bockelaar het volgende:
Op mij komt dit hele verhaal nogal vreemd over:


- Voor een server neem je geen SDRAM, maar ECC (of registered ECC).
:? :? :? :?
Wat jij nu uitkraamt is 100% bullshit. Ecc is geen type geheugen dit geeft alleen aan dat er een fout controle en correctie systeem in het geheugen is ingebouwd.

Dat hij verder geen SDRAM met ecc, echte proc (intel xeon oid) en een IDE raid systeem neemt in een server is mij ook een volstrekt raadsel.

Les één in het bouwen van een goeie server:

Goeie cpu liefts met veeel cache (intel xeon)
scsi raid array
veel geheugen liefst met ecc.
A-klasse spul


Wat deze jongen mee bezig is weet ik ook niet maar elk zelf repecterende bedrijf ziet je al aankomen met zo'n server. :+

  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Houden we het allemaal ontopic verder?
Op dinsdag 04 december 2001 23:59 schreef DaPoztMaster het volgende:
Dus vandaar dat ik om advies vroeg (en geen gelul over forum's)
Er worden ook adviezen gegeven die je vervolgens niet ter harte neemt...


Is het geen optie om 4 bakken neer te zetten?
Deze met een LVS achtige oplossing (desnoods 4x celeron/duron + 1nic + 2 HDD's) te laten werken.
Dan heb je gelijk "raid" (als je het goed configged met corba ofzo als filesystem) loadbalancing, failover protectie etc etc.

Maar ik ben net als de anderen wel benieuwd naar de motivatie van het lage budget...

  • Tijger
  • Registratie: Juni 2001
  • Niet online

Tijger

 Grrrrrrrr...

Een bedrijf dat geld heeft voor een STM4 cq 3 STM1's en dan geen geld voor een normale merk server? zelfs een Point to Point verbinding met een dergelijke bandbreedte kost veel geld per maand plus een slordige ton aan installatie kosten.
Klink wel erg vreemd ja.

Er zijn IDE Raid kaarten met 6 channels te koop maar dan praat je over kaarten die tegen de 1500 gulden lopen, PCI bus kan max 155Mb per seconde verwerken dus dat zou de bottleneck niet zijn.

Ah, koop een ECS K7S5A, prop er een paar Intel Pro dual server nics in en een 3Ware Escalade 6 channel Raid controller en gaan.

There are two theories to arguing with women. Neither one works.


  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op woensdag 05 december 2001 00:28 schreef Tijger het volgende:
PCI bus kan max 155Mb per seconde verwerken dus dat zou de bottleneck niet zijn.
133MB, maar wel geshared met oa de raidcontroller/nic's en dan krijg je ook nog es de interrupts van elkaar door elkaar heen.
Ga er maar vanuit dat het wel merkbaar is.
Ah, koop een ECS K7S5A, prop er een paar Intel Pro dual server nics in en een 3Ware Escalade 6 channel Raid controller en gaan.
Er is ook een 8kanaals Escalade toch?

  • jep
  • Registratie: November 2000
  • Laatst online: 02-05 15:27

jep

4 vestigingen in 1 gebouw.

Ik zou serieus op lebox gaan kijken als het goedkoop en toch goed moet zijn. Verder zou ik eens met je geldschieter gaan babbelen over een budget. Als het goed, kun je het naar mijn mening toch gelijk goed doen. Het is een investering.. maar dan heb je ook wat :)

  • mvdejong
  • Registratie: Juni 2000
  • Laatst online: 29-11-2024

mvdejong

When does the hurting stop ?

Op woensdag 05 december 2001 00:18 schreef TwwT_Unexplained het volgende:

[..]

Een dual CPU-machine heeft meer IRQs.
Hoeveel processoren een systeem ook heeft, het aantal interrupts blijft gelijk.
Een dual-PCI-bus systeem heeft meer PCI INT's, maar een Intel-systeem (80286 en hoger) kan niet met meer dan 16 IRQ's leven, en als dat al lukte, zal geen van de x86-gebaseerde operating systeem daar iets van snappen.
Mijn dual-proc-systeempjes komen ook echt niet verder dan 8+8 IRQ's.

Bovendien is het aantal IRQ's voor PCI-kaarten niet het probleem, die leven vrolijk samen op een en dezelfde IRQ. 4 NIC's van hetzelfde type op dezelfde IRQ is juist makkelijk, 't is toch dezelfde driver.

Quad-port FastEthernet-NIC's zijn er van Adaptec, Intel, en Compaq heeft dual-port FastEthernet-NIC's waarin een uitbreidings-slot geschikt voor een single-port GigabitEthernet-module of een dual-port FastEthernet-module.
Enige probleempje, dit soort NIC's kost meestal meer dan 4 losse NIC's (denk vanaf f.600.--).

The number of things that Arthur couldn't believe he was seeing was fairly large


  • Femme
  • Registratie: Juni 1999
  • Laatst online: 23:31

Femme

Hardwareconnaisseur

Official Jony Ive fan

Stel je nou niet zo aan met dat gezeur over AMD's die niet stabiel zijn (t.net haalt er ook 128 dagen uptime mee tot reboot, op een bak die zwaar overbelast was). Als je bang bent dat je fan stuk gaat dan ga je 2 fans op elkaar stacken. Een dual PIII die niet gekoeld wordt gaat trouwens ook hard op z'n bek.

Er is niets mis met een Duron, hij is alleen wat minder snel dan een Athlon. Dell levert bdw ook Celeron servers. Nu weet ik niet precies hoeveel processortijd het kost om 5 netwerkkaarten bezig te houden. Voor zo'n processor zal het geen probleem zijn om een Gigabit netwerkkaart vol te pompen, maar ik kan me voorstellen dat 5x100Mbit zwaarder is.

IDE RAID kan die 50MB/s verwerken mits er sequentieel geschreven wordt. Anders heb je echt dikke 15K SCSI RAID nodig. Ik zou dan wel de RAID controller op een 64-bit PCI bus zetten (en het liefst ook de netwerkkaarten op 64-bit bus), aangezien 32-bit PCI in de praktijk niet boven een efficiency van 70MB/s komt.

Goedkoopste oplossing:

Tyan Tiger MP
Dual Athlon XP 1500+ (toch nauwelijks duurder dan Duron/Morgan)
leuke hoeveelheid PC2100 DDR SDRAM
5x NIC of van die Intel/Adaptec serverdingen met meerdere poorten
1x 3ware Escalade 7850
6x Maxtor D740X in RAID 5

Die Tiger MP heeft 64-bit PCI en dual proc voorkomt IRQ problemen.

  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op woensdag 05 december 2001 00:41 schreef mvdejong het volgende:
Hoeveel processoren een systeem ook heeft, het aantal interrupts blijft gelijk.
Verklaar jij dit es dan:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
IRQ to pin mappings:
IRQ0 -> 0:2
IRQ1 -> 0:1
IRQ3 -> 0:3
IRQ4 -> 0:4
IRQ5 -> 0:5
IRQ6 -> 0:6
IRQ7 -> 0:7
IRQ8 -> 0:8
IRQ9 -> 0:9
IRQ10 -> 0:10
IRQ11 -> 0:11
IRQ12 -> 0:12
IRQ13 -> 0:13
IRQ14 -> 0:14
IRQ15 -> 0:15
IRQ16 -> 1:0
IRQ18 -> 1:2
IRQ23 -> 1:7
IRQ28 -> 1:12
IRQ29 -> 1:13

Das een stukje uit de bootlog van een systeem met 2xP3 op een Serverworks mobo draaiende onder linux.

Ow en bijbehorend:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[root@vulcanus log]# cat /proc/interrupts
         CPU0    CPU1
  0:  144288349  144407143    IO-APIC-edge  timer
  1:      874     877    IO-APIC-edge  keyboard
  2:        0       0       XT-PIC  cascade
  8:        0       1    IO-APIC-edge  rtc
 14:    8524732    8495113    IO-APIC-edge  ide0
 16:   15257005   15251335   IO-APIC-level  eth0
 23: 1135061668 1134721439   IO-APIC-level  eth1
 28:       15      15   IO-APIC-level  sym53c8xx
 29:    2679285    2677695   IO-APIC-level  sym53c8xx
NMI:        0       0
LOC:  288690802  288690800
ERR:        0
MIS:        6

Anywayz, bij mijn weten hangt het aantal irq's idd niet van het aantal cpu's af, maar van het chipset aanwezig op het moederbord.

Alhoewel een bx chipset (dual celeron) hetzelfde verschijnsel toont:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
IRQ to pin mappings:
IRQ0 -> 2
IRQ1 -> 1
IRQ3 -> 3
IRQ4 -> 4
IRQ5 -> 5
IRQ6 -> 6
IRQ7 -> 7
IRQ8 -> 8
IRQ9 -> 9
IRQ13 -> 13
IRQ14 -> 14
IRQ15 -> 15
IRQ16 -> 16
IRQ18 -> 18
IRQ19 -> 19


code:
1
2
3
4
5
6
7
8
9
10
11
[root@magnus /root]# cat /proc/interrupts
         CPU0    CPU1
  0:  694386563  692454229    IO-APIC-edge  timer
  1:     2038    2297    IO-APIC-edge  keyboard
  2:        0       0       XT-PIC  cascade
  8:        1       0    IO-APIC-edge  rtc
 13:        1       0       XT-PIC  fpu
 14:   13177468   13228827    IO-APIC-edge  ide0
 19:   48285298   48323133   IO-APIC-level  eth0
NMI:        0
ERR:        0

  • Necrobic
  • Registratie: Juli 2000
  • Niet online
Ooit wel eens gekeken naar dit kaartje?

http://www.matrox.com/netweb/products/nsfnic4.htm

Quad poort 10/100 kaartje based op de bekende intel chips.

Vraag me alleen af hoe hij 800Mbps wil verwerken op dat 32bit's pci kaartje.

Ik heb alles, ik mag alles en ik kan alles.


  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op woensdag 05 december 2001 00:51 schreef Necrobic het volgende:
Vraag me alleen af hoe hij 800Mbps wil verwerken op dat 32bit's pci kaartje.
Waarom niet?
800Mbps ~= 90MB/sec
90MB/sec << 133Mb/sec
Nadeel is alleen dat er ook nog wat raidcontrollers en andere aparaten inzitten

  • Necrobic
  • Registratie: Juli 2000
  • Niet online
Owjah, tis al laat he. Geen 33mb/s maar 33Mhz |:( duh

* Necrobic gaat maar gelijk slapen.

Ik heb alles, ik mag alles en ik kan alles.


  • Femme
  • Registratie: Juni 1999
  • Laatst online: 23:31

Femme

Hardwareconnaisseur

Official Jony Ive fan

Op de Tiger MP heb je dat verschijnsel ook met 2 procs:

[img]'http://tweakers.net/ext/i.dsp/1007510568.gif'[/img]

  • Metten
  • Registratie: September 1999
  • Laatst online: 22-04 15:07

Metten

ik hou het graag simpel

kan je dus beter die 64 bit kaart van adaptec nemen.
Verder denk ik dat Femme toch de meest serieuze oplossing heeft aangedragen, hoewel ik het idee heb dat dit voor de topicstarter toch nog te duur is.
code:
1
2
3
4
5
6
7
ff in pricewatch gekeken:
1x Tyan Tiger MP:    fl.   685,-
2x Athlon XP 1500+:     fl.  1100,-
2x 512MB DDR SDRAM:     fl.   420,- (merk/registered VEEL duurder)
1x 4-poorts adaptec:    fl.  ????,- (1000 piek?)
1x 3ware escalade 7810: fl.  1745,-
6x maxtor D740X    fl.  3000,-

Kom ik toch al gauw op zo'n 8000 piek. Valt me nog mee, maar daar moet natuurlijk nog een fatsoenlijke serverkast omheen en wat andere zooi als FDD/CDROM, VGA etc.

Verwijderd

waarom altijd die maxtor en ibm's...

die WD 100gb met 8mb cache is ook wel leuk voor IDE... :)

Verwijderd

kweenie, maar ik vind WD altijd een nare bijsmaak hebben

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 23:31

Femme

Hardwareconnaisseur

Official Jony Ive fan

Op woensdag 05 december 2001 01:35 schreef ShaDoW het volgende:
waarom altijd die maxtor en ibm's...

die WD 100gb met 8mb cache is ook wel leuk voor IDE... :)
Maar dat is een limited edition die moeilijk verkrijgbaar en erg duur is :) .

WD stond 'vroeger' altijd voor betrouwbaarheid en kwaliteit (maar kan ook zijn dat ik verkeerd beïnvloed ben door de Planhold advertenties).

  • Coen Rosdorff
  • Registratie: Januari 2000
  • Niet online
Tja het blijft een beetje vreemde vraag.
Een i-net connectie van 4x 100Mbit, maar geld voor slechts een duron.

Het zou toch fijn zijn als de topic starter iets meer over de toepassing van het ding zou kunnen vertellen.

Dan nog iets over de schijven: Ik zou geen raid 0 array van 6 80GB schijven maken. Veel liever 2 array's van 3 schijven, of nog liever gewoon een Raid 5 array.
Als er op de array nog partities komen (Wel aan te raden bij zo'n omvang) dan kan je dus net zo goed de array's kleiner maken. Met de mount methode van unix/linux maakt dat allemaal niet zo heel veel uit.

Ohja, zet er wel een tape-robot in voor de backup. Beetje lullig als alles opeens weg is door een schijfcrash.

* Coen Rosdorff is nog op zoek naar een dual PII server voor op zijn OC48 :9~

  • reddog33hummer
  • Registratie: Oktober 2001
  • Laatst online: 25-04 19:21

reddog33hummer

Dat schept mogelijkheden

als je toch een remote storage aan het bouwen ben ?
waarom haal je er niet gewoon een.

Je kan er zo eentje kopen met 4 nic's erin.
weinig omkijken naar, goedkoper als een echte server (beheerkosten) en meestal ook betrouwbaarder.

Backup not found (R)etry (A)bort (P)anic<br\>AMD 3400+ 64, 2 GB DDR, 1,5 TB Raid5


  • PanMan
  • Registratie: November 1999
  • Laatst online: 23:09

PanMan

Spun!

Er zijn nic's met 4 100 Mbit UTP aansluitingen. Koop er 2 van, en je hebt genoeg aansluitingen.
Toch moet ik zeggen dat ik het verder een vrij vaag verhaal vind. Hoezo die 4 100 Mbit lijnen? waar komen die vandaan? En, is dat niet gewoon 1 netwerk, zodat je er fijn een switch tussen kan zetten???

Where a calculator on the ENIAC is equipped with 18,000 vacuum tubes and weighs 30 tons, computers in the future may have only 1,000 vacuum tubes and weigh only 1.5 tons.
– Popular Mechanics, March 1949


  • PanMan
  • Registratie: November 1999
  • Laatst online: 23:09

PanMan

Spun!

Gaat het hier om een INTERNET server? Kijk, als het over een bedrijfsnetwerk gaat, kan ik het me voorstellen. Daar zijn die snelheden gewoon geen probleem, althans, je hoeft er niet voor te betalen.
Over Internet verbindingen eik niet.
Als je nl. 400 Mbit aan internetverbinding vol wil trekken ben je al snel 2 ton/maand kwijt (400 Piek/Mbit lijkt me gen slechte prijs, tenzei je alles over een AMS-IX peer gooit)
Als je per maand 2 ton uitgeeft aan traffic, 2,4 Mln per jaar, lijkt het me dat je servertje ook wel even 20 duizend piek mag kosten. En dat schijnt hier niet het geval.
Bovendien wil hij ook nog internet gaan delen?
* PanMan vind het scenario van een warez server ergens op een campus helemaal niet zo vreemd bedacht.
Je weet dat je daar ERG snel afgekickt kan worden? Ook daar vinden ze het niet fijn als je hun lijntjes vol trekt (want ook daar hebben ze kosten als hierboven vermeld).

Where a calculator on the ENIAC is equipped with 18,000 vacuum tubes and weighs 30 tons, computers in the future may have only 1,000 vacuum tubes and weigh only 1.5 tons.
– Popular Mechanics, March 1949


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10


Goedkoopste oplossing:

Tyan Tiger MP
Dual Athlon XP 1500+ (toch nauwelijks duurder dan Duron/Morgan)
leuke hoeveelheid PC2100 DDR SDRAM
5x NIC of van die Intel/Adaptec serverdingen met meerdere poorten
1x 3ware Escalade 7850
6x Maxtor D740X in RAID 5

Die Tiger MP heeft 64-bit PCI en dual proc voorkomt IRQ problemen.
Kijk dat is nou eens handig, dat is precies wat ik zoek.
Ik weet dat het mammaplankie niet erg goedkoop is maar de totale kosten zijn "relatief" erg laag.

Is de CPU belasting hoog, en zo ja, komt dat door de RAID of omdat er zoveel nic's in hangen ? Het moet op debian gaan draaien btw.

  • -=unicron=-
  • Registratie: Maart 2001
  • Laatst online: 13-04 09:58

-=unicron=-

Betrayal can never be forgiven

Op woensdag 05 december 2001 01:23 schreef Metten het volgende:
kan je dus beter die 64 bit kaart van adaptec nemen.
Verder denk ik dat Femme toch de meest serieuze oplossing heeft aangedragen, hoewel ik het idee heb dat dit voor de topicstarter toch nog te duur is.
code:
1
2
3
4
5
6
7
ff in pricewatch gekeken:
1x Tyan Tiger MP:    fl.   685,-
2x Athlon XP 1500+:     fl.  1100,-
2x 512MB DDR SDRAM:     fl.   420,- (merk/registered VEEL duurder)
1x 4-poorts adaptec:    fl.  ????,- (1000 piek?)
1x 3ware escalade 7810: fl.  1745,-
6x maxtor D740X    fl.  3000,-

Kom ik toch al gauw op zo'n 8000 piek. Valt me nog mee, maar daar moet natuurlijk nog een fatsoenlijke serverkast omheen en wat andere zooi als FDD/CDROM, VGA etc.
Adaptec introduces the leading high-performance Quad Port NIC, the ANA-64044. It offers high performance, four ports and failover security all in a single PCI slot. $661,95 + shipping charges = 1622,77 gulden. bron GWK

AMD Ryzen 7 3800X/MSI MPG X570 Gaming Plus/HyperX Fury RGB HX432C16FB3AK2/64/Inno3D GeForce RTX 3060 TWIN X2 OC 12GB/Samsung SSD 850 EVO 500GB/2XSamsung 870 QVO 2TB


  • -=unicron=-
  • Registratie: Maart 2001
  • Laatst online: 13-04 09:58

-=unicron=-

Betrayal can never be forgiven

Op woensdag 05 december 2001 00:41 schreef mvdejong het volgende:

[..]

Hoeveel processoren een systeem ook heeft, het aantal interrupts blijft gelijk.
Een dual-PCI-bus systeem heeft meer PCI INT's, maar een Intel-systeem (80286 en hoger) kan niet met meer dan 16 IRQ's leven, en als dat al lukte, zal geen van de x86-gebaseerde operating systeem daar iets van snappen.
Mijn dual-proc-systeempjes komen ook echt niet verder dan 8+8 IRQ's.

Bovendien is het aantal IRQ's voor PCI-kaarten niet het probleem, die leven vrolijk samen op een en dezelfde IRQ. 4 NIC's van hetzelfde type op dezelfde IRQ is juist makkelijk, 't is toch dezelfde driver.

Quad-port FastEthernet-NIC's zijn er van Adaptec, Intel, en Compaq heeft dual-port FastEthernet-NIC's waarin een uitbreidings-slot geschikt voor een single-port GigabitEthernet-module of een dual-port FastEthernet-module.
Enige probleempje, dit soort NIC's kost meestal meer dan 4 losse NIC's (denk vanaf f.600.--).
Ik heb een keer een dag met een Dell PowerEdge 8450 *D mogen speelen dat is een beest >:) zeg ik je. maar die had dus 120 irq :9~ dus 15 per cpu. dat beest kost ook FL 100000,- met btw

AMD Ryzen 7 3800X/MSI MPG X570 Gaming Plus/HyperX Fury RGB HX432C16FB3AK2/64/Inno3D GeForce RTX 3060 TWIN X2 OC 12GB/Samsung SSD 850 EVO 500GB/2XSamsung 870 QVO 2TB


  • Xiphalon
  • Registratie: Juni 2001
  • Laatst online: 02-05 17:32
Dat extreem (nou ja) veel irq's op een mp-bak komt omdat er op een mp-bak op een andere manier met de interrupts wordt omgegaan (zoek maar 'ns op IO-APIC)
Kan ook op (bijna) elke single-processorbak :P , moet je in de Win2k/Nt/Xp(?) setup voor een MPS-Single processor machine kiezen.

  • reddog33hummer
  • Registratie: Oktober 2001
  • Laatst online: 25-04 19:21

reddog33hummer

Dat schept mogelijkheden

Op woensdag 05 december 2001 12:41 schreef darkmage het volgende:
Dat extreem (nou ja) veel irq's op een mp-bak komt omdat er op een mp-bak op een andere manier met de interrupts wordt omgegaan (zoek maar 'ns op IO-APIC)
Kan ook op (bijna) elke single-processorbak :P , moet je in de Win2k/Nt/Xp(?) setup voor een MPS-Single processor machine kiezen.
Eeen smp bak heeft meer hardware IRQ lijnen.
Hoe wil je dat met software op gaan lossen ?

Backup not found (R)etry (A)bort (P)anic<br\>AMD 3400+ 64, 2 GB DDR, 1,5 TB Raid5


  • Xiphalon
  • Registratie: Juni 2001
  • Laatst online: 02-05 17:32
Op woensdag 05 december 2001 16:12 schreef reddog33hummer het volgende:

[..]

Eeen smp bak heeft meer hardware IRQ lijnen.
Hoe wil je dat met software op gaan lossen ?
Dat zit er al in...

sinds de Pentium 100+ MHz. (dat heet dan SMP ondersteuning)

Linkjes (ff gegoogled)
http://www.linuxhq.com/kernel/v2.4/doc/i386/IO-APIC.txt.html
http://www.microsoft.com/hwdev/platform/proc/IO-APIC.asp

  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 03-05 16:53
Wat denk je van een GIGA bit ethernet kaart. die is 10x zo snel als een 100mbit kaart.
Die kan je dan op een Tyan Tiger MP (dual AMD, 64 bit PCI)prikken. Daarna nog maar eens kijken wat voor opslag je er bij prikt. SCSI of IDE... maar uiteraard een 64 PCI kaart,

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


  • Chopper_Rob
  • Registratie: November 2001
  • Laatst online: 01-05-2025
Op dinsdag 04 december 2001 22:12 schreef DaPoztMaster het volgende:
Omdat er 4 internet aansluitingen (load balacing wordt door iemand anders gefixed, die regelt dat gedeelte) op aangesloten worden en ik geen geld heb voor een "Sisco achtige" oplossing...

En 1 kaartje om internet door te routeren naar een hub, waar het internet dan weer verdeeld kan worden.
Is de snelheid wel zo hoog dat je er 4 nodig hebt, ik bedoel "Een ketting is zo sterk als de zwakste schakel". Dit gaat ook op bij het internet, de snelheid is zo snel als de zwakste schakel en zijn aardig wat zwakke schakels op het internet.

https://drinkwaterpunten.nl


Verwijderd

Zucht ik denk dat ik wel kan raden waar ie het voor gaat gebruiken maar ik vrees dat als je echt alle 4 de nics van data wil voorzien je met jou toepassing wel gaat huilen. IDE doorvoer stort gigantisch snel in bij meerdere acties op 1 hd (raid set) en wat betreft processor ... tja ik denk dat je met veel moeite rond de 20Mb/s zit.

Gewoon low butget bord + proc + RAID kaart (3ware) en nic zoiets als pro nics van intel of compaq waar 4 op 1 kaart zitten. De laatste 2 zijn wel duur maar goed daar ontkom je toch niet aan. Als je nu een 64bit pci slot op je mobo hebt en een nic welke dat ondersteund dan ben je al een heel eind.

Oh en IRQ sharing ... ofwel APIC wil je niet voor dit soort toepassingen ... heel leuk de "to much work at interrrupt" van linux :(

  • BrZ
  • Registratie: Maart 2000
  • Laatst online: 17:47

BrZ

http://www.dlink.com/products/adapters/dfe570tx/

Dat is ook wel een aardige 4 poorts NIC.. kost $199, dus zo'n 500,- terwijl die adaptec en intel quad port gevallen je zeker meer dan 1000,- gaan kosten

Verwijderd

Op donderdag 06 december 2001 00:08 schreef BrZ het volgende:
http://www.dlink.com/products/adapters/dfe570tx/

Dat is ook wel een aardige 4 poorts NIC.. kost $199, dus zo'n 500,- terwijl die adaptec en intel quad port gevallen je zeker meer dan 1000,- gaan kosten
En waar staan de linuxdrivers voor die kaart?
Juist..

  • Mark
  • Registratie: Juni 1999
  • Laatst online: 20:46
Op donderdag 06 december 2001 00:34 schreef TwwT_Unexplained het volgende:

[..]

En waar staan de linuxdrivers voor die kaart?
Juist..
Zit een standaard Tulip chipset op....Dus kijk hier eens....

  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Jaaaa !
Super..
Ondanks eerdere berichtgeving denk ik dat ik dankzij alle goeie adviezen toch een redelijk goeie server kan neerzetten zonder teveel kosten !

Verwijderd

Op donderdag 06 december 2001 00:51 schreef RedRoon het volgende:
Zit een standaard Tulip chipset op....Dus kijk hier eens....
Okay, ik neem het terug. Maar in die tekst werd alleen gesproken over WinNT..dan word ik wat huiverig.

  • Slagroom
  • Registratie: Juni 2001
  • Laatst online: 04-12-2025
Misschien een totaal domme op merking... maar als je nou één GBIT NIC pakt en die aansluit op een 8 poort 100/1000 switch... ben je dan ook niet klaar met die nic's?

  • BrZ
  • Registratie: Maart 2000
  • Laatst online: 17:47

BrZ

Op donderdag 06 december 2001 14:26 schreef Monstar.nl het volgende:
Misschien een totaal domme op merking... maar als je nou één GBIT NIC pakt en die aansluit op een 8 poort 100/1000 switch... ben je dan ook niet klaar met die nic's?
Heb je ook al es naar de prijs van zo'n switch gekeken? ;)

  • Raging_6
  • Registratie: Juli 2001
  • Laatst online: 02-06-2023

Raging_6

Mainframe voor thuis?? Hmmm...

neem een soyo dragon die heeft al een 10/100 mbit onboard dus heb je er nog maar 4 nodig (of een dergelijk board)

Asus P4p800 + p4 3ghz@3,2 + 1 Gig Corsair XMS and a Sapphire Atlantis Radeon 9800 pro


  • Slagroom
  • Registratie: Juni 2001
  • Laatst online: 04-12-2025
Op donderdag 06 december 2001 19:22 schreef BrZ het volgende:

[..]

Heb je ook al es naar de prijs van zo'n switch gekeken? ;)
ach ja... |:(

  • Weppel
  • Registratie: Oktober 2000
  • Laatst online: 29-04 07:18
Op dinsdag 04 december 2001 23:42 schreef Rukapul het volgende:

[..]

Bedenk ook eens wat 4x100mbit kost en zet dat af tegen de kosten die hij bereid is te maken voor de serverfarm.

* Rukapul zou haast denken dat ie wat vriendjes op een universiteitsnetwerk heeft zitten en een zo groot en snel mogelijke warez box wil neerzetten :+
Ik hou jullie op de hoogte als ik weer een nieuwe machine zie verschijnen :) 6x 80gb op 7200 toeren kun je een lekkere preformance mee halen..
ik heb een machine (PIII600 / 640mb intern / 440gb opslag, voor een bedrijf) die pompt de Full Duplex 100mbit lijn (dus +/-11mb/s down en tegelijk 11mb/s up) makkelijk vol.. hij draait overigens wel linux.
Hoe dat dit zou gaan preformen als er 200mbit of meer in zit, weet ik niet, we hebben gewoon de behoefte niet aan 200mbit, aangezien et toch allemaal lekker 's nachts gebeurd, als wij liggen te slapen, en wat maakt mij dat uurtje extra dan uit he ;) als het 's morges maar klaar is :D

edit:
mn vermoede (en die van enkele hier ook :) ) is zojuist bevestigt.. een nieuwe campus bak :) ik kende dapoztmaster al erges van (die naam)... ik zie de machine wel verschijnen!

  • campr112
  • Registratie: December 2001
  • Laatst online: 20:34
Yo,

totaal de goede aanpak.. Je hebt dus minstens 5 pci slote nodig voor netwerk, ok, je kan wel dual 10/100 kaartjes kopen, maar dan heb je er nog 3 nodig. Doe het volgende:

http://fury.xs4all.nl Ok, de scsi schij voor je OS kan je vervangen door IDE. En je hebt maar 1 1000T nic nodig. Je koopt dan namelijk een SMC switch met 8 10/100 poorten en 1x1000T poort, je sluit deze aan op je Gbit NIC, en hey presto, je hebt 8x10/100 poorten zonder 8 (of 4) PCI sloten te gebruiken. 1000T kaart is van 3com en kost 470 Piek, switch van MSC kost 700 piek. Dus voor 1100/1200 piek ben je klaar. MB, neem geen goedkoop merk, die performen meestal slecht.

Ok, je zou zelfs nog naar 1 Proc gaan, maar die 64bits PCI heb je zeker nodig om je perf te halen van 50Mbyte/sec (Van schijven naar Proc, dan van Proc naar NIC, da's al 100Mbytes/sec). De 3ware comtroller kan dit trouwens zonder problemen aan.

Je zou de kast ook nog goedkoper kunnen doen, ligt eraan hoeveel HDs je pakt, en of je rackmount wil.

Als OS zou ik Linux voorstellen, die heeft het meeste mogelijkheden om de performance van je goedkope hardware vol te benutten. Je data is ook veilig op de Raid5 set, dus je zou het ook nog zonder backup kunnen doen.

Plus, op het Tyan bord zitten nog 2x LAN on-board, dus een daarvan zou je voor Internet kunnen gebruiken.

Opgelost toch?

greetz,

Robert

Be more, use Linux.


  • Pwigle
  • Registratie: December 2000
  • Laatst online: 31-03 16:10
Is inderdaad een goed voorstel campr !
De perfecte server (zie link) is inderdaad waar de gemiddelde bezoeker hier een natte droom van krijgt :P

Thx !

  • PanMan
  • Registratie: November 1999
  • Laatst online: 23:09

PanMan

Spun!

Als het voor op de campus is, heb je absoluut geen noodzaak om die 400 Mbit vol te trekken: Dat mag je maar heeeel even :) >:). Ik d8 dat je in twente 50 Gb/week mag hebben (of 25). Het is dan wel slim om de load over 4 lijntjes te verdelen, want dan mag je 4x zoveel. Maar als je 4x 50 Gb mag trekken, dan is dat nog 'maar' 2.5 Mbit constant. Dan hoef je ECHT niet naar hardware te zoeken die de 400 Mbit vol trekt. Ik heb hier al eerder berekend wat het gaat kosten. Die kosten heeft de UT ook. DuH. Dus je wordt SNEL afgesloten als je die lijntjes constant vol gaat trekken.
Ik denk dat je hier teveel geld gaat stoppen in een warez bak die binnen een week is afgesloten. Ik zal het nog 1x samenvatten: TRAFFIC KOST (VEEEEL) GELD en er is nou eenmaal w.s. niemand te vinden die jou dat wil sponseren...

Where a calculator on the ENIAC is equipped with 18,000 vacuum tubes and weighs 30 tons, computers in the future may have only 1,000 vacuum tubes and weigh only 1.5 tons.
– Popular Mechanics, March 1949

Pagina: 1