Gigabit nic in 32 bits pci-slot effectief?

Pagina: 1
Acties:

  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
Heeft iemand dit draaien op een server? Aangezien de pci-bandbreedte in deze situatie grotendeels door het netwerk wordt gebruikt, kun je je namelijk afvragen of snel datatransport wel mogelijk is. Is het bijv. nog wel sneller dan 2 100 Mb/s nics die geteamd zijn?

Systeem


  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Euh?
Een pci-bus kan toch makkelijk meer dan 100MB/sec halen?

En een gigabits-ethernet kaart ook. Dus als je geen scsi etc erbij hangt en maar 1 GE-nic gebruikt zal het wel sneller (kunnen) zijn dan je dubbele 100Mbit

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
pci zou 133MB/sec moeten kunnen

Gigabit ethernet zit theoretisch op 120MB/sec (die haal je natuurlijk in de praktijk niet,) als je dan inderdaad ook nog een scsi controller (of raid) in een pci slot hebt zitten zit je wel met een probleempje,

vandaar dat bij de meeste gb ethernetkaartjes ook 64bit pci wordt geadviseerd, of een echte server met dual pci bus (compaq/hp)

A wise man's life is based around fuck you


  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
Op zaterdag 17 november 2001 13:03 schreef ACM het volgende:
... Dus als je geen scsi etc erbij hangt ...
Als je van de snelheid wil profiteren, zal je dat toch wel moeten doen?

Systeem


  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op zaterdag 17 november 2001 13:06 schreef zwelgje2 het volgende:
vandaar dat bij de meeste gb ethernetkaartjes ook 64bit pci wordt geadviseerd, of een echte server met dual pci bus (compaq/hp)
"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2 ;)

  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op zaterdag 17 november 2001 13:12 schreef vandenberg het volgende:
Als je van de snelheid wil profiteren, zal je dat toch wel moeten doen?
Tsja, met een gigabyte ramgeheugen kan je ook een server flink lang de Gbit vol laten stauwen (filecaches enzo).

Maar inderdaad voor een fileserver ofzo kan je beter scsi-raid etc nemen.

  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
Op zaterdag 17 november 2001 13:19 schreef ACM het volgende:

[..]

Maar inderdaad voor een fileserver ofzo kan je beter scsi-raid etc nemen.
Ok, maar dan krijgt de pci-bus het dus erg druk. Misschien is het dan toch effectiever (voor een fileserver) om 2 100 Mb/s nics te teamen?

Systeem


  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:

[..]

"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2 ;)
Je bedoelt 6 slots, want jij hebt toch maar 1 pci-bus?

Systeem


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:

[..]

"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2 ;)
ik bedoel niet sloten, maar bussen, 1 pci bus heeft op een standaard bord 6 sloten, maar je hebt ook servers van compaq die 2 bussen hebben (die gescheiden van elkaar lopen)

A wise man's life is based around fuck you


  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05-2023
Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:

[..]

"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2 ;)
Helaas, je hebt 'slechts' 2 bussen:
http://www.tyan.com/products/html/a_thunder2500.html
Tyan's Thunder 2500 is designed for high performance workstation / server applications requiring the processing power of Intel's Pentium III processor. With two fully independent 64-bit PCI buses, the Thunder 2500 offers maximum flexibility and performance. This systemboard also includes integrated audio, LAN, dual channel SCSI, AGP Pro, and supports up to 8 GB of SDRAM, making the Thunder 2500 ideal for workhorse solutions.
je hebt wel 6 sloten, zoals je zelf goed geteld hebt ;)

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


Verwijderd

Vandenberg, wat jij wilt moet je doen.
Aangegeven wordt dat je PCI slot snel genoeg is voor GBit.
Ga jij liever voor NIC trunking, dan moet je dat zelf weten.
Ik ken het niet en weet dus ook niet welke belasting dat op je systeem c.q. processor legt en of dat een beter resultaat geeft dan een GBit NIC.

Ik zou gaan voor een GBit NIC, je zult (met ethernet) toch maar zelden over de 40% komen verwacht ik.

Maar ja....
ItŽs up to you boy! :)

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 17:56

Femme

Hardwareconnaisseur

Official Jony Ive fan

Een beetje serieuze server heeft toch wel 64-bit PCI en dan is bandbreedte niet zo'n probleem. In tests van c't haalde Gigabit een snelheid van zo'n 60MB/s en dat was volgens mij op een 32-bit PCI mobo.

  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Op zaterdag 17 november 2001 16:22 schreef mr_a het volgende:
Helaas, je hebt 'slechts' 2 bussen:
http://www.tyan.com/products/html/a_thunder2500.html
[..]

je hebt wel 6 sloten, zoals je zelf goed geteld hebt ;)
Humm, ik ging van de "bios dingen" uit... niet echt van het aantal sloten, want dat verschil snap ik heus wel :)

Het bios (of was het nou een of ander vage manual entry) doet voorkomen alsof er dedicated pci-bussen zijn voor oa de scsi-controller/raid, pci32, pci64-33Mhz, pci64-66Mhz en nog wat van dat soort dingen.

En daar verbond ik dus de (foute ;( ) conclusie dat ie 6 bussen zou hebben...

Maar over dat stukje kleine tekst heb ik elke keer heen gelezen |:(

Verwijderd

Op m'n werk draaien we een Dell 2550 (Onboard Gigabit/Onboard Intel E100Pro).

Die configuratie is op beide manieren aangesloten geweest (via de gigabit of via een team van die onboard Intel + een PCI intel).

Hoewel dit niet helemaal de vergelijking is zoals jij 'm wilt (Gigabit zit niet op 'normale' PCI) is het er toch eentje waar je wat aan kunt zien. Uiteindelijk hebben we nl. gekozen voor de team-oplossing omdat die weliswaar iets langzamer was (scheelde niet eens zo gek veel) maar gemiddeld snellere responstijden had. Daarnaast heb je met zo'n team ook redundantie; gaat er 1 kaart kapot is er niets aan het handje.

Het is een rare situatie. Ik persoonlijk had verwacht dat die gigabit veel en merkbaar sneller zou zijn. Dit was dus (vanaf werkstation gezien) niet zo; sterker nog als je het zaakje _echt_ gaat belasten (60PC's die allemaal tegelijk 200 Mb van het netwerk gaan trekken) bleek de team-oplossing zelfs sneller.

Voor de CPU belasting maakte het voor zover ik kan zien geen ruk uit. Novell is qua 'usage' percentage nooit boven de 5 uit geweest.

Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.

  • ijdod
  • Registratie: April 2000
  • Laatst online: 01-05 07:42
Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
En dat is met een GB kaart geen probleem? :P

Het is me overigens niet direct duidelijk welke vorm van samenwerking je gebruikt; Echte channel bonding, dus 200 Mbps full duplex), vereist ondersteuning van de switch. Er zijn wat halfbakken tussenoplossingen, maar die zijn minder efficient.

Root don't mean a thing, if you ain't got that ping...


  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
Op maandag 19 november 2001 01:06 schreef hezik het volgende:
Op m'n werk draaien we een Dell 2550 (Onboard Gigabit/Onboard Intel E100Pro).

Die configuratie is op beide manieren aangesloten geweest (via de gigabit of via een team van die onboard Intel + een PCI intel).

Hoewel dit niet helemaal de vergelijking is zoals jij 'm wilt (Gigabit zit niet op 'normale' PCI) is het er toch eentje waar je wat aan kunt zien. Uiteindelijk hebben we nl. gekozen voor de team-oplossing omdat die weliswaar iets langzamer was (scheelde niet eens zo gek veel) maar gemiddeld snellere responstijden had. Daarnaast heb je met zo'n team ook redundantie; gaat er 1 kaart kapot is er niets aan het handje.

Het is een rare situatie. Ik persoonlijk had verwacht dat die gigabit veel en merkbaar sneller zou zijn. Dit was dus (vanaf werkstation gezien) niet zo; sterker nog als je het zaakje _echt_ gaat belasten (60PC's die allemaal tegelijk 200 Mb van het netwerk gaan trekken) bleek de team-oplossing zelfs sneller.

[...]

Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
Eindelijk een reactie uit de praktijk, bedankt! Ik begin steeds meer voor een teaming oplossing te voelen, ook al omdat het waarschijnlijk goedkoper is: behalve een Gb/s nic heb ik ook een transceiver van f800 nodig. Met wat geluk kan ik onze huidige Intel servernic teamen, in dat geval heb ik alleen nog zo een nodig.

Btw, onze switch heeft een 9,6 Gb/s backplane, dus no worries. :)
Het is me overigens niet direct duidelijk welke vorm van samenwerking je gebruikt; Echte channel bonding, dus 200 Mbps full duplex), vereist ondersteuning van de switch. Er zijn wat halfbakken tussenoplossingen, maar die zijn minder efficient.
IJdod, wat bedoel je met ondersteuning van de switch? dat hij fd moet ondersteunen?

Systeem


Verwijderd

http://support.intel.com/support/network/adapter/pro100/onlineguide/userguide/teaming_options.htm

Grofweg zijn er 3 methodes om zo'n intel NIC te teamen,

AFT - Adapter Fault Tolerance
ALB - Adaptive Load Balancing
FEC - Fast EtherChannel (R)

Alleen voor de laatste moet je switch ondersteuning hebben (cisco).

De 1e is imo weinig interessant (gaat alleen on redundantie), de 2e daarentegen des te meer. Hiermee maak je een team van de 2 adapters en dit werkt gewoon op elke switch en is geen 'brakke tussenoplossing'. Je krijgt gewoon 2x100Mbit full duplex.

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 03-05 00:00
Grofweg zijn er 3 methodes om zo'n intel NIC te teamen,

AFT - Adapter Fault Tolerance
ALB - Adaptive Load Balancing
FEC - Fast EtherChannel (R)
AFT is geen methode om te teamen.. het zorgt alleen ervoor dat als een kaart/verbinding uitvalt de andere het overneemt..

Naast FEC en ALB is er ook 802.3ad (DE staandaard), Intel Link Aggregation (zelfde als FEC), DEC Hunt Trunking en nog een aantal anderen..
802.3ad is de standaard geworden.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • vandenberg
  • Registratie: Maart 2001
  • Laatst online: 04-03-2016
We hebben een unmanaged switch (HP Procurve 2324), dus wordt het waarschijnlijk ALB. Heeft dat nadelen ten opzichte van die andere methoden (snelheid)?

edit:

Hmm, Netbeui en binnenkomend verkeer worden niet gebalanced, alleen uitgaand IP/IPX-verkeer.

Systeem

Pagina: 1