Euh?
Een pci-bus kan toch makkelijk meer dan 100MB/sec halen?
En een gigabits-ethernet kaart ook. Dus als je geen scsi etc erbij hangt en maar 1 GE-nic gebruikt zal het wel sneller (kunnen) zijn dan je dubbele 100Mbit
Een pci-bus kan toch makkelijk meer dan 100MB/sec halen?
En een gigabits-ethernet kaart ook. Dus als je geen scsi etc erbij hangt en maar 1 GE-nic gebruikt zal het wel sneller (kunnen) zijn dan je dubbele 100Mbit
pci zou 133MB/sec moeten kunnen
Gigabit ethernet zit theoretisch op 120MB/sec (die haal je natuurlijk in de praktijk niet,) als je dan inderdaad ook nog een scsi controller (of raid) in een pci slot hebt zitten zit je wel met een probleempje,
vandaar dat bij de meeste gb ethernetkaartjes ook 64bit pci wordt geadviseerd, of een echte server met dual pci bus (compaq/hp)
Gigabit ethernet zit theoretisch op 120MB/sec (die haal je natuurlijk in de praktijk niet,) als je dan inderdaad ook nog een scsi controller (of raid) in een pci slot hebt zitten zit je wel met een probleempje,
vandaar dat bij de meeste gb ethernetkaartjes ook 64bit pci wordt geadviseerd, of een echte server met dual pci bus (compaq/hp)
A wise man's life is based around fuck you
Als je van de snelheid wil profiteren, zal je dat toch wel moeten doen?Op zaterdag 17 november 2001 13:03 schreef ACM het volgende:
... Dus als je geen scsi etc erbij hangt ...
"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2Op zaterdag 17 november 2001 13:06 schreef zwelgje2 het volgende:
vandaar dat bij de meeste gb ethernetkaartjes ook 64bit pci wordt geadviseerd, of een echte server met dual pci bus (compaq/hp)
Tsja, met een gigabyte ramgeheugen kan je ook een server flink lang de Gbit vol laten stauwen (filecaches enzo).Op zaterdag 17 november 2001 13:12 schreef vandenberg het volgende:
Als je van de snelheid wil profiteren, zal je dat toch wel moeten doen?
Maar inderdaad voor een fileserver ofzo kan je beter scsi-raid etc nemen.
Ok, maar dan krijgt de pci-bus het dus erg druk. Misschien is het dan toch effectiever (voor een fileserver) om 2 100 Mb/s nics te teamen?Op zaterdag 17 november 2001 13:19 schreef ACM het volgende:
[..]
Maar inderdaad voor een fileserver ofzo kan je beter scsi-raid etc nemen.
Je bedoelt 6 slots, want jij hebt toch maar 1 pci-bus?Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:
[..]
"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2
ik bedoel niet sloten, maar bussen, 1 pci bus heeft op een standaard bord 6 sloten, maar je hebt ook servers van compaq die 2 bussen hebben (die gescheiden van elkaar lopen)Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:
[..]
"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2
A wise man's life is based around fuck you
Helaas, je hebt 'slechts' 2 bussen:Op zaterdag 17 november 2001 13:14 schreef ACM het volgende:
[..]
"Mijn" server (tyan thunder 2500 mobo) heeft bij mijn weten 6 pci-bussen, dus een echte server mag er toch wel wat meer hebben dan 2
http://www.tyan.com/products/html/a_thunder2500.html
je hebt wel 6 sloten, zoals je zelf goed geteld hebtTyan's Thunder 2500 is designed for high performance workstation / server applications requiring the processing power of Intel's Pentium III processor. With two fully independent 64-bit PCI buses, the Thunder 2500 offers maximum flexibility and performance. This systemboard also includes integrated audio, LAN, dual channel SCSI, AGP Pro, and supports up to 8 GB of SDRAM, making the Thunder 2500 ideal for workhorse solutions.
"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs
Verwijderd
Vandenberg, wat jij wilt moet je doen.
Aangegeven wordt dat je PCI slot snel genoeg is voor GBit.
Ga jij liever voor NIC trunking, dan moet je dat zelf weten.
Ik ken het niet en weet dus ook niet welke belasting dat op je systeem c.q. processor legt en of dat een beter resultaat geeft dan een GBit NIC.
Ik zou gaan voor een GBit NIC, je zult (met ethernet) toch maar zelden over de 40% komen verwacht ik.
Maar ja....
ItŽs up to you boy!
Aangegeven wordt dat je PCI slot snel genoeg is voor GBit.
Ga jij liever voor NIC trunking, dan moet je dat zelf weten.
Ik ken het niet en weet dus ook niet welke belasting dat op je systeem c.q. processor legt en of dat een beter resultaat geeft dan een GBit NIC.
Ik zou gaan voor een GBit NIC, je zult (met ethernet) toch maar zelden over de 40% komen verwacht ik.
Maar ja....
ItŽs up to you boy!
Een beetje serieuze server heeft toch wel 64-bit PCI en dan is bandbreedte niet zo'n probleem. In tests van c't haalde Gigabit een snelheid van zo'n 60MB/s en dat was volgens mij op een 32-bit PCI mobo.
Humm, ik ging van de "bios dingen" uit... niet echt van het aantal sloten, want dat verschil snap ik heus welOp zaterdag 17 november 2001 16:22 schreef mr_a het volgende:
Helaas, je hebt 'slechts' 2 bussen:
http://www.tyan.com/products/html/a_thunder2500.html
[..]
je hebt wel 6 sloten, zoals je zelf goed geteld hebt
Het bios (of was het nou een of ander vage manual entry) doet voorkomen alsof er dedicated pci-bussen zijn voor oa de scsi-controller/raid, pci32, pci64-33Mhz, pci64-66Mhz en nog wat van dat soort dingen.
En daar verbond ik dus de (foute
Maar over dat stukje kleine tekst heb ik elke keer heen gelezen
Verwijderd
Op m'n werk draaien we een Dell 2550 (Onboard Gigabit/Onboard Intel E100Pro).
Die configuratie is op beide manieren aangesloten geweest (via de gigabit of via een team van die onboard Intel + een PCI intel).
Hoewel dit niet helemaal de vergelijking is zoals jij 'm wilt (Gigabit zit niet op 'normale' PCI) is het er toch eentje waar je wat aan kunt zien. Uiteindelijk hebben we nl. gekozen voor de team-oplossing omdat die weliswaar iets langzamer was (scheelde niet eens zo gek veel) maar gemiddeld snellere responstijden had. Daarnaast heb je met zo'n team ook redundantie; gaat er 1 kaart kapot is er niets aan het handje.
Het is een rare situatie. Ik persoonlijk had verwacht dat die gigabit veel en merkbaar sneller zou zijn. Dit was dus (vanaf werkstation gezien) niet zo; sterker nog als je het zaakje _echt_ gaat belasten (60PC's die allemaal tegelijk 200 Mb van het netwerk gaan trekken) bleek de team-oplossing zelfs sneller.
Voor de CPU belasting maakte het voor zover ik kan zien geen ruk uit. Novell is qua 'usage' percentage nooit boven de 5 uit geweest.
Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
Die configuratie is op beide manieren aangesloten geweest (via de gigabit of via een team van die onboard Intel + een PCI intel).
Hoewel dit niet helemaal de vergelijking is zoals jij 'm wilt (Gigabit zit niet op 'normale' PCI) is het er toch eentje waar je wat aan kunt zien. Uiteindelijk hebben we nl. gekozen voor de team-oplossing omdat die weliswaar iets langzamer was (scheelde niet eens zo gek veel) maar gemiddeld snellere responstijden had. Daarnaast heb je met zo'n team ook redundantie; gaat er 1 kaart kapot is er niets aan het handje.
Het is een rare situatie. Ik persoonlijk had verwacht dat die gigabit veel en merkbaar sneller zou zijn. Dit was dus (vanaf werkstation gezien) niet zo; sterker nog als je het zaakje _echt_ gaat belasten (60PC's die allemaal tegelijk 200 Mb van het netwerk gaan trekken) bleek de team-oplossing zelfs sneller.
Voor de CPU belasting maakte het voor zover ik kan zien geen ruk uit. Novell is qua 'usage' percentage nooit boven de 5 uit geweest.
Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
En dat is met een GB kaart geen probleem?Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
Het is me overigens niet direct duidelijk welke vorm van samenwerking je gebruikt; Echte channel bonding, dus 200 Mbps full duplex), vereist ondersteuning van de switch. Er zijn wat halfbakken tussenoplossingen, maar die zijn minder efficient.
Root don't mean a thing, if you ain't got that ping...
Eindelijk een reactie uit de praktijk, bedankt! Ik begin steeds meer voor een teaming oplossing te voelen, ook al omdat het waarschijnlijk goedkoper is: behalve een Gb/s nic heb ik ook een transceiver van f800 nodig. Met wat geluk kan ik onze huidige Intel servernic teamen, in dat geval heb ik alleen nog zo een nodig.Op maandag 19 november 2001 01:06 schreef hezik het volgende:
Op m'n werk draaien we een Dell 2550 (Onboard Gigabit/Onboard Intel E100Pro).
Die configuratie is op beide manieren aangesloten geweest (via de gigabit of via een team van die onboard Intel + een PCI intel).
Hoewel dit niet helemaal de vergelijking is zoals jij 'm wilt (Gigabit zit niet op 'normale' PCI) is het er toch eentje waar je wat aan kunt zien. Uiteindelijk hebben we nl. gekozen voor de team-oplossing omdat die weliswaar iets langzamer was (scheelde niet eens zo gek veel) maar gemiddeld snellere responstijden had. Daarnaast heb je met zo'n team ook redundantie; gaat er 1 kaart kapot is er niets aan het handje.
Het is een rare situatie. Ik persoonlijk had verwacht dat die gigabit veel en merkbaar sneller zou zijn. Dit was dus (vanaf werkstation gezien) niet zo; sterker nog als je het zaakje _echt_ gaat belasten (60PC's die allemaal tegelijk 200 Mb van het netwerk gaan trekken) bleek de team-oplossing zelfs sneller.
[...]
Waar je _wel_ op moet letten als je een team wilt gaan gebruiken is de snelheid van de backplane van je hub/switch. Deze moet nl. wel snel genoeg zijn. Soms zie je goedkope 100Mbit switchjes voorbijkomen welke een backplane van 100Mbit hebben. In dat geval heeft een team geen zin.
Btw, onze switch heeft een 9,6 Gb/s backplane, dus no worries.
IJdod, wat bedoel je met ondersteuning van de switch? dat hij fd moet ondersteunen?Het is me overigens niet direct duidelijk welke vorm van samenwerking je gebruikt; Echte channel bonding, dus 200 Mbps full duplex), vereist ondersteuning van de switch. Er zijn wat halfbakken tussenoplossingen, maar die zijn minder efficient.
Verwijderd
http://support.intel.com/support/network/adapter/pro100/onlineguide/userguide/teaming_options.htm
Grofweg zijn er 3 methodes om zo'n intel NIC te teamen,
AFT - Adapter Fault Tolerance
ALB - Adaptive Load Balancing
FEC - Fast EtherChannel (R)
Alleen voor de laatste moet je switch ondersteuning hebben (cisco).
De 1e is imo weinig interessant (gaat alleen on redundantie), de 2e daarentegen des te meer. Hiermee maak je een team van de 2 adapters en dit werkt gewoon op elke switch en is geen 'brakke tussenoplossing'. Je krijgt gewoon 2x100Mbit full duplex.
Grofweg zijn er 3 methodes om zo'n intel NIC te teamen,
AFT - Adapter Fault Tolerance
ALB - Adaptive Load Balancing
FEC - Fast EtherChannel (R)
Alleen voor de laatste moet je switch ondersteuning hebben (cisco).
De 1e is imo weinig interessant (gaat alleen on redundantie), de 2e daarentegen des te meer. Hiermee maak je een team van de 2 adapters en dit werkt gewoon op elke switch en is geen 'brakke tussenoplossing'. Je krijgt gewoon 2x100Mbit full duplex.
AFT is geen methode om te teamen.. het zorgt alleen ervoor dat als een kaart/verbinding uitvalt de andere het overneemt..Grofweg zijn er 3 methodes om zo'n intel NIC te teamen,
AFT - Adapter Fault Tolerance
ALB - Adaptive Load Balancing
FEC - Fast EtherChannel (R)
Naast FEC en ALB is er ook 802.3ad (DE staandaard), Intel Link Aggregation (zelfde als FEC), DEC Hunt Trunking en nog een aantal anderen..
802.3ad is de standaard geworden.
If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y
We hebben een unmanaged switch (HP Procurve 2324), dus wordt het waarschijnlijk ALB. Heeft dat nadelen ten opzichte van die andere methoden (snelheid)?
edit:
Hmm, Netbeui en binnenkomend verkeer worden niet gebalanced, alleen uitgaand IP/IPX-verkeer.
Hmm, Netbeui en binnenkomend verkeer worden niet gebalanced, alleen uitgaand IP/IPX-verkeer.
Pagina: 1