Intel Pro 1000 MT Dual Port - vraagjes

Pagina: 1
Acties:

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Ik zit te denken aan een Intel Pro 1000 MT Dual Port NIC voor een File-Server.
Ik heb hierover wat vragen:

- Kan deze NIC in een standaard PCI sleuf worden gestoken? (32 bits)

- Draaien de 2 poorten over 1 IP?

- En hoe zit het met de switch, moet deze hiervoor (perse) managable zijn?


Alvast bedankt!

[ Voor 3% gewijzigd door pSycho-Y2K op 20-06-2003 19:33 ]


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
1. Ja
2. Dat is mogelijk (met de meegeleverde Proset 2 software bijvoorbeeld)
3. Hoeft niet per se, maar is wel aan te raden.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Dus, deze NIC kan ook gewoon functioneren op een normale switch?

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Ja, maar waarom koop je dan niet de 1-poort versie?

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
kheb alleen een opmerking/andwoord over 1 en 3:
1: een 32bits PCI bus trekt nooit 1gb dus zeker al geen 2 gb dus of het echt nut heb...
3: ik heb geen id over 2 hoe dit dan gedaan word (trunking/etherchannel/link agregation/whatever intel er van maakt) als het link agregation is wat een intel switch ook heeft is het aan te raden om een intel switcjh te usen die het support, bij de meeste trunk/bonds/however je het wil noemen word ook bij een niet gesupporte switch de verkeer van de kaart naar de switch wel verdeelt en dus sneller maar omdat je switch het niet snapt gaat alle verkeer van switch aar kaart over 1 poortje

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Oke, ik ben weer wat wijzer geworden.

Ik denk dat ik dan voor de 1 poort versie ga, is het dan in mijn geval (File-Server) beter om de Server NIC versie te nemen? Of de Desktop NIC versie?

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Je haalt idd geen gigabit snelheden, maar 500 mbit/s is zeker wel mogelijk, en dat is toch n stuk beter dan 100 mbit :)
Als je enkel fail-over modus kiest hoef je niets in te stellen, de kaart schakelt gewoon over op de andere kabel als de ene verbinding verbroken wordt.
Je kan ook poort-trunken zonder dat je switch dit hoeft te ondersteunen, of zelfs manageable hoeft te zijn.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
pSycho_Y2K schreef op 20 June 2003 @ 19:47:
Oke, ik ben weer wat wijzer geworden.

Ik denk dat ik dan voor de 1 poort versie ga, is het dan in mijn geval (File-Server) beter om de Server NIC versie te nemen? Of de Desktop NIC versie?
servernic=64bit en de desktop is 32bit (standaard pci dus)

en fatalerror: meer als 500 megabit is wel degelijk mogelijk, je moet alleen wel een mooie raid5 array hebben (mag ook raid 0 natuurlijk) om de data te kunnen leveren

[ Voor 20% gewijzigd door Zwelgje op 20-06-2003 19:50 ]

A wise man's life is based around fuck you


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Ik zou gewoon de Desktop versie nemen. De serverkaart kan trunken en nog wat rare geintjes die de Desktop kaart niet kan, maar met 1 kaart gebruik je die toch niet :)
De Desktopkaart is idd 32 bit en de Serverkaart 64 bit.
Beiden kunnen zowel op 33 als 66MHz bus, de Server kaart kan misschien ook wel 100 en 133 MHz PCI-X, maar dat weet ik niet zeker.

[ Voor 37% gewijzigd door FatalError op 20-06-2003 19:51 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
zwelgje, veel meer dan 500 mbit/s krijg je niet door je 32bit/33mhz PCI bus heen (zelf getest) :)

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
Kzou de desktop kaart kopen, mits je nmiet van plan bent binnenkort een baord te kopen met pci64 oid bespaart je nu een hoop centen en de serverkaart luxes gebruik je niet :)

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Ik wou ergens toch gaan trunken (aangezien de File-Server altijd bandbreedte te kort heeft op 1 poort (100 Mbit switches)).

Is het dan beter om 2 losse 1 Gbit NIC's te laten trunken, of de 1 Gbit Dual Port NIC te nemen?

Met 2 losse NIC's zit ik toch vast aan managable switches als ik wil trunken?

[ Voor 20% gewijzigd door pSycho-Y2K op 20-06-2003 19:58 ]


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Je hebt niet per se n manageable switch nodig om te trunken.

Je hebt 1 Server kaart nodig om te kunnen trunken, de rest van de kaarten mogen Desktop kaarten zijn.
Maar misschien is het interessanter om n dual poort Server kaart te kopen dan 2 losse Desktop kaarten.

Maar wil je hogere snelheden halen dan moet je toch echt n 64 bit en/of 66mhz pci bus hebben (en n berg schijven in raid)

[ Voor 37% gewijzigd door FatalError op 20-06-2003 20:01 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
het maakt voor je switch niet uit of je 1 of 2 nics heb alleen moet je wel software draaien die kan trunken (w2k3 server kan het en zo zijn er meer proggies)
volgends mij heeft 2 pci nics naast elkaar nog geen snelheidswinst t.o.v. 1
en je zit ook nog is met je hd`s
een beetje idedisk haalt ongeveer 50 MBper sec, laat ze in raid 0 80MB doen 1gb is al 125MB per sec

om je een idee te geven:
thuis:
systeem 1: Celeron 2000, glaskaart,(pci 64 in pci33 slot) 2*120GB maxtor diamondmax9 in raid 0
aan de andere kant:
workstation ook met glas, en nog een aantal systemen om zo veel mogenlijk data te trekken ik kom wat ik ook doe never boven de 350mbit uit op me glasnic in me server

2gbit in je pc doen is volgends mij niet haalbaar omdat je met teveel bottleneks zit of je moet je helemaal blauw betalen aan u320,pci64,dual bakken enzo
owja... als je laat leechen van je bak, zorg dat je FTP laat gebruiken :)

[ Voor 22% gewijzigd door Da_BoR op 20-06-2003 20:02 ]


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Met meerdere datatransfers tegelijk zakt de snelheid flink in, de hd's maken dan teveel kopbewegingen om nog snel te kunnen lezen.
De oplossing hiervoor is om n stuk 5, maar liever wel 15 schijven in raid in je pc te hangen, die houden het dan enigszins bij.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
De File-Server draait 2x 160 GB + 2x 120 GB in RAID0 en 120 GB op IDE.

Zijn dan 2 losse 1 Gbit Desktop NIC's (trunked) aan te raden, of is 1 NIC al voldoende?

Ligt de snelheid dan hoger met een 1 Gbit NIC dan een normale 100 Mbit NIC op een 100 Mbit Switch (is 12,5 MB/s dan te bereiken?)?

[ Voor 6% gewijzigd door pSycho-Y2K op 20-06-2003 20:07 ]


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
http://www.intel.com/supp...ter/ans/teaming.htm#Modes

Ik denk dat Recieve LoadBalancing voor jouw het beste geschikt is, je hebt hierbij beide kanten op N*100(0) mbit/s zonder dat de switch trunking hoeft te ondersteunen.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
je snelheid is zoiezo met gbit hoger.. ik haal zelf de 350mbit dus gbit is wel sneller, het is alleen niet zo dat 2gbit sneller is als 1 in jou situatie :P

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
De Desktop nic's kunnen niet trunken met behulp van de Intel software, hiervoor moet je dan iets anders gebruiken, NICExpress bijvoorbeeld.
Onder Linux kan je uiteraard ook trunken (werkt met de meeste kaarten), zie http://www.sourceforge.net/projects/bonding/

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Ah, was ik even vergeten :)

Maar, ligt de snelheid dan hoger met een 1 Gbit NIC dan een normale 100 Mbit NIC op een 100 Mbit Switch (is 12,5 MB/s dan te bereiken op een 100 Mbit switch?)?

  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
je heb een 100mbit switch? zonder gbit poorten?
als je een gbit kaart heb moet je ook gbit poorten hebben om resultaat te halen, heb je dit niet is bonding goedkoper :) (als een nieuwe switch+gbit kaart)

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Het gaat mij om het zo hoog mogelijk krijgen van de brandbreedte op standaard switches op LAN Parties. Hierbij wil ik ook aan de toekomst denken (1 Gbit). Vandaar deze vragen :)

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Zowel 100 mbit als 1gbit kaarten kunnen ongeveel 11.5 mbyte/s halen op n 100 mbit aansluiting.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
om dan nu een leuk iets te hebben zou je denk ik uit kunnen gaan van 2 dingen
1: je koopt 2 3commetjes 100mbits en zorgt dat je die met software bond
2: je koopt zo`n 1000MT kaart en je laat die dmv intel software bonden, alleen moet je dan Fatalerror liev aankijken en vragen of die dingen op 100mbit ook kunnen bonden :) (ik heb niet zo`n ding)

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
3Com 90x kaarten kunnen niet trunken met behulp van 3Com software

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • Da_BoR
  • Registratie: Juli 2000
  • Laatst online: 27-03 13:02
sorry ik had het over 3rdparty software zoals jij eerder aangaf in linux/bsd/2k3server

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Op dit moment zitten er 2x 3com 3C905C-TX in de File-Server.

Ik zal morgen NIC Express ff testen en kijken of deze bevalt.

  • The Dolf
  • Registratie: November 2000
  • Niet online
FatalError schreef op 20 juni 2003 @ 20:20:
3Com 90x kaarten kunnen niet trunken met behulp van 3Com software
Kan wel met andere software. Onder windows 2003 kan het zelfs standaard.

Gezocht!
Samsung 1TB HD103SI printplaat
Router
If everything seems to be going well, you have obviously overlooked something


  • ziporah
  • Registratie: Juni 2003
  • Laatst online: 12-03 12:42
Effe een kleine reply op de fibre connectie tussen de 2 pc's en een tip voor gebruik met gigabit kaarten (en trunking als je dit wil doen)

Zoek een keer op de alombekende goohle naar tcpwindowsize en boost je performance met 250 % omhoog met je gigaconnectie.

Alle windowsen zijn geoptimaliseerd voor 100 MB/s netwerk en niet voor 1GB/s dwz dat de blocksize van de tcp/ip op kleine waarden is ingesteld, waardoor de performance enorm naar onder gaat. Ik heb testen gedaan op 2 identieke platformen, connected via een 32 bit pci bus (standaard pc), een p4 2gig en een hardware raid van 2 disks ata100. Ik haal makkelijk 650 MB/s door enkel deze parameter aan te passen.

Dan nog iets over trunking, als je toch maar 100 MBit switchen hebt, is het nutteloos om een gigabit kaart te steken. Verander hiervoor ook je tcpwindowsize, zeker als je trunking gaat doen. Je switch moet wel managable zijn als je een trunk wil vormen, anders gaat de port geblokt worden op de switch en krijg je alleen maar up of download naar je pc, maar nooit samen.

(Zorg wel degelijk dat je trunking doet, niet failover (dan wordt de kaart enkel gebruikt als de 1e kaart stuk is)

En als je nog meer performantie wil halen, schakel dan een linux machine in. Met de linux server die ik heb draaien als ftp server voor mijn lan parties haal ik nog hogere snelheid dan de 650 MBit die ik gemeten heb tussen de 2 pc's

Ziporah


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Je switch moet wel managable zijn als je een trunk wil vormen, anders gaat de port geblokt worden op de switch en krijg je alleen maar up of download naar je pc, maar nooit samen.
Dit hoeft al lang niet meer voor iedere trunkmethode... de laatste trunksoftware kan o.a. namelijk zelf bepalen op welke poort welk macadres aangeleerd moet worden. Hierdoor kunnen ook niet-manageable switches gebruikt worden.

quote uit de bondingpatch:
Adaptive load balancing: includes balance-tlb + receive
load balancing (rlb) for IPV4 traffic and does not require
any special switch support
. The receive load balancing is
achieved by ARP negotiation. The bonding driver intercepts
the ARP Replies sent by the server on their way out and
overwrites the src hw address with the unique hw address of
one of the slaves in the bond such that different clients
use different hw addresses for the server.

Receive traffic from connections created by the server is
also balanced. When the server sends an ARP Request the
bonding driver copies and saves the client's IP information
from the ARP. When the ARP Reply arrives from the client,
its hw address is retrieved and the bonding driver
initiates an ARP reply to this client assigning it to one
of the slaves in the bond. A problematic outcome of using
ARP negotiation for balancing is that each time that an ARP
request is broadcasted it uses the hw address of the
bond. Hence, clients learn the hw address of the bond and
the balancing of receive traffic collapses to the current
salve. This is handled by sending updates (ARP Replies) to
all the clients with their assigned hw address such that
the traffic is redistributed. Receive traffic is also
redistributed when a new slave is added to the bond and
when an inactive slave is re-activated. The receive load is
distributed sequentially (round robin) among the group of
highest speed slaves in the bond.

[ Voor 101% gewijzigd door FatalError op 20-06-2003 21:57 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • ziporah
  • Registratie: Juni 2003
  • Laatst online: 12-03 12:42
Da is geen correcte port trunking en als ge da gaat doen met windows, wens ik je nog veel succes. Je zou toch in mijn ogen nog altijd graag 1 ip adres hebben naar je fileserver en niet 2-8 ipadressen die dan gemapped worden naar je server
Het nut van de trunk is net dat de switch de balancing gaat doen en niet de software op je server.
Alle requests komen op 1 poort binnen als ik goed kan lezen en de data wordt over de verschillende kaarten naar buiten gestuurd. Alle re-requests (bij verkeerd ontvangen pakketten) worden dus ook over deze kaart gestuurd.

Als je een degelijk systeem wilt hebben, zoek dan wat tuning guides op voor je tcp settings aan te passen.
Ik zal je mijn vb geven van op de lan:
Amd athlon xp 1600 256 MB DDR
1 gbit kaart 32 bit 33 mhz
1 ata133 kaartje pci 32 bit 33 mhz
1 IDE onboard controller
1 IDE onboard raid controller
5 X 120 gig hd ata 133
1 X cdrom
Alle devices hangen met een ide kabel op de bus als master !!!!
software : Gentoo 4 disks in raid 0 (striping) voor snelheid te halen. 1 disk voor installatie van het OS. Deze disk doet tevens dienst als upload map. Alle data wordt manueel overgezet naar de download disk. (beetje orde op zaken houden)
Er zijn 96 slots van 4 MB/s ter beschikking gesteld door de ftp server (proftpd) en alle clients kunnen op maximum snelheid downloaden, terwijl de server op 50 % load draait. in totaal dus 4 X 96 = 384 MB/s Zonder problemen (om de switchen niet te overbelasten) Op het einde van de lan zetten we de slots af en doen we full download. Hier halen we snelheden boven de 650 MB/s

Kzou dus zeggen, tune die fileserver fantsoenlijk en performantie komt vanzelf
_/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_

Ziporah


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Je zou toch in mijn ogen nog altijd graag 1 ip adres hebben naar je fileserver en niet 2-8 ipadressen die dan gemapped worden naar je server
Dat is niet het geval, het gaat om mac-adressen.
Het nut van de trunk is net dat de switch de balancing gaat doen en niet de software op je server.
Voor beide kanten op balancen moeten zowel de switch als de software/nics gaan balancen. Zonder speciale software gaat dat echt niet lukken.

[ Voor 39% gewijzigd door FatalError op 20-06-2003 22:14 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • ziporah
  • Registratie: Juni 2003
  • Laatst online: 12-03 12:42
Just one word : LINUX

en ja, heb uw sig gelezen ;)

Nog iet vergete: gentoo Roxored

[ Voor 25% gewijzigd door ziporah op 20-06-2003 22:23 ]

Ziporah


Verwijderd

Nog even over de Switch.....fileserver combi..
Als je het goedkoop wil moet je met die "bonding patch" werken...en een "unmanagable switch...alleen al het verhaal over die "bonding" word ik persoonlijk al moe van...enig idee wat een overhead aan verkeer dit genereert!?....al dat geneuzel met arp..

En de gemiddelde unmanagable switch kan al zelden een goede performance halen op 2poorten in full duplex...maar het is natuurlijk een prijs verhaal.

Dus het mooiste zou zijn om gewoon 2 manageble (intel) gig nic's te hebben (hardware redundant en media redundant) en de links op een deglijke "manageble" switch te hangen...dan kan je kiezen wat voor Channel/trunk je wilt draaien afhankelijk van je wensen...En op een "betere" switch kan je MTU ook wat ruimer en heb je minder problemen met fragmenten.

  • BrZ
  • Registratie: Maart 2000
  • Laatst online: 01:20

BrZ

ziporah schreef op 20 June 2003 @ 22:07:
Da is geen correcte port trunking en als ge da gaat doen met windows, wens ik je nog veel succes. Je zou toch in mijn ogen nog altijd graag 1 ip adres hebben naar je fileserver en niet 2-8 ipadressen die dan gemapped worden naar je server
Het nut van de trunk is net dat de switch de balancing gaat doen en niet de software op je server.
Alle requests komen op 1 poort binnen als ik goed kan lezen en de data wordt over de verschillende kaarten naar buiten gestuurd. Alle re-requests (bij verkeerd ontvangen pakketten) worden dus ook over deze kaart gestuurd.

Als je een degelijk systeem wilt hebben, zoek dan wat tuning guides op voor je tcp settings aan te passen.
Ik zal je mijn vb geven van op de lan:
Amd athlon xp 1600 256 MB DDR
1 gbit kaart 32 bit 33 mhz
1 ata133 kaartje pci 32 bit 33 mhz
1 IDE onboard controller
1 IDE onboard raid controller
5 X 120 gig hd ata 133
1 X cdrom
Alle devices hangen met een ide kabel op de bus als master !!!!
software : Gentoo 4 disks in raid 0 (striping) voor snelheid te halen. 1 disk voor installatie van het OS. Deze disk doet tevens dienst als upload map. Alle data wordt manueel overgezet naar de download disk. (beetje orde op zaken houden)
Er zijn 96 slots van 4 MB/s ter beschikking gesteld door de ftp server (proftpd) en alle clients kunnen op maximum snelheid downloaden, terwijl de server op 50 % load draait. in totaal dus 4 X 96 = 384 MB/s Zonder problemen (om de switchen niet te overbelasten) Op het einde van de lan zetten we de slots af en doen we full download. Hier halen we snelheden boven de 650 MB/s

Kzou dus zeggen, tune die fileserver fantsoenlijk en performantie komt vanzelf
_/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_
ehm, right, 384MB/s halen dmv van 96 sessies van 4MB/s ?? Dat is dus allemaal random read, als je in totaal 20-30MB/s haalt mag je al blij zijn... 384MB/s... dat haal je sustained met 1 transfer niet eens...

  • Guru Evi
  • Registratie: Januari 2003
  • Laatst online: 19-03 21:34
Heb zelf 5 1000MT desktop adaptertjes gekocht
De PCI 32-bit bus op 66 MHz kan dat nog redelijk trekken, je zit natuurlijk met andere bottlenecks maar het is iig sneller dan de 100 MBit's
Trunking gaat standaard met die kaartjes, het zit in de windows software, in de linux userland. Meerdere Intel kaartjes worden automagisch gededecteerd en kan door de software worden getrunked, de trunking verloopt dan hardwarematig (als de beide Intel's dat ondersteunen, softwarematig als er andere kaartjes in zitten)
Trunking of bonding of whatever je het noemt moet ook door de switch ondersteunt worden, dus een deftige manageable switch (maar voor bedrijfsomgeving ga je niet voor minder). Ik ben heel blij met die kaartjes spijtig genoeg heb ik geen SCSI adapter, maar firmware RAID op IDE gaat toch een stuk sneller.

Pandora FMS - Open Source Monitoring - pandorafms.org


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 26-03 16:38
Trunken is altijd softwarematig:) ook met de proset software oid.
Vanwege de $$$ zorgen ze dat het bijvoorbeeld alleen maar met eigen kaarten werkt.

Guru Evi: heb jij meerdere Pro/1000MT kaartjes en kan je trunken met de Proset software?
Met 1 Pro1000MT en 1 Pro100S zie ik die functie niet (dat is vroeger weleens zo geweest, met software versie 5 ofzo).

[ Voor 42% gewijzigd door FatalError op 21-06-2003 16:51 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04-2025
Heb inmiddels Windows 2003 Standard Server geinstalleerd op de File-Server, deze heeft Network Load Balancing.

Werkt dit ook ideaal?
En zo ja, zijn er how-to's ervan te vinden? Aangezien de config nogal complex is (tenzij iemand me ff kan uitleggen hoe ik simpel 2 NIC's kan bundelen).

[ Voor 3% gewijzigd door pSycho-Y2K op 21-06-2003 22:46 ]


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
pSycho_Y2K schreef op 21 June 2003 @ 22:46:
Heb inmiddels Windows 2003 Standard Server geinstalleerd op de File-Server, deze heeft Network Load Balancing.

Werkt dit ook ideaal?
En zo ja, zijn er how-to's ervan te vinden? Aangezien de config nogal complex is (tenzij iemand me ff kan uitleggen hoe ik simpel 2 NIC's kan bundelen).
met loadbalancing in w2k3 kun je geen nics bundelen :z

tis puur en alleen ervoor gemaakt om de load van een netwerk (bv printqueu's/terminalserver sessies/www sites) te balanceren tussen 2 of meer servers

A wise man's life is based around fuck you


  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

pSycho-Y2K schreef op vrijdag 20 juni 2003 @ 19:31:
Ik zit te denken aan een Intel Pro 1000 MT Dual Port NIC voor een File-Server.
Ik heb hierover wat vragen:

- Kan deze NIC in een standaard PCI sleuf worden gestoken? (32 bits)

- Draaien de 2 poorten over 1 IP?

- En hoe zit het met de switch, moet deze hiervoor (perse) managable zijn?


Alvast bedankt!
die vraag had ik dus ook. wil namelijk een via epia systeem gaan gebruiken als router en daar wil ik 2 (voor wan én lan) fatsoenlijke nics in hebben, maar met 1 pci slot kan dat dus niet.
Maar na lezen van dit topic blijkt dus die intel server-dualport kaart wél werkt in een gewoon pci slot.... echter nog 1 vraag, past die kaart hierin??--> Mini-Box M300-lcd

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde

Pagina: 1