Problemen Teaming met HP 1810 V2

Pagina: 1
Acties:

  • CaranthirM
  • Registratie: Juni 2007
  • Laatst online: 06-09 21:54
Ik heb een thuis een pc/server gebouwd met daarin meerdere netwerkkaarten. Het gaat om een Intel DQ670W met daarbij een intel pci en een intel pci-e netwerkkaart. Met de daarvoor beschikbare software van Intel een ik een Team gemaakt (http://www.intel.com/support/network/sb/cs-009747.htm) Voor het Team heb in ingesteld SLA (Static Link Aggregation) deze verbonden met mijn (oude) 3com (3c16980A / superstack 3) 3 poorten als trunk ingesteld en het werkt als een trein. Ik kan van af 3 clients met 100 Mbps downloaden vanaf mijn server (waar het dan een 300 Mbps is). Dus tot zover alles oke :)

Nu hebt ik recent een HP 1810 V2 switch gekocht om gebruik te gaan maken van 1 Gbps. En daar loop ik een beetje vast. De HP switch heeft wat meer opties betreft trunking dan de 3com. Maar goed, SLA aan de server zijde ingesteld en in de switch de 3 poorten op static gezet. Maar bij het testen hiervan met 2 clients komt de snelheid per client niet boven de 0.2 Gbps uit. Bij 1 client keurig 1 Gbps. Stel ik de poorten in op 100 Mbps ipv 1 Gpbs is er geen probleem. Blijkbaar gaat er iets in de overhead verkeerd? Of moet ik een ander type Team gebruiken? of vergeet ik ergens wat in te stellen op de server of de switch?

Na 5 avonden trial en error met de diverse types team op de server en switch kom ik er niet helemaal meer uit. Of iemand mij advies kan geven, mocht ik een topic gemist hebben dan hoor ik dat ook graag.

Bijgevoegd de afbeeldingen van de verschillende typen Teaming en Port Mirroring

Afbeeldingslocatie: http://i.imgur.com/tIYcVCSs.png

Afbeeldingslocatie: http://i.imgur.com/kuVOIJ7s.png

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 22:06
Ik zou alles instellen voor 802.3ad Dynamic / LACP active. Dat is de moderne manier van link aggregation :)
Verder zou ik alle poorten op autonegotiation laten staan (dus niet met de hand de snelheid en duplex instellingen aanpassen).

Als de snelheid nog steeds niet goed is zou ik de kabels nakijken.. In de switch kan je waarschijnlijk zien per poort of er errors/discards optreden. Zo ja, grote kans dat je kabel niet goed is.
Aan de PC zijde kan je dat zien met 'netstat -e' onder windows.

[ Voor 67% gewijzigd door FatalError op 30-04-2013 20:17 ]

If it ain't broken, tweak it!


  • Dikke Foaf
  • Registratie: November 2002
  • Laatst online: 30-11 18:51
Een LACP zal alleen bundlen als beide links op dezelfde snelheid genegotiate zijn. Kijk even na in de switch of beide poorten wel degelijk op gigabit zitten.
Verder inderdaad LACP active gebruiken, ook aan de pc-kant.
De port mirroring heb je niet nodig om LACP te doen.
De load sharing in een LACP bond is niet noodzakelijk 3:3:3 maar eerder iets van 8:1:1, weet het niet van buiten, maar verwacht niet dat je de volle 3gbit gaat halen bij een bond van 3 gbit interfaces.

All three trunk group options (LACP, Trunk, and FEC) use source-destination address pairs (SA/DA) for distributing outbound traffic over trunked links. SA/DA (source address/destination address) causes the switch to distribute outbound traffic to the links within the trunk group on the basis of source/destination address pairs. That is, the switch sends traffic from the same source address to the same destination address through the same trunked link, and sends traffic from the same source address to a different destination address through a different link, depending on the rotation of path assign­ments among the links in the trunk. Likewise, the switch distributes traffic for the same destination address but from different source addresses through different links. Because the amount of traffic coming from or going to various nodes in a network can vary widely, it is possible for one link in a trunk group to be fully utilized while others in the same trunk have unused bandwidth capacity even though the address assignments are evenly distributed across the links in a trunk. In actual networking environments, this is rarely a problem.

Daarnaast vraag ik me ook nog af: tevoren had je 300Mbit dmv LACP, nu ben je naar Gbit gegaan en zou je dus moeten toekomen met slechts 1 aansluiting. Waarom toch nog LACP?

[ Voor 47% gewijzigd door Dikke Foaf op 30-04-2013 22:09 ]


  • CaranthirM
  • Registratie: Juni 2007
  • Laatst online: 06-09 21:54
Ik heb alles ingesteld op 802.3ad Dynamic / LACP active en alle poorten op auto gezet in de switch.

Kabels getest maar tot nog toe geen succes :( Maar deze werkten in de oude situatie goed. Ik zal van de week een paar extra netwerkkabels erbij pakken om deze te testen.

Verder heb ik in de Switching opties de opties voor Jumbo frames en Flow control aangeklikt.

Wanneer ik de netwerkkaarten team op 802.3ad Dynamic en SLA team zijn de volgende onderdelen uitgeschakeld: Jumbo Frames/Jumob Packets, Receive-Side Scaling.

Waarom toch nog LACP is omdat ik 3 netwerkkaarten in mijn pc/server heb zitten en die alle 3 volledig wil benutten. Daarnaast komt er alleen maar meer data op de server te staan, ook in grotere bestanden en is de extra snelheid natuurlijk welkom.

Afbeeldingslocatie: http://i.imgur.com/xNwa4Mls.png

Afbeeldingslocatie: http://i.imgur.com/AMDOHJws.png

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 22:06
Jumbo frames zou ik uit laten staan en flow control waarschijnlijk ook.

If it ain't broken, tweak it!


  • CaranthirM
  • Registratie: Juni 2007
  • Laatst online: 06-09 21:54
Op het plaatje is zichtbaar dat de 1ste client begint met downloaden. Zodra de 2de client een andere file begint te downloaden zie je dat de snelheid dropt. Zodra deze 2de client de download afbreekt hersteld de verbinding met de 1ste client weer.

Afbeeldingslocatie: http://i.imgur.com/mone7Vo.jpg
Pagina: 1