Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 00:04
Ik ben me eigen in de materie van het bundelen van netwerkpoorten aan het verdiepen.

Ik was hier het meest benieuwd na het toepassen hiervan op 2 hosts om van een hogere bandbreedte te kunnen genieten. Maar hier kom ik tegenstrijdige zaken tegen. Switches van cisco kiezen op basis van source/destination op L2 of L3 een poort in groep van de Port Channel. resultaat is dat je tussen 2 hosts niet moet rekenen op de totale bandbreedte van 2 poorten.

FreeBSD wat ik veel mee werk, zegt in hun manual over LACP ook het volgende: "Since frame ordering is mandatory on Ethernet links then any traffic between two stations always flows over the same physical link limiting the maximum speed to that of one interface". Per definitie krijg je tussen 2 hosts geen dubbele bandbreedte.

Alleen Linux, die zegt "Round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance." Dit suggereert dat je weer WEL de bandbreedte van poorten gecombineerd kan krijgen.

De 3 verhalen vormen voor mij geen consistent beeld. Bij cisco zou ik als er gebruik gemaakt word van verschillende poorten (meerdere tcp connecties bv) WEL een grotere bandbreedte dan van 1 poort benut kan worden. FreeBSD zegt dus per definitie van niet. Linux zegt dat het weer gewoon kan.

Ik kan van de 'slechtste' situatie uitgaan en die hanteren als kloppend (het kan alleen beter dan), maar hoe zit het nu exact met port aggregation. Ik ga van LACP uit, omdat je anders met vendor specifieke implementaties te maken krijgt.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


  • Predator
  • Registratie: Januari 2001
  • Laatst online: 22:20

Predator

Suffers from split brain

Het blijft eigenlijk simpel. 1 'flow' (wat eigenlijk het resultaat van een rondje hashen) gaat over 1 link.
Het enige wat er nog wat aan prullen valt is wat er allemaal meegenomen wordt in de formule.
Dat kan zijn:
• source en/of destination mac adres
• source en/of destination ip adres
• source en/of destination TCP/UDP port
• eventueel VLAN-id

Het komt allemaal op hetzelfde neer. 1 TCP connectie tussen 2 hosts neemt maximum 1 link.
Hoe meer verkeer, hoe beter het verdeeld is.

Wil je meer ... upscalen naar 10gig ;)

[ Voor 4% gewijzigd door Predator op 10-02-2012 19:02 ]

Everybody lies | BFD rocks ! | PC-specs


  • pablo_p
  • Registratie: Januari 2000
  • Laatst online: 26-09 08:28
Om meer gevoel voor de materie te krijgen en helderheid te scheppen:
  • Het is van de switch serie afhankelijk welke soorten verdeling van verkeer mogelijk is. Zie link
  • De load balancing die geconfigureerd wordt is uitgaand. Als je een FreeBSD server hebt die vooral uitgaand veel verkeer genereert, kan je voor de link van server naar switch wel toegevoegde waarde hebben van andere load balancing. Let op dat binnen een sessie/flow load balancing over verschllende poorten ou-of-sequence kan opleveren wat in ongunstige gevallen een veel lagere performance geeft. Indien je dit gebruikt en je gaat over meerdere schakels, moet je iedere schakel afzonderlijk bekijken.

  • RedShift
  • Registratie: Augustus 2003
  • Laatst online: 20-04 21:58
Keiichi schreef op vrijdag 10 februari 2012 @ 13:59:
*knip*
Alleen Linux, die zegt "Round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance." Dit suggereert dat je weer WEL de bandbreedte van poorten gecombineerd kan krijgen.
*knip*
Kan op verschillende manieren links aggregeren, sommige hebben zelf geen ondersteuning nodig van de switch waar de netwerkkaarten mee verbonden zijn. Er zijn dus verschillende technieken om links te aggregeren, je zal moeten matchen. Welke aggregation methode je wil gebruiken (wat overigens bonding noemt onder linux) kan je meegeven met modprobe, probeer eens modinfo bonding om een overzicht te krijgen van alle mogelijke opties. Welke je wil nemen lees je in de kernel documentatie.