Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
Voor een LAN party ben ik bezig met het netwerk. Hier hebben wij een Cisco 4506 als core switch en HP Procurve 2824 switches voor op de tafels.

Nu heb ik het gehele netwerk geconfigureerd. Per tafelswitch gaat er een trunk van 4x1gbit naar de core switch. Alles lijkt goed geconfigureerd te zijn, maar bij het test liepen we tegen een probleem aan. De trunk komt niet boven 1gbit uit met de doorvoer. Alle trunks zijn geconfigureerd met LACP. Dit is ook op alle switches geconfigureerd en alles lijkt ook goed.

Na enige tijd zoeken lijkt het erop dat de cisco de LACP (waarschijnlijk) op een iets andere manier interpreteerd dan de HP's. Wat ik hier mis is 802.3ad. Dit word wel ondersteund door alle HP Procurve 2824 switches, maar niet op de huidige IOS versie van de cisco (12.2.18). Nu bleek dat dit vanaf 12.2.25 (of hoger) wel zou moeten werken, dus ik dacht van even de juiste versie zoeken en klaar. Maar het maakt niet uit welke versie ik pak, niks werkt.

IOS proberen te upgraden met de volgende handleiding --> http://www.cisco.com/c/en...s-switches/27848-179.html.


Modules in de Cisco 4506:
1x WS-x4013+ (Supervisor Engine II-PLUS)
5x WS-X4424-GB-RJ45 (hier zitten alle switches op aangesloten)

Huidige IOS versie cat4000-i9s-mz.122-18.EW

Is er hier misschien iemand die wel weet hoe ik dit werkende ga / kan krijgen.

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • Vorkie
  • Registratie: September 2001
  • Niet online
Hoe vindt deze test plaats?

  • plizz
  • Registratie: Juni 2009
  • Laatst online: 19:47
Trunk HP = Etherchannel Cisco. Maar met je huidige LACP haal je max 1Gbit.

  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
We hebben 1 NGINX server (geconfigureerd voor cachen van games) welke met 4x1GBit aangesloten is op een HP Procurve 2824. Op de switch zijn de poorten als groep geconfigureerd (trunk) en hierop is LACP actief gezet. Als we verschillende PC's/laptops op de zelfde switch aansluiten en dan tegelijk vanaf deze machine wat downloaden, dan trekken we de 4gbit vol. Op moment dat we dit doen vanaf een andere switch (dan zit de cisco 4506 er dus tussen) dan trekken we maximaal 1Gbit over de trunks.

Heb het ook getest met een andere HP/3COM switch als core switch (een 2952) en dan trekken we ook de 4gbit over de trunks naar die NGINX server.
plizz schreef op woensdag 06 april 2016 @ 12:25:
Trunk HP = Etherchannel Cisco. Maar met je huidige LACP haal je max 1Gbit.
Hier waren we ook achter gekomen, maar enig idee hoe ik dit kan verbeteren?

[ Voor 14% gewijzigd door chr1st14n op 06-04-2016 12:32 ]

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • Vorkie
  • Registratie: September 2001
  • Niet online
Hoe staat op je cisco de load balancing ingesteld?

http://www.cisco.com/c/en...etherchannel/12023-4.html

  • plizz
  • Registratie: Juni 2009
  • Laatst online: 19:47
Test even welke etherchannel load-balance beste werkt.
- src-dst-ip (default)
- src-dst-mac
- src-dst-port

Met show etherchannel load-balance zie welke de switch gebruikt.

Kijk ook of de etherchannel poorten up zijn met show etherchannel summary.

[ Voor 18% gewijzigd door plizz op 06-04-2016 12:46 ]


  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
Misschien makkelijker als ik de config ook nog ff gepost had, dus bij deze:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
!
version 12.2
no service pad
service timestamps debug uptime
service timestamps log uptime
no service password-encryption
service compress-config
!
hostname DVSN-CORE
!
enable password wachtwoord
!
ip subnet-zero
no ip routing
!
spanning-tree mode pvst
spanning-tree extend system-id
power dc input 2500
!
!
!
!
!
interface Port-channel1
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel2
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel3
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel4
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel5
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel6
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel7
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel8
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel9
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel10
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel11
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel12
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel13
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel14
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel15
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel16
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface Port-channel17
 switchport
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface GigabitEthernet1/1
!
interface GigabitEthernet1/2
!
interface GigabitEthernet2/1
 switchport access vlan 10
 switchport mode access
!
interface GigabitEthernet2/2
!
interface GigabitEthernet2/3
!
interface GigabitEthernet2/4
!
interface GigabitEthernet2/5
!
interface GigabitEthernet2/6
!
interface GigabitEthernet2/7
!
interface GigabitEthernet2/8
 switchport trunk encapsulation dot1q
 switchport mode trunk
!
interface GigabitEthernet2/9
 switchport trunk encapsulation dot1q
 switchport trunk native vlan 10
 switchport mode trunk
!
interface GigabitEthernet2/10
 switchport trunk encapsulation dot1q
 switchport trunk native vlan 10
 switchport mode trunk
!
interface GigabitEthernet2/11
!
interface GigabitEthernet2/12
!
interface GigabitEthernet2/13
!
interface GigabitEthernet2/14
!
interface GigabitEthernet2/15
!
interface GigabitEthernet2/16
 switchport access vlan 2000
 switchport mode access
!
interface GigabitEthernet2/17
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 1 mode active
!
interface GigabitEthernet2/18
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 1 mode active
!
interface GigabitEthernet2/19
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 1 mode active
!
interface GigabitEthernet2/20
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 1 mode active
!
interface GigabitEthernet2/21
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 2 mode active
!
interface GigabitEthernet2/22
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 2 mode active
!
interface GigabitEthernet2/23
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 2 mode active
!
interface GigabitEthernet2/24
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 2 mode active
!
interface GigabitEthernet3/1
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/2
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/3
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/4
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/5
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/6
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/7
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/8
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 3 mode active
!
interface GigabitEthernet3/9
!
interface GigabitEthernet3/10
!
interface GigabitEthernet3/11
!
interface GigabitEthernet3/12
!
interface GigabitEthernet3/13
!
interface GigabitEthernet3/14
!
interface GigabitEthernet3/15
!
interface GigabitEthernet3/16
!
interface GigabitEthernet3/17
!
interface GigabitEthernet3/18
!
interface GigabitEthernet3/19
!
interface GigabitEthernet3/20
!
interface GigabitEthernet3/21
!
interface GigabitEthernet3/22
!
interface GigabitEthernet3/23
!
interface GigabitEthernet3/24
!
interface GigabitEthernet4/1
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 6 mode active
!
interface GigabitEthernet4/2
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 6 mode active
!
interface GigabitEthernet4/3
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 6 mode active
!
interface GigabitEthernet4/4
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 6 mode active
!
interface GigabitEthernet4/5
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 7 mode active
!
interface GigabitEthernet4/6
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 7 mode active
!
interface GigabitEthernet4/7
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 7 mode active
!
interface GigabitEthernet4/8
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 7 mode active
!
interface GigabitEthernet4/9
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 8 mode active
!
interface GigabitEthernet4/10
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 8 mode active
!
interface GigabitEthernet4/11
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 8 mode active
!
interface GigabitEthernet4/12
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 8 mode active
!
interface GigabitEthernet4/13
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 9 mode active
!
interface GigabitEthernet4/14
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 9 mode active
!
interface GigabitEthernet4/15
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 9 mode active
!
interface GigabitEthernet4/16
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 9 mode active
!
interface GigabitEthernet4/17
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 10 mode active
!
interface GigabitEthernet4/18
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 10 mode active
!
interface GigabitEthernet4/19
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 10 mode active
!
interface GigabitEthernet4/20
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 10 mode active
!
interface GigabitEthernet4/21
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 11 mode active
!
interface GigabitEthernet4/22
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 11 mode active
!
interface GigabitEthernet4/23
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 11 mode active
!
interface GigabitEthernet4/24
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 11 mode active
!
interface GigabitEthernet5/1
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 12 mode active
!
interface GigabitEthernet5/2
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 12 mode active
!
interface GigabitEthernet5/3
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 12 mode active
!
interface GigabitEthernet5/4
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 12 mode active
!
interface GigabitEthernet5/5
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 13 mode active
!
interface GigabitEthernet5/6
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 13 mode active
!
interface GigabitEthernet5/7
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 13 mode active
!
interface GigabitEthernet5/8
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 13 mode active
!
interface GigabitEthernet5/9
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 14 mode active
!
interface GigabitEthernet5/10
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 14 mode active
!
interface GigabitEthernet5/11
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 14 mode active
!
interface GigabitEthernet5/12
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 14 mode active
!
interface GigabitEthernet5/13
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 15 mode active
!
interface GigabitEthernet5/14
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 15 mode active
!
interface GigabitEthernet5/15
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 15 mode active
!
interface GigabitEthernet5/16
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 15 mode active
!
interface GigabitEthernet5/17
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 16 mode active
!
interface GigabitEthernet5/18
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 16 mode active
!
interface GigabitEthernet5/19
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 16 mode active
!
interface GigabitEthernet5/20
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 16 mode active
!
interface GigabitEthernet5/21
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 17 mode active
!
interface GigabitEthernet5/22
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 17 mode active
!
interface GigabitEthernet5/23
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 17 mode active
!
interface GigabitEthernet5/24
 switchport trunk encapsulation dot1q
 switchport mode trunk
 channel-group 17 mode active
!
interface GigabitEthernet6/1
!
interface GigabitEthernet6/2
!
interface GigabitEthernet6/3
!
interface GigabitEthernet6/4
!
interface GigabitEthernet6/5
!
interface GigabitEthernet6/6
!
interface GigabitEthernet6/7
!
interface GigabitEthernet6/8
!
interface GigabitEthernet6/9
!
interface GigabitEthernet6/10
!
interface GigabitEthernet6/11
!
interface GigabitEthernet6/12
!
interface GigabitEthernet6/13
!
interface GigabitEthernet6/14
!
interface GigabitEthernet6/15
!
interface GigabitEthernet6/16
!
interface GigabitEthernet6/17
!
interface GigabitEthernet6/18
!
interface GigabitEthernet6/19
!
interface GigabitEthernet6/20
!
interface GigabitEthernet6/21
!
interface GigabitEthernet6/22
!
interface GigabitEthernet6/23
!
interface GigabitEthernet6/24
!
interface Vlan1
 no ip address
 no ip route-cache
!
interface Vlan10
 ip address 10.0.10.10 255.255.255.0
 no ip route-cache
!
interface Vlan20
 no ip address
 no ip route-cache
!
interface Vlan30
 no ip address
 no ip route-cache
!
interface Vlan40
 no ip address
 no ip route-cache
!
interface Vlan50
 no ip address
 no ip route-cache
!
interface Vlan100
 no ip address
 no ip route-cache
!
ip default-gateway 10.0.10.1
ip classless
no ip http server
!
!
!
snmp-server community public RO
snmp-server enable traps tty
!
!
line con 0
 stopbits 1
line vty 0 4
 password wachtwoord
 login
!
end

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
plizz schreef op woensdag 06 april 2016 @ 12:43:
Test even welke etherchannel load-balance beste werkt.
- src-dst-ip (default)
- src-dst-mac
- src-dst-port

Met show etherchannel load-balance zie welke de switch gebruikt.

Kijk ook of de etherchannel poorten up zijn met show etherchannel summary.
code:
1
2
DVSN-CORE#show etherchannel load-balance
Source XOR Destination IP address


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
DVSN-CORE#show etherchannel summary
Flags:  D - down        P - in port-channel
        I - stand-alone s - suspended
        R - Layer3      S - Layer2
        U - in use      f - failed to allocate aggregator
        u - unsuitable for bundling
        w - waiting to be aggregated
        d - default port


Number of channel-groups in use: 17
Number of aggregators:           17

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------
1      Po1(SU)         LACP      Gi2/17(P)   Gi2/18(P)   Gi2/19(P)
                                 Gi2/20(P)
2      Po2(SU)         LACP      Gi2/21(P)   Gi2/22(P)   Gi2/23(P)
                                 Gi2/24(P)
3      Po3(SU)         LACP      Gi3/1(P)    Gi3/2(P)    Gi3/3(P)
                                 Gi3/4(P)    Gi3/5(P)    Gi3/6(P)
                                 Gi3/7(P)    Gi3/8(P)
4      Po4(SD)          -
5      Po5(SD)          -
6      Po6(SU)         LACP      Gi4/1(P)    Gi4/2(P)    Gi4/3(P)
                                 Gi4/4(P)
7      Po7(SU)         LACP      Gi4/5(P)    Gi4/6(P)    Gi4/7(P)
                                 Gi4/8(P)
8      Po8(SU)         LACP      Gi4/9(P)    Gi4/10(P)   Gi4/11(P)
                                 Gi4/12(P)
9      Po9(SU)         LACP      Gi4/13(P)   Gi4/14(P)   Gi4/15(P)
                                 Gi4/16(P)
10     Po10(SD)        LACP      Gi4/17(D)   Gi4/18(D)   Gi4/19(D)
                                 Gi4/20(D)
11     Po11(SD)        LACP      Gi4/21(D)   Gi4/22(D)   Gi4/23(D)
                                 Gi4/24(D)
12     Po12(SD)        LACP      Gi5/1(D)    Gi5/2(D)    Gi5/3(D)
                                 Gi5/4(D)
13     Po13(SD)        LACP      Gi5/5(D)    Gi5/6(D)    Gi5/7(D)
                                 Gi5/8(D)
14     Po14(SD)        LACP      Gi5/9(D)    Gi5/10(D)   Gi5/11(D)
                                 Gi5/12(D)
15     Po15(SD)        LACP      Gi5/13(D)   Gi5/14(D)   Gi5/15(D)
                                 Gi5/16(D)
16     Po16(SD)        LACP      Gi5/17(D)   Gi5/18(D)   Gi5/19(D)
                                 Gi5/20(D)
17     Po17(SD)        LACP      Gi5/21(D)   Gi5/22(D)   Gi5/23(D)
                                 Gi5/24(D)

DVSN-CORE#


Niet alle switches staan aan bij testen, dus daarom zijn er wat down

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • plizz
  • Registratie: Juni 2009
  • Laatst online: 19:47
chr1st14n schreef op woensdag 06 april 2016 @ 12:49:
[...]


code:
1
2
DVSN-CORE#show etherchannel load-balance
Source XOR Destination IP address


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
DVSN-CORE#show etherchannel summary
Flags:  D - down        P - in port-channel
        I - stand-alone s - suspended
        R - Layer3      S - Layer2
        U - in use      f - failed to allocate aggregator
        u - unsuitable for bundling
        w - waiting to be aggregated
        d - default port


Number of channel-groups in use: 17
Number of aggregators:           17

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------
1      Po1(SU)         LACP      Gi2/17(P)   Gi2/18(P)   Gi2/19(P)
                                 Gi2/20(P)
2      Po2(SU)         LACP      Gi2/21(P)   Gi2/22(P)   Gi2/23(P)
                                 Gi2/24(P)
3      Po3(SU)         LACP      Gi3/1(P)    Gi3/2(P)    Gi3/3(P)
                                 Gi3/4(P)    Gi3/5(P)    Gi3/6(P)
                                 Gi3/7(P)    Gi3/8(P)
4      Po4(SD)          -
5      Po5(SD)          -
6      Po6(SU)         LACP      Gi4/1(P)    Gi4/2(P)    Gi4/3(P)
                                 Gi4/4(P)
7      Po7(SU)         LACP      Gi4/5(P)    Gi4/6(P)    Gi4/7(P)
                                 Gi4/8(P)
8      Po8(SU)         LACP      Gi4/9(P)    Gi4/10(P)   Gi4/11(P)
                                 Gi4/12(P)
9      Po9(SU)         LACP      Gi4/13(P)   Gi4/14(P)   Gi4/15(P)
                                 Gi4/16(P)
10     Po10(SD)        LACP      Gi4/17(D)   Gi4/18(D)   Gi4/19(D)
                                 Gi4/20(D)
11     Po11(SD)        LACP      Gi4/21(D)   Gi4/22(D)   Gi4/23(D)
                                 Gi4/24(D)
12     Po12(SD)        LACP      Gi5/1(D)    Gi5/2(D)    Gi5/3(D)
                                 Gi5/4(D)
13     Po13(SD)        LACP      Gi5/5(D)    Gi5/6(D)    Gi5/7(D)
                                 Gi5/8(D)
14     Po14(SD)        LACP      Gi5/9(D)    Gi5/10(D)   Gi5/11(D)
                                 Gi5/12(D)
15     Po15(SD)        LACP      Gi5/13(D)   Gi5/14(D)   Gi5/15(D)
                                 Gi5/16(D)
16     Po16(SD)        LACP      Gi5/17(D)   Gi5/18(D)   Gi5/19(D)
                                 Gi5/20(D)
17     Po17(SD)        LACP      Gi5/21(D)   Gi5/22(D)   Gi5/23(D)
                                 Gi5/24(D)

DVSN-CORE#


Niet alle switches staan aan bij testen, dus daarom zijn er wat down
Ik zie dat niet alle port-channel poorten up zijn. Dat kan een mogelijk oorzaak zijn.

  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
plizz schreef op woensdag 06 april 2016 @ 12:55:
[...]


Ik zie dat niet alle port-channel poorten up zijn. Dat kan een mogelijk oorzaak zijn.
Sommige zijn down omdat ik voor het testen niet alle tafel switches eraan heb hangen. maar zou hij omdat ik op andere port-channels niks aangesloten heb het bij andere port-channels niet goed doen?

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • Vorkie
  • Registratie: September 2001
  • Niet online
Probeer eens:

port-channel load-balance src-mac

of

port-channel load-balance src-ip

  • plizz
  • Registratie: Juni 2009
  • Laatst online: 19:47
Ik denk dat je beter port-channel load-balance src-mac kan gebruiken gezien de je routering uit heb gezet.

  • PerfectPC
  • Registratie: Februari 2004
  • Laatst online: 27-10 16:54
http://www.cisco.com/c/en...hannel/12023-4.html#cat4k

In de veronderstelling dat de connectie opgezet wordt naar de nginx server kan je inderdaad best src-mac hashing gebruiken. Mocht je nog andere caching servers hebben en users met lacp toelaten op de tafel switches kan je eventueel src-dst-mac of src-dst-port gebruiken.

Zorg er wel voor dat je een gelijkaardig hashing algoritme aan de andere (HP) kant gebruikt mocht je upload traffiek ook willen kunnen spreiden.

  • Yariva
  • Registratie: November 2012
  • Laatst online: 15:04

Yariva

Moderator Internet & Netwerken

Power to the people!

Load balancing method zou in dit geval geen reet moeten uitmaken. Je XOR't je sIP en dIP. Mochten alle systemen naar het zelfde IP toe gaan dan nog zou het verkeer van de clienten niet over het zelfde lijntje moeten gaan gezien het source IP niet gelijk is.

TS is op de hoogte dat een LACP trunk de maximale snelheid kan halen van 1GB/s, maar wel 4 systemen tegelijk kan behandelen op 1GB/s? De snelheid over de trunk zal nooit meer dan 1GB/s zijn.

[edit]
Tuurlijk zou de load balance method niets moeten uitmaken, echter sluit ik mij wel aan bij de rest dat de beste methode source mac is :)
[EDIT2] Na een hele correcte opmerking van Cyber, misschien beter om te sorteren op XOR smac en dmac. Beste van beide ;)

[ Voor 23% gewijzigd door Yariva op 06-04-2016 13:47 ]

Mensen zijn gelijk, maar sommige zijn gelijker dan andere | Humans need not apply


  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
Yariva schreef op woensdag 06 april 2016 @ 13:19:
Load balancing method zou in dit geval geen reet moeten uitmaken. Je XOR't je sIP en dIP. Mochten alle systemen naar het zelfde IP toe gaan dan nog zou het verkeer van de clienten niet over het zelfde lijntje moeten gaan gezien het source IP niet gelijk is.

TS is op de hoogte dat een LACP trunk de maximale snelheid kan halen van 1GB/s, maar wel 4 systemen tegelijk kan behandelen op 1GB/s? De snelheid over de trunk zal nooit meer dan 1GB/s zijn.
Het gaat mij er inderdaad om dat meerdere clients tegelijkertijd 1Gbit zouden kunnen gebruiken.

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • Yariva
  • Registratie: November 2012
  • Laatst online: 15:04

Yariva

Moderator Internet & Netwerken

Power to the people!

Je zou voor de lol is op een switchport ipv active hem gewoon aan kunnen zetten

channel-group 1 mode on.

Wat zie je bij #debug lacp all?

Mensen zijn gelijk, maar sommige zijn gelijker dan andere | Humans need not apply


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Aannemelijkerwijs wordt de file gedownload *van* de nginx machine. Dan is de src mac dus altijd hetzelfde. Load balancen op dst mac.

Hoewel je nu src xor dst doet dus dat mag geen probleem veroorzaken.

[ Voor 21% gewijzigd door CyBeR op 06-04-2016 13:44 ]

All my posts are provided as-is. They come with NO WARRANTY at all.


  • Yariva
  • Registratie: November 2012
  • Laatst online: 15:04

Yariva

Moderator Internet & Netwerken

Power to the people!

CyBeR schreef op woensdag 06 april 2016 @ 13:42:
Aannemelijkerwijs wordt de file gedownload *van* de nginx machine. Dan is de src mac dus altijd hetzelfde. Load balancen op dst mac.

Hoewel je nu src xor dst doet dus dat mag geen probleem veroorzaken.
Laatste zin maakt het verhaal idd compleet. Zou een xor van sMAC en dMAC eigenlijk niet nog beter moeten zijn (voor lokaal verkeer)?

Mensen zijn gelijk, maar sommige zijn gelijker dan andere | Humans need not apply


  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
Yariva schreef op woensdag 06 april 2016 @ 13:40:
Je zou voor de lol is op een switchport ipv active hem gewoon aan kunnen zetten

channel-group 1 mode on.

Wat zie je bij #debug lacp all?
Met die on/active/passive heb ik ook al verschillende dingen geprobeerd, maar hier zit ook geen verschil in.


Vraag mij niet hoe of wat, maar heb inmiddels al de nieuwste firmware (15.0(2)SG10) erop zitten _/-\o_ (aanhouder wint).

Maar ook hier nu nog niet direct verschil, hij blijft het zelfde doen. kan nu wel wat meer dingen instellen waar lacp naar voren komt

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • GAITii
  • Registratie: December 2008
  • Laatst online: 28-11 13:59
Gaat het wel goed wanneer Cisco 802.1q -> HP 802.3ad gaat?
Omdat je zegt dat wanneer je een HP in de plaats van de Cisco plaatst, en deze qua poorten hetzelfde configureert als de Cisco dat het dan wel goed gaat?

Iemand die dit kan bevestigen?

Steam: GAITii | PSN: GAITii | 3DS FC: 0361-7487-5231


  • Yariva
  • Registratie: November 2012
  • Laatst online: 15:04

Yariva

Moderator Internet & Netwerken

Power to the people!

Trunken zou toch niets moeten uit maken in dit geval. Het gaat al fout in de port channel.

Over fouten gesproken, misschien ook leuk om even

spanning-tree etherchannel guard misconfig

aan te zetten. Wanneer er poorten niet goed geconfigureerd zijn worden ze in de err disable state gezet en krijg je een mooie error melding. Naast

#debug etherchannel

Zou je dit een boel informatie moeten geven.

Mensen zijn gelijk, maar sommige zijn gelijker dan andere | Humans need not apply


  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
Yariva schreef op woensdag 06 april 2016 @ 15:00:
Trunken zou toch niets moeten uit maken in dit geval. Het gaat al fout in de port channel.

Over fouten gesproken, misschien ook leuk om even

spanning-tree etherchannel guard misconfig

aan te zetten. Wanneer er poorten niet goed geconfigureerd zijn worden ze in de err disable state gezet en krijg je een mooie error melding. Naast

#debug etherchannel

Zou je dit een boel informatie moeten geven.
Die eerste heb ik aangezet, maar ik zie nog geen poorten uitgaan of iets dergelijks.

Die debug aangezet en ik kijk op de console en die flipt heb gewoon... zal eens ff kijken of ik er daar wat wijzer van kan worden

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Debug met veel output kun je beter naar ssh laten gaan ja :P

All my posts are provided as-is. They come with NO WARRANTY at all.


  • Paul
  • Registratie: September 2000
  • Laatst online: 19:18
Je loopt natuurlijk ook het risico dat je nu net test met 4 clients waarvan de IP-adressen (bij de huidige hash) net 4 nummertjes uit elkaar lopen en de load balancer ze netjes allemaal precies volgens opdracht over hetzelfde touwtje stuurt :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 17:12
Denk er ook aan dat deze module, de X4424-GB-RJ45 ook z'n beperkingen heeft : namelijk niet alle poorten kan je samen aan gigabit snelheden laten blazen. Reken op 4:1 oversubscriptie.
De bandbreedte van deze kaart naar de backplane toe heeft een verdeling van 6 "groepjes" van 4-poorten met dan 1Gbits/sec doorvoer voor elke van deze poortgroepjes.

Dus ik zou eerlijk gezegd niet teveel wakker liggen van fancy verdelings-algorithmes op de Portchannel-interfaces...

ASIC 1 --> Gi1/1 - Gi1/4
ASIC 2 --> Gi1/5 - Gi1/8
ASIC 3 --> Gi1/9 - Gi1/12
ASIC 4 --> Gi1/13 - Gi1/16
ASIC 5 --> Gi1/17 - Gi1/20
ASIC 6 --> Gi1/21 - Gi1/24

En elke ASIC heeft dus 1Gbits uplink van de linecard naar backplane, dus elke 4poorten "delen" 1Gbits bandbreedte. Je zou kunnen opteren om je Portchannels zo te maken dat je verdeling doet over de verschillende ASIC's van verschillende linecards ?
Dus telkens 1 poort uit 1 groep erin stoppen.
Je hebt daar precies toch 5 x 24 ports tot je beschikking ? Zoveel volk dat er verwacht is ?

[ Voor 6% gewijzigd door jvanhambelgium op 07-04-2016 06:47 ]


  • DavidK
  • Registratie: Oktober 2001
  • Laatst online: 19-12-2022
Een etherchannel is, zoals eenieder bekend, een bundeling van meerdere fysieke poorten. In bovenstaand geval betreft het een bundeling van een viertal 1Gb interfaces. Sessie's over deze gebundelde interfaces worden verdeeld middels een hashing methode. En daar zit hem het 'probleem' van een etherchannel:

Doordat bijvoorbeeld sessie 1 interface 1 krijgt toegewezen, krijgt hij de beschikbare bandbreedte van deze interface, zijnde 1Gb. Wanneer sessie 2, middels de hashing methode, interface 2 krijgt toegewezen, krijgt deze sessie ook 1Gb. Tijdens deze twee sessies wordt je etherchannel met maximaal 2Gb belast. Maar per sessie heb je maar 1Gb tot je beschikking.

Wanneer je je datatransfer over verschillende sessie's kan verspreiden, dan kun je je theoretische snelheid van 4Gb verkrijgen.

Doordat je straks meerdere gebruikers krijgt op je switch, krijg je meerdere sessies welke op basis van bijvoorbeeld src-dst mac-adres worden verdeeld over de beschikbare fysieke interfaces. Maar drukt een sessie een 1Gb interface dicht en een andere sessie krijgt de dezelfde interface toegewezen (er wordt namelijk niet gekeken naar de load op de fysieke interface), dan gaat het elkaar bijten.

Wil je meer dan 1Gb kunnen verstouwen in je netwerk, moet je upgraden naar 10Gb...

  • chr1st14n
  • Registratie: December 2007
  • Laatst online: 26-11 13:04
DavidK schreef op maandag 11 april 2016 @ 13:16:
Een etherchannel is, zoals eenieder bekend, een bundeling van meerdere fysieke poorten. In bovenstaand geval betreft het een bundeling van een viertal 1Gb interfaces. Sessie's over deze gebundelde interfaces worden verdeeld middels een hashing methode. En daar zit hem het 'probleem' van een etherchannel:

Doordat bijvoorbeeld sessie 1 interface 1 krijgt toegewezen, krijgt hij de beschikbare bandbreedte van deze interface, zijnde 1Gb. Wanneer sessie 2, middels de hashing methode, interface 2 krijgt toegewezen, krijgt deze sessie ook 1Gb. Tijdens deze twee sessies wordt je etherchannel met maximaal 2Gb belast. Maar per sessie heb je maar 1Gb tot je beschikking.

Wanneer je je datatransfer over verschillende sessie's kan verspreiden, dan kun je je theoretische snelheid van 4Gb verkrijgen.

Doordat je straks meerdere gebruikers krijgt op je switch, krijg je meerdere sessies welke op basis van bijvoorbeeld src-dst mac-adres worden verdeeld over de beschikbare fysieke interfaces. Maar drukt een sessie een 1Gb interface dicht en een andere sessie krijgt de dezelfde interface toegewezen (er wordt namelijk niet gekeken naar de load op de fysieke interface), dan gaat het elkaar bijten.

Wil je meer dan 1Gb kunnen verstouwen in je netwerk, moet je upgraden naar 10Gb...
Wij hadden de hoop dat wij voor die 4x1gbit groep in theorie 4x een persoon van 1gbit zouden kunnen voorzien.

Voor nu hebben we de cisco er maar even tussenuit gehaald en een 3com 2952 switch ertussen gezet. Nu gaat het wel goed en is de snelheid zoals we verwacht hadden.

10gbit hebben we wel aan gedacht, maar dat is voor nu niet te betalen voor ons :(

[Core i7-8700K] [Scythe Mugen 5 Black RGB] [ASUS Z-370-GAMING] [4x8gb DDR4-3000] [INNO3D RTX5070 Ti] [250GB Samsung 960 EVO] [3x512TB Crucial MX500 (R0)] [Corsair 350D]


  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 17:12
DavidK schreef op maandag 11 april 2016 @ 13:16:
Wanneer je je datatransfer over verschillende sessie's kan verspreiden, dan kun je je theoretische snelheid van 4Gb verkrijgen.
Helaas, niet met deze oudere 24port kaart in de Cisco. De connectie naar de backplane *IS* maar 1Gbit/sec voor groepjes van 4 poorten volgens de info die ik aangaf.
Als je net de Etherchannel maakt op deze poorten hang je eraan voor de moeite, los van de problematiek van sessies & load-balancing die je aangeeft.

Enige optie op > 1Gbits is sowieso de etherchannel/portchannel te bouwen gespreid over verschillende modules.

Maar TS zijn probleem lijkt al opgelost ;-)

  • DavidK
  • Registratie: Oktober 2001
  • Laatst online: 19-12-2022
jvanhambelgium schreef op maandag 11 april 2016 @ 14:12:
[...]


Helaas, niet met deze oudere 24port kaart in de Cisco. De connectie naar de backplane *IS* maar 1Gbit/sec voor groepjes van 4 poorten volgens de info die ik aangaf.
Als je net de Etherchannel maakt op deze poorten hang je eraan voor de moeite, los van de problematiek van sessies & load-balancing die je aangeeft.

Enige optie op > 1Gbits is sowieso de etherchannel/portchannel te bouwen gespreid over verschillende modules.

Maar TS zijn probleem lijkt al opgelost ;-)
Zie het woordje "kun je" en "theoretisch" in mijn reactie ;)
Het was ook een meer een algemeen verhaal en ik had geen moeite genomen om naar de specificaties van het ietwat oude Cisco blade te kijken. Mea culpa :)
Pagina: 1