如何在内核级别诊断Linux LACP问题?

前端之家收集整理的这篇文章主要介绍了如何在内核级别诊断Linux LACP问题?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
是否存在 Linux绑定驱动程序的基础管理或诊断接口,以确定内部发生了什么?

多年来,我一直在Linux机箱和Cisco交换机之间使用链路聚合.在设置新的方框时,我会定期遇到死胡同,而Linux方面根本不响应Cisco LACP数据包.我一丝不苟地遵循每个服务器的严格说明,但结果似乎有所不同.

无论绑定是包含一个从属还是八个,tcpdump都会在所有绑定接口上显示来自交换机的LACP数据包,并且不会传回任何数据包.实际上,没有数据包传输周期.接口的rx_packets显示相当大的流量,但tx_packets为零.关于MII或绑定的日志中没有任何有趣的内容.甚至没有任何错误.

目前,我正在处理一个只有两个nics的盒子.目前,我只有eth1在债券中.显然,这是一种退化配置.债券中eth0和eth1的情况不会发生变化;当网络堆栈完全关闭时,它使得使用机器变得更加困难.如有必要,我可以为两个nics重新配置它并通过管理界面(DRAC),但我无法通过这种方式从盒子中复制粘贴.

一些预赛:

>我测试了网络,端口和电缆.当接口未绑定时,一切都按预期工作.
>我重新启动并确认模块正确加载.
>无论是否有vlan中继,我都试过这个;它应该无关紧要,因为链接聚合发生在堆栈中的该点之下.
>交换机有工作,集群通道组到其他Linux机箱.即使Linux机器的发行版,内核和硬件不是这样,配置也或多或少相同.

这是今天下载的debian 8.6.

  1. Linux Box 3.16.0-4-amd64 #1 SMP Debian 3.16.36-1+deb8u2
  2. (2016-10-19) x86_64 GNU/Linux

缩写配置:

  1. iface eth1 inet manual
  2.  
  3. auto bond0
  4. iface bond0 inet manual
  5. slaves eth1
  6. address 10.10.10.10
  7. netmask 255.255.255.0
  8. bond_mode 4
  9. bond_miimon 100
  10. bond_downdelay 200
  11. bond_updelay 200
  12. bond_xmit_hash_policy layer2+3
  13. bond_lacp_rate slow

一些州:

  1. # cat /proc/net/bonding/bond0
  2. Ethernet Channel Bonding Driver: v3.7.1 (April 27,2011)
  3.  
  4. Bonding Mode: IEEE 802.3ad Dynamic link aggregation
  5. Transmit Hash Policy: layer2+3 (2)
  6. MII Status: down
  7. MII Polling Interval (ms): 100
  8. Up Delay (ms): 200
  9. Down Delay (ms): 200
  10.  
  11. 802.3ad info
  12. LACP rate: slow
  13. Min links: 0
  14. Aggregator selection policy (ad_select): stable
  15. bond bond0 has no active aggregator
  16.  
  17. Slave Interface: eth1
  18. MII Status: down
  19. Speed: 1000 Mbps
  20. Duplex: full
  21. Link Failure Count: 0
  22. Permanent HW addr: 78:2b:cb:5a:2b:3e
  23. Aggregator ID: N/A
  24. Slave queue ID: 0

来自交换机的eth1上的入站tcpdump记录:

  1. 22:18:47.333928 M 44:ad:d9:6c:8d:8f ethertype Slow Protocols (0x8809),length 126: LACPv1,length 110
  2. Actor Information TLV (0x01),length 20
  3. System 44:ad:d9:6c:8d:80,System Priority 32768,Key 12,Port 272,Port Priority 32768
  4. State Flags [Activity,Aggregation,Synchronization,Collecting,Distributing,Default]
  5. Partner Information TLV (0x02),length 20
  6. System 00:00:00:00:00:00,System Priority 0,Key 0,Port 0,Port Priority 0
  7. State Flags [none]
  8. Collector Information TLV (0x03),length 16
  9. Max Delay 32768
  10. Terminator TLV (0x00),length 0

思科方面:

  1. interface GigabitEthernet1/0/15
  2. switchport trunk allowed vlan 100,101,102
  3. switchport mode trunk
  4. channel-group 12 mode active
  5. end
  6. interface Port-channel12
  7. switchport trunk allowed vlan 100,102
  8. switchport mode trunk
  9. end

最终,交换机放弃,接口进入“独立”模式.如果通道组中有两个接口,则它们都进入独立模式.

  1. #show etherchannel 12 sum
  2. Flags: I - stand-alone
  3.  
  4. Group Port-channel Protocol Ports
  5. ------+-------------+-----------+-----------
  6. 12 Po12(SD) LACP Gi1/0/15(I)

我一整天都在绞尽脑汁.我已经多次撕掉并重建思科配置.如果不是tcpdump显示LACPv1数据包到达Linux接口,我会看看思科方面.唉,Linux内核似乎完全忽略了数据包.我的下一站是内核源代码,最糟糕的情况是用于诊断的自定义内核.希望有人能够深入了解绑定驱动程序以及使其正确运行的原因.

解决方法

尝试在linux端设置下一个LACP属性
  1. bond_downdelay 0
  2. bond_updelay 0
  3. bond_xmit_hash_policy layer3+4
  4. bond_lacp_rate fast

在思科方面,重新创建端口通道并启用LACP的快速速率:

  1. port-channel load-balance src-dst-ip
  2. interface GigabitEthernet1/0/15
  3. lacp rate fast
  4. exit

如果Cisco交换机无法快速设置lacp速率,那么您需要更新其IOS.

思科与LACP的合作比Linux差.如果您的Cisco交换机可以,请设置端口通道负载平衡src-dst-port.

猜你在找的Linux相关文章