设备:S7506E-V
版本: 6708P09
某局点在开启本框优先的转发的情况下,会导致下联20g聚合口打满现象。于是取消了本框转发优先。
但出现了irf 链路hash不均匀现象,在配置3组堆叠口的时候,流量不均衡出现且其中一个端口打满,导致业务马赛克 。在此基础上,又进行了扩容。
目前是4组堆叠口,hash不均匀问题仍在,业务高峰期会存在端口打满。尝试调整irf均衡模式,调整过源ip,目的IP,源mac,目的mac都不理想。
现场配置:
irf-port load-sharing mode destination-ip source-ip
undo link-aggregation load-sharing mode local-first
irf-port 1/2
port group interface Ten-GigabitEthernet1/2/0/8 mode normal
port group interface Ten-GigabitEthernet1/2/0/9 mode normal
port group interface Ten-GigabitEthernet1/2/0/14 mode normal
port group interface Ten-GigabitEthernet1/3/0/1 mode normal
#
irf-port 2/1
port group interface Ten-GigabitEthernet2/3/0/2 mode normal
port group interface Ten-GigabitEthernet2/4/0/8 mode normal
port group interface Ten-GigabitEthernet2/4/0/9 mode normal
port group interface Ten-GigabitEthernet2/4/0/14 mode normal
#
Ten-GigabitEthernet1/2/0/8
近300秒输入速率高(占带宽62%)
Ten-GigabitEthernet1/2/0/9
近300秒输出速率高(占带宽54%)
Ten-GigabitEthernet1/2/0/14
近300秒输出速率高(占带宽53%)
Ten-GigabitEthernet1/3/0/1
峰值输入占用带宽高(99%)
Ten-GigabitEthernet2/3/0/2
峰值输出占用带宽高(99%)
Ten-GigabitEthernet2/4/0/8
近300秒输出速率高(占带宽62%)
Ten-GigabitEthernet2/4/0/9
近300秒输入速率高(占带宽54%)
Ten-GigabitEthernet2/4/0/14
近300秒输入速率高(占带宽53%)
<TG.IPQAM.100>dis counters rate outbound interface Ten-GigabitEthernet
Interface Total(pkts/sec) Broadcast(pkts/sec) Multicast(pkts/sec)
XGE1/2/0/8 149497 -- --
XGE1/2/0/9 470473 -- --
XGE1/2/0/14 453255 -- --
XGE1/3/0/1 329238 -- --
XGE2/3/0/2 231753 -- --
XGE2/4/0/8 380047 -- --
XGE2/4/0/9 72602 -- --
XGE2/4/0/14 122513 -- --
Overflow: more than 14 decimal digits.
--: not supported.
<TG.IPQAM.100>dis counters rate inbound interface Ten-GigabitEthernet
Interface Total(pkts/sec) Broadcast(pkts/sec) Multicast(pkts/sec)
XGE1/2/0/8 379907 -- --
XGE1/2/0/9 72586 -- --
XGE1/2/0/14 122815 -- --
XGE1/3/0/1 230893 -- --
XGE2/3/0/2 328733 -- --
XGE2/4/0/8 149404 -- --
XGE2/4/0/9 470042 -- --
XGE2/4/0/14 452253 -- --
发现S75E的堆叠口跨芯片跨板不支持硬件HASH,这种情况跳源目的IP HASH因子是无效的,是软件指定固定端口的HASH方式,必然会有不均匀的现象。
补充:S75ES10500产品堆叠端口聚合的流量HASH算法
当堆叠环境中的堆叠口存在多个堆叠端口成员时,需要设置堆叠端口成员聚合,保证流量向其它框转发时能够在多个堆叠端口成员中实现流量HASH。但是由于堆叠端口是HG类型端口,与外部端口类型并不同,转发芯片的HG端口硬件上是不支持跨芯片聚合的。只有在同一块单板的同一个交换芯片上配置了多个堆叠端口成员时,才支持真正的HG聚合,可以实现流量HASH。与面板用户端口聚合一样的HASH方式,此时的HASH方式是基于入端口号进行HASH。
对于堆叠端口成员配置在不同交换芯片上时,跨芯片的堆叠端口成员聚合HASH只能通过软件模拟来实现的。软件实现则无法像硬件那样按流量特征HASH,只能按照设计的规则,指定设备内部的流量走向。
软件设计的流量指导原则是:
(1)对于堆叠单板(存在ACTIVE状态的堆叠端口成员单板),跨框转发流量直接通过本板的IRF端口向其它框转发(本地转发优先)。如果堆叠单板配置有多个ACTIVE的IRF端口成员,并且单板上有多个转发芯片,则每个转发芯片都通过本芯片的ACTIVE堆叠端口成员向其它框转发。
(2)对于非堆叠单板(不存在ACTIVE堆叠端口成员的单板),跨框转发流量都必须先通过交换网板转发到堆叠单板,再通过堆叠单板的IRF端口成员向其它框转发。这种跨框流量在堆叠端口成员中的HASH是通过交换网板模拟实现,具体实现算法如下:
在非堆叠单板的流量直接向上行HG转发,将交换网板和所有非堆叠单板的互联端口组合在一起,虚拟为一块非堆叠单板;将交换网板和堆叠单板的互联端口组合在一起,虚拟为一块堆叠单板;设置虚拟非堆叠单板到虚拟堆叠单板的跨框单播转发。根据目的MOD(目的MOD用于标识接口板,不同的单板MOD值不同,可以认为就是流量转发的目的端口所在的单板),计算本框到目的框经过哪个IRF端口是最短的路径,然后流量通过此IRF端口向目的框转发。
以上说的都是针对的单播报文,而对于广播性质报文(未知单播、未知组播、广播)的转发则不存在HASH问题:
所有业务单板的广播性质流量都只通过一个上行HG端口向Mster主控板转发(即使互联HG有多个也只使用一个,也不会向Slave主控板广播)
当广播性质流量向其它框转发时,软件在堆叠端口成员中选择一个成员作为主端口。广播性质流量只允许通过这个主端口向其它框转发,而其它堆叠端口成员不允许广播发送。
建议调整流量入端口去尽量均匀。
该案例暂时没有网友评论
✖
案例意见反馈
亲~登录后才可以操作哦!
确定你的邮箱还未认证,请认证邮箱或绑定手机后进行当前操作