不涉及
现场反馈新上的业务中,部分存在10ms+的转发时延,未影响业务。
根据现场多次的抓包和测试,最终明确了确实是经过设备2框slot 0槽位的时候,就会产生10ms+的时延:
在上联设备将9台服务器下一跳都指定为S12504备框slot0板卡的下一跳,服务器出现时延问题率为100%:
然后现场就保留其它3个ecmp,只删除2框slot 0这个下一跳后,问题消失:
进一步查看设备信息,发现2框slot 0 上送cpu的报文超了线速:
====debug rxtx softcar show chassis 2 slot 0====
ID Type RcvPps PpsMax Rcv_All DisPkt_All Pps Dyn Swi Hash ACLmax
126 ROUTE_TO_CPU_MASK 606 1002 185242450 20800232 200 S On SMAC 8
The last discarded packet of ROUTE_TO_CPU_MASK :
-----------------------------------------------------
0000 d4 61 fe 69 c6 01 d4 af f7 39 26 c3 81 00 0f ff
0010 08 00 45 00 00 3c 00 00 40 00 3d 06 f7 09 0a c2
0020 21 01 0a a1 10 4f 1a 0a c0 06 f4 91 c6 f4 57 a1
0030 58 76 a0 12 71 20 c3 de 00 00 02 04 05 b4 04 02
按理设备硬件转发,不应该这么多上送cpu的报文,怀疑是老版本parity error导致底层寄存器跳变软转了,进一步查看2框slot 0底层寄存器值,发现跳变为0了,确认为老版本已知问题:
[FAB_H3C_S12508X-probe]bcm ch 2 s 0 c 0 g/IHP_MACT_MANAGEMENT_UNIT_CONFIGURATION_REGISTER
IHP_MACT_MANAGEMENT_UNIT_CONFIGURATION_REGISTER.IHP0[0x2a3]=0x3800: <MACT_MNGMNT_UNIT_ENABLE=0,MACT_MNGMNT_UNIT_ACTIVE=0,FIELD_8_13=0x38>
路由黑洞走软转 ,是R1152H08解决的已知问题:
201912090347
问题现象:业务板部分端口不学习MAC。
问题产生条件:业务板问题端口所在交换芯片的LEM硬件表项产生parity error。
说明:无。
可以通过手工命令修复(该修复不影响业务,不会比错误状态下有更坏的影响):
[probe]bcm ch 2 s 0 c 0 m/IHP_MACT_MANAGEMENT_UNIT_CONFIGURATION_REGISTER/MACT_
综上,老版本已知问题导致报文上送cpu,产生了转发时延。
1.规避措施:手工命令行修复
2.手工修复后,打上R1152H08补丁彻底解决此类问题。
该案例暂时没有网友评论
✖
案例意见反馈
亲~登录后才可以操作哦!
确定你的邮箱还未认证,请认证邮箱或绑定手机后进行当前操作