2台AC主备方式部署,支持自动配置同步吗?
如果不支持,该用哪种方式部署
(0)
您好,配置不支持手动同步
可以配置license 共享 配置双主模式
双主
<AC1> system-view
[AC1] wlan ap-license-group
[AC1-wlan-ap-license-group] local ip 1.1.1.1
[AC1-wlan-ap-license-group] member ip 1.1.1.2
[AC1-wlan-ap-license-group] ap-license-synchronization enable
<AC2> system-view [AC2] wlan ap-license-group
[AC2-wlan-ap-license-group] local ip 1.1.1.2
[AC2-wlan-ap-license-group] member ip 1.1.1.2
[AC2-wlan-ap-license-group] ap-license-synchronization enable
结果: AC1有效512+128lic AC2有效128+512lic
V7平台一般通过IRF实现V7license共享,即两台AC公用一套license,那么部分场景下IRF组网并不适用,下面介绍一种非IRFlicense共享的特性,版本D106SP1701后支持。 配置方法类似漫游组,为了和组网方式对应多了“主备”的概念,主上注册license开启该特性后能同步到备,备不同步给主
(0)
暂无评论
每台物理设备上运行Comware容器,物理集群共享容器集群的控制链路。请参照以下步骤来配置云集群:进行网络规划,确定以下项目:
· 明确云集群规模,即包含几台成员设备。当前最多包含两台设备。
· 确认物理设备的硬件兼容性和限制。
· 确定设备在物理集群中的角色,参与物理集群管理的设备需要配置为manager-worker,不参与物理集群管理的设备需要配置为worker。
· 完成云集群的相关配置(例如成员编号、成员IP、成员角色、要加入的集群成员IP和绑定集群端口等)。
· 连接集群物理线缆。
· 激活集群配置,使得设备能够直接组建成集群。
(1) 进入系统视图。
system-view
(2) 配置容器集群域编号。
cloud-cluster service-cluster domain domain-id
缺省情况下,容器集群的域编号为0。
修改容器的容器集群域编号,会导致容器离开当前容器集群,不再属于当前容器集群,不能和当前容器集群中的设备交互容器集群控制报文。
(3) 进入cloud-cluster member配置视图。
cloud-cluster member member-id
缺省情况下,设备的成员编号为1。
(4) 配置设备的成员IP地址。
member-ip ipv4-addr mask-length
缺省情况下,设备未配置成员IP地址。
(5) 在Manager中的Follower设备上配置集群IP地址。
join-cluster ip ipv4-address
缺省情况下,未配置集群IP地址。
您需要在Manager中的Follower设备上配置本命令,用于搭建物理集群。Leader设备上无需配置本命令,未配置本命令的Manager会以Leader身份自动加入自己组建的集群。
(6) 将集群链路和物理接口绑定。
cluster-link [ control | data ] bind interface interface-type interface-number
缺省情况下,未将集群链路和物理接口绑定。
(7) 退回到系统视图。
quit
(8) 修改设备的成员编号。
cloud-cluster member member-id renumber new-member-id
缺省情况下,设备的成员编号为1。
一个云集群中,只有一台设备可以使用缺省的成员编号,其它设备均需修改成员编号后,才能加入云集群。且修改成员编号时,请确保该编号在云集群中唯一。
(9) 确认激活物理集群配置。
cloud-cluster configuration active
如需修改设备的成员编号,则执行该命令,设备会自动重启。在重启过程中,设备会给出交互信息,请选择保存配置并重启设备。设备重启后,新的成员编号才能生效。
如果需要将设备从物理集群A迁移到物理集群B,请先让设备离开物理集群A。设备离开物理集群时,会删除当前物理集群的配置、数据和拓扑(容器相关配置不会被删除),自己作为Leader,单机组建集群,本设备上的容器会作为Master。然后再通过配置,将设备加入物理集群B。否则,设备上有物理集群A的数据,将无法加入物理集群B。
(1) 拆除集群链路,将设备从物理集群A中移除。
(2) 登录设备。
(3) 进入系统视图。
system-view
(4) 进入cloud-cluster member配置视图。
cloud-cluster member member-id
缺省情况下,设备的成员编号为1。
(5) 离开集群。
undo join-cluster
(6) 退回到系统视图。
quit
(7) 确认激活物理集群配置。
cloud-cluster configuration active
执行本命令设备是否会自动重启,请以设备上的提示信息为准。
(1) 进入系统视图。
system-view
(2) 进入cloud-cluster member配置视图。
cloud-cluster member member-id
缺省情况下,设备的成员编号为1。
(3) 配置设备的成员IP地址。(需要和物理集群B中设备的成员IP地址处于同一网段)
member-ip ipv4-addr mask-length
(4) 配置集群IP地址为物理集群B中Leader的成员IP地址。
join-cluster ip ipv4-address
(5) 退回到系统视图。
quit
(6) (可选)修改设备的成员编号。(如果设备当前的成员编号在物理集群B中未被使用,则可以不修改设备的成员编号,跳过该步骤)
cloud-cluster member member-id renumber new-member-id
(7) 完成集群链路的连接,将设备接入物理集群B。
(8) 确认激活物理集群配置。
cloud-cluster configuration active
执行本命令设备是否会自动重启,请以设备上的提示信息为准。
在任意视图下执行以下命令,可以:
(1) 显示物理集群的相关信息。
display cloud-cluster [ member member-id ] [ verbose ]
(2) 显示集群的配置信息。
display cloud-cluster configuration [ member member-id ]
容器集群的MAD检测域编号只用于MAD检测,云集群中的所有成员设备都共用这个域编号。容器在接收到MAD检测报文后,会比较报文中的MAD检测域编号和本机配置的编号,只有当两者相同时,才会进行处理。同一云集群中的容器,MAD检测域编号必须配置为相同值,不同的云集群需要使用不同的MAD检测域编号进行区分,否则会导致MAD检测功能异常。
可以使用cloud-cluster service-cluster mad domain、mad enable命令来修改容器集群的MAD检测域编号,最新的配置将会生效。请按照网络规划配置容器集群的MAD检测域编号,不应随意修改。
· 容器集群域编号配置指导
在LACP MAD检测组网中,如果中间设备本身也是一个容器集群系统,则必须通过配置确保其容器集群的MAD检测域编号与被检测的容器集群系统不同,否则可能造成检测异常。
· 被MAD关闭的接口恢复指导
如果接口因为多Active冲突被关闭,则只能等容器集群恢复到正常工作状态后,接口才能自动被激活,不允许通过undo shutdown命令来激活,否则可能引起配置冲突,导致故障在网络中扩大。
(1) 进入系统视图。
system-view
(2) 配置容器集群的MAD检测域编号。
cloud-cluster service-cluster mad domain domain-id
缺省情况下,容器集群的MAD检测域编号为0。
修改容器的容器集群域编号,会导致容器离开当前容器集群,不再属于当前容器集群,不能和当前容器集群中的设备交互容器集群控制报文。
(3) 创建并进入聚合接口视图。请选择其中一项进行配置。
¡ 进入二层聚合接口视图。
interface bridge-aggregation interface-number
¡ 进入三层聚合接口视图。
interface route-aggregation interface-number
中间设备上也需要进行此项配置。
(4) 配置聚合组工作在动态聚合模式下。
link-aggregation mode dynamic
缺省情况下,聚合组工作在静态聚合模式下。
中间设备上也需要进行此项配置。
(5) 开启LACP MAD检测功能。
mad enable
缺省情况下,LACP MAD检测功能处于关闭状态。
(6) 退回系统视图。
quit
(7) 进入以太网接口视图。
interface interface-type interface-number
(8) 将以太网接口加入聚合组。
port link-aggregation group group-id
中间设备上也需要进行此项配置。
容器集群系统在进行多Active处理的时候,缺省情况下,会关闭Recovery状态容器集群上除了系统保留接口外的所有业务接口。系统保留接口包括:
· 容器集群物理端口
· 用户配置的保留聚合接口的成员接口
如果接口有特殊用途需要保持up状态(比如Telnet登录接口等),则用户可以通过命令行将这些接口配置为保留接口。
使用VLAN接口进行远程登录时,需要将该VLAN接口及其对应的以太网端口都配置为保留接口。但如果容器集群分裂,该VLAN接口在网络中可能会导致IP地址冲突。
(1) 进入系统视图。
system-view
(2) 配置保留接口,当容器进入Recovery状态时,该接口不会被关闭。
mad exclude interface interface-type interface-number
缺省情况下,容器进入Recovery状态时会自动关闭本容器上除了系统保留接口以外的所有业务接口。
当MAD故障恢复时,处于Recovery状态的设备重启后重新加入容器集群,被MAD关闭的接口会自动恢复到正常状态。
如果在MAD故障恢复前,正常工作状态的容器集群出现故障,可以通过配置本功能先启用Recovery状态的容器集群。配置本功能后,Recovery状态的容器集群中被MAD关闭的接口会恢复到正常状态,保证业务尽量少受影响。
(1) 进入系统视图。
system-view
(2) 将容器集群从Recovery状态恢复到正常工作状态。
mad restore
开启启动文件自动加载功能后,当新加入集群的设备和主设备的软件版本不同时,新加入的设备会自动同步主设备的软件版本,再重新加入集群。
如果未开启启动文件自动加载功能,且新加入集群的设备和主设备的软件版本不同时,新设备可以加入集群。但是因为版本差异,会影响集群中部分功能在新设备上的运行。所以,请保持启动文件自动加载功能处于开启状态。
为了能够成功进行自动加载,请确保从设备存储介质上有足够的空闲空间用于存放集群的启动文件。如果从设备存储介质的空闲空间不足,集群将自动删除从设备的当前启动文件并再次尝试加载。如果空闲空间仍然不足,该从设备将无法进行自动加载。此时,需要管理员重启设备,进入从设备的BootWare菜单,删除一些不重要的文件后,再将从设备重新加入集群。
(1) 进入系统视图。
system-view
(2) 开启启动文件自动加载功能。
cloud-cluster auto-update enable
缺省情况下,启动文件的自动加载功能处于开启状态。
桥MAC是设备作为网桥与外界通信时使用的MAC地址。一些二层协议(例如LACP)会使用桥MAC标识不同设备,所以网络上的桥设备必须具有唯一的桥MAC。如果网络中存在桥MAC相同的设备,则会引起桥MAC冲突,从而导致通信故障。容器集群作为一台虚拟设备与外界通信,也具有唯一的桥MAC,称为容器集群桥MAC。
通常情况下,容器集群使用主容器的桥MAC作为容器集群桥MAC,我们将这台主设备称为容器集群桥MAC拥有者。如果容器集群桥MAC拥有者离开,网络管理员可以配置容器集群继续使用原桥MAC还是使用当前主容器的桥MAC做容器集群的桥MAC。
容器集群合并时,桥MAC的处理方式如下:
· 容器集群合并时,如果有成员容器的桥MAC相同,则它们不能合并为一个容器集群。容器集群的桥MAC不受此限制,只要成员容器自身桥MAC唯一即可。
· 两个容器集群合并后,容器集群的桥MAC为竞选获胜的一方的桥MAC。
桥MAC冲突会引起通信故障,桥MAC变化可能导致流量短时间中断,请谨慎配置。
当容器集群中存在跨成员容器的聚合链路时,请不要使用undo cloud-cluster service-cluster mac-address persistent命令配置容器集群的桥MAC立即变化,否则可能会导致流量中断。
(1) 进入系统视图。
system-view
(2) 配置容器集群的桥MAC保留时间。请选择其中一项进行配置。
¡ 配置容器集群的桥MAC永久保留。
cloud-cluster service-cluster mac-address persistent always
¡ 配置容器集群的桥MAC保留时间为固定值6分钟。
cloud-cluster service-cluster mac-address persistent timer
¡ 配置容器集群的桥MAC不保留,立即变化。
undo cloud-cluster service-cluster mac-address persistent
本命令的缺省情况为容器集群的桥MAC地址永久保留。
配置容器集群桥MAC保留时间为固定值6分钟适用于容器集群桥MAC拥有者短时间内离开又回到容器集群的情况(例如设备重启或者链路临时故障),可以减少不必要的桥MAC切换导致的流量中断。
该功能用于避免因集群链路绑定的接口在短时间内频繁改变接口物理状态,导致物理集群不停的分裂、合并,给系统带来额外的开销。
容器集群链路有两种物理连接状态:up和down。如果容器集群链路状态从down变为up,链路层会立即向系统报告,不受本命令的影响。配置本命令后,如果在集群链路故障的延迟上报时间内,集群接口状态从up变成down,则不产生接口状态变化事件,系统将不感知接口状态变化。经过集群链路故障的延迟上报时间后:
· 如果接口状态仍然为down,才产生接口状态变化事件,系统会进行对应的处理。
· 如果接口状态恢复到up,则系统无需处理。设备将不会感知延迟上报时间内集群链路的状态震荡。
如果某些协议配置的超时时间小于延迟上报时间(例如CFD、OSPF等),该协议将超时。此时请适当调整容器集群链路down的延迟上报时间或者该协议的超时时间,使容器集群链路down的延迟上报时间小于协议超时时间,保证协议状态不会发生不必要的切换。
下列情况下,建议将容器集群链路down延迟上报时间配置为0:
· 对主备倒换速度和容器集群链路切换速度要求较高时。
· 在执行关闭容器集群物理端口或重启容器集群成员设备的操作之前,请首先将容器集群链路down延迟上报时间配置为0,待操作完成后再将其恢复为之前的值。
(1) 进入系统视图。
system-view
(2) 配置容器集群链路down延迟上报时间。
cloud-cluster link-delay interval
本命令缺省值为0,代表立即上报。
云集群合并自动重启功能可以对以下合并方式生效:
· 云集群连接故障恢复后引起的合并。
· 待合并的多个云集群上已经存在合并所需的云集群端口绑定配置,在配置激活时触发的云集群自动重启合并。
两个云集群合并时,竞选失败方需要重启才能加入获胜方云集群。
· 如果没有开启云集群合并自动重启功能,则合并过程中,需要网络管理员登录失败方云集群,并根据系统提示手工重启失败方云集群,失败方云集群才能加入获胜方云集群,完成云集群的合并。
· 开启云集群合并自动重启功能后,竞选失败方云集群会自动重启后加入获胜方云集群,完成云集群的合并。
要使云集群合并自动重启功能正常运行,请在待合并的多台云集群上都开启云集群合并自动重启功能。
(1) 进入系统视图。
system-view
(2) 开启云集群合并自动重启功能。
cloud-cluster auto-merge enable
缺省情况下,云集群合并自动重启功能处于开启状态。即两个云集群合并时,竞选失败方会自动重启加入获胜方云集群。
当容器集群主容器(Master)需要升级、更换硬件或者故障场景下,可以执行本功能将主容器主动从容器集群中隔离,以便容器集群能第一时间选举新的主容器来接替原主容器的工作,原容器集群会分裂成两个容器集群。
执行本功能设备会进行以下处理:
(1) 云集群自动将主容器的管理以太网接口临时设置为MAD保留接口。
(2) 通知集群从容器选举新的主容器。
(3) 关闭设备上除MAD保留接口外其它所有接口(接口状态会变成MAD down)。MAD保留接口为管理以太网接口和mad exclude interface命令配置的接口。
(4) 将被隔离的主容器的状态设置为Recovery。
在被手工隔离的容器上执行display cloud-cluster service-cluster container命令,其显示信息中的Status字段取值为MAD down。
· 配置该功能将导致容器集群分裂,容器集群的主容器被隔离,请确保主容器上的链路有备份链路,以免隔离主容器,影响用户通信。
· 如果云集群中只有一台设备,执行该命令会导致云集群无法工作。
(1) 进入系统视图。
system-view
(2) 进入管理以太网接口视图。
Interface m-gigabitethernet interface-number
(3) 为容器集群中每个容器中的管理以太网接口配置IP地址。
ip address ip-address { mask-length | mask } cluster-member member-id
缺省情况下,未配置接口IP地址。
配置本命令后,只有Master的管理以太网接口配置IP地址生效,其它成员设备的管理以太网接口配置IP地址不生效。网络管理员使用Master的管理以太网接口配置IP地址可以登录容器集群,对容器集群进行配置和维护。
(4) 退回系统视图。
quit
(5) (可选)配置保留接口,当容器进入Recovery状态时,该接口不会被关闭。
mad exclude interface interface-type interface-number
缺省情况下,容器进入Recovery状态时会自动关闭本容器上除了系统保留接口以外的所有业务接口。
(6) 手工隔离容器集群的Master。
cloud-cluster service-cluster isolate master
通过管理以太网接口或者Console接口登录被隔离的Master,手动执行reboot命令可以将被隔离的主容器恢复到正常工作状态。
重启后,该容器会以从容器的身份加入其它容器中。
开启该功能后,在保障AP及客户端接入的同时,设备会加速完成新的成员设备加入云集群和云集群成员角色切换过程。
(1) 进入系统视图。
system-view
(2) 开启云集群WLAN接入优化功能。
cloudcluster-optimize wlan reliable-access
缺省情况下,云集群WLAN接入优化功能处于开启状态。
在任意视图下执行以下命令,可显示容器集群内容器的相关信息。
display cloud-cluster service-cluster container [ container-id ] [ verbose ]
display wlan ap statistics cloud-cluster switch-over-state命令用来显示主备倒换过程中标记位的状态,以判断当前所处的主备倒换逻辑处理流程。
ComwareV9容器对外提供人机交互接口,例如命令行、SNMP、NETCONF、CWMP、Web等登录方式。登录ComwareV9容器集群可访问容器集群和物理集群,查看云集群系统的所有配置和信息(包括物理集群和容器集群)。
管理员可通过以下方式登录容器集群的命令行界面:
· 本地登录:通过任意成员容器的AUX或者Console口登录。
· 远程登录:给任意成员容器的任意三层接口配置IP地址,并且路由可达,就可以通过Telnet、SNMP等方式进行远程登录。
不管使用哪种方式登录容器集群,实际上登录的都是主容器。主容器是容器集群的配置和控制中心,在主容器上配置后,主容器会将相关配置同步给从容器,以便保证主容器和从容器配置的一致性。
网络管理员关于物理集群的配置,主容器会通过本设备上的云平台Agent组件传递给物理集群的Leader,Leader再将指定传递给所有的Manager和Worker,最终实现对整个云集群的管理。
如图1-26所示,AC 1与AC 2通过直连链路建立云集群,云集群与Core 1和Core 2之间建立动态聚合链路,用于LACP MAD检测和业务报文转发。
# 配置前提:Core1和Core2为稳定运行的Comware V7 IRF系统。
# 创建二层聚合接口1,并配置该聚合接口对应的聚合组工作在动态聚合模式下。
<Core> system-view
[Core] interface bridge-aggregation 1
[Core-Bridge-Aggregation1] link-aggregation mode dynamic
[Core-Bridge-Aggregation1] quit
# 将端口Ten-GigabitEthernet1/0/2加入到聚合组1中。
[Core] interface ten-gigabitethernet 1/0/2
[Core-Ten-GigabitEthernet1/0/2] port link-aggregation group 1
[Core-Ten-GigabitEthernet1/0/2] quit
# 将端口Ten-GigabitEthernet2/0/2加入到聚合组1中。
[Core] interface ten-gigabitethernet 2/0/2
[Core-Ten-GigabitEthernet2/0/2] port link-aggregation group 1
[Core-Ten-GigabitEthernet2/0/2] quit
(1) 设备在云集群中使用缺省的成员编号1,无需修改。
(2) 配置设备在云集群中的成员IP。
云集群中成员设备的成员IP地址必须同网段,需要提前规划好该网段(本文以192.168.10.x/24举例)。
<AC1> system-view
[AC1] cloud-cluster member 1
[AC1-ccluster-member-1]
[AC1-ccluster-member-1] member-ip 192.168.10.10 24
(3) 指定设备要加入的集群IP地址。(设备作为Leader时,本步骤可省略)
[AC1-ccluster-member-1] join-cluster ip 192.168.10.10
(4) 绑定云集群端口。其中,Gigabitethernet1/0/2上部署控制通道,Ten-GigabitEthernet1/3/9上部署数据通道。
[AC1-ccluster-member-1] cluster-link control bind interface gigabitethernet 1/0/2
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[AC1-ccluster-member-1] cluster-link data bind interface ten-gigabitethernet 1/3/9
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[AC1-ccluster-member-1] quit
(5) 激活云集群配置。
[AC1] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 1
member-ip 192.168.10.10/24
join-cluster ip 192.168.10.10
role manager-worker
rcluster-link control bind interface GigabitEthernet 1/0/2
rcluster-link data bind interface Ten-GigabitEthernet 1/3/9
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):test.cfg
Validating file. Please wait...
Saved the current configuration to mainboard device successfully
AC 1重启后,云集群配置生效。
(1) 将设备的成员IP地址配置为192.168.10.11/24。(AC1与AC2的成员IP地址必须同网段)
<AC2> system-view
[AC2] cloud-cluster member 1
[AC2-ccluster-member-1] member-ip 192.168.10.11 24
(2) 指定设备要加入的集群IP地址为AC 1的成员IP地址。
[AC2-ccluster-member-1] join-cluster ip 192.168.10.10
(3) 绑定云集群端口。其中,Gigabitethernet1/0/2上部署控制通道,Ten-GigabitEthernet1/3/9上部署数据通道。
[AC2-ccluster-member-1] cluster-link control bind interface GigabitEthernet 1/0/2
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[AC2-ccluster-member-1] cluster-link data bind interface Ten-GigabitEthernet 1/3/9
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[AC2-ccluster-member-1] quit
(4) 将设备在云集群中的成员编号修改为2。(每台设备的成员编号必须在云集群内唯一)
[AC2] cloud-cluster member 1 renumber 2
This command will take effect after the cloud cluster configuration is activated. The command might result in configuration change or loss when it takes effect. Continue? [Y/N]: y
(5) 激活云集群配置。
[AC2] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 2
member-ip 192.168.10.11/24
join-cluster ip 192.168.10.10
role manager-worker
cluster-link control bind interface GigabitEthernet 2/0/2
cluster-link data bind interface Ten-GigabitEthernet 2/3/9
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):test.cfg
Validating file. Please wait...
Saved the current configuration to mainboard device successfully
AC 2重启后,云集群配置生效,会以Follower的身份加入物理集群。容器集群中,AC 1上的容器为主容器,AC 2上的容器为从容器。
# 显示物理集群的相关信息,可以看到物理集群中有两台设备,AC 1是Leader,AC 2是Follower。
<AC1> display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
1 Leader 192.168.10.10 online 100
2 Follower 192.168.10.11 online 0
Worker list:
Member ID State Heartbeat(ms) Joined at
1 online 100 2023-02-12 06:13:28
2 online 200 2023-02-12 06:13:28
# 显示容器集群的相关信息,可以看到AC 1上的容器为Master,AC 2上的容器是Standby。
<AC1> display cloud-cluster service-cluster container
Container ID Slot ID Member ID Role Status
*+1 1 1 Master Online
2 2 2 Standby Online
---------------------------------------------------------------
* indicates the device is the master.
+ indicates the device through which the user logs in.
# 创建二层聚合接口1,并配置该聚合接口对应的聚合组工作在动态聚合模式下。
<AC1> system-view
[AC1] interface bridge-aggregation 1
[AC1-Bridge-Aggregation1] link-aggregation mode dynamic
# 开启LACP MAD检测功能。
[AC1-Bridge-Aggregation1] mad enable
You need to assign a domain ID (range: 0-4294967295)
[Current domain ID is: 0]: 1
The assigned domain ID is: 1
[AC1-Bridge-Aggregation1] quit
# 将端口Ten-GigabitEthernet1/3/10加入到聚合组1中。
[AC1] interface ten-gigabitethernet 1/3/10
[AC1-Ten-GigabitEthernet1/3/10] port link-aggregation group 1
[AC1-Ten-GigabitEthernet1/3/10] quit
# 将端口Ten-GigabitEthernet2/3/10加入到聚合组1中。
[AC1] interface ten-gigabitethernet 2/3/10
[AC1-Ten-GigabitEthernet2/3/10] port link-aggregation group 1
[AC1-Ten-GigabitEthernet2/3/10] quit
如图1-27所示,AC 1与AC 2已经形成云集群,如果AC 1设备故障,需要使用同型号新设备替换AC 1。
(1) 将AC 2从云集群中隔离,并激活AC 2的物理集群配置(执行该步骤的目的是让AC 2删除本地拓扑中AC 1的信息,否则,新设备以AC 1的成员编号加入时,物理集群会认为编号冲突,导致新设备无法加入物理集群)。
(2) 登录新设备,将新设备的Join IP配置为AC 2的成员IP。
(3) 将AC 1从组网中移除。
(4) 将AC 1的配置拷贝到新设备上,或者在新设备上重新执行一遍AC 1的配置。
(5) 将新设备接入组网。
# 将AC 2从云集群中隔离。
<AC2> system-view
[AC2] cloud-cluster member 2
[AC2-ccluster-member-2] undo join-cluster
[AC2-ccluster-member-2] quit
[AC2] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 2
member-ip 192.168.10.11/16
role manager-worker
cluster-link bind interface GigabitEthernet 2/0/1
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:Y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):
flash:/startup.cfg exists, overwrite? [Y/N]:y
Validating file. Please wait...
# 在AC 2上查看物理集群的信息,可以看到AC 1的信息已经被清除。
[AC2] display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
2 Leader 192.168.10.11 online 0
Worker list:
Member ID State Heartbeat(ms) Joined at
2 online 0 2023-02-25 22:49:52
将AC 1的配置文件上传到新设备上,在新设备上执行cloud-cluster configuration active命令,激活云集群相关配置。如果不能上传配置文件,请参照AC 1的配置来配置新设备(新设备要加入的集群IP地址需要修改为AC 2的成员IP)
(1) AC 1的成员编号为1,所以新设备无需配置成员编号。
(2) 配置设备在云集群中的成员IP。
云集群中成员设备的成员IP地址必须同网段,需要提前规划好该网段(本文以192.168.10.x/24举例)。
<NewAC> system-view
[NewAC] cloud-cluster member 1
[NewAC-ccluster-member-1]
[NewAC-ccluster-member-1] member-ip 192.168.10.10 24
(3) 指定设备要加入的集群IP地址为AC 2的成员IP。
[NewAC-ccluster-member-1] join-cluster ip 192.168.10.11
(4) 绑定云集群端口。其中,Gigabitethernet1/0/2上部署控制通道,Ten-GigabitEthernet1/3/9上部署数据通道。
[NewAC-ccluster-member-1] cluster-link control bind interface gigabitethernet 1/0/2
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[NewAC-ccluster-member-1] cluster-link data bind interface ten-gigabitethernet 1/3/9
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[NewAC-ccluster-member-1] quit
(5) 激活云集群配置。
[NewAC] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 3 service-timeout 5
cloud-cluster member 1
member-ip 192.168.10.10/24
join-cluster ip 192.168.10.11
role manager-worker
cluster-link control bind interface GigabitEthernet 1/0/2
cluster-link data bind interface Ten-GigabitEthernet 1/3/9
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):test.cfg
Rebooting....
# 显示物理集群的相关信息,可以看到物理集群中有两台设备,AC 2是Leader,新设备是Follower。
<AC2> display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
1 Follower 192.168.10.10 online 0
2 Leader 192.168.10.11 online 100
Worker list:
Member ID State Heartbeat(ms) Joined at
1 online 100 2023-02-12 06:13:28
2 online 200 2023-02-12 06:13:28
# 显示容器集群的相关信息,可以看到AC 2上的容器为Master,新设备上的容器是Standby。
<AC2> display cloud-cluster service-cluster container
Container ID Slot ID Member ID Role Status
1 1 1 Standby Online
*+2 2 2 Master Online
---------------------------------------------------------------
* indicates the device is the master.
+ indicates the device through which the user logs in.
如图1-28所示,AC 1与AC 2已经形成云集群,控制通道和数据通道均部署在GigabitEthernet1/0/1和GigabitEthernet2/0/1上。如果GigabitEthernet1/0/1接口故障,需要部署其它集群链路。
# 集群接口异常导致物理集群分裂,登录AC 1,可看到AC 1和AC 2均为Follower。
<AC1> display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
1 Follower 1.1.2.11 offline --
2 Follower 1.1.2.12 offline --
Worker list:
Member ID State Heartbeat(ms) Joined at
1 offline -- --
2 offline -- --
# 显示容器集群内所有容器的详细信息。
<Sysname> display cloud-cluster service-cluster container verbose
Service-cluster name: System
Domain ID : 1
Cluster Bridge MAC: 00e0-fc00-1001
Container ID : 1
Member ID : 1
Slot ID : 1
Health : Healthy(0)
Bridge MAC : 00e0-fc00-1001
CPU MAC : 00f0-fc00-1001
Control links: GigabitEthernet1/0/1(DOWN)
Data links : GigabitEthernet1/0/1(DOWN)
Cluster connection : Unreachable
Status : Offline
Self hello timeout (ms) : 4000
Master hello timeout (ms): 4000
Container ID : 2
Member ID : 2
Slot ID : 2
Health : Normal(0)
Bridge MAC : 00e0-fc00-1002
CPU MAC : 00f0-fc00-1002
Ctrl port : GigabitEthernet2/0/1(DOWN)
Data port : GigabitEthernet2/0/1(DOWN)
Cluster connection : Unreachable
Status : Offline
Self hello timeout (ms) : 4000
Master hello timeout (ms): 4000
# 绑定新的集群接口GigabitEthernet1/0/2。
<AC1> system-view
[AC1] cloud-cluster member 1
[AC1-ccluster-member-1] cluster-link bind interface gigabitethernet 1/0/2
The system will shut down and then bring up the interface after activation the c
loud cluster configuration. Continue? [Y/N]: y
[AC1-ccluster-member-1] quit
# 激活云集群配置。
[AC1] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 1
member-ip 192.168.10.10/24
join-cluster ip 192.168.10.10
role manager-worker
cluster-link bind interface GigabitEthernet 1/0/2
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):
flash:/startup.cfg exists, overwrite? [Y/N]:y
Validating file. Please wait...
Saved the current configuration to mainboard device successfully.
# 将AC 1的GigabitEthernet1/0/2和AC 2的GigabitEthernet2/0/2连接。
# 绑定新集群接口GigabitEthernet2/0/2。
<AC2> system-view
[AC2] cloud-cluster member 2
[AC1-ccluster-member-2] cluster-link bind interface GigabitEthernet 2/0/2
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[AC1-ccluster-member-1] quit
# 激活云集群配置。
[AC1] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 2
member-ip 192.168.10.11/24
join-cluster ip 192.168.10.10
role manager-worker
cluster-link bind interface GigabitEthernet 2/0/2
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):
flash:/startup.cfg exists, overwrite? [Y/N]:y
Validating file. Please wait...
Saved the current configuration to mainboard device successfully.
AC 2重启后集群恢复。
# 显示物理集群的相关信息,可以看到物理集群中有两台设备,AC 1是Leader,AC 2是Follower。
<AC1> display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
1 Leader 192.168.10.10 online 100
2 Follower 192.168.10.11 online 0
Worker list:
Member ID State Heartbeat(ms) Joined at
1 online 100 2023-02-12 06:13:28
2 online 200 2023-02-12 06:13:28
# 显示容器集群的相关信息,可以看到AC 1上的容器为Master,AC 2上的容器是Standby。
<AC1> display cloud-cluster service-cluster container
Container ID Slot ID Member ID Role Status
*+1 1 1 Master Online
2 2 2 Standby Online
---------------------------------------------------------------
* indicates the device is the master.
+ indicates the device through which the user logs in.
如图1-29所示,Device A与Device B已经形成云集群A,云集群B中只有设备Device C,Device C的成员IP地址为192.168.20.20/24。现因为组网改造,需要将Device B迁移到云集群B。
图1-29 将物理设备从云集群A迁移到云集群B的配置组网图
# 登录云集群A,让Device B离开从云集群A。
<Sysname> system-view
[Sysname] cloud-cluster member 2
[Sysname-ccluster-member-2] undo join-cluster
[Sysname-ccluster-member-2] quit
[Sysname] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 2
member-ip 192.168.10.11 24
role manager-worker
cluster-link control bind interface GigabitEthernet 2/0/1
cluster-link data bind interface Ten-GigabitEthernet 2/0/2
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):test.cfg
Validating file. Please wait...
Saved the current configuration to mainboard device successfully.
# Device B重启后,会单机运行。
# 将Device B的接口Gigabitethernet2/0/1连接到Device C的接口Gigabitethernet1/0/1,Device B的接口Gigabitethernet2/0/2连接到Device C的接口Gigabitethernet1/0/2,将Device B移入云集群B。
# 配置设备在云集群B中的成员IP(必须和Device C的成员IP地址192.168.20.20/24处于同一网段)。
<Sysname> system-view
[Sysname] cloud-cluster member 2
[Sysname-ccluster-member-2] member-ip 192.168.20.21 24
# 指定设备要加入的集群IP地址为Device C的成员IP地址192.168.20.20/24。
[Sysname-ccluster-member-1] join-cluster ip 192.168.20.20
# 绑定云集群端口。其中,Gigabitethernet2/0/1上部署控制通道,Gigabitethernet2/0/2上部署数据通道。
[Sysname-ccluster-member-1] cluster-link control bind interface gigabitethernet 2/0/1
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[Sysname-ccluster-member-1] cluster-link data bind interface ten-gigabitethernet 2/0/2
The system will shut down and then bring up the interface after activation the cloud cluster configuration. Continue? [Y/N]: y
[Sysname-ccluster-member-1] quit
# 激活云集群配置。
[Sysname] cloud-cluster configuration active
New cluster configuration:
cloud-cluster service-cluster domain 0
cloud-cluster hello cloud-timeout 7 service-timeout 10
cloud-cluster member 2
member-ip 192.168.20.21/24
join-cluster ip 192.168.20.20
role manager-worker
cluster-link control bind interface GigabitEthernet 2/0/1
cluster-link data bind interface GigabitEthernet 2/0/2
The system will activate and save the configuration, and it might do a restart. Continue? [Y/N]:y
The current configuration will be written to the device. Are you sure? [Y/N]:y
Please input the file name(*.cfg)[flash:/startup.cfg]
(To leave the existing filename unchanged, press the enter key):test.cfg
Validating file. Please wait...
Saved the current configuration to mainboard device successfully.
Device B重启后,云集群配置生效,Device B会自动加入云集群B。
# 显示物理集群的相关信息,可以看到物理集群中有两台设备,Device C是Leader,Device B是Follower。
<Sysname> display cloud-cluster
Manager list:
Member ID Role Member IP State Heartbeat(ms)
1 Leader 192.168.20.20 online 100
2 Follower 192.168.20.21 online 0
Worker list:
Member ID State Heartbeat(ms) Joined at
1 online 100 2023-02-12 06:13:28
2 online 200 2023-02-12 06:13:28
# 显示容器集群的相关信息,可以看到Device C上的容器为Master,Device B上的容器是Standby。
<Sysname> display cloud-cluster service-cluster container
Container ID Slot ID Member ID Role Status
*+1 1 1 Master Online
2 2 2 Standby Online
---------------------------------------------------------------
* indicates the device is the master.
+ indicates the device through which the user logs in.
(0)
暂无评论
亲~登录后才可以操作哦!
确定你的邮箱还未认证,请认证邮箱或绑定手机后进行当前操作
举报
×
侵犯我的权益
×
侵犯了我企业的权益
×
抄袭了我的内容
×
原文链接或出处
诽谤我
×
对根叔社区有害的内容
×
不规范转载
×
举报说明
暂无评论