CloudFabric云数据中心网解决方案-运营维护设计指南_第1页
CloudFabric云数据中心网解决方案-运营维护设计指南_第2页
CloudFabric云数据中心网解决方案-运营维护设计指南_第3页
CloudFabric云数据中心网解决方案-运营维护设计指南_第4页
CloudFabric云数据中心网解决方案-运营维护设计指南_第5页
已阅读5页,还剩125页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

CloudFabric云数据中心网解决方案

设计指南(运营维护)

目录

1数据中心网络运维概述........................................................1

1.1数据中心网络智能运维背景与挑战.............................................................1

1.2数据中心SDN网络运维需求与目标...........................................................3

1.2.1SDN数据中心Underlay网络可靠性..........................................................4

1.2.2服务器批量上线效率......................................................................5

1.2.3业务变更网络布放效果预测................................................................5

1.2.4既有业务网络可达性校验..................................................................5

1.2.5故障快速发现定位及恢复..................................................................5

1.3数据中心网络运维设计原则..................................................................6

2DAY-0规格化设计-SDN数据中心Underlay网络设计..........................7

2.1整体拓扑设计..............................................................................7

2.2路由协议设计.............................................................................10

2.3扩展性设计...............................................................................14

2.4可靠性设计...............................................................................15

2.4.1可靠性设计一般原则......................................................................15

2.4.2BorderLeaf节点可靠性....................................................................16

2.4.3Spine节点可靠性.........................................................................16

2.4.4Leaf节点可靠性..........................................................................18

2.4.5NGFW节点可靠性.......................................................................24

2.4.6vSwitch节点可靠性(受限商用)..........................................................28

3DAY-0网络初始化-ZTP开局...............................................31

4DAY-0意图验证-Underlay网络校验.........................................32

5DAY-1业务方案&变更-SDN网络业务发放前校验方案.........................36

5.1网络业务编排(设计态)...................................................................37

5.2网络资源仿真校验.........................................................................38

5.3网络连通性校验...........................................................................38

5.4设备配置变更内容预览.....................................................................39

6DAY-2-例行维护............................................................40

6.1单路径探测...............................................................................40

6.2多路径探测................................................................................51

7DAY-2CloudFabric智能运维.................................................59

7.1CloudFabric智能运维方案总体架构...........................................................59

7.1.1iMasterNCE-Fabric控制器架构.............................................................60

7.1.2iMasterNCE-Fabriclnsight架构.............................................................63

7.2SDN数据中心网络故障智能运维方案及功能介绍...............................................65

7.2.1网络故障智能运维能力全景................................................................65

7.2.2网关故障智能运维处理流程介绍............................................................74

7.2.3网络故障智能运维之网络监控能力..........................................................80

7.2.4网络故障智能运维之故障发现.............................................................82

7.2.5网络故障智能运维之问题定位定界..........................................................83

7.2.6网络故障智能运维之故障恢复/隔离.........................................................86

7.2.7数据中心典型故障智能运维case示例.......................................................87

Case!:交换机FIB表项跳变导致会话异常..................................................87

Case2:光模块故障导致链路频繁闪断.....................................................88

727.3Case3:ARP攻击.......................................................................89

7.3使用Fabricinsight进行网络例行巡检.........................................................89

7.4数据中心iMasterNCE-Fabriclnsight智能运维网络部署..........................................90

7.5iMasterNCE-Fabriclnsight和控制器的资源要求.................................................90

7.6方案约束(本节对外发布时不展示).........................................................91

7.6.1设备的能力约束..........................................................................92

8DAY-2配置回滚............................................................93

8.1全网回滚.................................................................................93

8.2租户回滚.................................................................................95

9DAY-N网络扩容-SDN数据中心服务器自动化批量上线......................98

10DAY-N网络扩容-交换机扩容............................................102

11DAY-N设备更换-替换交换机............................................105

11.1替换设备(非ZTP设备).................................................................105

11.2替换设备(ZTP设备)...................................................................116

12DAY-N设备更换-替换端口...............................................124

A参考图片..................................................................127

1数据中心网络运维概述

数据中心作为信息与信息系统的物理载体,主要用于与IT相关的主机、网络、存储等

设备和资源的存放、运营及管理,只有运维好一个数据中心,才能发挥数据中心的作

用,使之能更好的为业务部门提供强大的支撑能力。

本文档主要针对数据中心的网络运维进行了阐述,其出发点在于使用户能对SDN时代

的数据中心网络实现精确管控维扩,,使SDN网络的管理水平和服务质量得到持续提

升,此外对传统数据中心网络的建设有具有参考价值。

1.1数据中心网络智能运维背景与挑战

1.2数据中心SDN网络运维需求与目标

1.3数据中心网络运维设计原则

1.1数据中心网络智能运维背景与挑战

本节主要介绍数据中心业务连续性及容灾标准。

近来年,无论是金融、电信、互联网等行业的大型企业,还是全国各个科技园区、各

级政府都在如火如荼地进行数据中心建立,数据中心的稳定运行关系着国家信息安全

和社会稳定,为了防范灾难和风险,保障业务连续性,国内外监管部门颁布了一系列

业务连续性及容灾的标准。

国内外数据中心规范对业务连续性要求

ANSI/TIA-942-B2017《数据中心电信基础设施标准》主要是根据数据中心基础设施

的“可用性(Availability)"、"稳定性(Stability)"和"安全性(Security)”分

为四个等级:TierI,TierII,TierIII,TierIV。该标准所说的数据中心可以是政府或企

业自有产权的自有数据中心,也可以是运营商用于租赁服务的公用数据中心。该标准

描述了各类数据中心或计算机房中,对通信基础设施的起码的、最低的要求。

ANSI/TIA定义可信要求可用性指标/每年允许宕机时

-942-B标间

TieriBasic基本系统没有冗余的基本的数据中心可用性99.671%、年平均故

障时间28.8小时

TierIIRedundant组件级冗余基础设施可用性99.741%>年平均故

Component障时间22.7小时

冗余系统

TierIIIConcurrently可并行维护级机房基础设施,电可用性99.982%、年平均故

Maintainable源等主用1+备用1,多上行障时间1.6小时

并行维护

TierIVFaultTolerant容错容错级机房基础设施,所有设施可用性99.995%、年平均故

系统支持容错(上行链路、存储、制障时间0.4小时

冷、电源等1+1主用)

ANSI/TIA-942-B突出对数据中心可用性/故障中断时间提出了要求:其中,TierIII可

用性99.982%、年平均故障时间1.6小时;TierIV可用性99.995%、年平均故障时间

0.4小时。

国内标准《数据中心设计规范》(GB50174)在满足中国数据中心行业发展的前提

下,吸取国外数据中心设计的优点,结合中国数据中心行业的具体情况,增加补充具

有数据中心行业特点的相关条文规定。主要围绕数据中心的可靠性、可用性、安全、

节能环保等方面提出进一步明确要求。《数据中心设计规范》根据数据中心的使用性

质、数据丢失或网络中断在经济或社会上造成的损失或影响程度确定所属级别,将数

据中心划分为分为A(容错型)、B(冗余型M)、C(基本型)三个级别。

GB5级别可信要求行业遵从与TIA-942-B级

0174别对应关系

A级容错1.应在一次意外事故后或单系统设备维最高金融行业、军TierIV

系统护或检修时仍能保证电子信息系统正等级事部门、交

TierIII

常运行通、电信、国

2.当两个或两个以上地处不同区域、同家信息中心

城或者异地同时数据中心建设,要求

互为备份,主要适用于云计算数据中

心、互联网数据中心等

B级冗余基础设施在冗余能力范围内,不应因设居中科研院所、高TierII

系统备故障而导致电子信息系统运行中断校、政府办公

C级在基础设施正常运行情况下,应保证电最低-TierI

子信息系统运行

行业数据中心规范对业务连续性要求

•金融行业

金融数据中心一般都有本地的数据冗余保护或容灾建设,最主流的灾备技术是两

地三中心建设,确保业务可靠可用性高,遵从《数据中心设计规范》A级标准。

中国银监会发布《商业银行业务连续性监管指引》【2011】(104号),标志着国家

和行业监管部门对业务连续性的重视程度已经提升到了一个新的高度。

表1-1《商业银行业务连续性监管指引》对运营中断事件等级定义

事故等级定级定级标准监管处置

I级事故特别重大运营中断单机构单省中断6小时上报国务院

事件单机构多省中断3小时

多机构多省中断3小时

II级事故重大运营中断事件单机构单省中断3小时上报银监会

单机构多省中断半小时

多机构多省中断半小时

III级事较大运营中断事件单机构单省中断半小时上报银监会

•电信行业

运营商遵从《数据中心设计规范》A级标准,业务可用性>99.995%(年平均故障

时间<0.4小时),处于国际标准Tier4范围。

•互联网行业

«YD/T2441-2013互联网数据中心技术及分级分类标准》规定了互联网数据中心

IDC在可靠性、绿色节能和安全性等三个方面的分级分类的技术要求,明确定义

了IDC可靠性方面的等级为R1~R3,其中R1为最低等级,R3为最高等级:R3

业务可用性》99.95%,R2业务可用性299.9%,R1业务可用性299.5%。

OTT可用性要求:OTT业务可用性基本要求99.95%(年平均故障时间<4.38小

时),可靠性为R3级别,介于国际标准TierII和TierIII之间。

BAT可用性要求:百度业务可用性要求>99.99%(年平均故障时间<0.88小时),

阿里>99.99%(年平均故障时间<0.88小时),可靠性为R3级别,介于国际标准

Tier3和Tier4之间;腾讯>99.9%(年平均故障时间<8.76小时),可靠性为R2级

别,介于国际标准Tier2和Tier3之间。

1.2数据中心SDN网络运维需求与目标

在数据中心云化背景下,为了提示数据中心业务上线效率,数据中心网络业务发放也

趋于采用SDN解决方案,随之而来的对网络运维效率也要求向智能化、自动化方向转

变,以适应数据中心业务高效、复杂多变的业务需求。

在此背景及目标的驱动下,华为CloudFabric为数据中心SDN网络提供了智能化的运

维解决方案。

华为CloudFabric运维解决方案的愿景:建设自动化、可视化、智能化的数据中心,并

最终实现无人值守。

图1-1CloudFabric运维解决方案的愿景

AS-IS:传统运维TO-BE:无人值守

网络健康监控系统

(Underlay&Overtay)

人工报障人工定位人工修复Q㈡Q

基于AI的故障定位弓I擎基于AI的故障修复引擎

愿景

根据国内外数据中心设计标准业务可用性要求,结合客户对业务SLA等级越来越高的

要求,华为CloudFabric运维解决方案制定了SDN场景下的运维目标:1分钟故障发

现,3分钟故障定位,5分钟故障恢复。

版本如下:

1.V100R019C10:支持75+故障场景,实现1分钟自动发现、3分钟故障定位、5分

钟故障修复。

2.V100R020C00:管控析融合统一3个入口:业务发放入口、统一监控入口、故障

处理入口。

业务发放入口:包括Underlay/Overlay业务自动化部署、意图验证引擎实现配

置变更无人值守。

-统一监控入口:包括物理网络、逻辑网络、应用网络资源分布情况、健康度

状态。

-故障处理入口:以故障快速恢复为主线,对故障处理生命周期全过程实现连

贯性处理。

1.2.1SDN数据中心Underlay网络可靠性

随着数据中心业务云化的开展,用户对数据中心网络的可靠性等有了更高的要求,业

务云化也带来了资源池化的需求,相应的要求网络能够满足在更大范围上的资源池化

部署,同时,在互联网+的大形势下用户要求能够实现业务的快速部署,从传统的周、

月部署周期,提升到天、小时级的部署周期,甚至让业务实现分钟级上线,但这些高

效提升的前提是要求数据中心Underlay网络能够适应SDN业务的发放特点,提供稳定

可靠的网络保障性,因此在进行SDN网络设计时,针对Underlay网络的可靠性需要从

网络的接入侧、网络侧、转发设备、VAS设备、网络出口等多个层面来综合考虑、全

面设计,打造端到端的数据中心可靠网络。

1.2.2服务器批量上线效率

在数据中心的日常维护中,服务器扩容是一个经常性且关键的工作,通常情况下管理

员需要事先规划好服务器网卡与交换机的连接关系,包括管理网、存储网、业务网等

多个网络平面。传统的运维模式下通过人工按规划设计对交换机进行配置,完成服务

器的接入上线。但在云化数据中心场景下,对业务的上线效率要求越来越高,采用人

工配置完成大批量服务器上线的速度越来越跟不上业务节奏的要求。尤其是在SDN组

网场景下,也需要考虑采用自动化、智能化的方案实现服务器的批量快速上线。

1.2.3业务变更网络布放效果预测

在SDN组网场景下,业务的逻辑网络是由管理员在0层编排完成的,但下发到网络设

备上的具体配置是由SDN控制器自动转换后下发的,相对于传统的网络配置方法,采

用SDN后管理员对于SDN控制器下发的何种具体配置将无从知晓。但在某些场景

下,如:管理员正在经历传统手工配置向SDN自动发放过度,或者某些重要业务管理

员希望能在业务网络布放前校验SDN下发的配置是否正确,这就要求SDN方案能具

备业务网络布放前提供预先校验的能力,包括配置校验、资源校验、业务可达性校验

等多个方面效果预测。

1.2.4既有业务网络可达性校验

Underlay网络初始化部署完成后,为了能验证网络设备上线后的连通性及路由转发实

现是否符合预期,用户一般会用ping,trace等常规测试方法进行验证,但这种验证手

段效率较低,且验证效果并不全面,所以就需要一种更高效的方案来替代传统方式,

SDN组网场景下用户也希望能采用一种自动化方式来达到此种目的。

1.2.5故障快速发现定位及恢复

在数据中心网络的日常维护中,非常重要的一项工作就是网络中故障的快速发现定位

并能及时排除,按照传统维护经验,网络中的故障发现主要通过两种途径:

•网管系统收集的告警、日志及设备上报的统计数据等

通过网管系统告警进行故障发现有几个显而易见的问题:

1是时效性比较差,网管收集设备数据本身有一定的时延,管理员在网管系统上发

现告警等故障数据又会有一定的周期,甚至有些故障初期显现的苗头数据不一定

会得到管理员的关注和处理;

2是复杂故障的发现需要依靠管理员的经验,通过对多种网管数据、指标的综合分

析才能最终断定。

3是由于设备算法或底层芯片故障导致的流转发类异常的,管理员目前并有效的发

现和定位手段,往往需要厂商技术支持人员现场排查才能准确判断:

•业务报障

有很多网络中产生的故障,通过网管系统收集的日志或统计数据是无法及时发现

的,比如设备上的配置错误、转发表项异常抑或是业务遭受了攻击导致的异常等

等,在传统数据中心网络运维模式下,这些网络问题往往业务上报故障时间会早

于网络管理员主动发现问题的时间。而且这类问题的排除定位通常也会费时费

力。

在SDN组网场景下,为了能跟上业务发放、变更的高效节奏,网络故障也需要具备快

速发现、定位以及恢复的能力。这就需要网管运维系统除了收集传统的日志告警类信

息外,还需要收集更多的指标类、资源类、表项类甚至是会话交互数据,同时还要具

备海量数据的分析处理能力,并能从中找出故障间的关联线索实现快速准确的故障定

位,对于其中可以通过配置实现故障恢复或隔离的,还要具备恢复预案的自动生成能

力,必要时这些预案可实现一键式下发从而实现对故障的快速恢复或隔离。

1.3数据中心网络运维设计原则

华为CloudFabricV1R19C10提供了数据中心SDN网络DAYO-DAYn全生命周期的设计

指导原则及方案实现指南,本篇文章针对数据中心网络在生命周期每个阶段的重点运

维设计工作将进行展开介绍。

DAY-0规格化设计-SDN数据中心

Underlay网络设计

在华为CloudFabric解决方案中,Underlay网络从Fabric骨干组网结构、ServerLeaf接

入、BorderLeaf接入、网络出口以及Underlay网络路由等多个方面进行了全新的考量

和设计,力求满足数据中心云化场景要求,提升SDNOverlay场景下的网络可靠性,

灵活性及可弹性扩缩等方面的能力。

2.1整体拓扑设计

2.2路由协议设计

2.3扩展性设计

2.4可靠性设计

2.1整体拓扑设计

物理网络架构概览

根据华为CloudFabric解决方案对数据中心组网的先进设计理念,一个典型的数据中心

内部的物理组网架构,应遵循Spine-Leaf架构。华为推荐的物理组网如下图所示。

图2-1推荐的物理组网方式

其中对上图CloudFabric解决方案的物理组网中各类角色的定义参见下表。

表2-1物理组网中各类角色的功能说明

物理组网角色含义和功能说明

Fabric一个SDN控制器管理的网络故障域,可以包含一个或多个Spine-

Leaf网络结构。

Spine骨干节点,VXLANFabric网络核心节点,提供高速IP转发功能,

通过高速接口连接各个功能Leaf节点。

Leaf叶子节点,VXLANFabric网络功能接入节点,提供各种网络设备

接入VXLAN网络功能。

ServiceLeafLeaf功能节点,提供Firewall和LoadBalance等L4~L7增值服务接

入VXLANFabric网络的功能。

ServerLeafLeaf功能节点,提供虚拟化服务器、非虚拟化服务器等计算资源接

入VXLANFabric网络的功能。

BorderLeafLeaf功能节点,提供数据中心外部流量接入数据中心VXLAN

Fabric网络的功能,用于连接外部路由器或者传输设备。

DCILeafLeaf功能节点,提供跨Fabric三段式转发时,VXLANMapping的

(Fabric网络功能,具体使用情况见MultiFabric设计指南。

物理组网角色含义和功能说明

Gateway)

华为CloudFabric解决方案,要求一个典型的数据中心组网中Fabric网络结构具有以下

几个特点:

1.包含了一个或多个Spine-Leaf结构;

2.具有高带宽、大容量能力;

3.接入节点间无差异性;

4.采用扁平结构,由于当前数据中心内部东西流量较大,因此采用扁平化设计可使

流量路径尽可能短,转发效率高;

5.灵活组网、弹性扩缩:当服务器数量增加时,可相应增加Leaf数量;当Spine转

发带宽不足时,可相应增加Spine节点个数,扩容灵活。

对于Spine-Leaf架构的组网,推荐以下组网形态:

•推荐采用由CE大容量物理交换机组网;

•推荐采用L3网络、部署IGP路由协议:Leaf和Spine之间采用三层互联;

•推荐采用ECMP实现等价多路径负载均衡和链路备份:从Leaf通过多条等价路径

转发数据流量到Spine,在保证可靠性的同时也能提升网络的带宽。

Fabric提供的服务原则上要求网络接入节点间可提供无差异互访能力。

物理网络设计基本原则

一个数据中心网络内部推荐采用由CE系列交换机组成的Spine-Leaf结构,并根据网络

规模来灵活配置Spine和Leaf的节点数量。

图2-2Fabric中ECMP示意图

Server■・L3interface

•Spine设计

在Spine-Leaf网络架构中,Spine的数量由Leaf到Spine的收敛比(Leaf的下行总

带宽和Leaf的上行总带宽的比值,不同的行业及不同的客户有各自的要求)来决

定。

Spine节点与Leaf节点之间使用以太网口互联,并且配置成三层路由接口模式,

从而构建全IPFabric网络。

•Leaf设计

-Leaf可使用多种灵活组网方式,如M-LAG(推荐)和堆叠。

每一个Leaf节点与所有Spine节点相连,构建全连接拓扑形态。

Leaf节点的TOR设备数量较多,建议通过ZTP的方式来部署TOR设备,降

低部署复杂度。

□□说明

ZTP-ZeroTouchProvisioning是指新出厂或空配置设备上电启动时采用的一种自动加载版本文

件,包括系统软件、配置文件、补丁文件的功能。

•转发设计

-Underlay路由建议选择OSPF动态路由协议,Spine-Leaf间可以形成IPECMP

等价路径。

Leaf设备到Spine设备的流量形成ECMP负载分担,无阻塞转发,故障快速

收敛。

-ECMP链路须选择基于L4Port的负载分担算法,由于VXLAN使用的是UDP

封装,因此VXLAN报文的目的端口号是4789不变,而VXLAN报文头部的

源端口号可变,基于此来进行负载分担。

2.2路由协议设计

Underlay层面的路由协议,建议选用OSPF(推荐)或EBGP。

Underlay路由选用OSPF

当TOR规模小于100台时,推荐Underlay路由选用OSPF,此时路由规划如下:

•单Fabric内部,Spine和Leaf节点的物理交换机上全部部署OSPF,并都在Area0

中,使用三层路由口地址建立OSPF邻居,打通Underlay路由,network类型建议

为P2P,如图2-3所示。

•多Fabric之间互联设备部署在OSPFArea。,打通Underlay路由,如图2-4所示。

单Fabric内部OSPF路由规划推荐

图2-3单Fabric部署OSPF路由规划推荐

LeaflLeaf2Leaf3Leaf4Leaf5Leaf6

图24多Fabric部署OSPF路由规划推荐

当Underlay的路由选用OSPF时的优缺点对比参见下表。

表2-2Underlay路由为OSPF时的优缺点对比说明

项目说明

优点•OSPF路由协议部署简单

•OSPF路由收敛速度快

•Underlay中的OSPF路由协议报文与Overlay中的BGP协议报文不同队

歹U,VRF和路由表项都相互隔离,从而实现underlay和overlay路由协议

故障上互相隔离

项目说明

缺点・OSPF路由域规模受限

・故障域较大

Underlay路由选用EBGP

当TOR规模大于200台时,推荐Underlay路由选用EBGP,该场景路由规划如下:

•单Fabric内部,Spine节点划分一个AS,每个Leaf节点分别划分一个AS,Leaf

节点和所有Spine节点之间部署EBGP邻居(IPv4地址族),如图2-5所示。

•多Fabric之间通过互联设备部署EBGP邻居,打通Underlay路由,如图2-6所

Zj\o

图2-5单Fabric内部EBGP路由规划推荐

LeaflLeaf2Leaf3Leaf4Leaf5Leaf6

图2-6多Fabric之间EBGP路由规划推荐

当Underlay的路由选用EBGP时的优缺点对比参见下表。

表2-3Underlay路由为EBGP时的优缺点对比说明

项目说明

优点•每个分区路由域独立,故障域可控

•路由控制灵活,可灵活扩展规模

•适合大规模组网

缺点配置复杂

Underlay路由协议选择对比

不同的Underlay路由协议之间的对比参见下表。

表2-4不同的Underlay路由协议之间的对比说明

项优点缺点适用场景

OS•OSPF路由协议部署简单•OSPF路由•中小型网络单Area,大型网络

PF域规模受限

•OSPF路由收敛快速三层架构多Area;

•Underlay中的OSPF路由协议报文与・故障域较大•建议邻居数<200

Overlay中的BGP协议报文不同队

项优点缺点适用场景

歹U,VRF和路由表项都相互隔离,•建议多POD规划,避免单

实现故障的隔离POD邻居数<100,避免路由域

过大影响网络性能

EB•每个分区路由域独立,故障域可控配置复杂•中大型网络

GP

•路由控制灵活,可灵活扩展规模•建议邻居数<500

•适合大规模组网•建议多POD规划,避免单

POD邻居数<100,避免路由域

过大影响网络性能

2.3扩展性设计

数据中心内Fabric网络的扩展模型主要有两种类型:小POD模式和大POD模式。

小POD模式扩展

在原先Fabric基础上进行扩展,小POD模式是指扩展成的新Fabric实际上是将原

Fabric复制成多份后组成,它们之间使用高速的传统网络互连起来,如下图所示。

图2-7小POD模式扩展示意图

Fabric1Fabric1

小POD模式扩展的特点是:

•按需扩容,模块化扩展

•适用于大规模数据中心

•POD接入规模超过2000台服务器时推荐此方式

•典型场景:金融行业数据中心

大POD模式扩展

当原网络中业务需要扩容时,增加Fabric网络中Leaf单数量来达到扩容目的。在增加

ServerLeaf的同时也可以增加BorderLeaf,如下图所示。

图2-8大POD模式扩展示意图

大POD模式扩展的特点是:

•按需扩容,扩展Leaf节点

•适用于中小规模数据中心

•POD接入规模不超过2000台服务器推荐

•典型场景:企业数据中心

2.4可靠性设计

2.4.1可靠性设计一般原则

以三层架构组网为例,通过设备冗余备份来提升网络的可靠性。

i.服务器链路故障:服务器双归接入,网卡负载分担/主备,当服务器一条链路故障

时,业务倒换到冗余/备份链路。

2.ServerLeaf/BorderLeaf设备故障:ServerLeaf/BorderLeaf配置M-LAG工作组,

当一台ServerLeaf/BorderLeaf故障时,业务倒换到另外一台ServerLeaf/Border

Leaf上继续转发。

3.Leaf上行链路故障:Leaf和Spine间通过多条链路实现ECMP,当一条上行锥路

故障后,业务哈希到其他链路继续转发。

4.Spine设备故障:一台Spine故障后,流量从另外一台Spine设备转发。

5.FW故障:FW配置主备镜像,配置和会话表实时同步,当主FW故障后,流量切

换到备份FW设备。

6.Peer-link故障:当M-LAG组中互联的Peer-link故障时,通过双主检测,触发状

态为备的设备上除管理网口、Peer-link接口以外的接口处于Error-Down状态,避

免网络出现双主,提高可靠性。

7.PE与BorderLeaf之间链路故障:当某一台BorderLeaf设备与外部网络连接故障

时,通过路由收敛后,自动启用到外部网络的备份路径继续转发,SDN控制平面

不感知故障。

8.当使用框式设备组网时,框式设备的上下行链路以及堆叠、Peer-link链路建议跨

板连接,实现单板级可靠性。

2.4.2BorderLeaf节点可靠性

两个BorderLeaf组成双活网关(部分部署组播的场景需要开启M-Lag特性)。这两台

BorderLeaf需配置唯一的虚拟VTEPIP和ServerLeaf建立VxLAN隧道。

BorderLeaf和PE之间交叉或口字型组网。BorderLeaf和PE通过E-trunk对接。

FW可旁挂或直挂组网,一般是旁挂。两台FW主备备份。单台FW通过trunk接口双

归到两个BorderLeaf。BorderLeaf通过E-trunk口和FW连接。

•BorderLeaf与外部PE口字型组网可靠性

-正常情况下,两台BorderLeaf设备分别将指向外部网络的静态或动态私网路

由引入三层逃生链路并发布,以便BorderLeaf建立到外部网络的备份路径。

-当某一台BorderLeaf设备与外部网络连接故障时,通过路由收敛后,自动启

用到外部网络的备份路径继续转发,SDN控制平面不感知故障,支持链路失

效告警。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论