5G承载网技术 课件 任务1.2 5G承载网络业务规划_第1页
5G承载网技术 课件 任务1.2 5G承载网络业务规划_第2页
5G承载网技术 课件 任务1.2 5G承载网络业务规划_第3页
5G承载网技术 课件 任务1.2 5G承载网络业务规划_第4页
5G承载网技术 课件 任务1.2 5G承载网络业务规划_第5页
已阅读5页,还剩80页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

任务1.2

5G承载网络业务规划任务目标任务描述知识准备任务实施思考与练习任务目标能掌握FlexE技术原理及应用场景能掌握SR技术原理及应用场景能掌握SDN技术原理及应用场景能掌握EVPN技术原理及应用场景任务描述

通过上一小节的内容,我们知道了5G承载网该如何组网,但那只是物理层面的东西,我们还需要规划想要的业务承载模型,它是一个逻辑层面的东西。就好像我们需要一台台式机电脑用于办公,首先我们得组装电脑硬件,采用一定的框架模型,比如什么类型的CPU和显卡。然后我还需要给它安装想要的操作系统和应用软件。

现在S市联通公司已经规划了想要的5G承载组网模型,接下来,你作为公司的网络规划工程师,请完成5G业务流量模型的规划,即采用什么技术来满足5G业务的承载需求。任务目标任务描述知识准备5G对承载网络的需求5G承载关键技术之FlexE技术5G承载关键技术之SR5G承载关键技术之EVPN5G承载关键技术之SDN任务实施思考与练习5G低频5G高频频谱资源23.5G~3.6G(联通),100MHz频宽28G以上频谱,800MHz带宽基站配置3Cells,64T64R3Cells,16T16R3Cells,4T4R小区峰值6Gbps4Gbps8.0G小区均值1Gbps400Mbps2.0G单站峰值单站峰值=单小区峰值+均值*(N-1)6G+(3-1)*1G=8G4G+(3-1)*0.4G=4.8G8.0G+(3-1)*2.0G=12.0G单站均值单站均值=单小区均值*N1G*3=3G0.4G*3=1.2G2.0G*3=6.0G5G基站峰值相比4G,有几十倍的提升,对现网设备(特别是接入层)带来巨大挑战注:数据来源于中移集团公司LTE规划VS现有4G承载网带宽规划站型S111(70%)S222(30%)室分站(35%)接入层均值带宽80Mbps160Mbps60Mbps峰值带宽(PIR)320Mbps640Mbps110Mbps5G单站带宽需求时延需求需要改变组网架构,减少传输距离,降低整体时延T5T0T2T4T3T6

eCPRI/CPRI5GAAUeMBB5GCNCUDUT1DU5GCNCUT0T2T6T5

eCPRI/CPRI5GAAUuRLLC5GCNT15GCNDU+CUDU+CUeMBB端到端时延:(T0+T1+T2+T3+T4+T5+T6)x2+T7<20ms承载网时延需求:(T1+T3+T5)x2+T7<14.4mseMBB场景承载网单向时延需求:T1+T3+T5<6.2msuRLLC

端到端时延:(T0+T1+T2+T5+T6)x2+T7<5ms承载网时延需求:(T1+T5)x2+T7<3.2msuRLLC场景承载网单向时延需求:T1+T5<1.1ms典型时延需求:20ms典型时延需求:5~10msT7T7注:1ms极限时延uRLLC场景,业务处理在站点完成,承载不参与高精度时间同步需求连续/非连续载波聚合5G多点联合发送CoMPJT±65nsCA功能将跨越不同的BBUGPS误差,承载网误差都会影响CA同步精度5G基站的覆盖面积小于4GCoMPJT用于降低干扰提升用户终端吞吐量5G5G1.8G2.6G3.5G26G900MCA±130/260nsGPS天线安装难120°净空同时定位3颗卫星馈线安装难馈线长,敷设困难,尤其是室内基站馈线安装更困难成本每基站均需配置一套GPS系统维护困难基站数目多,GPS维护点多GPS易受干扰

信号劣化、信号丢失、伪GPS干扰需要通过逐个站点关闭信号排查问题TD基站时间同步信号CA&CoMPJT等协同业务会有高精度时钟需求(单节点5ns)网络智能化需求5G_UPeMBB5G_UPeMBB5G_CPmMTCUP5G_UPuRLLC5G_UPuRLLC5G_UPuRLLC5G_UPuRLLC多样化场景,运维复杂面向客户,端到端合作应用合作,垂直生态连接数东西向带宽运维复杂度快速配置实时

闭环意图驱动网络平台业务内容应用云原生开放平台运营商应用商店第三方合作/会员付费新型业务倍数增长5G灵活组网需求5G承载网业务流向更加复杂,可能会对现有网络架构(L2+L3)重新设计EPCPool边缘DCMECMECMEC边缘DC5G采用超密集组网技术(UDN),基站密度更高,站间协同作为可选项,东西向连接需求相比4G会增加核心网云化后部署在边缘DC中,边缘DC之间的东西向流量需要动态疏导MEC下沉到边缘汇聚层,MEC之间会产生东西向流量;同时MEC和边缘DC之间也产生南北向流量(内容下载)网络切片需求超高清视频播放密集人群宽带接入工业自动控制传感器网络…低(1-100Kbps)毫秒到小时N/A1Mbps,最高10Mbps1ms99.9999%50/25Mbps10msN/A带宽50/300Mbps时延10ms可靠性N/A应用切片化网络切片1切片2切片n…终端按需定制切片运营资源共享5G网络标准需要无线/承载/核心网端到端切片,对承载设备而言,需要底层支持切片的能力任务目标任务描述知识准备5G对承载网络的需求5G承载关键技术之FlexE技术5G承载关键技术之SR5G承载关键技术之EVPN5G承载关键技术之SDN任务实施思考与练习以太网的发展原生以太网(NativeEthernet):基于IEEE802.3/1开放标准,支持互联互通广泛应用于园区、企业以及数据中心互联,并延伸到HPC、存储和垂直应用领域电信以太网(CarrierEthernet):面向运营商网络应用,电信级的城域网、3G/4G/4.5G承载网和专线接入服务引入IP/MPLS技术,具备QoS保障、OAM、保护倒换和高性能时钟等电信级功能灵活以太网(FlexibleEthernet):面向5G网络中的云服务、网络切片,以及AR/VR/超高清视频等时延敏感业务需求接口技术创新,实现大端口演进,子速率承载,硬管道隔离。构建智能端到端链路,IP低时延1980年2000年2015年宽带论坛BBF:将FlexE接口扩展至IP/MPLS网络,对二层、三层业务基于FlexE接口的应用模型加以定义光联网论坛OIF:定义FlexE接口帧结构,实现带宽的捆绑、通道化、子速率FlexEITU-F:定义网络业务的转发框架标准IETF:基于FlexE接口进一步将网络管理、协议处理以及协同形成标准2016年3月发布FlexE1.0标准内容(OIF-FlexE-01.0),定义了100G的物理PHY通道。

FlexE2.0标准内容已在2018年2季度推出,将限于链路的FlexE技术扩展为网络技术,丰富FlexE技术的应用场景,更好地配合5G承载要求。14FlexE技术国际标准进展情况

15以太网基础知识:以太网MAC/PHY层业务特性

16ReconciliationSublayer(RS):协调子层。汇聚功能,使不同介质类型对MAC子层透明。其主要作用为不同的规范物理接口类别不同RS可以做统一的适配。PCS子层位于协调子层(通过GMII)和物理介质接入层(PMA)子层之间。PCS子层负责8bit/10b编码解码和CRC校验,并集成了负责Channel绑定和时钟修正的弹性缓冲。8b/10b编码可以避免数据流中出现连0连1的情况,便于时钟的恢复。PCS层下面就是PMA,PMD层,主要由物理介质相关(PMD)子层、物理媒介附加(PMA)子层和物理编码子层(PCS)所组成。PMA负责串化/解串化,PMD是负责串行信号传输的电气块。以太网基础知识:各层含义解释

纯数据块数据尾块无效空闲块数据首块一个18bytes的数据块的传输过程64B/66B编码将64bit数据或控制信息编码成66bit块传输同步头:用于接收端的数据对齐和接收数据位流的同步。类型域:代表着数据码和控制码的不同组合形式数据/控制块格式:D部分表示数据编码,每个数据码是8bit;Z部分表示控制码,每个控制码是7bit。S表示包的开始,S只会出现在8字节中的第0和第4字节。数据首块对应的类型域字段为0x78或0x33T表示包的结束,T能够出现在任意的字节17以太网基础知识:PCS层64/66编码原理及业务封装特性

MACPHY物理媒介同轴电缆10M100M1G10G40G100G400GMACPHY物理媒介电缆双绞线MACPHY物理媒介双绞线光纤MACPHY物理媒介双绞线光纤MACPHY物理媒介光纤MACPHY物理媒介光纤MACPHY?物理媒介光纤以太网业务速率提升到100GE以上时,物理通道PHY的速度发展遇到瓶颈,速度提升缓慢,并且高速物理通道PHY的价格偏高。例如,400GE速率的光模块价格远超4个100GE光模块价格。成本非线性增加18FlexE技术优势:以太网网络接口发展瓶颈

FlexE技术在IEEE802.3的协议栈的MAC层和PCS层增加一个FlexEShim层,将业务逻辑层和物理层隔开传统IEEE802.3,MAC与PHY速率一一对应实现MAC与PHY的解耦和,需要增加一个功能层来完成时隙是实现多业务承载的一个通用技术方案。Shim层位于PCS之中,并非位于其上最大限度重用以太网底层技术。19FlexE实现:增加Shim层将业务逻辑层和物理层隔开

业务速率和物理通道速率之间解耦,物理接口速率不再等于客户业务速率,物理接口速率可以是灵活的。比如,客户业务速率是400GE,但物理通道PHY的速率是100GE或其他速率(如n*100G或n*200G)。

大带宽的客户业务可以由多个低速物理通道捆绑起来进行传递(形成一个虚拟的逻辑通道),解决了高速物理通道性价比不高的问题。PHY层MAC层MAC层PHY层20FlexE技术优势:实现业务速率和物理通道速率的解耦

FlexEShimBondedEthernetPHYs(FlexEGroup)FlexEClientsFlexEClientsFlexEShimPHY层MAC层MAC层FlexEClient:

FlexE网络的服务客户,基于MAC速率的以太网数据流,速率是10G、25G、40G、n*50G,可扩展支持N*5G。FlexEGroup:是一个FlexE协议组,包含1到n个绑定的以太网PHY,可支持速率包括100G,200G,50G等。即,一个FlexEGroup中通常包含多个成员。100GE5G5G5G5G100G100G100G100G21FlexE基本概念:FlexEClient/FlexEGroup

FlexEshim:一个功能层,实现FlexEclient和FlexEgroup之间的映射/解映射功能,与FlexEgroup是一一对应的。FlexEclient通过FlexEshim承载,FlexEshim通过FlexEgroup进行传送。FlexEshim层采用时分复用方式,通过多个绑定物理通道PHY来承载各种IEEE定义的以太网业务。FlexE时隙:在物理PHY为100G时,FlexEshim中有n*20个时隙(n是成员数量,每个成员有20个时隙),每个时隙代表5G的速率,以66比特的数据块作为传送数据的基本单位。在发送端,FlexEshim层将以太网报文进行64/66bits编码,通过速度适配,将业务按照时隙方式分配到不同的成员链路进行发送。在接收端,恢复处66比特块,找出业务客户流,通过速度调整,进而恢复出原始客户业务22FlexE基本概念:FlexEShim/FlexE时隙

FlexE协议定义每个物理成员PHY(速率100GE)上传递一个subcalendar,按照20个5GE时隙来划分。FlexEshim层是一个mastercalendar(由多个subcalendar组成),有n*20个5GE时隙(n为捆绑组的总成员数)。FlexEClient的64B/66B按照时隙方式间插到FlexEShim层,10G/25G/40G/n*50G的FlexEClient分别在FlexShim层占用2个/5个/8个/n*10个5G时隙。Matercalendar将所有时隙分成n组,每组20个时隙,由每个subcalendar承载;每个100G速率的PHY有20个时隙,每个时隙代表5G的速率。FlexE使用Calendar机制完成FlexE客户和PHY端口之间的时隙分配23FlexE基本概念:Calendar结构及PHY层时隙分配方式

MACRSFlexEShimPCSPMAPMDPHYPCSPMAPMDPHYMACRSFlexEShimPCSPMAPMDPHYMACRSFlexEShimPCSPMAPMDPCSPMAPMDPHYPHYMACRSMACRS链路捆绑:将多个物理通道捆绑起来,形成一个大的逻辑通道,实现高速率业务通过低速率物理端口传输子速率模式:多条客户流共享一条物理通道,在物理通道的不同时隙上分别传递多个客户业务,实现业务隔离通道化模式:多个客户共享多条物理通道,客户业务在多条物理通道上的多个时隙传递24FlexE技术三种典型应用模式

FlexE技术使业务速率与物理通道速率相互独立,在逻辑层面可以实现大业务速率(链路捆绑)、子速率、通道化等功能,以及网络分片需求。这些特点与5G业务承载要求完美切合,受到全球主流运营商、供应商的认可,近两年发展迅速,被各大标准组织广泛接纳。FlexEFlexEFlexEFlexEFlexEFlexEFlexEFlexEFlexEuRLLC分片eMBB分片mMTC分片MCE/RGW/MECmMTCCP/UP5G-UPFlexEChannelFlexEChannelFlexEChannel实现5G按需扩容实现5G业务信道化隔离实现5G分片承载25FlexE技术优势:5G承载网发展需要

26单PHYFlexE业务传送特征多PHYFlexE业务传送特征FlexE业务处理:PHYFlexE业务传送特征

27FlexE业务处理:FlexEclient交叉图示

PEPEPMPLS层MAC层FlexEshimPMAPMD物理层物理层MPLS层MAC层FlexEshimPMAPMD物理层物理层MPLS层MAC层FlexEshimPMAPMDMPLS层MAC层FlexEshimPMAPMDFlexEGroupFlexEGroupFlexE物理层交叉方式传统逐跳解析转发方式传统分组设备对于客户业务报文采用逐跳转发策略,网络中每个节点设备都需要对数据包进行MAC层和MPLS层解析,单设备转发时延高达数十usFlexE技术通过时隙交叉技术实现基于物理层的用户业务流转发,用户报文在网络中间节点无须解析,业务流交叉过程近乎瞬间完成,实现单跳设备转发时延小于1us低时延转发28低时延转发:FlexE物理层交叉方式

任务目标任务描述知识准备5G对承载网络的需求5G承载关键技术之FlexE技术5G承载关键技术之SR5G承载关键技术之EVPN5G承载关键技术之SDN任务实施思考与练习原有网络存在的问题随着应用的发展,网络存在一些瓶颈:运营成本高新业务部署困难,设备商开发周期长每个设备单独管理,设备运行对管理员不透明,管理复杂转发路径由动态协议计算,业务转发路径未必最优SegmentRouting技术引入SegmentRouting(SR)技术属于“源路由”和“隧道”技术范畴。源路由是指“在源点可以指定数据包要途径过的部分或者全部的节点信息”。香港巴黎西雅图里约SR基本概念Segment本质上代表的是指令,segmentlist就是指令的合集。SR域(SegmentRoutingDomain):SR节点的集合。SID:即SegmentID,用来标识唯一的段。在转发层面,可以映射为MPLS标签。SRGB(SegmentRoutingGlobalBlock):用户指定的为SegmentRouting预留的本地标签集合。建议在一个SR域内的所有节点使用相同的SRGB,便于管理和定位故障。SRLB(SegmentRoutingLocalBlock)设备为SR预留用于本地Segment的一段本地标签范围。SRGB和SRLB都是共享MPLS的标签范围。SR并未开启新的标签范围。SRGB、SRLB是在MPLS标签范围内预留固定的标签范围并仅供SR使用。SID分配Index由配置时指定(简称SID),然后由IGP协议随着IGPprefix通告到其他节点由于Index需要全局唯一,所以每个节点上都要分配一个相同的标签段给prefix使用。考虑到网络中各设备能力问题,可能无法提供一个统一的SRGB,所以实现方案是:每个节点可以配置不同的SRGB。SRGB通过IGP协议通告到其他节点。Index表示的是SRGB中的偏移值。SID标签的计算方法:Node/BGPSID=本节点SRGB的第一个标签(SRGBBase)+index推荐将SR域内所有节点的SRGB值设置为相同,简化配置以及后续运维以及故障定位。SRGB提出设计SRMPLS数据平面需要使用全局标签,这个思想跟传统MPLS的标签管理机制是冲突的,传统的LDP/RSVP的标签管理都是本地行为。各大设备商、运营商、标准化组织经过讨论,最终达成一致,提出了在设备SRGB范围内通过索引分发标签的解决方案,通过全局索引达到全局标签的效果。【全局索引是SR提出的新概念】SRGB:SegmentRoutingGlobalBlock由于全局标签更符合SR的理念,所以协议层面并没有放弃支持全局标签的通告,客户可以根据实际情况选择使用哪种方式。routerospf1area0interfaceLoopback0Prefix-SID(absolute|index)(<SIDvalue>|<SIDindex>)SRGB概念在SRMPLS中,SRGB指定了节点用于全局Segment的标签范围,需要在网络中每台SR设备进行指定,一般设备有默认SRGB,可以通过配置修改。SRGB指定了SR全局标签的大小以及起止地址,其大小决定了可以使用的全局Segment的数量,影响到网络规模以及网络设备需要处理的全局Segment的数量。调整SRGB的范围和大小往往需要设备重启才能生效,所以在部署SR网络时需要结合网络规模提前合理规划SRGB。SRGB使用每台SR设备的SRGB可以指定(设备有默认SRGB),通过IGP协议在域内洪泛通告,其他SR设备可以学习到每台SR设备的SID和SRGB。考虑到不同厂家设备的能力差异,协议层面扩展了多个SRGB的规范,即SR允许使用多个不相交的标签范围组成的SRGB,比如:【6000-6999】、【8000-8999】、【16000-16999】,使用SID索引计算标签的方法不变,范围的顺序必须保持不变。举例:SID=999<->Label=6999,SID=1000<->Label=8000SRGB示例1234SRGB[16000-16999]SRGB[21000-21999]SRGB[22000-22999]SRGB[16000-16999]1.1.1.4/32SID=41.1.1.4节点1为prefix-sid(4)压入标签21000+41.1.1.4210041.1.1.4220041.1.1.4Prefix-SID(4)通告【建议】:实际部署中使用相同的SRGB,简单直观、可预计、易于故障排除。入:21004出:22004入:22004出:POP报文转发:Prefix-SID=4SR标签动作用MPLSlabel来表示SID;指令操作:PUSH:PE为业务报文封装SegmentList的动作。NEXT:P节点检测到最外层标签等于本网元的NodeSID的标签是,弹出最外层标签的动作。CONTINUE:表示SegmentList未发生变化。CONTINUE本质上是MPLS网络的SWAP动作。当SR域内所有节点的SRGB值相同时,节点的出标签=入标签,交换前后标签值不变,则SegmentList不发生变化。SR与MPLS标签操作对比:PUSH=PUSH;NEXT=POP;CONTINUE=SWAP(出标签和入标签相等);支持倒数第二跳弹出或显示空标签,当前我司实现为显示空标签。

1523467节点4的节点loopback地址4.4.4.4节点4的地址4.4.4.4/32配置Node-SID为104IGP协议发布4.4.4.4/32路由携带Node-SID104在每个节点SPF算法计算到4.4.4.4/32路径,节点1到节点4的路径如红色箭头所示。

4.4.4.4/32SID104IGP协议15234674.4.4.4data4.4.4.4data104PUSH4.4.4.4data1044.4.4.4dataSWAPPOP目的IP为4.4.4.4的报文到达节点1,通过路由匹配走上最短路径,并打上Node-SID104,节点2收到node-SID据此SID继续转发,并保持此SIDactive。节点3POP掉104继续转发。Prefix/NodeSegment前缀Segment本质:按去往目的地最短路径转发报文,全局可见,全局有效Node-SID是一种特殊的前缀Segment,被通告时会指示它对应于一个节点(N-flag置位)代表节点为所有的IGP出向邻接分配Adj-SID,比如节点3为链路3->6自动分配9001。节点1为链路1->2自动分配9003。所有的节点都会为其出向邻接分配对应的Adj-SID。

代表IGP协议发布链路状态信息,携带对应的Adj-SID。在节点1的一个SR隧道(目的节点7),假设其路径全部手工严格指定,依次是经过1->2->3->6->7的链路,那么,其形成的SID列表为{9003,9002,9001,9004}。优点是所有路径全指定,缺点是SID层数接3->6SID9001IGP协议900290039004152346790019002900390047.7.7.7data7.7.7.7data900490029004900190037.7.7.7data900290017.7.7.7data900490017.7.7.7data90047.7.7.7dataAdjacencySegment邻接Segment本质:通过特定接口转发报文,全局可见,本地有效3->6Adj-SID9001Node-SID和Adj-SID的组合成的SID列表15234674.4.4.4data假设需要创建一条从节点1到4的SR隧道,要求必须经过链路3->6,其他不做要求。那么1,先最短路径到达node32,然后走邻接3->63,继续最短路径到达node4Node-SID103Node-SID1044.4.4.4data10490011034.4.4.4data10490014.4.4.4data1044.4.4.4data1044.4.4.4data任务目标任务描述知识准备5G对承载网络的需求5G承载关键技术之FlexE技术5G承载关键技术之SR5G承载关键技术之EVPN5G承载关键技术之SDN任务实施思考与练习EVPN简介

EVPN(EthernetVirtualPrivateNetwork)是一种二层网络互联VPN技术,它最早由RFC7432定义,RFC的全称是:BGPMPLS-BasedEthernetVPN。EVPN引入了控制平面与数据平面分离的概念:通过建立MP-BGP邻居来传递二层网络间的MAC/ARP/路由信息,通过生成的地址转发表项进行二层或者三层报文转发。即其MAC、ARP、路由等条目的传递不依赖数据面完成,而是通过EVPN控制面完成。且单一EVPN控制平面对应多种数据平面:VXLAN、MPLS和PBB,不同的数据平面封装具备不同的优劣势。EVPN扩展BGP协议以支持新的业务,实现了MPLSL2VPN与L3VPN的统一。对比传统的L2VPN,EVPN解决了L2VPN网络中的多种问题:EVPN通过扩展BGP协议,使二层网络的MAC学习从数据平面转移到了控制平面,收敛速度快;EVPN可以利用BGP的反射器,避免Full-mesh协议会话;EVPN增加了CE多归场景的实现机制,支持单活、多活场景,可以实现基于业务的DF和LB;EVPN将二层网络和三层网络统一在相同的控制平面,简化了网络复杂度;ARPProxy,抑制洪范,可关闭未知单播;EVPN业务可以承载于各种类型的隧道。EVPN技术框架BGPMPLS-BasedEthernetVPNRFC7432MPLSRFC7432SRv6VxLANRFC8365控制层ControlPlaneDataPlane数据层EVPN隧道封装类型EVPNoverMPLS(包含SR-MPLS)EVPN实例私网标签是MP2P标签,取代了VPLS中的P2P标签;MPLS标签是以栈的形态存在,扩展能力强,如ESI标签用于水平分割防环;MPLS隧道需要MPLS协议维护,存在复杂的创建过程,能实现流量工程。

EVPNoverVxLANVXLAN提供了将二层网络overlay在三层网络上的能力,Overlay只要求underlay网络路由可达,VxLAN隧道不需要事先打通;数据包中没有标签栈结构,如水平分割防环机制不容易实现;缺少实现流量工程的机制。EVPNoverSRv6SRv6更加灵活,可提供简单的路由转发通道,可利用编程性实现流量工程。V6地址强大的表达能力,可将ESI标签封装成V6地址的一部分(作为功能参数),同时V6地址以栈的形式存在;缺点是报文头负荷大。IPRAN应用DC数据中心应用EVPN基本术语名词/术语全称说明EVIEVPNInstanceEVPN实例EVI类似于VFI,即一个以太网业务实例。BDBridgeDomain广播域对于交换网络而言,一个VLAN对应一个BD广播域,BD指的是广播包所能到达的范围,比如ARP广播报文。MAC-VRF-类似于L3VPN的VRF,包括了实际的MAC转发表。VLAN-BasedService基于单个VLAN的以太网业务以太网业务针对物理端口+VLAN,该端口对应的单个VLAN的报文被接收并转发,该类型业务只有1个BD。VLANBundlingService基于VLAN范围的以太网业务一个EVI中,对应的AC可绑定多个VLAN,即VLAN范围,但只有1个BD广播域和MAC转发表,要求每个VLAN下不能有相同的MAC。VLAN-AwareBundlingService-一个EVI中,对应的AC可绑定多个VLAN,每VLAN每BD,有多个MAC转发表,这样一来,每个VLAN下可以有相同的MAC。EthernetTag以太标签EthernetTag只应用在VLAN-AwareBundlingService中,此种EVI业务有多个BD,对应多个MAC转发表MAC-VRF,而每个转发表将由EthernetTag来标识,PE通过它来找到对应的MAC转发表。EVPNCEMultihomed-基本概念1ES:EthernetSegment(以太网段)即以太网络的一个局部。它本质上是一个网络,而不是链路概念,但是在PE上ES只能以链路的形式体现(在物理口上配ESI)ESI:ESID,10字节ES标识符。二元组<ESI,ETI>可以标识一条AC(AttachmentCircuit,接入链路)DF:DF(DesignatedForward)角色的PE设备可以往AC侧发BUM(Broadcast/Unknown-unicast/Multicast,EPVN中三类报文的处理逻辑一致)报文,non-DF角色不可以。SHD:单归设备SHN:单归网络MHD:多归设备MHN:多归网络EVPNCEMultihomed-基本概念2Single-ActiveRedundancyMode单活冗余模式在CE多归属场景中,如果只允许单个PE在ES上转发报文,那么该ES即工作在单活冗余模式,对应的PE为DF,CE<->PE链路主备。All-ActiveRedundancyMode多活冗余模式在CE多归属场景中,如果允许所有的PE在ES上转发报文,不管是DF还是Non-DF,那么该ES即工作在全活冗余模式,CE<->PE链路负载均衡。ESPE1PE3PE2CE1ESPE1PE3PE2CE1EVPN路由用途Type路由类型分类用途Type1EthernetAuto-discoveryRouteEthernetA-DRoutePerES(ETI:MAX-ET,Lable:0)必须携带ESILable扩展属性,可用于快速收敛、水平分割等功能场景EthernetA-DRoutePerEVI(ETI:有效值,Lable:有效值)配合EthernetA-DRoutePerES,可实现aliasingpath和backuppath等Type2MAC/IPAdvertisementRouteMACroute(IPLength:0,Label1:MAC-VRF)用于发布MAC路由ARPRoute(IPLength:非0,Label2:IP-VRF)用于发布ARP路由Type3InclusiveMulticastEthernetTagRouteIMETRoute通过PMSI扩展属性,用于实现P-Tunnel,实现多播转发Type4EthernetSegmentRouteEthernetSegementRoute实现ES发现、DF选举Type5IPPrefixRouteOverlayIndex:ESI基于ESI进行路由迭代,需要配合RT-1OverlayIndex:GatewayIP(ESI:0,GW:non-0)基于GatewayIP进行路由迭代,需要配合RT-2OverlayIndex:VNI(ESI:0,GW:0)基于VNI进行路由迭代,需要配合RT-5的Router'sMAC扩展属性OverlayIndex:MPLSLable基于MPLS标签进行路由迭代OverlayIndex:MAC基于MAC进行路由迭代,需要配合RT-5的Router'sMAC扩展属性MAC/ARP通告-MAC/IPAdvertisementRoute(RT-2)MP-BGP作为控制面基于RT-2路由通告MAC/ARP,表项不再依靠数据面学习;IMET路由(RT-3)

基于RT-3路由的BUM组播组自动发现EVPNCEMultihomed-DF选举方法

RFC7432中DF选择方法如下:各个PE设备之间建立邻居关系后相互发送以太网段路由;根据以太网段路由中携带的ESI值,各个PE上会生成多归PE列表,多归PE列表中包含连接到同一个CE的所有PE的信息;通过从其他PE收到的以太网段路由获取SourceIP地址,根据SourceIP地址大小的顺序对多归PE列表内的PE进行从小到大排序,并且顺序分配由0开始的序号;根据如下公式获取可以成为主DF的PE序号:i=vlan-idmodn。EthernetSegmentRoute(RT-4)EVPNCEMultihomed-BUM(防环机制:水平分割)对ES在EVI实例下选举PE1为DF设备。PE设备通告EthernetA-DperESroute携带ESILabel扩展团体属性。以BUM头节点复制隧道方式为例,水平分割实现为:非DF设备(左图中的PE2)转发BUM报文到DF设备(左图中的PE1)时,携带下游设备分配的ESI

Label。DF设备收到BUM报文比较报文中的ESI

Label和本地分配的ESI

Label是否相同。相同则丢弃BUM报文,否则往AC接口复制转发。ESPE1-DFPE3PE2CE1CE2水平分割防环,流量不再往CE侧发送CE3EVPNCEMultihomed-BUM(防多包)CE3多归引入了冗余链路,也使得CE会收到多份网络侧BUM流量。EVPN中通过选举DF防止CE收到BUM多包。BUM流量只会经由DF转发到CE;non-DFPE设备收到的BUM流量不会往CE侧转发。ESPE1-DFPE3PE2CE1CE2EVPNBUM流量只会经由DF转发到CE,防多包EVPNCEMultihomed-快速收敛EADperES(RT-1)路由Single-Active/All-ActiveESILABELextendedcommunity填无效值填0当CE1和PE2之间的链路出现故障时,由于PE3无法快速感知链路故障,PE3发往CE1的报文仍会发给PE2,这样会造成报文的丢失。为避免此问题的发生,PE2会对PE3撤销EADperES路由,即向PE3通告其对CE1可达性变成了不可达。当PE3收到EADperES路由撤销后,PE3将仅使用PE1向CE1发送流量,这样可以避免逐条发送MAC路由撤销信息,大大减少了收敛时间。EVPNCEMultihomed-Aliasing即使CE1在SG中负荷分担,ARP请求也只会到PE1/PE2中的一个,也就是说RT-2路由PE1/PE2中只有一台会发布;但是,EADperEVI路由两边都会发布。RT-2路由则通过ESI引用RT-1路由实现ECMP。EADperEVI(RT-1)路由setVALIDLabelEVPNCEMultihomed-保护倒换场景1ESPE1-DFPE3PE2CE1CE3单播流ESPE1-DFPE3PE2CE1CE3CE至PE链路故障,单播流:CE1至CE3方向单播流量:CE1至CE3的单播流量收敛到PE2上,PE2直接转发至PE3-CE3EVPNCEMultihomed-保护倒换场景1ESPE1-DFPE3PE2CE1CE3ESPE1-DFPE3PE2CE1CE3RT-1路由撤销后单播流RT-1路由暂未撤销时单播流暂态CE至PE链路故障,单播流:CE3至CE1方向单播流量暂态:因为在PE1上形成了一个ESIFRR组,主是AC口,备是PE1-PE2的隧道,当AC口down,RT1路由还没有撤销,PE1上frr切换,CE3至CE1方向流量暂态是PE3->PE1->PE2->CE1CE3至CE1方向单播流量收敛后:AC接口down后,PE1上发送RT-1路由通告撤销路由,PE3收到RT-1消息后,撤销至PE1的路由,下一跳变更至PE2,CE3至CE1方向流量是PE3->PE2->CE1EVPNCEMultihomed-保护倒换场景1

ESPE1-DFPE3PE2CE1CE3ESPE1-non-DFPE3PE2-DFCE1CE3CE至PE链路故障,广播流:PE1上AC接口down,RT-4路由撤销,重新协商DF和NON-DF,PE2由Non-DF切换为DF。同时PE1上撤销RT-1的ESI标签通告。PE3上广播流量只发送至PE2设备,并由PE2转发至CE1。广播流EVPNCEMultihomed-保护倒换场景2ESPE1-DFPE3PE2CE1CE3ESPE1-DFPE3PE2CE1CE3隧道保护切换PE之间链路故障:PE1至PE2链路故障,PE1和PE3之间靠公网隧道保护切换,内层不感知故障,CE1至CE3、CE3至CE1流量最终还是绕回到PE1转发EVPNCEMultihomed-保护倒换场景3PE设备故障:CE1至CE3流量,CE1上感知链路down,触发SG快速收敛,流量从PE2转发:CE1->PE2->PE3->CE3CE3至CE1流量,在PE1和PE3之间配置PeerBFD,BFD可以快速检测出PE1down的场景,触发FRR快切或者ECMP快速收敛,流量只从PE3-PE2的路径转发:CE3->PE3->PE2->CE1ESPE1-DFPE3PE2CE1CE3EVPN应用场景分析-BackhaulEVPN提供L3服务到边缘,支持BBU/CU/DU或者核心网网元的双归接入,可以选择RT5-E方案。如果需要同时支持二层和三层功能,可以部署IRB桥接方案。EPC/NGCeNB/gNBASBR12AGGlayerAS-AIGPDomain2CorelayerAS-BIGPDomain3ASBR11ASBR22ASBR21AccesslayerAS-AIGPDomain1DC/MECEVPN应用场景分析-政企业务

EnterpriseASBR12AGGlayerAS-AIGPDomain2CorelayerAS-BIGPDomain3ASBR11ASBR22ASBR21AccesslayerAS-AIGPDomain1Enterprise部署EVPN为政企提供L2业务,可以选择E-Line或E-LAN,提供双归保护、多活的流量分担,保证服务质量。

DCEVPN应用场景分析-承载网数据中心互联

DCMPLSBackhaulEVPNVxLANEVPNMPLSEVPNVxLAN5G核心网DC化、下沉,Backhaul的MPLS网络需要提供DC互联。考虑DC虚拟化的特点,DC内部网络采用VxLAN做承载隧道。EVPN业务能实现VxLAN和MPLS间无缝互通,提供L2、L3功能。任务目标任务描述知识准备5G对承载网络的需求5G承载关键技术之FlexE技术5G承载关键技术之SR5G承载关键技术之EVPN5G承载关键技术之SDN任务实施思考与练习SDN发展背景管理运维复杂网络创新困难设备日益臃肿66随着互联网业务的蓬勃发展,传统网络、尤其是数据中心网络内多种新需求出现,基于IP的网络架构日益臃肿且越来越无法满足高效、灵活的业务承载需求,同时网络发展面临一系列问题。服务器虚拟化01数据中心合并云计算0403新的应用架构02网络难题,如何解决?DC网络发展需求及变化网络面临的挑战SDN定义与特点SDN=SoftwareDefinedNetworking,软件定义网络SDN是一种新的网络架构理念67010203SDN特点04控制面与转发面分离开放的可编程接口集中化的网络控制网络业务的自动化应用程序控制SDN网络架构68网络设备网络设备转发层控制层应用层网络设备南向接口,如openflow,NetConf,snmp等北向接口,如restful业务应用,自动化SDN控制器SDN网络架构-接口SDN网络架构中接口包含南向接口和北向接口69接口类型说明南向接口南向接口是指控制面和转发面之间的接口,传统网络的南向接口并没有什么标准化,而且都存在于各个设备商的私有代码中,对外不可见,也就是既不标准也不开放。在SDN架构中,希望南向接口是标准化的,实际情况是多种接口协议并存。北向接口在SDN网络架构中,北向接口是controller跟上层应用程序之间的接口,目前尚无标准化,业界事实上的标准是RESTCONF接口。SDN网络架构-组件SDN网络架构中组件包括转发设备层、控制器,及应用层APP70组件特点转发设备层在SDN架构中,网络设备抽象为转发面(forwardingPlane或DataPlane),它不一定是硬件交换机,也可以是虚拟交换机,比如OVS,当然也可以是别的物理设备,比如路由器。所有的转发表项,都存储在网络设备里面,用户数据报文在这里被处理,转发。网络设备通过南向接口接收控制器发过来的指令,配置位于交换机内的转发表项,并可以通过南向接口主动上报一些事件给控制器。控制器控制器是SDN网络中的核心元素,向上提供应用程序编程接口,向下控制硬件设备,处于战略位置。一个SDN网络中,可以有多个controller,controller之间可以是主从关系(一主多从),也可以是对等关系。一个controller可以控制多台设备,一台设备也可以被多个controller控制。通常controller都是运行在一台独立的服务器上,比如x86的linux服务器或windows服务器。SDN网络架构-组件SDN网络架构中组件包括转发设备层、控制器,及应用层71组件特点应用层应用层处于SDN网络架构的最上层,是SDN的核心价值所在。用户根据业务需求调用控制开放的网络编程接口编写应用程序、定义网络行为、实现应用创新。网络编排规则在网络进行更高级别的资源抽象,根据用户的业务需求实现网络自动化部署。SDN发展历史SDN发展历史722008201120132008年,Mckeown等人发表题为“OpenFlow:EnablingInnovationinCampusNetworks”的论文,完整地提出了实现SDN的openflow协议,Mckeown等人进一步提出了SDN的概念。2011年Mckeown联同Google、微软,Facebook,NTT,德国电信等组织一起成立了ONF,旨在推广SDN,同时标准化OpenFlow协议,从openflow1.1、1.2、1.3、1.4、到目前最新的1.5。2013年由18家著名的IT厂家发起了OpenDayLight(ODL)组织,包括BigSwitch,Cisco,Brocade、Citrix,Ericsson,IBM等。Openflow概述OpenFlow是ONF组织制定的唯一转发面协议Of-config是ONF组织制定的唯一控制面协议,是Openflow伴侣协议截止目前,OpenFlow协议标准仍在不断完善中,最新版本是1.5.3OpenFlow交换机转发面原理OpenFlow交换机转发面内部(交换芯片)可以认为逻辑上由两部分组成:端口(Port)和流表(FlowTable)一个openlfow交换机可以包含很多端口和流表与controller通信的交换机控制通道是一个特殊的逻辑端口交换机按照流表来转发报文流表1流表2流表NOpenFlow交换机Port1Port2PortN………Port1Port2PortN………PacketInPacketOutControllerChannelOpenFlowcontroller和交换机工作过程控制器与交换机工作过程02控制器下发配置03报文在交换机中转发01系统初始化controller与交换机工作过程OpenFlow交换机初始状态下,内部没有流表项,不能工作,必须与controller建立连接后,由controller下发默认流表项给交换机。交换机初始化完成后,根据业务需求,controller下发流表项或修改已存在流表项的属性,或删除不需要的流表。报文进入交换机后,根据交换机配置(通常基于port配置)去查找特定的流表,匹配到之后,就执行相应的Instruction,经过action处理,该报文被编辑,或不变,被丢弃,被计数,被测速,被转发。OpenFlow控制面的挑战

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论