数据中心网络技术红宝书_第1页
数据中心网络技术红宝书_第2页
数据中心网络技术红宝书_第3页
数据中心网络技术红宝书_第4页
数据中心网络技术红宝书_第5页
已阅读5页,还剩665页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

萌芽阶段,即便有几台服务器,也只是提供基本的文件备份、的信息化水平逐步提高,越来越多的企业将纸质的文档转移成电子的数据。电子邮箱、这些数据不但对存储速度有着苛刻的要求,同时还需要满足络环境的稳定、通信线路的冗余、精密空调的支撑、消防与企业规模的扩张,多个地域分散着分公司、平级工厂,用,并且数据在近端和远端也需要无差别地传输,企业的信11数据中心到底是什么呢?在进入正题之前,让我们带着这个对于谷歌数据中心来说,图片清晰看到谷歌数据中心热空气的排气风扇直接切断废气的热能转化为封闭区域。在机谷歌提供最全面审视内部的IT基础设施,22RagingWire数据中心的显著特点是在其布33作为开放数据中心领先厂商,Facebook在北卡罗来纳州Ruther44该数据中心主要是针对气候变化的研究,可改善预55该数据中心并不陌生,位于新泽西州NJ1数66位于爱尔兰都柏林的微软数据中心以“服务器农场”所闻名。排列整齐的服务器,服务器安装在一个热通道密77通过这些图片你看到了什么?服务器、机架、布线、架空地板、冷却塔还是电池阵列?如前所见,数据中心(DataCenter)不再是服务器的集合,而是一套完整的、复杂的、大集合的系统,它不仅仅包括计算机系统和其它与之配套如今,企业将更多地业务流程转换成电子的模式,无纸易耗品,较高配置的刀片服务器和与之配套的存储和通信系统能满足信息系统的运转,但是依靠服务器和存储并不能为企业带来高可用性保障,从基础设另一方面,数量庞大的服务器和存储必然会给数据的是普通空调完全不能满足如此大的热能转换,于是精密空调、冷热通道、围栏技术、提高可用性,这应该算是最基础的措施。提高可用性还需要在数机,它的设计容量是N+1,并且需要配备双路市电输入,因为高负载88静电对电子设备的影响相信大家都不陌生,防静电地板在数据中心算是首层防护工具,对于其他异常电量控制还需要多角度考虑。举个简单的例子,面这些只是数据中心的一个缩影,诸如避免火灾的气体消防系l应用支撑平台:一般来讲是具有行业特点的统一软件平台,整合异构系统所以,我们对数据中心的考量不再是某个个体,而是将数据中到一起,有针对性、计划性、全面性地评估和部署“多一点挑战”是我们更希望看到的。99(1)单级数据中心是指企业或组织将业务系统集中化管理,只设是本部,还是分支机构的客户端都通过相关通道连接内(2)多级数据中心是指企业或组织以多层次、分布式的模式建设一级数据中心,下级单位建立二级数据中心、三级数据中(1)企业数据中心是由企业或组织自行构建,为企业内部员工、供数据处理、数据访问等信息服务,它可以是单级数据中心或面向的服务对象更广,这类数据中心规模一般较大,设备和空间给中小企业,中小企业通过备份软件方式将本地数据集中备份在数据中心里面等。数据中心达到100%的可用性是每一个CIO和IT运维人员的终极目标,但是这并不现实,人为、设备、环境等因素都有可能造成服务的中断。冗下面我们来详细了解数据中心可用性分级标准。TIA-9该级别数据中心只有一组通信通道、一个供电分配系统统,无架空地板,即便有承载力也较低。此类数据节点出现问题都会导致数据中心的非正常运转,因此这些基础设量的冗余设备,比如UPS和发电机,它们的设设施进行维护时仍然需要关闭设备,TieTierIII级数据中心的在线维护能力大幅提高,它可下进行计划性维护,计划性维护内容包括保护性的和程序式的替换,增加或者减少与处理能力相关的部件,对部件和系统进并且该级别数据中心的访问控制也非常严格,III级数据中心较之TierII级数据中心的可用性大幅增加,达到了99.982%,每年中断容错级数据中心需要考虑所有计划性的维护和存在隐匿的具备容错性、多重性、独立性,并以“双”的概念出现,两条供电的(N+1)UPS系统+发电机组、两条通信线路等,即便是服务器输入;另外,消防系统也采用了七氟丙烷气体灭火系统,并配备TierIV数据中心的可用性需要达到99.995%,甚至更高,服务中断只有在计划中的预级别越高,数据中心的性能就越强,当然运维成本会有商务企业,或者是安全要求较高但是低于政府金融行业安全要求TierIII级别的数据中心也是不错的选择,它在性价TierIV数据中心,它的性能最高,属国家或军用本文从数据中心起源讲起,带你一起体验了全球几大数据中数据中心的原型来自早期计算机领域巨大的计程”。因此如果要了解数据中心的发展史,那么知道一些计算机的发不误砍柴工”。下面就让我们先简单地回顾一下那些与数如果我们将数据中心定义为一个包含计算、存储、网络ENIAC是ElectronicNumer1964年,控制数据公司(ControlData“CDC6600”。该超级计算机也是超级计算数据中心的现代鼻祖,由西摩·克雷(Seymour“CDC6600”采用管线标量架构,使用RISC指令集。在这种架构中,一个CPU交替处乐公司Xerox推出了Alto,它是首个将计算机所有元素都结合在一起的图形界面操作计算机和激光打印机连成网络。这些将不同技术组合在一起,1990s早期:CS(client-serve代之的是连接的网络设备,尤其是CS技术模型的中心的部署提供了更多选择。随着公司对互联网业务应用的作服务成为了企业部署IT服务的必备选择。网络模块化数据中心将通常数据中心的设备都部署在集装箱里面,因心。最有名的包括SunBlackbox—计算机的主要器件还是由电子管、晶体管组成,它们的体积庞贵,多用于国防军事、科学研究等领域。由于涉及的数据非常敏感,当时价格UPS和精密空调也成为必备选项,这时的数据机房倾向于大型机的数据计算,因大规模集成电路飞速发展的年代,大型机和巨型机还是主时开启了小型机和微型机的发展。技术的改进、性能型机领域发展迅猛,中小型数据机房也呈现爆炸式增输也只是小范围、低速率的领域。随着互联网的出现,分散在各地整合到一起,并通过互联网这个大的平台分散给人类社会。求,IDC(InternetDataCenter,互联网数据中心)应运而生,它集中收集和处理数据,分布式、模块化数据中心正逐渐接管市场……其中大型机时代和小型机时代,更多地称为“新的技术不断被提出并在数据中心里面加以应用。另外数据中据,业务的连续性是数据中心生存的首要条件,短短几分钟的中于企业的关键业务来说那将是致命的打击,未来的数据中心必服务器虚拟化在数据中心中已经大行其道,但是仍然有很多数器,随着时间的推移,物理服务会大跨步向虚拟服务迁移,当仅仅是服务器虚拟化显然不能算是高度虚拟化的数据中心,存储虚一方面,存储虚拟化将毫无关联且相互独立的存储空间源动态地分配给各个系统应用,资源的高利用率立刻可以体现。化将底层相对复杂的基础存储技术变得简单,数据管理员看到的存储设备,取而代之的是更加层次化、无缝的资源虚拟视图。而加明显,高速、大容量无疑是对存储最好的诠释。存储虚拟化对服务器虚拟化、存储虚拟化、网络虚拟化将数据中心的基础环得数据中心全局可用性和安全性得到了大幅提升,接下来在虚拟化和桌面虚拟化,在应用层面同样采用虚拟的方式来运设备的大幅减少,支撑其运行的UPS系统也会呈现大幅支出就会为企业节省60%以上,绿色数据在基础环境领域,设备本身也同样经历着低碳概念的洗涤。主板应用RoHS认证材料,并采用全固态电容,材质本身非常绿色环保、稳定性更多核心的CPU在服务器的整体战略角控微处理管理芯片,实时管理电源的工作状态,为整体节能降耗频降频提供着帮助,这只是服务器应用环节的一个缩影,存储设环境的变化也在为降低数据中心整体TCO(在整体环境中,中央冷却系统这样的耗电大户随着设备的减少也感系统向管理平台发送着实时的数据,方便管理者进行最适宜装采用围栏技术,将冷空气流和热空气流通过乙烯基塑料隔板快速导流,保持空气温度长期均衡。另外,精密空调变速系统在日趋紧张的资金环境,在保证所有系统正常运转的情况下,“省大型集装箱的密度非常高,内部通常放置了大量的机架式并通过冷热通道将气流疏导,加之全封闭的模式使得数据中心的PUE(P片等门禁系统、远程网络监控系统,以及感烟感温火灾预警将多个集装箱叠加在一起,它的部署速度、协作能力、自动化部署为了应对目前快速增长的网游和电子商务市场,急需扩展长的业务需求,这种集装箱、模块化的数据中心可以起到推统模式部署简单,HP、SUN等大型数据中心供应商可做到“美国6周,全球12“一虚多”的模式(一台物理服务器抽象出多个虚拟系统)得到了扩展、“多虚一”(多个虚拟系统同时处理单项任务)和“多虚多”(多可以试想一下,电子商务、视频播放、在线交友等网站,日次,支撑业务的平台恐怕需要数万台服务器、多个数据中心以及据中心难以满足,云数据中心将这些抽象出来的资源全部整合到一起面对如此庞杂的资源池,人工管理显然非常不现实,所有人务的迁移、故障集群转移与检查排除、流程的跟踪与审核都传统的数据中心向“云”的模式过渡是大势所趋,中小企业的灵活性“私主公辅”的混合云模式也将占据一定比例。网络设备、服务器(包含相关操作系统和应用软件)和存储设备等等。在这些组件中,交换机、防火墙、路由器等网络设备的互联构成了数据中一般情况下,本着灵活、安全、易管理的设计原则,企设备进行分区。分区的划分方式有以下几种,不同分区方式接入区是数据中心对外提供服务的区域。根据接入的用户类互联区是实现与灾备数据中心互联的区域,一般情业务区是部署服务器和应用系统的区域。出于安全性和所部分区的规模和所承载的业务类型决定了数据中心网络架构两层组网架构核心/汇聚层一般采用高性能的框式交换机,旁挂防火这种组网方式在数据中心发展扩容时,可以根据需要将根据不同的业务需要,SPINE和LEAF之间可以使用IP路由、VXLAN或TRILL等技lSPINE和LEAF之间使用IP路由lSPINE和LEAF之间VXLAN或TRILL三层组网架构一般情况下,数据中心网络都会进行服务器的分区管理在这种组网方式中,交换核心区是整个数据中心网络的存储融合一般情况下,服务器需要HBA和NIC两种网卡才务器数量大幅增加,布线复杂、维护成本高等一系列问题逐为了满足业务的需要,传统数据中心网络将逐渐向具备弹性、简弹性是指网络能够实现灵活、平滑扩展以适应业务-设备级弹性扩展:网络设备需要具备持续的平滑扩容能力。例如接入交换机可-系统级弹性扩展:数据中心网络需要支持更大规模的二层网络。例如提供X万-数据中心级弹性扩展:数据中心互联网络要能够支持多个数据中心的资源整合,简单就在于要能够让网络更好的为业务服务,能 在开始之前,首先要明确一点,大二层网络基本上都是针对数据实际上就是为了解决数据中心的服务器虚拟化之后出现的。对于普通的园区网之类网络而言,大二层我们看到,这种网络架构其实和园区网等网络的架构是一样行业的“加盟店”形式,而与之相对应的“三层到边缘”架构,之所以采用这种网络架构,是因为这种架构非常成熟,相关VLAN+xSTP、三层路由)都是成熟的技术,可但是这种网络架构对于数据中心来说,其实是隐藏着一个弱点的,通过服务器虚拟化,可以有效地提高服务器的利用率,降低能本来,服务器虚拟化对于数据中心网络来说,也没啥特别大的统的数据中心网络带来了很大的麻烦。当然在讲麻烦之前,我所谓虚拟机动态迁移,就是在保证虚拟机上服务正常运行的同从一个物理服务器移动到另一个物理服务器的过程。该过知的,从而使得管理员能够在不影响用户正常使用的情况说白了,动态迁移就是让虚拟机搬家,但是要求搬家的时搞清楚虚拟机动态迁移是怎么回事之后,我们来看到底这个技还记得我前面卖得关子不?我说对于数据中心来说,二三层网络架构是有一个弱点的,的业务就会中断,而且牵一发动全身,其他相关的服务器(比如幸好幸好在传统的数据中心中,物理服务器位置的跨二层域迁移的场景是非常少见的,而且即使发生迁移,也都是物理层面的,业务肯定都已但是在服务器虚拟化之后,虚拟机的动态迁移会成为一种经常出现迁移时业务不中断,就要求在迁移时,不仅虚拟机的I而传统的二三层网络架构限制了虚拟机的动态迁移只能在一个较小的局部范围内进行,所以,为了打破这种限制,实现虚拟机的大范围甚至跨地域的就好比你原来住在南京,现在迁移到苏州了,原来各城市的么从南京迁移到苏州,人过去就行了,社保关系不需要任何VM动态迁移只是要求把所有服务器都纳入同一个二层网络,那问题来了:原络架构为什么就不能把所有服务器都纳入同一个二层网络?传统这也就是我前面卖的关子,为什么说传统网络架构限制了虚要说清楚这一点,我们首先需要弄清楚二层网络面临的主要其实说起来也简单,二层网络的核心问题就是环路问题以及由此产生的广播风暴问题。如果是一个单设备和单链路组成的树型二层网络,但是这种网络的可靠性是非常差的,因为它没有任何的备份设所以,为了提高网络可靠性,通常会采用冗余设备和冗余的形成环路。如下图所示。红色链路构成一个环路,蓝色而二层网络处于同一个广播域下,广播报文在环路中会报文转发又没有TTL机制,无限循环之下,就2环路的解决之道-通过划分VLAN来缩小广播域的规模VLAN技术可以把一个大的物理二层域划分成许多小的逻辑二层域,这-通过破环协议来防止环路的产生另外一种治本的方法则是从广播风暴形成的为出现了环路才导致的,那么通过一定的手段,防止成备份设备和备份链路。即冗余的设备端口和链路在参与数据报文的转发。只有当前转发的设备、端口、不通的时候,冗余的设备端口和链路才会被打开,使来控制广播风暴的规模。而对于大二层网络的需求而言(对于其他一些破环协议,虽然可能相比xST最后给个总结式的数据,基于VLAN+xSTP技术的这与前一篇中所说的,真正意义上的大二层网络至少能容纳如上一篇介绍的那样,传统的二层技术无法实现真正意幸好这个世界上聪明的脑袋是很多的,这些技术大牛们各显釜底抽薪派解决大二层网络困境,还是从二层网络的核心问题是环路问题,那么解决了环路问题,就一劳永逸了。抽了“环路”的“薪”,那么广播风暴的“火”也就烧不起来了。也就意味着,二层网络想做多大就可以做多大。所谓网络设备虚拟化技术,就是将相互冗余的两台或多台拟化技术就有点和服务器的虚拟化比较相似,但是我们本文中不涉及这种虚拟化)而且虚拟化技术和链路聚合技术都具备冗余备份功能,单障时,可以自动切换到其他物理设备和链路来进行数据转发,保证网络的可靠性。虚拟网络设备所能支持的接入能力,只要虚拟网络设备允2)受限于堆叠系统本身的规模限制,目前最大规模的堆叠/集群大我们都知道,二层以太网的帧交换不能有环路,冗余链转发网络也是有环路的,为啥就没有这些问题呢?而且三层其实原因很简单,因为三层网络比二层网络“聪明”!二层网),而三层网络就聪明智能得多了。三层网络是依靠路由协过路由协议,各台路由设备就可以收集、扩散和更新彼此的台设备可以知道全部或者局部网络的拓扑信息,所以在数据证从某个主机发出的报文只会向着目标主机一路前进,而不所以,移花接木派就想到了能不能把三层网络的路由转发来呢?事实上他们做到了。通过在二层报文前插入额外的做ECMP。这样可以将二层网络的规模扩展到题外话:有喜欢钻研的同学可能会疑问,那为啥当初二层网式设计呢?而要设计成这样一个比较弱智的转发而已,那个时候的网络设备性能很低,要进行完整的路由具有很高的性能(所以那个时候路由器很贵的而那个时候的局域网又都不大,没有遇到像现在这种大二层的网络需求,所以弱智原则。当前的网络设备的性能已经不可同日而语担更复杂的路由计算,而且又有大二层这种明确的需求通过路由计算方式进行二层报文的转发,需要定义新的协推向市场的“Pre-Standard”技术性功能和特性,我们暂不用去理会,基本上可以认为T的环路问题。而她还有一项众所周知的伟大发明Nickname标识来进行转发,而Nickname就像路由一样,可通过IS-IS于2008年完成的802.1ah标准,为运营商城域以太网定义了一整套MAC-in-Ethernet报头在运营商骨干区域二层BridgeTrafficEngineering用于在运营商的PBB-TE静态规划转发路径,明显无法适用于大型二层网络扩展的部署和实施都是在网络设备上进行的,与服务器等IT设施无关,所以CT厂商的原始二层报文封装后在现有网络中进行透明传输,到达目通过封装和解封装,相当于一个大二层网络叠加在现有的基础过GRE封装之后在三层网络中进行传输,透明不可见的,也就相当于直接在源网络和目标网络之间直接但是GRE这样的隧道协议是点到点的隧道协多主机需要二层通信的话,就要每两台主机之间都拉上“光纤”,这是无法想象的。众所周知,“二层交换机”是可以实现下挂主机之间相互二“二层交换机”的一个端口迁移到另一个端口时,IP地址是可以保持不变的。这样所以,Overlay方案的意义也就是在于此。Overlay方案的的隧道封装协议,完全忽略中间网络的结构和细节,把整个中间网络虚拟成一台“巨大无比的二层交换机”,每一台主机都是直接连在这台“巨大交换机”的一个端基于这种“巨大交换机”的理解,那么就也很容易理解为什么VM动态迁移了,不就是把VM主机从交换机的一个端口换到另一的IP/MAC地址作为外层头进行封装,承载网报文封装,对于不认识的MAC地址,通过组播方式在这也很好理解,对于VXLAN和NVGRE技术来说,报文务器内部的虚拟交换机vSwitch上进行的,外部网−一方面对于虚拟化的服务器来说,网络设备的性能还是要比vSwit−另外一方面,在TOR上部署Overlay接入点,也这样CT厂商和IT厂商就可以在大二层这个领域实现了和谐共赢。上一篇我们谈了很多大二层网络的技术和流派,但是细心的谈这些方案和技术,实际上都是讲的同一个数据中心内的大二层跨数据中心情况下,那么如果要实现跨数据中心的VM中心的服务器也都在同一个二层域内。也就是说要构建一个覆在讨论跨数据中心的大二层网络时,我们可以从数据中心内的情况进行延伸。看看对于釜底抽薪派、移花接木派、瞒天过海釜底抽薪派通过网络设备虚拟化来消除二层网络环路这种方式就是把网络设备虚拟化的范围扩大到所有数据中心但是这种方式要求数据中心之间可以实现堆叠线缆和光纤线路的直己铺设长距离光纤或者传输设备的条件的。所以,这种方式局限如果不具备跨数据中心堆叠的条件,那么想通过纯二层就不太现实了。而在一般情况下,多数据中心之间是通过三层路由互通能把每个数据中心内的二层网络作为大二层网络的一个局部,再把这些的三层网络,实现两地二层数据的互通。这overGRE。也有新兴的专门为数据中心二层互联开发的VPN技术,例如华为的EVN等。lEVN通过扩展BGP协议使二层网络的MAC地址学习和到控制平面。这样可以使设备在管理MAClBGP协议支持路由反射器RR功能,所以可以在互联最理想的状况,当然是把所有数据中心的网络(包括可行的。这种方案简单的说,就是没有什么数据中心内部网简单是简单的,但是这种方案的物理条件要求似乎也一下,对于一个全国性的企业,多地数据中心的互所以,对于TRILL来说,最经济的方案,其实唯一需要说明的是,对于釜底抽薪派来说,太网报文。而对于TRILL来说,如果要实现跨数据中心TRILL报文,只取出用户原始二层报文再进行瞒天过海派面对跨数据中心的情况时,情不然后……忽略中间网络的结构和细节,把整个承载网络虚拟成一台“巨大无每一台主机都是直接连在这台“巨大交换机”的一个端口上。而承所以,无论是在数据中心内的网络,还是跨数据中心的互联网就以VXLAN为例,VTEP把VMA的原始数据报文进行VXLAN封装后(MACinVMB所在的VTEP中间网络无论用什么技术,只要能把报文转发所以说,瞒天过海派是天然可以支持跨数据中心的大二层网络前期的“2.1.1数据中心为什么需要大二层网络”已经清晰支撑大二层网络的需求。会产生环路上来。为了提高网络可靠性,通常设备和链路都是冗不可避免的形成了环路。如果是单设备和单链路组成的树型网络,是没有环路问题的,那么有没有什么办法在设备、链路冗余的基础上又保持树型网络的基于这样的设想,简单粗暴、直接有效的网络设备虚拟化技术出术就是将相互冗余的两台或多台物理设备组合在一起,虚拟化(本文中的网络虚拟化技术特指多虚一的技术VS技术,可以把一台网络设备虚拟成多台网络设备使用,但是本文中不涉及虚拟化后的设备之间相互冗余备份,单台物理设备故障时,避免因单点故障导致业务中断。设备虚拟化再配合链路聚合技术,横向虚拟化技术从低端盒式设备到高端框式设备都已经被广泛应堆叠建立后,多物理设备虚拟成为一台设备,用户可以录堆叠系统,对所有成员设备进行统一的配置和管理,l快速的故障收敛l扩容方便、保护投资够彻底。一方面是横向虚拟化后依然没有减少网络的层级;另一解决管理节点较多的问题。大规模的数据中心都有高密度接入的相比较横向虚拟化,纵向虚拟化具有更好的简化网络结构、简虚拟化进行的更彻底。纵向虚拟化可以将汇聚层、接入层的交换机逻辑系统,只有一个管理、控制面。管理员只需要管理一台逻辑的拓扑,以及大量重复的配置工作。通过纵向整合,网络简化效入交换机,服务器直接接入机柜内的交换机上,交换机上行端口到网络机柜中的汇聚交换机上。TOR布线机架间布线简机柜里的服务器直接通过跳线连接至网络机柜中的交换机。虽然建立SVF后,接入交换机采用TOR的方式就近服务器部署,作为控制节点的交换机前文描述了那么多设备虚拟化技术给网络带来的优势,拟化技术简直堪称完美的错觉,其不仅釜底抽薪式的解决了环路问题,还兼诸多优点。对此笔者只能轻叹一声,十来年的辩证思维教育告诉我们——完美的事物是不存在的。一方面是各自为战,设备虚拟化技术是各个厂家私有的法使用不同厂家的设备来进行多虚一(甚至于同一厂家的不么,也不用想太多,且不说技术上是否可行,各厂商会愿意另一方面更重要的是虚拟化系统本身的规模限制。虚拟化后所有设备的控制平面合一,心,但对于一些超大型的数据中心来说,就显得力不从心了。这网络中所有设备都虚拟成一台逻辑设备,以上说的一切问题都将迎此外,设备虚拟化后控制面合一,系统被当做一台设备来管数据中心大规模二层网络的需求目前已经非常的清晰,各厂术和方案,满足大二层的当前要求和未来扩展需求。网络设很多年,虽然当初在出现的时候,并不是为了满足大二层的二层网络的效果,所以虚拟化技术在数据中心中有着广泛的术有着一定的不足,但从实际应用情况来看,由于其简单易看过了前面的大二层网络系列专题,相信大家对于云计算背景有了一个基本的认识。在云计算数据中心时代,由于虚拟机之间的集群计算所带来的虚拟机迁移、东西向流量的增多等在一个数据中心服务器数量动辄上万甚至十万级别的今天,可以服务器数量的增加导致业务吞吐量增加,东西向流量增加,要提供线速转发的能力,并且网络中的链路必须尽可能的都利那么问题来了,看起来,我们需要一个大型的二层网络,并且架构下,所有控制面信息的处理都集中在主设备上,而一台设的。所以这种架构下网络的规模受到了主设备处理能力的限制说了这么多,有点走投无路的感觉。再看一下方案一和方案二的种种问题,总结起来,我们需要一个能支持足够多的设备,天生没有环路,并且链没错,目前我们常见的2个域内路由协议,且都能支持几百台设备的大型网络。如果能让路由协议部署在我们的这对而言,增加新类型的协议报文肯定是不如在原来的报文上增加几个字段来的方便了。作为一个网络协议,其收敛速度无疑是一个非常重要的指标个网络中支持的设备规模,而网络规模也是我们需要解决就目前协议实现来看,ISIS无疑在收敛速度上是领先的,有智在这一点上,OSPF无疑是完胜。OSPF协议有丰富的区域类型,络最亟待解决的问题还是网络规模和链路利用率。而IS们的改装更加顺利,而且最重要得一点,ISIS协议是直接运行现在我们正式开始我们改装ISIS协议,首先我们想到的作在网络层的,那是基于IP来进行寻址的嘛。那提出了集成ISIS协议。既然能够针对I我们在这个二层网络中的寻址的依据,这个标识我们称之进行到这里,大家应该又会想到,IP是每个接口配的网段,然后再进行二层的转发。那么在我们这个二层网络中,不存在网段这个概念,所以接口上配置IP地址的最大的意义就没有了。我路由协议的第一步,当然是要和相邻的设备建立邻居了。运了。我们先来看一下ISIS协议的HELLO报文长什么样,以LAN这里先简单介绍下ISIS协议的协议报文的结构。ISISPDU,ISIS使用9种PDU类型来进行它的控制信息处理,并使用一个5位的类型号来ProtocolDiscriminaID长度,用来标识该路由选择域内使用的NSA增强型ISIS协议依然还是用NSAP地址和系统ID,所以),LANHELLO数据包中的优先级特性选取出来到这里我们可以看到,ISIS协议的HELLO有了HELLO报文,我们就可以来建立邻居了。既然我4:邻居关系建立之后,两台Router会定期发送Hello报文我们增强型ISIS协议也可以利用这种机制简化广播链路上多设型的ISIS协议也不例外。ISIS协议中,用于拓扑收集和路数据库进行维护。SNP报文分为CSNP和PSNP两种:),−PSNP:收到CSNP报文后,设备会用CSNP报文中的序列号信息和自身链路数据库中的信息进行比对,如果发现有更新的L观察一下几个报文的字段,“PDU长度”“剩余生存时间”“LS号”“校验和”等等大家肯定都耳熟能详了,这些示始发路由器支持自动修复区域的分段情况通过分析可以看到,数据库交互基本可以沿用ISIS是中间某些我们不关注的字段给一个固定值即可。所以沿用ISIS协议的交互过程,我们以最常见的广播网络为例,对交4Router3收到指定路由器发来的CSNP报文,对比自己的LSDB数据库,发送5指定路由器收到该PSNP报文请求后发送对应的LSP给Router3,Router3进行e)若两个序列号和RemainingLifeti说到这里,一个应用在二层网络的链路状态路由协议已经在研究转发机制前,我们先给这个增强型ISIS协议及的名字,来和原本的ISIS协议进行区分。我们给了这RB(RouterBridge)指运行TRIDRB(DesignatedRouterBridgNETNicknameVLAN。一台RB最多可配置三个不同的CarrierVLAN。入TRILL数据报文和协议报文的CarrierVLAN被称为该类型端口用于接入用户终端,只能转发NativeEt入。该端口既能接入终端的NativeETH报文总结:TRILL协议主要解决了传统二层网络规模小,无法实过上述对其控制平面机制的说明可以看出,TRILL协议们主要的寻址方式,其实包含了nickname等信息供查表转发。VLAN,外层以太报头中封装的应该是用于承载TRILL协VLAN。TRILL报头就类似路由转发中IP报头的作用。下面我们简单解释下TRILL报VRM看完报文结构,大家应该对TRILL基本的报文文非常类似,仅仅是寻址标识从IP地址换成了nickname。所以其转发模式和IP报文这些疑问我们在后面会用一个具体的例子来说明,在这首先,我们需要明确我们的目标。大家知道,BUM报文在是泛洪到所有连接到这条链路的设备或者网络(这里链路其到一个BUM报文,答案很简单,就是同一广播域的所有组播中,网络的主要目的就是将组播报文发送到每一个有点播需求(发送IGMP请求)IP组播的基本思想简单总结一下(实际上IP组播相当复个网络的所有子网。而一旦某子网内设备有点播需求,则的网关请求组播流量,而网关设备会继续向上请求。如果某子网内没有任何点播需求,那么这个子网对应的组播树树枝就会被剪掉。当网络稳定后,组络中也生成一颗(当然也可以多颗,具体我们后面再讨论)组到网络中所有的设备,当某设备配置了CE那么最后一个问题,组播树该如何生成?我们知道,在是IGMP/PIM等组播路由协议。这些组播路由依赖单播路由协议的数据库信息。简单的说组播路由协议主备优先成为树根,如果根优先级一致,则system-按照我们上面说的,如果生成一颗组播树,那么可能组播树会如左边这种情况。此时,网络中所有BUM流量都会从这颗树得三条链路上进行所以实际上,在CE系列交换机的实现中,在以这两个树根计算两颗最短路径树。每个VLAN会选枝。实际实现中,基数VLAN会选择一颗最短路径树5:RB2收到RB5发来的报文,首先跟1:为何RB2学到的MACA表项出接口为RB13:RB2查找MAC表,发现目的MACA转发表,发现有两个等价下一跳,于是通过HASH计算,得出里以出接口为L4为例,RB2对ARPreplnickname也是自己,于是剥掉TRILLMACA。于是查看TRILL单播路由转发表,有两个等价单播下nickname查看TRILL单播转发表,查表传统网络需要单独维护单播组播两套协议,无疑为客户降低非常多在网络规划时,为了保证可靠性,网络或者设备经常会双归或者络,这种情况下,如何避免环路就成了非常重要的问题。TRILL协议运行在二层网络,TRILLHello报文是组播发送计算,传递拓扑信息等。所以,需要将对应接口的端口模式配置成2:通过调整根优先级让RB2和RB3设备成为根桥,MS上面两个思路虽然都能解决多归属问题,但是有一个共同大家知道,一般在服务器单归到一台设备的情况下,为了链路聚合方式和设备进行对接。但是链路聚合可以保证链路的可M-LAG简单来说是一种跨设备的链路聚合技术,如图,服务器上配置了网在IP组播中,组播报文在发到某网段后,缺省情况样的问题,IP组播中解决这个问题的方法是二层组播。简单说就的组播组情况。这样设备在收到组播报文后,根据组播组地址,Report/Leave报文,发往最后一跳组播路由器,触发路由器上三层动态组播组云计算成为企业IT建设新形态任何技术的产生,都有其特定的时代背景与实际需求,VXLAN正云计算,凭借其在系统利用率高、人力/管理成本低、灵的优势,已经成为目前企业IT建设的新形态;而服务器虚拟化技术的广泛部署,极大地增加了数据中心的计算密业务的灵活变更,虚拟机VM(VirtualM传统数据中心网络面临的挑战虚拟机数量的快速增长与虚拟机迁移业务的日趋频繁,给传统的“对于同网段主机的通信而言,报文通过查询MAC化后,数据中心中VM的数量比原有的物理机发生了数量级的增长,伴随而来的便是虚拟机网卡MAC地址数量的空前增加。此时,处于接入侧的二层设备表示“我要Hold不住了”!的VLAN数量只有4000个左右。对于l虚拟机迁移范围受限虚拟机迁移,顾名思义,就是将虚拟机从一个物理机迁要求在迁移过程中业务不能中断。要做到这一点,需要保证虚拟IP地址、MAC地址等参数维持不变。这就决定了,虚拟机迁移层域中。而传统数据中心网络的二层域,将虚拟机迁移限制在了将虚拟机迁移的范围扩大。但是,构建物理上的大二层,难免VXLAN是什么NVO3(NetworkVirtualizatiUDP)的报文封装模式,将二层报文用三层协议进行封装,可实现二层网络在三层范VXLAN网络模型),“隧道”是一个逻辑上的概念,它并不新鲜,比如大家熟悉的GRE。说白了就是将原始报文“变身”下,加以“包装”,好让它可见招拆招对于“虚拟机规模受网络设备表项规格的限制”这个问题,可能格大一些的接入交换机(比如跟核心或网关同档次的设备)不就行了。我只能说,VTEP会将VM发出的原始报文封装成一个新的UDP和MAC地址作为外层头,对网络中的其他设文头负责基本的三层转发就可以了。因此,虚拟机规模对于“传统网络的隔离能力有限”这个问题,VXLAN采用了“扩容”l招式三:暗度陈仓VXLAN报文长啥样看过上面的描述,你一定对于封装后的VXLAN报文有了如你所料,VTEP对VM发送的原始以太帧(OriginalL2lVXLANHeader封装外层以太头。其中,源MAC地址(Src.M本章小结了解了VXLAN技术是如何见招拆招解决云计算时代建立VXLAN隧道.2什么是“同一大二层域”我们知道,不同的VLAN是通过VLANID#bridge-domain10//表示创建一个“大二层广播域”BD,其编号为10vxlanvni5000//表示在BD10下,指定与之关联的VNI为5000#<HUAWEI>displayvxlanvniNumberofvxlanvni:1VNIBD-IDState500010up是如何进行处理的。我们知道,报文要进入交换机进行下一步处理目的是一样的:一是根据配置来检查哪些报文是允许通过的;二是是判断对检查通过的报文做怎样的处理。下面我们就来看下在二层子接口上,可以根据需要定义不同的流封装类型(类似于default,它们各自对报文的处理方式untag看了上面的描述,再来回答“如何确定报文属于哪个BD二层子接口加入指定的BD,然后根据二层子分别配置其流封装类型为dot1q和untag。配置如下:#interface10GE1/0/1.1model2//创建二层子接口10GE1/0/1.1encapsulationdot1qvid10//只允许携带VLANTag10的报文进入VXLAN隧道bridge-domain10//报文进入的是BD10#interface10GE1/0/1.2model2//创建二层子接口10GE1/0/1.2encapsulationuntag//只允许不携带VLANTag的报文进入VXLAN隧道bridge-domain20//报文进入的是BD20##interface10GE1/0/2.1model2//创建二层子接口10GE1/0/2.1encapsulationdefault//允许所有报文进入VXLAN隧道bridge-domain30//报文进入的是BD30#应该如何选择配置哪种类型的二层子接口?三种类型的二层子接口default类型的二层子接口跟其他两种类型的二层子接口是不可以在存的。否则,报文到了接口之后如何判断要进入哪个二层子接#ZH-CN_TOPIC_0023019275和VLAN20,且分别属于不同的大二层域BD10和BD20,显然他们发出的报文要进用中,请务必根据组网需求,结合#ZH-CN_TOPIC_0023019#interfaceNve1//创建逻辑接口NVE1source//配置源VTEP的IP地址(推荐使用Loopback接口的IP地址)vni5000head-endpeer-listvni5000head-endpeer-list#<HUAWEI>displayvxlanvni5000verboseSource:BUMMode:head-endGroupAddress:-PeerList:(Broadcast&Unknown-unicast&Multicast,广播&未知单播&组播我们知道,基本的二三层转发中,二层转发表,则主机发送ARP广播报文请求对端的MAC地址;三层流程。相信看完下面的内容,关于“如何确定报文要进哪条隧道”的疑惑也就迎刃VXLAN网络中报文的转发流程③报文到达VTEP_2和VTEP_3后,VTEP对报文进行VM_B发现目的IP不是本机IP,故将报文丢弃;VM_C发现目的IP是本机IP,则对⑤VTEP_3接收到VM_C发送的ARP至此,VM_A和VM_C均已学习到了对方的MAC地址。之后,VM_A和VM_C将采BDIF接口的功能与VLANIF接口类似,是基于MAC后,网关再将数据报文发送给VM_B。以上MAC地址学习的过程与.1同子网互通中MAC地址学习的流程一致,不再赘述。现在假设VM_A和VM_B均已学l报文到BDIF20接口时,识别到④报文到达VTEP_2后,VTEP_2对报文进行解封装,得到内VXLAN侧进入网关并解封装后,就按照普通的单播报文发送方式本章小结本篇我们以下图所示的典型的“Spine-Leaf”数据门的VM属于不同的网段。用户希望同一部门VM之间、不同部门VM之间,VM与VXLAN网络的子网互通VXLAN隧道,并在每个Leaf上部署VXLAN二层网关,即可实现同一部门VM之间细心的读者可能已经发现,在.2不同子网互通(集中式网关)中,同一Leaf(Leaf1)下挂的不同网段VM(VM1和VM2)之间的通信,都需要在Spine上进行绕行,这样就导致Leaf与Spine之间的链路上,存在冗余的报文,额外占用了大量的带宽。同时,Spine作为VXLAN三层网关时,易成为网络瓶颈。l同Leaf节点下不同部门VM之间的通信网关,即可实现同Leaf下不同部门VM之间的相互通信。此时,VM1和VM2互l跨Leaf节点不同部门VM之间的通信部署VXLAN三层网关。两个VXLAN三层网关BGP邻居,从而实现跨Leaf节点不同部门VM之间的相互通信。Leaf作为VXLAN三层网关时,只学习其下挂终端租户的表项,而不必像集中式三层网关一样,VXLAN网络的可靠性随着网络的快速普及和应用的日益深入,基础网络的可靠性日益成为用户关注的焦点,在VXLAN网络的子网互通中,VM与Leaf之间,Leaf与Spine之间都是通过堆叠方式可以将多台交换机设备组合在一起,虚拟化成一台这一台虚拟交换机上进行,从而简化了接入层设备的运维复成员交换机之间在进行冗余备份的同时,能够VXLAN二层网关,从而实现同一部门VM之间的相互通信。通常采用多活网关方式提升核心层的可靠性。这是因为,核心VXLAN网络的部署方案此方式下,CE系列交换机作为转发器,需要预先完成部分基),VXLAN报文的封装格式,让你对VXLA鸿鹄论坛收集整理/本系列是“闲话大二层网络(4)—跨数据中心的大部分的延伸。EVN(EthernetVirtu数据中心互联网络分类在数据大集中的背景下,企业产生的数据量越来越大,数据的重于灾备、用户就近接入、提升资源利用率等方面的考虑,企业立多个数据中心站点。最常见是企业两地三中心的数据中心站l三层MPLS/IP互联,也称为数据中心前端网络互联,主要实现数据制、邮件访问等应用层级别的互访。一般情况下,企业都l存储互联,也称为SAN互联,主要实现数据中l二层互联,也称为数据中心服务器网络互联,主要实现跨站点服务器集群或互联网络实现方案鸿鹄论坛收集整理/从图2-52我们可以看到这几种方案都可以用于用中,这些方案在应用场景、成本投入等方面都存在的不足。这之所以将这几个方案放在一起讲,因为本质上来说,它们都式实现二层网络的扩展,安全性比较高,而这类实现方式的传输距离相对较短,因此一般适用于同城数方案应用的关键因素,当前主要由运营商,大型互联网企业或除此之外,这类方案实现二层网络扩展的同时,实际上也大大扩展了二层网络中环路、广播风暴的影响范围。而其解决方案跟一般二层网络一样,通如果说裸光纤等互联方式是土豪玩的方式,那么这种鸿鹄论坛收集整理/由于VPLS技术的标准化,该方案一度是使用最广泛的数据中心二层互联方l互联网络中的设备必须全部运行MPLS,而且连接配置。初始部署复杂是一方面,后续的维护也相对复杂,甚至不具备可行性:一旦需要扩展新的数据中心,或者由于数据中心内增或者变更PE设备,就必须得在所有站点l跟普通二层网络一样,互联后的不同数据中心站点间,依靠数据面的流量PBB-VPLS、MC-LAG+VPLS等一系列方案。这些方案在解决了VPLS部分问题的同上面我们都是从技术的维度去分析VPLS方案的不足。我们知道企业出于成本考虑一般采用向运营商租赁带宽的方案由于采用站点间广播的方式学习MAC,这种方式的浪费。另一方面,VPLS本身不支持多归属接入,意味着即使出VPLS组网方案本身技术比较复杂,部署及运维管理难度较大,对人员的能力要高。而在VPLS基础上的增强方案,更是进一步提高了对如果说运营商不care成本,出于技术MPLS仍然是必须的,因此MPLS相关的问题也将继续存在,那么EVPN到底在VPLSISIS来实现MAC地址的发布(有没有想到THUAWEI的EVN方案使用扩展的BGP来发布MAC鸿鹄论坛收集整理/置简单,且在环路避免、多归属支持、广播风暴抑制等方面均有很这一篇的内容会有点多,还请各位看官耐心。为了防止一下CloudEngine系列交换机支持。该方案通过扩展BGP提到使用BGP来传递MAC信息,仔细看前一篇l用户可以自主选择是否将未知单播报文、ARP类报文的跨站点泛洪可以显著的减少对互联带宽的占用,知易行难,真要想抽丝剥茧可不是这么三两句就完EVN组网模型、控制平面工作原理、转发平面工作原理、多归接入场景、EEVN组网模型lSite:Site是指数据中心站内由服务器和交换机组成的二现有的站点边界设备中虚拟出来的逻辑设备(例如,汇聚层交换机作方案中多个VLAN可以通过同一个EVN实VLAN之间的转发隔离,也不需要为每一个VLAN独立进行ElEVNID具有全局意义,需要全局唯一。不同PE上属于同一鸿鹄论坛收集整理/[PE2]evnevn-namesite1[*PE2-evn-site1]evn-id100[*PE2-evn-site1]vlan-list100to199[*PE2-evn-site1]quit[PE2]evnevn-namesite2[*PE2-evn-site1]evn-id200[*PE2-evn-site1]vlan-list200to299[*PE2-evn-site1]quit度来说,双归属的场景下的原理比单归属场景下要复杂一些。接在介绍实现原理时,我们将从控制平面和转发平面两个维度来描过程大家可以理解为一个修路通车的过程,目的在于打通在始发控制平面工作原理EVN的控制层面主要包括两个阶段:第一阶段是PE之间BGP邻居关系建立,即修路过程;第二阶段是PE上转发表项(MAC路由表、BUMMAC路由表用于指导单播流量的转发;BUM转发表用于指导广播、未知单播和组鸿鹄论坛收集整理/在VPLS方式中通过在PE之间建立全连接来可以是一台独立的设备,也可以由PE设备兼任。在下图所示的[~PE2]evnbgp[*PE2-evnbgp]source-address[*PE2-evnbgp]peerreflect-client[*PE2-evnbgp]peerreflect-client[~PE1]evnbgp[*PE1-evnbgp]source-address[*PE1-evnbgp]peer“State”字段为“Established”表示BGP邻居建立成功。[~PE2]displayevnbgppeerBGPlocalrouterID:LocalASnumber:65534Totalnumberofpeers:2Peersinestablishedstate:2PeerVASMsgRcvdMsgSentOutQUp/DownStatePrefRcv46553446000:00:23Established146553446000:00:14Established1针对EVNBGP邻接关系的安全性和可靠性,CE交换机还分别支持了Keychain认证和<HUAWEI>system-view[~HUAWEI]evnbgp[*HUAWEI-evnbgp]authenticationkeychainabc[*HUAWEI-evnbgp]bfdmin-tx-interval100min-rx-interval100detect-multiplier5BGP邻居管理建立完成后,两个站点之间的道路已经打通了,但是真正的l集成多播路由(InclusiveMulticastRoute当PE之间后,PE之间会传递集成多播路由。用于生成BUMlMAC地址通告路由(MACAdvertisementRouteBGP邻l以太自动发现路由(EthernetAuto-Discove立成功后,PE之间会传递以太自动发现路由。以在单归属场景中,主要涉及前两种路由的交互。接下来我们就看MAC路由表用于指导单播报文的转发,PE上MAC表中的分,第一部分是PE下挂的CE侧本地网络的MAC地址信息,另一部分为由对端PE鸿鹄论坛收集整理/通过数据平面(site内经过CE发送的ARP请求报文、免费ARP报文等)从与CE设送BGPUpdate信息。Update信息的NLRlRouteTarget:用于控制EVN实例的路由引入,由ASnumberlIPAddr和MPLSLabel:暂未使用,全0。从网络侧同步MAC地址信息的具体过程,我们以图2-59所示的组网为例进行说明。当站点内主机(MAC-1)上线后,PE1上生成相应的MAC表项Interface1各PE之间开始了MAC路由信息的同步。MAC地址、VLAN与端口的关联关系,而是MAC地址、VLAN与IP地址可以通过displaymacmtableevnevn-name可以查看生成的MAC路由信息。PE2根据接收到的MAC地址通告路由,将<PE2>displaymacmtableevnsite1Evn-name:site1LocalNum:2,RemoteNum:3MACAddressVLANLearned-From---------------------------------MAC-1MAC-2鸿鹄论坛收集整理/MAC-3100……EVN中对BUM流量转发采用头端复制的方式,即PE将从CE侧接收并识别出的BGP邻居关系建立后就开始集成多播路由的发送,该路由信息的具体字道属性信息的“TunnelType”字段<PE2>displayvxlantunnelNumberofvxlantunnel:2TunnelIDSourceDestinationStateType3368601833686019upupdynamicdynamic到这里为止,控制面表项和隧道的建立过程就描述完了。正所谓路修好了,车也通了,接下来应该就是来一场说走就走的旅行了。接下来我们就来看一鸿鹄论坛收集整理/转发平面工作原理单播流量转发过程在站点内和站点间有所不同,对于设备时,PE在MAC表中查找报文目的MAC,得到出接口为本地接口,报文按传统二次进行UDP头、IP头和最外层的ETH封装。封装后的报文格式如图2-63所示。−最外层ETH封装中路由表中下一跳对应的MAC地址。源MA接口Interface1。报文进入本地二层网络,按照普通二层报文转发方式转发到BUM流量由于采用的是头端复制的广播方式,转发的过程相对简单。PE上进行VXLAN封装后遵循普通IP报文的转鸿鹄论坛收集整理/2PE1设备查询BUM转发表发现报文需要发送到对端的PE2和PE3。PE1将报文复的报文进行解封装,获取原始的以太数据报文,再按传统二层报文转发方式转发多归接入场景),在前面介绍VPLS方案的问题时,我们有提到过,这种跨站现环路。从环路的解决方案来看,不外乎两种:1、阻塞链PE在传输单播流量时才可以进行负载分担。只要有一个的PE设备是.2Single-ActiveSingle-Active模式的核心是只保留一条链路用于转发发现当只保留一条物理链路来转发流量,所有备份链路空闲时,链路利用使流量转发能在多个链路上形成负载分担,而且又不会形成环路,EV不同的是BGP的Update报文中还携带了ES-Import扩展团体属性,该路由信息的主要 鸿鹄论坛收集整理/[~PE1]interface10ge1/0/0[*PE1-10GE2/0/0]esi0000.1111.1111.1111.2222接收到携带了以太网段路由的Update消息后,存在相同ESI值的PE将引入以太−根据以太网段路由信息中携带的ESI值,PE上会生成多归PE列表,包含连−根据以太网段路由获取SourceIP地址(包含在RD针对单播报文以MAC-1发送单播报文给MAC-鸿鹄论坛收集整理/流量,因此报文不会发送给CE12,即接入侧不会形成CE对于网络侧,PE3接收到PE1发送的报文后进行解封不支持流量解封装之后再封装,即从对端PE在Single-Active模式下,多条链路EthernetA-D路由与其他路由一样包含在Update报文的NLRI字的Update报文中还携带了RouteTarget和ESILabel扩展团体属性,具体的路由信息样lESILabel扩展团体属性:其中的ESILabel和Flags字段分别携带了ESI值和冗余鸿鹄论坛收集整理/[~PE1]evnbgp[*PE1-evnbgp]redundancy-modeall-active接收到PE1发送的撤销报文后,可批量撤销ESMAC路由的下一跳从PE1切换为备份下一跳PE2由于尚未与PE1建立邻居关系,依然向PE2中为了解决这个问题,支持对等体状态跟踪功能。接下来我太网段路由的接收计时器,在这两个计时器结束前,PE12当以太网段路由的发送延时计时器结束后,PE1会启动以太网段路由接收计时器。PE1将会在该计时器规定时间间隔内等待其他PE发送来的以<HUAWEI>system-view[~HUAWEI]interface10ge1/0/0//进入PE上连接CE的接口视图[~HUAWEI-10GE1/0/0]estrackevn-peer//使能针对指定对等体的状态跟踪功能配置该功能后,缺省的以太网段路由的发送延<HUAWEI>system-view[~HUAWEI]evnbgp[*HUAWEI-evnbgp]timeres-advertisement10//配置发送以太网段路由的延时计时器的时间间隔为[*HUAWEI-evnbgp]timeres-reception1//配置以太网段路由接收计时器的时间间隔为1秒尽管Single-Active模式这种基于VLAN问题,最好的方案是能够实现流量在所有的多归链路间负载分担,也即多活A组中所有PE都能从CE接收流量或转All-Active模式与Single-Active模式一在All-Active模式下,冗余组中的特定VLAN的non-DF不再是简单地阻塞其与CE之MAC表单播到CE2。由于PE1、PE2都会学习到MAC-鸿鹄论坛收集整理/流量经过多归的PE再返回给CE1(CE1-->PE1-->中还实现了水平分割功能,即主备DF之间不能相互复制BUM流量。流量发送给CE1,而作为备DF的PE2将接入链路下行退出VLAN10在前面描述物理方式扩展二层网络时,我们说过,这种方式实际泛抑制和ARP代理功能用来实现站点故障隔离,将环路以及在本地二层网络内。接下来我们就看一下,EVN其他增强功能缺省情况下,CE设备对BUM报文中的未知单播报文也未知单播报文可以跨数据中心广播。用户可以选择关闭该功能影响其他站点,这样做也同时可以降低对互联带宽的占用,避鸿鹄论坛收集整理/的静默服务器时,关闭未知单播泛洪功能后,这类服务器<HUAWEI>system-view[~HUAWEI]evn[*HUAWEI-evn]unknown-unicastdrop//使能EVN中丢弃未知单播报文功能[*HUAWEI-evn]quit[*HUAWEI]mac-addressstatic1234-2222-3333vlan10flooding//只有VLAN10中目的MAC地址为1234-2222-3333的未知单播报文可以泛洪为了解决这个问题,EVN解决方案引入了ARP缓存代答功能。PE设备通过捕获ARP5PE1代表远端站点直接响应ARP请求,返回MAC-B对应的IP地址IPB,不再向<HUAWEI>system-view[~HUAWEI]evn[*HUAWEI-evn]arpcacheenable[*HUAWEI-evn]arpcachetimeout600鸿鹄论坛收集整理/ 天下大势,分久必合,合久必分。这句名言套用在我们今天要讨论的主题“网络虚拟化”话说,在“网络虚拟化”中,一会把一堆网络设备组合在一起,虚这分分合合之间,尽显“网络虚拟化”的无穷魅力,那究竟什么在开始之前,先要做一下澄清,网络虚拟化NV和网络功能虚拟化NFV是网络功能虚拟化NFV,是当前比较热点的首先,我们知道在数据通信网络中,除了基础性的路由l专用硬件,提供的是固定的业务功能、专用性强,但是业务扩展能力差、灵NFV正是针对上述特点和痛点,由电信运营商联合提出的一个概念,就是希望通过x86服务器等通用性硬件以及虚拟化技术,来承载很多功能的软件处理,来拟化成多个虚拟机,分别安装不同的网络组件软件,就可以提供更强大的业务链功能,鸿鹄论坛收集整理/进一步的,NFV除了在这些专用设备方面,在通用的基础网络设备上也开始逐渐发威。虽然在这些领域,x86服务器是搞不定的,网络接口密度、可以要求厂家提供标准化的通用交换路由设备,不需要多么NFV所提供的虚拟网络组件,是通过软件模拟实现的,虽然性能上可能和专用硬件相比差一些,但是在成本和灵活性方面却有着巨大的优势。并且随着服务器性能的提高,这种性能差距也正在逐渐缩小,所以NFV才被视为一项革命性的技术死掉,要么改行,要么顺从这种趋势,改为解决方案寻求生存,毕竟他们在这些领域的专业积累够深,可以关于NFV,本文就谈这么多,因为只是做一个澄清和简单的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论