ptn学习ip qos技术白皮书_第1页
ptn学习ip qos技术白皮书_第2页
ptn学习ip qos技术白皮书_第3页
ptn学习ip qos技术白皮书_第4页
ptn学习ip qos技术白皮书_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、IPQoS 技术白皮书本:(Vx.x)版中兴通讯2009 年 2 月 2010 ZTE Corporation.s.2010中兴通讯保留所有:本文为公司信息资产,请阅读者注意工作,分类如下:技术原理属于文档,期为无限期;开局指导属于公开文档;经验属于公开文档。发布范围:中兴公司文档更新:如相关产品文档资料缺乏,反馈至.cn,经后,分派给相应事业部文档发布管理员,由其组织确认并协调编写,.cn 归档,审核通过后,由文档管理员并发布新编资料通知。上载如现有文档存在问题,请将信息反馈至分派给相应事业部文档发布管理员,尤其组织.cn,经后,进行确认并填写更新结果,经验修订,确认完成后由文档发布管理员再

2、次证通过后,更新.cn 相关文档。更新应以技术通告形式立即发布;常规更新每季度以邮件形式发布。IP QoS 技术白皮书摘要本文详细地介绍了 IP QoS 相关技术,内容包括:QoS 服务模型、实现机制、技术发展等。IP QoSServ DiffServ背景IP 技术 70 年代中期国防部(DoD)资助科研院校为其 ARPANET 广域网开发的网络技术,其最初目标是实现用户之间的资源共享、协同工作、互惠互利,其设计的出发点是基于用户之间互信、自律。IP 的主要技术特点是带宽统计复用、无连接工作方式,网络提供“尽力而为”的传送服务,业务数据传送的可靠性依赖于终端的智能。基于 IP 技术的ernet

3、 为了提高网络扩展性,以管理域为分散管理,不同管理域采用不同的策略和网络结构,这样局部网络变化不会对整个网络带来太大的影响。IP 的这些技术特点造就了ernet 的巨大成功。通信界一直追求“三网合一”(计算机网、电信网、广电网使用一个物理网络)的理想,ernet 的巨大成功使业界探索利用基于 IP 技术的网络承载多种业务的可能性,目前大量的试验证明,在 IP 网络承载电信业务是基本可行的。但毕竟 IP 技术是为数据通信设计的网络技术,其设计理念与传统电信技术的设计理念不同,所以仍然存在一些问题需要解决。QoS 是其中的主要问题之一。传统 IP 业务,如文件、邮件传递等数据业务,对时延、时延抖动

4、等没有严格的要求,只要求通过终端的智能能力保证其数据的可靠传送,不需要网络提供QoS 保证,而语音、等实时性业务,对时延和时延抖动敏感,有些传统业务终端(如)不具备智能能力,这就要求网络提供丢包率、时延、时延抖动等方面的严格保证,这些主要造成了 IP 技术的 QoS 问题。为了解决 QoS 问题,目前 IP 技术摒弃了传统的BE 服务模型,产生了型Serv 和 DiffServ 等服务模服务模型目前对于 IP 网络,主要有三种服务模型:BE 服务Serv 模型DiffServ 模型BE 服务是 IP 技术提供的传统服务,为支持 QoS 而提出两种服务模型。Serv 模型和 DiffServ 模

5、型是 IETFBE 服务BE 服务是一种单一的服务模型,也是最简单的服务模型。应用程序可以在任何时候,发出任意数量的报文,而且不需要事先获得批准,也不需要通知网络。对 BE 服务,网络尽最大的可能性来发送报文,但对时延、可靠性等性能不提供任何保证。 BE 服务是现在的网络应用,如 FTP、ernet 的缺省服务模型,它适用于绝大多数传统等,它通过 FIFO 队列来实现。Serv 模型Serv 是一种综合服务模型,它可以满足多种 QoS 需求。这种服务模型在发送报文前,需要向网络申请特定的服务。这个请求是通过信令(signaling)来完成的,应用程序首先通知网络它自己的流量参数和需要的特定服务

6、质量请求,包括带宽、时延等,应用程序一般在收到网络的确认信息,即确认网络已经为这个应用程序的报文预留了资源后,才开始发送报文。同时应用程序发出的报文应该控制在流量参数描述的范围以内。网络在收到应用程序的资源请求后,执行资源分配检查(接纳控制),即基于应用程序的资源申请和网络现有的资源情况,判断是否为应用程序分配资源。一旦网络确认为应用程序的报文分配了资源,则只要应用程序的报文控制在流量参数描述的范围内,网络将承诺满足应用程序的 QoS 需求。而网络将为每个流(flow,由源 IP 地址、目的IP 地址、源端、目的端和协议号确定)维、排队及其调度,来实护一个状态,并基于这个状态执行报文的分类、流

7、量现对应用程序的承诺。传送 QoS 请求的信令是 RSVP 协议,它通知网络应用程序的 QoS 需求,其基本原理如下图所示。Serv 可以提供以下两种服务:保证服务(Guaranteed service) 它提供保证的带宽和时延限制来满足应用程序的要求。如为 VoIP 应用可以预留 10M 带宽和要求不超过 1 秒的时延。控制负载服务(Controlled-Load service) 它保证即使在网络过载(overload)的情况下,也能对报文提供近似于网络未过载类似的服务,即在网络拥塞的情况下,保证某些应用程序的报文低时延和高通过。Serv 模型的主要优点是:应用通过RSVP 向网络申请资源

8、,网络基于资源状况为每个应用预留资源并通知应用申请处理结果,能够提供绝对有保证的 QoSRSVP 在源和目的地之间可以使用现有的路由协议决定流的路径能够支持单播和组播但Serv 模型也存在很多局限性:扩展性不好。随着流数目的增加,状态信息的数量成比例上升,占用了大量的路由器空间和处理开销需要网络上的所有网络设备上都支持不适合于短生存期的流由于这些固有的缺陷,造成Serv 模型在网络上应用的局限性,使业界希望能够出现一种新的解决 QoS 问题,既考虑已有网络的现状,又能达到实现服务质量的目的,这就出现了 DiffServ 模型。DiffServ 模型DiffServ 是一种支持多种业务的服务模型

9、,它可以满足不同业务的QoS 需求。 Serv 不同,它不需要信令,即应用程序在发出报文前,不需要通知网络。与对 DiffServ,网络不需要为每个流状态。DiffServ 将流量分成少量等级并按每个等级分配网络资源,从而解决了 QoS 问题。为了避免采用信令协议,IETF重新定义了IP 报头中很少使用的ToS 字段,将其分隔成 6 位 DSCP 和 2 位ECN,如下图 1 所示。图1:ToS和DSCPDSCP决定网络中特定节点上分组的QoS行为,称之为PHB,按照分组的调度和丢弃优先级来表示。从实施的角度看,PHB可看成是用于转发的数据包队列、当队列超出限制条件时的丢弃可能性、分配给每个队

10、列的资源(缓冲和带宽)、以及为一个队列服务的频率。IETF定义了14个标准的PHB,如下:BE:不需要进行特殊处理的流量。EF:延迟最小、丢包率低的流量。从实际的角度看,这意味着用于 EF流量的队列,其数据包到达速率低于服务速率,因此不可能由于拥塞造流是典型的到EF 的流量。成抖动、延迟和丢包。话音和某些它们的传输速率恒定,并要求最低的延迟和丢包率。12 个 AF 的PHB。每个 PHB 按队列号和丢弃优先级定义。IETF 建议使用四个不同队列,每个队列应用三个优先级,总共 12 个不同的 AF PHB。AF PHB名惯例是 Afxy,x 指队列号,y 指丢弃优先级的级别。因此,AF1y 的所

11、有数据包都将放置在同一个转发队列中,确保当来自单一应用的数据包只在丢弃优先级方面存在差别时,不会出现乱序。AF PHB 适用于需要带宽保证,但不需要延迟或抖动限制的流量。对于基于MPLS转发的网络,MPLS需要知道每个数据包的DiffServ信息,可以采用以下两种方法解决这个问题:E-LSP通过MPLS垫片(shim)中Exp.推导出PHB,MPLS垫片的结构,由这三个比特确定报文的队列调度和丢弃概率。适合应用于少于8个PHB的网络。L-LSP报文的 PHB 由 Label 和 Exp.共同确定,Label 确定报文的队列调度,Exp.确定报文在拥塞发生时的丢弃概率。可用于支持 8 个以上 P

12、HB 的网络。E-LSP 和L-LSP 的区别见下表:DiffServ 模型的主要优点是:可以保证不同类别业务之间的 QoS,不需要 QoS 信令,不需要在网络基信令和状态进行,灵活性和扩展性好。DiffServ 模型的主要缺点是:业务和网络缺乏交互,只依赖网络节点的转为保证,不具备端到端 QoS的支持能力,可控性、可管理性不好。只提供相对的 QoS 保证,如果流量的传输路径不能提供足够的资源来满足 QoS 要求,它将无法保证 QoS。QoS 机制目前广泛采用 QoS 机制主要包括:E-LSPL-LSPPHB由Exp.位确定,可支持多达8个不同PHB的流量PHB由 与Exp.共同确定,可以支持

13、任意数量的不同PHB;每个LSP对应一个PHB,或对应调度策略相同但丢弃优先级不同的多个PHB只用于传递路径信息,提高了使用率并有利于状态。同时传递关于路径和调度行为的信息,会使用的,需要保存的状态。建立LSP时可不需要传递PHB信息建立LSP时需要传递PHB信息报文分类和标记拥塞管理(队列调度)拥塞避免流量(traffic policing)和流量整形(traffic shaQoS 信令接纳控制流量工程链路效率机制)分类和标记业务(服务)在网络中就是数据报文流,在提供业务的端对端的 QoS 前,需要对进入网络中的报文流进行分类和标记或颜色,以保证特殊的数据包能够得到区别的对待和处理。IETF

14、 对 IPv4 的 ToS 字段和 IPv6 的流量类(Traffic Class)进行了定义,如下图,数据包的分类使用IP 报头中的 DSCP 进行标记。如下图所示:报文分类是将报文划分为多个服务类,IP 报头中 DSCP 域有 6 位,理论上可以支持 64 个服务类。在对报文进行分类后就可以使用 QoS 技术制定适当的通信流处理策略,如对于某个通信流等级的拥塞管理、带宽分配以及延迟限制。对于MPLS 报文,采用的是 MPLS 垫片(shim)中的 Exp.字段,如下图所示:Exp.包括 3 个 bit,支持 8 种不同的 QoS 优先级。MPLS 域的 LER 在分类后将把 Exp.域设置

15、为相应的值,然后在 MPLS 域中的 LSR 进行该值进行区别的对待。转发时将根据使用分类策略进行报文分类时,应该基于组网情况和业务要求来进行。在网络边界的分类策略很灵活,可以根据报文的二层特性,可能是一个由五元组(源地址、源端、协议号、目的地址、目的端)确定的数据报文流,也可能是到某个网段的所有报文。分类后的报文需要设置IP 包头的 DSCP 或MPLS 垫片中的Exp.域,这样在后面的处理中就可以使用 DSCP 或Exp.域作为分类的依据,例如队列技术、拥塞避免等等。下一跳处理(或转发)节点可以选择接受上一跳处理(或转发)节点的分类结果,也可以按照自己的分类策略重新对报文进行分类和重标记。

16、ZXR10 的报文分类策略主要包括:.5.6.基于端口的分类,包括物理端口和逻辑接口(如 VLAN ID);基于 802.1p 协议所定义的二层 CoS 的分类,基于MAC 地址的分类;基于MPLS 报文中Exp.字段的分类基于IP 头中的ToS/DSCP 分类;基于五元组(源 IP 地址、目的 IP 地址、协议号、源端口、目的端口)进行分类。ZXR10 支持以下报文标记策略,并支持标记之间的相互:1.2.3.IEEE 802.1Q/1p 的CoSMPLS 垫片中的Exp. IP 报头中的 DSCP拥塞管理拥塞管理是指当网络发生拥塞情况时,转发设备对数据报文流进行管理和控制,以满

17、足业务的服务质量要求。当网络接口没有拥塞发生时,数据报文进入接口时就立即被发送出去。当数据报文到达速度大于接口处理报文的速度时,接口就会发生拥塞。接口的拥塞管理需要把到达的报文按优先级等原则分成不同的类,送入优先级不同的队列。队列调度处理对不同优先级的报文进行区别处理。实现拥塞管理的有效处理方法是使用队列技术。拥塞管理的处理包括队列的创建、报文的分类、将报文送入不同的队列、队列调度等。不同的队列算法适用不同的场合,产生不同的拥塞管理效果。目前广泛采用的队列技术主要包括:FIFOPQCQWFQCBWFQFIFOFIFO 队列不对报文进行分类,按报文到达接口的先后顺序让报文进入队列,同时,FIFO

18、 队列让报文按进队的顺序出队,先进的报文将先出队,后进的报文将后出队。PQ需要先对报文进行分类,然后按报文的类别将报文送入 PQ 相应的队列。在报文出队列的时候,PQ 首先让高优先队列中的报文出队,直到高优先队列中的报文发送完,才发送中优先队列中的报文,同样直到发送完中优先队列中的报文,才能发送低优先队列的报文。这样,分类时属于较高优先级队列的报文将会得到优先发送,而较低优先级的报文将会在发生拥塞时被较高优先级的报文抢先,使得关键业务的报文能够得到优先处理,非关键业务的报文在网络处理完关键业务后的空闲中得到处理。这样处理既保证了关键业务的优先,又充分利用了网络资源。由于 PQ 总是保证高优先级

19、的报文得到优先转发,所以当高优先级的流量过多时,可能会造成低优先级的流量没有转发机以使用 PQ 时应该合理规划各个优先级的流量,适当限制高优先级的流量,使低优先级的流量也获得一定的发送机会。由于 IP 包头的 ToS 字段的优先级位,包括 MPLS 垫片中的 Exp.域,都支持最多达 8 个优先级,因此 ZXR10 实现的 PQ 支持 8 个优先级队列,这 8 个队列的优先级依次降低。CQCQ 有 17 个队列,首先需要对报文进行分类,将所有报文分成最多至 17 类,然后按照报文的类别将报文送入 CQ 相应的一个队列中,0 队列是最优先队列, CQ 总是先把 0 号队列的报文发送完,然后才处理

20、 1 到 16 号队列中的报文。1 到16 号队列可以按用户的定义分配它们能占用接口带宽的比例,在报文出队列的时候,CQ 按定义的带宽比例分别从 1 到 16 号队列中取一定量的报文在接口上发送出去。这样,就可以让不同业务的报文获得合理的带宽,从而既保证关键业务能获得较多的带宽,又不至于使非关键业务得不到带宽。CQ 虽然有自定义队列有优势,但缺点是一个等级内的服务(延迟)仍然是不可预期的。WFQ对报文按照流分类,所以也称 FBWFQ,具有相同的源 IP 地址、目的 IP 地址、源端、目的端的报文属于同一个流(有些 TOS/DSCP 也作为划分流的标准),每个流尽量对应一个队列,出队列是按照特定

21、的权值进行调度,权值通过一定的算法实现,这样在公平的基础上对不同优先级的业务实现了区别对待。CBWFQ2、处理简单,处理延迟小。序决定了报文可占用的带宽、报文的延迟、报文的丢弃概率。2、对不配合的数据源(如 UDP 报文发送)无约束力,不配合的数据源会造成配合的数据源(如TCP 报文发送)带宽受损失。3、对时间敏感的实时性应用(如 VoIP)的延迟得不到保证。PQ4可对不同业务数据提供优先,对时间敏感的实时应用(如 VoIP)的延迟可以得到保证。对优先业务的报文的带宽占用可以绝对优先。1、需配置,处理速度快。2、如果不对高优先级的报文的带宽加限制,会造成低优先级的报文得不到带宽。CQ171、可

22、对不同业务的报文按带宽比例分配带宽。2、当没有某些类别的报文时,能自动增加现存类别的报文可占的带宽。需配置,处理速度慢。CBWFQ用户决定(063)1、对报文进行分类,为每类报文提供确保带宽。2、各类数据流确保带宽的总和小于端口的带宽时,能自动增加各类流的带宽,从而充分利用线路的带宽。3、可以为非优先类的报文提供处理速度比FIFO 要慢。拥塞避免网络拥塞会导致网络性能的降低和带宽得不到高效的使用,为了避免拥塞,队列可以通过丢弃数据包避免在任何可能的地方出现拥塞。队列选择丢弃的策略包括: 1队尾丢弃(tail drop); 2RED;3WRED队尾丢弃队尾丢弃是当队列缓冲区满后对后来需要入对列的

23、数据包进行丢弃。队尾丢弃可能引起“TCP 全局同步”。报文丢弃是基于利用 TCP 通信流的适应性特性,通过丢弃数据包TCP 的慢启动和拥塞避免机制来降低TCP 传输速率。但是当队列同时丢弃多个TCP 连接的报文时,这些TCP 连接发向队列的报文将同时减少,使得发向队列的报文的量不及线路发送的速度,减少了线路带宽的利用。当开始同时重新发送时,会再次引起拥塞丢弃,导致网络波浪式的拥塞,即“TCP 全局同步”。如下图所示。REDRED 解决了简单丢弃引起的“TCP 全局同步问题”。RED 算法通过对队列缓冲区的长度进行监视并对选定的数据包(以及选定的连接)执行早期丢弃,只有很少的 TCP 发送丢弃策

24、略如下图所示:出现退回和重发的现象。REDWRED 的丢弃策略。RED 通过设置输出缓冲区的最小和最大队列长度阈值,网络设备随后在作出数据包转发决策的同时对这些阈值进行监视。数据包交换决策过程对平均队列长度进行检查。如果平均队列长度小于最小阈值,数据包将进入队列并与随后被交换。如果平均队列长度超过最小阈值而小于最大阈值,数据包将按照一定的概率被丢弃。如果平均队列长度超过了最大阈值,所有数据包都将被丢弃。WREDWRED 将将 IP 报头中的 DSCP 和 RED 结合起来,为优先通信流(高优先级)提供与标准通信流(优先级较低)有差别的丢弃阈值。换句话说,WRED根据 IP 报头中的 DSCP

25、对数据包进行有选择的丢弃。WRED 策略实现的差别丢弃阈值如下图所示:WRED 监视网络设备中队列的平均长度,所以它可以根据队列长度决定何时开始丢弃数据包。队列的平均长度是队列长度被低通滤波后的结果。它既反映了队列的变化趋势,又对队列长度的突发变化不敏感,避免了对突发性的数据流造成不公正的待遇。当平均队列长度超过用户规定的最小阈值时,WRED 开始按照一定的概率丢括TCP 和 UDP)。如果平均队列长度超过用户规定的最大阈值,则弃数据WRED 转为队尾丢弃,即所有后面到达的数据包都将被丢弃。WRED 的意图就是使将队列长度维持在最小和最大阈值之间的某个水平。ZXR10 系列路由器支持 WRED

26、 拥塞避免策略,能够对不同的优先级队列设置不同的队列长度。流量制定流量策略有利于 QoS 保证的实现,通过进行流量(traffic policing)可以限制进入某一网络的某个流的突发。使用CAR 来限制某类报文的流量。CARCAR 利用令牌桶(Token Bucket)进行流量控制,原理如下:首先,根据预先设置的匹配规则来对报文进行分类,如果是没有规定流量特性的报文,就直接继续发送,并不需要经过令牌桶的处理;如果是需要进行流量控制的报文,则会进入令牌桶中进行处理。如果令牌桶中有足够的令牌可以用来发送报文,则允许报文通过,报文可以被继续发送下去。如果令牌桶中的令牌不满足报文的发送条件,则报文被

27、丢弃。这样,就可以对某类报文的流量进行控制。令牌桶按照用户设定的速度向桶中放置令牌,并且,用户可以设置令牌桶的容量,当桶中令牌的量超出桶的容量的时候,令牌的量不再增加。当报文被令牌桶处理的时候,如果令牌桶中有足够的令牌可以用来发送报文,则报文可以通过,可以被继续发送,同时,令牌桶中的令牌量按报文的长度做相应的减少。当令牌桶中的令牌少到报文不能再发送文被丢弃。令牌桶是一个控制数据流量的很好的工具。当令牌桶中充满令牌的时候,桶中所有的令牌代表的报文都可以被发送,这样可以允许数据的突发性传输。当令牌桶中没有令牌的时候,报文将不能被发送,只有等到桶中生成了新的令牌,报可以发送,这就可以限制报文的流量只

28、能是小于等于令牌生成的速度,达到限制流量的目的。ZXR10 的CAR 是一种速率限制或策略制订工具(分类规则也可以通过 CAR进行设置)。可以使用速率限制工具来限制进入网络的数据流(如点播通信流)的速率,也可以加强SLA,如下图所示:CAR 可以在 ZXR10 系列路由设备的输入或输出接口以及子接口上实现,包括帧中继和 ATM 子接口。在实际应用中,ZXR10 的 CAR 不仅可以用来进行流量控制,还可以进行报文的标记(marking)或重新标记(re-marking)。具体来讲就是 CAR 可以设置或修改IP 报头的 DSCP 以及MPLS 垫片的Exp.域,达到标记报文的目的。CAR 可以

29、为不同类别的报文设置不同的流量特性和标记特性。即,首先对报文进行分类,然后不同类别的报文有不同的流量特性和标记特性。可以规定多个CAR 速率限制,即 CAR 的策略串联处理。这种层叠式可以对数据流实行一系列的速率限制,也可用于规定更加细致的策略。例如,可以对 TCP 数据流进行速率限制,同时进一步为基于 TCP 的 Web 通信流规定第二个速率限制。ZXR10 支持最大入出CAR 策略各 1023 条。QoS 信令实现 QoS 保证需要信令传递 QoS 服务参数,它协调了端到端服务经过的网络中间节点包括交换机、路由器等为该服务提供的保障。信令技术包括两种,即带内(in-band)和带外(out

30、-band)信令技术。带内信令使用的是IP 报头的 DSCP,通过每个 IP 包携带的 DSCP,通知网络上的节点为这个报文提供相应服务。带外信令则是通过一个独立的协议RSVP 为不同的流申请网络资源。IP 报头的 DSCP 和RSVP 协议为端到端的 QoS 信令提供了灵活的解决方案。DSCP参见前文介绍。RSVPRSVP 按照路由协议规定的报文流的路径为流量申请预留资源从而提供了一种向网络发出信令以要求所需 QoS 级别的方法。RSVP 是一种 Layer 3 信令协议,允许服务以流为请求 QoS 服务。RSVP 只是在网络节点之间传递 QoS 请求,它本身不完成这些 QoS 的要求实现,

31、而是通过其他 QoS 机制如 WFQ 等来完成这些要求的实现。RSVP 依赖于在两个端点之间周期性地交换 PATH/RESV 消息;它被认为是一种“接收方发起”的协议,因为作为数据流的接收方,它为该特定流发起并维护资源保留处理过程。RSVP 信令在网络节点之间传送资源请求,而网络节点在收到这些请求后,需要为这些请求分配资源,这就是资源预留。网络节点比较资源请求和网络现有的可用资源,确定是否接受请求,在资源不够的情况下,这个请求可以被。可以对每个资源请求设置不同的优先级,这样,优先级较高的资源请求可以在网络资源不够的情况下,抢占较低优先级的预留资源,来优先满足高优先级的资源请求。资源预留判断是否

32、接受资源请求,并承诺对接受了的资源请求提供请求的服务。但资源预留本身不实现承诺的服务,需要通过队列等其他技术来实现。RSVP 通过TE 扩展成为 MPLS 的信令协议,ZXR10 支持 RSVP-TE,可以利用 RSVP-TE 为某些流量建立 Site-to-Site 的约束路由和带宽的显式路径,实施流量工程,使流量有效可靠地通过网络。接纳控制(AdmisControl)接纳控制用于确定网络或节点是否有足够的可用资源支持所要求的 QoS,基于接纳控制的决策,可以将接纳控制划分为两种模型:一种是本地决策,QoS 请求和对该请求的接纳控制决策以及对决策的执行在同一个物理节点上。另一种是集中决策,Q

33、oS 请求和对 QoS 请求的决策以及对决策的执行在不同的物理节点上,对 QoS 请求的决策主要由PDP 负责,PDP 通过PIB 可以策略状态、资源利用,并提供接入信息,提供的资源利用和接入信息可以用于审计和计费。决策请求由 PEP 发起,PEP 将业务的 QoS 请求转变成策求发送到 PDP,PEP收到并执行PDP 的决策(可能包含其他信息)。基于资源的接纳控制主要有以下几种方法:1)基于审计:按照统计多少带宽(或多少会话)被分配决定是否接纳业务请求。带外测试:通过周期性地测试网络节点,了解网络资源的可用性,基于测试的网络资源可用性信息接纳业务要求。2)3)带内测试:通过探针或其他带内性能

34、测试的网络性能接纳业务要求。测试网络性能,基于测试4)基于预留:只有当对必需的带宽预留请求成功后才接纳业务请求。对于多业务承载网,如网络承载软交换语音业务和公众上网业务,语音业务具有固定的流量模型,而公众上网业务没有固定的流量模型,随机性、突发性较强,对软交换语音业务实施CAC,必须将其可用的资源与上网业务的资源,在保证语音业务的资源定量的情况下,可以实施 CAC 策略,从目前的技术发展情况看,第一种基于审计的接纳控制具有现实意义,既然软交换语音业务的可用资源是定量的,就可以根据定量可用资源支持的呼叫会话数进行业务规划,在呼叫控制设备上控制呼叫会话数量。ZXR10 支持的 RSVP-TE,采用

35、本地决策,根据 QoS 要求和节点中的可用资源实现接纳控制,为流量约束特定的带宽。流量工程流量工程的主要目的是提高运行网络的性能,这通过有效而可靠地利用网络资源满足流量性能要求来实现,流量工程的性能目标包括降低时延、时延抖动和丢包率,提高网络吞吐量。流量工程并不是 QoS 策略,但它能够间接地提高网络对业务的 QoS 保证,同时可以实现 DiffServ 感知,为不同的业务类别的流量提供带宽约束或可靠性保护。有关流量工程方面的内容,请参见流量工程技术白皮书。链路效率机制链路效率机制包括:物理接口总速率限制(Line Rate, LR)、传输压缩协议、链路分段和交叉(LFI)等方面,通过这些技术

36、能保证报文在物理链路有效传输。 LR 可以在一个物理接口上,限制接口发送报文(包括紧急报文)的总速率。LR 的处理过程仍然是采用令牌桶进行流量控制。LR 相比较于 CAR,能够限制在物理接口上通过的所有报文。CAR 由于在IP 层实现,对于不经过 IP 层处理的报文不起作用。LR 相比较于 GTS,不但能够对超过流量限制的报文进行缓存,而且还因为进入了 QoS 队列机制进行处理,所以队列调度机制更灵活。传输压缩协议是针对象语音等实时性业务的数据流,在传输时提高有效载荷在报文中的效率。另一种链路效率工具是链路分段和交叉(LFI),它的实质是对较大的报文进行分解,而较小的报文入到这些较大的数据包之

37、间,以减少语音数据流的延迟。技术发展由于当前的各种 IP QoS 技术在理论或实施过程中或多或少存在一定的局限性,不能完全满足电信运营商对IP 网络承载多种业务的要求,业界对IP QoS 技术的研究从没有停止过,不断地进行补充、完善并提出新的体系结构模型。目前,基于在物理上如何对承载资源进行控制可以分成两种不同的资源模型:QoS 控制信令与数据传输共享同一物理节点,也即将资源和接纳控制功能与承载传输功能在同一个物理实体中实现,称作路径耦合(path-coupled/on-path)模型;另一种是 QoS 控制信令与数据传输在物理上独立开来,也即采用独立的资源和接纳控制功能实现承载资源的控制,称

38、作路径去耦合(path-decoupled/off-path)模型。各种标准化组织在 IP QoS 新技术的研究上正在沿着这两种模型推进:一是继续在原有技术上(path-coupled/on-path)进行补充、完善;另一个方面是在新的架构体系(path-decoupled/off-path)下实现IP 网络保证业务 QoS 的目标。IETF NSIS 工作组研究下一代IP QoS 信令,目前主要是针对 on-path 信令(如 QoS-NSLP 协议)在研究,其目的之一是适当的重用RSVP 机制,同时简化协议模型,并应用于更广范围。Off-path 资源控制模型采用在原有业务控制层与承载层分

39、离的基础上,增加一个独立的承载控制层对承载资源进行控制,接受业务控制层的 QoS 资源请求并为业务分配资源。ITU-T FGNGN 的RACF(Resource and AdmisControlFunction)是一种典型的 Off-path 资源控制模型,其功能框架结构如下图所示,RACF 由PDF、A-TRCF 和C-TRCF 等功能实体组成,承载设施由多个业务子系统共享,甚至由多个业务提供商(Service Provider)共享,承载功能可以通。BGF(Border Gateway过一些资源机制将每个业务子系统的资源Function)是一种在不同分组网络边界的网关功能,不同的业务子系统

40、可以有一个或多个A-BGF(Acs Border Gateway Function),承载网之间可以有一个或多个I-BGF(erconnection Border Gateway Function)。RACF 由两种功能实体组成:PDF(Policy DeciFunction)和TRCF(Transport Resource ControlFunction)。PDF 基于业务优先级信息、资源可用性等信息对业务的资源请求作最后的决策,它控制承载网边界的 BGF 中的关口(滤)。TRCF 的主要功能是基于网络拓扑、资源管理等,为 QoS 资源请求检查网络的资源可用性。Service Control

41、 FunctionsIBCFSCPFServitratumGqGqTransport StratumRdResource andIqAdmisControl FunctionsNetwork Ac sPDFAttaentUbRqRqFunctionsRpA-TRCFC-TRCFRcGoReGoRcReANFENFI-BGFR-BGFA-BGFCPNAcs TransportCore Transport目前,承载在 IP 网络上的业务可粗略地划分为两类:一类是可以进行接纳控制的业务,一般说来,这类业务有固定的流量模型,需要依靠承载网提供足够的带宽保证其业务的可靠性。这类业务的典型例子是语音业务。

42、另一类是不可以进行接纳控制的业务,一般说来,这类业务有流量随机性、突发性高的特点,没有固定的流量模型,只要求网络提供“尽力而为”的传送服务,其数据传输的可靠性需要依赖终端的智能实现。传统ernet 上的数据业务,如文件、电子邮件等,是这类业务的典型代表。前一类业务适合采用 ITU-T 的 RACF 实现业务的 QoS 控制。但对于第二类业务,仍然适合采用传统ernet 提供的功能保证其业务的开展。当这两类业务承载在一个物理网络时,必须将它们的资源,以保证第一类业务拥有定量的资源。当然由于该框架结构还处于草案阶段,尚需进一步研究和验证。一些网络设备商在 QoS 技术应用上做了有益的尝试,提出了新颖的解决方案。中兴通讯的AUTMS(Adaptive User Traffic Management System)解决方案和Cisco 的S想是使用ervice Control Engine)是两个典型代表。Cisco 的SCE 的主要思的网络设备感

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论