服务质量QOS保证_第1页
服务质量QOS保证_第2页
服务质量QOS保证_第3页
服务质量QOS保证_第4页
服务质量QOS保证_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、资料编码产品名称使用对象产品版本编写部门资料版本服务质量( QOS )保证专题拟制日 期:审核日 期:审核日 期:批准日 期:华为技术有限公司版权所有 侵权必究修订记录日期修订版本作者描述目录1 Qos 的产生 52 Qos 的处理流程 53 Qos 的特性及相关技术程 63.1 流分类 . 63.2 拥塞管理 74 拥塞避免 145 流量监管和流量整形 15关键词:QOS 服务 报文 流量 服务 拥塞 流量摘 要:缩略语清单:参考资料清单本文阐述了 QOS 产生的背景,适用的范围以及 QOS 的处理流程,对其相 关技术以及拥塞的处理也进行了详细的说明。无。无。服务质量( QOS )保证专题1

2、 Qos 的产生ISP 可以通过 IP 网络向企业提供 VPN 业务以降低企业的建网费用 /租用线费 用,对于企业很有吸引力。但是如果 VPN 不能保证企业运营数据的及时有 效发送, 即提供有效的 QoS( Quality of Service ) 保证, 那么 VPN 将仍然不能有 效的为企业服务。如往来工作函件、数据库访问需要受到优先对待,保证这 些应用的带宽要求。而对于与工作无关的 email 、 WWW 访问等则可以按照 Best Effort 信息流对待;随着 IP 网络上新的应用不断出现,如 VoIP 应用, 对 IP 网络的服务质量也提出了新的要求。传统的 IP 网络的尽力服务已

3、不能 满足应用的需要,如果传输延时太长,将是用户所不能接受的。相对而言, email 和 FTP 对时间延迟并不敏感。 QoS 就是针对各种不同的需求, 提供不 同的服务质量的,如提供以下的功能:支持为用户提供专用带宽减少报文的丢失率 避免和管理网络拥塞 流量整形 设置报文的优先级;2 Qos 的处理流程下图简述了 Qos 处理的过程,从基于 CAR 的流分类,到按照不同策略的排 队技术,再进行有统计复用的优先级处理,最后通过流量监管与整形。 当一条业务流进入端口, 首先会根据端口协商的结果, 确定流量控制的方式。 解决全双工模式下以太网的流量控制是通过发送 PAUSE 桢的方式。半双工 模式

4、下通过反压的方法进行控制。以保证端口可以承受的流量。这是一种前 期的拥塞避免策略。进入 Qos 处理过程后,为了便于对不同类型的流,进行不同 Qos 特性的处 理,首先对于流进行分类。如上图所示的“流分类”模块。流分类可以按照 IP 报文头的 ToS (Type of Service )字段进行分类,也可以根据各种上层信 息对报文进行分类。流分类是 QoS 执行服务的基础。流分类以后将对流进行测量,据对流量在一定时段(包括长期和短期)的速率进行评估,并根据评估结果实施调控策略。流量评估一般采用令牌桶( Token Bucket )算法。在发生拥塞时,便可以针对不同级别的报文进行丢 弃、打标记(

5、 marking )、降低优先级等操作。流量监管 ( policing )的典型作用是监督进入网络的某一流量的速率,使之不超出承诺的速率。如果某连接的流量超标,流量监管即可选择丢弃报文或重 新设置报文的优先级。传统的网络难免会发生拥塞,当网络拥塞时,对报文全部丢弃,并不加以区 分。使得整网陷于瘫痪。新型城域传输网采用有效的拥塞避免机制,可以有 效隔离拥塞网路,避免整网陷于瘫痪。除了前边讲到的流控方式以外,还可 以在网络没有发生拥塞以前,根据队列状态进行有选择性的丢包来避免网络 的拥塞。 使用的算法是 WRED. 加权 RED (WRED ),是 RED 的一种变体, 它可以更加合理地选择将被丢

6、弃的数据包 当网络拥塞时,为了保证不同优先级的报文得到不同的 QoS 待遇,包括时 延、带宽等。我们将不同优先级的报文入不同的队列,不同队列将得到不同 的调度优先级、概率或带宽保证。队列策略的算法采用:PQ ( PriorityQueue )、 WFQ ( Weighted Fair Queuing )两种机制。 最后进行流量整形( shaping )是一种主动调整流量输出速率的措施。流量 整形对流量监管中需要丢弃的报文进行缓存,通常将它们放入缓冲区或队列 内,如果放入 WFQ 队列内,则进行 GTS ( Generic Traffic Shaping )。3 Qos 的特性及相关技术程QoS

7、 具有以下特性:报文分类拥塞管理拥塞避免流量监管和流量整形3.1 流分类报文分类是将报文分为多个优先级或多个服务类,如使用IP 报文头的 TOS字段( Type of service ,三个 bit ),你可以将报文最多分成六类(另外两个 值保留为其他用途)。在报文分类后,就可以将其它的QoS 特性应用到不同的分类,如拥塞管理、带宽分配等。网络管理者可以设置报文分类的策略, 这个策略可以包括物理接口、 源地址、 目的地址、 MAC 地址、 IP 协议或应用程序的端口号等。一般的分类算法都 局限在 IP 报文的头部,链路层( Layer 2 )、网络层( layer 3 )、甚至传输 层( la

8、yer 4 )。使用报文的内容作为分类的标准是比较少见的。分类的结果是没有范围限制的, 它可以是一个由五元组 (源地址、 源端口号、 协议号码、 目的地址、目的端口号)确定的流这样狭小的范围,也可以是到某某网段的 所有报文。报文分类使用如下技术: ACL 和 IP 优先级 一般在网络的边界,使用 ACL 来进行报文的分类,如以下分类: 所有的 HTTP 的报文置为最低的优先级接口 1 收到的报文置为最高优先级 一般在网络边界,对报文进行分类时,同时设置报文的 IP 头的 TOS 字段作 为报文的 IP 优先级,这样,在网络的内部就可以简单的使用 IP 优先级作为 分类的标准。而队列技术如 WF

9、Q 就也可以使用这个优先级来对报文进行不 同的处理。下游( downstream )网络可以选择接收上游( upstream )网络的分类结果, 也可以按照自己的分类标准重新进行分类。3.2 拥塞管理1. 什么是拥塞和拥塞管理PC2serial 1router1Etherne10 MServer1Server2公司局域网1图 1 网络拥塞示意图在计算机数据通信中,通信信道是被多个计算机共享的,并且,广域网的带 宽通常要比局域网的带宽小,这样,当一个局域网的计算机向另一个局域网 的计算机发送数据时,由于广域网的带宽小于局域网的带宽,数据将不可能 按局域网发送的速度在广域网上传输。此时,处在局域网

10、和广域网之间的路 由器将不能发送一些报文,也即,网络发生了拥塞。如上图所示,当公司局域网 1 向公司局域网 2 以 10M 的速度发送数据时, 将会使路由器 1 的串口 1 发生拥塞。拥塞管理是指网络在发生拥塞时,如何进行管理和控制。处理的方法是使用 队列技术。将所有要从一个接口发出的报文 进入多个队列,按照各个队列 的优先级进行处理。不同的队列算法用来解决不同的问题,并产生不同的效 果。常用的队列有 FIFO 、 PQ ,CQ , WFQ 等。在一个接口没有发生拥塞的时候,报文在到达接口后立即就被发送出去,在 报文到达的速度超过接口发送报文的速度时,接口就发生了拥塞。拥塞管理 就会将这些报文

11、进行分类,送入不同的队列;而队列调度对不同优先级的报 文进行分别处理,优先级高的报文会得到优先处理。2. 拥塞管理技术 对于拥塞的管理,一般采用排队的技术,使得报文在路由器中按一定的策略 暂时排队,然后再按一定的调度策略把报文从队列中取出,在接口上发送出 去。根据排队和出队策略的不同,拥塞管理分为以下几种: 先进先出队列( First In, First Out Queueing, FIFO )队列 离开接口的数据包需由此接口发 出队调度 送的数据包图 2 先进先出队列示意图如图 2 所示,先进先出队列(以后简称FIFO )不对报文进行分类,当报文进入接口的速度大于接口能发送的速度时, FIF

12、O 按报文到达接口的先后 顺序让报文进入队列,同时, FIFO 在队列的出口让报文按进队的顺序出队, 先进的报文将先出队,后进的报文将后出队。在如图 1 所示的网络图中, 假设局域网 1 的服务器向局域网 2 的服务器发 送关键业务的数据,局域网 1 的 PC 向局域网 2 的 PC 发送非关键业务的数 据,则 FIFO 不对这两种不同业务的报文做任何区别对待,报文的出队完全 依赖报文到来的顺序。优先队列( Priority Queueing, PQ )队列high需由此接口发送的数据包mediumnormallow离开接口的数据包出队调度图 3 优先队列示意图如图 3 所示,优先队列(以后简

13、称 PQ )对报文进行分类,将所有报文分 成最多至 4 类,分别属于 PQ 的 4 个队列中的一个,然后,按报文的类别将 报文送入相应的队列。 PQ 的 4 个队列分别为高优先队列、中优先队列、正 常优先队列和低优先队列, 它们的优先级依次降低。 在报文出队的时候, PQ 首先让高优先队列中的报文出队并发送,直到高优先队列中的报文发送完, 然后发送中优先队列中的报文,同样,直到发送完,然后是正常优先队列和 低优先队列。这样,分类时属于较高优先级队列的报文将会得到优先发送, 而较低优先级的报文将会在发生拥塞时被较高优先级的报文抢先,使得关键 业务(如 ERP )的报文能够得到优先处理,非关键业务

14、(如 E-Mail )的报文 在网络处理完关键业务后的空闲中得到处理,既保证了关键业务的优先,又 充分利用了网络资源。在如图 1 所示的网络图中, 假设局域网 1 的服务器向局域网 2 的服务器发 送关键业务的数据,局域网 1 的 PC 向局域网 2 的 PC 发送非关键业务的数 据,如果对路由器 1 的串口 1 配置 PQ 进行拥塞管理,同时配置服务器间的 数据流的进入较高优先级的队列, PC 间的数据流进入较低优先级的队列, 则 PQ 将对这两种不同业务的报文做区别对待,首先让较高优先级队列中的 报文出队并发送,直到此队列中的报文发送完,然后发送较低优先级队列中 的报文。也即,服务器间的报

15、文总是被先发送,直到暂时没有服务器间的报 文,路由器才发送 PC 间的报文。定制队列( Custom Queueing, CQ )队列queue 0优先队列queue 110%queue 210% 离开接口的数据包分类需由此接口发出队调度送的数据包queue 1630%图 4 定制队列示意图如图 4 所示,定制队列(以后简称 CQ )对报文进行分类,将所有报文分 成最多至 17 类,分别属于 CQ 的 17 个队列中的一个,然后,按报文的类别 将报文进入相应的队列。 CQ 的 17 个队列中, 0 号队列是优先队列,路由器 总是先把 0 号队列中的报文发送完,然后才处理 1 到 16 队列中的

16、报文,所 以 0 号队列一般作为系统队列, 把实时性要求高的交互式协议报文放到 0 号 队列。 1 到 16 号队列可以按用户的定义分配它们能占用接口带宽的比例,在报文出队的时候, CQ 按定义的带宽比例分别从 1 到 16 号队列中取一定 量的报文在接口上发送出去。现在我们将 CQ 和 PQ 做一比较。 PQ 赋予较高优先级的报文绝对的优先权, 这样虽然可以保证关键业务的优先,但在较高优先级的报文的速度总是大于 接口的速度时, 将会使较低优先级的报文始终得不到发送的机会。 采用 CQ , 将可以避免这种情况的发生。 CQ 可以把报文分类,然后按类别将报文被分 配到 CQ 的一个队列中去,对每

17、个队列,可以规定队列中的报文应占接口带 宽的比例,这样,就可以让不同业务的报文获得合理的带宽,从而既保证关 键业务能获得较多的带宽,又不至于使非关键业务得不到带宽。在如图 1 所示的网络图中, 假设局域网 1 的服务器向局域网 2 的服务器发 送关键业务的数据,局域网 1 的 PC 向局域网 2 的 PC 发送非关键业务的数 据,如果对路由器 1 的串口 1 配置 CQ 进行拥塞管理,同时配置服务器间的 数据流的进入队列 1,队列 1 中的报文占有 60% 的带宽,例如每次出队 6000 个字节的报文, PC 间的数据流进入队列 2,队列 2 中的报文占有 20% 的带 宽,例如每次出队 20

18、00 个字节的报文,则 CQ 对这两种不同业务的报文将 做区别对待。首先让队列 1 中的报文出队并发送,直到此队列中的报文被发 送的字节数不少于 6000 字节,然后发送队列 2 中的报文, 直到此队列中的 报文被发送的字节数不少于 2000 字节,然后是其他队列。路由器 1 的串口 1 的物理带宽是 2M ,则局域网 1 的服务器向局域网 2 的服务器发送关键业 务的数据所能占的带宽将至少为1.2M(2 * 0.6 ),局域网 1的PC 向局域网2的PC 发送非关键业务的数据所能占的带宽将至少为0.4M ( 2 * 0.2 )。并且,不同于时分复用( Time Division Multip

19、lexing, TDM )的系统,当路由器 1 的串口 1 中除了上述两个数据流外没有其他的数据要发送时,局域网 1 的 服务器向局域网 2 的服务器发送关键业务的数据所能占的带宽将为1.5M( 2* 0.6 / (0.2 + 0.6) ),局域网 1 的 PC 向局域网 2 的 PC 发送非关键业务的 数据所能占的带宽为 0.5M (2 * 0.2 / (0.2 + 0.6) )。当局域网 1 的服务器向 局域网 2 的服务器不发送关键业务的数据时,并且,除了局域网1 的 PC 向局域网 2 的 PC 发送非关键业务的数据外,没有其他的数据流,则局域网 1 的 PC 向局域网 2 的 PC

20、发送非关键业务的数据所能占的带宽将可以为2M 。加权公平队列( Weighted Fair Queueing, WFQ )队列queue 1送的数据包离开接口的数据包queue 2queue N图 5 加权公平队列示意图如图 5 所示,加权公平队列(以后简称WFQ )对报文按流进行分类(相同源 IP 地址,目的 IP 地址,源端口号,目的端口号,协议号, TOS 的报文 属于同一个流),每一个流被分配到一个队列。在出队的时候, WFQ 按流 的优先级( precedence )来分配每个流应占有出口的带宽。优先级的数值越 小,所得的带宽越少。 优先级的数值越大,所得的带宽越多。如:接口中当前有

21、 8 个流,它们的优先级分别为 0, 1,2,3,4,5,6,7。 则带宽的总配额将是:所有 (流的优先级 + 1) 的和。即:1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 = 36每个流所占带宽比例为: (自己的优先级数 + 1 )/(所有 (流的优先级 + 1) 的和)。即,每个流可得的带宽分别为:1/36 , 2/36 ,3/36 ,4/36 ,5/36 ,5/36 ,6/36 ,7 /36 , 8/36 。又如:当前共 4 个流, 3 个流的优先级为 4 ,1 个流的优先级为 5 ,则带宽的 总配额将是:(4 + 1) * 3 + (5 + 1) = 21那么, 3 个优

22、先级为 4 的流的带宽为 5/21 ,优先级为 5 的流的带宽为 6/21 。基于类的加权公平队列( Class Based Weighted Fair Queueing, CBWFQ)图 6 基于类的加权公平队列示意图如图 6 所示,基于类的加权公平队列(以后简称 CBWFQ )首先根据报文 进入网络设备的接口、报文的协议,报文是否匹配访问控制列表( Access Control List, ACL )来对报文进行分类。然后让不同类别的报文进入不同的队列。对于不匹配任何类别的报文,报文被送入默认队列,按 WFQ 进行处 理,即,按照流的方式进行处理。在调度出队的时候,每个队列被分配了一定的带

23、宽,调度器按照每个队列分 配到的带宽对报文出队发送。0 号队列是优先队列,一个或多个类的报文可以被设定进入优先队列,并为 不同类别的报文设定可占用的带宽。当优先队列中有报文的时候,调度器总 是发送优先队列中的报文。直到优先队列中没有报文时,才调度其他的队列 中的报文。进入优先队列的报文在接口没有发生拥塞的时候(所有队列中都没有报文 时),所有属于优先队列的报文都可以被发送。在接口发生拥塞的时候(队 列中有报文时),进入优先队列的报文被限速。超出规定流量的报文将被丢 弃。这样,在接口不发生拥塞的情况下,可以使属于优先队列的报文能获得 空闲的带宽,在接口拥塞的情况下,又可以保证属于优先队列的报文不

24、会占 用超出规定的带宽,保护了其他报文的应得带宽。另外,由于只要优先队列 中有报文,调度器就会发送优先队列中的报文,所以优先队列中的报文被发 送的延迟最多是接口发送一个报文的时间,无论是延迟还是延迟抖动,优先 队列都可以将之降低为最低限度。这为对延迟敏感的应用如 VoIP 业务提供 了良好的服务质量保证。图 6 中 1到 N1 的队列为各类报文的队列。每类报文占一个队列。在调度 器调度报文出队的时候,按用户为各类报文设定的带宽将报文出队发送。属 于 1 到 N1 号队列的报文可以被确保得到用户设定的带宽。当接口中某些类 别的报文没有时, 属于 1 到 N1 号队列的报文还可以公平地得到空闲的带

25、宽, 和时分复用系统相比, 大大提高了线路的利用率。 同时, 在接口拥塞的时候, 仍然能保证各类报文得到用户设定的最小带宽。当报文不匹配用户设定的所有类别时,报文被送入默认队列。默认队列在逻 辑上可看作是一个队列,但实际上是个 WFQ 队列,所有进入默认队列的报 文再按流进行分类。CBWFQ 最多允许将报文分为 64 类(其中包括默认类)。所以, N1 的最大 值为 63。默认队列的个数 N2 可以由用户设定。对于默认队列和 1 到 N1 的队列,用户可以设定队列的最大长度。当队列的 长度达到队列的最大长度时,默认采用尾丢弃的策略。但用户还可以选择用 加权随机早期检测( Weighted Ra

26、ndom Early Detection, WRED)的丢弃策略。加权随机早期检测的丢弃策略请参见后面加权随机早期检测 WRED 的 描述。但对于优先队列,由于在接口拥塞的时候流量限制开始起作用,所以用户不 必设置队列的长度(也就没有了尾丢弃)。另外,由于优先队列中的报文一般是语音报文( Voice over IP, VoIP ),采用的是 UDP 报文,所以 WRED 的丢弃策略也不需要。3. 拥塞管理技术的对比为了更好的利用拥塞管理技术,现对各种队列技术做一比较。优点缺点FIFO1、不需要配置,易于使用。2、处理简单,处理延迟小。1、所有报文同等对待, 报文到来的次序决定了报文可占 用的带

27、宽、报文的延迟、报文的丢失。2、对不配合的数据源(如 UDP 报文发送)无约束力,不 配合的数据源会造成配合的数据源(如 TCP 报文发送) 带宽受损失。3、对时间敏感的实时应用 (如 VoIP )的延迟得不到保证。PQ可对不同业务的数据提供绝对的优 先,对时间敏感的实时应用 (如 VoIP) 的延迟可以得到保证。对优先业务的 报文的带宽占用可以绝对优先。1、需配置,处理速度慢。2、如果不对高优先级的报文的带宽加限制,会造成低优先级的报文得不到带宽。CQ1、可对不同业务的报文按带宽比例分 配带宽。2、当没有某些类别的报文时, 能自动 增加现存类别的报文可占的带宽。需配置,处理速度慢WFQ1、配

28、置容易。2、可以保护配合 (交互) 的数据源 (如 TCP报文发送)的带宽。3、可以使延迟的抖动减小。4、可以减小数据量小的交互式应用的 延迟。5、可以为不同优先级的流分配不同的 带宽。6、当流的数目减少时, 能自动增加现 存流可占的带宽。处理速度比 FIFO要慢。但比 PQ、CQ要快。CBWFQ1、对报文进行分类, 为每类报文提供 确保带宽。2、可为部分报文提供快速转发服务 ( Expedited Forwarding, EF ),使 延迟降低为最小。3、当各类数据流的确保带宽的总和小 于接口的带宽时,能自动增加各类流 的带宽,从而充分利用线路的带宽。 4、为默认类的报文提供 WFQ服务。

29、5、可以为非优先类的报文提供 WRE的D 丢弃策略。处理速度比 FIFO要慢4 拥塞避免由于内存资源的有限,传统的处理方法是,当队列的长度达到规定的最大长 度时,所有到来的报文都被丢弃。对于 TCP 报文,由于大量的报文被丢弃, 将造成 TCP 超时,从而引发 TCP 的慢启动和拥塞避免机制,使 TCP 减少 报文的发送。当队列同时丢弃多个 TCP 连接的报文时,将造成多个 TCP 连 接同时进入慢启动和拥塞避免,称之为: TCP 全局同步。这样多个 TCP 连 接发向队列的报文将同时减少,使得发向队列的报文的量不及线路发送的速 度,减少了线路带宽的利用。并且,发向队列的报文的流量总是忽大忽小

30、。 使线路的上的流量总在极少和饱满之间波动。为了避免这种情况的发生,队列可以采用加权随机早期检测( Weighted Random Early Detection, WRED ,以后简称 WRED )的丢弃策略。 (WRED 与 RED 区别是引入 IP 优选权 ,区别丢弃策略 ) 用户可以设定队列的低限和高 限。当队列的长度小于低限时,不丢弃队列。当队列的长度在低限和高限之 间时, WRED 开始随机丢弃报文。 并且,队列的长度越长, 丢弃的概率越高。 当队列的长度大于高限时,丢弃所有的报文。由于 WRED 随机地丢弃报文,将避免使多个 TCP 连接同时降低发送速度, 从而避免了 TCP 的

31、全局同步现象。当某个 TCP 连接的报文被丢弃,开始减 速发送的时候,其他的 TCP 连接仍然有较高的发送速度。这样,无论什么 时候,总有 TCP 连接在进行较快的发送,提高了线路带宽的利用率。 直接采用队列的长度和低限、 高限比较并进行丢弃 (这是设置队列门限的绝对 长度 ),将会对突发性的数据流造成不公正的待遇,不利于数据流的传输。 所以, 在和低限、 高限比较并进行丢弃时, 采用队列的平均长度 (这是设置队列 门限与平均长度比较的相对值 )。队列的平均长度是队列长度被低通滤波后的 结果。它既反映了队列的变化趋势,又对队列长度的突发变化不敏感。避免 了对突发性的数据流造成不公正的待遇。当

32、WRED 和 WFQ 配合使用时,还可以实现基于流的 WRED 。这是因为, 在进行分类的时候,不同的流有自己的队列,对于流量小的流,由于其队列 长度总是比较小,所以丢弃的概率将比较小。而流量大的流将会有较大的队 列长度,从而丢弃较多的报文,保护了流量较小的流的利益。即使 WRED 和其他的队列机制配合使用,对于流量小的流,由于其报文的 个数较少,所以从统计概率来说,被丢弃的概率也会较小。也可以保护流量 较小的流的利益。5 流量监管和流量整形流量监管( policing )的典型作用是限制进入某一网络的某一连接流量与突发, 在报文满足一定的条件下,如某个连接的报文流量过大,流量监管就可以选 择

33、丢弃报文,或重新设置报文的优先级。通常的用法是使用 CAR 来限制某 类报文的流量,如限制 HTTP 报文不能占用超过 50% 的网络带宽。流量整形( shaping )典型作用是限制流出某一网络的某一连接流量与突发, 使这类报文以比较均匀的速度向外发送。这通常使用缓冲区和令牌桶来完 成, 当报文的发送速度过快时, 首先在缓冲区进行缓存, 在令牌桶的控制下, 再均匀的发送这些被缓冲的报文。1. 约定访问速度( Committed Access Rate, CAR) 对于 ISP 来说,对用户送入网络中的流量进行控制是十分必要的。对于企业 网,对某些应用的流量进行控制也是一个有力的控制网络状况的

34、工具。网络 管理者可以使用约定访问速度(以后简称 CAR )来对流量进行控制。CAR 利用令牌桶( Tocken Bucket, TB )进行流量控制。图 7 CAR 处理过程示意图图 7 是 CAR 的处理过程,首先报文被分类,如果报文是某类报文,规定 了流量特性,则进入令牌桶中进行处理。如果令牌桶中有足够的令牌可以用 来发送报文,则报文可以通过,可以被继续发送下去。如果令牌桶中的令牌 不满足报文的发送条件,则报文被丢弃。这样,就可以对某类报文的流量进 行控制。令牌桶按用户设定的速度向桶中放置令牌, 并且,令牌桶有用户设定的容量, 当桶中令牌的量超出桶的容量的时候,令牌的量不再增加。当报文被

35、令牌桶 处理的时候,如果令牌桶中有足够的令牌可以用来发送报文,则报文可以通 过,可以被继续发送下去,同时,令牌桶中的令牌量按报文的长度做相应的 减少。当令牌桶中的令牌少到报文不能再发送时,报文被丢弃。令牌桶是一个控制数据流量的很好的工具。当令牌桶中充满令牌的时候,桶 中所有的令牌代表的报文都可以被发送,这样可以允许数据的突发性传输。 当令牌桶中没有令牌的时候,报文将不能被发送,只有等到桶中生成了新的 令牌,报文才可以发送,这就可以限制报文的流量只能是小于等于令牌生成 的速度,达到限制流量的目的。CAR 不仅可以做到流量控制,还可以进行报文的标记(mark )或重新标记( re-mark )。 CAR 可以设置 IP 报文的优先级或修改 IP 报文的优先级,达 到标记报文的目的。例如,当报文符合流量特性的时候,可以设置报文的优先级为5,当报文不符合流量特性的时候,可以丢弃,也可以设置报文的优先级为 1 并继续进行 发送。这样,后续的处理可以尽量保证不丢弃优先级为 5 的报文,在网络不 拥塞的情况下,也发送优先级为 1 的报文,当网络拥塞时,首先丢弃优先级 为 1 的报文,然后才丢弃优先级为 5 的报文。CAR 可以为不同类别的报文设置不同的流量特性和标记特性。 即,首先对报 文进行分类,然后不同类别的报文有不同的流量

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论