高带宽延时积网络的用赛控制_第1页
高带宽延时积网络的用赛控制_第2页
高带宽延时积网络的用赛控制_第3页
高带宽延时积网络的用赛控制_第4页
高带宽延时积网络的用赛控制_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、高带宽延时积网络的拥塞控制 摘要 理论与实验表明,随着带宽的高流量积和延迟增加,TCP变得效率低下,同时还有不稳定,不管排队方案的倾向。随着因特网向高带宽光纤链路与高延迟卫星链路的合并,这些缺点越来越重要。 为解决这个问题,我们开发一种新方法。这种新方法在网络拥塞控制方面胜于TCP,保证了效率,公平,可扩展性,和稳定性。这个新的显示控制协议,XCP,概括了显示拥塞通知协议(ECN)。此外,XCP从公平控制中引入去耦利用的概念。这允许一个更加灵活的,易处理的协议设计,为服务差异化开辟了新渠道。用控制理论框架,我们模拟了XCP,证明不管链路容量,往返延时,数据源数量这些条件如何,它都具有稳健性和有

2、效性。大量的数据包等级模拟实验证明,XCP在传统和高带宽延迟环境下都优于TCP。在稳定或可变通信中,XCP都具有公平带宽分配,高利用率,小队列,几乎0丢包等优点。此外,新协议不在路由器中维持数据流状态,需要为每个数据包分配CPU周期,这使它能在告诉路由器中有作用。引言随着互联网的持续壮大,拥塞控制机制在网络发展时必须保持有效。技术趋势暗示了未来互联网将有大量的高带宽链路。高延迟的卫星链路和无线电线路将会司空见惯。这些趋势存在大量问题,因为在带宽或延迟增加时,对TCP很不利。当前拥塞控制算法的数学模型分析揭示了,不管队列方案如何,随着带宽延时积的增加,TCP会有不稳定的倾向。为问题铸造控制理论框

3、架,规则23表明,随着容量和延时的增加,随机早期丢弃(RED),随机早期标记(REM),比例积分控制器,虚拟队列都有不稳定的倾向。它们进一步证明,在高容量或大延时链路中,AQM维持稳定不太可能。此外,Katabi和Blake证明当链路容量足够大时,AVQ有不稳定的趋势。效率低是TCP在未来网络中面临的问题。随着带宽延时积的增加,性能会下降。TCP附加的增加机制限制了获得空余带宽的能力。因为在高带宽链路中的单数据流的带宽延时积或许是成千上万的数据包。伴随着拥塞突发,TCP会消耗大量的RTT来增加高利用率。此外,链路容量的增加不会提高短数据流的传输延时。短TCP数据流不能比“慢开始“更快地获得空余

4、带宽,当带宽空余时,还会浪费有用的RTT。因为TCP的吞吐量与RTT成反比。在卫星链路或无线链路中传输大量数据流时,公平将会成为问题。用户用不同RTT争夺共同瓶颈容量会导致不公平。尽管大带宽延时积的影响还没有出现,但我们已经能在当前网络中看到这些问题的雏形。例如,在卫星链路上TCP显示了网络利用问题和和TCP对长RTT数据流有偏见。当前,这些问题用一些特殊机制得到了缓和,例如应答间隔,分开连接,性能增强的代理服务器。第一页结束第二页开始文章开发了一个新的拥塞控制协议,在传统环境它优于TCP。新的明确控制协议XCP概括了明确拥塞报告协议(ECN)。替代使用ECN的一位拥塞缺陷,路由器通知发送方在

5、瓶颈上的拥塞等级。另一个新观念是利用率控制和公平控制不挂钩。对于控制利用率,新协议根据空余带宽调整侵占性。这阻止了震荡,在高带宽或大延时中提供了稳定性,并确保了网络资源的有效利用。对于控制公平,协议收回那些高于公平共享的数据流带宽,分配给其他数据流。把控制状态放在数据包中,XCP不需要在路由器中的状态,并能测量任意数量的数据流。实验只需少量CPU周期就能使它在高速路由器中更有实用性。在先前的工作22,15,23中,控制理论框架的运用表明协议的流体模型对任何链路容量,反馈延时,数据源数量都具有稳定性。与参数依赖于这些条件的多种AQM方案相反,我们分析了如何设置新协议的参数,使这些参数不受环境影响

6、。大量数据包级别的模拟实验证明,不论队列方案如何,TCP的性能随容量或延时的增加而下降。相反,新协议能达到高利用率,小队列,不丢包,不受容量和延时影响。即使在传统环境中,模拟实验证明了协议展示了更好的公平,更高的利用率,更小的队列大小,几乎不丢包。在大量短网状数据流的动态环境中也能保持好的性能,并对长RTT数据流没有抵制。新协议的独特性是没有丢包。尽管我们以解决TCP在高带宽大延时环境中的限制为目标,我们的设计还有其他的优势。首先,让公平控制从利用率控制中脱离出来开辟了服务差异化的新渠道,服务差异化运用了提供期望带宽分配的方案。我们提出了一个实施窗口价格模型的方案。第二,协议有利于区别误差损失

7、和拥塞损失,这对无线环境很有用。在XCP中,有拥塞引起的丢包很少见。此外,因为协议用了精确的拥塞反馈,明确反馈会先于拥塞丢包。明确反馈首先会告诉数据源减少它的拥塞窗口。早于和跟随明确增加反馈的损失很可能是误差损失。第三,XCP有利于不良数据源的检测。最后,XCP的性能鼓励端用户和网络提供商去配置此协议。我们给出了可能配置路径。2.设计原理最初目的是在不考虑反向兼容性或配置的情况下,重新考虑网络拥塞控制。如果我们从头建立一个新的拥塞控制结构,它会是什么样呢?首先观察到数据包丢失是拥塞的信号。由于我们不相信好的网络能避免丢失,丢失数据包是不得已的拥塞信号。作为隐式信号,丢失很严重,因为拥塞不仅是数

8、据源的丢失,还因为数据包丢失不能马上做出来这个明确决策。作为二进制信号,丢失只是意味着是否有拥塞。在反馈之前,发送方必须探测网络中的拥塞位置。由于反馈是不明确的,增加机制必须是保守的,减少机制是激进的。彻底的拥塞控制需要明确的拥塞反馈。拥塞不是二进制变量,所以拥塞信号应该反映出拥塞等级。我们计划在网络明确告诉发送方拥塞状态和如何对它做出反映的地方使用明确的拥塞信号。当瓶颈达到拥塞时,即在发送速率接近瓶颈容量时,这允许发送方快速地减少发送窗口。协议要有响应和没有震荡。第二,数据源的激进性应该根据反馈环路的延时做相应的调整。由于控制回路延迟,拥塞控制的强弱是模糊的。这类系统的基本特征是对大反馈延迟

9、会变得不稳定。为回应失稳效应,系统必须随着反馈延时增加而减速。在拥塞控制的前提下,这意味着,随着延迟的增加,数据源需要变慢发送速率。这些问题已被其他研究者提出23,26,但重要的问题是怎样根据恰当的反馈建立稳定。用控制理论的工具,推测基于速率不匹配的拥塞反馈应该与延迟成反比,基于队列不匹配的反馈与队列延迟成反比。拥塞的稳定性应该与未知多变的参数无关。控制理论的基本原则陈述控制器必须与控制信号的强弱做不够快的反应,否则控制器将一直滞后于控制系统,变得没有效率。在当前拥塞控制协议下,控制器是AQM方案。控制信号是链路中的总通信量。控制器争取满足输入通信与链路容量匹配。然而,这个目标在输入通信由TC

10、P数据流组成时很难完成,因为TCP群的强弱依赖于数据流的数量。总速率以每个RTT周期N个数据包的速率增加或以1/N减少。由于数据流的数目不固定,没有哪个AQM控制器能以常量参数足够快的运行在任意多的TCP数据流。系统的1/3目标是总通信量的强弱不依赖数据流数量。这导致需要效率控制与公平控制不关联。拥塞的稳定需要总通信量独立于数据流数目。然而,任何公平带宽分配本质上取决于在瓶颈传输的数据流数量。总体数据流的分割带宽规则应与管理总体强弱的控制规则无关。第二页结束第三页开始传统上,效率和公平是成对的因为同一控制法则习惯上同时获取公平和效率。从概念上讲,效率和公平是独立的。效率只涉及总体数据流行为。当

11、输入通信速率等于链路容量时,没有队列建立,利用率是最佳的。公平涉及共享链路的相关数据流吞吐量。当数据流共享一个链路具有相同的吞吐量时说这个方案是公平的。在新范式中,路由器有效率控制器和公平控制器。通过减少强加的需求,这种分开简化了设计和分析每个控制器。在没有重构或重分析另一个的时候,它允许修改一个控制器。此外,它为整合不同带宽分配提供了一个灵活的框架。例如,根据它们的优先级或它们支付的价格为发送方分配带宽只需要改变公平控制器,并不影响效率或拥塞特性。3.协议XCP为端系统和路由器提供接口。像TCP,XCP是基于窗口的拥塞控制协议,意在最有效的通信。然而,它灵活的结构能支持不同的服务。XCP的描

12、述假设一个纯粹的XCP网络。XCP能与TCP在相同网络与TCP友好共存。3.1框架首先,我们给出在网络中如何控制信息流的概述,并解释反馈计算。发送方维持他们的拥塞窗口cwnd和往返时间rtt,并通过在数据包中的拥塞报头与路由器交流这些信息。路由器为每个输出队列监控输入通信速率。基于链路带宽和输入通信速率的差别,路由器告诉共享链路中的数据流增加或减少它们的拥塞窗口。通过注释数据包的拥塞报头完成这些工作。反馈分为基于cwnd的数据流反馈和基于rtt的数据流的反馈,目的是让系统公平。在链路中更拥塞的路由器进一步通过重写拥塞报头来减少反馈。最后,数据包包含链路中反馈。当反馈到达接收方,它会返回发送方一

13、个确认数据包,发送方相应的更新它的cwnd。3.2 拥塞报头每个XCP数据包携带一个拥塞报头,用来传达给路由器数据流的状态和从路由器到接收方的反馈。H_cwna是发送方的当前拥塞窗口,H_rtt是发送方的当前RTT估值。这些填充在发送方,在发送时不被修改。H_feedback,存放正负值,被发送方初始化。路径上的路由器能修改这个字段来控制数据源的拥塞窗口。3.3 XCP发送方和TCP一起,XCP发送方维持数据包、cwcd、rtt的拥塞窗口。在数据分发时,发送方为数据包附加拥塞报头,用H_cwnd字段设置当前cwnd,用H_rtt设置当前rtt值。在数据流的第一个数据包,H_rtt设置为0来告诉

14、路由器这个数据源没有有效的RTT估值。发送方初始化H_feedback字段要求它的期望窗口增加。例如,当应用有一个期望速率r,在当前拥塞窗口中,数据包数量分割的拥塞窗口值由发送方设置H_feedback达到期望的增量。若带宽可用,在一个RTT之后,初始化允许发送方达到期望的速率。一个新的确认无论何时到达,正反馈拯救发送方的cwnd,负反馈减少cwnd。除了直接反馈,XCP扔需要对丢包进行回应,尽管这不常发生。做法与TCP类似。3.4 XCP接收方XCP接收方类似于TCP接收方,除了确认数据包,它从数据包中复制拥塞报头到确认数据包中。3.5 XCP路由器:控制规则XCP路由器的工作是计算引起系统

15、集中于最佳效率和极小-极大公平的反馈。XCP不丢包。它运行在丢包机制的上层。XCP的目标是阻止队列建立在不得不丢包的位置。为计算反馈,XCP路由器用有效控制器和公平控制器。这两种路由器都是计算链路中数据流的平均RTT,目的是消除基于窗口的控制协议的突发性。估计参数间隔大于平均RTT导致响应缓慢,小于RTT导致错误估计。平均RTT是用拥塞报头的信息计算的。XCP控制器为每个平均RTT制作了一个单控决策。这是因为,在尝试一个新协议之前,需要观察先前的控制决策。例如,若路由器告诉数据源增加拥塞窗口,在下次告诉数据源增加时,路由器需先观察有多少空余带宽。第三页结束第四页开始路由器保留链路估计控制定时器

16、,用来记录最新的平均RTT估值。超时期间,路由器更新它的估值和控制决策。文章的剩余部分,谈到路由器的当前RTT估值强调这是反馈延时。3.5.1效率控制器效率控制器的目的是最大化链路利用率,最小化丢包数量和队列大小。在总通信时不用关心公平问题。由于XCP是基于窗口的,EC计算在控制间隔的总通信量的增加或减少值。总反馈在每个控制间隔中都计算。=*d*S-*Q和是常量,数值大小基于稳定性分析。d是平均RTT,S是空余带宽,Q是队列大小。通过取在最后传播延时中的到达数据包最小队列计算Q值。等式1使反馈正比于空余带宽,因为当S0,链路可用,发送正反馈,当S<0,链路拥塞,发送负反馈。但单独这么做是

17、无效的,因为当输入通信匹配容量时,认为我们没有给出反馈,所以队列不分发。为分发现存队列,我们使总反馈正比于现存队列。最后,由于反馈在字节中,空余带宽S乘以RTT。为达到效率,我们把总反馈分配给单数据包。由于EC只处理总体行为,并不关心哪些数据包得到反馈和丹哥数据流改变了多少拥塞窗口。EC需要总通信该变量。分割反馈的精确程度影响公平,这是公平控制器的工作。3.5.2 公平控制器公平控制器的任务是为个体数据包公平分配反馈。FC依靠和TCP相同的原则,AIMD。计算总数据包反馈用以下机制:若>0,分配的增量在所有数据流吞吐量中相同若<0,数据流吞吐量的减少量正比于当前吞吐量。在不为0的情

18、况下,这确保了持续的公平。当效率最佳时,为防止它停止引入带宽混排的概念。这是同时分配和解除带宽以至于总通信速率不改变,但每个数据流的吞吐量逐渐达到数据流公平共享。混排通信计算如下:h=max(0,*y-|)y是输入通信量,是0.1的常量。这个公式确保了对于每个RTT,至少有10%的通信量根据AIMD重新分配。选择10%是在收敛至公平的时间和强加在最佳效率系统上的混排干扰做权衡时得到的。下一步,计算允许FC执行在上述机制中的总数据包反馈。由于增加用加法,较少用乘法,计算数据包i的反馈随着正反馈pi和负反馈ni相结合变得更容易。 H_feedbacki=pi-ni首先,计算当反馈是正值的情况。增加

19、所有数据流相同的吞吐量。数据流i的吞吐量变化量正比于相同常量。由于处理的是基于窗口的协议,我们要计算的变化量是拥塞窗口的而不是它的吞吐量。数据流i的拥塞窗口变化值是它的吞吐量变化值乘以它的RTT。数据流i的拥塞窗口变化量正比于数据流的RTT。下一步是转化拥塞窗口变化值为总数据包反馈,总数据包反馈会在拥塞报头中给出。一个数据流的总拥塞窗口变化量是它收到的总数据包反馈的总和。在一个控制间隔d内,路由器从数据流i中检测数据包的期望值,用这个期望值划分拥塞窗口的变化量,由此我们得到总数据包反馈。这个数值正比于数据流的由数据包大小划分的拥塞窗口,反比于它的RTT。总数据包正反馈正比于数据流RTT的平方,

20、反比于由数据包划分的拥塞窗口。在总通信速率的增量是h+max(,0)d ,max(,0)确保了我们计算的是正反馈。这等于所有数据流速率的增量和,也是一个数据流得到的正反馈的总和。h+max(,0)d=Lpirtti L是在一个RTT时间内路由器检测到的数据包数量。相似的,当<0时,计算总数据包负反馈。在这种情况,我们想让数据流i按它当前的吞吐量减少。因此,在数据流的拥塞窗口,这个期望变化与它当前的拥塞窗口成正比。路由器以时间间隔d检测的数据流的预期数据包量,由这些数据包分割拥塞窗口,这个改变就是期望总数据包反馈。最终发现,总数据包负反馈应该正比于数据包大小乘以数据流的RTT。 3.5.3

21、 有效性与公平控制器的说明 在一节总结有效控制器和公平控制器的重要性。 最初提到,有效和公平控制器是分开的。尤其,有效恐吓器用MIMD规则,它增加通信速率正比于系统的空闲带宽。即使在高容量链路,XCP也能快速得到空余带宽。公平控制器用AIMD规则,它集中在公平上。不挂钩使两种控制器用各自适合的规则。有效控制器和公平控制器用到的特殊控制规则并不是唯一选择。例如,我们用二项式定律描述公平控制器类似于在6所描述的。选择以上控制规则是因为我们的分析和模拟实验证明它们性能很好。有效控制器满足2的需求。总通信的强弱用总反馈和传输在链路上的独立数据流数量来说明。不同于TCP,增加或减少规则不同于在网络中的拥

22、塞水平。由EC发送的总反馈正比于利用率水平。此外,由于总反馈是通过RTT给出的,XCP随往返延时积增加变得温和。尽管公平控制器用AIMD,它比TCP更快达到公平。XCP的强弱与反馈延时很难在等式1中体现出它们的联系。建议参考等式16,它表明基于不匹配率的吞吐量变化正比于延迟时间,基于队列不匹配的变化正比于队列延迟时间。乘积减少帮助集中于公平。在TCP中,乘积减少试用于丢包事件,这很少见。相反,XCP乘积减少与丢包无关,在每个平均RTT上都能用。XCP在估测误差上也有效。我们估计p值并预测在流动传输间隔期间的p。若低估了p,我们就分配不到在当前控制间隔下得所以正反馈。但是,这带宽将在的输入通信估

23、计中作为空余带宽出现,在这个间隔内被非配到。在每个控制间隔,空闲带宽部分将被分配,直到没有留下。由于我们低估p导致分配减少,会缓慢收敛于效率。但这个错误不会停止XCP达到满利用率。相似的,若高估了p,在开始时的控制间隔内会分配更多的反馈,很快将反馈耗尽。分配间隔的不均匀并不影响达到利用率,但会缓慢达到公平。相似论证能用在估计误差,他们只是影响收敛时间,并不影响正确率。XCP的参数是定值,并独立于数据源数量,延时,瓶颈容量。这比以前有显著改善因为特殊值只能用在特殊环境,或依赖于数据源数量,容量,延迟。在4,我们说明如何选择这些值。最后,实施有效和公平控制器十分简单,只需要附录A中的少量代码。4.

24、稳定性分析用通信流体模型来分析XCP的稳定性。分析考虑了多种XCP数据流穿过单链路。为了简化和易处理,和以前的工作22,15,23,24相似,分析假设所以的数据流具有相同的,有限的,确定的延迟,忽略边界条件。大量实验证明,在大拓扑结构时,不同RTT和边界条件,结果仍然成立。有一种误差会组织完成有效性,这是混乱通信的不稳定的分配和解除分配。例如,在控制间隔结束时,我们解除所有的混乱通信,但没有分配它,这种混乱会阻碍完成充分链路运用。但混乱通信只占输入通信的10%。此外,只有在|<0.1y时,混乱通信才存在。第五页结束 第六页开始 证明细节在附录B中给出了。稳定性证明的思想如下。给出以上的假

25、设,系统是线性反馈系统,具有延迟。这种系统的稳定性通过列出奈奎斯特图中的开环传递函数进行研究。通过选择如上所述的,值来证明系统满足奈奎斯特稳定性判据。此外,增益裕度大于1,相位裕度大于0,独立于延迟,容量,数据源数量。 5.性能 在这一节,通过大量模拟实验证明,在传统环境和高带宽环境,XCP都胜过TCP。 我们的模拟实验表明,XCP具有几乎从不丢包的特性。 我们证明了,在定理1的条件下,在任何容量,延迟,数据源中都能为,选择常量。模拟实验从1.5Mb/s4Gb/s,传播延迟在10ms1.4s,数据源数量在11000之间。我们模拟了对称通信和进出动态环境的短网状流。在这些模拟中,设置=0.4,=

26、0.226展现了结果的稳定。 模拟证明,与TCP相比,新协议抑制震荡,平滑集中在高利用率,小队列,公平带宽分配。同时证明了协议在不同通信需求和不同数据流往返时间下,都有稳定性。 5.1模拟设置 模拟用数据包水平模拟ns-2,XCP模块也参与其中。通过排队规则,我们比较XCP与TCP reno:随机早期丢弃算法(RED)。实验用“温和”模式,根据作者建议设置参数。最小与最大阈值分别设置为缓冲区的1/3,2/3。增益裕度是在频率-条件下的传递函数大小。相位裕度是传递函数为1时的频率。在/dina/XCP.上的代码是可用的。随机提起标记(REM):根据作者建议以

27、及提供的代码进行设置REM参数。=1.001,=0.001.更新间隔设置在10个数据包传递时间,qref设置在缓冲区大小的1/3.自适应虚队列(AVQ)。作者建议,实验用=0.98,基于等式22计算。在19中,这个等式设置不适合大容量。这种情况,在22中用=0.15。核心无状态公平队列(CSFQ):与AQM相比,AQM目的在于高利用率和小队列。在核心路由器没有数据流状态的网络云端,CSFQ旨在提供高公平性。CSFQ与XCP相比,发现XCP能在CSFQ框架中使用,并能提供公平性和有效性。参数设置用作者的ns实施中的数据。AQM方案的代码由作者提供。为了让发难展现最好的性能,在模拟时我们把ECN使

28、能。在所以模拟中,XCP参数=0.4,=0.226。XCP在Drop-Tail和RED丢包策略中都做了实验。这两种清明没有区别,因为XCP从不丢包。大多数模拟实验用图2所示的拓扑结构。根据实验目的,瓶颈容量,往返延迟,数据流数量是多样的。根据带宽延迟积设置缓冲区大小设置。根据图3结构做的实验表明了实验结果可以推广在更大更复杂的拓扑结构。第六页结束第七页开始在未指明时,读者应该假设模拟拓扑学,即数据流的RTT是相等的,数据流是长期的FTP数据流。模拟运行时间依赖于传输延时,并经常大于300RTT。所以的模拟都运行足够长的时间以确保系统达到一致的行为。5.2 与TCP和AQM方案做比较容量的影响:

29、不管队列方案怎样,链路容量的增加都将引起TCP性能降级。在这个实验中,50个长期FTP数据流共享一个瓶颈。往返传播延时是80ms。另外,有50个数据流穿过反向路径,经常建立带有应答压缩潜能的对称通信环境。因为XCP基于流体模型并估计一些参数,具有结果突发性的反向通信有向协议施压的趋势。 图4说明,随着容量的增加,TCP的瓶颈利用率严重减少。不管队列方案如何,这结果都会发生。与此相反,XCP的利用率独立于链路容量,始终接近最佳。此外,XCP从不丢失数据包,尽管TCP使用ECN,它也会丢失数以千计的数据包。尽管XCP队列伴随着容量增加,但队列延时并不增加,因为大容量引起处理队列加快。反馈延时的影响

30、:我们固定瓶颈容量在150Mb/s,研究增加延时对拥塞控制性能的影响。所有其他参数具有与先前实验相同的值。图5表明,随着传播延时增加,TCP的利用率不管队列方案,下降严重。相反,XCP维持高利用率。大延迟对TCP的性能的负面影响已经在卫星链路中熟知。TCP的突发性被认为是一个潜在解释,数据包速度被提议为解决方案。然而,实验表明突发性是小因素。尤其,XCP是基于窗口的突发性协议,但它处理延迟比TCP好多了。它能根据往返延迟调整它的积极性。数据流数量的影响:我们固定瓶颈容量在150Mb/s,往返传播延迟在80ms,并在不同数量的FTP数据源进行相同实验。其他参数与先前的实验保持一致。图6表明,XC

31、P展现了很好的利用率,合理的队列大小,没有丢失数据包。在XCP队列中,数据流的增加对它的高公平性有反作用。当数据流的数量大于500时,公平拥塞窗口是一个实数,但有效拥塞窗口是数据包的整数。随着公平窗口的减小,化整误差引起扰乱。因此,队列增大能消除这些扰乱。短网状通信的影响:在网络中的大量数据流是短网状数据流。这对调查在拥塞控制中动态数据流影响很重要。在这个实验,我们有50个长期FTP数据流在瓶颈链路中传输。同时,有50个数据流在反向链路中传输。这两种存在仿真具有确认压缩结果的对称通信环境。瓶颈带宽是150Mb/s,往返传输延时是80ms。短流程以泊松方式到达。从柏拉图非配方式得到平均30个数据

32、包的传输大小,这依赖于实际网络流量。 图7描绘了瓶颈利用率,平均队列长度,丢失包总数,以及各种情况下得到达率。在动态环境下,伴随着大量数据流的到达与分发,图表数据显示了XCP的稳健性。即使在数据流的到达率显著增大时,XCP也能持续保持高利用率,小队列长度,0丢失量。在到达率高于800流/s,XCP开始丢包。这不是由环境的高动态引起的。这是因为,在高达率时,同一时刻的活动流程很少。在通道中没有空间来维持数据包的最小量,丢包是必然的。这种情况,XCP实行最低丢包策略,即RED。 公平性:这个实验表明,XCP比TCP更公平,不管队列方案怎样。我们有30个永久的FTP数据流共享一个30Mb/s的通道。

33、做两组模拟。在第一组,所有的数据流都有40ms的往返传播延迟。在第二组,数据流有不同的RTT,范围在40330ms中间。 图8证明了,与其他方法相比,XCP提供了公平的带宽分配,对长RTT数据流没有偏见。此外,图8-b显示了在RTT分配中,即使变化大,XCP也有稳健性。尽管XCP计算了系统RTT的平均估计值,它仍然正确的运行在不同数据流具有不同RTT的环境下。 更复杂的拓扑结构:实验用了9条链路拓扑,尽管结构类似于更多的链路。链路5能力最小,即50Mb/s,其他的位100Ms/s。所以的链路都有20ms的单程传播延迟。50个数据流,用实线箭头表示,穿过所以前向链路。50个横向流,用虚线箭头描述

34、,穿过所以前向链路。50个数据流也穿过反向链路。 图9显示了平均利用率,队列大小,每个链路的丢包数量。实际上,所以方案保证在每个链路上具有合理的高利用率。然而,在最佳利用率与小队列之间的权衡,在来自各种AQM方案中的XCP处理方式不同。XCP用少量的利用率交换少量的队列容量。在这次试验与以前的相比,XCP的低利用率是由于混排带来的干扰。尤其在链路1,2,3,4,公平控制器试图从横向数据流到远距离数据流之间搅乱带宽,使其减少吞吐量。但远距离数据流在链路5中被压制在下游,所以不能在正反馈中受益。这种结果在链路5的下游链路减轻了,因为他们能观察到上游的限制,并相应地减少负反馈。无论如何,由于搅乱带宽

35、的总量少于10%,利用率仍然高于90%。第八页结束第九页开始在多边拥塞链路的存在下,对XCP进行修改还是有可能保证100%的利用率的。尤其,我们可以修改XCP来保证队列在目标值附近。这可能导致由队列波动混乱引起干扰。然而,我们相信,当数据流穿过多边拥塞链路时,维持小队列长度比利用率的少量增加更有价值。尤其,它为新的突发数据流到来留下了安全裕度。相反,在TCP模拟实验中,纯在在链路中的大队列导致每个包等待这九个队列,这增加了端对端延迟。在这节的结尾,值得一提的是,在我们的所有模拟中,XCP的平均丢包率少于10-6,比其他方案少了三个数量级,尽管它们用了ECN。在数据流的公平拥塞窗口大于一个或两个

36、数据包的环境下,XCP能控制拥塞达到没有丢包。5.3 XCP的强弱由于以上的模拟实验集中在长期平均反应,本节演示短期XCP的强弱。尤其,我们演示XCP的利用率,队列大小,和吞吐量的有限波动。这节中的平均反应对协议的常规反应具有代表性。收敛强弱:XCP抑制震荡和平稳的收敛,达到高效率小队列和公平带宽分配。在这个实验,5个长期数据流共享45Mb/s的通道,具有40ms的RTT。数据流以两秒的间隔开始转移。图10-a表明了,无论何时转移数据流,公平控制器都重新分配带宽来维持最大-最小公平。图10-b表明分离利用率和公平控制确保在不干扰利用率的情况下实现重新分配。最终,图10-c表明瞬时队列有效的吸收

37、、释放了流量。在流量需求的突然增加和减少下得稳健性在这个实验,我们检测了在性能流量需求和强弱变化时的性能。在10个长期FTP数据流共享100Mb/s的通道下模拟,往返传输延时是4ms。在t=4s时,开始了100个新的数据流的传输并让它们稳定。在t=8s时,我们终止这100个数据流,并保留10个原始的数据流在系统中。图11表明 了XCP快速的适应在传输中的突然的增加或减少。它表明了在数据流是XCP和TCPS通过RED队列这两种情况下的利用率和队列。在不丢包的情况下,XCP吸收新的突发数据流同时维持了高利用率。在传输中,TCP容易被突然的增加干扰,并消耗很长时间去回复平稳。当数据流在t=10s时突

38、然停止,XCP快速的重新非配空余带宽并保持高利用率。相反,需求的突然的减少会使TCP动摇,并引起序列震荡。6.不同的带宽分配为了分离效率和公平,XCP提供了灵活的框架去设计各种各样的带宽分配方案。第九页结束第十页开始尤其,最小-最大公平控制器,会被能引起数据流的吞吐量收敛于不同带宽分配的控制器代替。这样做,设计师需要替换在FC上使用的AIMD机制,新机制对单个数据流分配总体反馈,使它们收敛于期望值。在这节,我们修改公平控制器来提供不同的带宽分配。在描述带宽分配方案之前,在XCP中,只有S受关注的QOS方案保证小排队延迟或低抖动冗余。我们描述一个简单的方案,它根据影子价格模型提供不同的带宽分配。

39、在模型中,用户选择自己愿意支付的单位时间价格。网络分配带宽,使竞争相同瓶颈的用户吞吐量正比于他们的价格。为提供不同带宽,我们替换AIMD机制:如果>0,增加数据流吞吐量,使其正比于价格。如果<0,以当前的吞吐量,成比例减少。我们通过修改拥塞数据头来实施以上机制。尤其,以用户支付的价格得到的当前拥塞窗口替代H_cwnd.这个小修改足够遵守以上的模型。下一步,我们给出模拟结果。三个XCP源共享10Mb/s的瓶颈。相应的价格为P1=5,P2=10,P3=15。每个数据源转移一个10Mb的文件,并从t=0开始。在图12的结果表明,转移率依赖于支付价格。在开始,当所有的数据流都参与时,它们的

40、吞吐量是5Mb/s,3.3Mb/s,1.6Mb/s,都正比于它们当前的价格。数据流1传输结束,剩余的数据流夺取剩余的带宽,吞吐量扔保持正比于价格。当数据流1完成传输释放一半的连接能力,其他数据流的发送率占用一点RTT.7.安全性相识于TCP,在XCP中针对不良数据源的安全需要额外的机制来维持数据流,并确保它们遵守拥塞控制机制。在网络边缘的检查代理或许会做这些。代理维持每个数据流状态,通过监控数据流的行为来侦查网络攻击,并隔离无反应的数据源。不像TXP,XCP使检查代理的工作变得容易是因为它的显示反馈。隔离不良数据源变得更快和容易是因为代理能用显示反馈检测数据源。更准确的说,在TCP隔离不良数据

41、源需要代理/路由器监控通过长时间间歇可疑数据的平均值来决定这个数据源根据AIMD起反应。因为数据源的RTT不确定,正确发送率是非特定的,这使工作变得复杂。路由器发送数据流一个检测反馈,用这个反馈减少拥塞窗口值达到特殊值。若数据流没有作用在单程RTT则认为它是无反应的。实际上,数据流在数据包包中指定RTT使监控变得容易。因为数据流不能告诉在什么时候代理/路由器在监控它,它不得不跟随显示反馈。第10页结束第11页开始8.逐步调度XCP接受逐步调度,在一半的路径上适用。8.1基于XCP的核心无状态公平队列XCP能调度于类似CSFQ提出的云计算方法。这方法有很好好处。它能强制不良数据流或UDP数据流使

42、用公平分配而不需要每个数据流在网络核心的状态。它能提高网络的效率,因为XCP核心允许高利用率,小队列,最小量数据包丢失。它也允许ISP在网络内部提供不同的带宽分配。CSFQ共享这些资源,但我们的模拟实验表明XCP提供更好的公平,更高的利用率,更低的延迟。按这种方式运用XCP,在通过网络云端时,我们能映射TCP或UDP数据流到进出边缘路由器之间的XCP数据流。每个XCP数据流与进入路由器相连接。到达的TCP或UDP数据包进入相关的队列,相应的XCP数据流在要离开时通过核心确定。为了这个目的,H_rtt测量在进出路由器之间的传播延迟,H_cwnd设置在进入路由器维持的XCP拥塞窗口。 维持XCP核

43、心能被进一步简化。首先,没有必要为数据包附加拥塞头,因为在每个RTT内,边缘路由器之间通过交换少量控制数据流来收集反馈。第二,共享进出边缘路由器的多元小数据流能映射到单个XCP数据流。不同的带宽方案允许每个XCP小数据流得到正比于小数据流总量的吞吐量。根据XCP大数据流,路由器从队列里转寄数据包。TCP很自然的使小数据流集中于公平地共享大数据流,尽管应该注意不能让在相同大数据流中混杂响应和无响应数据流。8.2 TCP友好的XCP在这一节,我们描述一个在同一网络允许端对端XCP公平竞争TCP的机制。这个设计可以用来允许XCP在多协议网络中存在,或作为增量式部署机制。开始连接XCP时,发送方必须检测接收方和路由器是否支持XCP。如果不支持,发送方恢复TCP或其他传统协议。这些检测可以用简单设置TCP和IP完成。我们延伸设计

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论