京东大规模数据中心网络运维监控_第1页
京东大规模数据中心网络运维监控_第2页
京东大规模数据中心网络运维监控_第3页
京东大规模数据中心网络运维监控_第4页
京东大规模数据中心网络运维监控_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 京东大规模数据中心网络运维监控序言网络,相当于是互联网服务的神经系统和循环系统。监控,是网络运维团队了解网络服务的眼睛。随着网络规模的高速发展、运维技术与理念的演进,网络监控已不满足于简单地掌握网络设备的运行状态、流量、延时和丢包,如何准确地表现出服务的可用性、快速发现问题和定位问题,提高手工运维和自动化运维效率,是迫切的需求和挑战。本文介绍京东网络团队在监控方向的一些思考和实践。本文的四个部分:京东网络现状;监控设计思考;京东监控实践;网络监控展望;一、京东网络现状从数据量表上来看京东的业务增长,下面是京东的一张覆盖了2014年618到2017年618所有的出口和专线的数据流量的图表。蓝色

2、是专线DCI,红色是互联网的公网流量。大家可以看到2017年618的DCI流量增长非常非常快;对比上一年,它已经翻了将近一倍,主要的原因是大数据和一些后台的日志分析等系统占了很大比例的流量。2017年最大的一个变化就是很多独立的业务部署了自己的数据中心,而以前京东的各个业务混杂到一起。由于不同的业务出现了自己的数据中心,说明了不同的业务对网络的一些硬件和结构、性能和品质有了不同要求。而以前(特指代:在2013年和2014年期间)京东是仅仅来解决基本的通讯问题,比如:带宽或者简单基础的硬件可靠性问题。1.1、网络架构的持续优化在网络架构的持续优化上实际有很多小的细节优化,但是抽象出来的只有四个方

3、面进行了持续的投入。全国骨干网结构升级对于全国骨干网来说,京东在很长一段时间内是部署在北方地区也就是北京,而CDN却是部署在全国;中后期在广州也部署了一些核心的节点,以及部分海外节点。但是,当时并没有形成一个整体全国性的传输网络。今年,我们完成了改造的最重要的第一阶段:启动了在北京、上海、广州三地双平面的全国100G传输网络平台,目前处于建设初期。互联网接入层建设改造互联网接入层主要是自建BGP,解决的是互联网质量的业务体验问题,而我们没办法简单通过单线、第三方互联网解决。在方案的设计过程中发生了还有一些细节的变化,比如说:城域网从原来的四核心改为双核心结构,所有的数据中心都会双接到这两个核心

4、上,这样结构简单、流量易于调度,在管理、自动化、可视等各个方面都有优势。在未来我们想达到这样一个理想效果,当南北运营商网络出现大面积网络异常的时候,我们在纯粹路由的层面完成业务切换。DCN二层到三层的改造我们最近一年半最痛苦的问题是网络规模太大了,现在一个网络里面至少10个POD,有大量的服务器和Docker,当前架构下设备的性能、稳定性达到了上限。网络设备不能简单地关注端口密度、带宽容量、电源容量等,还要考虑ARP、路由等各类表项资源,都是影响系统的重要因素。在二层网络里我们做一次网络核心的故障处理,从故障状态到可用状态整个过程大概经历了五六个小时以上而且是两天完成,整个过程就像拆弹一样,操

5、作复杂且有极高风险。所以我们后来在运维、基础架构上列了几个规矩:第一,网络可以做到可以在10分钟内完成应急案处理。第二,部分网络损失不对网络造成致命伤害。第三,结构要非常简单的,具备较好的可扩展性、可运维性。提高网络割接的可靠性网络主要有运维和建设两个方向。过去一年半里,京东网络团队有60%以上的精力消耗到建设上,因为发展太快了。已发生的夜间割接,2016年300多次、2017上半年超过300次。为了确保网络操作的可靠性,建立了标准化的SOP操作文档、技术方案审核、双人操作等多种机制。并且,在推动自动化工具逐步替代手工操作。1.2、网络环境愈发严峻除上述的问题外,如今的网络环境也愈发严峻。目前

6、的网络规模越来越大,变更次数越来越高,业务场景越来越复杂(比如:上面我们提到过的为业务特别树立的一个独立的数据中心,就会出现了特有的故障)。另外网络抖动问题会越发明显,通常这抖动网络上不易感知,而应用系统或用户对抖动问题却很敏感。从做事情的角度,从提供良好服务的角度,我们应该分析到底原因是什么,该怎样解决谁来解决。运维工作量和效率也是非常大的挑战,例如:业务方提出500台服务器的从单网卡改为双网卡的Bond,同期发生几起不易定位原因的故障需要分析排查,每件工作都是对运维力量的剧烈消耗。当人员大量消耗在着些事务性工作上的时候就没办法做好架构优化、工作改进的工作了。从团队利用率上来说我们的工作效率

7、实际上是下降了的。大家看上面这张图,这是2016年部分时期的可用性统计指标。图中有几个结果很差的互联网可用性,通常是有一些故障和问题导致的,这些问题大量的消耗我们的运维资源,是我们最优先要去解决的问题。1.3、业务要求日益增高之前业务要求相对简单,带宽不够则尽量做成1:1收敛比,设备可靠性不够则增加冗余,容量不够则扩大规模;现在业务对超大规模数据中心、超大路由表项、低延时、25G/40G差异化接入都提出了更高的要求,特别是网络的稳定性,网络团队需要更全面、精细的感知网络,快速发现和定位问题,减少重复问题的发生,制定有效的应急预案,确保高水准的网络可用性。另外,业务希望获得更多的网络信息和数据,

8、以帮助业务进行更好的部署、管理和调度,例如及时准确的主机IP网络接入位置信息、流量和网络质量信息等,需要网络团队开放更多的API和功能支持上层应用。最后,网络排障和问题分析,是各个业务团队的常规需求,要么是网络运维团队协助排障,要么是开发出友好的工具提供给业务自助完成,显然后者是良性发展的必然选择。二、监控设计思考2.1、明确监控目标首先,“网络是不是好的”,核心是定义“好”的标准;其次,要准确感知到网络异常,关键是做到对网络核心监控项准确监控;最后,要快速定性问题并触发应对措施,核心是决策机制,确定严重程度、影响面;2.2、定义网络“好”的标准什么是网络“好”的标准?用户觉得好才是真的好。网

9、络工程师在面对问题时的本能是排查分析问题的原因、尝试修复故障,往往眼里只有网络设备、功能协议的运行情况,异常状态和现象,而忽视了网络服务的核心是满足业务的联通性需要。当网规模到了一定程度之后,一两条链路或几台设备的好与坏说明不了整体网络服务是不是好的问题。网络团队要站在更高的层面,脱离只关注白盒、只关注网络设备的思维,从用户视角看网络服务情况。2.3、找到感知网络的有效方法知道什么是好网络,我们就要搞定感知网络,就要模拟用户的视角,做黑盒监控。京东网络团队在2016年下半年开始在黑盒监控方向走的比较快,进行了大量的实践和尝试。黑盒监控本质上还是白盒,但需要改变思维方式。例如:交换机板卡重启仅仅

10、是导致网络抖动的原因之一,用户视角看到的是网络抖动,在处理逻辑上要先定性网络出现了抖动再定位是什么原因引起的。另外,在做网络核心项监控时,要抓大放小,不要什么都想一步做好,把最常见的、最严重的故障优先识别出来,首先解决核心问题。2.4、网络异常处理的预案与决策机制网络异常主要有两类:第一类是依靠网络自身的健壮性,可以自愈或承受的,往往这种仅降低网络的健康度、增加了不可用的风险;这类异常不是我们关注的重点。第二类是明显影响了网络局部或全部服务的可用性,但又没有导致网络服务中断或完全不可用,只能通过人工干预来执行应急预案的异常事件;这种问题才是最关键的、需要及时处理的。2.5、网络监控到底要做什么

11、?这是一个简单的总结,网络监控要干吗?第一句话随着监控的深入,我们发现想象的网络质量跟我们主观实际测出到的确实不一样。监控要看啥呢?故障可用性、健康度、交付质量就是我一个新的网络建设完以后这部署立刻部署上完成验收、操作的影响我们做一个专线切换真的就是平滑的吗?我们下线板卡没有影响吗?但是因为没有数据我们以为是好的、还有运行状态。做好以上这些才是网络监控要做的事情。三、京东监控实践3.1、监控的前期准备准备工作如下:AAA -bono-publico.de/projects/tac_plus.html NTP SNMP python + go SYSLOG /network-security/s

12、yslog-ng/ CMDB mysql + php + python 特别是需要手工维护的信息(例如:设备管理IP、互联网出口、专线接口等)在前期,我们需要为监控做一些基础的工作。首先,一定要有AAA,解决设备的统一管理问题。第二,就是NTP,设备时间一定要正确。第三,要具备基本的SNMP采集能力。今年京东618的流量采集比以往有一个突破,以前的采集密度是分钟极,今年到了10秒级,并给我们带来巨大的震撼。这个震撼就是我们发现原来的流量统计偏差很大,10秒采集的结果数值增加了20%,也就是说如果跑了80%的带宽,实际上是96%甚至百分之百。第四,SYSLOG可以帮我们了解很多未发现问题,进行回

13、溯和追踪;前三点都是看事中出了什么问题,而SYSLOG是看事后出现什么问题,所以SYSLOG很重要,特别捕捉事前没见过的日志。最后一个就是基础信息,基础信息是整个监控的基础,需要注意的是很多基础信息是必须手工定义的,例如:哪些接口是专线?某台设备是什么角色等等。这类信息我称之为管理信息,是很难脱离人为因素完全自动化的。3.2、基本面监控核心逻辑是:有一些显而易见的状况,说明网络一定出了问题;那么就找到并呈现出来,先回答是否有问题(是不是好的);目前京东网正在使用的有:互联网出口、POD上联、DCI的实时流量和近24小时流量峰值;近6小时互联网、DCI的总流量环比;近24小时全网syslog、d

14、rop、crc的总量;近6小时全网应用服务方法性能等关键业务异常报警的总量;当前各IDC出口到全国各省网络质量、DCI网络质量;当前全网网络设备、服务器的总量与存活数;基本面监控就是要做到这样一个效果:有几个重要的大屏,当你看到上面有异常的时候,就表明就一定出现了问题。如果上面的状态显示良好,说明网络没有什么大的问题(但不代表没有小的问题)。京东网络团队最近一年半就是在解决这个问题。第一部分是流量,包括互联网出口、POD上联、DCI的实时流量和近24小时的峰值。第二部分是流量环比。目前我们做的互联网专线,环比看出异常来,我们专线远高于头一天,但是曲线基本结构波形是一致的,看起来问题都不大。第三

15、部分是近24小时全网SYSLOG在各个时间点的总和,每一分钟异常数。SYSLOG可能只有0到两三个,但是出现大量异常有几十个、上百个,就可以非常直观的看出有问题发生,接下来再去排查定位就非常容易了。第四部分是近6个小时所有业务应用方法调用性能和指标异常。3.3、互联网质量监控的事例上图中电信到三个省份互联网出现异常了,可以看到有电信、联通、移动还有BGP。电信到电信出现异常,说明是这个省内部的问题。如果仅仅是跨运营商则不需要特别的处理和关注。上图中互联网出口流量,有一个红框画出来的出口,使用率特接近60%,但没有超出过去24小时的峰值,不算严重但需要关注。上图中可以看到箭头指出位置有30多个S

16、YSLOG报警,很容易看出问题来。最后一个方法性能可以看到有几个毛刺是不正常的。上图是互联网质量监控,它的基本思路比较简单,展示各个机房到各个省份的质量监控。每个小方格,从右到左是当前到近60分钟的网络质量,并随着时间推移向左移动,来表现过去一小时内是否有异常发生、以及异常的持续时间或恢复正常的时间。上图的红圈位置表示有一个省的移动网络出现问题,右边图片中的红线是动态报警阈值,阈值不是固定的,而是根据实际监控的历史数据计算得出的动态阈值,这样可以避免一刀切的粗暴判断方式。3.4、DCN网络质量监控的事例最后是数据中心内部网络怎么去监控。微软的一篇名为pingmesh的论文非常知名,它的基本逻辑

17、是以最小的代价最大话的模拟full-mesh的端到端网络黑盒监控效果。从监控结果可以直观的得出来机架内、机架间、POD内、POD间、机房间网络质量。上面三张图片是京东实际做出来的Pingmesh效果,在数据中心内网它的覆盖率接近50%。从监控结果看跟我们想象的远远不一样,我在很多年里一直认为数据中心内网很稳定,现在看到是有明显丢包的情况。这类监控可以非常直观地发现网络的异常,接下来再基于白盒监控去定位问题的原因是什么。以上是京东网络做的很有限的一些工作,做的并不多、存在很多不足,主要问题还是希望从白盒监控思维中跳出来,抽象的去看一个大的网络,从用户视角观察,要做深做细需要有更多持续的思考和实践。四、网络监控展望监控只是工具和手段,监控可以告诉我们要做好什么事。上图是网络可用性的达成情况,从中我们可以分析出两件事情:第一件

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论