智慧交通云计算中心解决方案_第1页
智慧交通云计算中心解决方案_第2页
智慧交通云计算中心解决方案_第3页
智慧交通云计算中心解决方案_第4页
智慧交通云计算中心解决方案_第5页
已阅读5页,还剩68页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

XX市智慧交通云计算中心解决方案目录TOC\o”1—3”\h\z\uHYPERLINK\l”_Toc418858638”1.智慧交通云计算中心总体设计 1HYPERLINK\l”_Toc418858639"1.1总体设计方案 1HYPERLINK\l”_Toc418858640"1。1。1设计原则 1HYPERLINK\l”_Toc418858641”1。1.2支撑平台技术架构设计 2_Toc418858643"1。1.4通过云操作系统实现云计算中心运营管理 4HYPERLINK\l”_Toc418858644"1。1。5层次清晰的云计算中心部署架构设计 51。2项目技术路线 6_Toc418858647”1.2。2资源池化 8HYPERLINK\l”_Toc418858648”1。2.3弹性扩展 10HYPERLINK\l”_Toc418858649"1。2。4智能化云管理 12HYPERLINK\l”_Toc418858650”1。2。5充分考虑利旧 13HYPERLINK\l”_Toc418858651”2。云计算建设方案 14HYPERLINK\l”_Toc418858652"2.1网络子系统建设 14_Toc418858655"2.2。2X86虚拟化实现 21HYPERLINK\l”_Toc418858656"2.2。3计算资源池总体设计 27HYPERLINK\l”_Toc418858657”2。2.4计算资源池建设方案 322。2。5选型建议 332。3存储资源池建设 34HYPERLINK\l”_Toc418858660”2.3.1数据类型分析 342.3。2存储网络设计 35HYPERLINK\l”_Toc418858662”2.3.3统一存储平台设计 38HYPERLINK\l”_Toc418858663”2.4数据库子系统建设 462。4.1构建高性能集群数据库系统 46HYPERLINK\l”_Toc418858665”2.4.2集群数据库建设方案 47HYPERLINK\l”_Toc418858666”2.5云计算资源管理平台建设 482.6云平台安全体系建设 50HYPERLINK\l”_Toc418858668"2。6。1安全技术体系设计 51HYPERLINK\l”_Toc418858669"2。6.2安全管理体系设计 52HYPERLINK\l”_Toc418858670”2.7云平台灾备子系统建设 53HYPERLINK\l”_Toc418858671”2.7.1本地数据备份 532。7.2异地数据级容灾 54HYPERLINK\l”_Toc418858673"2。8机房子系统 55_Toc418858675"2。8.2总述 59_Toc418858679"2。8。6机柜微环境系统 72HYPERLINK\l”_Toc418858680”2.8。7电气系统设计 76HYPERLINK\l”_Toc418858681”2。8。8装修系统设计 832。8。9安防系统设计 862.8。10消防系统设计 88智慧交通云计算中心总体设计总体设计方案设计原则先进性智慧交通云计算中心的建设采用业界主流的云计算理念,广泛采用虚拟化、分布式存储、分布式计算等先进技术与应用模式,并与电子政务业务相结合,确保先进技术与模式应用的有效与适用。可扩展性政务云计算中心的计算、存储、网络等基础资源需要根据业务应用工作负荷的需求进行伸缩。在系统进行容量扩展时,只需增加相应数量的硬件设备,并在其上部署、配置相应的资源调度管理软件和业务应用软件,即可实现系统扩展.成熟性智慧交通云计算中心建设,要考虑采用成熟各种技术手段,实现各种功能,保证云计算中心的良好运行,满足业务需要.开放性与兼容性智慧交通云计算中心采用开放性架构体系,能够兼容业界通用的设备及主流的操作系统、虚拟化软件、应用程序,从而使得政务云计算中心大大降低开发、运营、维护等成本。可靠性智慧交通云计算中心需提供可靠的计算、存储、网络等资源。系统需要在硬件、网络、软件等方面考虑适当冗余,避免单点故障,保证政务云计算中心可靠运行。安全性智慧交通云计算中心与省政务外网、区县政务外网及互联网分别连接,必须防范网络入侵攻击、病毒感染;同时,政务云计算中心的资源共享给不同的系统使用,必须保证它们之间不会发生数据泄漏。因此,政务云计算中心应该在各个层面进行完善的安全防护,确保信息的安全和私密性。多业务性智慧交通云计算中心的规划设计中,充分考虑了需要支撑多用户、多业务的特征,保证基础资源在不同的应用和用户间根据需求自动动态调度的同时,使得不同的业务能够彼此隔离,保证多种业务的同时良好运行.自主可控智慧交通云计算中心的建设在产品选型中,优先选择自主可控的软硬件产品,一方面保证整个云计算中心的安全,另一方面也能够促进本地信息化产业链的发展。支撑平台技术架构设计图支撑平台技术架构支撑平台总体技术架构设计如上,整个架构从下往上包括云计算基础设施层、云计算平台资源层、云计算业务数据层、云计算管理层和云计算服务层。其中:云计算基础设施层:主要包括云计算中心的物理机房环境;云计算平台资源层:在云计算中心安全的物理环境基础上,采用虚拟化、分布式存储等云计算技术,实现服务器、网络、存储的虚拟化,构建计算资源池、存储资源池和网络资源池,实现基础设施即服务。云计算业务数据层:主要为实现业务数据的安全存储,同时针对云平台的各个虚拟机镜像数据和模板数据进行共享存储,支持虚拟机的动态迁移和数据的迁移;实现部门间数据共享与交换;实现业务应用接入.云计算管理层:通过自主可控的云计算操作系统,实现云计算中心的服务管理及业务管理的协调统一,提高运维及运营的效率.云计算服务层:是云计算中心与最终用于交互的接口和平台,通过该平台能够实现云计算中心统一对外提供服务,为客户人员提供整体的云应用和服务.支撑平台通过统一的云服务平台对外提供服务。支撑平台网络拓扑设计图云计算中心拓扑架构图支撑平台建设基于以物理分区为基本单元的设计理念,整个云计算中心可分为:核心交换区、管理区、DMZ区、业务应用区以及云存储区.其中:核心交换区:负责核心网络交换;管理区:对云计算平台进行整体管理,单独建设一套管理网络;DMZ区:考虑云计算中心整体安全性,设置专门的DMZ区,承载各业务部门的业务应用系统的WEB发布,同时支撑云计算中心互联网的接入,该区可采用全虚拟机进行支撑或者采用虚拟机和物理服务器共同支撑;业务应用区包括两部分:数据库逻辑分区和应用系统逻辑分区。其中:数据库逻辑分区用高端八路物理机支撑;应用系统逻辑分区采用虚拟化和物理服务器支撑,根据具体的业务应用特点决定支撑平台选用虚拟机还是物理服务器.数据库分区:主要建设支撑各应用系统的结构化数据数据库,考虑到数据库数据量的庞大和系统对数据的访问I/O吞吐,该区建议采用高端物理机进行支撑;业务应用逻辑分区:主要根据业务部门的不同业务需求及业务部门对平台安全级别要求的不同,采用虚拟机和物理服务器共同支撑。未来,随着云计算中心业务量的增加和复杂度的增加,可以按照相同的架构进行节点的扩展,达到整个云计算平台的可扩展性和很好的伸缩性。通过云操作系统实现云计算中心运营管理图云计算中心逻辑架构图整个云计算中心设计采用业务区域的理念.业务区域(即以服务器集群为核心的物理资源区域,不同的业务区域设备配置可以不同)是系统的基本硬件组成单元,整个系统共包括若干个业务区域.系统规模的扩大可以通过增加业务区域方式,使得整个系统具有很好的可扩展性。业务区域的业务网络交换机通过万兆方式上联到核心交换区,通过核心交换区与其他业务区域和域外系统互联。在每个业务区域内,通过云资源管理平台的云计算运营中心节点实现在X86业务节点上部署Hypervisor,并形成一个或多个独立的逻辑资源池,提供给应用使用;通过云计算虚拟化管理中心在逻辑资源池内可实现资源的共享和动态分配。每个业务区域包括:云计算虚拟化管理中心节点、业务节点、业务网络、管理网络、心跳网络、本地镜像存储;业务区域根据各自的业务需要访问FC存储或并行存储等业务数据存储区域。云计算平台配置多台云计算服务门户节点,为最终用户的系统管理员提供自助门户服务。采用以上设计理念,使得整个系统具有超高的可扩展性,可使整个系统扩展到上千台物理服务器规模。层次清晰的云计算中心部署架构设计图云计算中心部署架构图依据云计算中心建设的总体需求,勾画整个项目的部署架构,指导项目整体建设。云计算中心部署主要包括几个层面:计算资源池的构建、业务数据的分区规划、共享存储的设计等。从整个部署架构来看:计算资源池的构建主要采用高端多核心X86服务器作为服务器基础支撑,通过虚拟化技术实现底层物理资源的虚拟化,通过云资源管理平台进行虚拟机的创建、动态分配、迁移及管理,形成统一的计算资源池。考虑到云计算的安全性、可靠性及重要性,在本方案中数据库分区采用物理机支撑,以够保证整个数据库的稳定、高I/O吞吐和访问,主要通过高端X86高性能服务器通过集群技术进行部署,支撑相关业务数据的存储和管理。共享存储设计的存储数据主要包括重要业务数据和虚拟机镜像数据,其中:重要业务数据主要通过Oracle/DB2/SQLServer/MySQL等数据库进行数据管理,结构化数据存储利用高端私有云存储设备来支撑,在未来需要对存储容量进行扩展时可方便的横向纵向扩展;虚拟机镜像数据主要存放在共享存储部分,通过共享存储设备来支撑虚拟机镜像数据的存放,共享存储建议使用并行存储系统来支撑.项目技术路线本项目建设云计算中心的基本技术路线主要包括:X86系统架构、资源池化、弹性扩展、智能化云管理以及充分考虑利旧.X86系统架构基于X86平台的服务器使用IntelXeon或者AMDOpteron作为处理器,也就是通常所说的PC服务器.近年来,IntelXeon和AMDOpteron的性能获得巨大的提高,大量的先进技术和工艺先后被Intel/AMD引人其处理器的设计和制造中,比如,64位计算、直连结构、内嵌内存控制器、多核(目前,IntelXeon最多可以做到10核;AMDOpteron可以做到16核)、硬件辅助虚拟化技术(IntelVT、AMD-V)、32nm等等。在国际权威测试机构TPC组织发布的结果中,采用X86架构服务器价格/性能比最佳.X86服务器主要优势表现在界面友好,系统安装、网络装置、客户机设置简易,设置、管理系统直观、方便,系统扩展灵活等优点,对构建大型应用集群具有较好的优势。同时,基于X86架构的服务器因为其开放的架构,开放的生态系统,使其具有较低的运维成本,这也是传统小型机等封闭系统所不能比拟的。此外,从可靠性的角度,在云计算环境下,通常大量采用虚拟化、分布式、并行计算等模式,有力的保证了计算系统的可靠性。同时,基于X86架构的服务器因为其开放的架构,开放的生态系统,使其具有较低的运维成本,这也是传统小型机等封闭系统所不能比拟的.此外,从可靠性的角度,在云计算环境下,通常大量采用虚拟化、分布式、并行计算等模式,有力的保证了计算系统的可靠性。国内外几大互联网巨头,Google、Amazon、百度、阿里巴巴等,无不大量采用X86架构的设备,支撑海量的互联网检索和访问.X86架构的服务器已经成为构建云计算中心虚拟化平台的最佳选择。X86服务器相对于小型机的优势如下表所示:表X86服务器与RISC架构小型机的区别特性小型机X86服务器软件层操作系统Unix为主Unix、Linux、windows全部支持支持应用的数量较少很多操作数大小64位32位、64位全部支持可管理性管理成本很高较低是否支持易购买的零部件否是故障排除难度高低是否有国产厂商提供很少很多可靠性是否能够提供冗余是是性能价格比和可扩展性性能高高价格很高较低可扩展性低高top500中的数量很少绝大多数总之,X86服务器相对于RISC架构的小型机其优势如下:性能价格比高X86服务器目前已经成为高性能计算机的发展方向,世界上top500排行榜的高性能计算机系统绝大多数是由性价比更好的X86服务器组成的集群系统,小型机系统则很少。可扩展性好X86服务器可以通过原有预留的扩展接口进行无缝的扩展,且相关扩展接口都是业界通用的,非专用接口,这是小型机系统所无法做到的.X86服务器组成的集群系统扩展成本更低,可以实现按需扩展。可管理性好X86服务器复杂度小于小型机,通常管理一个X86服务器组成的集群系统要比管理一个小型机系统要简单得多,这也同时意味着培养一个小型机的管理人才将耗费大量的费用和支出。维护与升级更容易X86服务器都是采用了标准的硬件设备,那就意味着这些设备可以轻松地拿到,在关键时候客户即使没有硬件厂商的提供也可以自行配置出临时的解决办法,使用通用的X86架构服务器不会轻易受制于服务器制造商;然而,小型机的每个配件都是专用的,那就意味着用户在一些关键的业务上需要等待小型机厂商的服务响应时间,受制于小型机设备制造商,将自己的工作带向了被动。对应用系统的更多的支持小型机系统只能支持相对较少的操作系统和64位软件,而X86服务器可以支持大部分主流操作系统并且可以支持同时存在多种操作系统,也支持32位和64位的软件系统,在X86服务器上可运行的软件是小型机系统的成百上千倍。资源池化资源池化就是将计算资源、存储资源、网络资源通过虚拟化技术,将构成相应资源的众多物理设备组合成一个整体,形成相应的计算资源池、存储资源池、网络资源池,提供给上层应用软件.资源虚拟化是对上层应用屏蔽底层设备或架构的资源封装手段,是实现云计算资源池化的重要技术基础。虚拟化技术由来已久,所谓虚拟化是相对于物理实体而言的,即将真实存在的物理实体,通过切分或(和)聚合的封装手段形成新的表现形态.聚合封装是将多个物理实体通过技术手段封装为单一虚拟映像/实例,可用于完成某个业务。例如SMP、计算集群(Cluster)、负载均衡集群(LoadBalance)、RAID技术、虚拟存储、端口汇聚(porttrunk)、交换机堆叠(stack)等。切分封装是将单个物理实体通过技术手段封装为多个虚拟映像/实例,可用于执行不同业务。例如主机虚拟化、存储分区、虚拟局域网(VLAN)等.其中:SMP、计算集群、负载均衡、主机虚拟化等属于计算虚拟化的范畴;存储分区、RAID技术、虚拟存储等属于存储虚拟化的范畴;虚拟局域网(VLAN)、交换机堆叠、端口汇聚等则属于网络虚拟化的范畴.对于虚拟化技术也可以组合使用,以灵活地满足各种应用环境。例如:存储分区可以是对单个磁盘,也可以是针对RAID磁盘组;虚拟化主机通过负载均衡又可以实现应用单一映像。虚拟化技术的一个重要结果是降低IT架构中部件之间的依赖关系,以计算虚拟化为例,集群、主机虚拟化等计算虚拟化技术实现了应用软件与物理基础设施解耦合,这个过程类似与从C/S架构到B/S架构,继而发展为多层体系结构的发展,都是由于原有的体系发展出现瓶颈或问题而出现的。C/S架构到B/S架构是通过应用计算与客户端的解耦合,在客户端与数据库之间增加了webserver这样的中间层,减少了客户端和数据库的处理压力。图C/S架构到B/S架构转化图B/S结构到多层体系结构是通过数据处理与webserver的解耦,在webserver之间增加applicationserver,减少了webserver的处理压力。图B/S结构到多层体系结构转化图C/S结构到B/S多层体系结构的发展,优化了应用处理的过程,提高了应用系统的处理能力,而且也解决了应用系统的扩展能力,使大规模应用处理成为可能。云计算平台的计算虚拟化技术形式众多,所要解决的问题也各不相同。例如:集群技术使得应用处理获得了更大的处理能力;主机虚拟化技术则是提高服务器处理能力的利用率。图集群技术及主机虚拟技术优势图但是从最终的效果而言都是分离了应用软件与物理基础设施,解除或弱化了它们之间的耦合,从而也就削弱了各自的技术发展所受到的相互限制,拓展了技术发展的空间和灵活性.图传统数据中心向云计算中心迁移示意图弹性扩展云计算中心要实现所提供服务的质量,动态的资源调度是必不可少的。现有数据中心的IT基础架构采用固态配置,灵活性很差,当业务发展超出预期时,无法及时根据业务需求调整资源供给,难以满足业务快速增长的需求。而且系统资源扩展需要一定的周期,在此过程中,业务系统将处于高危运行状态,造成服务质量下降。而为了应用峰值而扩展的资源在正常情况下,将处于低负荷状态,造成资源浪费。而云计算中心要避免这样的情况出现,就必须要实现动态的资源调度,实现业务系统资源配备的按需调整,结合管理系统的资源监控,根据业务负载等情况,调整业务资源配给,保障业务系统的资源供给,满足其运行需要,也就保障了业务的服务质量。云计算中心弱化了应用软件与底层物理资源依赖关系,使得物理资源能够更加灵活地向优化系统性能、提高可靠性、提高易用性、提高运维效率等方面发展,使得动态资源调度成为可能,从而为上层的应用软件提供更好的服务质量。而提高底层的计算、存储、网络等物理资源的耦合性,对于解决上述问题具有关键作用。首先通过对计算资源、存储资源、网络资源进行优化配给,提高资源能力的耦合性,则可以更好地提高云计算平台的整体性能。然后智能化地根据用户需要封装、分配资源,形成虚拟应用平台,用户在简单地部署自己的应用或数据后,应用系统即可投入使用。利用整合了计算、存储、网络等方面资源的运维专家系统,只需基于虚拟应用平台对物理资源的使用分析,即可动态地对其所用物理资源进行优化调整,以提高用户应用的运行效率和服务质量。在云计算中心,运维人员无需过分关心上层应用的情况,只需基于虚拟应用平台对物理资源的使用分析,进行资源优化调整,保证云计算中心的稳定高效即可。图云计算中心弹性扩展示例图智能化云管理云计算中心具有IaaS、PaaS、SaaS等众多的服务模型,提供计算服务、存储服务、乃至整合各种资源的综合性服务,其资源的构成更加复杂、规模更加庞大.为了提高易用性和可维护性,各种资源构成之间的关系复杂。为了保证云计算中心的服务质量,对于众多用户资源配给的调整也要求更精准的、更及时。这些要求已经不是依靠运维人员的能力所能满足的,需要采用更加智能化的自适应运维管理。云计算中心运维管理要适应云服务对资源管理所提出的新需求:紧耦合的资源管理云计算中心采用资源综合管理,即将系统中的计算、存储、网络等资源视为整体系统,实施统一管理,这有利于优化整体性能、精确定位问题、是实现动态资源调度的重要因素。多维度的资源管理云计算中心的资源具有多种视图,例如物理资源视图、虚拟资源视图、虚拟组织视图,因此,云管理也应该是多维的。充分考虑利旧项目建设应充分考虑利旧,建设新系统并将业务系统迁移至新系统之后,先前采购的设备应继续利用,避免浪费已有投资。主要包括以下几个方面:服务器设备:经过性能和稳定性衡量之后,可以用来做对性能要求较低的前置机或者在云计算分区中添加一个利旧服务器组成的云区域,承担重要性稍差的业务系统;存储设备:可以用来做容灾,以充实存储空间;网络设备:经过性能和稳定性衡量之后,可以用来和新购网络设备一起组成云计算中心的网络体系。云计算建设方案网络子系统建设网络拓扑方案一般有三层组网方案和二层组网方案.传统的网络设计方案中,通常采用三层方案。三层方案将云计算中心基础网络分成核心、汇聚和接入三层架构。通常情况下,核心与汇聚之间通过路由技术进行流量的控制,汇聚层设备可以部署安全模块作为业务分区的边界网关,汇聚层以下普遍采用二层接入,运行STP/MSTP等协议来降低二层环路带来的隐患.三层结构的优点在于:网络分区清晰,以汇聚层设备区分业务部署,易于扩展、管理和维护;汇聚层可以灵活控制纵向网络的收敛比,不同性能要求的区域按照不同的规划进行设计,降低核心设备的端口压力;布线方式清晰、灵活,不会出现集中布线带来的散热、维护等问题;因接入层设备采用低端产品,汇聚层设备可按照收敛比灵活控制成本,整体组网成本相对较低。三层结构的缺点在于:组网结构复杂,需要部署MSTP和VRRP等冗余协议;在汇聚层收敛比较大,性能容易出现瓶颈;三层结构在部署时,网关部署在汇聚层,汇聚层以上采用路由协议进行流量控制,而路由收敛较慢,路由路径及节点增多,管理难度加大;汇聚层以下使用二层,仍然存在出现环路的风险;从整体规划上,三层结构较复杂。随着信息技术的不断发展,高端交换机的转发性能和接入密度都在不断的提高,因此汇聚层高端交换机设备具备足够的能力直接提供高密度的千兆接入和万兆上行能力,从而精简大量的接入层设备,使网络架构趋向于扁平化.在核心与汇聚接入层设备之间运行二层交换,vlan配置灵活,并可通过新一代交换机虚拟化功能替代传统的STP/MSTP,通过vlan映射业务分区,网络结构简洁、清晰。二层结构的优点在于:扁平化组网,简化网络拓扑,减少了单点故障和性能瓶颈,易于管理、维护;二层组网均采用高端设备,能够搭建一套具备极高转发性能的云计算中心高端网络,同时高端设备的可靠性更高,能够为云计算中心应用保驾护航;新一代高端交换机设备支持虚拟化技术,能够消除大量的环路设计,消除STP/MSTP等协议带来的运维、管理的复杂性;适合于大规模、集中部署,且高性能需求较高的云计算中心。根据云计算服务器数量多、扩展速度快、可靠性要求较低、网络结构独立的几个特点,将服务器群接入网络物理采用二层网络设计,在逻辑上虚拟成一层考虑。根据二层组网原则,本项目组网逻辑架构拓扑如下图所示。图组网逻辑架构拓扑计算资源池建设计算资源池定位计算资源池特性由于云计算中心需要处理前端进来的海量数据,因此需要大量的计算机节点。传统的超级计算中心强调整体的计算能力,当前的互联网数据中心强调密度、带宽等因素.而云计算中心,特别是作为物联网后端处理中心的物理网云计算中心需要的是强大的“处理能力”,这个“处理能力”包含了计算能力、传输能力,甚至存储能力。毕竟云计算中心不同于传统的超级计算中心,不是长时间运行同一个计算程序,而是要同时处理成千上万个服务请求,要求响应时间很短、对通信带宽和存储容量有巨大的需求。因此,云计算中心需要具有高通量特征的计算机系统。其次,对云计算运营者来讲,在提供可靠服务的前提下,通过大量先进技术降低总体拥有成本是云计算中心基础架构建设的核心目标。因此,构建云计算中心的一个重要标准就是利用标准化的、性价比高的通用部件或者产品。因为,只有标准化、商品化的部件才有众多的采购来源,并因为其开放性,从而具有较低的运营成本。再次,云计算平台的重要特征之一是实现资源的抽象和封装、构建动态化、弹性化的计算资源池,而虚拟化技术和分布式数据存储、分析技术是实现达到这一目标的重要手段。因此,计算子系统应该在虚拟化和分布式数据存储模型两个方面有较好的解决方案。最后,除了具有通用性、标准化、资源池化等特征之外,计算子系统还应该具有易管理、低能耗的特征,从而大大降低云计算中心的能耗、降低运维成本.主要技术路线计算虚拟化技术计算虚拟化技术是实现云计算中心资源池化的关键技术之一,是实现高可用、弹性扩展云计算平台的技术基础。计算虚拟化是一个抽象层,是对上层应用屏蔽底层计算设备的资源封装手段,将构成计算资源的众多物理设备组合成一个整体,形成计算资源池,提供给上层应用软件,从而提供更高的IT资源利用率和灵活性。计算虚拟化技术将真实存在的物理计算资源,通过切分或(和)聚合的封装手段形成新的表现形态。聚合封装是将多个物理实体通过技术手段封装为单一虚拟映像/实例,可用于完成某个业务。就计算资源而言,通常采用计算集群(Cluster)、负载均衡集群(LoadBalance)等。切分封装是将单个物理实体通过技术手段封装为多个虚拟映像/实例,可用于执行不同业务。通常采用主机虚拟化,如VmwareESX、Xen、MSHyper-V等产品。无论是计算集群(Cluster)、负载均衡集群(LoadBalance),还是主机虚拟化,都属于计算资源虚拟化技术,多种虚拟化技术也可以组合使用,使得计算资源池的使用更加灵活.基于X86架构的计算平台云计算中心采用标准的X86架构服务器作为“云"的节点机。基于X86平台的服务器使用IntelXeon或者AMDOpteron作为处理器,也就是通常所说的PC服务器。X86架构的服务器使用标准化、商业化的部件,从而成为构建大型云计算中心的最佳选择。近年来,IntelXeon和AMDOpteron的性能获得巨大的提高,大量的先进技术和工艺先后被Intel/AMD引人其处理器的设计和制造中,比如,64位计算、直连结构、内嵌内存控制器、多核(目前,IntelXeon最多可以做到10核;AMDOpteron可以做到16核)、硬件辅助虚拟化技术(IntelVT、AMD-V)、32nm制程等等。在国际权威的测试机构TPC组织发布的结果中,采用X86架构的服务器价格/性能比最佳.从性能角度,4颗IntelXeon7560的tpmC值就可达到24颗POWER7的23%。最后,基于X86架构的服务器因为其开放的架构,开放的生态系统,使其具有较低的运维成本,这也是小型机等封闭系统所不能比拟的。从可靠性的角度,在云计算环境下,通常大量采用虚拟化、分布式、并行计算等模式,有力的保证了计算系统的可靠性.全球几大互联网巨头,Google、Amazon、百度、阿里巴巴等,无不大量采用X86架构的设备,支撑海量的互联网检索和访问。并行计算技术高性能并行处理技术主要包括基于共享内存的OpenMP和多线程以及基于分布式消息传递的MPI,其中MPI技术可扩展性强、计算效率高,是目前业界最流行的高性能并行处理技术.MPI和OpenMP等并行处理技术的能力可以很好的满足物联网计算密集类应用的高性能处理需求。图:并行计算思想:分而治之Map/Reduce分布式计算Hadoop系统是Apache开源组织的一个分布式计算开源框架,在很多大型网站上都已经得到了应用,如亚马逊、Facebook和Yahoo等等。Hadoop设计了用来在由通用计算设备组成的大型集群上执行分布式应用的框架,利用了分布式文件系统的备份恢复机制保证了系统的高可靠性,为用户提供了一个全新的稳定的存储系统和分析系统。其主要部分是模拟Google的GFS和Map/Reduce框架完成的,下图显示了Hadoop的体系结构,存储系统是用HDFS实现的,而分析系统使用Map/Reduce实现。Hadoop的工程本身还包括其它子系统,如HBase、ZooKeeper等.图:Hadoop的体系结构可重构计算技术根据摩尔定律,CPU处理能力每18个月翻一倍,过去30年都是按照这个速度在不断提高。在此过程中解决了一个又一个的技术难题,如时钟频率、超标量架构、流水线技术等,使处理能力得到了极大地提高。然而根据吉尔德定律,在未来25年,主干网的带宽每6个月增长一倍,换句话说,也可以理解为需要处理的内容的增长速度是CPU处理能力的3倍,也就是说在信息处理系统的建设中,系统规模将会呈现持续上升,而不会因为CPU的发展而有所缓解。基于可重构计算技术来实现特殊应用的加速是目前主流的方案。云计算技术在提供传统计算手段之外,还应该针对具体应用需求,提供众核协处理器、GPU计算和FPGA三种可重构计算模式,适应不同类型应用的需求。例如在网络数据处理、音视频信息处理等方面,即可针对应用处理要求,选用相应的可重构计算模式,以提高处理能力,降低系统规模的过快增长。主机虚拟化技术主机虚拟化技术是实现资源池化的重要手段之一。近年来,X86架构上的主机虚拟化技术逐渐成熟,涌现出不少技术和产品,VMwareESX、Xen、微软Hyper-V就是其中的代表。作为第一个(1998年)将主机虚拟化技术引入X86平台的厂商,VMware目前在X86平台的虚拟化市场上处于领先地位,ESX的最新版本是6.0。作为与ESX相类似(同属裸金属架构)的Hypervisor和ESX的竞争者,Xen和Hyper—V也越来越强大。Xen是剑桥大学于2005年发布的一个开源的Hypervisor,已被吸收到Redhat、SuSE、OracleVM中。Xen已经于2007年被Citrix收购,但目前仍然作为一个开源项目由Citrix维护,代表着开源社区的力量。目前,Xen的最新版本是4.0.1,而CitrixXenServer的最新版本是5。6。微软于2008年发布了自己的Hypervisor——Hyper—V,目前已经更新到Hyper—Vr2版本。X86虚拟化实现

X86服务器虚拟化,就是在硬件和操作系统之间引入虚拟化层,如下图.虚拟化层允许多个操作系统实例同时运行在一台物理服务器上,动态分区和共享所有可用的物理资源,包括:CPU、内存、存储和I/O设备。随着服务器和台式机的计算能力急剧增加,虚拟化技术应用广泛普及,很多用户已经在开发/测试、服务器整合、数据中心优化和业务连续性方面证实了虚拟化的效用。虚拟架构已经可以将操作系统和应用从硬件上分离出来,打包成独立的、可移动的虚拟机,从来带来极大的灵活性。例如:可以通过虚拟架构,让服务器24小时*365天运行,避免因为备份或服务器维护而带来的停机。对于X86虚拟化,有两种常见的架构:寄居架构和裸金属架构.寄居架构:将虚拟化层运行在操作系统之上,当作一个应用来运行,对硬件的支持很广泛。裸金属架构:直接将虚拟化层运行在X86的硬件系统上,可以直接访问硬件资源,无需通过操作系统实现硬件访问,因此效率更高。虚拟化层虚拟化层是运行在虚拟机监控器(VMM,VirtualMachineMonitor)上面、负责管理所有虚拟机的软件。如下图所示,虚拟化层就是Hypervisor(管理程序)直接运行在硬件上,因此,Hypervisor的功能极大地取决于虚拟化架构和实现。运行在Hypervisor(管理程序)上的每个VMM进行了硬件抽取,负责运行传统的操作系统。每个VMM必须进行分区和CPU、内存和I/O设备的共享,从而实现系统的虚拟化。图:Hypervisor通过VMM管理虚拟机CPU虚拟化根据最初设计,X86上的操作系统需要直接运行在裸机上,因此默认拥有和控制所有的硬件.如下图所示,X86架构提供了四种特权级别Ring0、1、2和3,通过这四种级别来控制和管理对硬件的访问。通常,用户级的应用一般运行在Ring3级别,操作系统需要直接访问内存和硬件,需要在Ring0执行它的特权指令。为了虚拟X86架构,需要在操作系统下面运行虚拟化层,由虚拟化层来创建和管理虚拟机,进行共享资源分配.而有些敏感指令不能很好的进行虚拟化,它们在Ring0以外级别执行时,会出现不同的结果。如何在运行时捕获和翻译这些敏感指令成为X86虚拟化的一大挑战,使得X86架构虚拟化最初难以实现.图:X86架构虚拟化前的特权级别到目前为止,有三种典型的技术来解决X86虚拟化的难题:完全虚拟化;操作系统帮助下的虚拟化,即半虚拟化;硬件帮助的虚拟化。完全虚拟化完全虚拟化技术翻译核心指令来代替那些不能虚拟化的指令,通过翻译后的指令直接访问虚拟硬件.同时,所有用户级指令还是可以直接在CPU上执行来确保虚拟化的性能.每个VMM为每个虚拟机提供完整的硬件支持服务,包括虚拟BIOS、虚拟设备和虚拟内存管理。完全虚拟化实现后,客户操作系统可以通过虚拟化层从物理硬件上完全抽取出来,客户操作系统感知不到是否发生虚拟化,完全不需进行修改。完全虚拟化是迄今为止唯一不需硬件或操作系统协助来进行敏感和特权指令虚拟化的技术,Hypervisor(管理程序)可以翻译所有的操作系统特权指令,并保存在缓存里备用,而用户级指令完全可以全速直接执行。完全虚拟化提供了最好的虚拟机隔离和安全性,简化了客户操作系统迁移和移植能力。半虚拟化半虚拟化需要修改操作系统内核,替换掉不能虚拟化的指令,通过超级调用(Hypercall)直接和底层的虚拟化层Hypervisor来通讯,Hypervisor同时也提供了超级调用接口来满足其他关键内核操作,比如内存管理、中断和时间保持,如下图所示:

图:操作系统协助的X86架构虚拟化半虚拟化和全虚拟化不同,全虚拟化不需要修改上面的操作系统,敏感的操作系统指令可直接处理。半虚拟化的价值在于降低了虚拟化的损耗,基于Xen的虚拟化是半虚拟化的代表,可通过修改Linux的内核来实现CPU和内存的虚拟化,通过定制的操作系统驱动来实现I/O的虚拟化。硬件辅助虚拟化硬件厂商面对虚拟化投入了大量的精力来开发新的特性用以简化虚拟化技术应用。第一代的虚拟化增强包括IntelVirtualizationTechnology(VT-x)和AMD的AMD-V,这两种技术都为CPU增加了新的执行模式root模式,可以让VMM运行在root模式下,而root模式位于Ring0的下面。如下图所示,特权和敏感指令自动在Hypervisor上执行。客户操作系统的状态保存在VT-x(VirtualMachineControlStructure,虚拟机控制结构)中或AMD-v(VirtualMachineControlBlock,虚拟机控制块)。支持IntelVT和AMD-V的CPU从2006年开始推向市场。

图:硬件辅助的X86架构虚拟化内存虚拟化除了CPU虚拟化,下一个关键是内存虚拟化,通过内存虚拟化共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很像现在的操作系统支持的虚拟内存方式,应用程序看到邻近的内存地址空间,这个地址空间无需和下面的物理机器内存直接对应,操作系统保持着虚拟页到物理页的映射。现在所有的X86CPU都包括了一个称为内存管理的模块MMU(MemoryManagementUnit)和TLB(TranslationLookasideBuffer),通过MMU和TLB来优化虚拟内存的性能.图:内存虚拟化为了在一台机器上运行多个虚拟机,需要增加一个新的内存虚拟化层,也就是说,必须虚拟MMU来支持客户操作系统.客户操作系统继续控制虚拟地址到客户内存物理地址的映射,但是客户操作系统不能直接访问实际机器内存.VMM负责映射客户物理内存到实际机器内存,它通过影子页表来加速映射。VMM使用TLB硬件来映射虚拟内存直接到机器内存,从而避免了每次访问进行两次翻译.当客户操作系统更改了虚拟内存到物理内存的映射表,VMM也会更新影子页表来启动直接查询。MMU虚拟化引入了虚拟化损耗,第二代的硬件辅助虚拟化将支持内存的虚拟化辅助,从而大大降低因此而带来的虚拟化损耗,让内存虚拟化更高效。设备和I/O虚拟化最后一个模块是设备和I/O虚拟化,也就是如何管理和路由物理设备和虚拟设备之间的I/O请求。图:设备和I/O虚拟化基于软件的I/O虚拟化和管理为设备管理带来了新的特性和功能,让设备的管理更容易。就拿网络为例,通过虚拟网卡和交换机可以在一台物理机上不同虚拟机之间建立虚拟网络,而这不会在物理网络上产生任何的流量;允许多个物理网卡绑定成一个虚拟机网卡,提供了很好的容错能力,同时保持了同一MAC地址。I/O虚拟化的关键是保持虚拟化优势的同时,尽量降低虚拟化给CPU造成的负担。Hypervisor虚拟化物理硬件,为每台虚拟机提供一套标准的虚拟设备,如上图所示。这些虚拟设备高效模拟常见的物理硬件,将虚拟机的请求发送到物理硬件.该硬件标准化的过程也让虚拟机标准化,让虚拟机更容易在各种平台上自由移动,而无需关心下面实际的物理硬件类型.计算资源池总体设计设计原则可靠性云计算中心作为一种公共IT基础设施,就如同水和电一样,成为人们生活的必须,因此,云计算中心能否可靠运转成为云计算中心设计方案最重要的目标。高性能为了满足高并发、高吞吐率的访问,云计算中心的基础平台必须有足够的处理能力.动态化云计算中心需要负载多种业务,而各种业务的压力峰值出现的时机可能不同,因此,云计算中心基础平台就需要做到动态可伸缩,从而保证按需平衡资源供给。可扩展必须保证计算子系统具有高可扩展的能力,从而保护投资,作为分期建设。自动化实际上,自动化是数据中心永恒的追求目标,更高的自动化意味着更低的运维成本。节能降耗大型数据中心需要大量的电力,计算子系统作为电力消耗的大头,需要有切实的措施保证节能.整体架构大连市交通云计算中心通过虚拟化技术,将物理的计算资源虚拟成计算资源池,以支撑上层业务应用.如下图所示:图:计算资源池示意图如上图,本项目建设的计算资源池同样包括两部分区域的计算资源池,一部分是GNC区计算资源池,另一部分是CEGN区计算资源池.计算资源池主要由基于X86架构的服务器设备组成。根据基础平台总体架构以及网络架构设计中对功能区的划分原则,将计算设备按照需要实现的功能划分为多个功能分区,支撑不同的上层业务应用,同时也对应不同的安全和管理功能。根据基础平台所承担的大连市交通云计算中心应用系统的特点和未来3—5年的业务规划,可以把计算资源池分为数据库区、大数据量系统支撑区、DMZ区、业务应用逻辑资源区、Web服务发布区、管理区。每个区域部署的位置见如上计算资源池示意图。其中,数据库区和大数据量系统支撑区用物理机的形式进行支撑.数据库区因为数据库应用对业务并发量以及安全性等的要求,建议使用X86服务器集群架构进行支撑,而且选用8路X86高性能服务器以支撑。大连市交通云计算中心支撑各委办局的业务应用系统,交通、社保、医疗等相关领域存在若干业务压力较大的应用系统,这些应用系统不适用于通过切分提高资源利用率实现而的虚拟化分区以支撑,因此这些应用系统也要用物理机支撑,同时考虑节能降耗等因素,考虑用高性能X86刀片服务器支撑。另外的业务应用逻辑资源区、Web服务发布区和DMZ区通过虚拟化技术以支撑。Hypervisor通过主机虚拟化技术,将物理计算资源进行精细切分,可以有效提高计算资源的利用率,通常适用于这些业务逻辑计算应用等。业务资源逻辑区、Web服务发布区和DMZ区基于X86架构机架式服务器,通过部署云操作系统的虚拟化管理中心模块,基于Xen、Vmware等主流虚拟化技术,提供基本的虚拟机管理、监控、分配和使用功能,提供资源静态分配及动态调度管理功能,如下图所示:图:虚拟化管理中心管理区基于双路X86服务器进行构建,部署具备HA架构的云操作系统,基于云管理平台的虚拟组织功能,可以根据计算资源池上运行的应用之间的关联关系,形成虚拟数据中心,为大连市交通各委办局用户提供更好的使用体验.如下图:图:云管理平台实现功能本项目建设的云计算中心计算资源池相关分区主要可实现如下五方面功能:按需自助服务大连市交通相关委办局用户可以根据需要通过云计算服务门户自助获取云计算资源,如服务器的使用时间和网络存储,这个过程对本项目云计算服务提供者来说可不需人工干预.广泛网络接入云计算能力可以通过网络获取,并利用标准的机制来促进对各种胖或瘦的客户平台的使用。本项目相关委办局用户可以通过包括移动电话、平板电脑、笔记本电脑和工作站等多样化的终端通过网络使用云计算服务.资源池本项目建设的计算资源池是一个遵循多租户模型,为众多委办局用户按需分配和重分配物理的以及虚拟的资源的资源池。用户可以获取并使用池中的资源包括:存储、计算、内存和网络带宽.快速弹性获取资源在某些情况下,计算资源可以自动地被获取和释放,以快速的满足用户的需求.对于用户,在任何时间都可以无限制地获取任意数量的资源。服务可测量云计算运营中心自动控制和优化资源的使用,其机制是根据测量,并在某些抽象级别上影响分配给不同类型服务资源的数量(如存储、计算、带宽、活动用户数等).资源的利用率可以被测量、控制和报告,无论是提供者还是使用者,都可以获得服务使用方面的透明度。尤其是从服务提供者的角度,可以通过可计量的服务,准确衡量需要的计算资源量以及未来的需要量,有利于信息化整体规划。计算资源池建设方案智能高速公路支撑平台建设可用若干台X86服务器组成虚拟计算资源平台。业务节点为能承载更多的虚拟机并保证虚拟机性能,建议配置4路处理器,每颗处理器核心数尽可能多、主频尽可能高,同时配置大容量内存,配置4个千兆自适应网口(电口),用于业务与管理.同时还考虑两方面:高可用性:即承载某台虚拟机的物理节点如果出现故障需要维护,那么需要进行虚拟机动态迁移,将故障节点承载的虚拟机动态迁移到核心应用逻辑资源分区中其他正常工作的物理节点上以实现高可用性,保证应用系统的不中断;弹性扩展:即考虑到未来3—5年内部分部门会上新的应用系统,从而需要新的虚拟机资源,到时核心应用逻辑资源分区还有资源可弹性分配给新的应用系统。业务节点放置在业务区机柜中。为保证虚拟化动态迁移时的系统性能,业务区域内的若干台业务承载节点建议按照每个逻辑分区5~10台物理节点的划分方式分为相应数目的逻辑分区.选型建议天阔A620r-G是一款2U双路路64位机架式服务器,该机型支持AMDOpteron6200、6300系列处理器,采用HT3.0直连架构。四通道DDR3ECC内存技术,内存容量最大可达1TB。A840r—G采用4U机架式设计,优良的外观工艺水平,模块化设计,智能散热系统和监控系统,大大提升了机器可靠性、易用性。能稳定运行Windows,Redhat,Vmware等多种主流操作系统,是能适应核心级应用的新一代服务器,具有处理速度快、可用性强、易管理、可靠性高等特点。系统还提供多种独特功能部件,包括热插拔大功率高效电源,热插拔风扇冗余模组,智能故障指示系统等。TC6600是一款10U14片融合架构刀片服务器,实现了高性能、高密度、可伸缩、方案灵活的产品设计要求。TC6600刀片系统目前支持基于IntelGrantley平台。即E5-2600V3系列的双路计算刀片、IntelE7—4800V2的四路计算刀片、AMD6300系列的四路计算刀片,单箱刀片可支持高达14片半高计算节点或7片全高计算节点;可通过模块化设计,为计算刀片提供多种网络接口:系统可支持1Gb以太网络,10G以太网,8G或16GFC网络,100G高速网络。对于系统的关键部件和功能模块,TC6600采用冗余设计,实现了企业级的RAS特性,可满足关键应用的需求。曙光“龙芯操作风险管理系统(OperaFirm)”是基于龙芯软硬件一体的系统设备,是同类中唯一全国产自主知识产权安全产品.OperaFirm是一款采用全新设计理念的新一代运维堡垒机系统,可以实现强认证身份管理、细粒度访问控制、全面的操作追踪、自适应的口令托管和完备的合规报表等功能,支持UNIX、LINUX、WINDOWS服务器以及各类网络设备.OperaFirm可广泛应用于政府、公检法司、军工、部队、金融、能源、运营商、交通和互联网等对数据安全要求较高的领域.曙光XData大数据一体机将数据存储单元和处理单元分离,通过构架高效的服务中间件,将底层采用无共享(shared—nothing)结构的数据存储节点,聚合成一个单一的数据处理系统映像,达到较高的数据读写并发度,计算并发度,以及良好的系统扩展性,可靠性和可维护性.XData可广泛的应用在电信数据统计分析,互联网/移动互联网的日志和用户行为分析,物联网/传感器网络的数据监控和追踪分析,以及金融交易数据的离线统计和挖掘等众多领域。XData向用户提供统一的类SQL的客户端编程接口,向下管理分布在不同存储模块上的多种类型的数据,并提供简易的用户管理界面。XData系统的核心技术包括自动的服务注册和负载均衡,可扩展的数据划分和分布策略,高效的批量数据加载,通用的并行查询分析和处理引擎,结构化和非结构化数据的统一访问,不同类型数据之间的联合查询和检索,以及全方位的系统故障和恢复处理等多项技术.DBstor100备份存储系统可以针对多平台的复杂IT环境提供企业级数据保护,帮助你应付所有的挑战.DBstor100灵活的模块化结构,有着无可匹敌的灵活性和可靠性,一个系统就可满足客户目前和将来的需求,大大降低了配置成本和TCO。DBstor100虚拟带库备份存储系统,支持高速、高效、大容量的虚拟磁带库(VTL)功能;支持SmartDisk技术并与重复数据删除技术的有机结合;备份策略的自动化管理;完善的介质控制功能;多应用及异构操作系统支持;多种数据库,操作系统,应用程序在线备份;容量可根据需求进行配置,满足客户多种需求;支持简单远程容灾。存储资源池建设数据类型分析存储资源池主要用于大连市交通云计算中心所有相关的业务数据、统计数据等重要数据存储于存储。按照数据类型主要可以分为两类,即结构化数据和非结构化数据。结构化数据结构化数据即行数据,存储在数据库里,可以用二维表结构来逻辑表达实现的数据。非结构化数据相对于结构化数据而言,不方便用数据库二维逻辑表来表现的数据即称为非结构化数据,包括所有格式的办公文档、文本、图片、XML、HTML、各类报表、图像和音频/视频信息等。非结构化数据库是指其字段长度可变,并且每个字段的记录又可以由可重复或不可重复的子字段构成的数据库,用它不仅可以处理结构化数据(如数字、符号等信息)而且更适合处理非结构化数据(全文文本、图像、声音、影视、超媒体等信息)。非结构化WEB数据库主要是针对非结构化数据而产生的,与以往流行的关系数据库相比,其最大区别在于它突破了关系数据库结构定义不易改变和数据定长的限制,支持重复字段、子字段以及变长字段并实现了对变长数据和重复字段进行处理和数据项的变长存储管理,在处理连续信息(包括全文信息)和非结构化信息(包括各种多媒体信息)中有着传统关系型数据库所无法比拟的优势.统一大数据存储平台具备如下特性:必须具有高性能、高可靠性和足够的容错特性,提供多种信息保护、共享、管理方案,以保证信息的高可用性;必须拥有足够的系统扩充性,以支持目前的数据容量,同时还要考虑未来业务的发展;具备多平台、企业级连接能力,便于主机的选型和系统的整合;满足作数据远程镜像备份(容灾)的要求.存储网络设计随着计算机网络技术的飞速发展,网络存储方式也随之发展,但由于商业企业规模不同,对网络存储的需求也应有所不同,选择不当的网络存储技术,往往会使得企业在网络建设中盲目投资不需要的设备,或者造成企业的网络性能低下,影响企业信息化发展,因此了解相关网络存储知识,选择适当网络存储方式是非常重要的.存储网络种类目前高端服务器所使用的专业存储方案有DAS、NAS、SAN几种,下面介绍其相关网络存储知识.直接附加存储直接附加存储(DAS)是指将存储设备通过SCSI接口直接连接到一台服务器上使用.DAS购置成本低,配置简单,使用过程和使用本机硬盘并无太大差别,对于服务器的要求仅仅是一个外接的SCSI口,因此对于小型企业很有吸引力。但是DAS也存在诸多问题:服务器本身容易成为系统瓶颈;服务器发生故障,数据不可访问;对于存在多个服务器的系统来说,设备分散,不便管理。同时多台服务器使用DAS时,存储空间不能在服务器之间动态分配,可能造成相当的资源浪费;数据备份操作复杂。网络附加存储网络附加存储(NAS)是一种带有瘦服务器的存储设备。这个瘦服务器实际是一台网络文件服务器。NAS设备直接连接到TCP/IP网络上,网络服务器通过TCP/IP网络存取管理数据.NAS作为一种瘦服务器系统,易于安装和部署,管理使用也很方便。同时由于可以允许客户机不通过服务器直接在NAS中存取数据,因此对服务器来说可以减少系统开销。NAS为异构平台使用统一存储系统提供了解决方案。由于NAS只需要在一个基本的磁盘阵列柜外增加一套瘦服务器系统,对硬件要求很低,软件成本也不高,甚至可以使用免费的LINUX解决方案,成本只比直接附加存储略高。NAS存在的主要问题是:由于存储数据通过普通数据网络传输,因此易受网络上其它流量的影响。当网络上有其它大数据流量时会严重影响系统性能;由于存储数据通过普通数据网络传输,因此容易产生数据泄漏等安全问题;存储只能以文件方式访问,而不能像普通文件系统一样直接访问物理数据块,因此会在某些情况下严重影响系统效率,比如大型数据库就不能使用NAS。存储区域网存储区域网(SAN)是一种专门为存储建立的独立于TCP/IP网络之外的专用网络。目前一般的SAN提供4Gb/S到16Gb/S的传输数率,同时SAN网络独立于数据网络存在,因此存取速度很快,另外SAN一般采用高端的RAID阵列,使SAN的性能在几种专业存储方案中傲视群雄。SAN由于其基础是一个专用网络,因此扩展性很强,不管是在一个SAN系统中增加一定的存储空间还是增加几台使用存储空间的服务器都非常方便。通过SAN接口的磁带机,SAN系统可以方便高效的实现数据的集中备份.SAN作为一种新兴的存储方式,是未来存储技术的发展方向,但是,它也存在一些缺点:价格昂贵,不论是SAN阵列柜还是SAN必须的光纤通道交换机价格都是十分昂贵的,就连服务器上使用的光通道卡的价格也是不容易被小型商业企业所接受的;需要单独建立光纤网络,异地扩展比较困难。存储网络选择大连市交通云计算中心的数据主要包括结构化数据和非结构化数据,在本项目存储系统设计时采用两种存储网络模式来对不同数据提供高效的数据存储。FC存储网络:所有服务器通过FC网络连接到FC存储系统,FC存储系统向所有服务器提供块设备级共享存储系统。同时为了保证系统的可靠性,存储网(FC网络)采用双路径设计。如下图所示:图:采用FC存储模式的业务区域目前,业界的FCSAN存储网络通常有两种组网方案:采用大型的FCSAN交换设备,可提供8Gps的全双工光纤端口的线速互联,但是价格较高。采用业务区域的方法,根据业务特点划分物理资源池。业务区域内配置2台SAN交换机,实现服务器与SAN存储设备的8Gbps端到端互联;业务区域之间采用级联的方式实现弱连接(非线速互联),业务资源池之间实现松耦合.这样可以大大降低云平台构建成本。大数据存储模式:采用存储服务器,通过海量存储区的汇聚交换机万兆上链至核心交换机,实现与业务网段的互联互通,供各个业务分区访问.海量存储系统对外提供万兆以太网接口,用于存储访问。海量存储系统可以通过万兆上联的方式连接到业务网核心交换机,服务器通过业务网络,以NFS、CIFS、私有协议的方式访问海量存储系统。大数据存储系统向所有服务器提供文件级高性能共享存储系统。如下图所示:图:采用大数据存储模式的业务区域根据存储对象的不同特性,将存储系统集中并分离为结构化数据存储和非结构化数据(包括照片、视频等数据)存储两大模块,每个模块采用高性能、虚拟化、扩展性能强的独立存储系统进行支持.统一存储平台设计统一存储平台定位现有数据中心采用的存储设备种类繁多:存储介质包括磁盘、磁带、SSD(固态硬盘)、光盘等,其接口类型包括FC、SAS、SATA、SCSI、IDE/ATA等;海量存储设备包括磁盘阵列、磁带库、光盘塔等,其接口类型又包括FC、IP、IB、SAS、SCSI等;磁盘存储设备按照使用模式又可以分为块设备、网络文件系统(NAS)等;存储网络类型则包括FC-SAN、IP-SAN、IB—SAN等。然而,随着存储系统容量需求从GB、TB发展到现在的PB级,磁盘从MB、GB发展到TB级,传统存储系统由于先天的技术限制,在发展上产生诸多问题,建设统一存储平台,可以解决如下问题:解决数据安全性恶化的问题传统存储设备保护数据最常用的手段就是引入RAID技术,尤其是RAID5,可以在数据安全性和容量利用率之间获得较好的平衡,并且具有良好的性能。RAID的数据安全性的基础是数据异或(XOR)校验运算,因此数据恢复过程要产生较高的存储I/O,会对系统性能产生一定影响,然而RAID技术产生时磁盘容量较小(MB、GB级),因此RAID尤其是RAID5的数据恢复过程较短,对数据校验所带来的数据安全性产生的影响很小,对于性能的影响也在可接受的范围,因此被广泛使用。然而,现在磁盘容量已经达到TB级别,因此RAID5的数据恢复过程大幅提高,从而大幅度提高了数据恢复过程产生次生破坏的可能性,进而使数据安全性恶化.因而,传统存储的安全性和性能都面临巨大的挑战。解决单系统纵向扩展能力有限的问题传统存储设备只具有局部的纵向扩展(scale-in)能力,即通过增加磁盘扩展存储设备的容量,通过增加控制器的cache扩展存储设备的性能.这种纵向扩展是有局限性的,受存储设备的扩展能力的制约,而且性能扩展的影响很小,并不足以满足高速发展的应用系统对存储性能的需求.而且这种性能扩展对应用系统有较大影响,因为扩展过程是需要存储设备离线的,在扩展过程中,应用系统不能使用存储设备。解决负载不平衡造成性能瓶颈的问题为了获得更好的存储性能,可以通过增加存储设备(如另一台磁盘阵列)的方式来扩展汇聚带宽.但是在存储设备中,特定数据被存放在指定的LUN中,且只能通过指定的控制器访问到,因此即使扩展了存储设备,并不能提高特定数据的访问速度。解决存储空间利用率低的问题据统计,在实际使用中,存储设备的空间利用率不到50%。因为:首先,在选择存储设备的容量,或者从现有存储设备中申请存储空间时,其容量需求都是来自于对应用系统的预估,因此存在着较大误差,而存储设备所提供的存储空间(LUNs)一旦分配给某个应用系统或用户,就处于独占状态,未来即使该存储空间有空闲容量,其它的应用系统或用户不能使用,造成较大的浪费.其次,由于存储系统多采用RAID5技术,为了获得最佳的读写性能,RAID卷组的配置为7D+1P,即每个RAID卷组有相当于1块磁盘的空间用于存储XOR校验数据,则实际容量利用率只有7/8,同样会造成一定的浪费。总之,统一存储平台要达到存储的数据管理目标,其特性如下:可靠性数据集中到统一存储平台中,必然对系统设备的可靠性提出更高的要求。同时需要建立数据备份、容灾系统进行配合,提高数据安全性。可扩展性网络时代业务发展的不确定性和数据的高速膨胀,对独立于计算资源池之外的统一存储平台,必然提出高可扩展性的要求.这种扩展性并非是简单的容量扩展,同时还必须包括数据处理能力、数据交换带宽和数据管理功能的扩展。兼容性虽然统一存储平台已分离于计算资源池之外,但今天主机系统对数据的使用方式,仍旧以文件系统,数据库系统为主要手段。统一存储平台要适应各种主机系统的数据I/O要求,就必须要能够兼容各种操作系统、文件系统、数据库系统等各种传统数据管理手段。可管理性支持各种主流的管理协议和管理架构,能够与网络、计算机等各种设备统一管理和集中管理,能够在各种复杂的环境中实现方便统一的设备和数据管理功能.性能能够根据不同应用类型要求提供带宽、IOPS(IOPerSecond,每秒IO操作数)、OPS(OperationsPerSecond,每秒并发操作数)、ORT(OverallResponseTime,总响应时间)等不同指标侧重点的性能服务。高端系统还应能够对系统性能进行动态的扩展和调整。功能各种数据迁移、数据分发、数据版本管理、数据复制、在线扩容等数据管理功能.统一存储平台架构整体架构统一存储平台主要由结构化数据存储资源池和非结构化数据存储资源池组成,整体架构如下图所示:图:统一存储平台架构GNC区和CEGN区各自的统一存储平台如上图。针对于不同的数据类型,每个区使用的存储网络和架构是类似的,不同的是数量配置存在差异。下面统一描述统一存储各子系统架构如下:结构化存储系统结构化数据存储系统建设应基于64位高性能多核存储专用处理器,通过多协议支持实现FCSAN与IPSAN和NAS的完美融合,有效整合使用者现有存储网络架构,实现高性能SAN网络的统一部署和集中管理。借助智能模块化端口、缓存永久备份、向导式配置管理等多项创新技术,并结合自动精简配置,重复数据删除,数据压缩等高级功能实现最高性能和最低运营管理成本,最大限度提高投资回报。分布式存储系统为保证高可用、高可靠和经济性,“云”采用分布式存储的方式来存储数据,分布式存储系统本身采用数据冗余的方式来保证存储数据的安全性,即为同一份数据存储多个副本.云存储与传统的存储设备相比不仅仅是一个硬件,而是一个存储设备、网络设备、文件系统和客户端程序等多个部分组成的复杂系统.各部分以存储设备为核心,通过应用软件来对外提供数据存储和业务访问服务。“云”存储系统的结构模型由4层组成。图:分布式存储系统示意图存储设备层包括多种存储设备,例如磁盘阵列、存储服务器等,是云存储的基础。存储网络层采用万兆以太网连接存储设备和计算设备,是统一存储平台的通讯子系统.分布式文件系统包括控制单元、存储单元、管理单元,是统一存储平台实现存储虚拟化、存储共享、高性能、数据安全性的关键环节。用户层通过文件系统用户接口实现应用软件对云存储的访问。云存储管理系统云存储服务管理是保证云存储服务能够正常提供给用户的核心,可以管理整个云计算数据中心的所有云存储资源,包括所有的软硬件、云存储的相关服务、平台上的所有用户、用户对服务的购买,以及所有业务流程。一个优秀的云存储支撑管理平台可以让少数几个人去维护上万台设备组成的庞大数据中心,其核心在于它可以提升统一存储平台的管理效率,可以大大改善服务质量。我们需要一个成熟、易用、面向云存储服务的管理平台.统一存储平台的优势统一存储平台为了满足众多云端应用的需求,要求采用可大规模扩展、海量的高性能存储,并且能够实现弹性调整不同应用系统或用户的存储空间,提高存储系统的利用率、获得最佳的存储性能、优秀的数据安全性、和简单有效的运维管理能力。传统存储技术越来越难满足云存储对性能、数据安全性、使用灵活性的需要。统一存储平台应该在性能、数据安全性、使用灵活性、易维护性、经济性等方面寻求新的平衡点。存储虚拟化存储虚拟化实际上是一种存储管理技术,通过将底层存储设备抽象化统一管理,向服务器屏蔽存储设备的硬件特性,而只保留其统一的逻辑特性,展现单一存储视图,从而实现存储系统集中、统一、便捷的管理。存储虚拟化技术并非是唯一的、也非最早的存储虚拟化技术。其实诸如磁盘分区、RAID技术、卷管理等都是存储虚拟化技术,其特点就是将多个具有不同硬件特性的存储设备形成具有相同物理特性的统一的存储池,实现存储容量的灵活、动态地分配。虚拟存储是将多种、多个存储设备统一管理起来,为使用者提供大容量、高数据传输性能的存储系统。具体的说就是把多个存储介质(如硬盘、RAID)通过一定的手段集中管理起来,所有的存储介质在一个存储池(StoragePool)中得到统一管理,从服务器和工作站的角度,看到就不是多个硬盘或存储卷,而是一个分区或者卷,就像是一个超大容量的硬盘.存储虚拟化技术简化了统一存储平台的管理、提高了统一存储平台的空间利用率,方便应用系统或用户使用。二维扩展技术在海量存储环境下,容量的大幅增加已经开始带来性能扩展的需求,而通过扩展多个相互独立的存储设备,可以提高存储系统的汇聚带宽,但对特定数据的访问性能并无帮助,而且增加了存储使用和管理的复杂性。在云存储环境下,单纯在存储设备内进行纵向扩展(Scale-in),无论是对于存储容量,还是存储性能都是有限的,已经不能满足云计算中心的存储需求.统一存储平台应该使用具有二维扩展能力的存储系统,即在原有纵向扩展的基础上,在保持存储系统单一映像的条件下,能够通过扩展存储设备(如磁盘阵列)实现横向扩展(Scale-in),实现对存储系统的容量和性能的同步扩展。多副本数据保护技术数据是云计算中心的关键,如果数据被损坏,那么云中的应用将无法正常工作,影响云服务的质量,有时数据损坏对于云计算中心来说甚至是致命的。因此云计算中心应该具有更优秀的数据安全性.传统数据保护多采用RAID等数据校验手段来保证数据的安全性,允许存储部件的部分损坏,但是对于云计算中心所需的PB级的海量存储系统而言,由于容量的大幅提高,使得传统数据保护手段的有效性大幅下降,已经不能满足云计算中心对存储的需求。统一存储平台应该采用更好的数据保护技术。数据多副本技术建立在允许任何部件出现问题的基础上,将数据的多个副本存放在不同的存储设备上,在整个存储系统中,任何一个或多个部件出现损坏,都不会影响到存储系统的正常使用,也不会出现数据不可访问的现象,使统一存储平台获得前所未有的数据安全性.高性能的海量存储云计算中心具有更高的存储访问密度,并且具有更高的发展速度,因此对于统一存储平台的性能提出了更高的要求.高性能的海量存储系统性能超越了所有SAN存储,面向大数据量进行了I/O优化,带宽可达几十GB/s甚至几百GB/s。海量存储系统的体系结构类似于SAN,每个节点都可以直接访问它的存储设备,又不同于SAN,没有SAN结构中RAID控制器的瓶颈问题,当客户端(计算节点)的规模增大时,该优势非常明显。此外,海量存储系统可以自动优化数据的分布,并允许客户端(计算节点)向多个I/O节点并行读写,最大化单个客户端(计算节点)的吞吐率。海量存储系统专门针对大数据量的传输做了优化,可以为云计算中心提供高性能的吞吐率和全局数据共享环境,特别是在网络带宽足够的情况下,多进程和多客户端更有利于体现海量存储系统超强的聚合I/O能力。共享存储云计算中心所要面对的应用和用户的规模将远大于现有数据中心,由此所带来的问题就是存储的规模也是十分巨大的,如果采用磁盘阵列这样的传统存储设备,那么设备的数量也是极其庞大的,而且不同的应用系统或用户需要使用不同的LUNs,面对数量庞大的LUNs,将极大地增加存储运维管理的难度,因此在云计算中心,这种LUNs独占模式是不可取的.云计算中心应该采用能够实现多应用系统或用户共享海量数据的存储系统,更有效地提高存储的利用率、易用性和易管理性。数据挖掘一体化支持统一存储系统除提供文件存储外,还支持mapreduce大数据分析挖掘。MapReduce是一种并行编程模式,这种模式使得软件开发者可以轻松地编写出分布式并行程序。在大数据平台的体系结构中,MapReduce是一个简单易用的软件框架,基于它可以将任务分发到由上千台商用机器组成的集群上,并以一种高容错的方式并行处理大量的数据集,实现大数据平台的并行任务处理功能。MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点上的TaskTracker共同组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前失败的任务;从节点仅负责由主节点指派的任务。当一个Job被提交时,JobTracker接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控TaskTracker的执行。从上面的介绍可以看出,统一存储系统和MapReduce共同组成了大数据分布式系统体系结构的核心。统一存储系统在集群上实现了分布式文件系统,MapReduce在集群上实现了分布式计算和任务处理。统一存储系统在MapReduce任务处理过程中提供了文件操作和存储等支持,MapReduce在统一存储系统的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了大数据平台分布式集群的主要任务.数据库子系统建设构建高性能集群数据库系统数据库平台作为计算资源池的核心,具有业务量大、存储量大等特点.它承担着业务数据的存储和处理任务,因此数据库平台中数据库服务器的选择就尤为重要。服务器的可靠性和可用性是首要的需求,其次是数据处理能力和安全性,然后是可扩展性和可管理性。为保证云计算平台持续稳定高效的运行,必须保证服务器数据存储系统较高的可靠性、扩展性和灾难恢复能力。基于X86架构的高端服务器系统是适用于数据库服务器的选择.随着计算机硬件技术的高速发展,x86服务器以其高性能和低廉的价格而倍受广大客户青睐,在企业级应用场合,为了追求更高的性能及可用性,大多采用计算机集群技术来实现,即将多台服务器联合起来组成集群来实现综合性能优于单个大型服务器的技术,这种技术不但能满足应用的需要,而且大幅度的节约了投资成本。数据库集群技术与单一数据库服务器相比其优势如下:单一数据库服务器模式下,在业务量提高的同时,数据库的访问量和数据量快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担;单一数据库服务器模式下,若因处理能力不足而扔掉现有设备,做大量的硬件升级,势必造成现有资源的浪费,且下一次业务量提升时,又将面临再一次硬件升级的高额投入;然而,通过组建集群数据库系统,可以实现数据库的负载均衡及持续扩展,在需要更高数据库处理速度时,只要简单的增加数据库服务器就可以得到扩展;数据库作为信息系统的核心,起着非常重要的作用,单一设备根本无法保证

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论