云计算管理平台技术方案_第1页
云计算管理平台技术方案_第2页
云计算管理平台技术方案_第3页
云计算管理平台技术方案_第4页
云计算管理平台技术方案_第5页
已阅读5页,还剩27页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、云计算管理平台技术方案 TOC o 1-5 h z 、背景介绍4 HYPERLINK l bookmark2 o Current Document 、云计算管理平台整体架构4. HYPERLINK l bookmark6 o Current Document 物理层总体设计 6 HYPERLINK l bookmark8 o Current Document 云平台的互联网出口介绍 8 HYPERLINK l bookmark10 o Current Document 业务应用区8 HYPERLINK l bookmark18 o Current Document 管理和服务区9 HYPERL

2、INK l bookmark20 o Current Document 云数据库区10 HYPERLINK l bookmark12 o Current Document 备份存储区10 HYPERLINK l bookmark22 o Current Document 核心交换区 12 HYPERLINK l bookmark24 o Current Document 云安全访问控制区 13 HYPERLINK l bookmark26 o Current Document 物理设备选型原则14资源抽象和控制层 15计算资源池设计15 HYPERLINK l bookmark33 o Cur

3、rent Document 存储资源池构建 21 HYPERLINK l bookmark35 o Current Document 网络资源池构建 24 HYPERLINK l bookmark37 o Current Document 虚拟化管理平台27云服务层31IaaS 服务 31多租户组织架构33虚拟数据中心33云服务使用流程39云服务的申请与审批40云服务交付 42云安全服务交付54云负载均衡服务交付55云数据库服务交付57云运维层62云运维平台整体架构 62云平台分级管理64设备管理65资源管理81资源编排 93资源监控99用户管理106流程管理109日志管理 113报表管理11

4、3计费策略管理 117云安全层118云安全需求及边界划分 118云边界安全防护需求 119云内部安全防护需求 119云安全体系架构120云备份方案 123备份架设计 123存储备份124云数据备份 127云主机备份 132云数据库备份 136备份策略142背景介绍云计算是计算机科学和互联网技术进一步融合发展的产物,也是引领未来信息产业创新的关键战略性技术和手段。云计算在教育领域应用前景广阔,未来将在促进教育公平、降低教育成本、变革教学活动方式、提高管理效率和助推终身教育等五个方面对教育产生深远影 响。云计算本质是将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存

5、储空间和各种软件服务。微软把云计算定义在云 +端、软彳+服务上;谷歌(Googe)认为,云计算就是以公开的标准和服务为基础,以互联网为中心,提供安全、快速、便捷的数据存储和网络计算服务;旧M则认为云计算是一个虚拟化的计算机资源池,一种新的IT资源提供模式。虽然他们对云计算的定义不同,但认识较一致的地方是:云计算即“按需服务”,将数据存储和计算能力作为可以通过互联网来获取的“服务”向客户提供。、云计算管理平台整体架构计算管理平台整体架构图如下图所示:xfnl区阖丽云安全防兴星WE装-::谭:. h梏网吊手一 百呼W 忘 |诬,*【自珥中间.)切丽斫:| JT且刎比串一篇 台机j云的 曰鹤盛喇 住

6、百丽遍| 印纠由口;1 茄旗匕虑J辰期位比51出4昼个侬够度M化|竹后泣时LJ城鹤空区4 1丹应用伙刀慵h制隅肝区MftfHJix左您&X恢理层雷源摘祟龄副息左旭5艮崎埋雷管运ilfiBa推护一=理云腕穿苣理-FT 产 1 I 一 -. :; - . 一明筋曰m .垢嗣ft理 - m户恃*-9将汽管理-“胡省理一图1,云管理平台整体架构图整体分为六大部分:1、物理层物理层包括运行云管理平台运行所需的云数据中心机房运行环境,以及计算、存储、网络、安全等设备。云中心机房的部署按照分区设计,主要分为数据库区、业务应用区、存储 区、系统管理区、网络出口区和安全缓冲区等区域。2、资源抽象与控制层资源抽象

7、与控制层通过虚拟化技术,负责对底层硬件资源进行抽象,对底层硬件故障进行屏蔽,统一调度计算、存储、网络、安全资源池。其核心是虚拟化内核,该内核提供主机 CPU内存、IO的虚拟化,通过共享文件系统保证云主机的迁移、HA集群和动态资源调度。同时通过分布式交换机实现多租户的虚拟化层的网络隔离。在存储资源池的构建上,采用分布式存储技术,实现对服务硬盘的虚拟化整合,并通过多副本(3-5份)技术保证存储数据的高可靠。3、云服务层云服务层提供IaaS层云服务:IaaS服务:包括云主机、云存储(云数据盘、对象存储)、云数据库服务、云防火墙、 云负载均衡和云网络(租户子网/IP/域名等)。IaaS层服务向PaaS

8、层、SaaS层提供开放API接口调用。云服务通过自助服务门户,向租户提供自助的线上全流程自动化交付。用户可以在自助服务门户上进行服务的申请,完成审批后相应的云资源将会交付给用户远程控制使用。4、云安全防护云安全防护为物理层、资源抽象与控制层、云服务层提供全方位的安全防护,包括防 DDo做击、漏洞扫描、主机防御、网站防御、租户隔离、认证与审计、数据安全等模块。5、云运维层此模块为云平台运维管理员提供设备管理、配置管理、镜像管理、备份管理、日志管理、监控与报表等,满足云平台的日常运营维护需求。6、云服务管理此模块主要面向云管理员,对云平台提供给租户的云服务进行配置与管理,包括服务目录的发布,组织架

9、构的定义,租户管理、云业务流程定制设计以及资源的配额与计费策略定 义等。物理层总体设计基础设施层拓扑如下:图 云计算数据中心拓扑图M区升m窜些rneeac物理资源层应包括运行云平台所需的机房运行环境,以及计算、存储和网络等设备。主要分为业务应用区、 云数据库区、备份存储区、管理和服务区、核心交换区和云安全访问控制区。物理组网示意图,如下图所示:图表物理组网示意图实际组网拓扑如下图所示:m士曰三/;巴用a机*W#靖)图表实际组网拓扑云平台的互联网出口介绍业务应用区主要用于部署承载业务应用的物理服务器,通过提供大内存性物理服务器,配置为2路 INTEL XeonE5-2620 CPU(6 核,主频

10、 2.0GHz),内存 96GB 硬盘 2*300G SAS+6*900GSAG2G高速缓存,作为计算单元,同时,利用服务器本地硬盘,结合 H3C vStor零存储解决方案来满足业务应用的存储需求,物理组网示意图如下图所示:图表业务应用区如图所示组网,单台物理服务器分别连接四个不同的网络:1、业务网络:服务器网卡上联H3C S5820v2接入交换机,提供业务数据访问网络;2、管理网络:服务器网卡上联H3C S5120HI接入交换机,通过系统管理区相应管理软件实现虚拟化平台管理、网络管理、H3C CSMf理等;3、存储网络:通过连接 H3C S6300万兆电口接入交换机,实现不同区域不同物理主机

11、之间存储网络的互通;4、服务器带外管理网络:通过服务器带外管理 iLO 口上联H3C S5120HI交换机,形成 跨交换机带外管理网络集群,方便运维人员以服务器集群为单位对硬件进行统一管理配置。2.1.3管理和服务区部署云管理平台、网络管理平台、虚拟化管理平台等管理服务器,硬件同样采用大内存性2路物理服务器,通过对云管理平台、网络管理平台、虚拟化管理平台等软件的部署,实 现对底层资源的合理管控,保障业务运行的可靠性、可用性,合理的分配资源,通过自动化云服务管理集群的运维管理,提升客户 IT人员的运维管理效率,物理组网如下图所示:数据库管理H3C云管理平台OpenStack计算管理节点对象存储管

12、理图表物理组网图从业务管理可靠性来分析,系统管理区各管理平台部署分为两大类,硬件支撑系统和虚拟支撑系统。硬件支撑系统主要是考虑到业务管理平台的重要性和可靠性,故直接采用物理服务器作为支撑平台,包括:1、H3C CVMZ机集群:通过 CVMfc机实现对虚机的管理运维,采用双机热备的形式, 保证CVMt理平台的可靠性2、H3C CSMZ机集群:通过 CSMfc机实现对大云平台的管理运维,采用双机热备的形式,保证CSMf理平台的可靠性虚机支撑系统是指在虚拟化环境下,直接将管理平台部署在虚机上,建立统一的云服务管理集群,通过虚拟化软件来保证各管理平台的可靠性,在这个集群内主要运行以下几个系统:数据库管

13、理:主要内容包括数据库的建立、调整、重构、安全控制、完整性控制和 对用户提供技术支持。H3c云管理平台:实现网络拓扑、故障、性能、配置、安全等管理功能。OpenStack计算管理节点:对下层虚拟化计算资源进行管理调度。对象存储管理:静态数据的存储、检索、预览,数据的持久性和可扩展性管理。2.1.4云数据库区部署承载数据库服务的物理服务器,对于部分高性能数据库可直接部署在物理主机上,通过配置 4 路 INTEL Xeon E5-4620 CPU (核数 8 核,主频 2.2GHz) , 64G 内存,2*300GB硬盘的高性能物理服务器,来满足客户对于数据库系统的承载需求。对于性能要求不高的数据

14、库服务,以虚拟机方式部署交付。数据库服务区通过部署高性能的FC存储,来满足客户关键业务的数据存储以及对数据,物理组网如下图所示:管旧网相业务网络H3C PS2W FC StongeJB需器带外管理网络存储同培图表云数据库区2.1.5备份存储区通过部署高性能存储设备以及专业的备份管理软件,实现对云主机 据库区的数据的备份,保障业务数据的高可靠性,物理组网如下图所示:& 云存储区以及云数10云主机&云存储区云数据摩区图表 备份存储区组网拓扑采用1台物理服务器作为备份管理服务器,利用 H3CFlexStorage P5730存储作为数据 备份介质。H3C FlexStorage P5730存储是一款

15、横向扩展存储平台,专为满足虚拟化环境不断变化 的需求而设计。它提供了完美的解决方案:可满足高可用性、数据移动性、灾难恢复、可管 理性及升级等方面的需求。借助本身的企业级存储软件功能和领先的虚拟化软件集成,FlexStorage可为各个阶段的虚拟化增长提供支持。直观、普遍的管理方式简化了存储管理。此外,FlexStorage还支持数据跨不同层、位置以及在物理和虚拟存储之间移动,为用户的虚拟化环境提供了完美的应用。H3C FlexStorage P5730 是一款专门为客户设计的机架式IP存储产品,通过全面的企业特性组合帮助物理和虚拟环境降低SAN成本,?通过建立存储集群和网络RAID,通过网络R

16、AID可在存储系统内的 RAID磁盘组出现故障、整个存储系统出现故障或者出现网络或电源等方面的外部故障时提供保 护?可扩展的性能,无中断式升级?集中的管理控制台? 快照、远程拷贝可降低灾难恢复的成本112.1.6核心交换区通过物理网络设备 N:1虚拟化技术,简化生成树协议的部署, 实现云数据中心内的大二层网络互通,为云主机的自动化迁移与调度提供环境支撑。同时在核心层旁挂LB,对各分区进行安全访问控制,物理组网如下图所示,图表核心交换区核心交换区的主要功能是完成各服务器功能分区、广域网、互联网之间数据流量的高速交换,是广域/局域纵向流量与服务功能分区间横向流量的交汇点。核心交换区必须具备高速转发

17、的能力,同时还需要有很强的扩展能力,以便应对未来业务的快速增长。如图所示,核心区由 H3CS12510-X组成。使用链路聚合技术合并多个10GE端口,提供两交换机之间的连通性。核心区交换机连接到所有其他区的边缘设备,既可以是一对HA方式的交换机,也可以是一对 HA方式的防火墙。有两类连接到核心,一类是来自交换机(比如业务系统服务器区)的连接,另一类是用防火墙连接(互联网接入区)。每个区边缘交换机都上行连接到 Core-SW1和Core-SW2每个区交换机将使用单独的VLAN VLAN跨越两个交换机,上行连接到核心。成对且以高可用性方式部署的防火墙将有一个VLAN 这个 VLAN跨越两个核心交换

18、机上行连接,并每个都连接到一个核心。每个上行连接VLAN都在两个交换机中配置。12同时,在核心接入交换机旁挂LB负载均衡设备,支持全面的四至七层负载均衡和链路负载均衡功能,支持IPv6基础特性及IPv6的负载均衡,并配合云数据中心实现虚拟化环 境下针对关键业务的动态资源扩展,动态应对突发业务访问量所带来的资源瓶颈,提高业务运维的效率。2.1.7云安全访问控制区此区域是逻辑区域,用于部署与互联网公有云、广域网接入区进行数据交互的安全隔离设备,确保数据访问安全,包括设置网络隔离、防DDo跋击设备、防火墙、IPS、端口安全检测等。保证物理网络安全性的同时,通过虚拟化技术, 实现在虚拟化环境下数据访问

19、的安全控制,物理组网如下图所示:核心交换区图表云安全访问控制区此区域实现的功能:1、DDO薪量清洗:对进入云数据中心的数据流量进行实时监控,及时发现包括DO酸击在内的异常流量。 在不影响正常业务的前提下,清洗掉异常流量。有效满足用户对云数据中心运作连续性的要求。同时通过时间通告、分析报表等服务内容提升用户网络流量的可见 性和安全状况的清晰性。2、访问控制:利用防火墙实现云数据中心的整体安全防护;同时为每个申请安全服务 的租户提供独立的 vFWfl艮务,实现租户业务的隔离需求。133、入侵防御:通过 SecBlade IPS插卡,可为数据中心内部提供了更坚固的安全保护机制。通过IPS的深度检测功

20、能可以有效保护内部服务器避免受到病毒、蠕虫、程序漏洞等来自应用层的安全威胁。2.1.8物理设备选型原则根据实际业务需求和上述配置原则,物理设备选型遵循以下要求:物理服务器的选型:1)常规大内存型应用,主要用于承载业务系统的云主机服务,采用2路CPU服务器,CPU核数R 6核,配置 E5-2620及以上的 CPU内存A 96G;2)高计算型应用,主要用于数据库服务等,采用4路CPU服务器,CPU核数R 8核,配置E5-4620及以上的CPU内存A 64G;数据库区FC存储选型:1)存储设备支持:FC光纤通道存储设备2)支持数据分层存储,可以在 SSD 15K、10K、7.2K硬盘之间动态迁移数据

21、;3)单台阵列要求配置 2个SAN储节点或控制器;4) 实际配置前端口 R 4个;后端口速率R 6Gb SAS接口;配置10k rpm 900 SAS硬盘, 容量 60TB备份IP存储选型:1)配置R 90T总容量;存储阵列支持无限个Lun,每卷支持无限个快照;2)本次配置R 4个控制器,所配磁盘阵列可在线扩展至R32个控制器,不会导致业务中断;支持跨存储设备的 RAID0/1/5/6/10 ;分布式存储选型:1)支持2-5个数据副本,存储最大容量可扩展至1PB以上;2)支持最大256个节点,支持存储节点容错,任意一个存储节点发生故障,都不会 导致数据丢失;3)扩容新增存储节点时,原有数据自动

22、重新分布,按负载均衡原则分布到新增存储 空间中。配置A 400T容量网络设备选型:1)核心交换机:交换容量A 17.5Tbps ,包转发率A 5000Mpps;采用主控引擎、交换 引擎、接口单元硬件槽位分离的全分布式架构;支持 1:N、N:1、纵向虚拟化;支14持云中心大二层互联技术。2)服务器千兆接入交换机,交换容量300Gbps,转发f能160Mppg服务器万兆接入交换机, 交换容量1200Gbps,转发性能700Mpps;支持802.1Qbg 标准协议;支持全万兆线速转发,40GE上连。4)负载均衡,支持全面的四至七层负载均衡和链路负载均衡功能,支持IPv6基础特性及IPv6的负载均衡。

23、5)防火墙,采用核心交换机相同的架构,支持 N:1安全集群来统一配置管理;支持 虚拟防火墙功能,支持IPv6基础特性。6)入侵防御,通过国际权威安全组织(通用漏洞披露组织)兼容性认证,支持深入 七层的分析检测技术,并能主动防御。2.2资源抽象和控制层计算资源池设计服务器是云计算平台的核心,其承担着云计算平台的“计算”功能。对于云计算平台上的服务器,通常都是将相同或者相似类型的服务器组合在一起,作为资源分配的母体, 即所谓的服务器资源池。在这个服务器资源池上,再通过安装虚拟化软件,使得其计算资源能以 一种云主机的方式被不同的应用和不同用户使用。在x86系列的服务器上,其主要是以H3Cloud云主

24、机的形式存在。后续的方案描述中,都以云主机进行描述,如下为H3c虚拟化软件的构成。CVK Cloud Virtualization Kernel ,虚拟化内核平台运行在基础设施层和上层操作系统之间的 “元”操作系统,用于协调上层操作系统对底 层硬件资源的访问, 减轻软件对硬件设备以及驱动的依赖性,同时对虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等问题进行加固处理。CVM Cloud Virtualization Manager ,虚拟化管理系统主要实现对数据中心内的计算、网络和存储等硬件资源的软件虚拟化,形成虚拟资源池,对上层应用提供自动化服务。其业务范围包括:虚拟计

25、算、虚拟网络、虚拟存储、高可靠性(HA)、动态资源调度(DRS、云主机容灾与备份、云主机模板管理、集群文件系统、虚拟 交换机策略等。15采用H3c的CAS虚拟化平台对多台服务器虚拟化后,连接到共享存储,构建成计算资源池,通过网络按需为用户提供计算资源服务。同一个资源池内的云主机可在资源池内的物理服务器上动态漂移,实现资源的动态调配。CAS产品逻辑架构图如下所示:图表CAS产品逻辑架构计算资源池的构建可以采用以下四个步骤完成:计算资源池分类设计、 主机池设计、集群设计、云主机设计四个部分完成。1)计算资源池分类设计在搭建服务器资源池之前,首先应该确定资源池的数量和种类,并对服务器进行归类。归类的

26、标准通常是根据服务器的CP段型、型号、配置、物理位置和用途来决定。对云计算平台而言,属于同一个资源池的服务器,通常就会将其视为一组可互相替代的资源。所以,一般都是将相同处理器、相近型号系列并且配置与物理位置接近的服务器一一比如相近型号、物理距离不远的机架式服务器。在做资源池规划的时候,也需要考虑其规模和功用。如果单个资源池的规模越大,可以给云计算平台提供更大的灵活性和容错性:更多的应用可以部署在上面,并且单个物理服务器的宕机对整个资源池的影响会更小些。但是同时,太大的规模也会给出口网络吞吐带来更大的压力,各个不同应用之间的干扰也会更大。初期的资源池规划应该涵盖所有可能被纳管到云计算平台的所有服

27、务器资源,包括那些为搭建云计算平台新购置的服务器、用户内部那些目前闲置着的服务器以及那些现有的并正在运行着业务应用的服务器。 在云计算平台搭建的初期, 那些目前正在为业务系统服务的服16务器并不会直接被纳入云计算平台的管辖。但是随着云计算平台的上线和业务系统的逐渐迁 移,这些服务器也将逐渐地被并入云计算平台的资源池中。针对用户的需要,我们按照用途将云计算资源池划分为云主机&zi存储区资源池、管理和服务区资源池,以便云计算平台项目实施过程以及平台上线以后运维过程中使用。在云计算平台搭建完毕以后,服务器资源池可以如下图所示:云主机云管理和云存储资服务区资源泡源油计算资源池图表云计算资源池H3CCV

28、M拟化管理平台体系将云计算资源池的物理服务器资源以树形结构进行组织管理,云资源中的被管理对象之间的关系可以用下图描述:图表云资源对象关系2)主机池设计完成在云计算软件体系架构中,主机池是一系列主机和集群的集合体,主机可纳入群集中,也可单独存在。没有加入集群的主机全部在主机池中进行管理。3)集群设计集群目的是使用户可以像管理单个实体一样轻松地管理多个主机和云主机,从而降低管理的复杂度,同时,通过定时对集群内的主机和云主机状态进行监测,如果一台服务器主机出现故障,运行于这台主机上的所有云主机都可以在集群中的其它主机上重新启动,保证了 数据中心业务的连续性。174)云主机设计每台云主机都是一个完整的

29、系统,它具有 CPU内存、网络设备、存储设备和 BIOS, 因此操作系统和应用程序在云主机中的运行方式与它们在物理服务器上的运行方式没有任 何区别。与物理服务器相比,云主机具有如下优势:在标准的x86物理服务器上运行。可访问物理服务器的所有资源(如CPU、内存、磁盘、网络设备和外围设备),任何应用程序都可以在云主机中运行。默认情况,云主机之间完全隔离,从而实现安全的数据处理、网络连接和数据存 储。可与其它云主机共存于同一台物理服务器,从而达到充分利用硬件资源的目的。云主机镜像文件与应用程序都可以封装于文件之中,通过简单的文件复制便可实 现云主机的部署、备份以及还原。具有可移动的灵巧特点,可以便

30、捷地将整个云主机系统(包括虚拟硬件、操作系 统和配置好的应用程序)在不同的物理服务器之间进行迁移,甚至还可以在云主 机正在运行的情况下进行迁移。可将分布式资源管理与高可用性结合到一起,从而为应用程序提供比静态物理基 础架构更高的服务优先级别。可作为即插即用的虚拟工具 (包含整套虚拟硬件、 操作系统和配置好的应用程序) 进行构建和分发,从而实现快速部署。在计算资源池中,一般物理服务器与云主机的整合比平均不超过1:8、单台物理服务器上所有云主机vCPU之和不超过物理机总内核的1.5倍、单台物理服务器上所有云主机内存之和不超过物理内存的 120%在构建完计算资源池后,软件本身还需要保证整个计算资源池

31、及应用的易用性和可靠性,H3CCA端拟化软件通过以下技术实现可用性和可靠性的要求:5)云主机模板设计云主机模板包括云主机的 vCPU内存等参数,主机根据主要应用系统负载量的不同提 供不同的规格。在采用云计算来向用户交付服务时,用户通过云门户自助申请的IT服务资源就是业务应用模板,因此需要提前设计好相应的IT服务模板向云门户发布,当用户申请该服务时,云平台根据模板进行资源编排,快速生成云主机相关资源交付给用户使用。186)高可用性设计高可用性包括两个方面:.云主机之间的隔离:每个云主机之间可以做到隔离保护,其中一个云主机发生故障不会影响同一个物理机上的其他云主机;.物理机发生故障不会影响应用:故

32、障物理机上运行的云主机可被自动迁移接管,即云主机可以在同一集群内的多台服务器之间进行迁移,从而实现多台物理服务器的之间的相互热备,实现当其中一个物理服务器发生故障时,自动将其上面的云主机切换到其他的服务器,应用在物理机宕机情况下保证零停机。H3CCASI拟化平台HA功能会监控该集群下所有的主机和物理主机内运行的虚拟主机。当物理主机发生故障,出现宕机时,HA功能组件会立即响应并在集群内另一台主机上重启该物理主机内运行的云主机。当某一发生故障时,HA功能也会自动的将该云主机重新启动来恢复中断的业务。7)动态资源调度动态资源调度功能可以持续不断地监控计算资源池的各物理主机的利用率,并能够根据用户业务

33、的实际需要, 智能地在计算资源池各物理主机间给虚拟机分配所需的计算资源。通过自动的动态分配和平衡计算资源,动态资源调整特性能够:整合服务器,降低IT成本,增强灵活性;减少停机时间,保持业务的持续性和稳定性;减少需要运行服务器的数量,提 高能源的利用率。动态资源调度功能组件可以自动并持续地平衡计算资源池中的容量,可以动态的将云主机迁移到有更多可用计算资源的主机上,以满足虚拟机对计算资源的需求。即便大量运行SQL Server的虚拟机,只要开启了动态资源调整功能,就不必再对CPUW内存的瓶颈进行一一监测。全自动化的资源分配和负载平衡功能,也可以显著地提升数据中心内计算资源的利用效率,降低数据中心的

34、成本与运营费用。19如上图所示,动态资源调整功能通过心跳机制, 定时监测集群内主机的 CPUJ用率,并 根据用户自定义的规则来判断是否需要为该主机在集群内寻找有更多可用资源的主机,以将该主机上的云主机迁移到另外一台具有更多合适资源的服务器上。8)动态资源扩展特性计算虚拟化简化了部署业务服务器的流程和具体工作,极大的缩短了新业务服务器的部署周期,使得通过快速增减业务服务器来应对业务访问量的突发性变化成为可能。因此,部署了云业务环境的用户开始考虑采用动态部署方式来应对业务访问的突发性需求。但采用动态资源部署方式的一个不能忽略的前提是:IT管理人员能够对业务访问量的突发性变化具备很强的敏感性,并且能

35、够迅速采取应对措施。但当前的IT基础架构中,业务负载监控平台、虚拟服务器管理平台和业务分发的系统之间往往是割裂的,没有整合形成统一方案。IT管理人员在感知到业务访问变化时,只能通过手工进行虚拟服务器的增减和在业务分发系统 的相应配置。这无疑缺乏灵活性且效率低下。针对这些需求,H3CCA拟化平台可以实现面向应用的云动态资源扩展解决方案DRX如下图所示。H3C虚拟化管理系统能够监测到业务所在云主机性能不足,并将云主机进行快速复制,配合负载均衡设备对外提供服务,当访问高峰过后,虚拟化管理系统能够动态的收缩,删除过剩的云主机,从而实现计算资源随需而动。20业务资源组状态统计信息展示I多业务负 载监控平

36、 台整合新增资源自动 提供服务源自动弹性 扩展业务 流量弹性资源组同一业 务承载H3C负载均衡设备资源随业务 量动态增扁业务 流量图表动态资源扩展示实现原理2.2.2存储资源池构建在云计算管理平台的建设中,存储资源池设计采用了H3c虚拟化存储SAN技术也就是vStor ,也称零存储。vStor融合了计算虚拟化和存储虚拟化,将计算和存储聚合到一个硬 件平台,形成可横向扩展(Scale-out )的云计算基础架构。在业务应用区部署零存储方案, 运行在这种架构上的云主机不仅能够象传统层次架构那样支持vMotion、DRS快照等,而且数据不再经过一个复杂的网络传递,性能得到显著提高。由于不再需要集中共

37、享存储设备,整个云平台基础架构得以扁平化,大大简化了IT运维和管理。利用零存储技术方案构建云平台存储资源池,有效利用服务器资源,降低能源消耗,帮助政府实现IT环境的节能减排。零存储技术方案的逻辑架构如下图所示。这种架构的基本单元是部署了虚拟化系统的x86标准服务器。在提供虚拟计算资源的同时,服务器上的空闲磁盘空间被组织起来形成一 个统一的虚拟共享存储:虚拟存储系统。虚拟化存储在功能上与独立共享存储完全一致;同时由于存储与计算完全融合在一个硬件平台上,无需象以往那样购买连接计算服务器和存储设备的专用 SAN网络设备(FC SAN或者iSCSI SAN)。21图表虚拟化存储解决方案示意图虚拟化存储

38、方案技术实现方案如下:1) 分布式LUN设计在虚拟化存储架构中,每台服务器同时也是一个存储节点。除了安装平台软件的系统盘外,每个节点上的其他所有磁盘空间(包括系统盘的剩余分区)都能被用于虚拟化存储。虚拟化存储会使整个 LUN尽量均匀分布在所管理的全部节点和物理磁盘上,这样的设计使得对LUN的I/O操作能利用整个系统中全部节点和磁盘的性能。当管理员创建一个LUN时,虚拟化存储并不会马上为该 LUN分配实际的物理存储空间,而是采用精简模式,在有数据写入的 时候才分配存储空间。精简模式使用户在存储空间有限时,能按未来的业务发展需要提前规戈ij LUN的容量。2)高可用性设计用户可以根据业务需要为数据

39、设置副本数量。虚拟化存储支持用户为每个LUN设置2到5个副本,并且使得不同的副本分布在不同的服务器和物理磁盘上,从而提供最大的容错性。当一个服务器故障, 甚至多台服务器故障时, 虚拟化存储仍能正常工作,而且数据不丢 失3)高性能设计虚拟化存储采用分布式系统设计,其存储容量和性能随着服务器节点的增加而线性增加。由于每个LUN都横跨全部节点服务器和物理磁盘,所以每个LUN都可以利用全部服务器和物理磁盘的性能,从而提供比传统存储更高的性能。下面图示显示虚拟化存储的IOPS和吞吐能力随节点服务器数量的增加而线性增加的状态。22IOPS吞吐(MB/S)3&12203 blz g图表IOPS随着节点的增加

40、线性增加此外,不同于传统 RAID以专用空闲磁盘作为热备,虚拟化存储由系统自动提供热备空 间,并且将热备空间均匀分布在全部物理磁盘上。这样当数据重构启动后,全部节点服务器及物理磁盘都可以参与重构从而实现最佳的重构效率。可以在每个服务器节点上配置RAID卡缓存来增强I/O性能,根据存储容量的不同可以配置容量不等的 RAID卡缓存。在追求更高性能的时候,还可以在每台服务器上配置SSD固态硬盘作为热点数据高速缓存。4)自动化管理设计虚拟化存储采用无中心架构,每个节点服务器的角色完全一样,这样用户无需象传统分布式存储系统那样管理元数据服务器。而且整个虚拟存储系统的元数据采用分布式设计,由系统自动管理,

41、无需人工干预。当系统扩容时(比如增加物理磁盘或者增加服务器节点),用户只需几条简单命令(通过命令行或者图形化管理界面)将物理部件加入集群,系统上原有的数据将自动重新均衡, 原有LUN将自动扩展到新的物理设备上。虚拟化存储具备强大的自愈能力,一般硬件故障无需人工干预。物理磁盘或者服务器节点故障后,系统可在数秒内自愈,自动恢复业务。5) 按需扩展虚拟化存储是一种可横向扩展(Scale-out )的分布式架构,当云平台需要更多计算和存储资源时,只需以服务器为单位进行扩容,即能实现计算与存储资源的同步扩展,而无需象传统存储阵列那样,哪怕是扩容一个硬盘,也需要再购买整套存储设备。采用每次增加一 台节点服

42、务器的扩容方案,虚拟化存储存储容量可从几个TB逐步扩展到几千TB。新加入的节点服务器将在业务不中断的情况下,自动纳入统一资源池,极大缩短扩容部署时间。6)管理简便23虚拟化存储系统采用采用无中心分布式架构,无需人为设置管理节点, 从而避免了传统集群存储系统复杂的元数据服务器管理。系统具备强大的自愈能力,一般硬件故障无需人工干预。一个节点故障后,系统能自动自愈,用户只需选择合适的时间窗口更换故障件即可使 整个系统恢复到原样。当增加一个服务器节点时,无需中断业务,该节点的存储空间将自动纳入整个系统,系统中已有的数据将自动重新均衡分布。这一切都无需人工干预。由于整个系统具备强大的自我管理能力,用户在

43、使用虚拟化存储提供的存储资源时,只需简单的创建、删除存储资源(iSCSITarget、LUN,查看存储资源使用情况,以及通过日 志了解系统运行状况,管理十分方便。2.2.3网络资源池构建服务器虚拟化技术的出现使得计算服务提供不再以主机为基础,而是以云主机为单位来提供,同时为了满足同一物理服务器内云主机之间的数据交换需求,服务器内部引入了网络功能部件虚拟交换机 vSwitch (Virtual Switch ),如下图所示,虚拟交换机提供了云主机 之间、云主机与外部网络之间的通讯能力。IEEE的802.1标准中,正式将“虚拟交换机”命名为Virtual Ethernet Bridge ”,简称

44、VEB 或称 vSwitch。物理服务器AppAppAppAppAppAppVMVMVMVMVMVM1邻接交换机2软件VEB (亦称为vSwitch )图表 云主机交换网络架构vSwitch的引入,给云平台基础网络的运行带来了以下两大问题: 云主机的不可感知性问题物理服务器与网络的连接是通过链路状态来体现的,但是当服务器被虚拟化后, 一个主机内同时运行大量的云主机,故障与恢复等运而此前的网络面对这些云主机的创建与迁移、24行状态完全不感知,同时对云主机也无法进行实时网络定位,当云主机迁移时网络配置也无法进行实时地跟随,虽然有些数据镜像、分析侦测技术可以局部感知云主机的变化,但总体而言目前的云主

45、机交换网络架构无法满足虚拟化技术对网络服务提出的要求。为了解决上述问题,本次方案的解决思路是将云主机的所有流量都引至外部接入交换机, 也就是华三的VEPA方案,此方案将所有的流量均经过物理交换机,因此与云主机相关的流 量监控、访问控制策略和网络配置迁移问题均能在物理交换机上得到很好的解决,此方案最典型的代表是EVB标准。802.1Qbg Edge Virtual Bridging ( EVB 是由 H3c制定一个新标准,现已提交 IEEE 802.1 工作组,并成为国际通用标准,主要用于解决vSwitch的上述局限性,其核心思想是:将云主机产生的网络流量全部交给与服务器相连的物理交换机进行处理

46、,即使同一台物理服务器云主机间的流量,也将发往外部物理交换机进行查表处理,之后再180度调头返回到物理服务器,形成了所谓的“发卡弯”转发模式,如下图所示:图表EVB/VEPA基本架构EVB标准中定义了云主机与网络之间的关联标准协议,使得云主机在变更与迁移时通告网络及网管系统,从而可以借助此标准实现数据中心全网范围的网络配置变更自动化工作, 使得大规模的云主机云计算服务运营部署自动化能够实现。将支持EVB的vSwitch嵌入虚拟化软件,是为云平台基础架构提供最优化的虚拟化管理 技术方案,该产品通过将云平台IT资源的整合,不仅能够达到提高服务器利用率和降低整体拥有成本的目的,而且能简化劳动密集型和

47、资源密集型IT操作,显著提高系统管理员的工作效率。多租户的隔离问题25由于云主机及服务器数量的增多,网络技术方案需要保证多个租户使用的资源能够有效的隔离,华三以Overlay的虚拟化方式用来支撑云与虚拟化的建设要求,并实现更大规模的多租户能力。Overlay的本质是L2 Over IP的隧道技术,华三相应的技术方案称为Vxlan ,目前在服务器的vSwitch、物理网络上技术框架已经就绪。Vxlan网络架构有多种实现,就纯大二层的实现,可分为主机实现方式和网络实现方式;而在最终实现 Vxlan与网络外部数据连通的连接方式上,则有多种实现模式,并且对于关键网络部件将有不同的技术要求,包括基于主机

48、的Vxlan虚拟化网络、基于物理网络的 Vxlan虚拟化两种大的实现方式。在已经进行虚拟化的环境下我们将采用基于主机的Vxlan虚拟化网络方案,如下图所示:图表基于主机的Overlay虚拟化网络Vxlan运行在UDP,物理网络只要支持 IP转发,则所有IP可达的主机即可构建一个 大范围二层网络。这种vSwitch的实现,屏蔽了物理网络的模型与拓扑差异,将物理网络的技术实现与计算虚拟化的关键要求分离开来,几乎可以支持以太网在任意网络上的透传,使得云的计算资源调度范围空前扩大。另外由于Vxlan把12 bit 的VLAN tag扩展成了 24 bit ,这样能实现远远高于传统 VLAN 4096的

49、数量,解决了 VLAN数量不足的问题,满足更多的租户隔离需要。为了使得Vxlan Overlay网络更加简化运行管理,便于云的服务提供,H3c使用集中控制的模型,将分散在多个物理服务器上的vSwitch构成一个大型的、虚拟化的分布式 OverlayvSwitch (如下图所示),只要在分布式vSwitch范围内,虚拟机在不同物理服务器上的迁移, 便被视为在一个虚拟的设备上迁移,如此大大降低了云中资源的调度难度和复杂度。262.2.4虚拟化管理平台H3C CAS CV嘘拟化管理系统是 H3C CAS拟化平台的核心组件之一,主要实现对数据中心内的计算、网络和存储等资源池的管理和控制,对上层应用提供自动化服务。CVM平台可以集中管理数千台物理服务器和数万台云主机,通过一个统一的管理平台来对所有相关任务进行集中管理,管理员仅需要键盘和鼠标便可实现云主机的部署、配置和远 程访问等操作,软件界面如下所示。图表H3C CAS云计算管理平台主界面虚拟化管理系统可以实现以下功能:基于集

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论