




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
数据中心架构资源池改造方案数据中心架构资源池改造方案全文共55页,当前为第1页。数据中心架构资源池改造方案全文共55页,当前为第1页。数据中心架构aCloud资源池改造方案模板数据中心架构资源池改造方案全文共55页,当前为第2页。 目录TOC\o"1-4"数据中心架构资源池改造方案全文共55页,当前为第2页。1 项目背景 51.1 需求背景介绍 51.2 项目概述 51.3 客户现有系统架构拓扑图 51.4 需求分析 61.5 业务现状梳理 11.5.1 应用调研(调研高峰期) 11.5.2 服务器调研(精确到规格) 11.5.3 存储调研(数量及规格) 11.5.4 网络架构环境调研(22表示使用的,48表示总共的) 21.5.5 现有虚拟化环境调研(包含软件版本) 21.5.6 其他调研 21.6 现有问题及描述 11.6.1 现有系统环境描述 11.6.2 总体网络环境拓扑图 21.6.3 现存问题描述 基础架构无序增长 运维管理异常复杂 机房投入越来越高 业务数据没有保护 32 深信服超融合建设方案概述 42.1 方案设计原则 42.1.1 统一规范 42.1.2 成熟稳定 42.1.3 实用先进 42.1.4 安全可靠 42.2 方案建设目标 42.2.1 构建IaaS层aCloud资源池 42.2.2 高效的智能运维和管理能力 62.2.3 多维度立体的安全防护能力 62.3 构建xx用户资源池平台的深远意义 72.3.1 TCO成本的考虑 7数据中心架构资源池改造方案全文共55页,当前为第3页。2.3.2 业务赋能的考虑 8数据中心架构资源池改造方案全文共55页,当前为第3页。3 深信服超融合方案设计建议书 93.1 方案拓扑及方案介绍 93.1.1 资源池平台整体建设架构介绍 系统拓扑图 方案简述 103.1.2 基础架构建设介绍 系统拓扑图 资源池平台的系统架构特性 133.2 方案部署最佳实践建议 133.3 超融合资源池技术介绍 173.3.1 计算资源池功能介绍 计算资源池具备的功能 虚拟化平台业务应用类型划分 虚拟化软件具备的功能 193.3.2 存储资源池功能介绍 平台架构设计与规划 存储资源按需扩展 系统性能线性增加 数据多副本机制 高可用性功能 潮汐应用需求 数据分片与条带化技术 数据再平衡与故障重建机制 273.4 方案优势 13.4.1 基础架构有序增长 13.4.2 运维管理简单便捷 23.4.3 机房投入成本降低 43.4.4 业务数据得到保护 53.5 超融合配置 73.5.1 深信服超融合一体机配置 73.5.2 深信服超融合软件配置 13.5.3 深信服NFV配置清单 14 深信服超融合迁移方案 34.1 方案概述 3数据中心架构资源池改造方案全文共55页,当前为第4页。4.2 通用方案迁移前准备 3数据中心架构资源池改造方案全文共55页,当前为第4页。4.2.1 超融合平台搭建 34.2.2 网络、存储配置 34.2.3 业务系统准备 44.2.4 预估迁移时间 44.3 迁移实施 54.3.1 使用P2V迁移步骤(支持) 54.3.2 迁移步骤 54.3.3 使用iso引导迁移步骤 64.3.4 迁移步骤 74.4 迁移后备份 124.5 突发情况应对措施 124.5.1 迁移过程故障 124.5.2 迁移后运行虚拟机发生故障 12数据中心架构资源池改造方案全文共55页,当前为第5页。项目背景数据中心架构资源池改造方案全文共55页,当前为第5页。需求背景介绍备注说明:如下是以某客户的需求背景为模板,进行介绍,此部分需要一线使用的过程中,结合客户的实际情况做修改和添加。近年来,随着我国国民经济的持续健康发展,中小企业融资需求和新农村建设需要的不断增强,中小银行纷纷成立,为地方经济建设提供了强有力的金融支持。与此同时,中小银行自身信息化建设能力面临很大挑战,在资金和人员有限的情况下,在风险必须可控的前提下,又快又好地建设银行业务全系统和基础设施成为中小银行发展亟需解决的掣肘。云计算作为信息技术创新服务模式的集中体现,已经成为支撑各行业发展的关键信息基础设施,是金融行业分布式架构转型的助燃剂,为中小银行快速部署银行业务系统提供了有力的信息化支撑,能够促进中小银行提高信息化管理能力,有效增强业务竞争能力。xxxx有限公司,作为集团公司和兄弟单位的支撑单位,提供有关财务结算、支付、交易等业务系统,并且xxxx有限公司也是由银监会直接监管的单位,IT信息化建设也是按照银监会相关规定进行建设的,未来云平台建设的参考要求同样按照银监会十三五规划与中国人民银行十三五规划作为重要依据和支撑。项目概述随着XX用户信息化的不断深入,基础架构变得过于复杂和脆弱。目前,70%以上的IT投资主要用于运维方面,而支撑战略性及创新型的项目的预算变得极为紧促。随着业务变化速度的加快,IT对业务的响应要求越来越高,信息部门需要一种更好的策略来支撑业务的发展。备注:每个项目的描述肯定不一样,所以这个需要一线的兄弟自行修改客户现有系统架构拓扑图备注:每个客户的情况由于都不一样,需要一线人员主动找客户要或者根据客户的描述画出来,然后粘贴到此处。数据中心架构资源池改造方案全文共55页,当前为第6页。需求分析数据中心架构资源池改造方案全文共55页,当前为第6页。xxx公司对新建云平台的诉求有更新、更高、更好的要求,采用应用成熟、适度先进的技术,构建新型数据中心,并整合现有的资源,建立基于IaaS层的基础软、硬件资源池,并进行动态调度、自动管控和共享使用,为集团和分、子公司各类业务应用提供标准化、可定制化的运行环境,提高整体运营效率和IT设施的可靠性、安全性,并有效降低运营成本,促进企业信息化的跨越式发展。同时,满足未来一定范围内多数据中心之间资源共享、统一管控的要求。建立高效灵活的IT架构,实现IT资源对业务变化的快速响应。在业务场景变化时能够自动化的实现IT资源的调度,缩短业务系统的建设周期,提高业务系统的使用体验用户满意度。通过统一化管理、统一运维,以及标准化的运维流程和智能化的监控与事件分析,提高运维效率、降低运维成本。综合考虑信息安全等级保护3级要求和业务应用的实际需求,提供事前防御、事中控制、事后审计全方位保障,提高信息安全防护能力。考虑包括亦庄IDC托管机房数据中心、集团本部七层数据中心在内的多数据中心统一安全管理、数据中心双活的建设。采用桌面虚拟化技术,实现业务办公的半自动化,实现办公人员系统的统一管控、统一运维和监管,实现故障的一键定位,实现桌面的安全、整洁、准入机制完善的办公环境。数据中心架构资源池改造方案全文共55页,当前为第7页。业务现状梳理数据中心架构资源池改造方案全文共55页,当前为第7页。应用调研(调研高峰期)调研xx用户每个系统的应用负载情况,有助于后续的方案设计。实例如下所示:应用cpu内存吞吐量I/O尺标高峰期段EMR系统20%30%20MB/S16K9:00-11:00ERP系统20%30%20MB/S16K9:00-11:00服务器调研(精确到规格)调研用户的每种服务器或者每个业务应用服务器集群的负载情况,有助于硬件选型及利旧方案的设计。实例如下所示:Server内存CPUPCI光纤卡网卡IBM3650M464G2*E52620v32.4/8c8个2*单口8Gb/s4*1Gb/s存储调研(数量及规格)调研客户现有集中式存储的硬件情况,有助于后续的方案设计。实例如下:StorageCacheSSDSASSATAEMCVNX540032G4*200G8*900G/10k/2.58*2TB/3.5网络架构环境调研(22表示使用的,48表示总共的)Storage千兆口万兆口SFP模块堆叠板卡数备注数据中心架构资源池改造方案全文共55页,当前为第8页。H3C58000-56c数据中心架构资源池改造方案全文共55页,当前为第8页。22/480/44支持4现有虚拟化环境调研(包含软件版本)应用VC版本ESXI版本备注EMR系统5.5标准版5.5企业版开启了FT其他调研备注备注1备注2备注3机柜空间是否充足UPS供电情况是否充足数据中心架构资源池改造方案全文共55页,当前为第9页。现有问题及描述数据中心架构资源池改造方案全文共55页,当前为第9页。备注:此部分需要一线自行修改和添加现有系统环境描述xxxx有限公司现有全系统共计42个机房,机柜165个,使用面积1328平方米,x86架构服务器264台,小型机26台,本次的方案设计并不涉及到所有的xxxx有限公司机房中心,主要针对xxxx有限公司机房进行私有云平台所需内容的梳理和建设。xxxx有限公司总部机房1个,分为机房一、机房二、机房三。目前机柜27个,使用面积335平方米,x86架构服务器100多台,小型机11台左右。xxxx有限公司目前详细情况如下所示:已经全部采用了VMwarevSphere虚拟化做了业务系统的改造和集中整合,版本从4.1到6.7,而vSphere4.1版本已经在逐步淘汰中,全部慢慢切换到6.7版本中;底层采用了包括戴尔、HPE、原有IBM的x86服务器作为虚拟化的承载使用;部分业务系统已经通过VMwarevSphere+VSAN的方式形成了分布式计算资源池、分布式存储,并且又通过了EMCVxRail超融合产品实现了另外的分布式资源池系统。单纯的vSphere虚拟化平台、裸机服务器业务系统,全部通过光纤交换机,直连到包括IBMV3000、V5000、V7000等几个型号存储、EMC集中式存储、HPE3PAR存储上,通过EMCDD备份做整体数据平台的集中式备份使用;已经计划采用华为的硬件网络SDN技术实现整体网络的整合,已经购买了华为的节点交换机(Leaf节点),后面计划采购华为控制端交换机(Spin节点),通过SDN技术实现整体网络环境的集中式部署和控制,简化网络环境的操作。数据中心架构资源池改造方案全文共55页,当前为第10页。总体网络环境拓扑图数据中心架构资源池改造方案全文共55页,当前为第10页。现存问题描述基础架构无序增长x86服务器的使用独立、分散,系统资源使用很不均衡,而且服务器配置不太合理,无法实现有效的资源共享。大量硬件堆积导致标签贴错、飞线的情况越来越多维护难度越来越大数据中心基础架构和系统相对封闭,没有扩展性,无法及时针对业务变化进行快速调整和部署,无序的增长导致机房混乱不堪。对外业务随着用户使用量逐年的增加,在业务高峰期系统存在严重性能瓶颈,业务办理响应时间变长,而且业务的可用性、可靠性降低等一系列的问题。网络及安全层面存在不合理的规划和安全隐患,急需在架构层面改善。业务系统缺乏有效的高可用方案,难以应付突发性事件。存储阵列的容量及性能扩展性差,无法满足业务数据快速增长的需求。一部分的交换机、服务器、甚至存储处于闲置并没有进行规划使用。运维管理异常复杂缺少统一而有效的监控平台,无法实现全面的、一体化的运维监控管理;数据中心架构资源池改造方案全文共55页,当前为第11页。运维人员需要熟悉多种软、硬件的操作,在学习的周期上投入越来越大。数据中心架构资源池改造方案全文共55页,当前为第11页。运维管理专业化程度低,运行维护工作严重依赖集成商或服务商;运维团队庞大,且责任割裂,系统运维、网络、存储等各司其职;缺少专业化运维管理人员,维护复杂业务系统比较困难等;一旦出现问题牵扯到多个厂家多个产品,所以很难精确定位故障业务部门要求上线时间很短,短时间内很难响应业务部门的需求数据中心产品过多,很难精确定位故障点;大部分应用都是单机模式,如果某台服务器出现故障,相对应的业务也将中断,造成的影响和损失将难以估量。每次增加新设备需要做网络的变更,需要有计划内的停机时间,对敏感业务部门影响会比较大机房投入越来越高随着设备增加对机房的空间、空调制冷、UPS等都提出更高的标准。当硬件设备过保后不得不购买高价的原厂质保,而且时间越久费用越高。无论选择任何方式的传统存储方案都需要高昂的投资和后续维护保障。有些老旧硬件设备一旦进行重启很有可能永久的起不来,导致数据丢失业务数据没有保护如果选择备份和容灾方案则需要购买更多的设备,需要增加各项成本。如果由于误操作导致数据的逻辑错误、逻辑删除是没有办法恢复的。数据中心架构资源池改造方案全文共55页,当前为第12页。深信服超融合建设方案概述数据中心架构资源池改造方案全文共55页,当前为第12页。方案设计原则统一规范超融合数据中心应该在统一的框架体系下,参考国际国内各方面的标准与规范,严格遵从各项技术规定,做好系统的标准化设计与施工。成熟稳定超融合数据中心应是熟稳定的技术和产品,确保能够适应各方面的需求,并满足未来业务增长及变化的需求。实用先进为避免投资浪费,超融合架构的设计不仅要求能够满足目前业务使用的需求,还必须具备一定的先进性和发展潜力,具备纵向扩增以及平滑横向扩展的能力,以便IT基础架构在尽可能短的时间内与业务发展相适应。安全可靠超融合数据中心设计时应加强系统安全防护能力,确保业务和数据的稳定可靠,保障业务连续性。方案建设目标备注:此部分需要一线自行修改和添加构建IaaS层aCloud资源池通过不断完善和优化现有IT系统的基础设施和环境,不断提供IT系统的建设程度,在现有IT信息系统之上,拥抱行业内新技术和建设新思路,并且保证现有业务系统的稳定性的大前提,做好上云基础,未来实现资源池化的目标,并且能够实现更加可靠的系统运行,实现弹性、灵活、高效的资源使用,实现统一化、智能化、灵活化的运维手段,具体内容如下:物理资源完善与整合:私有云aCloud资源池平台将现有硬件平台进一步数据中心架构资源池改造方案全文共55页,当前为第13页。整合,对上层应用软件来说,屏蔽对底层硬件资源的可见性,直接为使用者以服务目录的方式分配虚拟机、虚拟网络、分布式存储、安全资源、镜像资源等,通过统一的自服务申请与审批、计量计费、权限管理、日志审计、桌面虚拟化的行为审计和管控等;数据中心架构资源池改造方案全文共55页,当前为第13页。虚拟资源池:通过服务器虚拟化、分布式存储、虚拟机网络、网络功能虚拟化技术,真正形成计算、存储、网络、安全的的建设,资源对上层都是可见的,并且可以划分成更细小的服务单元,可以按照组织、部分、租户等不同维度进行资源的使用,私有云平台可以想使用者提供包括云主机、云存储(块、文件、对象)、网络、安全、系统镜像、自动化部署安装、故障重建、统一化管理等功能,并通过管理平台将这些资源进行系统的认证和鉴权、调度、分配和分发部署等;虚拟数据中心VDC:可为租户/部门以云平台内部逻辑数据中心的方式提供批量的虚拟计算、存储、网络、安全等资源的集合。虚拟分区资源VPC:可以为用户提供基于资源层的网络隔离的资源中心和网络拓扑,可以采用VLAN、VXLAN等技术,保证云上用户资源的使用保障,通过网络隔离的方式、底层分布式存储、集中边界安全等实现用户安全。PaaS资源平台的支持:对于中远海运物流公司来说,现有的资源新平台不足以支撑前端开发公司对业务软件架构上的重塑,比如解耦、重构、试运行、发现bug并修改、再上线验证、在修改等,更无法实现想象中的软件快速上线、版本稳定迭代等;具备开发实力的企业,应该采用更好的软件开发语言(如C、Java、Phtyon等)实现原有软件系统的解耦,并能够实现软件系统的多层架构部署,所以,通过建设的云平台,可以很好的支持并融合Docker、Kubernetes等PaaS层平台,全新技术理念的提升和建设,可以进一步助力研发的去发现产品的不稳定因素、迭代产品的速度,更好的服务于企业本身。构建的PaaS平台,可以引入多类型数据库服务、消息队列(MQ)、缓存(Redis)等应用组件(由于基于分布式架构的应用本身非标准化应用,一般性情况下都是由应用软件系统开发商结合自身业务特点,选用并搭建相关环境,无法在没有具体需求时提前搭建,故本次数据中心设计方案不包含具体的分布式应用供给,仅考虑提供系统所需的物理机/虚拟机、传统SAN或分布式存储,并通过云平台实现基础设施层面的统一管理)。高效的智能运维和管理能力业务系统的自动化部署。将特定规格的虚拟机、存储、数据库、中间件等事先编排成模板,用户可以通过自助菜单申请应用资源环境,实现应用的快速部署。更加稳定性的云平台能力。提供虚拟机VM的Vmotion、HA、FT等不同级别的稳定保数据中心架构资源池改造方案全文共55页,当前为第14页。障机制,还在整个虚拟化平台内部实现备份功能,实现虚拟主机的高可用。另外,分布式存储可以形成2-3份数据的保存,保证数据安全性;还可以根据自身的需求,实现底层数据的条带化功能,提高每个集群的性能。数据中心架构资源池改造方案全文共55页,当前为第14页。结合集团公司情况完善云容灾和双活能力。在两个数据中心网络打通的前提下,支持基于用户视角实现单个业务的多数据中心的容灾、双活建设。高效运维能力。通过对基础资源(主机、网络、存储)、应用组件(数据库、中间件、web服务等)统一监控以及日志分析,及时发现故障隐患、性能瓶颈,实现业务稳定运行。服务开通时间:0.5天(不包括审批流程)故障恢复时间:对于硬件设备故障:5分钟以内对于系统软件环境故障:20分钟对于数据来类故障:依赖业务数据量和恢复速度。混合云的实现。中运海运物流公司总部实现了本地私有云平台的建设之后,可以结合集团方面云平台的建设情况,实现本地私有云+集团云平台的内部混合云对接,通过中运海运物流公司总部的私有云就可以同时管理本部自己和集团云上自己的资源,拉通整个网络,可以随时查看两边的资源使用情况等。多维度立体的安全防护能力实现私有云平台系统的统一登录认证、攻击防御、数据传输、存储保护、日志审计等全过程管理行为,并配合边界隔离(硬件或软件)、病毒检测、实时监控等安全运维措施,实现端到端的安全运维体系,具体如下所示:登录安全:采用CA认证、堡垒机、远程登录SSL等方式登录统一私有云平台,确保身份可信,并对登录人员账号进行权限管理。传输安全:外部登录数据传输采用VPN隧道方式接入,对明文数据进行SSL加密。边界安全:根据安全级别对业务系统进行安全区域划分,不同分区间采用防火墙进行安全隔离;在互联网出口处部署入侵检测防御、病毒检测防御、抗DDOS攻击设备等安全措施个区域边界进出数据和流量的安全。主机安全:采用系统安全加固、防病毒软件手段保证业务主机安全。数据安全:采用数据加密存储、介质冗余、存储双活、定时备份等措施,确保数据安全。数据中心架构资源池改造方案全文共55页,当前为第15页。运维安全:利用日志审计、数据库审计系统及时发现系统中存在的或潜在的威胁,并通过监控实时发现异常情况以及时处理。数据中心架构资源池改造方案全文共55页,当前为第15页。云安全:利用VLAN和VxLAN等网络标签隔离技术、安全组策略、VDC、VPC等不同维度的隔离方式,结合边界防火墙共同部署构筑“南北+东西”向流量安全防护机制,并对云平台、API接口进行安全加固,确保云平台自身的安全。移动办公安全:利用“移动数据安全平台”可以实现从传输安全、落地数据安全和数据丢失管理的维度确保端到端的数据管控。其中传输数据安全由隧道加密传输保障,数据落地安全通过移动安全沙箱来保护,数据丢失管理通过MDM的远程锁定和擦除来保障。构建xx用户资源池平台的深远意义备注:此部分需要一线自行修改和添加TCO成本的考虑正如前文所述,xxxx有限公司从私有云平台平台建设整体角度出发,并且综合考虑公司运维人员数量、运营成本等多因素,建议采用能够满足自身需要、符合集团公司要求的云服务建设发展模式,构建私有云平台也需要考虑到目前市场上主流的技术和路线,比如主流的OpenStack开源云管理平台框架,考虑到私有云平台建设之后在很多层面的优势,私有云平台的建设未来是xxxx有限公司比较适合的选择之一。从投资方面来看,xxxx有限公司从节省设备投入资金和TCO成本的角度考虑,采用诸如软件定义数据中心的方式来建设云平台是最好的选择,现有的数据中心中已经采用了诸如VMwarevSphere、VSAN等商业软件,这是好的技术路线和方向,但还存有大量的诸如EMC、HPE、IBM原有的存储设备,可以采用现有的IBMSVC虚拟网关进行统一整合和存储管理,但还需要能够和云管理平台进行对接,未来希望可以通过云管平台统一调度起来集中式存储资源、分布式存储资源等,这块是未来的难点。业务赋能的考虑不同云计算部署模型对于业务本身的提升效果也存在区别,建设属于中远海运物流公司的行业云这一优势就会较为明显了。原因如下:第一,面向自身行业的资源池平台业务产品更加有针对性,能够有为物流业务定制资源配比、针对市场需求优化物流类产品和服务;数据中心架构资源池改造方案全文共55页,当前为第16页。第二,业务软件部署周期缩短,直接提升业务上线速度,缩短了业务对接周期,不在需要漫长的开发周期来完善其业务软件、采购软件,只要从云计算平台上获得相应的硬件资源、模板资源、安全资源即可,并且对于运维人员、管理者来说,可以通过统一的管理平台,实现这些资源的实际分配情况、使用情况、存在问题、告警情况等多方面进行查看和管理,保证所有的资源都可以发挥最大化;数据中心架构资源池改造方案全文共55页,当前为第16页。第三,xxxx有限公司私有云平台aCloud资源池可以满足集团公司的发展战略,强化信息化建设,降低总体投入,产生最大化效率和效益,贴合公司的业务战略,作为信息化的基石。数据中心架构资源池改造方案全文共55页,当前为第17页。深信服超融合方案设计建议书数据中心架构资源池改造方案全文共55页,当前为第17页。方案拓扑及方案介绍备注:根据实际情况自行设计,如下拓扑图根据需要一线自行根据需求设计。资源池平台整体建设架构介绍系统拓扑图根据第一章的需求分析,中远海运物流公司私有云平台规划逻辑拓扑图如下:图1.物流云三层规划蓝图数据中心架构资源池改造方案全文共55页,当前为第18页。数据中心架构资源池改造方案全文共55页,当前为第18页。图.aCloud资源池平台统一化管理规划方案简述针对于xxx公司现有数据中心信息化现状的理解和认识、未来信息化发展目标,中远海运物流公司私有云平台,应该重点抓住如下几个重点:关键业务、非核心业务应该是继续以x86虚拟化为基础,做集中部署、以主流的应用开发框架对业务做支撑;以弹性数据分析是为完善业务手段;以应用服务为导向;以最终用户为物流云平台的交付对象;以实现自动化故障转移和可靠的灾后恢复为目标。满足xxxx有限公司业务的快速发展需要,优化软、硬件资源,降低总体运营成本(即降低TCO)。同时,也可以为集团业务和物流公司本部大数据应用做准备,借助本次私有云平台的规划、建设和实施,xxxx有限公司aCloud资源池也可以为全国下属公司或公司、其它行业领域的专属型信息系统平台建设提供成功经验,还可以按照每个租户的方式提供云服务。xxxx有限公司本部数据中心物流资源池平台的建设,实现统一登录、监控、管理,本部、各业务部门均通过登录自助服务界面的方式申请虚拟数据中心资源,这些资源涵盖了计算、存储、网络、安全、操作系统镜像、数据库镜像、中间件镜像、补丁包镜像、业务软件模板、大数据软件资源、Docker资源等,主要说明如下:借助通过x86服务器,并做虚拟化,形成公司本部统一的vCPU资源池、Memory内存资源池、高速磁盘资源池、低速磁盘资源池、备份资源池等,做到资源共享和数据中心架构资源池改造方案全文共55页,当前为第19页。弹性调配,提升系统资源的使用率,通过分布式存储可以有效的减少集中式存储的数量,节约机房空间、节省用电成本、空调制冷消耗量大,建设满足要求的绿色数据中心。数据中心架构资源池改造方案全文共55页,当前为第19页。采用服务器虚拟化技术,获得系统级高可用、系统级容错、应用级高可用、虚拟机在线迁移、资源动态负载均衡等能力,使得业务系统在可靠性、可用性、可服务性等方面得到提升,全年业务系统可用性达99.999%以上,真正满足业务的7*24小时服务。实施存储虚拟化能力,整合现有不同品牌的集中式存储,按照业务系统对于SLA的要求提供不同的IOPS性能、存储容量,并且集中式存储也需要能够配合云管理平台实现动态资源调配。当前存储性能和容量不能满足现有业务系统的情况下,采用存储在线迁移技术,完整系统存储的热迁移,实现与分布式存储系统之间的灵活调配。继续加大实施现有的分布式存储系统,并实现通过aCMP云管理平台统一化管理和调度,能够实现集中式存储、分布式存储系统的调度和资源对应用的分配,做到真正的融合使用。在私有云中心内,采用网络虚拟化技术,形成独立的虚拟路由器、虚拟分布式交换机、分布式防火墙、集中式防火墙、虚拟负载均衡、虚拟上网行为管理、虚拟VPN等网络设备虚拟化功能,通过网络虚拟化、NFV可以更加灵活的设计和规划网络资源池、IP地址段,实现可扩展的多租户网络,降低虚拟机在线迁移技术对于三层网络的依赖,更可以随时实现跨数据中心的业务迁移,并可以很快的完成一些复杂网络部署的自动化交付。在虚拟数据中心内,网络访问由原来的物理网络或物理端口变为虚拟网络和虚拟端口,其安全管理边界将发生变化,因此必须要采用虚拟化的安全技术,实现路由、地址切换、负载均衡、动态地址分配及VPN等边界网关服务,实现网络/主机/应用防火墙的能力,实现轻代理甚至无代理防病毒能力,实现数据敏感性保护服务等。监控管理是数据中心的重要支撑体系,从服务器、集中式存储、SDN网络等硬件,在到虚拟化软件、分布式存储软件、网络组件、操作系统、中间件、数据库、应用及虚拟桌面,都需要统一纳入到监控体系内考虑,借助健康情况指标、潜在风险指标预警、效率指标分析、使用趋势分析等运行的几个关键指标状况,根据现有平台资源使用走向规划未来扩展情况、可以根据性能曲线判断系统的性能趋势、收集各种事件判断未来可能会出现的问题。用户还需要将数据中心的监控指标按数据中心架构资源池改造方案全文共55页,当前为第20页。时间区间以报表的方式呈现,详细了解业务系统的运行成本,优化数据中心的效能。数据中心架构资源池改造方案全文共55页,当前为第20页。为了可以将整个系统规划前期做好,将现有的设备和资源能够在未来进行融合起来使用,前期设计的方案必须要满足灵活的扩展性,为将来做资源扩展预留,并且非常容易形成大的资源池,整个资源池的使用性能并且是呈直线上升的。基础架构建设介绍系统拓扑图IT系统基础架构网络系统建设逻辑拓扑图如下所示:资源池平台的系统架构特性高弹性数据中心架构资源池改造方案全文共55页,当前为第21页。云计算平台应具备资源弹性伸缩能力。在业务高峰期,云计算平台资源能够快速扩容支持大流量、高并发的金融交易场景;在业务低谷期,云计算平台资源能够合理收缩,避免资源过度配置。数据中心架构资源池改造方案全文共55页,当前为第21页。开放性云计算平台应采用开放的架构体系,不与某个特定的云服务提供者绑定。在云服务使用者中止或变更服务时,云计算平台应支持应用和数据在不同云计算平台间、用户信息系统与云计算平台之间进行快速便捷的迁移。互通性云计算平台应支持通用、规范的通信接口,同一云计算平台内或不同云计算平台间的云服务应能够按需进行安全便捷的信息交互。高可用性云计算平台应具备软件、主机、存储、网络节点、数据中心等层面的高可用保障能力,能够从严重故障或错误中快速恢复,保障应用系统的连续正常运行,满足金融领域业务连续性要求。数据安全性云计算平台应在架构层面保障端到端的数据安全,对用户数据进行全生命周期的严格保护,保证数据在产生、使用、传输和存储等过程中的完整性和一致性,避免数据的错误、丢失和泄露。方案部署最佳实践建议最新版本HCI_5.8.6网口数量1个做集群管理口2个万兆口做存储通信口2个做业务口(根据业务量考虑千兆、万兆)2个做vxlan通信口(根据业务量考虑千兆、万兆)注意:1、存储口必须做聚合。网口数量不足时,可考虑业务口、vxlan口不聚合。数据中心架构资源池改造方案全文共55页,当前为第22页。2、生产环境建议配足网口。数据中心架构资源池改造方案全文共55页,当前为第22页。网线长线、短线,根据网口数自行计算。IP分配每个物理主机一个管理IP,集群IP。注意:虚拟存储、vxlan口都需要配置私有网络,并给一个独立的IP段,只需不冲突即可。交换机网口1、须确认四种网口是否共用交换机,建议存储单独使用一个交换机。2、交换机网口数>=每台主机网口数*主机数。硬盘数量aSAN容量估算:aSAN实际可用空间估算方式(服务器硬盘完全同构下)可用空间=(单个HDD硬盘容量*(HDD总个数-副本数个热备盘)/副本数)*85%注意:单个HDD硬盘容量应以系统内1024进制的实际容量为准。原因是硬盘厂商的标称容量是1000进制的,而系统内则是按1024进制计算的;即硬盘厂商标称为2T的硬盘,系统内实际约为1.82T,SSD硬盘和其它容量的硬盘都以此类推。SSD缓存盘1、建议机械盘与SSD盘的比例为3:1,推荐使用Intel的SSD。2、若机械盘用3T、4T的大盘,SSD则用480G容量的。CPU简单的判断方法是看年限,早几年的基本不能满足。不确认的可与研发确认。内存根据在跑业务系统进行估算,要留有足够的内存给系统使用(3G)备份存储(异地)生产环境:建议准备外置存储,保障数据稳定更有效。测试环境:1、有外置存储。支持iscsi、FC协议的外置存储接入,接入后在【实体机】--【存储】页面内配置后即可使用。2、有共享NFS存储,同样在【实体机】--【存储】页面配置添加后使用。数据中心架构资源池改造方案全文共55页,当前为第23页。3、没有准备有存储。可安装Freenas或者windows共享进行备份。(性能很差,不建议使用)数据中心架构资源池改造方案全文共55页,当前为第23页。辅助工具笔记本:用来登录管理平台,配置网络等相关参数key:测试、演示用。实施时要带购买的key安装U盘:刻录最新版iso迁移工具:Sangfor_aSV_Converter.exe、aSV4.2.09_R1(2016xxxx).iso要记得带模版和开通序列号。1、官方推荐raid配置JBOS、non-raid模式。2、若raid卡不支持这两种模式,建议更换。raid0模式不支持热插拔超融合场景的aSAN网卡统一推荐使用万兆网卡+万兆交换机,集群管理口与vs口不能共用最好存储能用私网,与集群不共用同组交换机网络。1、要先组好集群,再初始化虚拟存储2、不能用一台主机初始化集群后再添加主机。(会变得很麻烦)3、每次添加的主机数,要和虚拟存储的副本数一致。(更高效)扩容时,每次添加的主机数,要与虚拟存储副本数一致,或者是它的倍数。如2副本环境,一次扩容扩2台、4台主机。(避免扩容单台主机时需要大量的旧数据搬迁)1、提升出口带宽,并且有冗余功能。存储口必须配置,vxlan、物理出口建议配置。2、万兆口更佳。链路聚合都不需要在交换机对应网口进行聚合配置,用普通交换口就可以。开启后性能更好1、我们默认按照最小的干的,根据实际的网络压力,可以调整为高性能模式。2、可以联系研发一起确认。1、重要业务部署前,首先确认是否预备有异地备份所需存储。数据中心架构资源池改造方案全文共55页,当前为第24页。2、最好能在迁移业务后就能开启备份。数据中心架构资源池改造方案全文共55页,当前为第24页。1、部署好平台,先别忙高兴,可先测试一下HA、存储速度、网络速度类功能。2、如果没问题,再迁移业务。vAD、vAF的配置只能配高,不能配低,配高之后调不回来的。AF跨主机通讯通过配置保证连通性超融合平台不建议用快虚。1、若不是有特别高的业务需求,虚拟机核心数配16个性能更佳。2、若有特别的业务需求,要跟研发确认。不可超过单个物理主机的总数据盘空间大小的80%页面上可观察拓扑图流量走向,若流量长时间过高,可联系研发确认CPU长时间占高,内存充足的条件下,可关闭虚拟机高级选项中的内存回收机制。pmap导致大内存虚拟机性能下降,主要表现在磁盘IO能力下降。若出现虚拟机IO上不去,可联系研发确认鼠标动不了键盘能动,可以在虚拟机编辑页面,将鼠标接口改成PS/2的方式。(推荐用USB)卡顿操作系统及软件升级到最新的补丁包,如windowsserver2003升级到SP3,可解决部分使用卡顿的问题(必须确认升级,并做好备份的前提下才能进行升级)性能在安装了SQLServer的环境,拷贝文件进去系统会自动限速。性能SQLServer升级到SP2,可解决部分使用卡顿的问题(必须确认升级,并做好备份的前提下才能进行升级)性能测试需要配置ASM,这个会影响性能。数据中心架构资源池改造方案全文共55页,当前为第25页。超融合资源池技术介绍数据中心架构资源池改造方案全文共55页,当前为第25页。计算资源池功能介绍计算资源池具备的功能服务器是虚拟化平台的核心,其承担着虚拟化平台的“计算”功能。对于虚拟化平台上的服务器,通常都是将相同或者相似类型的服务器组合在一起,作为资源分配的母体,即所谓的服务器资源池。在这个服务器资源池上,再通过安装虚拟化软件,使得其计算资源能以一种虚机的方式被不同的应用和不同用户使用。深信服aSV虚拟化平台作为介于硬件和操作系统之间的软件层,采用裸金属架构的X86虚拟化技术,实现对服务器物理资源的抽象,将CPU、内存、I/O等服务器物理资源转化为一组可统一管理、调度和分配的逻辑资源,并基于这些逻辑资源在单个物理服务器上构建多个同时运行、相互隔离的虚拟机执行环境,实现更高的资源利用率,同时满足应用更加灵活的资源动态分配需求,譬如提供热迁移、HA等高可用特性,实现更低的运营成本、更高的灵活性和更快速的业务响应速度,如下图所示:计算资源池的构建可以采用以下四个步骤完成:计算资源池分类设计、集群设计、主机池设计、虚机设计四个部分完成。虚拟化平台业务应用类型划分在搭建服务器资源池之前,首先确定资源池的数量和种类,并对服务器进行归类。归类的标准通常是根据服务器的CPU类型、型号、配置、物理位置和用途来决定,必要时也可以参考内存、I/O和存储容量。对虚拟化平台而言,属于同一个资源池的服务器,通常就会将其视为一组可互相替代的资源。所以,一般都是将相同处理器、相近型号系列并且配置与物理位置接近的服数据中心架构资源池改造方案全文共55页,当前为第26页。务器:比如相近型号、物理距离不远的机架式服务器。在做资源池规划的时候,也需要考虑其规模和功用。如果单个资源池的规模越大,可以给虚拟化平台提供更大的灵活性和容错性:更多的应用可以部署在上面,并且单个物理服务器的宕机对整个资源池的影响会更小些。但是同时,太大的规模也会给出口网络吞吐带来更大的压力,各个不同应用之间的干扰也会更大。数据中心架构资源池改造方案全文共55页,当前为第26页。所以,初期的计算资源池规划应该包括所有可能被纳管到虚拟化平台的所有服务器资源,例如:为搭建虚拟化平台新购置的服务器、单位内部目前闲置的类似配置的服务器以及现有的并正在运行着业务应用的服务器。在虚拟化平台搭建的初期,正在为业务系统服务的服务器并不会直接被纳入虚拟化平台的管辖。但是随着虚拟化平台的上线和业务系统的逐渐迁移,在后期,这些服务器也将逐渐地被并入虚拟化平台的资源池中。在计算资源池上,按照业务规模、业务逻辑或者业务属性,规划出一个个不同的集群,所有的主机均可以纳入集群进行管理,也可以独立存在,若有部分没有加入集群的主机需要通过虚拟化平台集中管理的时候,规划主机池便显得非常必要。主机池就是是一系列主机和集群的集合体,没有加入集群的主机全部在主机池中进行管理,主机池既可以管理主机,也可以管理集群。虚拟化软件具备的功能计算资源主要包括物理机和虚拟机两大类,所有计算资源应按照资源池进行管理,计算虚拟化技术和计算资源管理是构建计算资源池的重要基础。计算虚拟化技术能够利用虚拟化软件从计算资源池中虚拟出一台或多台虚拟机。虚拟化软件的功能要求如下:支持单物理服务器上多虚拟机管理与配置;支持不同虚拟机之间资源逻辑隔离;支持虚拟机对CPU和内存等资源的使用进行QoS配置;支持设置CPU和内存使用的上限和下限;支持动态调整虚拟机CPU、内存的配置,满足业务运行需求;计算资源管理将各类计算资源统一管理并提供服务。计算资源管理的功能如下:支持计算资源池化,提供可动态调整的CPU、内存、I/O设备等资源;支持物理机和虚拟机的生命周期管理;支持镜像的生命周期管理;数据中心架构资源池改造方案全文共55页,当前为第27页。支持虚拟机的克隆、快照和备份管理;数据中心架构资源池改造方案全文共55页,当前为第27页。支持按网络结构、资源池规划、管理粒度、资源种类等灵活划分资源池;支持计算资源灵活调配的功能;支持根据资源使用情况自动伸缩资源;支持运行状态下的虚拟机动态迁移,并维持业务正常运行。支持屏蔽相同架构类型下不同硬件的实现差异;支持虚拟机的故障恢复功能;存储资源池功能介绍平台架构设计与规划存储资源池逻辑拓扑图在本次中远海运物流公司私有云平台建设方案中,存储资源池的设计推荐采用“软件定义存储+传统集中式存储”相结合的方案,现有的业务系统中有很多无法直接迁移到分布式存储资源池中,并且有一些业务是负载较高、吞吐IOPS要求高,所以建议继续利用已有集中式存储进行承载,除此以外其它的业务系统的存储采用深信服超融合上的aSAN分布式存储系统、VMwareVSAN分布式存储承载,整体存储资源池规划如下所示:数据中心架构资源池改造方案全文共55页,当前为第28页。数据中心架构资源池改造方案全文共55页,当前为第28页。未来通过分布式存储、集中式存储系统,可以通过统一的私有云管平台做统一调度、存储资源合适分配、数据盘挂载、格式化等简单操作,存储系统架构将会采用包括块存储、文件存储、对象存储三种类型,以满足不同用户的数据格式要求,并且将三种存储类型是分开的,这样每种类型的数据格式都会有相应的接口直接对接云管理平台,方便统一管理和调度。本次建设方案中,我们目前提供块存储、文件存储两种类型,后续看需求在稳步建设对象存储类型以满足需求。方案描述分布式存储系统,通过2或3副本的方式进行数据的可靠性保障。通过分布式存储,可以形成可横向扩展(Scale-out)的虚拟化基础架构。在业务应用区部署分布式存储方案,运行在这种架构上的虚机不仅能够像传统SAN架构那样获得相应的功能,而且数据不再经过一个复杂的中间网络传输,性能完全可以得到一样的带宽或IOPS。由于集中存储设备只是作为辅助存储池,整个存储虚拟化平台基础架构得以弱化,对外接口可以通过分布式存储或者存储网关进行发布,大大简化了操作、运维和管理。另外,利用深信服aSAN分布式存储软件构建虚拟化存储资源池,同样有效利用x86服务器各种硬盘资源,降低能源消耗,帮助企业实现IT环境的节能。存储资源按需扩展数据中心架构资源池改造方案全文共55页,当前为第29页。相比应用部署性能瓶颈时,“替换式”的更新模式,深信服私有云实现了资源的横向按需扩展,只需要通过简单的服务器数量增加,即可实现业务计算性能、存储容量的线性提升,无需经历架构调整和业务中断风险,保障业务稳定性。数据中心架构资源池改造方案全文共55页,当前为第29页。aSAN方案的逻辑架构如上图所示。这种架构的基本单元是部署了虚拟化系统的x86标准服务器。在提供虚拟计算资源的同时,服务器上的空闲磁盘空间被组织起来形成一个统一的虚拟共享存储:虚拟存储系统。虚拟化存储在功能上与独立共享存储完全一致;同时由于存储与计算完全融合在一个硬件平台上,无需象以往那样购买连接计算服务器和存储设备的专用SAN网络设备(FCSAN或者iSCSISAN)。系统性能线性增加aSAN存储虚拟化方案可以支持横向(增加服务器数量)、纵向(增加单台服务器的硬盘数量)等扩展方式,扩展起来非常简单,只需要将新的服务器加入原来的集群就可以实现扩展,扩展后可以实现容量和性能的同步扩展,目前最大支持64台服务器组件一个集群。此外,添加新的服务器到集群后,不仅存储空间得到扩展,性能也会得到同步的扩展,例如2台服务器扩展到4台服务器后,不仅存储空间得到扩展,整体性能也会扩展为原来的2倍。所以,aSAN可以帮助客户不需要过多地考虑未来的扩展,只需要满足未来3~6个月的需求就足够了,极大降低了初期的投资成本,并避免了传统FC存储由于无法平滑扩展性能,而需要迁移数据存储所带的高风险。数据中心架构资源池改造方案全文共55页,当前为第30页。数据中心架构资源池改造方案全文共55页,当前为第30页。数据多副本机制在可靠性方面,虚拟化存储aSAN没有采用传统FC存储的raid方式,而是把每份数据copy成多份副本进行多副本存储,服务器只需要以常规手段挂载硬盘,虚拟化存储平台会把数据、在不同的物理服务器硬盘里创建2个到3个一样的副本。而且,每一次数据的变化,都会通过网络,同时在aSAN中的所有副本里进行同步,从而确保数据的一致性。这样做的好处非常明显,多副本的同步存储方式,能够在最大程度上确保数据的互备效果,从而低成本的实现存储的高可靠。高可用性功能由于aSAN存储虚拟化采用副本方式保存数据,支持2-3份副本。当物理硬盘出现故障的时候,存储则会被重新指向另外一个健康的副本,整个过程是毫秒级的切换,对用户来讲基本是无感知的。数据中心架构资源池改造方案全文共55页,当前为第31页。如果不幸遇上了物理主机或者是网络故障,整个虚拟化平台可以完成分钟级的切换,业务系统或者网络设备的虚机可以快速切换到另一台服务器拉起,几分钟就能恢复正常运作,而存储的指向仍然保持了同步,这样就比传统方式的业务恢复速度快了很多。数据中心架构资源池改造方案全文共55页,当前为第31页。磁盘长期运行导致损坏这是不可避免的。对于这个问题,我们会建议客户在集群中构建一些全局热备盘,当某一块磁盘或者某几块磁盘出现故障,系统可以第一时间替代故障磁盘,实现快速的磁盘自动化替换,不需要人工操作。降低磁盘故障带来的风险,提高数据的可靠性。数据中心架构资源池改造方案全文共55页,当前为第32页。数据中心架构资源池改造方案全文共55页,当前为第32页。潮汐应用需求由于传统的数据存储的SAS盘、SATA盘的性能只有7200转,IOPS达不到众多应用系统的相关性能要求。所以,深信服的存储虚拟化aSAN在硬件架构上会要求采用SSD双缓存方式,读和写都使用独立的SSD硬盘来实现,借助于SSD的高效缓存技术,可以让用户以较低的成本获得非常高的IO性能。此外,通过我们的算法优化,业务系统所请求的数据、绝大部分情况下都会直接读取到本地磁盘上的副本,从而使得存储的响应速度大幅提升,明显提升整体存储的IOPS性能。数据分片与条带化技术数据中心架构资源池改造方案全文共55页,当前为第33页。数据分片技术数据中心架构资源池改造方案全文共55页,当前为第33页。一个虚拟磁盘对应aSAN的一个qcow2文件。而虚拟磁盘的大小是不固定的,可以小到几个G,大到几十T。为了能够更灵活地存放和处理这些数据,aSAN通过数据分片技术对单个qcow2文件按照固定单位大小(如aSAN3.0版本默认大小为4G)进行切分成若干个颗粒度更小的分片。aSAN的诸多存储策略都是基于颗粒度更小的分片进行的,让数据在存储卷中分布更加地均衡,数据管理更加灵活。以数据平衡任务为例,当数据平衡在过程中出现物理主机掉电后重启,平衡任务重新启动,此时只要从掉电前的一个分片接着继续平衡剩余分片即可,即断点续修,无需从头将整个qcow2文件进行平衡。包括后面章节介绍的数据条带化分布、数据重建、数据差异修复等机制和策略都是以分片为最小单位进行的。并且,分片后qcow2文件的大小不会局限于某台或某几台物理主机的存储空间,理论上单个qcow2文件(即单个虚拟磁盘)的大小可达到整个存储卷的可用容量大小。数据条带化技术条带化是传统的RAID0模式采用的一种实现技术。条带化技术的普遍定义是将一块连续的数据切分成很多个小的数据块,然后并发地存储到不同物理硬盘上,实现对数据进行写入或读取时可以获得最大程度上的I/O并发能力,从而获得优异的性能。如下图所示,经过条带化处理的数据可以并发地写入到三块磁盘,而未经条带化处理的数据每次只能写入到一块磁盘中,因此数据经过条带化后的写入性能则是未经条带化的写入性能的3倍。数据中心架构资源池改造方案全文共55页,当前为第34页。数据中心架构资源池改造方案全文共55页,当前为第34页。数据再平衡与故障重建机制实现的目标aSAN通过数据平衡来保证在任何情况下,数据在存储卷内的各个组件内尽可能地分布均衡,避免产生极端的数据热点以及尽快地利用上新增组件的空间和性能,保证各组件的资源得到合理利用。数据平衡所实现的目标:1.使得整个存储卷内最高和最低的磁盘容量使用率之差尽可能小;2.避免发生存储卷内某块磁盘的空间已用满,而其他磁盘仍有可用空间的情况。因此存储卷是否已经达到平衡是以磁盘为单位进行定义的,通过保证磁盘间的均衡同时可以达到主机之间的容量尽可能均衡。触发条件计划内平衡计划内平衡是在用户所计划的时间范围发起的数据平衡(如下图所示)。当存储卷内不同硬盘的容量使用率差异较大时,将对使用率较高的硬盘执行数据平衡,迁移部分数据到容量使用率较低的硬盘上。数据中心架构资源池改造方案全文共55页,当前为第35页。数据中心架构资源池改造方案全文共55页,当前为第35页。在用户所计划的时间范围内,aSAN的数据平衡模块会对存储卷内的所有磁盘进行扫描,若当发现卷内最高和最低的磁盘容量使用率之差超过一定阈值时(默认是30%)即触发平衡,直至卷内任意两块硬盘的使用率不超过一定阈值(默认是20%)。例如,用户对存储卷进行扩容后,在用户所设的数据平衡计划时间内,就会触发平衡将数据迁移至新增的磁盘上。自动平衡自动平衡是无需用户进行干预,由系统自动发起的数据平衡。是为了避免存储卷内某块磁盘的空间已用满,而其他磁盘仍有可用空间,即2.5.2章节中的目标2。当存储卷内存在某块磁盘空间使用率已超过风险阈值时(默认是90%)即触发自动平衡,直至卷内卷内最高和最低的磁盘容量使用率小于一定阈值(默认是3%)。数据中心架构资源池改造方案全文共55页,当前为第36页。方案优势数据中心架构资源池改造方案全文共55页,当前为第36页。基础架构有序增长简化存储结构aSAN存储虚拟化方案可以支持横向(增加服务器数量)、纵向(增加单台服务器的硬盘数量)等扩展方式,扩展起来非常简单,只需要将新的服务器加入原来的集群就可以实现扩展,扩展后可以实现容量和性能的同步扩展,目前最大支持64台服务器组件一个集群。此外,添加新的服务器到集群后,不仅存储空间得到扩展,性能也会得到同步的扩展,例如2台服务器扩展到4台服务器后,不仅存储空间得到扩展,整体性能也会扩展为原来的2倍。所以,aSAN可以帮助客户不需要过多地考虑未来的扩展,只需要满足未来3~6个月的需求就足够了,极大降低了初期的投资成本,并避免了传统FC存储由于无法平滑扩展性能,而需要迁移数据存储所带的高风险。。简化网络结构在部署了深信服的网络虚拟化aNet之后,过去传统的接入交换、路由器、负载均衡、防火墙等传统网络、安全硬件设备,通通变成虚拟化的方式运行在服务器里。以前。串糖葫芦式的网络结构也会变得非常的扁平,服务器全部接入到一个大二层的网络,极大的简化物理连线。此外,硬件交换机不再需要支持类似TRILL/SPB/FabricPath/VPLS(为了解决服务器虚拟化部署后的问题,新推出的交换机特性)等一些列不必要的过渡性网络功数据中心架构资源池改造方案全文共55页,当前为第37页。能,从而只需要普通的交换机就可以满足云计算网络的建设,降低了不必要的网络建设成本。数据中心架构资源池改造方案全文共55页,当前为第37页。运维管理简单便捷简化网络配置部署了虚拟网络aNet后,对于物理交换机来说虚拟化环境中的虚拟机网络流量将会变得透明,物理交换机不再需要配置复杂的网络策略,提供简单的大二层转发即可。因为,所有虚拟机的VLAN、QoS、ACL等网络配置策略,将会部署aSwitch上。而aSwitch将会自动根据每台虚拟机迁移、删除等过程,实现网络策略的自动跟随,实现网络配置的自动化调整,极大的简化了虚拟机迁移所带来复杂的网络运维工作。数据中心架构资源池改造方案全文共55页,当前为第38页。数据中心架构资源池改造方案全文共55页,当前为第38页。确保架构平滑迁移只把交换机和路由器虚拟化是不够的,复杂的业务环境是必须要配置负载均衡、VPN、防火墙这样的L4-L7安全、优化功能。所以,深信服将在硬件设备领域非常具有优势的NGAF、AD、WOC、SSLVPN等设备也虚拟化了,从而可以帮助用户将应用系统平滑的从物理环境迁移到虚拟化环境中,并满足安全合规要求。vNGAF、vAD、vWOC、vSSLVPN等虚拟化设备,保持了和硬件设备一致的功能特性,并且具备齐全的各种产品资质证书,如安全产品销售许可证等。用户只需要根据不同应用系统的性能要求,分配1、2、4、8核不同档次的CPU资源,各种虚拟化设备就可以提供从百兆到千兆的性能。深信服虚拟化管理平台VMP是一个针对超融合架构进行IT资源进行全面管理、调度的管理系统。可以针对物理主机、服务器虚拟化、网络虚拟化、存储虚拟化等设备和组件进行资源负载监控、虚拟资源配置和调度、网络拓扑部署、网络设备策略配数据中心架构资源池改造方案全文共55页,当前为第39页。置、网络故障排查、存储资源管理、数据备份管理等。尤其是网络拓扑部署功能,管理员只需要在界面上画出所需要的网络、安全、虚机的组网拓扑,只需数分钟就可以实现业务系统的就绪,做到“所画即所得”。数据中心架构资源池改造方案全文共55页,当前为第39页。此外,还可以针对管理员进行权限的管理和划分,后续通过升级可以支持多租户业务场景的管理。从而,只需要一个管理界面,就可以帮助运维人员高效、简便的实现云计算中心IT资源的部署、运维、排障。机房投入成本降低利旧设备搭建容灾资源池利旧服务器内存处理器硬盘万兆卡数据中心架构资源池改造方案全文共55页,当前为第40页。高性能SSD缓存技术:数据中心架构资源池改造方案全文共55页,当前为第40页。由于传统的sas盘、sata盘的性能只有7200转,iops达不到众多应用系统的相关性能要求。所以,深信服的存储虚拟化aSAN在硬件架构上会要求采用SSD双缓存方式,读和写都使用独立的SSD硬盘来实现,借助于SSD的高效缓存技术,可以让用户以较低的成本获得非常高的IO性能。此外,通过我们的算法优化,业务系统所请求的数据、绝大部分情况下都会直接读取到本地磁盘上的副本,从而使得存储的响应速度大幅提升,明显提升整体存储的IOPS性能。业务数据得到保护多副本技术在可靠性方面,虚拟化存储aSAN没有采用传统FC存储的raid方式,而是把每份数据copy成多份副本进行多副本存储,服务器只需要以常规手段挂载硬盘,虚拟化存储平台会把数据、在不同的物理服务器硬盘里创建2个到3个一样的副本。而且,每一次数据的变化,都会通过网络,同时在aSAN中的所有副本里进行同步,从而确保数据的一致性。这样做的好处非常明显,多副本的同步存储方式,能够在最大程数据中心架构资源池改造方案全文共55页,当前为第41页。度上确保数据的互备效果,从而低成本的实现存储的高可靠。数据中心架构资源池改造方案全文共55页,当前为第41页。高可靠&高性能过去传统物理网络容易因为网络设备的故障而产生问题,解决起来也非常困难,时间都是以小时为单位的。所以,深信服的网络虚拟化产品,在可靠性方面做了很多的改进,首先通过应用层协议栈技术,我们把数据转发放到了应用层,能够让设备永不宕机,而分布式设计的虚拟路由和虚拟交换机,出现故障的时候能够实现秒级切换,从而避免虚拟设备的单点故障,物理设备和链路我们设计了集群部署和链路聚合,能够避免物理环境的单点故障;这样,我们就实现了整个虚拟网络环境的高可靠保障,任意环节出现故障,都能被自动检测出来,并快速恢复业务。此外,对于虚拟化网络的性能问题,深信服自主研发了高性能网络转发引擎,结合intel最新的DPDK技术和SR-IOV技术,aSwitch虚拟设备可以达到双向10G的数据转发,让虚拟化网络能够以非常低廉的成本拥有和物理网络一样强劲的性能。多层次安全策略,无缝安全防护为了从不同维度提升虚拟化平台的安全性,通过隔离的分布式交换机、ACL访问控制、NGAF的L2-L7安全防护技术、SSLVPN完整的安全接入技术等方式,可以加固虚拟机、业务系统等不同虚拟化环境边界的安全性。数据中心架构资源池改造方案全文共55页,当前为第42页。尤其是NGAF可以提供包括:状态检测、应用访问控制、漏洞防护、Web攻击保护、防敏感信息泄露、漏洞风险扫描、安全策略联动、防木马病毒等完整的L2-L7安全功能,可以帮助用户简化安全部署,并满足合规要求。数据中心架构资源池改造方案全文共55页,当前为第42页。超融合配置深信服超融合一体机配置型号配置aServer-2000(不含数据盘)CPUE5-2620*2V4,96G内存,8*SATA/SAS盘位,默认128G系统盘,1*240GSSD缓存盘,6个GE接口,无磁盘aServer-2100(不含数据盘)CPUE5-2630*2V3,128G内存,8*SATA/SAS盘位,默认128G系统盘,1*240GSSD缓存盘,6个GE接口,无磁盘aServer-2200(不含数据盘)CPUE5-2660*2V4,128G内存,8*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,2个万兆光口,无磁盘aServer-2300(不含数据盘)CPUE5-2680*2V4,128G内存,8*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,2个万兆光口,无磁盘数据中心架构资源池改造方案全文共55页,当前为第43页。aServer-2005(不含数据盘)数据中心架构资源池改造方案全文共55页,当前为第43页。CPUE5-2620*2V4,96G内存,12*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,无磁盘aServer-2105(不含数据盘)CPUE5-2630*2V4,128G内存,12*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,无磁盘aServer-2205(不含数据盘)CPUE5-2660*2V4,128G内存,12*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,2个万兆光口,无磁盘aServer-2305(不含数据盘)CPUE5-2680*2V4,128G内存,12*SATA/SAS盘位,默认128G系统盘,1*480GSSD缓存盘,6个GE接口,2个万兆光口,无磁盘数据中心架构资源池改造方案全文共55页,当前为第44页。深信服超融合软件配置数据中心架构资源池改造方案全文共55页,当前为第44页。产品型号产品描述产品型号aSV服务器虚拟化授权深信服超融合平台软件-服务器虚拟化,HA高可用,虚拟机备份,应用故障检测,安全补丁更新,虚拟机优先级控制,产品特性功能更新模块以实际发布版本为主aNet网络虚拟化授权深信服超融合平台软件-网络虚拟化,所画即所得的快速网络部署,虚拟交换机,虚拟路由器,软件平台升级更新以实际发布版本为主aSAN存储虚拟化授权深信服超融合平台软件-存储虚拟化,存储多副本,高性能读写缓存,存储弹性扩展,数据故障切换,磁盘故障告警,软件平台升级更新以实际发布版本为主其中aSV为超融合操作系统的底层架构,为必配软件,aNET和aSAN可以根据具体的需求二选一或者全选。超融合操作系统的配置方式为:aSV+aNETaSV+aSANaSV+aNET+aSAN深信服NFV配置清单产品型号产品描述虚拟应用交付vAD-100占用1vCPU,2G内存;四层1G吞吐,七层500M吞吐,20万并发连接虚拟应用交付vAD-200占用2vCPU,4G内存;四层1.5G吞吐,七层1G吞吐,100万并发连接数据中心架构资源池改造方案全文共55页,当前为第45页。虚拟应用交付vAD-400数据中心架构资源
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025汽车零部件购销合同示范文本
- 2025年非金属矿物制品:耐火项目合作计划书
- 2025年沼气专用发电装置项目合作计划书
- 2025医疗机构设备购货合同模板
- 2025房产评估委托合同
- 2025年新型全液压钻机项目合作计划书
- 七年级地理结业考试高考衔接型选择题(100 题)
- 2025年智能电能表及配件合作协议书
- 2025年儿童心理咨询师考试试题及答案展示
- 2025年高压自动重合器合作协议书
- 小儿吸痰法讲稿
- 医院应急调配机制
- (格式已排好)国家开放大学电大《计算机应用基础(专)》终结性考试大作业答案任务一
- 市政工程监理规划范本(完整版)
- 起重机械产品质量证明书与合格证样表剖析
- 《机电传动控制》模块化实验装置设计
- 中秋节英文PPT
- 北师大版小学数学五年级上册单元练习题全册
- 职业病危害接触史证明
- 钢材质量证明书模板
- 用款申请单模板
评论
0/150
提交评论