云数据中心项目方案建议书_第1页
云数据中心项目方案建议书_第2页
云数据中心项目方案建议书_第3页
云数据中心项目方案建议书_第4页
云数据中心项目方案建议书_第5页
已阅读5页,还剩50页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

云数据中心项目方案建议书云数据中心项目方案建议书全文共55页,当前为第1页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第2页。

计划建设第6代LTPS(OXIDE)LCD/AMOLED显示面板生产线,每月有36K的产量,t3数据中心需满足该生产经营需求,同时作为深圳t1&t2数据中心的异地容灾中心。数据中心同城备份异地灾备中心其中数据中心和同城备份处于t2和t1机房内,并分别与异地灾备中心通过专线连接数据中心初步功能定位建设方案数据中心除满足二厂生产经营系统需要,还承载全公司企业营运系统,RD、办公、VDI、及自动化。t2同城备份t1生产制造系统(CIM),t1MCS自动化和数据备份t1异地灾备中心武汉工厂生产经营系统需要,RD、办公、VDI、CIM及自动化。关键系统设备和系统备份业务数据的异步备份武汉t3t2机房t1机房总体建设思路武汉t3机房云数据中心项目方案建议书全文共55页,当前为第3页。数据中心规划架构名称深圳t1工厂数据中心CSOT核心数据中心武汉工厂数据中心位置深圳t1工厂Array栋二楼深圳研发大楼二楼武汉研发大楼二楼面积360.9m2573.7m2525.0m2定位深圳t1工厂数据中心CSOT核心数据中心深圳t2工厂数据中心武汉t3&t4工厂数据中心主功能t1直接生产及相关系统备份系统t2直接生产及相关系统全公司企业运营系统t1&t2本地化办公t1&t2VDI桌面t1&t2RD系统t3直接生产及相关系统t3本地化办公及VDI桌面t3RD系统备份系统t4直接生产及相关系统SZDC02(深圳t2全国集中数据中心)SZDC01(深圳t1工厂数据中心)WHDC01(武汉t3工厂数据中心)t3生产制造系统(CIM)t3MCS自动化t4主要生产系统&办公系统全公司企业运营系统(ERP,WCS,…,BI)t1&t2RD系统(EDA&PLM)t1&t2办公(OA,e-mail,HR)t2生产制造系统(CIM)t2MCS自动化t1生产制造系统(CIM)t1MCS自动化本地备份系统t1&t2VDI桌面网路IP

专线深圳(SZ)武汉(WH)局域网t3RD系统(EDA&PLM)t3办公(OA,e-mail,HR)t3VDI桌面本地备份系统云数据中心项目方案建议书全文共55页,当前为第4页。

国际通用标准—《THEUPTIMEINSTITUTE数据中心等级标准》

国家标准—《电子信息系统机房设计规范》——GB50174-2008

电信行业标准—《TIA/EIA-942》

数据中心等级标准建议——目前行业内流行的等级标准规范

云数据中心项目方案建议书全文共55页,当前为第5页。数据中心建设等级标准分析:电源双电源供电、2NUPS架构、N+1空调等这些都能达到国家机房B级、TierIII的标准,但由于建筑物及其它一些制约原因,达不到A级及TierIV的标准:如:独立建筑、最坏事件的容错,专用发电机等序号内容Tier1Tier2Tier3Tier41可用的通路数量单路单路主备各一路双活2冗余NN+1N+1S+Sor2(N+1)3区域划分无无无有4在线维修能力无无有有5对最坏事件的容错无无无有6建造类型混用混用独立建筑物独立建筑物7管理班次仅白班时间在现场轮流值班1正常班+轮流值班全天24小时值守8关键负荷占总容量的%N的100%N的100%N的90%N的90%9初始用电量(W/ft2)20~3040~5040~6050~8010可扩展用电量(W/ft2)20~3040~50100~150150+11不间断制冷无无或许有有12辅助空间和地板的比率0.2:10.3:10.8~0.9:11.5:113地板承重(kg/m2)37049073673614单点故障很多人为错误很多人为错误有单点+人为错误无单点+火灾和电力故障15每年机房引起的IT停机28.8小时22小时1.6小时0.8小时16机房的可用性99.671%99.749%99.98%99.99%17累计实施周期(月)33~615~2015~2018行业首次实现时间1965197019851995云数据中心项目方案建议书全文共55页,当前为第6页。7EMDC可扩展性垂直增长-提高密度云数据中心项目方案建议书全文共55页,当前为第7页。模块化数据中心在满足IT和业务需求的前提下降低初期投资成本数据中心固定资产投资75%的成本与暖通电气相关边成长边投资模块化的方法使业务发展和数据中心容量需求完美结合

YearPower(rangeofkw)1234567891000.511.522.53暖通15%不可预见费5%总包费用

3%建筑/

工程5%调试2%装修9%监控3%电气50%土建8%数据中心的投资云数据中心项目方案建议书全文共55页,当前为第8页。绿色核心指标PUE值=1.76【(总配电-空调瞬时功率/IT设备用电】云数据中心项目方案建议书全文共55页,当前为第9页。同行业IT系统综合能力分析技术性能模式投入运维目标规划集成能力资源利用开发效率可靠性可扩展性可移植性安全性业务支撑能力业务数据分析经费比例人员数量管理标准文档完备企业信息化所关心的回报和价值问题,完全可以通过“科学、系统、全面、统一”的IT能力评价体系做出完美回答,力求将有限的IT资源用在最需要的地方,通过信息化促进管理水平的提高。三星京东天马国内液晶厂同行分析云数据中心项目方案建议书全文共55页,当前为第10页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第11页。t3.0机房位置

t2.0数据中心机房物理位置(研发大楼二楼)研发大楼云数据中心项目方案建议书全文共55页,当前为第12页。t3.0机房位置

t3位于研发楼二楼(纵轴位于3-11柱到3-17柱之间,横轴位于1A-3到3-D之间的界面):楼层高度:需要满足4.5m楼层净高度。安全角度:需要考虑防水和防火等因素。设备搬运:需要建设在货梯附近,便于设备搬运。线缆敷设:需要建设在强弱电管井附近,便于强弱电敷设。数据中心机房(525.0m2)云数据中心项目方案建议书全文共55页,当前为第13页。t3.0机房需求设计依据

区分t3应用t2应用t1应用机房应用SZDC01SZDC02WHDC01SZDC01SZDC02WHDC01SZDC01SZDC02WHDC01CIMMES√√√OEE√√DFS√√√RPT√√√EDA√√√SPC√√√ERP√√√WCS√√√PLM√√√BI√√√MCS√√√VDI√√√OA√√√Email√√√AD√√√Virtual√√√Backup√√√应用系统分布云数据中心项目方案建议书全文共55页,当前为第14页。t3.0机房需求设计依据

数量及需求调研备注:机房内t4应用系统预留的机柜空间,暂不建设。通过调研,t3.0总需求服务器机柜数量为36个,满足所有系统使用。云数据中心项目方案建议书全文共55页,当前为第15页。t3.0机房平面布局设计研发楼二楼气瓶间配电区电池区t3服务器区t4服务器区网络区域预留扩展)(管理储存间电信机房研发楼二楼云数据中心项目方案建议书全文共55页,当前为第16页。t3.0机房人员行走路线研发楼二楼运维人员行走路径运输人员行走路径云数据中心项目方案建议书全文共55页,当前为第17页。平面布局概述根据调研需求分析,规划平面布局如下图;总面积525㎡。和t2数据中心不同:网络机房和数据机房合并,储物间和管理间合并。扩展机房为t4工厂应用系统扩展使用,本期不施工,降低一次性投资费用。预留t4业务空间出发点建设周期:机房建设周期长,统一考虑可保证IT快速支援t4工厂建设。建设成本:统一预留t4业务空间,可避免t4时重复投资。建筑网络机房服务器机房(t3)扩展机房(t4)气瓶间UPS配电间管理存储间t3

Office二楼54㎡137㎡127㎡24㎡134㎡49㎡318㎡207㎡合计525㎡t3.0机房区间设置

备注:T3.0,可放置44个服务器机柜,4个布线列头柜;T4.0,可放置40个服务器机柜,4个布线列头柜;网络区域,可放置16个网络机柜云数据中心项目方案建议书全文共55页,当前为第18页。t3.0机房机柜容量使用说明

CIMMCSVDIVirtual容灾备份PI预留机柜预留机柜CIM网络机柜网络预留t4预留服务器机柜业务机柜数合计核心机房CIM(生产系统)1544Virtual&EA(办公系统)4RD系统(PLM、)2MCS(生产系统)3VDI(办公系统)6备份系统6预留机柜8网络机房OA数据中心414FAB数据中心4SAN网络2预留机柜4扩展机柜t4应用系统4040总计98服务器机房区域云数据中心项目方案建议书全文共55页,当前为第19页。地板作水泥自流平后铺设防静电地胶板;墙身铺设彩钢板天花为开放式天花,喷黑地胶板彩钢板防火门开放式天花t3.0机房装修说明

开放式天花无架高地板云数据中心项目方案建议书全文共55页,当前为第20页。空调设备区、设备机房区建议考虑设置地漏排水设施。排水设施主要用于快速疏散空调设备的漏水数据中心灭火时消防水的排放;数据中心的上下楼板、墙身建议做防水处理,防止水患及室内外温差造成的结露影响。数据中心服务器机房和核心网络机房,应设置新风系统,以维持室内的正压,按《电子计算机机房设计规范GB50174-2008》中的规定,机房区域的正压不少于5Pa。同时,新风系统应采用全热交换预冷新风系统,回收排风冷量,达到节能的目的。数据中心建筑结构需求——防水、新风建议云数据中心项目方案建议书全文共55页,当前为第21页。数据中心建筑结构需求——防火、保温建议根据防火区域内设备的重要性和安全性,建议设备机房、核心网络机房、UPS间及电池间等采用气体灭火系统。气体灭火系统可以集中放置气体钢瓶设施,集中输送灭火气体,高压排放。需要灭火时,气体释放时的快速喷射产生高压,要求建筑结构体能抵抗1200Pa/m2压力。防火保护区分界面上,建筑结构墙体或数据中心内饰墙体有足够的泄压口,用于释放气体冲击压力,保护建筑及室内结构体不被高压气体冲击损坏。外墙建议尽量不要设置外窗;结构墙体建议有良好的保温性能;机房区与非机房区(如:数据中心外通道)之间建议有较好的保温性能;机房区楼层与非机房区楼层之间的楼板建议进行保温处理。建议在机房区楼层的地面(天花)加装符合B2级以上防火等级的保温材料,主要用于防止楼板结露现象的发生。建筑防火建议建筑保温建议云数据中心项目方案建议书全文共55页,当前为第22页。B、国标B级标准的需求电子信息系统机房的耐火等级不应低于二级。当B级机房位于其它建筑物内时,在主机房与其它部位之间应设置耐火极限不低于2h的隔墙,隔墙上的门应采用甲级防火门。面积大于100m2的主机房,安全出口不应少于两个,且应分散布置。面积不大于100m2的主机房,可设置一个安全出口,并可以通过其它相临房间的门进行疏散。用于搬运设备的通道净宽不应小于1.5m;面对面布置的机柜或机架正面之间的距离不宜小于1.2m;背对背布置的机柜或机架背面之间的距离不宜小于1m;建筑入口至主机房的通道净宽不应小于1.5m主机房净高应根据机柜高度及通风要求确定,且不宜小于2.6m。主机房及不间断电源间地板活荷载标准值不小于8~10kN/m2;电池间地板活荷载标准值不小于16kN/m2。平面布局要求消防安全要求本规划平面布局完全符合国标B级需求数据中心需求规划——平面规划输入条件云数据中心项目方案建议书全文共55页,当前为第23页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第24页。机房电气系统整体性规划建议——系统高可靠性规划建议

机房日常维护用电机房常规照明用电机房空调系统用电重要保障区间照明用电IT设备计算机设备用电计算机设备供电可靠性系数大于99.982%

一级保障

二级保障

三级保障

四级保障

五级保障UPSA

UPSB

低压配电

区域配电

UPS配电

市电

消防动力、应急照明用电云数据中心项目方案建议书全文共55页,当前为第25页。机房电气系统整体性规划建议——系统的扩展、容灾、可管理性主要电力数据保障设备的扩容能力(如主电、UPS系统的扩容能力)——按最小分组原则,多机并联供配电线路的扩容能力——预留备用回路,适当加大线路截面积各级配电柜扩容能力——各级配电柜开关热扩容能力及各级开关柜增加柜体的能力。主要电力保障设备的容灾能力:UPS采用2N的备份方式。供配电主干线路的容灾能力——物理使用2个强电竖井对称式敷设,100%备份各级输出配电柜使用物理双链路双开关控制柜设计技术;.热插拔开关技术的应用智能管理配电柜技术的应用采用动力环境监控系统对电力系统进行管理可扩展性可容灾性可管理性云数据中心项目方案建议书全文共55页,当前为第26页。IT设备用电负荷序号用途数量功耗(KW)小计(KW)1Infra刀片机柜812962Infra存储机柜36183CIM刀片机柜612724CIM存储机柜96545小型机机柜(含Auto、PI等)58406备份(存储)66367未来业务扩展7956服务器、存储设备负荷总计3721DC核心交换机机柜26122OA核心交换机机柜26123FAB核心交换机机柜26124网络机柜3395网络列头柜8216网络设备负荷总计61IT设备负荷合计433同时使用系数0.6合计260机房配电——UPS系统负荷计算因此,建议向大厦申请两路来自不同配电站的300KW配电线缆!采用2台工频式的400KVAUPS作2N冗余。此为t3的用电需求,同时在敷设管道时,需要考虑t4的扩容方式。云数据中心项目方案建议书全文共55页,当前为第27页。空调系统用电负荷序号设备名称数量功耗(KW)小计(KW)1水平送风空调9151352配电室空调130303空调瞬间功率16666合计

231照明用电负荷序号设备名称数量单台容量(KW)小计(KW)1新风机机组2482照明系统1553维修电源1444消防1225强排烟2366管理间用电11010合计

35机房配电——空调及照明系统负荷计算因此,建议向大厦申请两路来自不同配电站的300KW配电线缆!此为t3的用电需求,同时在敷设管道时,需要考虑t4的扩容方式。云数据中心项目方案建议书全文共55页,当前为第28页。t3机房配电设计

t3配电区t3电池区t4配电区t4电池区t3和t4均为双路配电,2N结构UPS其中t4区域为预留t3和t4均半小时后备电池其中t4区域为预留每机柜配电均为双路精密配电输出配电柜支持热插拨,可在线扩展变更。云数据中心项目方案建议书全文共55页,当前为第29页。机房配电建议——UPS配电系统架构方案800A800A配电站800A800AATSATS400KVAUPS400KVAUPS机柜机柜精密配电柜3精密配电柜4A路A路B路B路机柜机柜精密配电柜1精密配电柜2A路A路B路B路ATSATS云数据中心项目方案建议书全文共55页,当前为第30页。

Page31双路独立机架式PDU双路独立工业接插器插座(安装于机柜上方)双电源IT设备机架式STS单电源IT设备双路智能精密列头配电柜双路独立的UPS电源机房2N配电系统(机房电气系统末端)机房配电建议——UPS配电系统方案云数据中心项目方案建议书全文共55页,当前为第31页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第32页。数据中心机房空调负荷建议——空调系统的负荷规划

主机房制冷量计算主机房地板面积(m²)334IT设备负荷(KW)260操作人员数量(个)3内部热负荷热负荷类型来源计算IT设备热负荷显热(KW)100%ofITKW260照明系统热负荷显热(27W/M²)0.0279.018人体热负荷显热(70W/人)0.070.21外部热负荷热负荷类型来源计算新鲜空气通过渗透进入:

--

墙体、窗、地板、天花板显热(30W/M²地板面积)0.0310.02潜热(20W/M²地板面积)0.026.68实际所需冷量:285.93余量:1.2343.11空调制冷需求计算所需制冷总量为285.93KW,考虑20%余量后所需制冷总量为343.11KW。t3IT设备负荷数值由配电系统中对设备调查后计算得出;单位面积内热量为业界标准数值.云数据中心项目方案建议书全文共55页,当前为第33页。空调系统节能设计——封闭冷通道39°C27°C国外:

数据处理环境热准则:使用冷池优势:1.把冷量限定在服务器吸风的冷通道内,隔绝与机房环境空气已经机房围护结构的热交换,节省机房内部冷量需求。2.因为没有与环境空气混合温升,精密空调送风温度可以适当提高,结合机组提高制冷频率,就能降低机组制冷能耗。数据中心机房空调——封闭冷池

云数据中心项目方案建议书全文共55页,当前为第34页。行级制冷解决方案下一代数据中心的制冷架构适用于高密度数据中心的行级制冷系统最高气流效率采用机柜排级别的水平送风模式解决方案,可提供每个机柜5KW以上的散热能力;无需高架地板,摆脱高架地板束缚。数据中心机房空调——行级制冷方案

云数据中心项目方案建议书全文共55页,当前为第35页。数据中心机房空调——行级制冷方案

紧靠热源的行级制冷解决方案的优势有效的避免冷热空气混和,有预见性地制冷有限的捕获IT负载产生的热空气保证制冷冗余满足高密度制冷需求>10kWperrack紧靠热源制冷热通道密闭方案动态风扇调节制冷容量可随因虚拟化或服务器的电源管理所致的IT负载变化而变化减少电力成本支出缩短机房建设周期,可边投资边成长以区域为建设目标仅对所需要的区域制冷提高数据中心效率CFD仿真设计分析节地≥50%——高达10kW/Rack的设计云数据中心项目方案建议书全文共55页,当前为第36页。水平送风空调(44KW)-8用2备房间级空调(34.5KW)-1用1备水平送风空调(23KW)-2用2备机房制冷概况介绍云数据中心项目方案建议书全文共55页,当前为第37页。方式制冷类型系统简介风冷直接膨胀式恒温恒湿空调,是机房专用空调常用的一种冷却系统,在室外-45℃~+50℃范围内均可正常制冷,工作稳定可靠。冷冻水型机房精密空调,在IDC机房的需求量越来越大,而冷冻水型空调以冷量大、能效比高等特点被数据中心机房采用。系统组成由室内机、风冷室外机和内外间连接铜管组成,系统简单,组成器件少由冷冻水主机(螺杆机、离心机等)、空调室内机、冷却塔、膨胀水箱、循环水泵和连接管路等组成优点:系统简单,只有室内机与室外机组成,在室外湿度-45℃-+50℃范围内均可正常制冷,工作稳定可靠;室外机和室内机之间由细小的铜管连接,节约了安装空间,同样冷量需要的管井尺寸小;各系统独立工作,当单个系统出现故障后只需对故障机进行检修,对其它系统无影响;施工简单快捷,工期短。系统能效比高;室外安装空间小;不受楼层高度影响。缺点:在机房负荷较大空调设备数量多的时候需较大室外安装空间;在夏天温度较高时,由于外机集中摆放散热不良,容易引起高压报警管路系统需要的安装空间大;冷冻水主机需在建筑时考虑放置位置;施工周期长;系统初投资和运行维护成本:风冷直接膨胀式系统组成简单,初投资成本低;运行器件少,故障率低,维护简单方便,只需更换室内机过滤网清洗室外冷凝器;系统维护时可分别进行,单台停机维护,对机房环境无影响。冷冻水型空调系统组成较复杂,初投资成本比风冷型高;冷冻水主机能效比高,运行稳定,主机能效比可高达6.0;系统扩容一般,在初期就需要预留足够的接口,适合一次性建设的大规模机房。机房空调系统架构——制冷方式对比直接蒸发式(风冷)冷冻水考虑到前期投资成本、后期维护及t4.0机房扩容,因此建议本次制冷方式采用风冷式制冷系统。云数据中心项目方案建议书全文共55页,当前为第38页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第39页。1设计方法和说明2装修工程系统3

电气系统4

暖通系统5综合布线系统6

安防监控系统7

气体消防系统8总控中心系统数据中心—综合布线系统云数据中心项目方案建议书全文共55页,当前为第40页。布线主要要点:减少开放式机架,减少占用空间;服务器区设置布线列头柜,减少跳线次数,保障带宽稳定;维护简单,降低运维难度。布线列头柜ZonePatchingZonePatching存储核心交换机服务器ZonePatching交换机结构化布线解决方案-机柜间布线云数据中心项目方案建议书全文共55页,当前为第41页。机房内机柜间布线OA核心OA核心DC核心SAN布线列头柜8台核心网络机柜8台布线主要要点:减少开放式机架,减少占用空间;服务器区设置布线列头柜,减少跳线次数,保障带宽稳定;维护简单,降低运维难度。云数据中心项目方案建议书全文共55页,当前为第42页。议程1.设计原则和依据2.总体设计3.供配电系统的设计4.空调系统的设计5.综合布线系统6.机房其它配套7.施工工艺交付标准8.项目主要设备清单云数据中心项目方案建议书全文共55页,当前为第43页。

机房内防雷系统主要是对服务器、程控交换机、网络设备、数据传输线、UPS、空调机等电子设备加装过压保护装置,在设备受到过电压侵袭时,保护装置能快速动作将能量泄放,从而保护设备不受损坏。设备遭受损坏的主要源头为:感应雷击(瞬间雷电脉冲)。

由此,保护机房相关设备尤其重要。考虑到性能、易于安装维护及市场普及性,本方案选用分别在市电配电柜、UPS输入输出柜及列头柜安装二三级防雷器。

机房配套系统云数据中心项目方案建议书全文共55页,当前为第44页。机房内所有设备、金属等,全部通过接地线缆,连接至接地铜牌,连接至大厦的弱电接地点上,满足机房内的防静电需要。FM200作为机房消防自动灭火装置。其属无毒、无味的气体,灭火性能可靠。不损坏电子设备,独立消防设备间,设有自动/手动启动装置,防止误动作。能与配电、环境监控进行整合报警功能。机房配套系统云数据中心项目方案建议书全文共55页,当前为第45页。机房配套系统整个过程无人值守可以做到完全自动化运维管理工作流程化应急

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论