数据中心能耗分析报告_第1页
数据中心能耗分析报告_第2页
数据中心能耗分析报告_第3页
数据中心能耗分析报告_第4页
数据中心能耗分析报告_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。1、 数据中心节能的必要性近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和

2、的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUEfi列为一个关键指标,追求更低的PUEfi,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUEfi为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.82.0,中小规模机房的PUEfi更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值

3、得我们借鉴。根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH右。因此对专业资料资源共享于新建的大型数据中心,节能的必要性十分重要。从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。2、 影响数据中心能耗的因素数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对upsw言,根据it设备的实际负荷选择合理的ups容量,避免因up缴率过低

4、而产生较大的自身损耗。同时,选择更加节能的高频ups优化upsc扑结构都可起到节能的效果。1、ups寸数据中心能耗的影响UPSi机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%寸UPS的效率才接近90%很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%在此卜#况下UPS的效率仅仅为80流右,UPS的损耗非常大。因此,在UPSg已置中尽量选择多机并联模式,避免大容量UPSi|机运行模式。例如,可以用两台300kVAUPS联运行的模式代替一台600kVAUP

5、卯机运行模式。具优点在于IT负荷较少时只将一台300kVAUPS&入运行,另一台UPS工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UP缴率,降低机房能耗。100%-0%界o70%-60%-50%-40%-30%-10%20%90%80%*0川/0L*8%Load2、供配电系统对数据中心能耗的影响数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、冷却塔、照明灯具等,这些变频设备会产生很大的谐波。止匕外,UPSIT设备等也会产生很大的谐波。谐波对数据中心有非常大的危害,而且会增加能耗。对于用电负荷为1000kW的数据中心,进行谐波7B理后,每年可节

6、能100多万度电。3、空调系统对数据中心能耗的影响据美国采暖制冷与空调工程师学会(ASHRAE技术委员会9.9(简称TC9.9)统计报告显示,数据中心各部分的用电量分布大致如下图所示:服务器空调制冷UFS损融照明其他从上图可看出,空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。每个数据中心空调制冷的能耗存在很大差异,好的空调制冷方案可以极大降低能耗,降低PUE值。因此,本文以2个数据中心为例,着重分析空调系统对数据中心能耗的影响。3、 数据中心空调系统实例分析1、小型数据中心空调系统能耗分析以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007年建成,IT机房总面

7、积为530平方米,220个机柜。4台120kVAUPS3用1备,每个机柜的平均功率为1.3kW。采用风冷式精密空调制冷,配置10台80kW显冷量空调,8用2备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成,几乎没有采用任何节能措施,仅在改建过程中对楼板、墙壁、门窗等进行加固、封闭及保温处理。该机房的年PUEffi为2.68。每天的用电量约为1.3万kWH该机房原配置8台精密空调,6用2备。机房建成后出现局部热点,经分析后,确定由3个因素所致。其一,因机房层高较低,机房架空地板仅为350mm扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死

8、角,气流无法有效流动。具三,空调室外机与室内机的高度较大,超过20米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的PUEffi较高。在这类机房中,机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限,造成精密空调的效率较低,也影响到数据中心的整体能耗较高。2、大型数据中心空调系统能耗分析该数据中心总面积约为3000多平方米,2009年初开始正式投入运行。在本项目中空调冷冻水系统采用了“FreeCooling”技术,在过渡季节利用压缩机+自然风冷却运行模式。在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4c时,采

9、用“FreeCooling”运行模式,即冷水机组停止运行,经冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换,将机房内的热量带走,此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、水泵及精密空调等设备在耗电,冷水机组完全没有耗电。在夏季及过渡季节当外界湿球温度高于4c时,“FreeCooling”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷,回到传统的空调压缩机制冷模式运行。系统示意图如下图所示:冷水机组开式冷却塔精密空调作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对独立的制冷机房,每个冷冻机房有2台3500KW(合1000RT的离

10、心式冷水机组,3用1备。冷冻水供回水温度设定为11C/17C。考虑前期负荷较小,为避免离心式冷水机组在低负荷时发生“喘振”现象,系统配置2台400RT的螺杆式冷水机组。板式换热器按冷冻水11C/17C,冷却水9C/14c进行设计。为实现制冷系统的不同运行模式,冷冻水泵选择了2种不同扬程的变频水泵以适应“FreeCooling”运行模式和冷水机组制冷模式。本系统的关键技术是空调系统的控制逻辑。控制逻辑的优劣直接关系的空调系统的能耗及系统安全。在制定空调系统控制逻辑时,首先基于冷水机组、水泵、冷却塔的能耗数据及本地区的气象条件,提出了合理的节能系统流程图,并与假定冷水机组全年运行的能耗数据进行比较

11、,在理论上做出节能运行分析。其次,为了保证空调系统安全、节能运行,控制逻辑分为夏季和冬季2种模式。在由冷水机组转换到自然冷却时,为了避免冷水机组发生低温保护,必须首先开启冷却水管道的旁通阀,将冷却水水温提高,以便顺利开启冷水机组。冬季自然冷却时,冷却塔处于低温环境,而冷却塔又必须供应低于冷冻水温的冷却水(比如6-8C的冷却水),控制逻辑必须防止冷却塔结冰现象的发生。根据近几年的实际运行经验,本数据中心最迟从每年的11月下旬就可启用“FreeCooling”运行模式,一直可持续到第二年的3月底至4月中旬,即每年至少可使用44.5个月的免费冷源,节能效果非常显著。下表是该某数据中心的2010年7月

12、份至12月份的用电量统计及相应的PUE值时间7月8月9月10月11月12月天数313130313031总用电量(度)408,300482,400492,240545,580555,180650,040平均用电/天(度)13,17115,56116,40817,59918,50620,969办公用电、空调、UPS损耗及照明用电/天(度)4,8816,0525,9576,8444,8295,186UPS用电/天(度)7,4879,50910,45111,30413,67715,783PUE值/天1.761.641.571.561.351.33从上表可知,8月份IT设备的负荷比7月份有所增加,因此8

13、月份的PUE值比7月份略有降低。9、10月份平均气温低,此时冷却水温度较低,冷水机组效率得以提高,因此9、10月份的PUEfi比7、8月份PUEfi明显偏低。因当年11、12月份的气温较低,该系统已完全具备FREE-COOLING行模式所需的条件,冷水机组压缩机已停止工作不再耗电。因此,此时虽然UPS的用电量在逐步加大,但空调的用电量却比7、8、9、10月份的用电量还要低,PUE值从1.76降低到1.33,节能效果非常巨大。3、数据中心水处理系统与能耗的关系大型数据中心通常采用冷水机组作为机房冷源,因此数据中心的水系统(冷却水及冷冻水)对于数据中心而言极为重要,其安全可靠性直接关系到数据中心的

14、运行。不仅如此,水质也直接关系到节能的问题,例如北京地区水质较硬,当水系统中的结垢现象很严重时,空调系统的能耗也随之增加。冷却水与空气接触进行热交换的同时也将空气中的污染物带入系统,进而会影响设备的正常运行。空调的冷却水系统易受到结垢,腐蚀,污垢,微生物等问题的困扰。其主要原因是冷却塔在通过水的蒸发将热量带走的同时,水中的离子浓度会不断升高,进而会加剧系统设备和管道的结垢、腐蚀。另外,在满足一定的温度、阳光、空气等条件时,水中会滋生很多微生物,微生物的存在会影响系统设备和管道的正常运行。在空调专业上将冷却水出水温度与制冷剂的冷凝温度之差称之为冷冻机趋近温度。当冷水机组内的铜管干净时,该差值小也

15、即趋近温度低;反之,当铜管有水垢粘附时,差值大也即趋近温度高。趋近温度越高,空调压缩机需要额外多做功压缩制冷剂,产生额外的电耗。根据实际运行中的统计,趋近温度每增加1C,冷水机组即增加3%勺能耗。此外,当趋近温度达到7c时,会对冷水机组的运行造成非常大的危险。因此实时的检测水系统的水质并自动进行加药处理对数据中心的水系统尤为重要。水系统自动检测及自动加药设备通过在线的、实时的控制,可以严格地控制水的电导率,控制电导率在合理范围内,根据电导率大小自动控制排污阀的开或关,使补水量更精确,从而达到节约用水的目的。下面以实例说明自动水处理系统在节电、节水方面所取得的效果。某数据中心在采用自动水处理系统

16、前遭遇冷冻机组结垢、微生物滋生等问题困扰,造成趋近温度升高,最高时达到6.5C,产生了严重的能源浪费和运行风险。经过自动处理系统后,现趋近温度稳定在1C以下。在处理前,冷水机组耗电量为202kw。处理后,在相同的负荷下,耗电量降为170kw。在采用“Freecooling”技术的前提下,冷水机组每年运行7.5个月计算,则一年节约用电为:(202-165)kW*24h*225d=199800kWh。4、 数据中心运维能耗分析1、提高机房环境温度。国内机房运行温度普遍偏低。我国关于机房的国标规定,A级机房的温度为23C24Co通常情况下机房管理人员将此温度设为机房精密空调的回风温度。那么,精密空调

17、的出风温度通常是18C19Co但随着芯片技术的不断提高,芯片耐高温性能也在不断更新,IT设备可正常运行的温度也在不断地提高。国外有越来越多的数据中心设计和管理人员将机房精密空调的出风温度设置到27Co据估算,制冷参数变化1C,可能会产生5%10的能耗变化。止匕外,提高机房环境温度还可以延长节能装置(例如“FreeCooling”免费冷源)的使用时间,提高精密空调送风温度和提高冷冻水出水温度。2008年ASHRAE出了推荐的机房环境温度,如下图所示。图中红色线条区域为推荐的环境温度。在最新的白皮书数据处理环境热指南(thermalguidelinesfordataprocessingenviro

18、nments)中,该温度又有了提高。ASHRAE所给出机房环境温度是经过国际上主流IT设备供应商确认的,也就是说该机房环境温度并不与IT设备供应商的要求相抵触。The2008recommendedenvironmentalenvelopeisshowinredinthefigurebelow.HFRAfWTCWHGWETRICCHARTMQ13SEALEVEL、薛I'IMDOO3i#一一I18g中也幅2m国电u用桔门IWtSIGB.70DryBi«j:m一阳u-山.未卜UWrHEnE94rLHE.-3hMMEK-ST«QtZL;aHTheseenvironmentalenvelopespertaintoairenteringtheITequipment一LFJ/i/r7Genera

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论