严瀚:创所未有,节能典范—艾默生SDC2智惠之道

发表时间:2016年6月19日

来源:

——艾默生网络能源热管理解决方案部 严瀚  总经理

创所未有,节能典范—艾默生SDC2智惠之道

 

演讲视频链接下载:http://pan.baidu.com/s/1eRGQbmE 密码:64j4

 

各位领导各位专家大家下午好,我是艾默生公司的,今天非常容幸跟大家分享对数据中心产品,这个产品不但新建数据中心可以使用,而且在大规模在老旧数据中心进行改造,跟吕秘书长讲的对数据中心节能非常的契合。今天主要介绍一下这五个方向,首先数据中心节能的方向,我们可以看一下这张图大家可能看到很多次,一个2.0能效比的数据中心,大概空调系统是PUE2.0的话,空调大概可能占到0.7%这样的PUE因子,空调系统采用各种节能方法,很多数据中心能做到1.31.2,空调系统对数据中心节能的贡献很大,如果空调系统的节能继续往下走,比例更樗高,我们一直认为要坚持高可靠的供电系统加高节能的空调系统,这可能也是我们空调的一个普遍的一个共识。空调系统节能方法,我们在这里大致罗列,主要的方向大家有共识,采用自然冷却,不管什么样的系统,我们都要采用室外自然冷源方案,这点上国外的很多先进的UPS建在北极等等,他们这方面利用很好,而我们国家由于地理位置限制,大部分的地区可能自然冷没有北极那么冷,大家所以说我们利用自然冷大幅度提高他的高温下的自然冷的时间,这个也是我们空调努力的一个方向。另外一个就是高能效的技术,比如电机的变频,压缩机的变容量技术,这个对数据中心很大的一个变化,传统的数据中心用的是定冷量的压缩机,这种定冷量的压缩机不能随着机房的负荷发生精确的调整,如果这个发生比较大的变化,机房的节能效果也会达到很好,其次,冷冻系统有一个很好的方法,比如提高水温,可以提高冷水主机的效率,另外包括水泵的变流量系统。另外是温湿度的控制,我们大部分关注的是温度,湿度没有得到很好的关注,我曾经到很多机房,他们的房间温度控制的是比较好,但是湿度因为他追求极致节能,冷冻水的水温打的很高,比如水温供到14度,冷冻水空调失去了除湿能力,整个房间在夏季湿度在70%-80%,除不下来,冬天湿度很低,要采用大规模湿膜加湿方法,所以湿度控制在数据中心是一个缺失的状态,要达到号的湿度控制的话,这个能耗的投入比较大的,另外在机房的送风气流组织上,现在模块化也是大家的共识,采用一些封闭通道,模块化的气流组织方法,实现系统的节能,我们做个试验,采用封闭通道可以把PUE降低一部分,还有智能的控制,现在有些厂家在做冷机的智能群控,包括机房的节能策略,但是并没有一家做的特别好,艾默生不但是空调商,我们是监控的厂家,我们空调的部门专门有一个控制的一个开发的团队,来做空调方面的控制,所以说,我们综合起来可以看到利用自然冷和按需制冷,不管哪种方式是空调发展的一个方向。我们看一下现在比较高大上的数据中心的方案,首先新风解决方案,我们做的很早,我们在瑞典给Facebook定制了数据中心,在香港给NTT也作了全回风的数据中心,采用风墙的方式,气流通过封闭通道进入机房,在通过专用通道回到机房,如果用新风的话过滤以后再进入到通道里从屋顶排出去。这是谷歌的一个数据中心,利用新风的一个方式,我们可以看到他的一个问题,问题在那里?楼顶放了很多的空气处理单元,过滤网要求很高,我们在国内进行了一些相关的设计,一个大概8000千万的一个数据中心如果采用采用化学过滤成本非常高,一次性投入2500万,以后每年的过滤更新也需要500万,有可能节省电费,完全不够支出化学过滤的成本,另外对于如果不采用化学过滤或者系统控制相当复杂,这是我们对全新风的数据中心做的控制图,对于室外的二氧化硫的控制器,包括对通道里面的风压,包括排气阀的风压,包括整个机柜的温湿度控制,包括调节风机的控制,是一个非常大的系统,包含非常多的控制点和控制的内容,这个其实并不是简单的空调,我在这边用一个蒸发分离可以解决,里面隐含了很多控制的技术,所以新风方案对于空气温度、对空气的质量要求非常高,系统自控要求非常高,在我们国家很大部分的地方不太适合这种方案。

 

冷水系统比较常见,也是我们数据中心最常见,但是冷水系统有很多问题,不是很普世,我们看到这是一个我们客户的一个机房,他规划的很大,但是他一提到运行了5年以后,他的负载率达到50%,他原来计划的冷机为之一直在这里,远远达不到设计的效率,PUE3以上,非常高。冷机对承重、建筑面积有要求,他专门给冷机,要单独修建房间修建承重两非常大的东西,必须放在实地,他的承重要求很高,冷却塔要放点楼顶,对楼板的每层的承重有很大要求,这是一些故障抢修照片,这是冷却塔在冬天动裂以后,要在雪地里面连夜进行焊接,包括补漏等等,包括系统阀门的抢修,冷却塔出现问题需要吊装,两边如果有行人,这个吊车的高度首先楼的高是特别高,而且其次你这个旁边的行人安全,走路是不是有影响,可能需要市政去规划,整个冷水系统复杂度很高,对运维的要求也很高,并不适合每一个数据中心,另外还有一个问题就是水的一个问题,绿格组织有个指标WUE,是数据中心水资源的利用指标,这个情况我们现在目前的数据中心并没有太多的关注。我们先看一下一个15000千瓦的数据中心15兆的数据中心耗水量是多少。亚马逊自己的数据中心的曝光出来的一个数据,他们一个15兆瓦数据中心,每年消耗1亿3000万加仑的水,接近50万吨的这样一个规模。这么多的水资源能干什么?可能大家比较抽象,大概相当于我们水立方奥运标准的游泳池221个。如果那来浇田有多少?可以灌溉1100多亩地,我们喝2500毫升的水,供545000人喝水。数据中心有两路供电过来,水一般是同一个水厂供过来,不可能收两路水管,投资成本很高,我们已经有客户出现数据中心冷冻数断水以后怎么办,消防车送水的方式,但是这样大规模的用水不可能支持,只有小型的数据中心有可能通过这种方式应急使用。

 


我们在这方面早已经意识到这些问题,我们已经做很多工作,这个是我们在云南、贵州做的母亲水调的活动,为云南贵州一些地区无法喝到干净的水的一个工程,开展很多年。其实水资源,大家想云南应该是水充分的地方,但是水资源在空间、时间维度都是不均衡,云南在夏天已经连续四年出现干旱,有1700多万人饮水困难,在数据中心夏天的水蒸发量是很大的,在空间、时间维度有很多矛盾。我们开发了很多基于少用水或者不用水的解决方案,就是今天我分享的艾默生SDC2这个方案。

 


SDC2我们标准具有一个压缩机模式地具有一个室外的节能模式,压缩机模式有非常大的创新,里面的风机采用了EC风级,还有变频泵,整个都是全变流量,能效比传统的空调高很多,在室外温度低于10度的时候,关掉压缩机,用泵来运行,达到一个非常高的能效状态,在压泵模式低于20度的时候,提高整个空调的制订量,降低能耗,达到自然冷的效果,基于温度24度定,如果回风温度提升到30度,相应的开启压泵时间达到2526甚至更高,我们在这个温度机组在压泵模式上,非常明显。这是机组能效比随室外温度变化的关系图,而我们的能效比最高在零下10度可以达到15以上,这个节能效果非常明显,这边是我们的一个测试报告,在焓差实验室里面的数据,在北京地区AER达到6.8,空调系统不考虑电加热的情况,本身达到PUE接近1.2

 


这个是根据我们投资的价值,在广州以北地区,三年以内投资的回收价值,在我们国家全部的地区都有普世的价值,而且我们基于SDC2做了很多优化,数据中心的发展方向,不但包括自然冷,而且精确的按照数据中心的需要制冷,所以我们团队包括我们变频板的技术,基于我们的高回风温度,还有送风温度控制,结合我们在做的成功一个美国一个案例,可以结合远端地板下的静压,包括服务器的功率等,精确调整系统的输出,在负荷比较低的情况下,在高温情况下,优先使用泵循环满足机房的制冷量,在泵无法满足的情况下,我们可以启动变冷量的压缩机。所以说这种节能的理念也是非常的完美。这个是我们在上海的一个客户实践的一个结果,实验室里面实测到的一些效果,100%的压缩机,100%输出, 回风温度30度时,机组能效比可以达到3.8,压缩机负荷在80%,回风温度28度,机组能效比是3.6,负荷50%,可以达到3.1,这个很精确,屏蔽了原来系统随着机房的负荷造成了压缩率过大的情况,这种控制的方案是未来发展的趋势,也是我们努力的一个方向。

 


最后一点介绍一下我们艾默生的SDC2的综合的优势。这个项目是我们在大连做的一个案例。这个案例单个场地安装了75100千瓦的SDC2空调,所以整个机楼的空调系统全部采用SDC2,楼顶安装了非常多室外机,会不会出现局部散热不良情况,我们在这方面有给客户做了很多的指导和工作,我们采用CFD仿真进行模拟,算出来哪个地方有局部高温,根据这个情况对室外机的摆放、安装等等进行优化,所以最终可以保证系统的安全运行和正常的交付。SDC2空调我们也看到它是一个全风冷的系统,压缩机的泵柜完全分离,而且全自动控制,所以它的投资是更灵活,我们一个大的数据中心负荷开始只有30%,这个时候我们上30%一个空调,负荷上到50%我们再加20%,负荷100%再增长到100%,所以投资方式会更灵活。同时扩容也更加方便,不但新数据中心,老旧的数据中心也可以扩容,他的适用性更强,适合我们国家各个地方的数据中心,刚才我们可以看到有数据中心有室外机冻裂的情况,在数据中心防冻也是一个问题,很多机房在维度很高的地区依然采用冷冻水系统,在冬天就需要进行防冻,加入乙二醇以后,对真个系统的能效比会有很大影响,因为乙二醇的换热性能是低于水的。黑龙江有一个数据中心冬天用锅炉,锅炉先烧媒,从而保证冷水塔不出现结冰现象,我们消耗很多资源,这方式其实我们是因此更加注意,所以说SDC2这种防冻功能更加的普世,更加的高效,工程也更简单,整个系统室外、室内只要管道连接就可以,管道长度比较长,我们做了很好的案例,负落差40米,在这以往风冷系统无法想象,这种以前是用水泵来解决的,我们现在因为SDC2泵柜起扬尘作用,我们一个客户良好运行几个月,性能是非常稳定,工程实施起来更简单,适应更大的范围,可靠性比其他的系统更高,因为他有很多的小压缩机,每个压缩机系统都是一个完全独立的系统,他坏了以后机房有N+1的备份,不会对数据中心安全出现问题,另外控制也更加的智能,我们有机组本身的控制器全自动切换,根据室内负荷、温度进行调节,可以更加好的实现变冷量的输出,节能降噪环保都是做的更好,耗电更少、耗水也更少,噪音比较少,可以采用环保冷媒,运维其实更简单,因为整个系统他只需要由我们进行全包干的维护,我们全生命周期的成本是可估的。其他系统可能集成了很多其他厂家的设备,工程量占很大比重,而我们这种系统主要维护就是机器本身,所以说他的全生命周期的运维更加简单,所以SDC2是我们众多客户普世性的方案,是一个更加实惠的选择,这就是今天给大家介绍SDC2空调。

 


数据中心节能技术委员会为数据中心领域提供展示空间和交流平台

 

上一篇  唱响绿色数据中心节能主旋律

下一篇  何继盛:数据中心能耗与节能技术的发展