首页>>新闻资讯>>行业动态

PUE是什么?说说数据中心和PUE丨mdp是什么缩写

2023-08-22 11:38:14 92

1、什么是PUE?

数据中心诞生的那天起,高耗能仿佛就成为数据中心的“原罪”。因此谈数据中心,就不能不谈PUE这个名词。PUE的英文全称是Power Usage Effectiveness,又叫电源使用效率。PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比。

PUE = 数据中心总设备能耗/IT设备能耗

PUE是一个比率,基准是2,越接近1表明能效水平越好。PUE的值越小,就说明数据中心的电大部分都被服务器、网络设备、存储设备消耗掉。

打个简单的比方,2018年度有一个数据中心用了10000度电,那么数据中心2018年度总设备能耗就是10000度电。经过实际测算,服务器、网络设备、存储设备这些真正提供数据服务的设备消耗了5000度电,也就是说IT类设备的能耗是5000度电。而另外的5000度电被数据中心的空调、照明等其他配套的设施消耗掉了。

那么这个数据中心的PUE就是=10000度/5000度=2

这个PUE为2是什么概念呢?我们从成本支出的角度来看这个PUE,如果1度电1块钱的话,2018年你为数据中心付出了10000元的电费,而你的那些提供IT服务的设备花费了你5000元的电费,而另外的5000元用在了空调、照明那些七七八八的配套设备上。

通常情况下,当一个数据中心开始稳定运行后,电力成本可以占整个数据中心日常运维支出成本的50%-60%。很多大型的数据中心一个月电费少则几十万,多的要几百万,电费是日常运维中一笔非常大的开支。对于数据中心来说,最理想的状态就是只有IT设备消耗电能,空调照明这些配套设备尽可能少的消耗电能。

假如一个PUE为2 的数据中心每月电费是500万,如果把PUE从2降到1的理想状态,也就是说整个数据中心就只有IT设备在耗电,那么每月将可以节省下250万的电费,一年就是3000万,这是一个非常可观的数据。因此从数据中心诞生之日起,追求PUE的下降就成为一个重要的课题。而国内外大型的互联网公司,更是不断追求将PUE降至接近1,也就是机房完全不用开空调,所有的电力全部供应IT设备。正因为这种追求的存在,才会不断出现海底数据中心、北极数据中心。因为依靠自然冷却,从目前来看是最经济的策略。

2、PUE被划入高耗能

十年前,很多一线城市都热衷数据中心的布局建设。而随着近年来绿色能源、节能减排理念的不断深入人心,传统的数据中心不再成为地方政府的香饽饽。由于数据中心耗电巨大,一线城市普遍将数据中心作为“高耗能产业”对待。特别是随着一线城市用地的紧张及数据中心耗电的飙升,近两年来一线城市接连出台文件和政策,控制传统数据中心的落地。

2019年国际环保组织绿色和平与华北电力大学联合发布的数据显示,2018年中国数据中心总用电量超过了上海市2018年全社会用电量。在数据中心的能耗构成中,制冷设备占40%,因此降低制冷系统的能耗是目前数据中心节能、提高能源效率的重点关注环节。

2018年9月,北京市政府公布《北京市新增产业的禁止和限制目录》2018年版指出“全市层面禁止新建和扩建互联网数据服务、信息处理和存储支持服务中的数据中心(PUE值在1.4以下的云计算数据中心除外);中心城区全面禁止新建和扩建数据中心。”

2018年11月,上海市政府发布了信息基础设施的三年行动计划通知,掀起一阵舆论漩涡。事情的根源在于通知里面提到一点:存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。

2019年4月,深圳市发改委发布了《深圳市发展和改革委员会关于数据中心节能审查有关事项的通知》,通知中要求各数据中心建设单位:1、建立完善能源管理体系。包括按季度上报能源利用状况分析报告,重点用能单位建设能耗在线监测系统等。2、实施减量替代。促进老旧数据中心绿色化改造。新建数据中心要按照“以高(能效)代低、以大(规模)代小、以新(技术)代旧”的方式,严控数据中心的能源消费新增量。3、强化技术引导。跟进PUE的高低,新增能源消费量给予不同程度的支持。PUE1.4以上的数据中心不享有支持,PUE低于1.25的数据中心可享受新增能源消费量40%以上的支持。

像服务器、网络设备、存储设备等IT设备的功率在其出厂的那刻起就无法改变,那么要降低PUE,就只有制冷系统这个耗电大户入手了,那么有什么办法压缩这个成本呢?

3、提高制冷的效率

1)气流组织调整

在早期,由于数据中心都坐落在城市中心或者郊区,降低PUE更多的是从提高制冷系统的运转效率入手。比如地板下送风以及冷热通道封闭将两排机柜的通道上下左右封闭起来,所有设备的进风口朝向封闭通道。空调的冷风通过地板下送风的方式送入封闭通道,进而送入设备的进风口。设备的热风排出后,通过气流组织送回空调的回风通道。

实际上,近年来非常流行的微模块机房设计,核心理念都是围绕气流组织的调整来进行。通过整体设计,达到冷资源利用的最大化。

2)建造水喷雾系统

一方面在机房内部不断优化气流组织结构,另一方面在机房外部对空调的外机进行降温。该技术一般是在数据中心楼顶放置空调外机的位置附近,搭建空调冷凝喷雾系统,将雾化水喷淋在空调的冷却器翅片上,提高空调冷凝器散热效率,从而缩短空调压缩机运转时间,实现空调节能。

近年来,随着物联网的发展,水喷雾系统也在朝着智能化发展。比如通过辅助的自动控制系统,远程监控系统以及水回收系统,进一步提高水喷雾系统的使用效率,达到节能减排、降本增效的目的。

3)选址科学化

就像之前提到的,将数据中心建到冷的地方去!我们都知道像贵州的很多城市,夏天实际上都不需要开空调的。比如贵州的贵阳,全年平均气温在10-15度左右,号称夏无酷暑,夏季平均温度为23.2℃,最高温度平均在25-28℃之间,在最热的七月下旬,平均气温也仅为23.7℃,全年最高温度高于30℃的日数很少,被称为避暑胜地。这也是为什么近五年来很多数据中心选择建在贵阳的原因。

4)制冷技术改进

从风冷到水冷。以腾讯数据中心发展的历程为例,其第一代数据中心出现在2007年深圳宝安,它的特征为地板下送风以及冷通道封闭;第二代数据中心,出现在2010年天津,在第一代基础上,采用了离心冷水机组、板换自然冷、新风自然冷以及水蓄冷的技术。就是通过水冷技术,进一步达到节省电能的目的。

5)精细化控制

随着技术的发展,机房运维开始慢慢的从整体到局部。从原来关注机房本体,到深入到机柜本身。一个机房内部,并不是所有机柜都是满负荷安装IT设备的。有的机柜可能整体功耗超过5KW,有的机柜可能功耗还不到1KW,这样不同的机柜需要的冷量就是不同的。通过引入大量的局部监测技术,建立机房冷热场模型,结合气流组织调整技术,进一步提升机房的制冷效率。比如腾讯的第三代数据中心,出现在2012年的宝安四期,这一时期采用了大量的CFD仿真、水平行间送风以及模块化的设计理念。

不过值得注意的是,目前精细化控制实际上应用还不是很多,主要问题就是其成本较高,前期一次性投入较大,需要开发相应的软件及布放大量的微传感器,而后期的维护成本也是偏高。即使像银行等金融行业,也很难在该方面下决心建设。

相关标签:

发表评论:

评论记录:

未查询到任何数据!