首页>>新闻资讯>>行业动态

数据中心空调系统该如何节能?

2024-09-09 10:42:27 22

据统计,数据中心能耗已占全社会总用电量的1.5%~3%,其中空调系统耗电量占数据中心总耗电量的30%~50%[1]。因此,如何提高数据中心空调系统能效,实现绿色节能运行,已成为业界关注的焦点。本文将从负荷计算、系统选型、节能策略、案例分析等方面,探讨数据中心空调节能的途径与实践,以供相关从业者参考。

(示意图,不对应文中任何具体信息)一、数据中心冷热负荷分析1.1 负荷构成

数据中心的冷热负荷主要来自以下几个方面[2]:

(1)IT设备散热:服务器、存储、网络等IT设备的发热量,是数据中心冷负荷的主要组成部分,占比可达70%以上。

(2)照明散热:数据中心内照明灯具的发热量,一般占冷负荷的3%~5%。

(3)人员散热:值守人员的代谢热和设备维护过程中的散热,占比较小。

(4)围护结构传热:机房围护结构的传导、辐射等得热或失热,在负荷中占比5%~10%。

(5)新风负荷:引入新风所需的显热和潜热处理,在夏季制冷时需考虑。1.2 负荷计算方法

数据中心冷热负荷的计算要点如下[3]:

(1)IT设备散热量:根据设备额定功率、数量、机柜布置等因素估算,可乘以同时使用系数(0.5 1.0)。

(2)人员散热量:按每人 120W 计算,乘以人数和在场时间比例系数。

(3)围护结构传热量:依据机房建筑材料、面积、温差等,采用传热学方法分别计算得热和失热量。

(4)新风负荷:根据新风量和室内外空气状态计算显热和潜热负荷,一般按每机柜 100~300m³/h 新风量设计。负荷计算时应对上述各项分别估算,然后以最不利工况叠加,并考虑一定裕量,最终确定空调系统的设计负荷。

二、数据中心空调系统选型2.1 冷源形式

数据中心冷源形式主要有风冷、水冷、蒸发冷等。风冷具有投资省、布置灵活等优点,中小型机房较常用;水冷具有效率高、噪声小、运行稳定等优势,大型数据中心普遍采用;蒸发冷适合干燥地区,可大幅节约用水[4]。冷源形式应根据数据中心的规模、气候条件、水资源等因素综合选择。2.2 空调方式

数据中心的空调方式大致分为机房级和列间级两大类[5]。

(1)机房级空调:将冷量直接送入机房内,常见的有空调机组、close coupled 空调器等。

(2)列间级空调:在机柜列间设置空调设备,如冷通道封闭空调、行级制冷机等。与机房级相比,列间级空调可实现局部冷量匹配,免去冷热通道隔离,节省机房净空。

列间级空调更利于模块化、按需部署,是现代大型数据中心的主流趋势。2.3 末端形式

数据中心的空调末端主要采用冷却盘管和送风口两种[6]:

(1)冷却盘管:安装在机柜后门或侧面,利用冷冻水带走 IT 设备的热量。水路系统简单可靠,可实现机柜级的冷量调节。

(2)送风口:与机房级空调配套使用,将冷风直接送入冷通道或机柜内。气流组织灵活,可根据 IT 负荷进行送风量和温度的优化控制。末端形式的选择要兼顾机房布局、热源分布、施工条件等因素。大型数据中心一般采用上送下回的方式,利于气流组织。三、数据中心空调节能问题数据中心空调的能效为何如此之低?通过对当前数据中心的研究发现,大多数数据中心的空调系统都存在着如下一系列的设计问题。1、系统整合难、切换难、维护难。为了服务器工作人为营造低温环境,完全采用人工制冷,没有利用自然冷源自然冷却。改进冷源形式往往是最为经济有效的节能方法,制冷机在空调系统中耗电最大,以冷却塔免费供冷代替制冷机,依靠自然冷源提供冷量,会使空调系统的整体运行能耗大幅下降,是效果显著的节能途径。而在实际应用中,采用自然冷源存在系统整合难、切换难、维护难的特点,所以目前国内只有少部分的大型数据中心成功有效的使用了该技术。2、没有充分利用空调系统的诸多节能技术。空调系统中节能效果突出的余热回收、蓄冷、变风量、变频等技术,在数据中心中很少采用。因为数据中心所其提供服务的特殊性,数据安全是首要因素,宕机是不允许出现的情况。空调系统作为服务器正常工作的保障,管理者更关注其制冷能力是否有足够的冗余量,某台空调发生故障时能否及时开启备用设备,对设计的要求必然保守。而节能技术需要积少成多、其效果需日积月累才能体现,如果担心某技术对空调的稳定性可能产生影响,往往倾向于不采用。3、空调设备制冷量与实际负荷的匹配存在问题。机房内的机架通常是逐步投入、不断扩容的,而空调负荷与气流组织则是建设阶段对机房整体考虑设计的。运行初期投入使用的机架数少,空调系统部分负荷下运行,效率不高。而后期投入使用的新型的机架,往往功率更大,发热密度更高,却受制于机房现有格局,不能被摆放在气流组织有利的位置。这样,随着机架不断进场,机房内始终冷热不均,管理者只能调低空调机的温度设定值,造成过度制冷,导致空调能耗居高不下。4、设计选用的空调机型参数与机房运行时的真实热工况存在偏差。据调查发现,目前约 85%的数据中心空调机组耗能比设计工况高 50% 以上。现行数据中心设计均参照的是国标《电子信息系统机房设计规范》及美国 TIA-942 标准,精密空调机组的设计运行温 / 湿度为 23℃±1℃/50%,加之现有精密空调生产厂家所提供的室内机回风工况参数多为 24℃/50%。故空调设计时多按照此工况点进行选型。而服务器机架的发展趋势是高度集成化,单个机架的功率越来越大,机柜出风口温度很高,实际运行中很容易出现局部温控点温度超标的现象,应对办法就是将空调机组设定的回风温度 24℃ 调低。假如调低空调机组设定温度 2℃, 那么按回风参数24℃ 选型出来的空调机组对应 22℃ 的工况点,直接膨胀式空调压缩机 COP 值会下降约 7%,显冷量会下降 8%~19%,冷冻水式空调机组的显冷量会下降 13%~16%。因机房负荷全部是显热负荷,则能耗增加了大约 15%~25%。若继续调低空调机运行工况参数设定点,对应的能耗会呈现非线性的增长。( 5)精密空调机组温湿度一起控制的模式,造成了先除湿再加湿的能耗浪费。在干球温度 23℃,相对湿度 50% 的室内状态点,露点温度为 11.9℃,空气经过表冷器时降温除湿。而机房运行过程中基本无散湿量,所以空气湿度降低,超过设定下限后空调自动开启加湿功能,此时加湿器给空气等温加湿,增加了空调潜热冷负荷,空调能耗显著上升。

四、数据中心空调节能策略4.1 面临的问题

传统数据中心普遍存在以下节能问题[7]:

(1)设计裕量过大,造成能源浪费。早期数据中心常按 IT 负荷的 2~3 倍设计冷源,实际运行效率低。

(2)冷通道温度设置过低,制冷能耗高。传统数据中心多将冷通道温度控制在 20℃以下,而 IT 设备可适应更高温度。

(3)冷热通道混合,局部热点时有发生。由于气流短路、通道隔离不彻底等原因,冷热空气掺混,降低送回风温差。

(4)缺乏智能控制手段,无法精确调节冷量。分散独立的空调系统缺乏协同优化,易出现冷量误差。针对以上问题,数据中心空调节能应从需求侧和供应侧两个方面入手,通过负荷匹配、温度优化、气流组织、智能控制等措施,最大限度地提高系统效率[8]。4.2 具体措施

(1)右移制冷:适当提高冷通道温度,现行标准推荐不低于 25℃,可明显降低制冷能耗。

(2)自然冷源:合理利用外界自然冷源,如采用间接蒸发冷却、plate heat exchanger 等,减少压缩机耗电。

(3)热管背板:机柜背板内置热管换热器,将 CPU 等高热密度部件的热量有效导出,改善机柜温度场均匀性。

(4)冷热通道封闭:采用柜间空调、冷通道封闭等方式,彻底隔离冷热气流,提高回风温度。

(5)局部冷却:对热点区域实施重点冷却,避免局部过冷。如采用机柜列间空调、in-row 空调等。

(6)智能群控:通过各空调机组间的协同控制和优化调度,匹配冷量供应与 IT 负载需求。

(7)温湿度优化控制:根据机房实际热湿负荷,动态调节送风温湿度,减少过度除湿和再热能耗。

(8)变频调速:冷水泵、冷却塔风机等采用变频调速,根据负荷需求调节运行频率,避免过量供冷。

(9)废热回收利用:对机房排风进行热回收,如用于冬季取暖、夏季再生除湿等,提高能源梯级利用效率。

参考文献:

[1] Shehabi A, Smith S, Sartor D, et al. United States data center energy usage report[R]. Lawrence Berkeley National Lab.(LBNL), Berkeley, CA (United States), 2016.

[2] ASHRAE TC9.9. Thermal guidelines for data processing environments-expanded data center classes and usage guidance[J]. Whitepaper prepared by ASHRAE technical committee (TC), 2011, 9: 9.

[3] 赵飚,何坤,黄海波.数据中心暖通空调设计要点分析[J].暖通空调,2018,48(09):81-85.

[4] 徐昌庆.云计算数据中心绿色节能技术研究[J].制冷与空调,2019,33(04):347-353.

[5] Zhang H, Shao S, Xu H, et al. Free cooling of data centers: A review[J]. Renewable and Sustainable Energy Reviews, 2014, 35: 171-182.

[6] Khoshhala M, Nourian A, Keshtegar B. Optimizing energy consumption of an air-cooled chiller with cooling tower using GMDH-type neural network[J]. Journal of Building Engineering, 2021, 43: 103131.

[7] Rong A, Hakonen H, Lahdelma R. Efficient heat and cooling energy production in data centers[C]//Proceedings of the 10th IASTED International Conference on Power and Energy Systems. 2008: 130-135.

[8] Oro E, Depoorter V, Garcia A, et al. Energy efficiency and renewable energy integration in data centres. Strategies and modelling review[J]. Renewable and Sustainable Energy Reviews, 2015, 42: 429-445.

版权声明:本文由HETA小编整理,文章观点不代表本公众号立场,转载请注明来源。鼓励进步 | 转发传递友谊本微信公众号是HETA(换热器专委会)的官方微信,致力于成为业界专业信息传播平台。欢迎参加分享,投稿/留言信箱:reporter@craheta.org,请附上媒体+姓名,实名或匿名发表。

微信号|CRAHETA

微信名称|制冷空调换热器

HETA ·

相关标签:

发表评论:

评论记录:

未查询到任何数据!