伴随年初微软支持的ChatGPT大火,以及谷歌、Meta等一众竞争对手快速推出大语言模型(LLM)和生成式人工智能竞品,AI俨然正在快速推进至人类生活的更多方面,相关需求也水涨船高。
鲜为人知的是,AI大火还带动了数据中心成本飙升,最新报道便点明:“与运行人工智能数字运算相关的能源使用,正迅速成为数据中心费用上涨的关键驱动因素。”
对人工智能的需求飙升,令一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。
据全球最大商业房地产服务公司之一的世邦魏理仕(CBRE Group)统计,数据中心客户囊括了小型企业到大型云服务供应商,目前消耗电力的速度快于数据中心运营商扩展容量的速度。由于人工智能用例的增加,供应限制日益严重,这为数据中心收取的价格带来了上行压力。
例如,在拥有超过275个设施的全球最大数据中心市场——美国北弗吉尼亚州,今年可供租赁的电量从一年前的46.6兆瓦减少至38.4兆瓦,降幅高达17.6%,而总体电量库存实际同比增长了19.5%至2132兆瓦,主要由于用于训练生成式AI模型的GPU功耗很大且在快速增加。
此外,与AI需求相关的额外功率还需要辅以更先进的硬件冷却系统,这些制冷系统不仅能耗很高,往往比传统的空气冷却器更昂贵且占地面积更大,均属于人工智能推高数据中心价格的动因之一。
同时,在AI需求旺盛的当下,数据中心客户支付的电费也更为高昂。市场研究公司Synergy Research Group的首席分析师John Dinsdale坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。
据世邦魏理仕统计,今年前三个月,美国北弗吉尼亚州的数据中心客户每月每千瓦电力支付的费用高达140美元,比一年前的130美元增长了7.7%。在硅谷,数据中心的空置率目前处于接近历史低点的2.9%,客户每千瓦每月最高电价攀升至250美元,较去年的175美元猛增了43%。
据介绍,人工智能应用程序比传统软件消耗更多的能量,因为它们旨在读取更大量的数据。几天之内,单个人工智能模型可能会消耗数万千瓦时的电力,而生成式AI模型可比标准AI工具再大100倍。市场研究公司Enterprise Technology Research今年对约500名企业IT决策者进行了调查,其中有一半以上都表示,计划评估、部署或投入更多资源用于类似ChatGPT的生成式AI技术。
还有分析指出,由于许多云供应商也租赁数据中心的空间,随着越来越多的公司采用生成式人工智能,不断上涨的数据中心成本可能会导致更高的云计算费用。鉴于生成式AI工作负载需要更多的计算,势必更广泛地影响数据中心的能源效率和冷却系统,即影响会遍及行业的方方面面。
据兰洋科技的科普文章,业内普遍认为,数据中心能耗高、能耗增长快,占我国能源消费比重逐年提高。数据中心的能耗消费特点是较为集中,除IT设备外,制冷系统等辅助设施能耗比例高:
“IT设备使用的电力最终会转化为热量,数据中心必须通过使用同样消耗能源的冷却设备去除热量。平均而言,冷却系统和服务器占数据中心能耗的大部分,其次是网络设备和存储驱动器。”
而能耗也直接与运营成本相关。据咨询机构Tirias Research建模预测,到2028年数据中心功耗将接近4250兆瓦,比2023年增加212倍,数据中心基础设施加上运营成本总额或超760亿美元。
这堪称“生成式AI颠覆数据中心”,其增长对新兴服务(例如搜索、内容创建和结合生成式AI的业务自动化)的商业模式和盈利能力都提出了挑战,成本更是亚马逊AWS年运营成本的两倍多。
该机构称,生成式AI带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。
为了降低成本,该机构建议,可使用高度优化、甚至是更简单、更专业的小型神经网络模型来降低数据中心成本,方法是减少云端的模型规模,将海量参数网络用于快速训练较小的模型,并将工作负载完全移出云端,从而将生成式AI应用程序更加经济高效地分发给智能手机、PC、车辆和移动XR产品等分布式平台上运行:
“五年前,各公司在年度Hot Chips半导体技术会议上开始对数据中心功耗敲响警钟,当时预测全球计算需求可能在十年内超过全球发电总量。那还是在生成式AI迅速采用之前,而生成式AI有可能以更快的速度增加计算需求。
天下没有免费的午餐——消费者会要求更好的生成式AI输出,而这将抵消效率和性能的提升。随着消费者使用量的增加,成本将不可避免地攀升。将计算转移到边缘,并将其分配给PC、智能手机和XR设备等客户端是降低资本和运营成本的关键途径。”
相关标签: