插上东数西算的翅膀,“液冷时代”能否让理想照进现实

数据包 2022-06-24

数据中心电子制冷

3111 字丨阅读本文需 7 分钟

6月24日,炎炎夏日,空调可以帮助我们摆脱酷热的煎熬。你是否想过,数据中心也需要“开空调”?液冷科技大胆让“机房进水”,给数据中心降降温。

IDC、浪潮信息、清华大学全球产业研究院联合编制的《2021-2022全球计算力指数评估报告》显示,计算力指数平均每提高1个点,数字经济和GDP将分别增长3.5‰和1.8‰。目前我国算力资源呈现“东部不足、西部过剩”的不平衡局面,应运而生的“东数西算”工程有助于解决绿色能源与算力需求的时空错位问题。

从“东数西存”到新赛道“东数西算”,液冷技术是“双碳”背景下推进数据中心发展绕不开的话题。液冷技术究竟是什么,又能从哪些方面为中国的绿色低碳转型赋能?

1、数据中心为什么需要液冷

随着数字技术向经济社会各领域全面持续渗透,全社会对算力的需求不断提升,预计每年将以20%以上的速度快速增长。为提供更多算力,数据中心正在向高密度方向发展,数据中心规模也不断扩大,根据《2021—2022年中国IDC行业发展研究报告》,截至2021年底,中国在运营IDC机柜数量达到216.9万架。

不过,数据中心属于耗能产业,其规模的扩大带来了不断增长的用电量,根据统计,截止去年5月,我国数据中心年用电量已占全社会用电的2%左右,产生了大量的碳排放。为确保实现碳达峰碳中和目标,国家及多个地方均推出了相应的政策法规及举措,对当前衡量数据中心能效利用率的主要指标PUE提出了明确的要求。

《新型数据中心发展三年行动计划(2021-2023年)》表示,到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下;“东数西算”工程中,要求内蒙古、贵州、甘肃、宁夏,4处枢纽设立的数据中心集群PUE控制在1.2以内;京津冀、长三角、粤港澳大湾区、成渝,4处枢纽设立的数据中心集群PUE控制在1.25以下。

为保证建设及改造的政策合规性,数据中心需要从多个方面进行节能减碳,其中,制冷系统耗能巨大,仅次于IT设备,提升制冷效率成为降低PUE、实现节能减碳的重要手段。

传统风冷解热极限相对较低,散热效果受自然冷源、气候天气等环境因素影响大,在数据中心机房密度提高,关键芯片及相关零部件功耗不断攀升的当下,想要提升制冷效果,实现安全运维,就需要增加相关设备,用能便会进一步提高,难以满足各地数据中心对低PUE值的追求。

液冷则在高效制冷方面有着天然优势。据资料,液冷技术是指使用液体取代空气作为冷媒,与发热部件进行热交换,带走热量的技术,相较于风冷技术可有效提升服务器的使用效率和稳定性。

姚勇指出,相较于传统风冷,液冷具备强冷却力,冷却能力是空气的1000-3000倍,可实现超高密度制冷,这能大幅降低数据中心PUE,根据曙光实验室的数据,传统风冷的PUE值多在1.5以上,冷板液冷的PUE值可小于1.2,曙光浸没相变液冷的PUE值能低至1.04。

结合相应的运维系统,液冷还能够进行精确制冷,可以实现部件级制冷,温度恒定,保证元器件高性能、稳定工作,这提升了制冷效率,有效降低了制冷成本。运营过程中,液冷没有压缩机与风扇,噪音可低于50dB,对周边生态更加友好。

同时,液冷受环境因素影响小,几乎可部署在任何地区,且能够全天候提供稳定供冷,实现高效制冷。中国电子节能技术协会秘书长吕天文表示,数据中心的建设最基本的要求就是普适性,液冷对环境要求极低,只要有电力供应,网络带宽充足,在绝大多数地区都能够部署,具备极强的适应性,符合数据中心建设需求。

基于以上特性,不论是出于政策合规的考量、对低PUE的追求,还是出于绿色发展的需要、单机柜功率密度对高效制冷的要求,数据中心都将大力引入液冷,数据中心进入液冷时代。

2、数据中心需要什么样的液冷

数据中心引入液冷技术是大势所趋,但具体到企业在选择液冷时,却不能只看技术上的特性。数据中心具有投入大、运营时间长的特点,对于一项技术的应用要考虑多种因素,包括对企业效益、运维情况、整体布局上的影响等,数据中心需要的液冷,不仅是能够推动节能减碳的技术,更是能够符合企业发展需要的方案。

从实际出发,技术的引入是否有利于数据中心的判断依据主要集中在两方面:

一是技术成熟度,这是数据中心应用新技术的基础。数据中心对安全运营有着极高的要求,在电能、制冷等方面都应持续稳定的供应。引入的技术需要足够成熟,不能因此带来安全隐患。同时,不同的数据中心在建设、运维等方面的需求也不尽相同,新技术想要实现大范围的应用,就必须处于成熟阶段,以满足差异化的需求。

二是成本问题,这是数据中心能否引用新技术的决定性因素。对新技术的引入、研发等存在成本,且对新技术的应用还会对数据中心的运维、布局都将造成影响,成本会进一步提高,而新技术带来的效益一旦存疑,企业在引入新技术时也就会犹豫,乃至搁浅。

以此来看,数据中心需要的液冷技术,一方面要有足够的成熟度,另一方面则是能够降本增效。姚勇表示,随着服务器芯片的功率从100W、200W增长到今年下半年的350W、400W,服务器功耗将翻倍增长,单机柜功率密度也因此从最早设定的4KW、6KW,增长到15KW到20KW。在此种情况下,浸没式液冷能够更好地满足技术和成本上的要求,将成为数据中心制冷的主流选择。

技术成熟度上,相关企业已对浸没式液冷进行了长期的实践与研究,形成了完整的贴合数据中心需求的液冷方案,并且以浸没式液冷为基础,结合不同的制冷原理研发出了节能减碳效果更好的方案。

以曙光浸没相变液冷为例,该项液冷技术以液体作为冷媒,将设备内部的CPU、内存、电源系统等发热部件产生的热量通过相变换热的方式转移出IT设备,再与水做热交换,最终将热量排出,以达到良好的降温节能效果。据统计,若全国50%新建数据中心采用相变液冷技术,每年可省450亿度电,减排3000万吨二氧化碳。

成本上,相同条件下,传统风冷数据中心投资最高,冷板液冷数据中心初投资低于传统风冷数据中心,浸没式液冷数据中心全周期成本更低,初投资仅高20%,后期运行电费降低,三年可达投资平衡。

同时,浸没式液冷能有效降低运营成本,在同等IT容量40MW的数据中心中,与风冷相比,浸没式液冷节约的电费是风冷的2倍。并且,浸没式液冷可有效提升业务运营能力,在同等总进线容量120MVA数据中心上,相较于风冷,浸没浸没式液冷IT服务能力可提高18.3%。

谢华根据实践还指出,采用浸没式液冷服务器,在同等规模的情况下,可大幅减少机柜数量、机房面积及支持区面积。

通过一系列对比,浸没式液冷已经具备了大规模应用于高密度数据中心的基础与条件,在数据中心密度不断提高的情况下,浸没式液冷将成为数据中心主要制冷方式。

3、不能忽视的三大挑战

毋庸置疑,液冷数据中心依然处于起步阶段,商业化进程在加速,过去几年取得了可喜成绩。不过,液冷仍然受制于成本、技术成熟度、生态等因素,亟待市场取得突破。

其一,需求的复杂性和差异性对于液冷数据中心的产品、技术和解决方案等层面带来极大挑战。例如,新建数据中心规划起点高,通常选择会比较容易,像冷板式、沉浸式液冷等方案均为不错的选择;但亦不能忽视很多已有数据中心的液冷改造难度,这部分数据中心往往是根据风冷模式来设计,如何降低这些数据中心的液冷改造成本就成为影响液冷普及推广的关键挑战。

其二,场景复杂化和部署规模化对于产品形态、厂商交付能力的考验。众所周知,数实融合的加速,带来极其丰富的应用场景需求,反应到数据中心层面就是异构计算、智慧计算成为主流,高密度服务器、AI服务器、通用服务器等各种服务器设备大量并存,需要液冷数据中心厂商拥有各种类型产品来满足差异化需求。

而像一些新建数据中心则对于规模化交付、部署提出了极高要求。例如,东数西算工程启动了10个国家数据中心集群,规模化、规范化和高水平的要求,对于液冷数据中心的交付能力极为考验。

其三,液冷数据中心通常需要室内和室外循环两次带走热量,涉及到的设备、部件数量众多,部件之间的兼容是液冷数据中心大规模推广的关键。然而,目前液冷数据中心的标准匮乏、生态割裂,亟待市场各方力量加速推动标准的完善和生态的稳步建设。

某数据中心领域专家直言:“需要尽快推动液冷行业标准的建设,对发热设备、器件、冷却液、液冷设备和运维等方面统一要求。市场需要牵头者带动产业链的伙伴,提升行业共识度。”

无疑,液冷数据中心现阶段的发展需要市场破局者,在强大研发能力和产品交付能力的基础上,携手产业链上下游合作伙伴,推动液冷标准的完善、产品的联合创新和解决方案的构建,从而让液冷数据中心真正实现理想照进现实。

来源:中国IDC圈,中国新闻网,大数据在线

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:数据包
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...