全球液冷市场规模快速增长

思瀚产业研究院 2025-10-02 12:00

数据中心规模持续提升,散热问题愈发显著

数据中心,指为具备计算能力、存储能力以及信息交互能力的IT应用系统提供集中存放的场所,通过统一标准建设,可实现系统的稳定、可靠运行。随着全球数字化技术、AI技术蓬勃发展,全球数据中心规模快速增长。根据中国信通院、思瀚产业研究院及科智咨询数据,2017年全球数据中心规模为465.5亿美元,预计2027年将达到1632.5亿美元,期间复合增长率达13.4%。

数据中心电能利用效率(PowerUsageEffectiveness,PUE),指数据中心总耗电量与数据中心IT设备耗电量的比值。PUE越接近1表明用于非IT设备耗能越低,数据中心绿色化程度越高。

数据中心高效冷却技术的发展迫在眉睫。数据中心产业快速发展的同时,也带来了能耗大幅增长的问题。据《中国数据中心能耗现状白皮书》,2015年全国大数据中心的耗电量已达1000亿kWh,相当于三峡电站全年的发电量;2018年数值迅速爬升至1609亿kWh,超过上海全年的社会用电量。

根据2020年国家工信部公布的《全国数据中心应用发展指引(2020)》,全国在用超大型数据中心平均PUE达1.46,大型数据中心平均PUE为1.55;2021年7月工信部公布《新型数据中心发展三年行动计划(2021-2023年)》,到2023年底新建大型及以上数据中心PUE降低到1.3以下;2022年7月国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下;2023年4月,财政部、生态环境部、工信部联合印发《绿色数据中心政府采购需求标准(试行)》中提出,2023年6月起,数据中心电能比不高于1.4,2025年起数据中心电能比不高于1.3。

全球数据中心市场规模(亿美元)

全球液冷市场规模快速增长图1

资料来源:中国信通院、科智咨询、中商产业研究院、思瀚产业研究院、国信证券经济研究所整理

风冷散热效率难以匹配,液冷方案成为数据中心散热更优选择

风冷散热效率逐渐难以匹配数据中心功率,绿色数算及芯片效率使液冷技术成为未来发展趋势。数据中心最初依赖风冷系统散热,随着数据中心的超大型化和高密度化发展,数据中心功率快速提升:当前X86平台中央处理器(CPU)最大功耗已达400W,图形处理器(GPU)功率突破700W,网络介质访问控制(MAC)芯片功率更达到800W量级。

英伟达DGXA100服务器在训练ChatGPT模型时,单服务器功率突破6.5kW,较传统服务器提升16倍,NVL72单柜已经超过120kW。这种功率的跃升直接导致芯片热流密度超过120W/cm²,远超风冷散热极限。热力学模拟显示,当芯片结温超过75℃时,其故障率将呈指数级增长,迫使散热技术必须实现从空气对流到液体传导的根本性转变。

此外,风冷系统通常需要大量的风扇和空调设备,约占数据中心能耗的43%,PUE较高。2023年三大运营商联合发布的《电信运营商液冷技术白皮书》明确要求,2025年新建数据中心液冷应用比例需高于50%,直接推动液冷技术从试点转向规模化部署。

根据科智咨询,2027年我国液冷数据中心市场规模或突破1000亿元,2019-2027年复合增速高达51.4%。

液冷具有换热效率高、节能、减少噪音等多重优势

液冷技术是指使用液体取代空气作为冷却介质,与发热部件进行热交换,利用液体的温升或相变带走热量的技术。

液冷技术的优势主要体现在:液冷换热效率更高、液冷服务器的安全可靠性更有保障、液冷方式节能效果更加优异、液冷方式降低机房噪音、液冷方式支持高密度部署等。

液冷换热效率更高:液体的体积比热容是空气的1000-3500倍,导热系数是空气的20-30倍,同等空间液冷的冷却能力远高于空气。

液冷服务器的安全可靠性更有保障:利用液体的比热容大或相变潜热的优势,可实现对发热元器件的精确制冷,且在突发高频运行时不会引起CPU温度瞬间大幅变化,还允许芯片超频运行,性能可提升10-30%。

液冷的节能效果优异:液冷中心冷却系统采用中高水温即可完成散热需求,可实现全年全地域自然冷却,传统风冷在大部分地域需开启制冷压缩机,液冷相比传统风冷节能20-30%以上,冷板式PUE低至1.2以下,浸没式PUE低至1.1以下。

液冷降低噪音:减少了服务器风扇及空调风机高速运转的噪音,浸没式液冷机房噪音可降至60dB以下,实现“静音机房”。

按照冷却液与服务器接触方式不同,可分为间接冷却与直接冷却,间接冷却一般为冷板式,直接冷却包括浸没式和喷淋式。其中冷板式与浸没式按照冷却液介质是否发生相变又可分为单相与双相。

液冷路径主要包括冷板式、浸没式、喷淋式

冷板式液冷是目前应用最广的方式,浸没式散热效率最高。根据科智咨询,冷板式液冷应用更加普遍,2022年冷板式液冷应用比例达91%,是现阶段及未来较长一段时间的主流液冷技术形式,冷板式液冷数据中心已形成相对成熟的解决方案,通过冷板和冷量分配单元CDU(CoolingDistributionUnit)带走IT设备80%的热量,不需要对数据中心机房进行大规模改造,但解热能力上限仍不如浸没式液冷。

浸没式液冷应用比例达8%,冷却液介质需直接与设备接触,兼容性较差,专用机柜对于管路要求高,维护复杂,冷却液介质如氟化液售价高昂且使用量较大,整体运维成本较高,但浸没式液冷解热能力更高且噪音最小。

液冷技术商用条件逐渐成熟,实践案例不断增多

液冷技术的商业化实践逐渐增多。当前我国液冷技术正在快速发展并已经拥有规模化的商用案例,这与我国数据中心规模不断扩大且单机柜功率密度不断提升有关。阿里巴巴、百度、腾讯、华为、中科曙光等IT企业已有成熟的液冷技术应用案例,阿里云早在2016年就发布了其首套浸没式液冷系统,并于第二年完成了浸没式液冷集群的构建;在其后的2018年,阿里云建成首个互联网液冷数据中心;到2020年,阿里云又打造了中国最大规模的单相浸没式液冷数据中心暨全国首座5A级绿色液冷数据中心。同时,阿里云还与合作伙伴一起,在2021年发起成立了浸没液冷智算产业发展论坛,以协同技术创新、实践积累来驱动生态繁荣,推动整个液冷产业的发展。

中国液冷技术商用化实践代表案例

阿里巴巴拥有全中国首座绿色等级达5A的仁和液冷数据中心,数据中心采用了服务器全浸没液冷、高压直流(HVDC)、供配电分布式冗余(DistributionRedundancy)、智能AI优化算法等多项节能技术进行规划设计与建造,规模约3万台服务器。设计年均1.12的PUE值也印证了仁和液冷数据中心领先的能效及绿色节能水平。

中科曙光液冷技术早于2011年便开始探索,历经“冷板式液冷技术”、“浸没液冷技术”和“浸没相变液冷技术”三大发展阶段,于2016年率先在全国开始浸没式液冷服务器大规模应用的研发,2019年实现全球首个大规模浸没相变液冷项目的商业化落地。截至目前,曙光拥有液冷核心专利近50项,部署的液冷服务器已达数万台,居国内市场份额之首。据统计,若全国50%新建数据中心采用曙光浸没式相变液冷技术,每年可省450亿度电,减排3000万吨二氧化碳。

华为云乌兰察布液冷数据中心采用的是间接蒸发冷却技术,充分利用自然冷源实现散热,全年开启空调压缩机的时间不到30天,实现机房的节能,数据中心的整体PUE低至1.15,达到了行业领先水平。联想联想Neptune海神液冷散热系统,通过使用50℃的温水给数据中心的计算系统散热,使数据中心运行效率提升50%。海神液冷散热系统可以在一般数据中心基础架构的限制范围内,提高机架和数据中心密度;提供极高的数据中心冷却效率和性能;同时显著降低能源成本,数据中心PUE可小于等于1.1。

京东云华北(廊坊)数据中心整机柜冷板式液冷技术将室外冷源直接注入服务器主板芯片进行冷却,达成系统去冷机化。CPU散热由冷却液通过室内板式换热器换热后,可直接利用室外冷却塔进行散热,实现全年运行PUE低于1.1,基础设施能耗节省可达30%,对应碳排放总量减少10%以上。

浪潮信息于2021年建立了液冷数据中心研发生产基地-天池。天池是领先的液冷创新中心,满足了浪潮不同规格液冷服务器的各项研发、生产、测试需求。

中国联通石家庄绿色智算中心采用浸没式液冷,芯片满功耗平均核温为65±2℃,PUE≤1.1,在灵活扩容、模块组装、安全可靠的前提下,结合现金的温控系统和管路布局等设计,有效解决服务器高热流密度的散热难题。在复杂环境和空间受限等非理想条件下实现全链路集成快速部署。

更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。

全球液冷市场规模快速增长图2
全球液冷市场规模快速增长图3 关 于 我 们  全球液冷市场规模快速增长图4
思瀚产业研究院
 Chinasihan.com
中国产业研究领导者
添柴鹏城  未来之城  创新之都  励精图治

报告订购定制化联系方式:
 · 联系电话:4008087939    0755-28709360
· 客 服 微 信:g15361035605 
· 客 服 Q Q :454058156
· 邮箱:chinasihan@126.com

·官方网站: Chinasihan.com



声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号