近日,中国IDC圈发布了2025年全球最大的10个数据中心,这些数据中心主要由AWS、微软、Meta等科技巨头运营,其共同特点是规模空前巨大,并且核心驱动力是支撑人工智能(AI)尤其是大模型的训练和推理需求。
根据电力容量(MW)排名,世界上最大的10个数据中心(详细名单在文末):

小编发现,入榜的数据中心都呈现出以下几个显著特点:
0
1
规模进入“吉瓦时代”,投资巨大
电力容量巨大:顶级数据中心的电力容量已从传统的兆瓦(MW)级跃升至吉瓦(GW)级。排名第一的AWS Project Rainier容量高达2200MW(即2.2GW),前十名的门槛也达到了590MW。这反映了AI算力对能源的极度渴求。
占地面积广阔:这些数据中心园区占地面积动辄超过百万平方米,相当于上百个足球场的大小,体现了物理规模的极端扩张。
投资额惊人:单个项目的投资规模动辄数十亿甚至上百亿美元(如Project Rainier投资110亿美元),显示了科技公司在AI基础设施上的巨额押注。
0
2
专为AI工作负载设计和优化
专用AI集群:新一代数据中心不再是通用计算设施,而是专门为AI设计的“AI超级集群”或“AI数据中心”。例如,AWS Project Rainier专门部署了数十万颗自研AI芯片(Trainium2)来运行Anthropic的AI模型。
高性能GPU集群:微软的Fairwater数据中心配备了数万颗NVIDIA的高端GPU(如GB200),并通过“扁平网络”互联,形成一个巨大的逻辑集群,旨在实现前所未有的AI计算性能。
互联成“AI工厂”:微软还将不同地理位置的Fairwater站点通过专用光纤网络(AI WAN)互联,形成一个跨地域的“AI超级工厂”,以打破物理限制,满足超大规模模型训练的需求。
0
3
极其注重绿色与可持续性
100%可再生能源目标:几乎所有提到的数据中心(尤其是Meta的各个园区)都承诺使用100%可再生能源供电,并通过与清洁能源供应商签署长期购电协议(PPA)来支持新建风能、太阳能项目。
先进的冷却技术:为了降低能耗,数据中心采用了高效的冷却方案。例如:
自然冷却:Meta的Prineville数据中心利用当地干燥凉爽的气候,采用空气冷却和雾化喷雾技术,实现了极低的PUE(电能使用效率)值1.06。
高效水冷系统:Vantage Ashburn数据中心采用闭式冷冻水系统并集成节能模式,其水资源利用效率(WUE)接近零。
可持续建设:在建设过程中也注重环保,如Meta DeKalb数据中心回收了高达90%的施工废料。
0
4
高可靠性与冗余设计
高冗余基础设施:为保证AI服务的连续性,数据中心的基础设施(如电力、冷却系统)均采用高冗余设计(如N+2冗余)。
强大的防灾能力:例如,Switch TAHOE RENO数据中心的屋顶系统可以抵御时速200英里的强风,体现了对物理安全的高度重视。
0
5
高度网络互联
高速专用网络:大型数据中心园区通常接入高速专用光纤网络(如Switch的SUPERLOOP),以实现与其他关键数据中心节点的低延迟、高带宽互联,这对于分布式AI计算和数据同步至关重要。
总而言之,2025年的先进数据中心最核心的特征是“为AI而生” 。它们通过吉瓦级的巨大规模、专用AI芯片与架构、对绿色能源和高效冷却技术的极致追求,共同构成了支撑下一代人工智能发展的关键算力基础设施。这标志着一个由AI驱动的新一代超大规模数据中心时代的到来。
运营商:AWS、Anthropic
地理位置:美国印第安纳州,新卡莱尔
电力容量:2200MW
占地面积:486万平方米
投资规模:110亿美元
状态:已投产/扩建中
ProjectRainier是AWS与Anthropic合作开发的AI超级集群,自2024年9月启动建设,并于2025年10月正式投入运营。该项目位于美国印第安纳州,占地1200英亩,规划建设30座数据中心,耗电超过2.2吉瓦,总投资110亿美元,是专为AI工作负载设计的超大规模基础设施。

运营商:微软(Microsoft)
地理位置:美国威斯康星州,芒特普莱森特;美国佐治亚州,亚特兰大
电力容量:2000MW
占地面积:162万平方米
投资规模:73亿美元
状态:已投产/扩建中
Fairwater1(威斯康星):建设中(预计2026年初全面投产)。
Fairwater2(亚特兰大):已投产(2025年10月开始运营)。
Fairwater是微软为大型AI训练与推理专门设计的新一代“AI数据中心”,该设施被定位为“全球最强大的人工智能数据中心”。Fairwater配备了数十万块NVIDIAGB200和GB300,通过一个“扁平网络”连接起来,这些GPU聚成一个巨大的逻辑集群,微软宣称其AI性能可达到当前最快超级计算机的10倍。

运营商:Meta(原Facebook)
地理位置:美国爱荷华州,阿尔图纳
电力容量:1401MW
占地面积:210万平方米
投资规模:超过25亿美元
状态:已投产
MetaAltoona数据中心是Meta(原Facebook)在美国爱荷华州阿尔图纳建设的一个大型数据中心园区,自2013年起开始建设,建筑为两层“H型”结构,电力容量约为1401MW,建筑面积超过46万平方米,总投资超过25亿美元。
该数据中心园区包括PolkCounty数据中心的1号和2号两栋建筑,是爱荷华州中部新园区八个数据中心大厅中最先建设的设施。在能源使用方面,该园区所用电力100%来自可再生能源。Meta与ApexCleanEnergy签署了一份225MW的风电购电协议(PPA),由其GreatPathfinder风电场提供电力。
运营商:Meta(原Facebook)
地理位置:美国俄勒冈州,普赖恩维尔
电力容量:1289MW
占地面积:152万平方米
投资规模:超过20亿美元
状态:已投产
MetaPrineville数据中心是Meta在全球建设的首个自建超大规模数据中心,也是其最重要的基础设施之一。该项目自2010年开工建设,2011年启动运营,投资规模达20亿美元,电力容量为1289MW。它不仅是Meta全球互联网服务的核心支撑节点,也是其推动绿色计算与开源硬件设计的典型项目。
它位于俄勒冈州的高沙漠地区,该地区夏季气温通常在27~32°C之间,高温时甚至会超过38°C。Meta充分利用该地干燥、气温较低的环境设计了高效的空气冷却系统,通过雾化喷雾和外部空气混合来控制温湿度,避免了传统制冷空调设备的高能耗,从而实现PUE1.06。
运营商:Meta(原Facebook)
地理位置:美国得克萨斯州,沃斯堡
电力容量:729MW
占地面积:69万平方米
投资规模:超过15亿美元
状态:已投产
Meta位于德克萨斯州沃思堡(FortWorth)的数据中心园区,IT负载约为729MW,占地约170英亩(约69万平方米),总建筑面积250万平方英尺(约23.2万平方米),包括多个数据中心机房以及行政办公空间。该项目分阶段建设,2015年开工,第一个阶段于2017年运行,整个园区在2023年完工。
作为Meta全球基础设施的一部分,FortWorth数据中心100%使用清洁可再生能源运行,并推动了德克萨斯州约1919MW新可再生能源项目的发展。该数据中心为Facebook、Instagram、WhatsApp等平台提供关键能力,支撑了全球超过30亿用户的应用服务。
运营商:Meta(原Facebook)
地理位置:美国亚利桑那州,梅萨
电力容量:701MW
占地面积:160万平方米
投资规模:超过10亿美元
状态:已投产
Mesa数据中心是Meta在美国亚利桑那州梅萨市开发的一个大型数据中心园区。项目选址于梅萨市的伊斯特马克(Eastmark)社区附近,占地约390英亩(160万平方米),总投资规模高达数十亿美元。Meta在2021年宣布启动该项目,并在2025年正式运营。
Meta通过与当地电力公司合作,投资于新的太阳能和风能项目来实现。Meta与清洁能源提供商Ørsted签订电力购买协议,将通过SaltRiverProject(简称SRP)产出的太阳能为梅萨数据中心供电。这一举措符合Meta致力于其全球数据中心运营实现100%可再生能源的目标。
运营商:Meta(原Facebook)
地理位置:美国伊利诺伊州,迪卡尔布
电力容量:673MW
占地面积:204万平方米
投资规模:超过10亿美元
状态:已投产
Meta在美国伊利诺伊州迪卡尔布建立的一个大规模数据中心园区,自 2020年破土动工,并于 2023年正式投入运营。该园区占地约 505英亩(约 204万平方米),规划总建筑面积为 230万平方英尺(约 213677平方米),最终建设五栋数据中心。
在可持续性方面,MetaDeKalb数据中心与多个风能项目合作。例如,Meta与Enel签订了一份125 MW的长期风电购电协议,以为该数据中心提供可再生电力,该站点的用电完全由100%可再生能源匹配。此外,在建设过程中,Meta回收了高达90%的施工废料,减少了约17600吨建筑垃圾送往填埋场。

运营商:Switch
地理位置:美国内华达州,里诺
电力容量:650MW
占地面积:809万平方米
投资规模:40亿美元
状态:已投产/扩建中
TAHOERENO1:已投产(2017年2月开始运营)。
TAHOERENO2和TAHOERENO3:建设中。
SwitchTAHOERENO数据中心又名TheCitadelCampus(堡垒园区),是Switch位于美国内华达州里诺工业区的超大规模数据中心集群。该园区是Switch庞大PRIME生态系统的一部分,旨在成为全球最大、最先进的托管数据中心园区之一。
该园区采用三重冗余UPS系统,并配备可抵御时速200英里强风的SwitchSHIELD屋顶系统。高容量机柜可实现每柜高达42kW的功率密度。园区还接入Switch的SUPERLOOP,一条500英里、具备多Tbps能力的光纤网络,将太浩雷诺与旧金山、洛杉矶及拉斯维加斯的数据中心互联。

运营商:微软(Microsoft)
地理位置:美国华盛顿州,昆西
电力容量:622MW
占地面积:109万平方米
投资规模:8亿美元
状态:已投产/扩建中
微软在美国华盛顿州昆西的数据中心,也称为科伦比亚数据中心(ColumbiaDataCenter)。该园区占地270英亩(109万平方米),由多栋建筑组成,总建筑面积80万平方英尺(约 7万平方米)。该园区始建于2006年,2007年投入运营,之后不断扩展。
微软Quincy数据中心采用绝热冷却(adiabaticcooling)及传统的冷热通道(hotaisle/coldaisle)隔离策略,使其电力使用效率(PUE)保持在1.4以下。同时,通过附近的GrandCoulee水电站获取电力,微软的电费可低至每千瓦时1.9至2.5美分。

运营商:Vantage
地理位置:美国弗吉尼亚州,阿什本、斯特灵
电力容量:590MW
占地面积:83万平方米
投资规模:超过10亿美元
状态:已投产/扩建中
VantageAshburn是Vantage在北弗吉尼亚布局的大型数据中心综合园区,该园区由多个子园区(VA1/VA2/VA3)组成。Vantage在2018年启动VA1(AshburnI)的建设,2022年和2023年提交VA2(AshburnII)和VA3(AshburnIII)的开发申请,并在2025年完成(VA1第五栋大楼)的封顶。
该数据中心园区采用高效的闭式冷冻水系统,由风冷冷水机组提供冷源,并集成旁路节能模式,可根据室外温度智能调节压缩机负载,大幅降低能耗。所有机电系统均按照N+2冗余设计,得益于最新一代冷却架构,园区的水资源利用效率(WUE)接近为零,进一步提升可持续运营水平。


当前,计算向智算转变,高算力的需求带动主流算力芯片的发展,算力芯片的功耗也随之不断增长,功耗逼近风冷单点散热极限,传统的风冷技术已无法满足高算力、高密度数据中心的散热和算力持续发展需求。
1、什么是液冷?
液冷是指使用液体取代空气作为冷媒,为发热部件进行换热、带走热量的技术。液冷服务器是指将液体注入服务器,通过直接或间接的冷热交换带走元器件发热量的一种服务器。液冷数据中心是指应用液冷技术和液冷服务器等设备的数据中心。

2、浪潮信息的液冷产品?
浪潮信息液冷是以浪潮信息自研液冷服务器和液冷数据中心产品技术为核心的新一代数据中心解决方案。
借助服务器市场的领先地位和先进技术,浪潮信息为客户提供液冷通用服务器、液冷整机柜服务器、液冷高性能服务器和液冷人工智能服务器,并在M7平台全面实现“ALL IN 液冷”,帮助客户规划、设计并建设节能低碳的绿色数据中心。
浪潮信息液冷数据中心最低可以实现PUE低于1.1,并具有节省能耗、节约占地、降低噪音、TCO低、增加装机量、减少地域气候对选址的影响、延长设备寿命、降低元件故障率等众多优势。
3、液冷与风冷数据中心的区别?
(1)设计:液冷无需数据中心机房中的制冷冷机和末端空调,利用液体代替空气,提高了散热效率。
(2)选址:液冷不必因为PUE和运营成本而优选寒冷气象区,可完全跟随业务需求新建或者改扩建,发展潜力更大、适用地区更广。
(3)建设:由于限制最少和政策支持,在业务需求相同的情况下,新建数据中心最适宜应用液冷方案。扩建数据中心需要选定适当比例的空间兼容液冷,提升整体运行效率。改建数据中心则需根据机房楼板承重,视实际情况进行机房的加固,为液冷留出适度裕量。
(4)交付:液冷数据中心的交付需要充分考虑冷却液的运行工况,对于管道、线材、机柜尺寸、承重等也提出不同的要求。
(5)运维:液冷数据中心的运维周期一般为传统数据中心的3-5倍,并且去除了风扇的噪声,工作环境对运维人员更为友好。
4、液冷数据中心PUE能达到多少?
数据中心PUE(Power Usage Effectiveness)与所在地区的气候和数据中心的设计架构直接相关,实际运行过程中更是受到室外环境、季节、负载率、运维管理水平等因素的影响。液冷数据中心的PUE还与液冷占比相关。数据中心完全采用液冷时pPUE可达到1.04。液冷与风冷负荷各占50%时,制冷系统pPUE可达到1.16。
注:此处只考虑制冷系统PUE,供配电、照明等系统PUE一般相差不大,不计入对比。
5、液冷是如何实现降低PUE的?
一个典型的数据中心中,IT设备能耗占50%,制冷系统占30%,其他系统占20%,可见制冷系统是数据中心除IT设备外能耗最大的系统。而制冷系统中,压缩机是能耗最大的部件。
液冷系统通过减少甚至完全取缔带有压缩机的空调机组(如风冷直膨精密空调、冷水机组等),采用功率较小的闭式冷却塔+换热单元(CDU)的形式,降低制冷系统能耗。

6、液冷与风冷的成本及投资收益对比?
由于增加了水管、快插接头、漏液检测、机柜加固等内容,但液冷机柜可以支持的服务器上架满配、同样装机量下可节约50%机柜数量,综合来看,平均一台液冷机柜比风冷机柜增加2万元。由于增加了闭式冷却塔,但减少了开式冷却塔和冷水机组,外部冷源、管路、阀门等系统投资,液冷与风冷持平。
液冷系统投资增加主要体现在机柜层面。液冷占比50%相比全部采用风冷的数据中心而言,PUE可降低0.2,假设总IT负载为5000kW,按风冷规划1000台机柜(单机柜5kW),按液冷规划500台机柜(单机柜10kW),液冷比风冷多投资1000万元。
假设数据中心实际运行负载率50%,则年平均耗电量为5000kW*24h*365*0.5=21900000kW·h,按每度电1元计算,则年总电费为2190万元。
液冷系统年节约电费2190*0.2=438万元,相比于全风冷建设而言,2.28年即可持平,第3年起每年可节约电费438万元,数据中心20年的使用周期内可节约电费8760万。
7、液冷可靠性怎么样/怎么防止泄漏?
从规范看:国内外纷纷出台液冷相关的白皮书、团体标准和行业标准,国内21年底发布了一系列液冷行业标准,22年4月开式实施,说明液冷有规范可依,浪潮信息也是参编单位之一。

从产业看:在行业发展和众多厂商推动下,液冷包括液冷服务器、液冷冷板、冷却液、快插接头等相关产品部件,配套管路、阀门、冷却塔、水泵等通用设备,液冷数据中心具有成熟的产业链体系和生态。浪潮信息凭借数据中心和IT市场多年深耕的积淀,为推动液冷产业的发展做出了极大的贡献。
从工艺看:浪潮信息生产测试中心部署了流体连接器、拉拔力测试仪、气密性检测、内窥镜检测、颗粒度检测仪、负压烘干箱等高精度智能化设备可以满足各项研发、测试需求,为满足液冷产品生产需求,浪潮信息液冷生产测试基地制定了严格的生产工艺及标准,保障液冷产品的可靠性。
从系统看:液冷系统内外两个循环系统均为闭式系统,驱动水泵一般采用双备份的变频水泵,循环系统的运行工况非常稳定;CDU、管路和其他主要器件均会考虑冗余配置,确保任何时候维护更换时不停机;主管路一般采用环型管路,确保任何一个机柜需要的液冷水均可以从二个方向流入。浪潮信息有专业的数据中心团队进行液冷数据中心系统的规划和设计,为客户提供高可靠、高可用、高性价比的优选方案。
从部件看:当前业内液冷板加工工艺以及管路连接技术非常成熟,经过大量的、长时间的测试和验证,泄露风险极低;液冷服务器均采用快插接头,快速插拔不会泄露,使用寿命内支持上万次插拔。

8、如何保证液冷安全?
多种措施保障高可靠:①采用铜冷板,无腐蚀风险;②采用三级漏液检测(节点级、机柜级、机房级),与BMC联动(可选自动关机)
国内液冷服务器市占率第一(IDC 《中国半年度液冷服务器市场(2023全年)跟踪》报告),数万台液冷服务器长期运行无泄漏。
9、液冷泄露了怎么办?
液冷泄露主要有服务器内部、机柜内管路泄露、机房管路泄露等方面。
(1)服务器内部泄露:浪潮信息服务器内部冷板及管路上缠绕漏液检测线,控制芯片嵌入到服务器主板上,一旦检测到泄露,立即告警联动当前服务器节点电源管理断电或告警(模式可自定义设置)。
(2)机柜内泄露:机柜进回液支管可配置电磁阀,一旦检测到泄露可联动报警并切断电磁阀,及时切断故障部分系统运行,避免故障扩散。
(3)CDU泄露:液冷系统一般设置N+1冗余或2N冗余的CDU,当一台故障或维修时,可停机并切断与主管路的连接,其他CDU不间断运行。
(4)管路泄露:管路是系统非常可靠的部件,不止液冷系统,传统冷冻水数据中心以及其他商业工业领域均有大量应用。只要在投运前做好打压、保压测试,实际运行几乎不会发生泄露。
10、液冷数据中心是否需要定期补液?
系统运行时,冷却液有微量损耗,因此需要补液。但是液冷系统内有补液箱,工作时CDU可自动向管路中补液,可以减少冷却液的补液频率。补液箱内有液位传感器,当冷却液存量较少时,可提醒运维人员手动补液。一般来说系统一年需要1~2次手动补液。
11、浪潮信息自研CDU有哪些优势?
(1)溶液检测:选配溶液监测部件,包含电导率、浊度、PH检测;
(2)支持冷备/热备,具有轮巡和层叠功能:CDU可定期自动切换,在冷量不足时自动启动备机,保证可靠性同时延长器件寿命;
(3)二次侧支持0~100%负载调节:可实现全旁通无负载运行;
(4)过滤器在线维护:过滤器可旁通运行,在线不停机维护;
12、老旧数据中心如何改造液冷?
能否改造液冷、以什么形式改造液冷,需要根据老旧机房的实际情况进行评估。老旧机房改造液冷一般有以下几种情况。
(1)屋面或室外空地有一定的空间、有液冷管路的路由,具备一定的冷源改造条件。在这种情况下,主要考虑改造后的节能效果,大幅降低PUE,推荐增加液冷系统所需的闭式冷却塔或干冷器,以及一次侧水泵、水处理装置、水箱等配套设施;主机房内部需按照新的液冷系统规划,布局液冷机柜、风冷机柜、液冷CDU、风冷空调、配电柜等相关设备,增加二次侧管路。新增液冷冷源改造对机房的要求较高,收益也较大,PUE可降低0.2以上。
(2)屋面或室外不具备新增冷源的情况下,如果现有机房采用冷冻水系统制冷,可以利用既有冷冻水同时作为液冷和风冷的冷源,重新规划液冷与风冷机柜的配比,仅需增加液冷CDU和二次侧管道即可完成液冷改造。
冷冻水冷源利旧节能收益稍弱,但可以避免对机房楼、管道井等做大幅度改造,施工难度小、对现有业务影响小。
(3)既不具备新增冷源条件、也没有利旧冷源的情况下,推荐采用风液混合冷却数据中心解决方案,即保持现有机房、空调、机柜等不做大的变动,仅搭配液冷服务器和风液式CDU,只在机柜级做改造,利用现有机房空调制冷,便可以实现液冷服务器的部署。
风液混合冷却数据中心方案适用于改造条件比较差的机房,是一种方便快速部署液冷服务器、解决高密度服务器散热风险的一种解决方案。

液冷数据中心解决方案
13、如何解决液冷改造难的问题?
小规模试点/POC场景,推荐风液式CDU+液冷服务器的“零改造”方案(有代表案例)利旧原有冷源场景,推荐新增液液式CDU+一/二次侧系统的“微改造方案”。无可利旧场景,可提供冷源+MDC+服务器全套新建液冷方案(有代表案例)
14、采用液冷是否会被某个厂家绑死?
OCTC组织牵头四项液冷部件团标,推动液冷行业标准化.支持节点级、机柜级和机房级多种液冷解耦方案
15、浪潮信息液冷给客户带来的价值?
(1)提升上架率:液冷服务器主要发热元件采用冷板+液体流动散热,不受单机柜功率密度和局部热点限制,支持不间隔上架部署,42U机柜最大可支持19台2U服务器上架;
(2)增加装机量:液冷服务器风扇功耗比风冷服务器低(一台780W风冷服务器采用液冷功耗仅695W),同等IT电力容量下,装机量可提升12%;
(3)减少占地:同等装机量下,液冷机柜数量仅为风冷机柜数量的一半,大幅节约机房占地面积;
(4)降低故障率:液冷服务器风扇频率降低、振动影响减小,降低硬盘故障率;液冷服务器排风温度比风冷服务器低约20℃,热敏部件(如光模块)运行环境得到优化,故障率降低90%,寿命提升3倍;
(5)延长寿命:CPU、GPU、VR、内存等高发热元件采用液冷散热,平均运行温度可比风冷散热低10~20℃,保证高性能的同时还能延长使用寿命;
(6)降低噪音:风机是机房噪音的主要来源,服务器采用液冷,风扇频率大幅降低,且机房空调数量减少,噪音可比风冷数据中心低10~20dB;
(7)节约电费:液冷数据中心PUE可低至1.1,比一般的风冷数据中心低0.15~0.3,节约电费、降低运营成本;
(8)社会责任:采用液冷是响应国家双碳政策、体现企业社会责任的途径之一,互联网头部厂商纷纷通过液冷等绿色技术实现企业节能减排。
16、液冷投资收益如何?
整体投入仅增加10%,每年可节省20%电费,2年内收回成本(GPU液冷1年内收回成本)
芯片温度降低10~15℃,风扇转速从70%降低到20%,降低整机振动,硬盘故障率降低30%,提升服务器生命周期2-3年。
来源:CIME国际液冷散热技术展






