
开放计算标准工作委员会: 《2025整机柜服务器产业研究报告》
(完整版.pdf ) 以下仅展示部分内容 下载方式见文末
《2025 整机柜服务器产业研究报告》由中国电子技术标准化研究院提出,联合中国电子工业标准化技术协会开放计算标准工作委员会、浪潮、华为、联想等二十余家产学研机构共同起草,系统梳理了整机柜服务器的产业现状、技术演进、需求场景、设计实践及发展倡议,为行业标准化与生态建设提供了全面参考。
一、算力基础设施背景与产业政策导向
(一)全球与中国算力产业发展现状
人工智能产业的爆发驱动全球算力需求激增。IDC 数据显示,2023 年全球 AI 相关软硬件及服务支出达 1540 亿美元,预计 2026 年将超 3000 亿美元;全球 AI 计算市场规模将从 2022 年的 195.0 亿美元增长至 2026 年的 346.6 亿美元。国内市场同样高速增长,2021 年 AI 服务器市场规模 53.9 亿美元,预计 2025 年将达 103.4 亿美元,复合年增长率 17.7%。
算力基础设施规模持续扩张,截至 2023 年底,我国数据中心在用总规模超 810 万标准机架,算力总规模 230 EFLOPS,位居全球第二,其中智能算力 70 EFLOPS,增速超 70%。预计 2025 年智能算力占比将达 35%,成为算力增长的核心驱动力。新型数据中心呈现三大发展特征:绿色低碳(采用液冷等技术优化 PUE)、集约高效(高算力密度与大规模集群部署)、智能运维(依托自动化与智能监控实现高效管理)。
(二)政策引导方向
国家及地方密集出台政策推动算力基础设施高质量发展,核心聚焦三大方向:一是绿色低碳,《“东数西算” 工程实施方案》要求西部地区数据中心 PUE 逐步降至 1.2 以下,2024 年《数据中心绿色低碳发展专项行动计划》明确 2025 年底新建大型数据中心 PUE 不高于 1.25;二是集约高效,《算力基础设施高质量发展行动计划》提出构建通用、智能、超算协同的算力供给体系;三是技术创新,鼓励液冷、机柜式模块化等先进技术应用,多地出台专项政策支持智算中心与一体化算力网络建设。
(三)整机柜服务器与政策趋势的契合性
整机柜服务器凭借高密部署、高效能效、便捷运维等特性,精准匹配政策导向:其一,高密算力部署可破解数据中心空间限制,单柜功率密度最高达 140kW,支撑大规模算力集群建设;其二,集中供电与液冷系统结合可显著降低 PUE 至 1.1 以下,契合绿色低碳要求;其三,模块化架构支持工厂预装与一体化交付,部署效率较传统模式提升 8-10 倍,适配集约化建设需求。
二、整机柜服务器起源与技术演进
(一)发展简史
现代整机柜服务器可追溯至 1999 年 Google “软木板服务器”,其共享供电与散热的理念奠定行业基础。2010 年代进入快速发展期,历经三阶段演进:
- 形态探索阶段(2010 年代前半程)
:Facebook 牵头成立 OCP 项目,推出 Open Rack 规范,国内 BAT 发起天蝎项目,核心探索 21 英寸机柜与集中供电架构,追求更高部署密度。 - 多元发展阶段(2016 年后)
:Google 加入 OCP 推广 48V 供电,LinkedIn 推出 Open19 聚焦 19 英寸兼容性,微软 Project Olympus 优化运维管理,形成多技术路线并存格局。 - 兼收并蓄阶段(2019 年至今)
:Open Rack V3 支持 OU/RU 双单位高度与 19/21 英寸兼容,国内百度、阿里、京东云推出兼容型方案,液冷技术与 AI 场景加速融合,推动产品形态升级。
(二)典型技术路线
- 机柜本体
:外部尺寸多为 600mm 宽、2.2 米高、1-1.2 米深,内部宽度形成 19 英寸(主流)与 21 英寸(高密场景)两大分支,单位高度兼容传统 RU(44.45mm)与衍生 SU(46.5mm)、OU(48mm)。 - 供电系统
:从分布式 PSU 转向集中供电,电源框集成大功率模块,采用 48V 直流铜排传输,PSU 能效升级至钛金级(96% 以上),部分方案支持双输入冗余与液冷散热。 - 散热技术
:风冷时代以风扇墙集中散热为主,液冷时代转向冷板式与浸没式方案,通过 Manifold(分液单元)与 CDU(冷量分配单元)实现高效热交换,盲插接口简化运维。 - 管理与 ICT 资源
:集成 RMC(机柜管理控制器)实现集中监控,推动 CPU、GPU、存储节点池化,GPU 互连带宽突破 130TB/s,支撑 AI 大模型训练需求。
(三)液冷与 AI 的驱动作用
液冷技术与 AI 需求成为产业升级核心动力:单 GPU 功耗超 1000W 推动液冷成为刚需,整机柜高密度特性与液冷方案天然适配,可降低 PUE 至 1.05-1.15;AI 大模型训练需大规模低时延 GPU 集群,以 NVIDIA GB200 NVL72 为代表的液冷整机柜方案,集成 72 个 GPU 与 36 个 CPU,单机柜功率达 132kW,成为智算集群标准单元。
三、产业需求与典型场景分析
(一)用户需求分层
- 互联网头部与大型 CSP 用户
:追求定制化与极致效率,聚焦业务适配性与成本优化,如 Meta 采用 2OU3Node 节点适配计算场景,百度天蝎服务器强化存储密度适配搜索业务,AI 场景下定向优化 GPU 集群互连与液冷适配。 - 通用行业头部与互联网领先用户
:注重兼容性与可靠性,金融、通信等行业优先选择 19 英寸兼容方案,工行通过冷板式液冷整机柜实现每机柜 80 节点部署,平衡密度与运维可行性。
(二)典型场景需求
- 高性能计算(HPC)
:超算中心、气象模拟等场景需高密多核节点与低时延网络,单机柜功率达 120kW,依赖 54V 集中供电与液冷散热,支持 FP64 高精度计算与海量数据存储。 - 人工智能
:大模型训练需超大规模 GPU 集群,要求单柜支持 32-72 个 GPU,NVLink 互连带宽超 100TB/s,液冷系统覆盖 CPU、GPU 及内存,支持 3D 并行计算与快速模型迭代。
四、技术现状与发展趋势
(一)整体技术特征
当前整机柜服务器呈现七大发展方向:功率密度突破 140kW、液冷散热成为主流、供电效率达 95-97%、网络带宽向 224Gbps 升级、支持 CPU+GPU+TPU 异构架构、智能化运维与预制化交付普及。
(二)关键技术演进
- 机柜柜体
:强化结构强度以承载高密设备与液冷组件,支持抗震 8 烈度与长途运输,兼容不同尺寸节点与散热方案,预留液冷接口与电源框安装空间。 - 供电系统
:电源框单组功率达 36-72kW,PSU 支持双输入与液冷散热,Busbar 采用分段设计,PMC 实现电源状态实时监控与漏液联动。 - 液冷系统
:盲插快接头成为趋势,UQD/UQDB 规范推动互配兼容,CDU 向分布式部署发展,集成变频泵与智能监控,制冷能力达 45-80kW。 - 网络互连
:标准接口方案(AOC/DAC)与盲插背板方案并存,AI 场景采用铜缆背板实现低时延互连,带宽达 224Gbps,支持机柜内全链路高质量传输。 - 服务器节点
:分化为 21 英寸(高密液冷场景)与 19 英寸(兼容场景),冷板覆盖 CPU、GPU 及内存,AI 节点支持多 GPU 集成与快速盲插,存储节点适配 NVMe/E1.S 等新型存储方案。 - 一体化交付
:实现机柜级预制装配,包含服务器上架、布线、调试等全流程,交付效率提升 10 倍,DOA(到货即损率)显著降低,支持机器人运维演进。
五、国内产业现状与设计实例
(一)产业格局
国内整机柜服务器历经两轮发展高峰:2016-2020 年依托互联网头部用户实现规模化部署,2021 年至今受 AI 与液冷驱动,系统厂商加速入局,形成通算与智算双线布局,浪潮、华为、联想等主导市场,产品覆盖金融、通信、超算等多行业。
(二)典型设计实例
- 浪潮信息 ORS6000
:兼容 19/21 英寸节点与风 / 液冷方案,支持双总线盲插,液冷散热比例达 90%,PUE 低至 1.1,提供一体化与解耦两种交付模式。 - 华为三盲插整机柜
:首创水、电、网三总线盲插,单柜功率 60kW+,全液冷设计 PUE 1.15,部署效率提升 4 倍,适配通算、智算、HPC 多场景。 - 宁畅 B8000
:聚焦 19 英寸标准兼容性,支持三总线盲插与全液冷,PUE 低至 1.08,采用 54V 集中供电与 MCR 内存模组,带宽达 8800MT/s。 - 超聚变 FusionPoD
:采用 “上走电下走水” 架构,单柜支持 144 个 CPU 或 64 个 GPU,液冷 PUE<1.10,商用案例超 7 万台,覆盖全球最大液冷集群。
六、倡议与展望
当前整机柜服务器面临标准不统一、生态分散等问题,报告倡议:一是制定覆盖多场景的通用技术标准,兼容风 / 液冷与盲插 / 手动装配方案;二是推广第三方认证评测,提升产品质量与用户信任;三是构建产学研协同生态,加速液冷、高密互连等技术产业化。未来随着 AI 算力需求持续增长与标准化推进,整机柜服务器将成为算力基础设施的核心形态,助力数字经济绿色高效发展。




☟☟☟
☝
精选报告推荐:
11份清华大学的DeepSeek教程,全都给你打包好了,直接领取:
10份北京大学的DeepSeek教程
8份浙江大学的DeepSeek专题系列教程
4份51CTO的《DeepSeek入门宝典》
5份厦门大学的DeepSeek教程
10份浙江大学的DeepSeek公开课第二季专题系列教程
6份浙江大学的DeepSeek公开课第三季专题系列教程
资料下载方式
Download method of report materials


如需获取更多报告
报告部分截图

编辑:Zero

文末福利
1.赠送800G人工智能资源。
获取方式:关注本公众号,回复“人工智能”。
2.「超级公开课NVIDIA专场」免费下载
获取方式:关注本公众号,回复“公开课”。
3.免费微信交流群:
人工智能行业研究报告分享群、
人工智能知识分享群、
智能机器人交流论坛、
人工智能厂家交流群、
AI产业链服务交流群、
STEAM创客教育交流群、
人工智能技术论坛、
人工智能未来发展论坛、
AI企业家交流俱乐部
雄安企业家交流俱乐部
细分领域交流群:
【智能家居系统论坛】【智慧城市系统论坛】【智能医疗养老论坛】【自动驾驶产业论坛】【智慧金融交流论坛】【智慧农业交流论坛】【无人飞行器产业论坛】【人工智能大数据论坛】【人工智能※区块链论坛】【人工智能&物联网论坛】【青少年教育机器人论坛】【人工智能智能制造论坛】【AI/AR/VR/MR畅享畅聊】【机械自动化交流论坛】【工业互联网交流论坛】
入群方式:关注本公众号,回复“入群”

