英伟达、AMD罕见携手,众多厂商大秀AI硬核实力

全球半导体观察 2025-10-16 13:33
英伟达、AMD罕见携手,众多厂商大秀AI硬核实力图1


2025年OCP全球峰会期间,AMD、Arista、ARM、博通、Cisco、HPE Networking、美满电子、Meta、Microsoft、英伟达、OpenAI和甲骨文等十二家公司宣布成立ESUN工作组(Ethernet for Scale-Up Networking)。


英伟达、AMD罕见携手,众多厂商大秀AI硬核实力图2


值得一提的是,上述厂商中,AMD与英伟达互为AI芯片市场竞争对手,两家大厂加入同一阵营引发业界极大关注与好奇:OCP以及ESUN工作组能带来什么?众多厂商又在这场盛会中带来了哪些创新产品与技术方案?



AI时代,OCP与ESUN工作组要做什么?


资料显示,OCP(Open Compute Project,开放计算项目)由Facebook(现已改名为Meta)于2011年联合英特尔、Rackspace等公司发起,旨在通过开源硬件设计推动数据中心创新。OCP核心使命是降低数据中心成本与环境影响,提供高能效的服务器、存储及基础设施设计。经过十余年发展,OCP已成为全球最大的开源硬件社区之一,会员企业超过500家,涵盖芯片厂商、服务器厂商、云计算及互联网巨头。


OCP全球峰会每年举办一次,今年主题为“引领AI的未来”(Leading the Future of AI),聚焦开放协作与标准化,旨在构建更统一、更高效率的全球数据中心架构,让业界能以开放生态的方式应对AI时代的运算与能源挑战。


OCP已设立数据中心基础设施、服务器、存储等10个技术项目组,ESUN作为新分支,聚焦AI网络垂直领域,完善开放计算标准体系。


业界指出,ESUN工作组旨在通过开放的以太网,挑战AI集群内部被专有协议垄断的高速互联市场。


AI训练集群的网络需求分为Scale - Out(横向扩展)与Scale - Up(纵向扩展)。Scale - Out用于连接不同机柜、不同楼宇的服务器;Scale - Up则是单台服务器内部多个GPU、TPU之间的超高速互联,要求亚微秒级延迟、无损传输、每秒数TB的吞吐。过去,该市场被专有协议垄断,使用了某家加速器,需要配套使用网络方案,不同方案互不兼容,存在成本高、生态碎片化等问题。


在这一背景下,ESUN聚焦搭建开放论坛,由运营商、设备商、芯片厂共同制定Scale-Up网络以太网方案。开放的设计打破了锁定,厂商议价将更为灵活,可根据工作负载特点,自由组合不同厂商的芯片、交换机、光模块。同时,开放标准也降低了创新门槛。厂商不用从零开始设计架构,直接基于OCP规范开发产品,能更快进入市场。


随着AI算力竞赛愈演愈烈,ESUN作为OCP开源出来的新规范,为庞大的AI芯片互联,提供统一的标准,并降低成本,巨头们携手合作,既是商业利益的考量,也有望在未来持续助力AI产业发展。



厂商秀肌肉,GPU、液冷散热等放光芒


本届峰会上,围绕AI主题,多家大厂展出创新产品或解决方案,涉及GPU、AI服务器、液冷散热、存储器等。


01

英特尔推出下一代数据中心GPU


英特尔宣布推出下一代数据中心GPU,代号为Crescent Island,聚焦推理和代理智能(Agentic AI)优化,旨在提供最佳的经济效益和性能。


该款GPU采用通用可编程GPU IP XC3 IB构建,具备低功耗特性,搭载LPDDR内存,并在存储器容量和带宽方面实现良好平衡。 另外,Crescent Island优化「预填充」工作负载,具备较佳的计算优化和内存容量/带宽组合,预计于2026下半年开始送样。


02

英伟达展示未来AI工厂愿景


会上,英伟达正式发布《800 VDC Architecture for Next-Generation AI Infrastructure》白皮书,揭示了其“AI工厂”愿景,包括NVIDIA Vera Rubin NVL144 MGX新世代开放式架构机架服务器、新世代800伏特直流电设计,以及扩大的NVIDIA NVLink Fusion生态系统。


英伟达在最新的Vera Rubin GPU平台与Kyber系统架构中,首次采用800VDC供电体系,单机柜功率从200KW升至1MW。业界指出,800VDC即800V高压直流电源架构,可使电流降低15倍以上,在有限空间内实现更高算力密度、更低能耗。


英伟达表示,在NVIDIA Vera Rubin NVL144 MGX新世代开放式架构机架服务器的规格方面,超过50家MGX伙伴正为此开展准备工作,同时为NVIDIA Kyber提供生态系统支持。NVIDIA Kyber可连接576颗RubinUltra GPU,以满足日益增长的推理需求。超过20家产业伙伴正展示新一代芯片、零部件与电源系统,以及对百万瓦级新世代800伏特直流电(VDC)数据中心的支持,这些数据中心将支持NVIDIA Kyber机架架构。 


此外,NVIDIA NVLink Fusion正加速发展,包括英特尔与三星晶圆代工加入NVLink Fusion生态系,涵盖定制化芯片设计商、CPU与IP伙伴,助力AI工厂快速扩展,以处理模型训练与代理型AI推理等高强度工作负载。


03

AMD展示全新“Helios”机架级平台


AMD公开展示了其面向人工智能与数据中心市场的全新“Helios”机架级平台,标志着该公司正式进军机架规模(Rack-Scale)系统领域。该系统将整合AMD Instinct GPU、EPYC CPU以及全新的开放互联架构,为行业提供面向未来的AI平台。


Helios将搭载即将推出的EPYC “Venice” CPU与Instinct MI400加速器,其中EPYC Venice预计采用Zen 6架构,强化多芯片互联与内存带宽;MI400系列延续CDNA架构路线,将支持更高效的矩阵运算单元和改进的多GPU扩展性。同时,Helios引入了快速断开式液冷系统,可在不拆卸主机组件的情况下进行维护,从而提高数据中心的运行效率。


值得一提的是,AMD正与甲骨文合作,将上线一个大型数据中心集群,该集群将使用数万枚AMD最新的AI芯片,两家公司计划在2027年及以后扩大合作关系。


04

纬颖/纬创、Frore Systems秀液冷方案


随着AI大模型发展,AI芯片性能持续提升的同时,功耗也在以每代1.5-2倍的速度增长。传统风冷散热效率达到极限,液冷技术凭借高效散热与节能优势,逐渐成为AI应用的新选择。


峰会期间,纬颖携手纬创展示了新一代AI服务器以及先进直接液冷(Direct Liquid Cooling)解决方案。


纬颖与纬创是首批提供NVIDIA GB300 NVL72系统的合作伙伴之一。该款液冷、机柜级AI系统,搭载72颗NVIDIA Blackwell Ultra GPU,并配备NVIDIA ConnectX-8 800Gb/s SuperNICs,为推理模型提供强大的运算性能。此外,两家公司还展示了NVIDIA HGX B300、AMD Instinct™ MI350系列GPU系统、双宽机柜架构等新一代AI系统。


在先进液冷技术方面,展示了四大系统,包括:


 双面液冷板(Double-sided Cold Plate)展出专为未来高功率IC打造的双面液冷板,可同时为AI加速器与其搭配的垂直电源供应IC提供最高达4kW的散热能力。结合纬颖自有微流道设计以及先进的电化学3D打印技术,预期可将散热效能提升最多达40%。


● 两相液冷板(Two-phase Cold Plate):针对采用不导电环保冷媒的两相直接液冷系统,纬颖推出专利的3D打印wicking‐fin液冷板设计。系统可利用相变机制强化散热效率,并降低因漏液造成的停机时间,为大规模液冷AI与高效能运算(HPC)提供高效、高可靠度的解决方案。


● 300kW AALC Sidecar:与Shinwa Controls Co.,Ltd合作开发的双机柜宽AALC(Air-Assisted Liquid Cooling)系统,进一步提升AALC散热能力,同时提供高可靠度与易维护性,让数据中心在不更动既有基础设施的情况下,即可部署液冷AI机柜。


● OCP Future Technologies Symposium:纬颖与Fabric8Labs将发表“采用电化学3D打印微流道、支持超过350W/cm2超高热通量的新世代液冷板


此外,Frore Systems同样发布了面向AI数据中心的创新方案:LiquidJet™液冷板,旨在释放GPU的更高性能。其制造工艺及结构设计抛弃了传统冷板的2D切削工艺,采用了Frore首创的、适配金属晶圆的半导体制造工艺,打造出极致复杂的3D短回路喷射通道微结构,可实现:在40°C进水温度下,热点功率密度提升2倍达600W/cm2;功率密度(KW/Ipm)提升50%;压降降低4倍;定制化设计,精准匹配任意系统级芯片(SoC)功率分布;便于直接升级替换。


Frore Systems介绍,LiquidJet™液冷板具备性能提升与成本优化的特点,能降低GPU温度,每秒处理更多AI令牌,消除热降频;同时TCO更低、PUE更优,将冷却开销转化为竞争优势。


05

大普微展示核心存储产品矩阵


AI蓬勃发展离不开海量数据的支撑,数据的存储、读取速度以及管理的便捷性,直接影响着AI模型的训练效率和运行效果。为AI工作负载提供高效、稳定、大容量的存储解决方案,成为推动AI进一步发展的关键因素。

本次峰会上,大普微展示了先进的存储技术,为AI基础设施提供高性能存储解决方案。核心产品矩阵包括:

● J5060 122TB QLC SSD:针对AI和大数据时代海量的数据存储需求,大普微J5060作为全球范围内率先量产的超大容量122T QLC SSD,为构建PB级AI数据湖等提供了理想选择。它为读密集型AI工作负载提供更高性能,同时显著降低数据中心的能耗、空间占用和总拥有成本 。

● H5100 30TB TLC SSD:兼具高性能与大容量的主力产品,H5100为AI模型训练和混合读写负载提供了卓越的稳定性与耐久性。


● X5900低延迟SLC SSD:作为最新一代Gen5 SCM SSD,X5900为应对AI数据缓存、元数据管理等延迟敏感型工作负载,凭借18/5μs的读写延迟最大化提升AI计算效率。


06

立讯技术展示高速互连、光通信等成果


立讯技术展示了其在高速互连、光通信、热管理及电源技术领域的最新成果。


其中,448G/224G共封装铜(CPC)解决方案呈现极低的信号衰减、高密度封装及优异的机械稳定性——充分体现铜互连技术在下一代交换机与服务器中的关键应用价值。


224G CPC实时打流演示,通过立讯技术自研CPC设计,实现每通道224G的稳定数据传输,直观呈现高流量负载下无间断的信号完整性与抗干扰能力,为数据中心互连向224G及更高速率演进搭建关键桥梁。


此外,立讯技术还展示了下一代电源方案,高能效Power Shelf、Busbar,以及能耗更低、散热性能更优、专为高密度AI算力机柜量身定制的PSU产品。


通过现场演示、新品发布及专家演讲,立讯技术全面呈现其一体化技术生态如何为下一代人工智能、超大规模数据中心及云数据中心提供核心支撑。


07

勤诚首次展出概念机柜方案


勤诚在峰会现场展示了多款创新产品,包括符合OCP DC-MHS架构的模块化机壳、与NVIDIA合作的MGX服务器机箱,同时也首次展出机柜方案。


● OCP DC-MHS:此次展出适配DC-MHS的解决方案,显示对于新一代CPU平台的支持,以及配合AI Inference的应用扩展。


● GB300及MGX:此次展出的GB300机种致力于协助AI大模型的训练、MGX 4U CX8则致力于协助AI中小模型的训练及推理应用。


● 客制化机柜:勤诚于今年起切入机柜解决方案的业务,本次展会亦首次展示了OCP 21英寸和EIA 19英寸可互换的「概念机柜」,搭载勤诚的MGX和DC-MHS机箱做整体呈现,显示更全方位的机构方案提供能力。


此外,勤诚透露,今年现场亦可看到多款勤诚与客户联手打造的AI及云端服务器。


08

希禾增材携铜3D打印热管理解决方案亮相


本次峰会上,希禾增材(ADDIREEN)携高性能铜3D打印热管理解决方案亮相。


希禾增材介绍,与传统红外激光相比,纯铜等高反金属对绿激光的吸收率极高。采用绿激光金属3D打印,可以更高效、更精密地打印纯铜散热部件,从根本上解决了AI芯片散热的材料制造难题。


希禾增材专注于液冷板、散热器、均热板等高导热结构件的研发与制造,该公司微通道液冷板解决方案依托绿激光技术,能在冷却流道内实现高度复杂的微结构,显著增强散热效率,为新一代AI芯片的高效稳定运行提供保障。


通过与全球行业伙伴的交流与合作,希禾增材将持续推动铜增材制造在新一代计算与能源系统中的应用创新,为构建更高效、更可持续的热管理生态贡献力量。


结语


AMD、英伟达等一众厂商携手合作,彰显了开放协作在应对AI时代运算与能源挑战中的重要性。同时,众多厂商在GPU、液冷散热等领域的创新展示,为AI产业发展注入了新的活力。可以预见,在厂商的共同努力下,AI产业将迎来更加高效、开放的发展新阶段,持续推动全球科技进步与产业升级。


    




声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI AMD 英伟达
more
AMD卖掉50000颗GPU,英伟达暴跌
华硕 ProArt 创 16 2025 新增 AMD 锐龙 AI 9 HX370 + RTX 5080/5090 版本
AMD最新专利:内存带宽翻倍!
极摩客推出 NucBox M5 Ultra 迷你主机:AMD 锐龙 7 7730U,1X99 元
OpenAI大量采购后 AMD Instinct系列GPU也已获得甲骨文订单
【AI治理周报·10月第二期】OpenAI—AMD“6GW算力协议”;欧盟发布“Apply AI”战略
OpenAI多点下注,联手英伟达、AMD、博通,狂揽26吉瓦算力
Nvidia最大客户!微软CTO:自研芯片替代AMD、英伟达
AMD,盯上了互联
英特尔与AMD共庆x86生态系统顾问小组一周年,携手助x86计算迈向新阶段
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号