电子发烧友网综合报道,随着单芯片性能的不断提高,AI芯片的功率飙升至数千瓦级别,需要更加搞笑的散热来保证芯片的稳定运行。最近市场有消息传出,英伟达已要求供应链伙伴开发一种名为MLCP的新型液冷技术,旨在解决未来新一代GPU等芯片的散热问题。MLCP的全称为Micro-Laminar Cold Plate,是一种高度集成的微通道液冷解决方案。它源于NVIDIA对AI芯片热密度急剧上升的应对策略。传统风冷系统早已不堪重负,而现有液冷技术虽能处理高功率,但通道尺寸较大、集成度低,导致热传导效率不足。MLCP则通过在芯片封装或金属盖上蚀刻微米级水道,实现层流冷却。简单来说,MLCP将原本独立的组件——芯片金属盖、水冷板、蒸汽腔和封装层——融为一体。水道宽度缩小至微米级别,类似于人体毛细血管,能更均匀地抽取热量。这种设计借鉴了微流控技术原理:液体在狭窄通道中流动时,湍流减少,热交换效率提升30%以上。NVIDIA已指示相关供应链优先开发此技术,预计首批样品将于2025年底出货。从工程角度看,MLCP的核心在于“微通道蚀刻”。通过精密激光或化学蚀刻,在硅基板或铜质盖子上刻出平行微沟槽。这些沟槽直径仅为数十微米,液体(如去离子水或专用冷却剂)以低压层流方式通过,避免了传统涡流造成的压力损失。同时,MLCP支持双向冷却:上层微通道负责主芯片热源,下层可扩展至内存和电源模块。这种一体化设计不仅减少了接口热阻,还降低了整体体积——据供应链消息,MLCP单元厚度可压缩至传统液冷的1/3。早期英伟达GPU依赖于风冷散热,通过散热鳍片和风扇进行散热。但风冷散热效率明显低于液冷,随后英伟达在Hopper架构GPU中引入了冷板技术,通过铜板导热至外部液体循环系统,但水道尺寸这个时候在毫米级,容易产生气泡导致冷却不均匀。MLCP则代表“微型化”升级。水道从毫米缩至微米,热传导系数(h)可达传统液冷的2-3倍。根据热力学模型,热通量q = h * ΔT,其中ΔT为温差,MLCP的h值提升意味着相同温差下可处理更高热负载。此外,MLCP的能效优势显著。传统液冷泵送功率占系统总能耗的5-10%,而微通道设计降低流速需求,泵功可减半。这对hyperscale数据中心至关重要——据估算,全球AI数据中心能耗已超1000TWh/年,MLCP若普及,可节省数百亿美元电费。但MLCP的大规模应用也面临一些问题,首先是成本,MLCP单元价格预计为现有液冷的3-5倍,主要因蚀刻工艺复杂,需要纳米级精度设备。这将推高NVIDIA服务器售价,短期内可能抑制中小型AI初创企业的采用。其次,制造难度高,微通道易堵塞,需引入过滤系统;液体纯度要求严苛,一丝杂质即可导致腐蚀。从可靠性角度,MLCP也会引入新风险,微通道泄漏可能污染芯片,导致维修成本飙升。不过,越来越高的单芯功率,带来越来越大的散热压力,已经是摆在英伟达以及其他AI芯片公司面前的关键问题。在芯片散热这条路上,未来必然还将会继续探索更多的路线。声明:本文由电子发烧友综合报道,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。更多热点文章阅读半年5起并购引震动!高通、晶晨入局,AIoT芯片赛道洗牌开启被美国列入实体清单!复旦微强势回应的底气是什么?突破10Gbps带宽!车载光通信新品正登场,“光纤上车”成新趋势创346万美元众筹记录,扫雪机器人成现象级产品,电池、电机是关键突发!存储全面涨价!点击关注 星标我们将我们设为星标,不错过每一次更新!喜欢就奖励一个“在看”吧!