
新一代AI工厂旨在实现更快速的并网上线,并作为参与者在电网中协同运行。
英伟达(Nvidia)和Emerald AI表示,他们正与包括AES Corporation、Constellation Energy、Invenergy、NextEra Energy、Nscale Energy&Power以及Vistra在内的多家美国主要电力生产商联手,共同开发新一代“AI工厂”。这些工厂旨在实现更快速的并网上线,并作为积极的参与者在电网中协同运行。
此举反映了行业内更广泛的趋势,即努力将人工智能基础设施的快速扩张与美国日益紧张的电力系统现状相协调。通过整合计算、发电和电网管理,这些企业旨在建设一种新型数据中心:它们不仅消耗海量电力,还能根据电网状况做出动态响应。
该计划的核心是英伟达的Vera Rubin DSX参考架构及其配套的DSX Flex软件,这使得大规模AI设施能够与电网服务进行交互。这种设计允许所谓的“混合AI工厂”在初期依赖于同址发电和电池储能(鉴于电网并网周期漫长,这通常是必不可少的),随后再过渡到更灵活的角色,即在需要时向电网反向输电。
此类设施有助于加速AI基础设施的部署,同时缓解现有电网的压力。这些公司表示,即使是没有配备专用现场发电设备的AI工厂,也能通过实现更快速、更大规模的电网接入而从该架构中获益。
Emerald AI的Conductor平台旨在协调计算工作负载与现场能源资源(包括电池和表后系统),使运营商能够在不牺牲性能的前提下实时调整功耗。这些公司指出,这种灵活性有望缩短对临时“过渡电源”的依赖,降低基础设施成本,并提升整体电网的稳定性。
英伟达首席执行官黄仁勋(Jensen Huang)表示:“AI工厂是智能时代的引擎。”他补充道,未来的系统必须将计算、能源、网络和散热整合到单一架构中。Varun Sivaram则表示,此类设施不应被视为被动的电力负载,而应作为既能创造经济价值又能为电网提供支持的资产。
解决电网瓶颈与行业痛点
这一计划出台之际,正值AI数据中心的用电需求激增,暴露了美国电网在结构上的低效问题:该电网虽然是为满足用电高峰而建,但在大部分时间里却处于未充分利用的状态。这些企业预估,通过更高效地利用现有资源并有选择地增加新增发电量,更具灵活性的AI基础设施有望释放高达100吉瓦(GW)的额外容量。
参与该项目的主要能源合作伙伴表示,他们将具备灵活性、能够响应电网调度的AI设施视为一种在不导致系统超载的前提下满足日益增长的需求的有效途径。通过将庞大的计算负载与自适应的电力调度及新增发电产能相结合,他们的目标是在保障可靠性的同时,加快项目的推进速度。
这种模式还缓解了行业内日益加剧的供需矛盾。为了避开漫长的电网接入审批,许多大型AI项目纷纷转向自建现场发电设施;然而,将这些资源完全与外部隔离会导致效率低下并推高长期成本。这些公司认为,采用混合模式能够让这些电力资产既服务于AI工作负载,又能惠及更广泛的电网。
在过去一年中,英伟达和Emerald AI已在全球多个数据中心对这些理念进行了测试。他们预计将于今年晚些时候在弗吉尼亚州的一处AI研究设施中进行DSX Flex系统的商业化规模部署,该设施计划成为首批基于Vera Rubin平台打造的具备全面电力调节能力的AI工厂之一。
这些公司表示,他们计划在未来的项目中进一步推广该模式,以加速AI基础设施的部署,提升电网韧性,并将能源与计算投资所产生的经济效益惠及当地社区。
英伟达将在2027年底前向亚马逊出售100万颗GPU芯片
英伟达一位高管表示,到2027年,英伟达将向亚马逊的云计算部门出售100万颗图形处理器芯片,以及一系列其他产品。英伟达和亚马逊网络服务(AWS)本周宣布,AWS已达成协议,将购买英伟达的100万块GPU,但并未透露交易的具体时间。英伟达超大规模和高性能计算副总裁伊恩·巴克周四称,销售将于今年开始,并持续到2027年。
就在同一时期,黄仁勋表示,该公司预计其Rubin和Blackwell系列芯片的整体销售机会将达到1万亿美元。英伟达和亚马逊并未披露交易的具体财务条款。但巴克告诉路透社,此次交易除了100万块GPU外,还包括英伟达的多种芯片,例如Spectrum网络芯片和Groq芯片。Groq芯片是英伟达在去年底与一家人工智能芯片初创公司达成170亿美元的授权协议后,于本周发布的。具体来说,AWS计划使用英伟达的Groq芯片以及英伟达的其他六款芯片,以实现更高效的推理。推理是指人工智能系统代表用户生成答案和执行任务的过程。
“推理很难,难得要命,”巴克称。“要想在推理方面做到最好,并非只靠一个芯片就能完成的。我们实际上要用到全部七个芯片。”该协议还包括在AWS数据中心部署英伟达的Connect X和Spectrum X网络设备。此举意义重大,因为AWS数据中心使用的是AWS多年来不断完善的定制网络设备。“他们当然还会继续这样做,”巴克说。“但我们现在正与AWS合作,为人工智能领域的重要工作负载和最大客户部署Connect X和Spectrum X。”
随着AI模型的广泛应用,需要进行推理计算的硬件日益增多,对推理芯片的需求也将“水涨船高”。国际数据公司(IDC)的报告显示,未来几年,推理端的AI服务器占比将持续攀升。预计到2027年,用于推理的工作负载将占据七成以上。
