芝能智芯出品算力不缺,电才是瓶颈——这是 2026 年美国 AI 基础设施的真实写照。
Span + Nvidia 就是在这种背景下出现的,把美国住宅里闲置的电网接入能力,变成可调度的算力资源。
过去十年,行业默认的约束条件是 GPU。
英伟达从 H100 推到 Blackwell,产业逻辑始终是"堆卡"。
但在美国脆弱的基础电力环境里面,你手里有卡,未必能找到地方插上电。电网审批、变压器交付周期、社区反对,每一项都比芯片交付慢。
这有没有像之前特斯拉的家庭储能系统?

美国独栋住宅通常配 200A 配电,日常使用大概只有三到五成。Span 用智能电板把这部分闲置容量数字化,变成可调度的产品。硬件是标准化的,XFRA 节点统一 Blackwell GPU 液冷版、AMD EPYC、企业级内存。
好处很明显,和之前特斯拉的储能系统一样,性能可预测,可以签 SLA,可以直接卖给云厂商。DePIN 一直做不到这个。
分发渠道是房地产开发商,ulteGroup 才是这个方案里真正的隐藏变量。建房时直接预装,部署效率比挨家挨户说服散户高出一个数量级。
这看上去有点幽默,面向企业级别的Ai数据中心,应该是集中式的。但是在美国,集中式数据中心的几条路都堵死了。
电网审批越来越慢,高压变压器交期拉长到三到四年(这个有点搞笑),社区对数据中心的耗水耗电噪音反对声越来越大,偏偏 AI 推理需求在爆发,而且是持续负载。
这几个约束叠在一起,把"哪里能接电"推到了基础设施的核心位置。
当然在美国要做这件事依赖三个假设:
◎ 电力持续短缺到 2030 以上;
◎ 家庭宽带能承载企业级 SLA;
◎ 规模化调度不会带来指数级复杂度,目前这个更像是一个过渡的方案。
在美国电力系统也在努力改进,核电规模化、电网扩容提速、工业侧电力调度优化,集中式数据中心会重新占优。
SLA 这件事更现实,家庭网络延迟不可控,做批处理没问题,做实时推理就悬了。当成"边缘推理加电力套利"的混合系统,可能更接近真相。
低延迟推理、电力价格波动套利、城市级分布式 AI,这些场景里有它的位置。
中国的问题不是缺电接入,而是电网调度集中、住宅改造权限复杂、带宽合规要求严。直接复制没意义。
但换一条路,不是挂在住宅,而是挂在充电站、换电站、工商业储能节点——可能更对中国的胃口。
之前是围绕能源来做的,现在就是持续的用电需求带来算力的重新配置,挂在你家墙上的概率不大,不过也确实是一种发展的形态。