
AI算力竞争正从训练端向推理端深度延伸,初创企业SambaNova Systems重磅推出第五代SN50 AI推理芯片,直指英伟达Blackwell B200,凭借架构创新实现性能与成本的双重突破;同时公司完成3.5亿美元E轮融资,并与英特尔达成多年期战略合作,多重动作之下,SambaNova正式成为AI推理赛道挑战英伟达的核心玩家,也折射出全球AI算力市场的细分与重构趋势。
一、SN50芯片重磅发布,架构创新实现对英伟达B200的全面超越
SambaNova推出的SN50芯片专为大规模AI推理设计,是英伟达Blackwell B200的直接替代方案,核心基于公司自研的可重构数据流单元(RDU)架构——区别于GPU依赖反复的片外内存访问,该架构将模型图直接映射至优化的内部数据路径,从底层降低延迟、减少能耗,在智能体AI推理场景中实现了性能与能效的跨越式提升。
官方公布的核心参数显示,SN50的性能优势十分显著:在智能体推理工作负载中峰值速度较英伟达B200提升5倍;在包含Meta Llama 3.3 70B在内的多模型场景下,吞吐量提升超3倍;运行OpenAI GPT-OSS-120B模型时能效最高达B200的8倍;支持单模型最高10万亿参数,上下文窗口可达1000万个令牌。硬件层面,单颗SN50加速器的计算性能较上一代提升5倍、网络带宽提升4倍,至多256颗加速器可通过每秒数TB的互连链路组网,有效缩短首令牌输出时间,同时支持更大批次处理。据行业消息,该芯片预计将于2026年下半年正式出货。
针对智能体AI推理的核心痛点,SN50打造了融合大容量内存、HBM、SRAM的三级存储架构,可实现多模型智能体工作负载的毫秒级模型切换,完美适配智能体AI将任务分解为子步骤、反复调用大语言模型的工作模式,解决了传统GPU集群在此类场景下的延迟激增、成本高企问题。更具优势的是,全套SambaRack SN50系统平均功耗仅约20千瓦,可直接部署于传统风冷数据中心,无需像高端GPU集群那样进行液冷改造,大幅降低了部署门槛。
二、多重资源加持,SoftBank成首发客户,英特尔达成深度战略合作
在产品发布的同时,SambaNova收获了产业链核心玩家的认可与布局,首发客户与战略合作伙伴的双重落地,为芯片商业化铺平了道路。
日本软银集团(SoftBank Group)成为SN50芯片的首家落地客户,将在下一代AI数据中心中部署该产品,为亚太地区的本土及企业客户提供开源与自研前沿模型的低延迟推理服务。软银计划将SN50标准化为其AI业务的核心推理骨干架构,这也是其在现有SambaCloud高速推理服务基础上的进一步升级,而此次部署也让SN50成为日本自主AI基础设施战略的重要组成部分,契合日本在推理延迟、成本控制、基础设施自主化方面的核心需求。
此外,SambaNova与英特尔达成多年期战略合作,双方将联合打造集成式推理解决方案,把英特尔至强CPU、网络设备、加速器与SambaNova的系统深度融合。英特尔不仅将对SambaNova进行战略投资,还将依托自身全球企业渠道与SambaNova联合推向市场,合作范围涵盖AI云平台扩容、异构数据中心架构整合等核心领域,共同打造可扩展的、替代GPU主导模式的推理部署方案。值得一提的是,2025年12月曾有消息称英特尔考虑全资收购SambaNova,最终双方选择战略合作模式,实现优势互补。
三、完成3.5亿美元E轮融资,资本向AI推理赛道高度集中
SambaNova同步完成3.5亿美元E轮融资,本轮融资由Vista Equity Partners和Cambium Capital联合领投,英特尔资本、卡塔尔投资局、GV等机构跟投,这也是2026年半导体领域规模最大的融资事件之一,充分印证了资本市场对AI推理赛道的高度看好。
成立于2017年的SambaNova,曾在2021年由软银愿景基金二期领投完成6.76亿美元D轮融资,彼时公司估值达51亿美元,本次融资后其最新估值未对外披露。从行业趋势来看,2025年全球半导体初创企业的风险投资金额同比增长85%至176亿美元,交易数量基本持平,资本正不断向头部企业集中;而Ricursive Intelligence 3亿美元A轮、Etched 5亿美元融资等案例也显示,AI算力的竞争已从“打造更大模型”转向“高效、经济、全球化的模型部署”,推理端成为资本布局的核心方向。
四、AI推理赛道迎变局,SambaNova凭差异化构建核心竞争力
SambaNova此次芯片发布、融资落地、合作敲定的三重动作,不仅让其成为AI推理赛道的核心挑战者,更勾勒出全球AI算力市场的发展新特征。其核心竞争力在于精准抓住了GPU在推理端的结构性效率短板——GPU虽主导大模型训练,但在智能体AI这类重推理、需反复调用模型的场景中,片外内存访问的架构缺陷导致延迟与成本高企,而SambaNova的RDU架构从底层实现创新,结合三级存储、低功耗设计等优势,打造了适配推理场景的专属解决方案。
与此同时,英伟达虽仍是AI硬件市场的绝对主导者,但智能体推理的经济特性为架构创新型企业打开了市场空间,AI算力的竞争焦点也从训练端的原始吞吐量,转向推理端的令牌效率、延迟稳定性与成本可预测性。SambaNova凭借SN50的产品优势、3.5亿美元的资本加持,以及英特尔的渠道与技术协同,已不再是单纯的芯片初创企业,而是成为AI基础设施下一阶段竞争中的核心竞争者,也推动AI推理赛道从GPU一家独大,向多元架构、差异化竞争的格局演进。
原文媒体:digitimes asia
原文标题:SambaNova targets Nvidia’s B200 with 5x faster AI inference chip, secures US$350M
