1月7日,算能与北京清程极智科技有限公司(以下简称“清程极智”)正式签署战略合作协议。 双方将围绕云端算力、推理引擎与大模型服务平台的协同优化展开深度合作,共同探索在自主可控算力环境下,实现高性能、高稳定、高性价比的大模型推理服务路径。

( 双方在北京进行战略合作签约仪式 )
随着大模型技术进入规模化应用阶段,推理服务的性能、成本与工程可用性已成为产业落地的关键。在自主可控的算力基础上,构建软硬协同、持续优化的推理服务体系,是推动大模型真正赋能千行百业的必然要求。
算能作为专注算力芯片与智算解决方案的核心企业,始终坚持开源开放、生态共建的技术路线,已构建覆盖“云、边、端”全场景的算丰 SOPHON 产品矩阵。自2016年推出首代产品以来,算丰系列历经多次迭代,能效比实现倍数级提升,在RISC-V架构领域持续保持行业领先。目前,算能产品已广泛应用于智算中心、大模型训练推理、城市治理、工业检测等多元场景,积累了扎实的工程交付与生态服务能力。
清程极智作为清华系AI基础设施创新企业,由中国工程院院士、清华大学计算机系教授郑纬民担任首席科学顾问,致力于通过高效、易用的智能算力系统软件提升算力使用效率、降低大模型落地成本。 公司已构建覆盖智能算力底层训练推理能力到上层云端调用平台的全栈产品矩阵,包括大模型训练及智能软件栈“八卦炉”、高性能推理引擎“赤兔”,以及一站式大模型服务评测与API调用平台“AI Ping”,助力企业实现多快好省的大模型私有化部署,赋能开发者更便捷、更经济地使用智能算力。

本次合作,算能将充分发挥自身在自主可控芯片、云端算力平台与推理软件栈方面的积累,与清程极智在模型服务平台方面的实践深度融合,重点围绕以下方向展开:
1. 算力底座支撑
算能将基于成熟的云端芯片产品与SophNet云算力平台,为清程极智的AI Ping大模型服务平台提供稳定、高效的推理算力支持,确保其在多样化业务负载下的可靠运行与弹性扩展
2. 推理引擎协同优化
清程极智“赤兔 Chitu”推理引擎将与算能自研高性能芯片进行深度适配与联合调优。双方将在算子实现、计算图优化、内存调度及部署工具链等环节紧密协作,持续提升推理性能与能效比,形成可规模化复用的推理加速方案。
3. 服务体验共同提升
结合清程极智在模型评测、统一接入与服务治理方面的平台能力,算能将提供相应的芯片级工具链与技术支持,共同探索更贴合业务场景的推理服务组织方式,提升整体服务的稳定性与成本效益。
我们相信,大模型的真正价值体现在持续、稳定、高效的推理服务之中。算能期待以此次合作为起点,与清程极智及更多产业伙伴一道,推动国产算力在真实业务场景中的深入应用,共同构建自主可控、软硬协同、持续演进的大模型推理服务生态,为人工智能的规模化落地提供坚实可靠的算力基石。
加入 SophNet体验交流群,解锁更多专属权益
为方便开发者交流体验心得、解决技术问题,我们特别组建「SophNet体验交流群」。扫码加入群聊,即可获取:
-
模型使用指南与最佳实践案例
-
优先获取平台新功能内测资格
-
技术团队在线答疑支持
-
不定期专属算力福利与活动通知
未来,SophNet 仍将以「稳定 · 高速 · 普惠」为信条,持续同步全球顶尖模型,让每一位开发者都能便捷触达前沿AI能力。
平台介绍
SophNet | 云算力平台(网址:sophnet.com)——依托算能自研TPU芯片的强劲算力,致力于打造「更快、更稳、更省」的一站式模型服务平台。
几行代码,接入全球顶尖的AI大模型;零代码,创建开箱即用智能体。
现已集成DeepSeek-V3.2,DeepSeek-R1-0528、MiniMax-M2.1、Qwen3、Kimi K2 Thinking、GLM-4.7、LongCat等主流开源模型,独家发布DeepSeek-V3.2-Fast 和DeepSeek-V3.1-Fast极速版速度高达150tps,同时支持私有模型托管。一键部署,成本腰斩,算力自由即刻拥有。
-
网址:https://sophnet.com -
商务合作:010-57590723 -
邮箱:sophnet@sophgo.com
