电子发烧友网报道(文/章鹰)近日,国产算力芯片厂商云天励飞发布2025年上半年财报,公司实现营业收入6.46亿元,同比增长123.1%。亏损大幅收窄,较上年同期减少1.04亿元。毛利率提升至28.5%,同比上升12.8个百分点。10月15日,在2025湾芯展上,云天励飞副总裁罗忆给现场听众带来《打造智算时代的新质生产力》演讲,他现场提出的两大观点引发大家的共鸣。他表示,目前国内AI产业面临两大拐点:一是算力需求爆发,大模型推理算力需求将在2026年超越训练需求,成为算力消耗的助力,占所有算力需求的比例将超过70%。同时,国内AI产业正从模型研发转向“算力消费”。二是国产算力芯片的使用比例不久将超过海外芯片。目前两者使用占比基本已经达到五五分。这两大拐点的出现,标志着我国人工智能发展进入全新阶段,本文将详细介绍他对行业的前瞻和真知灼见。受益于AI大模型落地加速,AI推理芯片迎来爆发期2025年被视为“AI Agent元年”,智能体从被动执行转向自主规划与决策,单次任务消耗的Token量是传统对话的100倍以上。其次,我们看到,在DeepSeek等国产大模型的推动下,产业落地加速,推理复杂度呈现几何级数增加。还有,大模型推理需求超越训练,成为算力消耗的主力。“对比2024年年初,到2025年年中,一年半时间整个产业上的消耗Token的客户翻了300多,海外OpenRounter平台Tokens调用量过去12个月增长35倍,Gemini、Google、Claude、GPT等模型占据主流市场份额,我们预测整个业界,包括英伟达和华为都在看到2030年,每天消耗的Token数,可能是现在的一万倍以上。”云天励飞副总裁罗忆指出,“推理应用爆发,全球Token调用量飙升。”从“堆算力”到“算力效率”竞争,国产算力芯片机遇期加速到来据悉,国内字节跳动、阿里巴巴、DeepSeek在ToB市场的Token消耗的头部客户,这正揭示国内AI产业正从“模型研发”转向“算力消费”。云厂商进入战略扩展,在AI上的投资2025年和2026年的投入都是翻倍。“Token数可能每年增长10倍,但是算力基础设施投入上,基本是一倍增加,如何弥补中间的鸿沟?这就意味着需要更少的算力解决更多Token的推理。在AI应用落地当中,我们要不断降低百万Token的成本。这需要从芯片到整个推理框架,软件优化做更多的工作,这对于国产芯片是一个重要的机遇期。” 云天励飞副总裁罗忆分析说。“一方面,美国无意把高端芯片供应中国市场,另外一方面,国内有众多的市场需求和国家政策出台,AI芯片在中国从2027年到2030年,复合增长率达到1倍左右。” 根据灼识咨询报告,中国 AI 推理芯片相关产品及服务行业正高速增长。市场规模由2020年的人民币 113 亿元增至 2024 年的人民币 1,626 亿元,复合年增长率为94.9%,并预期将于2029年增至人民币 13,830 亿元,2024 年至 2029 年的复合年增长率为 53.4%。罗忆指出,中国算力市场出现两大变化:一是国产推理芯片需求超过训练芯片;二是国产算力芯片的使用比例不久将超过海外芯片。面对AI,云推理芯片急需降低成本,降本的空间在未来三年每年去降一个数量级。现在的百万Token成本估计是在10元左右,未来到了2030年,我们有没有可能进入到分级时代。云天励飞在AI推理的产品矩阵,多个芯片和解决方案登场记者看到,在湾芯展上,云天励飞以“算力积木”为核心理念,携全栈AI推理产品体系重磅亮相,集中展示了从芯片到模组再到整机的完整布局,全面呈现在AI推理领域的最新成果与产业化能力。据悉,云天励飞已研发并商用五代神经网络处理器芯片,构建了从IP到芯片模组、从算法到软件栈、从大模型到应用的完整链条。云天励飞在湾芯展的2号馆展出了多款自研芯片——DeepEdge 10、DeepEdge 10C、DeepEdge 10 Max、DeepEdge 200,覆盖从边缘到云端的多种推理场景,算力范围从8T到256T,支持7B至130B参数规模的大模型边缘推理,以及配套的模组与加速卡 X200、A300、X2000、X6000,并展示了生态合作伙伴基于 DeepEdge 10 芯片打造的推理计算盒子。据悉,云天励飞已携手OISA 生态,并成功适配 DeepSeek R1 系列模型、QwQ-32B 模型及国产鸿蒙操作系统,为国产AI算力提供坚实底座。我们看到,云天励飞走出一条不同于英伟达GPU的技术路径,专注于ASIC架构推理芯片。据悉,云天励飞公司致力于成为中国AI推理芯片的领军企业,打造面向AI大模型时代的关键“加速器”,通过高性价比国产算力,推动人工智能在各类场景中的规模落地与快速发展。声明:本文由电子发烧友原创,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。