摩尔线程和沐曦这两家GPU新锐几乎前后脚递表科创板,业内都在盯着。这两家路子差异不小,但都还在半山腰拼命往上爬,离登顶英伟达、AMD那种水平,路还长得很。

先说摩尔线程(MT):步子迈得大,全功能是招牌,但包袱也重。
MT的思路很清晰:要做“全功能GPU”。啥意思?就是图形渲染、AI计算、科学计算,它都想干。架构迭代到了第四代,动作挺快。单卡性能,比如他们那个MTT S80,在纸面上看,消费级领域摸到了RTX 3060的边儿,这在国产GPU里不容易。集群能力是他们宣传的一个亮点,千卡集群的效率据说在某些测试里压过了同规模的一些国际对手。生态这块,他们投入不小,支持的主流AI框架和模型比较多,迁移工具也下了功夫,对开发者相对友好些,这点在国产里算走在前面的。

优势在哪?产品线铺得开,野心勃勃,奔着“全能”去的。图形能力确实是他们区别于很多国产GPU的招牌。老张(张建中,前英伟达全球VP)的背景和团队资源,在拉投资和搞定大客户上,优势明显。腾讯、字节都投了,估值冲到255亿,这次要募80亿,胃口是真不小。
但问题也扎眼。最让人嘀咕的是早期用了不少第三方IP授权。创业初期为了快,能理解,但科创板现在盯着“硬科技”、“自主可控”,这就是个硬伤。质疑声一直没断过。虽然现在推第四代架构,说自研比例上来了,但这包袱没那么容易甩掉。另一个大坎是烧钱太凶残。营收增长快(年复合208%,去年做到4.38亿),但亏损更吓人——三年下来亏了超50亿,光去年就砸进去近15亿!研发投入占营收比例高达626%!这简直是把油门踩到底在玩命。高端AI训练芯片(对标英伟达H100那种)还没见到大规模量产的影子,这块高地没拿下,高端市场就进不去。还有,用户反馈里,驱动和软件栈的成熟度、稳定性,吐槽不少,实际落地体验和纸面参数有差距。

再看沐曦(Muxi):死磕AI计算,强调全自研,出货是硬道理。
沐曦的路子很聚焦:就是干AI计算。口号喊得震天响——“全栈自研”。IP、指令集都是自己从头撸的。理论上讲,这条路在规避“卡脖子”风险上更彻底,政治上也更“正确”。他们的拳头产品是曦云C系列,主攻AI训练和推理一体化,目标客户非常明确:智算中心、国家算力平台这些大金主。最硬的指标是:累计芯片出货量达到2.5万颗。在国产GPU圈子里,这个数字很实在了,说明产品真能卖出去,真能在客户机房里跑起来,不是光画PPT。

优势在哪?强调全栈自研,在当前大环境下很讨巧,审核时可能占点便宜。 AI计算这条赛道钻得深,产品落地性强,7.4亿的年营收(虽然基数小,但增长数字吓人)和2.5万颗的出货量是实打实的硬通货。亏损额(去年14.09亿)也很大,但比MT那边还是略低一点点,这次募资目标39亿,显得更务实些。团队背景有AMD、海思的影子,加上国资股东站台,在政策资源和某些特定客户那里,可能路子更稳。

短板同样明显。最大的软肋就是几乎放弃了传统图形能力。他们的GPU更像纯GPGPU(通用计算GPU),对DirectX、OpenGL、Vulkan这些图形API的支持要么不是重点,要么性能/兼容性不行。这意味着直接丢掉了图形工作站、游戏显卡、部分嵌入式图形这些大市场。生态工具链是另一个软肋。驱动的成熟度、移植工具的易用性、对开发者社区的支持力度,比起MT显得粗糙不少,用户真要迁移过来,成本可能更高。
MT像个激进的“全才生”,啥都想争第一,资源拉得猛,盘子铺得大。但背着IP质疑和天文数字的亏损,80亿募资就是一场豪赌。沐曦则像个专注的“特长生”,死磕AI计算,自研口号响,出货量是硬道理,财务数据(相对)好看点,39亿募资更聚焦在“把东西造出来卖出去”。代价是图形能力瘸腿,生态薄弱,产品线单一,长期看天花板可能更明显。
作为老工程师,我最关心的是硬核指标:架构有没有真创新?流片良率稳不稳?驱动和编译器够不够成熟可靠?在用户实际的生产环境里,性能、功耗、稳定性能不能持续达标? 这两家在这些核心的工程能力上,都还有很长的陡坡要爬。科创板上市只是个加油站,远不是终点线。最终谁能把产品从“能用”磨成真正稳定、高效、好用的“好用”,把生态圈养起来,把成本降下去,把亏损的口子堵上,谁才能在这场马拉松的后半程真正冒头。
END

往期精选:

请点下【♡】给小编加鸡腿
