【区角快讯】据4月17日披露的消息,随着4月下旬临近,国产大模型DeepSeek V4的发布进程持续引发业界高度关注。日前,DeepSeek研发团队悄然对其核心组件DeepGEMM算子库进行了重要更新,此举被广泛解读为V4即将上线的关键信号。

尽管团队在更新后迅速补充说明,强调此次改动仅服务于DeepGEMM自身的开发迭代,与内部大模型发布无直接关联,并呼吁外界“勿作过度联想”,但这一澄清反而进一步激起了社区对V4的猜测热情。分析指出,本次算子库升级包含多项关键技术突破,很难与下一代模型完全脱钩。
具体来看,新版本DeepGEMM不仅新增对FP8_FP4混合精度算子的支持,还针对NVIDIA最新Blackwell架构进行了深度优化。更关键的是,其底层架构引入了Mega MoE与HyperConnection两项创新设计。其中,Mega MoE有望推动混合专家(MoE)架构实现重大跃迁。
有技术解析援引Gemini相关资料推测,DeepSeek V4激活的专家数量或将从V3的256个跃升至数千级别。这一改进可在显著增强模型推理能力的同时,有效控制对算力与显存的消耗,维持系统灵活性。
此外,社区根据算子库透露的结构参数推算,若单层MoE规模约为253.7亿参数,且模型维持60层设计,则V4总参数量极可能达到1.6万亿;即便采用48层结构,参数量也预计达1.25万亿。相较此前流传的1万亿预期,1.6万亿意味着提升幅度高达60%。
即便最终落地版本为1.25万亿参数,也已较当前V3的6700亿参数实现近一倍增长。结合数千专家激活机制,此次升级或将成为MoE架构演进史上的里程碑事件,标志着国产大模型在性能与效率平衡上迈出关键一步。