探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~

头部科技 2025-09-25 19:37
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图1
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图2
文丨丁灵波
经过一通疯狂挖角AI人才的Meta,现在到了成果产出的时候。
今天,Meta人工智能基础研究实验室(FAIR)团队推出一个代码世界模型(CWM)。
啥是代码世界模型? FAIR学术带队人、图灵奖得主Yann LeCun一句话介绍:通过想象执行指令的效果并规划产生预期效果的指令来生成代码。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图3
官方技术报告指出,这是一款拥有320亿参数的开源权重大型语言模型(LLM),旨在推动 “基于世界模型的代码生成” 相关研究,以突破仅通过静态代码训练所能达到的代码理解上限。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图4
CWM训练时支持的上下文长度最高可达131000个token,即便不依赖其世界建模能力,CWM在通用编码与数学任务上也表现优异:在SWE-bench Verified基准测试(含测试时缩放优化)中,pass@1得分达65.8%;在LiveCodeBench基准测试中,pass@1得分达68.6%;在Math-500基准测试中,得分达96.6%;在AIME 2024测试中,得分达76.0%。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图5
“代码世界模型”的背后考量
LLM如今已深度融入全球软件工程师的工作流程,从最初仅能为开发者提供小型代码片段,发展到可自主修复问题或编写代码库,技术进展迅猛,然而,完全可靠生成高质量代码仍是一项挑战——各类基准测试在模型发布后,总会持续暴露出其不足。
FAIR团队认为,要借助大型语言模型推动代码生成技术的发展,可能需要新的训练与建模范式。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图6
在传统预训练过程中,代码通常被等同于其他文本数据处理:模型学习逐行、从左到右、自上而下地预测代码,但这种方式并不充分——要精通编程,不仅需理解代码的“形式”,更要掌握其“执行效果”。
这种能力对软件工程师的日常工作至关重要:在局部层面,工程师能理解一行代码的执行如何改变局部变量的状态;在全局层面,他们能预判代码库的修改会对程序输出产生何种影响。然而,在模型的“训练后阶段”(post-training)之前,让大型语言模型具备此类“代码世界建模能力”的训练,通常未被纳入考量。
于是乎,代码世界模型(Code World Model,简称CWM)被推了出来,这是一款专为代码生成与推理设计的新型大型语言模型,其训练过程融入了大量代码世界建模数据。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图7
具体而言,研究人员在训练阶段,让CWM学习了两类能捕捉软件开发关键环节的“观测-动作轨迹”数据:Python代码执行轨迹与智能体化Docker环境交互数据。
通过大规模学习此类数据,模型的预测可与底层动态系统(指代码执行、环境交互的运行机制)深度关联,这不仅有助于提升编码性能,也能为后续的强化学习(RL)提供更优的初始基础。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图8
一个“纯研究用途”的模型
CWM有不少创新的技术点,例如采用密集型纯解码器Transformer架构和交错滑动窗口注意力机制,通过量化处理,CWM可在单块80GB NVIDIA H100显卡上进行推理。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图9
在SWE-bench Verified基准测试中,CWM的性能优于参数规模相近的开源权重大型语言模型,即便与参数规模大得多的模型或闭源权重大型语言模型相比,也具备竞争力。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图10
CWM的Python轨迹数据格式是在给定源代码上下文及轨迹起始点标记的情况下,CWM会预测一系列“栈帧”(stack frames),这些栈帧代表了程序状态(Program states)与动作(即已执行的代码)。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图11
关于软件工程强化学习(SWE RL)设计:CWM智能体通过长时程的智能体-环境交互,结合推理与工具使用能力,端到端地解决软件工程任务(交互轮次最多达128 轮,上下文长度支持131000个token)。SWE RL采用极简工具集:以bash(命令行外壳)为核心,将编辑、创建、提交作为轻量级bash插件。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图12
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图13
奖励机制结合了“隐藏测试结果”与“补丁相似度”——当测试无法提供有效反馈时,会启用相似度奖励以提供辅助学习信号。
不过,FAIR团队表示,CWM作为“研究模型”,旨在供研究社区探索“世界建模”与“计算环境中的推理”所带来的机遇。且由于CWM是纯研究用途模型,未针对面向用户的交互场景进行完整评估或训练,其目前还不适用于生产场景;同样,CWM也不能被当作通用助手或对话模型使用。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图14
小扎再挖一员AI大将
论文发表的同一天,据报道扎克伯格近期又悄悄挖来一位OpenAI高级研究员:宋飏(Yang Song),他曾领导OpenAI的战略探索团队,入职后担任Meta超智能实验室(MSL)的研究负责人,工作向MSL首席科学家赵晟佳汇报。
两人均曾就读于清华大学,并在斯坦福大学攻读博士学位期间,师从同一位导师Stefano Ermon。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图15
宋飏自2022年起加入OpenAI,他的研究重点是提升模型处理不同模态的大型复杂数据集的能力,在斯坦福大学读研究生期间,他开发了一项突破性技术,为OpenAI DALL-E 2图像生成模型的开发提供了参考,还曾参与GPT-4项目技术报告。
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图16
Meta日益复杂的AI部门挤满了从各路头部AI公司挖来的大牌人才,导致了新老团队的管理与资源分配摩擦,一边继续挖人,一边面临人才流失。
赵晟佳今年7月入职时,有人猜测他将取代Meta长期担任首席AI科学家的Yann LeCun,不过LeCun在一篇帖子中澄清,他仍担任Facebook AI Research(FAIR)的首席AI科学家,因为该部门是该Meta长期运营的基础AI研究实验室,已经树立了较好的行业地位,有不少学术界公认的突破性AI研究成果。
不过很明显的区别是,LeCun带领的FAIR团队所做的研究,距离商业化层面依旧较远,可能并不能让小扎满意,华人科学家领衔的“超智能实验室(MSL)”仍是Meta打好市场翻盘局的关键,未来几个月会推出什么重磅AI产品值得期待。

-END-

活动推荐
点击了解详情:
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图17

如果您有什么想说的,欢迎在评论区留言讨论!

投稿或寻求报道,欢迎私信“投稿”,添加编辑微信。

【AI超级增长启航营】入群好礼:了解更多启航营资讯,交流最新科技动态和产业趋势,定期互动讨论和知识分享,与启航营导师互动交流,领取100份AI科技商业研报合集,加群共同探讨与成长,开启AI领域的超级增长之旅!

探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~图18

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 开源
more
阿里又一大模型开源,手机电脑样样玩的溜,多项测试秒GPT-5
中国AI高速路,华为给出开源开放方案
TPAMI'25开源 | ETHZ新作DiffMVS/CasDiffMVS:精度、效率、内存都SOTA的多视图三维重建
美的华为达成战略合作:星闪+开源鸿蒙生态,迎来传统家电巨头
3天1.3k stars!Meta & CMU重磅开源MapAnything:统一12种3D重建任务!
智元机器人GO-1通用具身基座大模型全面开源
对抗协作+原型学习!深北莫FedPall开源,联邦学习破局特征漂移,准确率登顶SOTA
效率超FlowGRPO 25倍!清华&英伟达开源DiffusionNFT:实现扩散模型强化学习大一统
ICCV'25 Highlight 开源 | 即插即用!面向高斯和点云的可泛化显示连续表面重建!
探索代码理解上限!Meta新开源“代码世界模型”,LeCun带领的FAIR出品,小扎继续挖人~
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号