基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

量子位 2026-03-06 18:12
腾讯混元团队 投稿 
量子位 | 公众号 QbitAI

学了新的,忘了旧的——大模型微调的“灾难性遗忘”难题,终于有了新解。

腾讯混元团队最新提出的HY-WU范式,彻底打破了静态权重的束缚。它的核心洞察是:适配新任务,不一定要改写原有参数。

在基座模型持续进化的征途中,如何平衡“通用性”与“适配性”始终是一项技术挑战。传统的微调(Fine-tuning)或PEFT(如LoRA)虽然解决了模型“学新知识”的问题,但本质上仍是在静态权重空间内的“存量博弈”——每适配一个新任务,都可能对旧有能力造成不可逆的挤压。

3月6日,腾讯混元发布了一篇名为“HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing”的技术报告。提出了一种崭新的功能性记忆(functional neural memory)范式(weight unleashing),在模型推理时实时生成个性化参数,由此对不同任务/分布/样本进行个性化适应。

腾讯混元团队将该范式应用在各大开源图形编辑基模上,有效扩充了基模的功能性记忆,在图形编辑任务上普遍取得了更好的内容理解、指令遵循和生成质量。与此同时,该范式的数据效率、训练效率和推理速度也做到了真正的实用性与创新性并重。

接下来让我们看看技术报告的具体内容。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图1

基模学习的两大挑战:学了新的,忘了旧的;千人千面的个性化问题

在各个领域的基模(Foundation Model)中,普遍存在着两个互为犄角的挑战:

“灾难性遗忘”与持续学习的冲突:

已经训练好的基模在面对新数据、新任务时,通常需要通过微调(Fine-tuning)进行重新学习来取得最佳表现。然而,传统的适配模式往往是“覆盖式”的,即在共享权重的同一个参数点上进行反复擦写。

这种做法极易导致新旧知识的梯度冲突,损害模型已有的基础能力,导致“学了新的,忘了旧的”。这点在functional memory上尤其突出,对于映射的学习无法被外部存储替代,神经元的改写会导致以往拟合的映射发生变化。

“跷跷板效应”与个性化的权衡:

面对不同用户、不同领域的多样化需求,现有模型往往陷入“参数空间的不可能三角”。例如,在大型语言模型(LLM)中,同参数量模型在强化了严密的编程逻辑后,往往在发散性思维或特定风格的生成上表现出‘顾此失彼’的问题;在图像编辑中,增强“去噪”能力可能会损害模型对“艺术风格”的保留。

这种“千人千面”的个性化需求,在参数空间内往往对应着相互分离甚至冲突的“可行域”,强行用一个共享参数去拟合所有需求,最终只能得到各方妥协的平庸结果。虽然业界尝试通过MoE(混合专家模型)海量数据对齐来缓解,但本质上仍是在有限的参数空间内做‘存量博弈’,难以跳出‘性能跷跷板’的困境。HY-WU范式正是要打破这种静态权重的束缚,在不损失基模能力的前提下完成个性化适应。

现有解法的局限性:静态权重范式的天花板

为了解决上述问题,目前主流的解法包括:

参数高效微调(PEFT,如LoRA):虽降低了训练成本,但本质上仍属于“静态参数记忆” 。一旦适配完成,推理时所有样本都共用同一组固定的参数更新。这种“一刀切”的模式在处理高度异构或持续进化的任务时,依然无法逃脱参数冲突和过拟合的困境。

上下文记忆(RAG /检索增强):通过外部存储注入背景信息,但这只能改变模型“看到了什么”,而无法改变模型“如何处理信息” 。当任务核心在于处理规则(如特定的图像变换逻辑)而非缺失事实时,仅仅依靠增加上下文无法从根本上改变模型的变换算子(Operator)

独立LoRA集群:为每个任务训练独立的LoRA适配器。这虽然避免了冲突,但会导致存储开销随任务量爆炸式增长,且不同模块间难以实现知识迁移,泛化能力受限。

MoE(混合专家模型):混合多个专家针对不同domain进行路由学习和推理。能改善拟合多种分布的问题,但对于灾难性遗忘和性能跷跷板的困境不能从根源上解决。(哪怕是GPT-5.3还是Claude 4.6,都在‘编程强化’后陷入了某种程度的‘功能偏科’:编程逻辑的极致提升,同参数量下伴随着创造性的流失或常识直觉的僵化)

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图2

 静态记忆,上下文记忆和混元团队提出的功能性记忆的对比

HY-WU的方案:从“静态参数记忆”到“功能性记忆”

针对这些痛点,混元团队提出了HY-WU (Weight Unleashing)范式。团队指出,适配问题的核心不在于优化算法,而在于“记忆接口”(Memory Interface)的设计。

传统的适配(如SFT或LoRA)本质上是静态参数记忆,它试图将所有新知识压缩进参数空间的一个“单一特征点”中,这在处理异构任务时会导致结构性的脆弱。

HY-WU则引入了功能性记忆(Functional Memory)。该范式不再追求寻找一个通用的固定参数点,而是学习一个参数生成器。它将适配过程看作是根据输入条件实时合成特定算子(Operator)的过程。这种“记忆即神经网络”的正式化表达,使得模型能够根据不同实例在权重空间内进行动态路由(Routing),从而避免了在共享参数上的反复擦写与冲突。

两种问题,一个对策:Functional Neural Memory在图像编辑任务上的的参数生成实现

混元团队选择用“文本引导的图像编辑”(Text-Guided Image Editing)作为HY-WU的首个压力测试,因为图像编辑天然地暴露了静态权重的局限性:

目标互斥: “修复老照片”和“照片做旧”在参数空间里是完全不同的变换方向。如果用同一个静态适配器(如LoRA)强行学习,模型会陷入“两头不到岸”的平庸折中。

样本敏感:同样的“风格化”指令,在猫的图片和山水的图片上,需要执行的像素变换截然不同。

核心范式:从“存数据”到“存算子映射”

HY-WU提出了一个开创性的认知:功能性记忆不该是固定的知识点,而应该具有动态的条件映射。

该框架引入了一个基于Transformer架构的参数生成器。它不像传统LoRA那样去学习一组固定的权重,而是学习如何生成针对特定实例的算子权重

1. 实时感知:模型首先提取当前输入图片和编辑指令的“混合条件特征”。

2. 即时合成:生成器根据这些特征,在推理时实时生成出一组针对当前样本的最优LoRA参数。这个过程在百亿参数的图像编辑基模上也仅需几秒。

3. 动态挂载:这一组定制化的参数被立即注入到冻结的基模(Frozen Backbone)中,完成特定的编辑变换。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图3

 HY-WU流水线概览

而和以往大部分参数生成工作不同,HY-WU采取了端到端的训练,完全不需要收集模型checkpoint来训练。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图4

 HY-WU模型架构Neural Network Transformer的细节

针对billion-scale的参数生成,HY-WU设计了Factorized self-attention来优化计算,大大降低了复杂度。其模型结构如上图所示。

功能性记忆:学习“条件更新族”而非“孤立算子”

为了实现动态路由,混元团队提出了条件更新族(Conditional Family of Updates)的概念。在功能性记忆的视角下,适配的目标不再是“找到一个特定的更新”,而是“学习一个从条件到参数更新的映射”。

通过这种方式,HY-WU诱导出一个结构化的参数流形。图像编辑的分析实验证明,生成的参数在权重空间中呈现出精妙的语义结构:功能相似的编辑操作(如动物形变、风格迁移)会自动聚集在参数空间的邻近区域。

这种权重空间的几何一致性表明,功能性记忆成功捕捉到了任务背后的变换规则。这使得系统在面对冲突目标时,可以通过路由到更新族的不同区域来化解干涉,而非被迫进行性能妥协。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图5

 HY-WU参数空间的Semantic Map

实用性考量

HY-WU在实用性方面做了充分考量。它不需要像传统Hypernetwork那样依赖预先收集的大量微调权重(Checkpoints),也不用在部署时存储大量LoRA权重来随时加载。HY-WU采取端到端训练和生成,作为分离挂载的功能性记忆,不仅保证了生成的参数足够“个性化”,更让整个系统具备了极高的训练效率和工程部署的灵活性和可扩展性。

图像编辑任务上的优秀表现

研究人员将HY-WU应用于HY-Image-3.0-Instruct——这是一个拥有800亿(80B)参数的原生多模态基座模型(其中激活参数为13B)

为了实现精准的图像编辑,该团队引入了一个拥有81.1亿参数的Transformer参数生成器。该网络能为所有线性模块生成7.2亿参数的Rank-16 LoRA权重,从而确保模型在处理复杂的编辑指令时具备极高的灵活性与准确度。

HY-WU个性化能力展示

在体验测试中,HY-WU在社交、游戏和广告等场景展现出较好应用效果。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图6

 马斯克穿腾讯生肖公仔服。(放大效果更佳)

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图7

 社交场景下,马斯克与黄仁勋换脸。(放大效果更佳)

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图8

 游戏场景下,马斯克与三角洲行动中角色进行换装。(放大效果更佳)

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图9

 广告场景下,马斯克试穿时装。(放大效果更佳)

与其他模型在个性化场景下的对比

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图10
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图11
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图12

 HY-WU与Seedream 4.5,GPT Image 1.5,Nano Banana 2的对比(放大效果更佳)

在换装,试穿和换脸的个性化场景中,HY-WU均比其他模型表现出更强的特征一致性,充分展现了其适配能力,为用户提供了更多想象空间。

严苛评测:覆盖60余种编辑任务

为了验证HY-WU的实战能力,研究团队构建了一个全面的评测,涵盖了单图和多图编辑两大赛道。该测试包含346组单图和64组多图编辑对,涉及60个细分编辑子任务,支持中英双语指令,覆盖了广泛的现实场景。评测对象涵盖了目前市面上最强的一线模型,包括OpenAI的GPT-Image-1.5、Google的Nano Banana Pro以及Seedream, FLUX.2、Qwen-Image-Edit等知名开源项目。

人类评价:比肩闭源旗舰

在代表用户真实感知的GSB(Good/Same/Bad)人类评价 中,HY-WU表现惊艳。数据显示,HY-WU的表现显著优于所有主流开源模型。在与顶级闭源模型的对比中,HY-WU依然保持了极强的竞争优势,其感官质量仅略逊于Google的Nano Banana。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图13

 GSB评测结果

自动化榜单:达到领先水平

除了人类评价,HY-WU在多个权威自动化测试集上也取得了亮眼的成绩:

1. GEdit-Bench:HY-WU树立了开源模型的新标杆。在中文测试(GEdit-Bench-CN)中,它在语义一致性、整体评分和感知质量三大维度上均斩获开源模型第一。在英文测试中,其语义一致性同样位居榜首。值得注意的是,HY-WU在这六项核心指标上好于闭源模型Seedream 4.5和Nano-Banana-Pro。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图14

2. ImgEdit-Bench:在9项细分编辑任务中,HY-WU在开源模型中夺得了5项第一和1项第二。其4.05的总分在所有公开模型中排名第二,与闭源霸主GPT Image 1.5的差距仅为0.11分。

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁图15

扩展性研究:普适性与“规模法则”

研究团队进一步探讨了HY-WU的普适性。实验证明,该框架不仅适用于原生多模态模型,在传统的MMDiT架构(如Qwen-Image-Edit-2509)上同样能带来显著的性能提升。

此外,HY-WU遵循显著的规模法则(Scaling Law)

模型容量:随着Transformer深度从2B增加到7B,性能持续增强。

权重规模:通过增加LoRA的秩(Rank),从0.12B扩展至0.47B参数,模型表现也呈现出清晰的正相关增长。

新范式的新展望:迈向“记忆分离”与“功能模块化”的智能架构

HY-WU技术报告的末尾,混元团队并未止步于图像编辑,而是描绘了一幅以“功能性神经记忆(Functional Neural Memory)”为核心的未来AI路线图,传达了他们对大模型架构范式探索前沿的思考。

R1:检索记忆与功能记忆的协同

存储事实知识的“检索记忆”与存储变换逻辑的“功能性记忆(HY-WU)”从目的和方式上是互补而非替代。究竟什么情况下检索记忆是不够的,而什么情况下功能性记忆构成了互补,是下一步需要实验性验证的重要问题。混元团队建议在需要事实性和样例时考虑检索记忆,而需要变换规则和过程控制时考虑功能性记忆。功能性记忆提供了operator算子需要发生变化时的灵活性。

R2:在线持续学习协议(Online & Continual Protocols)

长远来看,功能性记忆的愿景在于:让新行为对应于参数更新族(Update Family)上的新区域,而非对共享参数点的不可逆覆盖。虽然Part I在机制上通过冲突控制研究和对齐消融实验验证了这一方案的可行性,但尚未评估真正的“在线持续学习”。

混元团队提出,下一步的目标是利用功能性记忆作为算子级工作记忆(Operator-valued Working Memory),定义一种在线协议。通过这种协议,系统在处理顺序到达的新目标时,能够将新技能“写入”更新家族的未开发区域,从而在提升新任务表现的同时,从根本上解决灾难性遗忘问题。

R3:架构容量的重新分配(Capacity Reallocation)

“记忆优先”设计的核心假说在于:规模化(Scaling)不应仅仅意味着增加主干网络的体量。混元团队大胆推测:将主干模型与功能性记忆模块联合规模化,比单纯扩展单体主干模型更具计算和数据效率。

这种直觉源于结构上的重构:单体规模化必须将长尾和冲突的目标“摊销”到一个单一的参数点上,这必然导致妥协与干扰;而功能性记忆分配的是“条件算子容量”,使得罕见或冲突的行为无需被强行固化在共享权重中。

团队在文中提出了四个探索维度,目标在于在于定量化分析:当主干网络参数达到饱和时,通过增加功能性记忆容量,如何进一步提升模型的可控性、冲突鲁棒性及个性化能力。

R4:跨模态的通用性(Cross-Modality Universality)

HY-WU(Part I)以图像编辑作为概念验证,但功能性神经记忆的范式在本质上是通用的。核心挑战在于:如何在不同的信号空间(如视频、音频、3D或多模态智能体)中,利用统一的参数流形逻辑来实现一致的指令遵循。

视频生成中的时间相干性:视频模型通常在时间注意力层(Temporal Attention)面临巨大的平衡压力。通过引入功能性记忆,模型可以为特定的动作序列生成动态的算子偏移,从而在不破坏基础生成能力的前提下,增强动作的幅度与准确性。

多模态对齐:在视觉问答或交互式任务中,主干网络往往需要处理高度异构的输入。功能性记忆可以根据输入模态的比例,实时调节跨模态融合层的参数权重,实现更灵活的感知对齐。

R5:长时一致性与身份记忆(Identity & Long-horizon Consistency)

在长序列生成或复杂的Agent交互中,保持身份(Identity)的一致性是一个长期存在的瓶颈。传统的微调方式往往会导致全局权重的偏移,而R5展望通过功能性记忆来专门存储“身份算子”。团队提出如下探索方向:

身份算子化:可以为特定角色或对象维护专门的参数生成逻辑。当模型识别到特定实体时,生成器会即时合成一套专属的参数约束,确保该角色在跨场景、长时跨度的生成中,其核心特征(如面部细节、材质纹理)始终保持稳定,不随背景或动作的变换而发生漂移。

长时一致性:这种“记忆分离”架构允许模型在处理长视频或多轮交互时,通过动态挂载不同的功能模块来维持逻辑连贯性,实现真正的长程受控生成。

R6:硬件感知的部署优化(Hardware-Aware Deployment)
将适配压力从“静态权重”转移到“动态参数生成”,对推理侧提出了新的系统性挑战。R6聚焦于如何让这种新范式在实际生产环境中具备极高的运行效率。

定制化内核(Custom Kernels):动态生成的参数(如不同实例对应的LoRA更新)往往会导致显存访问模式的碎片化。因此需要开发硬件感知的优化方案,例如针对动态LoRA权重设计的定制化算子融合技术,以减少参数切换带来的开销。

高效推理引擎:通过与FlashInfer等高性能推理引擎结合,优化生成器与主干网络之间的协作效率。

端侧实用性: R6的终极目标是降低参数生成的延迟与功耗,使得HY-WU这种“千人千面”的个性化实时适配,能够在手机、AI PC等端侧设备上真正落地。

HY-WU(Part I)仅仅是一个开始。通过将参数‘释放’(Weight Unleashing),HY-WU正在赋予AI模型一种前所未有的灵活性。混元团队相信这是更强的智能的必要一环。

 

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
more
今日看点:消息称 OpenAI 正洽谈与北约展开 AI 合作;瑞萨电子推出28纳米RH850/U2C汽车微控制器
刚封杀就反杀!Claude逆天1400亿暴击OpenAI,250万人抛弃ChatGPT
小米AI超轻薄旗舰笔记本即将登场,工艺与性能双突破引市场关注
锐龙AI 400系列桌面CPU发布,PCIe通道缩水引发性能隐忧
OpenAI发布GPT-5.4:上下文窗口达百万Token,专业任务性能创纪录
英伟达、AMD 和谷歌AI芯片或将用HBF!
英伟达或将终止对OpenAI与Anthropic的投资,黄仁勋称IPO窗口关闭是主因
MWC2026 | 6G与AI热潮背后,半导体核心技术全维突破
阿里辟谣“千问团队集体离职”传闻,强调开源战略不变并加大AI人才引进
MWC 2026观察:AI无处不在,终端形态“卷疯了”
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号