编辑:Panda
记忆,你有我有,LLM 不一定有,但它们正在有。
前些天,谷歌宣布 Gemini 具备了记忆能力。此前,它已经凭借长达 100 万 token 甚至更高的上下文长度,在「短期记忆」上有不错表现 —— 能够在一次会话中保留大量信息。但这一次,Gemini 可以跨越多次对话,从用户的交流中提炼关键细节和偏好,并在下一次交互时主动调用,让对话更自然、更连贯。

事实上,更早几天,Anthropic 才刚刚为自家的 Claude 装上记忆。在一段演示视频中,一位用户休假归来,向 Claude 询问之前聊过的内容。Claude 会在历史聊天中检索相关记录,阅读并总结给用户,然后询问是否要继续原先的项目。
该公司写道:「你再也不会忘记自己的工作了,Claude 现在会记住你们之前的对话,这样你就可以无缝地继续项目,参考之前的讨论,并在你的想法上进行构建,而不必每次都从头开始。」
至于 OpenAI,在这个方向上却已经走出了相当远。早在 2024 年 2 月份,该公司就已经为 ChatGPT 上线了记忆功能:当用户与 ChatGPT 聊天时,用户可以要求 ChatGPT 记住特定的内容或让它自行获取详细信息。使用频率越多,ChatGPT 的记忆力就会越好,并且随着时间的推移,用户能明显感觉到效果的提升。
前些天,该公司 CEO 山姆・奥特曼更是表示 GPT-6 的一大改进核心也将会是记忆。他表示:「人们想要记忆,人们想要那些需要让 AI 能够理解他们的产品功能。」

而 xAI 也已经在 4 月份让 Grok 能够记忆多轮对话的内容。并且 Grok 的记忆是透明的:用户可以清楚地看到 Grok 知道的内容,并可选择忘记哪些内容。

近段时间来,LLM 记忆这个赛道也越来越拥挤,新的研究、产品不断涌现。这不,字节跳动联合浙大和上交不久前才刚发布一个具备长期记忆能力的多模态智能体 M3-Agent,让记忆能力不再仅限于文本,更是扩展到了视频、音频等多模态数据。
来源:arXiv:2508.09736
另外,我们也看到了一批关注 AI 记忆的创业公司的诞生,包括提出了 MemGPT 的 Letta AI、提出了 AI 的记忆操作系统 MemOS 的记忆张量(上海)科技有限公司以及我们前段时间报道过的提出了拥有一定的原生记忆能力的非 Transformer 架构 Yan 2.0 Preview 的国内 AI 创企 RockAI 等。
这些案例背后,记忆并不只是「存信息」那么简单,而是涉及存储、检索、提炼和遗忘等复杂机制。
而「记忆」也正在成为大模型进一步蜕变以及智能体进一步走向大规模应用的关键技术,正如 OpenAI 前研究高管、Thinking Machines Lab 联合创始人翁荔(Lilian Weng)在其博客文章中展示的那样。

接下来,我们就来看看,LLM 的记忆究竟是如何实现的。
LLM 记忆的类型以及如何实现 LLM 记忆
要构建记忆,必定要先定义记忆。这里我们直接引用翁荔的定义:
记忆可以被定义为获取、存储、保留和随后检索信息的过程。
她又进一步将记忆分为感官记忆、短期记忆和长期记忆:
感官记忆:学习原始输入(包括文本、图像或其他模态数据)的嵌入表示;
短期记忆:即在上下文中的记忆 —— 短暂且有限的,因为它受到 Transformer 有限上下文窗口长度的限制;
长期记忆:可以跨对话使用的记忆,包括智能体在响应用户查询时可以调用的外部向量存储,可以通过快速检索访问。
这里我们不关注感官记忆,同时更加侧重于长期记忆。
根据近期的几篇相关综述报告,我们可以对 LLM 的短期和长期记忆做一个更加详细的归纳分类,包括上下文内记忆、外部记忆、参数化记忆、类人的分层式记忆和情境记忆。
上下文内记忆
上下文内记忆是一种短期记忆。
简单来说,就是将需要模型知道的信息放入模型的上下文窗口之中,也就是放入我们发送给模型的提示词(prompt)中。这样一来,模型就可以在执行推理之前先浏览一遍这些信息。这种方法适用于任何有足够长上下文的 LLM,也是一种简单直接的通用方法。

上下文内记忆是 LLM 的短期记忆。图中,上下文窗口被表示为一个消息阵列。最新消息位于数组末尾。消息按从旧到新的顺序排列。「系统消息」不会被移出上下文窗口,因为它包含对模型至关重要的信息 —— 通常是告知 LLM 其被期望行为的具体指令。图源:johnsosoka.com
但是,这种方法的缺点也很明显:
容量有限:LLM 的上下文窗口长度终究有限,无法容纳海量信息。
成本高昂:将大量信息塞入提示词会显著增加每一次推理的计算成本和时间。
临时性:这部分记忆是「一次性」的,一旦对话会话结束,所有上下文信息都会被遗忘,无法跨会话保留(所以是短期记忆)。
外部记忆
外部记忆是一种非参数化(是指没有融合进模型的参数之中)的长期记忆。这是为了克服短期记忆的限制而生的,同时也是当前构建长期记忆最主流的方式。
其核心思想是将信息存储在模型外部的数据库中(如向量数据库),在需要时通过信息检索技术(Retrieval)将最相关的内容取回,并注入到当前的上下文窗口中,为模型提供决策依据。这一过程通常被称为「检索增强生成」(Retrieval-Augmented Generation, RAG)。
一个完整的外部记忆系统通常包括三个关键操作 :
记忆写入:将新的信息(如对话历史、用户偏好)处理后存入外部数据库。
记忆管理:对已存储的记忆进行更新、合并、去重,甚至遗忘过时或不重要的信息 。
记忆读取:根据当前的用户查询,从数据库中高效地检索出最相关的记忆片段。

记忆的读取(R)、写入(W)和管理(M)过程,其中虚线表示交叉试验信息可以整合进记忆模块,图源:arXiv:2404.13501
这种方法的优势在于灵活性高,可以存储海量信息,并且更新记忆无需重新训练模型 。但它也面临挑战,即检索的准确性和效率至关重要:一旦检索失败或错误,就可能会向模型提供无关甚至错误的「记忆」,从而影响最终输出的质量。
参数化记忆
与将记忆存储在外部不同,参数化记忆是试图将信息直接编码进大模型自身的参数(即神经网络的权重)中。这是一种更深层次的「内化记忆」。

非参数化记忆与参数化记忆,图源:arXiv:2411.00489
实现参数化记忆的方式主要有:
模型微调:通过在特定数据集上进行训练,将领域知识或特定人设「注入」模型参数中 。例如,用医疗知识微调模型,使其成为一个专业的「医疗智能体」。
知识编辑:与需要大量数据和计算的微调不同,知识编辑技术可以精确地修改模型参数中存储的特定事实,同时尽量不影响其他知识,适合小规模、高精度的记忆更新。
轻量化适应:采用低秩适应(LoRA)等参数高效的微调技术,通过训练一个微小的「外挂」模块来承载新的记忆,从而在不改动庞大基础模型的前提下实现记忆的更新 。

图源:arXiv:2404.13501
参数化记忆的优点是信息一旦被编码,检索速度极快,因为在推理时它就是模型的一部分,没有额外的检索延迟。
但其缺点是记忆的更新成本高昂,通常需要重新训练或微调,并且存在「灾难性遗忘」的风险,即模型在学习新知识时可能会忘记旧的知识 。
类人的分层式记忆和情境记忆
为了让 AI 的记忆机制更接近人类,有研究者们从认知科学中汲取了灵感,设计了更复杂的、类似人脑的记忆架构。人类的记忆并非扁平的,而是分为记录具体事件的情景记忆(Episodic Memory,如「我昨天午餐吃了什么」)和存储一般事实与知识的语义记忆(Semantic Memory,如「地球是圆的」)。

人类记忆与 LLM 记忆的对比,图源:arXiv:2504.15965
受此启发,分层式记忆系统被提出,它通过更精细化的记忆管理,实现从原始信息到抽象知识的提炼。
记忆整合与提炼:模型不仅仅是存储原始对话,还会对其进行加工。例如,一个智能体可以先将每天的对话内容总结成一个个具体的「情景记忆」片段。
反思与抽象:随着时间的推移,智能体会通过「反思」(Reflection)机制,从大量的情景记忆中提炼出更高级、更抽象的「语义记忆」。比如,从「用户 A 连续一周都在下午 3 点询问咖啡推荐」这一情景中,提炼出「用户 A 有下午喝咖啡的习惯」这一语义层面的偏好。
这种分层式的记忆结构让 AI 不仅能「记住」发生了什么,更能「理解」这些事情背后的模式和意义,从而做出更智能、更具洞察力的反应。
需要指出,在实际应用中,上述不同类型的记忆并非完全独立,而是经常被组合使用,形成「混合记忆(Hybrid Memory)」系统。
举个例子,一个智能体可能用参数内记忆来固化其核心性格,同时利用外部记忆来动态记录与用户的每一次互动,从而兼顾稳定性和灵活性。
另外,这里的分类也并未穷尽,更多的记忆方法也在不断涌现。
近期一些值得关注的记忆系统
了解了 AI 获得短期和长期记忆的几种形式,下面我们来看一些具体的记忆实现。
OpenAI 等大厂是怎么做的?
OpenAI 的 ChatGPT 的记忆功能上线于去年 2 月份,用户可以在聊天中显式让 ChatGPT 记住某些东西,比如「记住我喜欢 Python 编程」或者「记住我的孩子叫 Lucy」。这些记忆会被单独存储,后续的对话会将这些信息作为背景注入模型的系统提示词中,让 AI 具备「常识」般记住用户的偏好。用户也可以直接要求它记住 / 忘记某件事情,并在个人设置中查看和管理这些记忆条目。

ChatGPT 中保存的记忆
除了显式记忆,ChatGPT 还能借助最近的对话历史来理解上下文和用户的习惯。从 2024 年起,OpenAI 还实现了「跨会话历史」引用,即 ChatGPT 能在不同会话中,基于之前的交互自动捕捉细节,比如你的表达风格、关注的主题等,从而提供更连贯的服务。
从其描述来看,ChatGPT 实现记忆机制的原理并不复杂:ChatGPT 会将用户记忆以结构化片段保存于服务器端(如向量数据库 + 常规数据库),再通过提示工程方式,在生成回复时自动将用户记忆片段注入模型参考语境,实现个性化推荐和上下文延续。这类似于给 AI 补充用户专属背景知识库,让 AI「越来越懂你」。
相较之下,Anthropic 的 Claude 的记忆则更加简单一些 —— 它不是像 OpenAI 的 ChatGPT 那样的持久记忆功能;Claude 只会在用户要求时才会检索和引用过去的聊天记录,而且它不会建立用户档案。
而 Gemini 看起来与 ChatGPT 的功能类似,另外还支持用户自己录入想要 Gemini 记住的东西。

Gemini 支持直接录入记忆
像管理内存一样管理记忆
上面 ChatGPT、Claude 和 Gemini 处理用户记忆的方式还很简单,核心技术是提示工程。这类方式会受到模型上下文窗口大小的限制,难以承载更多信息。
那如果让记忆本身也智能化呢?论文《MemGPT: Towards LLMs as Operating Systems》提出使用一个专门的记忆 LLM 智能体来管理工作 LLM 上下文窗口。
该系统配备了一个大型的持久记忆,用于存储所有可能被纳入输入上下文的信息,而那个智能体的职责则是负责决定哪些信息实际被包含进工作 LLM 的上下文窗口。该技术受传统操作系统中分层内存系统的启发 —— 通过在物理内存与磁盘之间进行分页,实现扩展虚拟内存的假象。

图源:arXiv:2310.08560
如上图所示,在 MemGPT 中,一个有着固定上下文长度的 LLM 处理器配备了分层内存系统和一些函数,使其能够管理自身的记忆。这个 LLM 的提示 token(输入,即主上下文)由系统指令、工作上下文和 FIFO 队列组成。LLM 的完成 token (输出)会被函数执行器解释为函数调用。MemGPT 使用函数在主上下文和外部上下文(归档和调用存储数据库)之间移动数据。LLM 可以通过在其输出中生成一个特殊的关键字参数 (request heartbeat=true) 来请求立即进行后续的 LLM 推理,从而将函数调用链接在一起;函数链使得 MemGPT 能够执行多步检索来回答用户查询。
为 AI 记忆打造一个操作系统
记忆张量(上海)科技有限公司等提出的 MemOS(Memory Operating System)则更进一步,借鉴了传统操作系统的分层架构设计,也融合了 Memory3(忆立方)大模型在记忆分层管理方面的核心机制。与传统 RAG 或纯参数存储不同,MemOS 把 「记忆」 看作一种和算力同等重要的系统资源。它通过标准化的 MemCube 记忆单元,将明文、激活状态和参数记忆统一在同一个框架里进行调度、融合、归档和权限管理。简单来说,模型不再只是 「看完即忘」,而是拥有了持续进化和自我更新的能力。
MemOS 整个系统由 API 与应用接口层、记忆调度与管理层、记忆存储与基础设施层三大核心层次组成,构建了一套从用户交互到底层存储的全链路记忆管理闭环。

MemOS 框架,图源:http://memos.openmem.net/
在 API 与应用接口层,MemOS 提供了标准化的 Memory API,开发者可以通过简单的接口实现记忆创建、删除、更新等操作,让大模型具备易于调用和扩展的持久记忆能力,支持多轮对话、长期任务和跨会话个性化等复杂应用场景。在记忆调度与管理层,MemOS 提出了记忆调度的全新范式,支持基于上下文的 「下一场景预测」,可以在模型生成时提前加载潜在需要的记忆片段,显著降低响应延迟、提升推理效率。而在记忆存储与基础设施层,MemOS 通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆三种形态有机整合。它支持多种持久化存储方式,包括 Graph 数据库、向量数据库等,并具备跨模型的记忆迁移与复用能力。
无独有偶,北邮百家 AI 团队推出的 MemoryOS 则巧妙融合了计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。

MemoryOS 架构概况,图源:arXiv:2506.06326
记忆的分层细化
从上面几个项目可以看出,记忆管理的一个重要方面是分层。这其实也很好理解,正如人类的记忆一样,LLM 的记忆同样也有轻重缓急。
在这方面,MIRIX 是近期一个较为亮眼的项目,其将记忆细分成了 6 类来进行处理:核心记忆、情景记忆、语义记忆、程序记忆、资源记忆、知识金库。

MIRIX 的六个记忆组件,每一个都有自己的专属功能。图源:2507.07957
基于此,MIRIX 可以先理解需求,再决定在哪种记忆中搜索,再组合答案。也就是说:它会思考「我要回忆什么」,而不是机械地索引。
具体来说,他们提出了一种模块化多智能体架构,由若干专用组件在统一调度机制下协作完成输入处理、记忆更新和信息检索。整个系统包括:元记忆管理器(Meta Memory Manager)、记忆管理器(Memory Managers)以及对话智能体(Chat Agent)。
在记忆更新时,当系统接收到新的输入(如用户提供的文本、推断出的事件、上传的文件)时,会按如下流程进行处理:初步检索→路由与分析→并行更新→完成确认。

MIRIX 的记忆更新工作流程,图源:2507.07957
在对话检索时,检索流程的主要步骤是:粗检索→目标检索选择→精细检索→结果整合与答案生成→交互式更新。这一流程可确保系统的回答不仅有一致性,也能根据最新知识动态调整。

MIRIX 的对话检索工作流程,图源:2507.07957
结构化记忆与图式记忆
在处理大模型所要记忆的内容时,一种常见的方法是将记忆转化为向量数据库:也就是把文本型的记忆信息转成嵌入(Embedding)向量,存入数据库中。这样,当用户再次提问时,系统可以通过语义检索快速找到相关的记忆,再交给模型使用,其流程大致是:信息提取 → 向量化(Embedding) → 存入向量数据库 → 检索增强生成(RAG)。
不过,这种方法也存在一定的缺点:
记忆容易冗余:如果信息太多,存储空间和检索成本都会增加。
缺乏层次和结构:向量检索找到的是「语义相似」,但不能很好地表达时间顺序、因果关系或知识结构。
检索不稳定:有时会找不到真正相关的信息,或者返回「相似但不正确」的片段。
因此,在记忆系统的构建中,一个重要的探索方向是对需要 AI 记忆的内容进行提炼、压缩和结构化处理。这不仅能提升记忆容量,也能让模型在回忆时更准确、更高效。具体方法包括:
把知识点存储成数据库条目,带有清晰的键值和属性。
用图(Graph)结构来表示实体之间的联系,方便模型理解因果、上下位关系。
甚至可以结合多层记忆:短期向量记忆(快速检索)+ 长期结构化记忆(稳定存储)。
举个例子,新加坡国立大学和同济大学等提出的 G-Memory 设计了一个三层图式基于模型,分别为洞察图、查询图和交互图。

G-Memory 概况,中间可以看到其三层图式记忆架构,图源:2506.07398
其中,洞察图用于捕捉单智能体对环境与交互的主观理解,查询图是统一智能体间的任务需求与意图表达,而交互图则能显式地建模各智能体之间的协作路径、沟通历史与记忆共享权限。
通过这种分层记忆图式结构,G-Memory 支持「定制化记忆视角」与「跨智能体语义映射」,可有效解决多智能体间记忆污染和路径冲突等协同问题,也为异质智能体系统构建了可扩展的记忆编排范式。
多模态记忆
随着多模态时代的到来,AI 系统不仅要理解和记住文本,还需要处理图像、视频、音频等多模态信息,对多模态记忆的需求也随之产生。相比文本,多模态记忆的难点在于信息量巨大、时序关系复杂、知识结构分散,这对 AI 的存储与检索能力提出了更高的挑战。
为应对这些挑战,AI 社区正在积极探索不同的解决方案。
其中,由前 Meta Reality Labs 顶尖科学家团队创立的研究实验室 Memories.ai 提出了「大视觉记忆模型」(LVMM)。
这一模型为 AI 系统引入了革命性的视觉记忆层:它突破了传统 AI 在视频处理中仅限于「片段式分析」的局限,转而能够持续捕获、存储和结构化海量的视觉数据。这样,AI 不仅能够永久保留上下文信息,还能精准识别时序模式、进行智能对比分析。换句话说,该平台可以将原始视频转化为可搜索、带有上下文关联的数据库,从而赋予 AI 系统类似人类的持续学习能力,配备上了一个几乎无限的「视觉大脑」。
与此同时,国内也出现了新的探索。字节跳动联合浙江大学和上海交通大学发布了 M3-Agent。这是一种具备长期记忆能力的多模态智能体。其架构由多模态大语言模型(MLLM)和多模态长期记忆模块组成,整体分为「记忆(memorization)」与「控制(control)」两大并行过程:
在记忆阶段,M3-Agent 能够实时处理视频与音频流,并生成「情节记忆」和「语义记忆」;
在控制阶段,系统则依托长期记忆进行推理和任务执行,能够跨事件、角色等多个维度自主检索相关信息。

M3-Agent 架构,图源:arXiv:2508.09736
值得注意的是,M3-Agent 并非依赖单轮的 RAG 来调用记忆,而是通过强化学习驱动的多轮推理与迭代记忆检索,从而显著提升任务完成率。
此外,M3-Agent 在长期视频处理方面提出了两项关键突破:
无限信息处理:不再局限于离线、有限长度的视频,而是能够持续处理任意长的多模态输入流,更接近人类长期记忆的形成方式。
世界知识构建:传统方法往往停留在低层次的视觉描述,而 M3-Agent 通过实体中心化的记忆结构,逐步积累角色身份、实体属性等高层知识,从而保证长期上下文的一致性与连贯性。
通过这些探索,可以看到多模态记忆正从「存储片段」走向「构建世界」,这无疑将成为下一代智能体实现真正长期学习与理解的关键。
将记忆原生融入模型
除了外挂式的记忆机制,也有一些探索尝试将记忆能力直接融入模型自身。最基本的方法是基于需要记忆的数据对模型进行再训练,让记忆「写入」参数,比如使用 LoRA 或测试时训练来进行记忆参数化。然而,近期学界和业界也出现了一些更加有趣的尝试。
Meta 在论文 《Memory Layers at Scale》 中提出了「记忆层」(memory layers)的概念。按照传统做法,语言模型的信息主要存储在网络权重中,而提升记忆能力通常依赖于扩大参数规模。但这种方式的代价是巨大的计算和能耗,而且对于一些「简单的关联记忆」(如名人生日、国家首都、概念间的对应关系),并非最优解。

左图为常规记忆层,右图为改进的 Memory+ 模块,图源:arXiv:2412.09764
记忆层则提供了一种更加自然且高效的路径。其核心思想是通过键 - 值对检索机制来实现关联存储与调用,即以 embedding 表示键和值,实现一种神经网络内部的「查表式记忆」。早期虽然有类似的工作(如 Memory Networks、Neural Turing Machine),但并未在大规模 AI 架构中真正发挥作用。Meta 的研究突破在于将 Transformer 中的前馈网络(FFN)替换为记忆层,并保持其他部分不变。
Meta 还在大规模实验中验证了记忆层的可扩展性,其记忆容量可达 1280 亿参数级别,相比以往提升了两个数量级。
这表明,记忆层有潜力成为下一代大模型的核心组件。
另外,Meta 去年提出的 Branch-Train-MiX (BTX)方法也有望成为一种实现参数化记忆的手段,其包含三个主要步骤。

BTX 方法概况,图源:arXiv:2403.07816
在 Branch 和 Train 阶段,会基于预训练的种子模型创建多个副本(称为专家模型),并在不同的数据子集上进行独立训练,每个副本对应一个特定的知识领域,例如数学、编程或百科。此训练过程并行且异步,从而可降低通信成本并提高训练吞吐量。
接下来,在 MiX 阶段,这些专家模型的前向子层被合并为一个 MoE 模块,形成统一的 MoE 模型。在每个 Transformer 层中,使用路由网络来选择将哪个专家的前馈子层应用于每个 token。自注意力子层和其他模块的权重通过简单的平均进行合并。
最后,在 MoE 微调阶段,合并后的模型在整个训练数据集上进一步微调,使路由网络能够学习在测试期间如何在不同专家之间动态路由 token。
与此同时,另一条不同的路径来自国内 AI 创企 RockAI,其提出的 Yan 2.0 Preview 模型具有「原生记忆能力」,能够在推理的同时把记忆直接融入参数中。值得注意的是,它并未采用常规的 Transformer 架构和注意力机制,而是基于 Yan 架构。

Yan 2.0 Preview 架构示意图
Yan 2.0 Preview 通过一个可微分的「神经网络记忆单元」实现记忆的存储、检索和遗忘。
与外挂知识库不同,这种方式更接近生物记忆:模型会将理解过的信息内化为权重的一部分,形成一种真正「自身的记忆」。在使用体验上,这意味着用户无需再手动管理知识库(增删改查),而是可以依赖模型实现端到端的记忆与调用。
关键挑战与未来趋势
构建一个真正强大、可靠且智能的 LLM 记忆系统,其难度不亚于模型本身的研发。尽管我们已经看到了诸多创新,但前路依然充满挑战。结合相关综述报告、技术博客以及学术界的深入探讨,我们可以将这些挑战与未来的发展趋势归纳为以下几个方面。
1. 挑战:从数据堆砌到智能管理 —— 学习遗忘与整合
遗忘其实与记忆一样重要,而当前许多记忆系统,特别是基于外部数据库的方案,更像是一个信息仓库,面临着只进不出的困境。
失控的记忆增长:模型缺乏类似人脑的有效遗忘机制 。在没有主动干预的情况下,记忆会无限累积,不仅增加了存储和检索的负担,还可能因为过时或无关的信息干扰而降低决策质量。
信息冲突与更新难题:当新旧信息或多个信息源发生冲突时,模型往往难以像人类一样巧妙地进行整合与更新,形成新的、更准确的记忆。如何让模型自动解决记忆间的矛盾,是实现动态和自适应记忆的关键。
未来的研究需要为 AI 设计更精巧的记忆管理机制,让它学会断舍离,主动遗忘不再重要的信息,并智能地融合新知识。

arXiv:2411.00489 中提出的 Self-Adaptive Long-term Memory (SALM) 架构中包含了长期记忆的遗忘阶段
2. 挑战:效率、成本与可扩展性的不可能三角
不同的记忆方案在效率和成本之间面临着艰难的权衡。
外部记忆的延迟:虽然灵活,但依赖 RAG 的外部记忆系统在每次查询时都需要经过「检索→注入上下文」的步骤,这带来了额外的计算延迟,限制了其在实时应用中的表现 。
参数记忆的僵化:将记忆写入模型参数虽然能实现快速调用,但更新成本极为高昂。无论是完全微调还是知识编辑,都难以支持需要频繁更新记忆的在线学习或终身学习场景。
未来的方向在于探索更高效的混合记忆架构,以及更轻量化、低成本的参数内记忆更新技术,以平衡记忆的灵活性、调用速度和更新成本。
3. 趋势:从功能模拟到结构仿生 —— 走向多模态与综合记忆系统
未来的 LLM 记忆将不再局限于单一功能,而是朝着更全面、更类似人脑的综合系统演进。
迈向多模态记忆:正如人类通过视觉、听觉、触觉等多种感官形成记忆,AI 的记忆也正从纯文本扩展到图像、音频、视频等多模态数据 。一个能记住用户长相、声音和对话场景的智能体,无疑将提供远超文本交互的个性化体验。
构建综合记忆架构:当前研究多集中于记忆的某个特定方面(如短期对话或长期知识)。未来的先进系统将整合不同类型的记忆模块(类似人类的感官记忆、工作记忆、情景记忆和语义记忆)让它们协同工作,形成一个多层次、多维度、能够自适应的综合记忆中枢 。

图源:https://www.youtube.com/live/n-slj72yx8w?si=St48Q9D_h-RFwB5g
4. 趋势:从孤立个体到记忆互联 —— 智能体间的共享与协作
随着多智能体系统的兴起,记忆的边界正在从单个智能体扩展到智能体网络。
共享记忆:未来的智能体集群将能够访问一个共享的记忆池,或者在彼此之间传输、同步记忆。比如,一个精通医疗的智能体可以将它的知识记忆共享给一个金融智能体,以协作完成复杂的跨领域任务。
集体智能与隐私:这种记忆的互联将催生更强大的集体智能,但也带来了新的挑战,例如如何在协作与竞争中管理信息不对称 ,以及如何保护从个人数据聚合而来的集体隐私 。
5. 终极目标:从规则演化到自动演化
目前,智能体的反思和成长在很大程度上仍依赖于人类预先设定的规则。终极目标是实现记忆的自动演化,即智能体能够根据与环境的持续互动,自主地学习如何管理和优化其记忆,动态调整策略,并最终实现无需人工干预的终身学习。
正如天桥脑科学研究院和普林斯顿大学等发布的《Long Term Memory : The Foundation of AI Self-Evolution》中写到的一样:「模型的自我进化能力是模型长期适应和个性化的关键,而这又严重仰赖于有效的记忆机制。」

arXiv:2410.15665 中给出的长期记忆与 AI 自我进化示意图
当它真正实现时,这不仅将是记忆技术的飞跃,更是通往通用人工智能(AGI)的关键一步。
从「数据档案」到「认知核心」,
记忆正在重塑 AI 的本质
回望全文,我们不难发现,记忆正在成为划分 AI 新旧时代的「分水岭」。它将大型语言模型从一个 stateless(无状态)的、一次性的「文本计算器」,转变为一个 stateful(有状态)的、能够积累经验并持续演化的「认知主体」。
我们见证了这场变革的完整路径:从受限于上下文长度、昙花一现的短期记忆,到以 RAG 为代表、将信息存储于模型之外的外部记忆,再到尝试将知识内化为模型一部分、挑战与机遇并存的参数化记忆。这些探索的本质,是让 AI 从「使用信息」走向「拥有经验」。如今,行业已经不再满足于让 AI 仅仅记住事实,而是开始系统性地设计它应该如何记忆、如何反思、如何提炼,乃至如何遗忘 —— 这标志着我们正在从构建「数据档案」迈向构建 AI 的「认知核心」。
展望未来,AI 记忆的发展将不再是单一技术的线性优化,而是一场深刻的架构革命。其终极形态,或许是一个能高度模拟人脑机制的综合认知记忆系统。在这样的系统中,记忆不再是被动调用的知识库,而是驱动模型构建和更新其内部「世界模型」的主动引擎。
这个未来的记忆系统将具备三大特征:
多模态原生 (Multimodal Native):它将不再区分文本、图像或声音,而是将所有感官输入无缝融合成统一的、包含丰富情境的多模态记忆,形成对物理世界更完整、更深刻的理解 。
终身自主演化 (Lifelong Autonomous Evolution):它将具备近乎生物的终身学习能力 ,能通过持续的自我反思与记忆整合,在没有人类强干预的情况下不断成长。遗忘不再是被动的清除,而是一种主动的、为吸收新知识而优化内存的智能策略。
社会化与协同 (Social & Collaborative):记忆将突破单个智能体的限制,通过共享记忆机制,构建起智能体间的「集体意识」 。专业化的智能体可以像人类专家一样交流、协作,共同完成远超个体能力的复杂任务。
这场关于记忆的探索,其意义已远超技术本身。我们正试图赋予机器一段连贯的「生命历程」,让它拥有自己的「过去」,并以此塑造它的「现在」和「未来」。

AI 发展史以及未来预测,英文源图:Concentrix
当一个 AI 能够凭借其积累的记忆,展现出独特的「个性」、形成稳定的「价值观」、甚至与我们建立起深刻的情感连接时,那或许才是 AGI 真正到来的拂晓时分。我们教机器记忆,最终可能是在创造一种全新的、能够与我们共同演化的智能生命。
参考链接
https://arxiv.org/abs/2404.13501
https://arxiv.org/pdf/2504.15965v2
https://lilianweng.github.io/posts/2023-06-23-agent/
https://arxiv.org/pdf/2504.02441
https://www.cnbc.com/2025/08/19/sam-altman-on-gpt-6-people-want-memory.html
https://x.com/unwind_ai_/status/1957998921835298946
https://arxiv.org/abs/2411.00489
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com