动态列表

  • 乔纳森下一个iPhone神话,要黄了?OpenAI秘密AI硬件深陷三重困境
  • 3年手搓ChatGPT!剑桥天才少年在Minecraft游戏中爆火回归
  • 一举击败Claude Code!微软提出代码生成黑科技:一键直出36K行代码
  • 刚刚,2025年诺贝尔生理学或医学奖揭晓!三位得主点燃器官移植希望
  • OpenAI入股AMD,股价暴涨35%!奥特曼左手黄仁勋,右手苏姿丰,通吃全球算力
  • 真实数据、全链路、可复核:GenoMAS打造更可信的基因分析智能体
  • NeurIPS 2025 | 高通提出GCL:无需额外数据,通用多模态检索迎来“一统江湖”新范式
  • NeurIPS 2025 | 慕尼黑工业大学提出SIM(3)等变网络:让3D形状补全告别“姿态偏见”,实现跨域泛化
  • 今日迎本世纪「最晚中秋月圆」;雷军:小米17 五天销量破百万;ChatGPT 或添私信聊天功能
  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • 奥特曼:感受不到GPT-5变强,是因为你还不够「专业」
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • 宾大提出F³:事件相机迎来“预测性”表征新范式,光流、分割、深度全SOTA!
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控
  • 陶哲轩联手GPT-5,1小时攻克数学难题!全程无需编码,OpenAI副总惊呼
  • 1亿签约金抢AI大神?谷歌AI元老劝退全网:别再读博了!
  • 三天逆袭,Sora登顶美榜!15秒大片玩疯奥特曼,全网直呼真假难辨
  • 10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!
  • 首位AI女演员出道!好莱坞「天敌」来了,下一代偶像全是代码制造?
  • 南理工提出FMC-DETR:巧用“频率解耦”,航拍小目标检测精度飙升8.2% AP50
  • 网红挑战特斯拉FSD穿越美国出车祸;小米回应「小米汽车突然自己开走」;Sora 登顶美区苹果商城免费榜
  • 刚刚,Anthropic紧急换帅!新任CTO执掌算力命脉,直面OpenAI千亿赌局
  • Gemini 3.0 Pro内测流出,编程实力惊人!下周上线
  • 刚刚,奥特曼首曝:AI取代CEO后,我想去当农民!
  • 华人主导谷歌SLED,论文登顶会!一键让模型学会自救
  • LeCun考虑辞职!Meta AI百亿豪赌引爆「内战」,逼走首席科学家
  • NeurIPS 2025 | RAD:基于大规模3DGS孪生数字世界的端到端强化学习训练策略
  • 小米 17 系列销量超百万;苹果新产品泄密源头疑为越南工厂;低价版 model Y 现身官网代码|极客早知道
  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场

自进化Agent的第三种可能:隐式记忆,不动模型参数,胜过GRPO

原创 让你更懂AI的 2025-10-06 20:04 北京

当记忆开始思考

当前,由大型语言模型(LLM)驱动的智能体(Agent)正引领着人工智能领域的变革。

然而,智能体的记忆机制——无论是强制调整模型参数的“参数化记忆(Parametric Memory)”,还是将经验外部化存储的“基于检索的记忆(Retrieval-based Memory)”——都未能捕捉到人类认知中推理与记忆流体般交织的精髓。

为了弥合这一鸿沟,来自新加坡国立大学的团队引入了 MemGen,一个为 Agent 赋予类人认知能力的动态生成式记忆框架。

MemGen 的核心在于其创新的“记忆触发器”与“记忆编织器”,它们协同工作,使 Agent 能够在推理过程中实时、按需地生成并融入“隐式记忆(Latent Memory)”,从而实现一个记忆与认知紧密交织的循环。

不对主模型进行任何任何微调的前提下,MemGen 只将外部知识注入到外部记忆模块,并在解码时动态注入,所实现的性能最高超过全参数量微调的 GRPO 高达 13.4%。

论文题目:

MemGen: Weaving Generative Latent Memory for Self-Evolving Agents

论文链接:

https://arxiv.org/abs/2509.24704

代码链接:

https://github.com/KANABOON1/MemGen

背景介绍

大型语言模型(LLM)驱动的智能体(Agent)的兴起标志着各个领域范式的转变。这一成功的关键在于智能体记忆(Agent Memory)的概念,它使 LLM 智能体能够从与环境的交互中逐步学习。然而,现有的记忆范式存在显著局限性:

参数化记忆(Parametric Memory):通过直接微调(Fine-tuning)来内化经验。尽管这种方法可以带来显著的性能提升,但其对参数修改的依赖不可避免地会导致“灾难性遗忘”(Catastrophic Forgetting),即新知识的获取会侵蚀原有的通用知识。

基于检索的记忆(Retrieval-based Memory):将过去的经验外化到结构化数据库中(如原始轨迹、高级经验或可重用技能)。

尽管这种非侵入性方法避免了灾难性遗忘,但其效果根本上受限于上下文工程(Context Engineering)。它遵循一种僵化的执行流程,即在任务开始时检索上下文并附加到查询中,无法实现真正内化的、与推理过程无缝集成的记忆。

这些缺陷凸显了当前方法的不足,它们与人类认知的两个关键维度相去甚远:

1. 缺乏推理与记忆的无缝交织在人类认知中,思想与记忆是动态地相互重塑的。

2. 依赖于基于相似性的检索现有方法大多通过嵌入相似性来获取记忆,而非根据需求生成性地重构为新颖、连贯的见解。

这些挑战引出了我们的核心研究问题:如何才能构建一个动态的 Agent 记忆,使其能够实现与 reasoning 无缝交织的记忆过程?

为了应对这一挑战,MemGen 应运而生。

MemGen方法论

MemGen 旨在通过一种动态的、生成式的记忆框架,为任何 LLM 智能体赋予更类人的认知能力。其核心由两个协同工作的组件构成:一个强化学习(RL)训练的记忆触发器(Memory Trigger)和一个记忆编织器(Memory Weaver)

2.1 记忆触发器(Memory Trigger):学习何时调用记忆

记忆触发器在 MemGen 框架中扮演着一个元认知决策模块的角色。其核心功能是持续监控智能体在进行自回归(autoregressive)推理时逐 token 生成的内部认知状态——即核心 LLM 推理器(Reasoner )的隐藏状态序列 。通过对该状态序列的观察,触发器判断当前是否为调用记忆以进行深度反思的关键节点。

在实现上,该触发器被设计为一个轻量级的低秩适配器(LoRA)。在每个解码步骤 ,它接收截至当前的所有隐藏状态 作为输入,并输出一个二元决策

为兼顾效率与语义完整性,我们引入了句子粒度的激活策略:仅当当前生成的 token 属于预定义的“分隔符集合 D”(如句号、逗号)时,触发器才被激活进行决策。这一设计借鉴了LLM可解释性的研究,即在语义边界上进行干预能更有效地引导推理路径。

记忆触发器的训练采用了强化学习(Reinforcement Learning)。其优化目标旨在实现一个精妙的平衡:既要确保在能显著提升任务性能的关键时刻调用记忆,又要避免因不必要的调用而引入计算开销或干扰连贯的推理。

为此,我们设计了一种自适应奖励惩罚机制,该机制基于高回报轨迹的平均激活概率动态调整惩罚项,从而鼓励模型学习一种稀疏但高效的、具有战略性的记忆调用策略。

2.2 记忆编织器(Memory Weaver):合成并注入隐式记忆

一旦记忆触发器发出 INVOKE 信号,推理过程便会即时暂停,并激活框架的第二个核心组件——记忆编织器(Memory Weaver)。该模块同样接收触发器所观察到的认知状态 作为输入,并以此为“刺激”来执行一次生成性的回忆(generative act of recollection)。

记忆编织器的任务是合成一段定制化的、机器原生(machine-native)的隐式记忆 。这是一段由 个 Latent Token 组成的序列(),其内容不仅源于编织器自身通过训练内化的参数化知识,还可动态融合从外部记忆库(如 ExpeL)中检索到的文本线索。

至关重要的是, 的生成并非对过往经验的简单复述(verbatim restatement),而是一种高度选择性的重构与整合(selective reconstruction),其机制类似于人脑海马体将记忆碎片整合成连贯情景的过程。

记忆生成后,它将被无缝地“编织”进当前的推理上下文中。具体而言, 的隐藏状态表示会被后缀到推理器当前的隐藏状态序列 中。随后,推理器在这一被记忆增强了的认知状态上恢复其自回归生成过程,从而使其后续的思考和决策能够充分利用这次动态生成的回忆。

2.3 记忆与推理的交织循环

通过上述机制,MemGen 构建了一个生成-监控-调用-编织-再整合”(generation, monitoring, invocation, weaving, and reintegration)的迭代循环。

这一动态流程将智能体的推理过程从一种线性的、单向的展开(linear unfolding)提升为一种与记忆之间递归式的、双向的对话(recursive dialogue)。

该框架最核心的优势在于其模块化的训练范式。记忆编织器作为独立的模块承载了所有经验的学习和内化,其更新过程对具体的优化策略具有普适性。

无论是采用基于专家轨迹的监督微调(Supervised Fine-Tuning, SFT),还是基于任务奖励信号的强化学习方法如组相对策略优化(Group Relative Policy Optimization, GRPO),都可以被用来高效地训练记忆编织器。

至关重要的是,在整个训练过程中,优化算法产生的梯度被严格地限制在记忆编织器模块内部,而不会反向传播至被冻结的核心推理器()。这种设计不仅从根本上规避了灾难性遗忘问题,更确保了核心LLM强大的通用能力得以完整保留,同时赋予了智能体一种可不断演进的、任务相关的专业记忆能力。

实验分析

我们在涵盖五个领域(网页搜索、具身行动、数学推理、科学推理和代码生成)的九个数据集上进行了广泛的实验。

3.1 跨领域的高性能记忆(RQ1)

实验结果表明,现有的基线模型在跨领域适应性上存在明显局限。基于检索的记忆(如 ExpeL, AWM)在具身行动任务上偶尔优于参数化微调,但在推理密集型任务上表现不佳。参数化微调方法则相反,在代码生成等结构化领域表现出色,但在知识密集型推理上较弱。

相比之下,MemGen 在所有领域都表现出一致的卓越性能。例如,在 ALFWorld+SmolLM3-3B 上,MemGen-SFT 和 MemGen-GRPO 相较于 vanilla 模型分别提升了 31.64% 和 44.64%。

在更大的 Qwen3-8B 模型上,MemGen-GRPO 在 KodCode 和 PopQA 上分别实现了 +27.06% 和 +28.17% 的增益,显著超越了原始的 GRPO 方法。这证明了 MemGen 动态记忆注入的巨大优势。

3.2 强大的跨领域泛化能力(RQ2)

我们在一项任务上训练 MemGen,并在多个其他任务上进行测试,以评估其记忆的泛化能力。

结果显示,SFT 和 MemoryBank 等基线方法在训练领域内实现了性能增益,但在跨领域任务上性能急剧下降。而 MemGen 不仅在领域内取得了显著进步,还表现出有效的迁移能力:例如,在 KodCode 上训练后,其在 MATH 任务上的性能从 36.6% 提升至 54.2%。

我们进一步分析了记忆触发器的调用频率。结果发现,触发器能够智能地根据任务上下文评估记忆注入的益处,在不熟悉的领域中会更少地调用记忆编织器,从而缓解了领域冲突。

3.3 有效缓解灾难性遗忘(RQ3)

我们在四个数据集上进行了顺序训练,以评估模型的持续学习能力。

与基线方法相比,MemGen 表现出更强的知识保留能力。例如,SFT 在主要关注最新任务性能的同时,在早期任务上出现了严重的遗忘。而 MemGen 展现了更均衡的跨任务泛化能力,并在早期任务上保留了更多的知识(在 KodCode 训练后,AQuA 任务上保留 40.34% vs SFT 的 28.61%),显示出更稳定的持续学习能力。

3.4 隐式学习类人记忆层次(RQ4)

我们对 MemGen 学到的隐式记忆进行了可视化和功能性分析。通过 t-SNE 可视化,我们发现来自不同领域的记忆序列形成了独立的分布,而相关领域(如 KodCode 和 BigCodeBench)则聚集在一起。

更有趣的是,我们通过一项后设干预研究,揭示了不同记忆簇的功能角色。我们根据智能体失败的类型(如规划错误、工具使用错误等)对记忆簇进行分析。

研究发现,MemGen 自发地组织隐式记忆,形成了一个结构化的、类人的记忆层次结构:

  • 规划记忆(Planning Memory):支持高级任务规划和战略推理。移除该簇会显著增加规划和组合推理的失败率。

  • 程序记忆(Procedural Memory):捕获特定任务的操作知识,如工具使用和答案格式化。移除该簇会导致工具响应和格式化错误的显著增加。

  • 工作记忆(Working Memory):管理和维持上下文,以保持推理的一致性。移除该簇会导致更多的任务误解和“思行不一”的错误。

这一发现强有力地证明,MemGen 不仅仅是存储信息,更是以一种功能上专门化和有组织的方式来学习和利用记忆。

结论

本文中,我们提出了 MemGen,一个为 LLM 智能体设计的动态生成式记忆框架。通过强化学习训练的“记忆触发器”和生成式的“记忆编织器”,MemGen 实现了推理与记忆合成的交织,超越了参数化和基于检索的记忆范式的局限。

广泛的实验证明,MemGen 取得了显著的性能增益,具有强大的跨领域泛化能力和持续学习能力。更重要的是,我们发现 MemGen 能够隐式地学习到一个功能明确的记忆层次结构(规划、程序和工作记忆)。

这些结果表明,MemGen 是通往能够实现流体般、重构性智能的自进化 LLM 智能体的一条有前景的道路。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们