动态列表

  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元
  • 蔚来,破 4 万!
  • 今年双十一最大的赢家是这张表
  • 复旦大学&StepFun提出WithAnyone:告别“复制粘贴脸”,实现可控、高保真的多人ID一致性生成
  • 大道至简,中科院等提出OneRef:统一视觉定位和指代分割
  • 极客公园创新大会 2026 首批嘉宾揭晓!
  • 北京内推 | 美团招聘大模型算法实习生(IM全渠道)
  • 达摩院联合浙大、港理工推出PixelRefer:多模态大模型迈向像素级视觉理解
  • 自回归不必按token算了:微信AI × 清华用CALM直接「整段」预测
  • Altman 怒喷 OpenAI 唱衰者;小鹏发布新一代人形机器人 IRON;苹果支付 10 亿美金,新 Siri 将引入谷歌 Gemini|极客早知道
  • 别被一堆Strong Accept吓住:德州农工×康奈尔实锤论文晒分“系统性虚高”
  • 记忆让机器人更聪明:原力灵机提出MemoryVLA化解长时程任务操作难题
  • 博士申请 | 南洋理工大学王琦琛老师课题组招收数据库方向全奖博士/博后
  • 151% 的增长背后,它正在成为 AI 的「新入口」
  • 清华&南洋理工等提出稀疏模型反演:ViT反演加速高达3.79倍,告别无效背景!
  • 低光图像增强新探索:SASW-Loss,无需改网络,即插即用提升多种模型性能
  • 山姆更新后遭会员疯狂吐槽;Switch2 销量破千万;小米马志宇警告存储涨价:明年最新的成本预估“有点惊悚”|极客早知道
  • Sketch-to-Layout,从草图到布局!DeepMind & EPFL 在设计领域的新工作
  • 为物理AI打造世界模型!英伟达发布Cosmos-2.5:模型缩小3.5倍,性能媲美SOTA
  • NeurIPS25 | 香港理工&OPPO&哈佛提出DNAEdit:直接噪声对齐让Rectified flow文生图编辑更加准确
  • 这个不「瞎 BB 」的 AI 硬件,给了我真正的「陪伴」丨New Things
  • Rokid 乐奇联手 BOLON 眼镜:眼镜巨头依视路的中国棋局
  • 跟一位日本比亚迪车主聊了聊,才明白我们对「出海」有多天真
  • 宁德时代赚走185亿,车企却不想再给「宁王」打工了
  • 从「绝望」到一轮融资43亿元:新石器做对了什么?
  • 全注意力、复杂推理不掉速:MiniMax M2把Agent做成了「可执行能力」
  • NeurIPS 2025 | 用蛋白质动态词表“搭积木”,ProDVa高效组装可折叠新蛋白
  • 北京内推 | 阿里通义实验室对话智能团队招聘大模型方向研究型实习生
  • 豆包,正在悄悄开启「电商新链路」
  • OpenAI 与 AWS 达成 380 亿美元算力合作;新 Siri 付费采用 Gemini;字节试行「豆包股」 | 极客早知道
  • Karpathy点赞NUS新研究:RL微调不稳定的关键根源,指向BF16精度本身
  • ICCV 2025 | 高德提出SeqGrowGraph:以序列化图扩展革新车道拓扑生成
  • 我体验了一下 AI 时代的「家」:快跑,到处都是 AI
  • 每天都和 AI 聊天,你可能已经是个「神经病」
  • 苹果,一赚「解」千愁
  • 顶刊ISPRS (IF 12+) | 400+参考文献,遥感图像超分辨率最新综述!
  • 多媒体顶会ACM MM 2025 最佳论文公布,从“看懂”到“会用”,再到“会思考”:揭示AI与物理世界融合新篇章
  • AMD发布E-MMDiT:仅304M参数,单节点1.5天训练,实现高效图像合成新基准
  • T1 零封 TES 战队,中国战队无缘 S15 总决赛舞台;英伟达合作制药巨头打造超级计算机;理想汽车汤靖详解 MEGA 起火事件|极客早知道
  • ICCV 2025 | 卡内基梅隆大学空间可变自动对焦:单次拍摄实现全场景清晰,重新定义计算摄影
  • NeurIPS 2025 | 电子科技大学联合A*STAR提出SCOPE:兼顾显著性与覆盖率,实现高效多模态大模型令牌剪枝
  • 特斯拉 Cybercab 实车曝光,部分量产;何小鹏谈雷军竞争:未来更期待对手是小米;黄仁勋完成 10 亿美元股票出售
  • 北京内推 | 快手模型与应用部增长模型团队招聘大模型/推荐方向算法实习生
  • 不用教它撒谎,LLM也会“心口不一”:上海AI Lab揭露高风险下的模型欺骗行为
  • 当强化学习学会“跳步骤”:Sergey Levine团队重写值函数的递归逻辑
  • 当 ChatGPT 要开始「搞黄色」,我都不敢想......
  • 港中文&港科大等提出FullPart:让3D部件生成达到全分辨率精度
  • 从 「会思考」到 「善创造」: 多模态大模型的深度推理与协同进化
  • 语言模型之后,智源 EMU3.5 找到了 AI 的「第三种 Scaling 范式」
  • 李想谈万台MEGA召回:生命只有一次;传明年AirPods配摄像头+AI;神舟二十一飞船发射成功,对接速度创纪录|极客早知道

上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象

原创 让你更懂AI的 2025-11-07 14:02 北京

从使用上下文,转向构造上下文。

我们早已习惯在提示词、记忆窗口、外部检索器之间调参,以期让模型理解更多上下文。

可在上海交大刘鹏飞团队的最新论文中,上下文工程不再是工程师堆 token 的技巧,而是一个可被形式化的科学对象。他们称之为 2.0 版本的上下文工程——意味着人机系统不再被动接收上下文,而开始主动设计、加工与演化自己的语境结构。

过去二十年里,所谓上下文更像是外部条件:地点、时间、任务状态、聊天历史。在 1.0 时代,它是预设的触发条件——if location = office → silence phone。到 LLM 出现后,2.0 时代悄然到来:系统不仅能读懂自然语言,还能在对话、工具调用、记忆模块中动态构造自己的语境。

上交大团队把这一阶段变化画成了一条长达四阶段的演化曲线:从感知上下文,到协同上下文,再到自我生成与人类能力之上的层级的语境操控。

他们指出,这条曲线并非连续增长,而是每一次技术范式的变化——从 HCI 到多模态感知,再到 LLM 驱动的 Agent 系统,每一代都在缩短“机器理解人类意图”的理解不确定性差异。

换句话说,上下文工程正成为新的智能阶段界标:谁能更低不确定性地重建语境,谁就更聪明。

论文标题:

Context Engineering 2.0: The Context of Context Engineering

论文链接:

https://arxiv.org/abs/2510.26493

GitHub链接:

https://github.com/GAIR-NLP/Context-Engineering-2.0

定义在哪里发生变化

这篇论文的标题“The Context of Context Engineering”,听起来几乎像一个悖论。作者却把它当成定义性动作:他们要研究的,不是怎么用上下文,而是上下文本身的语境是什么。

这种反身视角让整个研究变得像一面镜子——当系统试图理解 context,它同时在暴露自己如何组织信息、选择特征、界定边界。

图1. 上下文工程能力从 1.0 到 2.0 出现结构化本体

作者强调:上下文工程的关注点正在从消费语境,转向对语境的构造。

于是问题变得具体:如果模型的推理能力、记忆系统、甚至人格都依赖上下文,那上下文本身如何被定义、被设计、被优化?

作者团队试图给出一个可计算的答案。他们首先在理论框架部分建立了严密的数学定义。设 E 为所有实体(用户、应用、环境等)的集合,F 为所有可用表征信息的空间,则有:

接着,所有“相关实体”的表征被并集成一个更高阶的整体:

这个集合 C,就是系统的上下文。在这一处理下,上下文从语义描述转化为可计算的对象。该定义构成了后续上下文工程 2.0 讨论的前提条件。

写成函数之后,CE 才真正成立

在形式化部分中,作者将上下文工程视为可施加变换的函数对象,而不是推理前的描述集合。上下文工程被定义为从上下文集合 与具体任务 映射到一类上下文处理函数

并进一步展开为可组合的操作序列:

其中 代表作用在 上的上下文加工操作,包括选择、抽取、重述、压缩与再编码等。在这一定义体系下,系统不只消费上下文,而能够在函数空间内部以算子级别对上下文结构进行组织与加工。

▲ 表1. 1.0 与 2.0 的差别在于上下文从固定输入转为可操作对象。

因此,上下文工程的 2.0 位置并非来自模型规模变化,而是来自定义域变化:1.0 阶段主要聚焦于外界环境与交互轨迹的显式特征捕捉;2.0 阶段则允许系统在内部表征空间内对 C 做结构性重写与组合。

作者在这一基础上提出了记忆的分层结构,用三个定义给出短期记忆、长期记忆与巩固过程。短期记忆为:

长期记忆为:

短期向长期的巩固过程定义为:

上述三个定义形成一个完整的时间尺度框架:即时内容、高重要性内容、与能够跨任务保留的稳定内容得到明确区分。在此框架中,上下文工程可以被视为一组对 C 的逐层加工与选择性固化机制;其对象是上下文本身,而非输入序列。

为什么需要把内容转写为表达?

在上下文成为可计算对象之后,论文把讨论进一步推进到如何在系统内部对它进行组织。

这部分不是对操作范式的总结,而是对上下文可以在哪些结构层上被改写的范围限定:子系统边界、抽象层级、信息引用方式与跨主体可移植性等维度都被纳入上下文结构本身。

▲ 图2.self-baking 的图示强调上下文从原始信息转化为可长期引用的结构表达。

在 self-baking 的典型路径中,原始内容(如对话轮次、工具返回、检索片段)并不会直接在 token 空间内长久保留,而是被转写为二级表达:摘要、schema 化引用、或可进一步被查指的引用单元。

在这种机制下,上下文的保留不再等价于让 token 堆积得更长,而表现为:将内容转写为更稳定的表达形式;允许跨轮次引用;在新的推理入口中被作为结构对象使用。

与此对应,context isolation 则表现在:不同功能子单元拥有独立的上下文窗口,各自维护特定任务相关的 C 局部切片,并在调用链中只交换抽象后的结构,而不交换 token 序列本身。因此,多 agent 并不意味着复制对话,而意味着以抽象后的上下文表达做通信单位。

从第二段关于短期 / 长期记忆的定义出发,这里给出的结构机制说明了:上下文对象不仅可以被选入或选出,还可以被重写成另一种存在形式。这意味着,C 的表示不是固定的,而是允许在系统内部经历结构层级转换。

为什么共享的是结构,而不是对话?

在使用侧,作者关注的并不是上下文被读出多少 token,而是哪些结构可以被不同主体访问、引用与再利用。当上下文具有显式结构时,同一份 C 不必局限于一个对话线程或一个 agent;它可以被导出为独立对象,并在其它推理单元中作为输入入口使用。

▲ 图3.跨 agent 的上下文共享以结构化表达为交换单位,而非 token 序列复制。

在这种设置中,一个系统内部的多个 agent 并不是在复制上下文窗口,而是在共享上下文经过结构化后的表达层。

每个 agent 对其本地上下文窗口的管理是独立的;系统只在需要跨主体访问时导出二级表达。这使得上下文的生命周期不再与单一推理线程绑定,而是可以跨多次调用、跨多个功能子单元被引用。

同样的原则也适用于人机协作界面。论文中提到的 CLI 系统并不是把全文语境都塞给模型,而是在操作过程中不断生成被可指称的二级结构:计划、意图、候选方案、外部资源引用、或工具链状态。这些表达物随后成为推理入口,再次被 agent 使用。

因此,使用不再是从上下文中读取 token,而是从上下文对象空间中选择引用单元。这意味着 的作用范围超越了上下文窗口本身,进入了跨主体引用、跨会话重用的层级。

图片

结语

在这一体系中,上下文不再依赖具体交互形式,也不再依赖单一的 token 历史。它被给定了集合、算子、分层、转写、引用与导出等可计算属性,这使得上下文可以从可观测表征转入可操作对象空间。

因此,上下文工程 2.0 这一提法,并非对 prompt 手法的一次命名更新,而是对模型外部因素与内部结构之间关系的重新界定:推理行为依附于上下文,而上下文本身是可以选择、转写、抽象、隔离与共享的。

本文贡献在于:把这一命题从经验层面的如何使用上下文收缩成了一个定义域明确的建模问题。这意味着:讨论 context,不再是人类要如何与模型说话,而是系统在什么条件下承认一个结构是上下文。在该框架下,讨论的对象限定为上下文结构本身,而非交互策略层面的技巧。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们