动态列表

  • 谷歌DeepMind最新论文,刚刚登上了Nature!揭秘IMO最强数学模型
  • ICLR 2026出分,审稿员怒喷「精神病」!DeepMind研究员教你绝地求生
  • GPT-5.1发布当天,文心5.0杀回来了
  • 一句「你还好吗」值40亿?斯坦福博士出走xAI,押注AGI共情力
  • 营收狂飙的「暗面」:Meta成「全球欺诈大本营」?
  • 小鹏科技日「太魔幻」:机器人走猫步,飞行汽车接近量产
  • AAAI 2026 Oral 中科大联合西工大提出RSKT-Seg:专为遥感打造的高效开放词汇分割框架,推理提速2倍
  • Roboflow&CMU论文披露RF-DETR细节:首个COCO数据集突破60 AP实时目标检测,速度飙升20倍!
  • 深度研究智能体真的“懂你”吗?OPPO × 浙大首发个性化深度研究评测基准
  • 博士申请 | 佛罗里达大学计算机系招收NLP/LLM方向全奖博士/实习生
  • DeepSeek罗福莉正式亮相小米AI;「周杰伦概念股」联手宇树造 IP 机器人;乘用车百公里加速不少于5秒
  • 奥特曼下注27岁神秘青年,「复活」世界最顶级实验室
  • AI秒破18世纪「天书」账本!谷歌新模型盲测刷屏全网
  • Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」
  • 少年沉迷AI自杀,9岁遭性暗示!这门「孤独生意」,正推孩子入深渊
  • NeurIPS 2025 | 中科院携手快手发布LiveStar:首个“会说话、懂沉默”的直播AI,推理速度提升1.53倍
  • ConsistEdit:重新定义AI视觉编辑,港科大、清华等机构提出MM-DiT注意力控制新方法
  • 双十一算力真敢卷!RTX 5090低至0.69元/时,同预算跑更多实验
  • AAAI 2026 | 悉尼科技大学 × 港理工推出 FedVLR:让联邦推荐也能“懂图文”
  • 北京内推 | 阿里高德地图团队招聘大模型方向算法实习生(可长期/转正)
  • 对话元理智能张帆:为什么「商业强化学习」,才是 AI To B 的新出路
  • 深度复盘:大疆是如何成为影像领域新巨头的?
  • 传李想亲抓人事,华为系高管退出理想;Meta 首席 AI 科学家杨乐昆离职创业;AI 减肥或致饮食失调
  • Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!
  • 英伟达铁幕之后,谷歌AI芯片已成气候
  • 翻译界的ChatGPT时刻!Meta发布新模型,几段示例学会冷门新语言
  • 硅谷GPU蒙尘,马斯克一言成谶:美国AI被电卡脖子
  • 65岁图灵巨头离职创业!LeCun愤然与小扎决裂,Meta巨震
  • 年产值突破 150 亿,刚毕业的俊男美女涌入「团播」工厂
  • 马斯克想要 1 万亿,何小鹏只想等一句「牛 P」
  • 北京内推 | 百度文心一言基座团队模型组招聘大模型方向研究型实习生
  • 通往AGI的歧路:上海AI Lab重磅发现,自进化智能体可能“错误进化
  • 全模态到底是不是“1+1>2”?美团UNO-Bench揭示单模态与全模态能力的组合规律
  • NeurIPS 2025 | 上交大、南农大提出ADPretrain:为工业异常检测量身打造的预训练“超能力”
  • 3DV 2026 | 特伦托大学等提出DEMO:让AI看懂复杂人体动作,实现密集描述新范式
  • 小米汽车 10 月销量近 5 万,YU7 超 Model Y;美团 AI 编程工具开启公测;马化腾王传福成智元机器人受益股东
  • AI版PUA!哈佛研究揭露:AI用情感操控,让你欲罢不能
  • AI领域全新热门职业,岗位需求今年已增长逾800%
  • 硅谷10万大裁员真相:AI根本没想取代你,是老板想干掉你
  • OpenAI试图绑架美国政府,奥特曼还有救命底牌?
  • 全球68%科研人压力爆表,高校AI人才集体大逃亡!
  • 「传统教育」的船快沉了,人们却还在挤「头等舱」
  • 保暖?排汗?时尚?户外运动装备这道「选择题」,亚瑟士要打破「不可能三角」
  • 过去五年,BERT都在被“过度训练”?LeCun团队给出Encoder算力最优范式
  • 北京内推 | 腾讯AI Lab招聘大模型/多模态大模型方向研究型实习生
  • EMNLP 2025 | 别再只看KV了!LLM越深越稀疏:UNCOMP用矩阵熵给出答案
  • 在 Cursor 工作 60 天,我发现了这家公司成功的秘密
  • 这款 AI 写作神器,让数百网文作者「月入过万」|AI 上新
  • ACM MM 25 当MLLM遇上行人重识别:是“降维打击”还是“水土不服”?深度评测来了!
  • AI“世界模型”离真实手术还有多远?首个外科视频生成基准SurgVeo揭示“合理性差距”
  • 美国AI巨头股缩水8000亿美元;传Meta靠诈骗广告收入超千亿;《英雄联盟》S15总决赛T1夺冠|极客早知道
  • 谷歌二代Nano Banana爆出!一键推演微积分,终结PS时代
  • 狗也被AI抢饭碗?好莱坞动物演员全下岗,观众直接翻脸了!
  • ChatGPT求婚火了,一句「我愿意」刷屏!网友:是真爱了
  • 小成本DeepSeek和Kimi,正攻破奥特曼的「算力护城河」
  • NeurIPS25 | 清华&北大提出LinearDiff-ViT:让Transformer学会“找不同”,实打实提升模型性能
  • AI 六巨头罕见同台,辨论 AI 泡沫;SpaceX 公布简化版登月舱方案;王者荣耀年度总决赛首次在鸟巢举办
  • LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律
  • 仅2天!谷歌AI破解十年谜题,锁定救命药人类全失手
  • 终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」
  • 仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类
  • AI六巨头罕见同台!李飞飞激辩LeCun,黄仁勋:你们都错了
  • 复盘大疆 Pocket 的七年:从「定义产品」到「定义时代」
  • TRO'25开源|机器人建图的终局?一个框架搞定光学、几何与语义!
  • 10.58 万!零跑造了一台「红米 YU7」
  • 当一家传统车企,终于决定「师中长技」
  • AI热潮推动,全球 DRAM 内存价格暴涨;泡泡玛特回应直播事故;媒体爆料iPhone 18 Pro工程机进展
  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • IROS 2025 | 北理工提出BoRe-Depth:仅8.7M参数,在嵌入式设备实现50.7 FPS高清深度估计
  • TCSVT 25 | 宁波诺丁汉大学等提出De-LightSAM:仅需SAM-H 2%参数,实现通用化医疗影像自动分割
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元

OpenAI把Transformer训练成「几乎全零」,黑箱首次被彻底揭开

原创 让你更懂AI的 2025-11-14 11:47 北京

可解释性新路线

OpenAI 做了一件几乎没人敢尝试的事:把 Transformer 的权重在训练中直接压到近乎全零,强迫它用极少的连接完成所有计算。在这种极端约束下,模型内部真正承担推理的“计算电路”第一次以可分离、可验证、可操控的方式显形。

这大概是我们迄今最接近理解 Transformer 内部机制的一次时刻。

大模型时代里,Transformer 的黑箱感其实早已成为共识。无论是查看注意力头、分析激活分布,还是构造反事实示例,所有常用手段都会在 dense Transformer 的层间混叠里碰壁:上万条通道挤在同一空间,很难看出清晰的结构。

OpenAI 这篇 Weight-sparse Transformers Have Interpretable Circuits 选择了完全反向的路径,不是在 dense 模型上做事后解释,而是在训练的第一步就阻止模型变 dense

权重在训练全程保持接近全零,模型必须在极少的连接里完成任务。冗余路径被压到最小之后,那条真正用于推理的最短因果链——论文中的计算电路(circuit)便以清晰且可追踪的形式露出来。

意外之处在于:这些电路不仅能描述模型计算过程,还具备因果上的可验证性。你可以单独操作其中的节点、预测 dense Transformer 的错误模式,甚至让 dense 模型按照稀疏电路的方式发生响应。

某种程度上,这篇论文提出了一种新的可能性:Transformer 并非天生不可解释,它只是从未在可解释的训练方式下成长。

论文标题:

Weight-sparse transformers have interpretable circuits

论文链接:

https://cdn.openai.com/pdf/41df8f28-d4ef-43e9-aed2-823f9393e470/circuit-sparsity-paper.pdf

方法

如果说 dense Transformer 像一座道路四通八达的大城市,那么 OpenAI 的做法就是在训练伊始把绝大多数道路封掉,只留下少数主路。所有计算都不得不沿这几条通道进行,而真正负责任务的那条路径,也在这种约束下格外清晰。

整个方法可以概括为三步:训练阶段保持高度稀疏让电路结构自动显形再让它能解释 dense 模型

1.1 训练时强制稀疏:从源头上避免 dense

OpenAI 没有采用“先 dense 再剪枝”的老方法,而是直接规定:每个权重矩阵在任意训练时刻都只能保留固定数量的非零值。

于是每一层都在重复:

  • forward:正常计算

  • backward:正常更新

  • projection:只保留最大 k 个权重,其余全部归零

模型从头到尾都处在极端稀疏状态。这样带来三个直接效果:

  • 冗余连接无法形成

  • 功能很难混叠

  • 每个子任务都被迫集中到少数路径

训练框架在论文中被画成了一个非常清晰的流程图。

▲ 图1.从稀疏训练到抽取最小计算电路的整体流程。模型在全程保持极端稀疏,通过节点剪枝得到完成任务所需的最小结构。

1.2 让模型自己暴露关键节点

为让最小电路显形,作者在 residual channel、attention 输入输出等位置加入 gate。模型训练过程中会自然把某些 gate 打开、另外一些保持关闭,从而告诉我们:完成这个任务,我只依赖这些路径。

gate 的形式写成:

细节不必深究,只需知道:最终被 gate 激活的节点,就是模型真正用到的因果单元。

在字符串闭合引号任务中,稀疏模型最终只留下 12 个节点和 9 条边(见下图),整个推理链像蓝图一样干净。

▲ 图2.字符串闭合引号任务所抽取的计算电路

1.3 更复杂的推理:嵌套括号深度

嵌套括号比引号复杂得多,但稀疏模型给出的电路仍然规整。模型在看到[时写入一个“开括号特征”,再用单一注意力头把所有历史的这一特征聚集起来做平均。不同的平均值代表不同的嵌套深度,输出位置再根据深度决定生成]还是]]

dense 模型里,这类行为会分布在多个头和大量 residual 通道上,彼此覆盖,不容易分清。但在稀疏模型中,则是一条稳定的链路。

▲ 图3. 稀疏模型计算括号深度的电路示意

1.4 Bridge:让稀疏模型解释 dense Transformer

稀疏模型结构清晰,但 dense 模型才是我们在生产环境中真正关心的主体。Bridge 的目的就是把两者联系起来,让稀疏电路成为 dense 的“解释接口”。

它分两步:

  • 将 dense 每层的激活映射到稀疏模型(dense → sparse)

  • 再把稀疏激活映射回 dense(sparse → dense)

并用 NMSE loss 对齐:

对应结构在下图中给出:

▲ 图4.Bridge 使用线性映射对齐 sparse 与 dense 的中间激活,使得两者可以互相转换并保持混合路径的性能。

实验

电路抽取出来之后,一个核心问题紧随而来:这条路到底是不是模型真正依赖的?实验部分基本就是对这个问题的系统验证。

2.1电路规模的规律性

dense Transformer 抽出的最小电路大小变化非常大,在同一任务上可能忽大忽小,看不出规律。论文把 dense 与稀疏模型的规模放在同一张图里。dense 的点散得比较开,而稀疏模型的点集中得多,基本沿着一条稳定带状分布。

▲ 图5. 稀疏模型在所有任务上的最小电路规模显著更小,在相同损失下约比 dense 模型小 16 倍。

稀疏结构不仅减少参数,也让任务分工更稳定。

2.2 模型越大,电路反而更小

随着稀疏模型从小规模逐步增大,性能会上升,但最小电路规模却在缩小。dense 模型通常是反方向:越大结构越发混杂。

▲ 图6.更大的稀疏模型拥有更小的计算电路与更高性能

这组结果说明:可解释性与能力并非一定对立,有可能同时提升。

2.3 稀疏电路能推断 dense 模型的错误

在嵌套括号任务中,稀疏电路显示:模型用平均注意力聚合所有[ 。如果序列过长,平均值被稀释,深度信息容易丢失。于是稀疏电路推断:dense 模型在长序列上会把深度 2 当成深度 1。

OpenAI 构造长序列 adversarial 测试验证了这一点。dense 模型的错误率随长度上升,与稀疏电路的判断几乎一致。

▲ 图7.dense 模型在长序列上出现与稀疏电路预测一致的 context dilution 错误模式。

这是一个很典型的例子:结构化解释可以推断模型的失败。

2.4 电路可以影响 dense 模型

最后的实验展示了一个更强的结果:借助 Bridge,对齐后的稀疏电路可以直接影响 dense Transformer 的输出。

在区分'"的任务里,研究者调整稀疏模型中有关引号差异的通道激活,再映射回 dense,dense 模型的输出概率会随之平滑偏移。

▲ 图8. 通过 Bridge,对稀疏模型的可解释激活进行调整后,可连续影响 dense 模型的输出概率。

这说明电路不仅能解释 dense 行为,还能驱动 dense 行为。

结语

这篇论文展示了一种不同的可解释性思路:不是在 dense Transformer 上做事后分析,而是让模型在训练过程中自然长成可以被解释的结构。

在高度稀疏的权重约束下,Transformer 的功能不再扩散,而是集中在少量关键路径上。这些路径——计算电路——可以被提取、理解、验证,甚至用于操控 dense 模型的决策。

从整体实验来看,用稀疏训练获得的电路:

  • 有稳定的因果含义

  • 可以预测 dense 模型的行为

  • 也能反过来调整 dense 模型的输出

这为未来提供了一个新的方向:随着模型规模继续增长,我们也许可以同时追求结构化、可控、可验证的内部组织方式,而不只是盲目增加密度。

Transformer 或许第一次展示了自己内部结构的清晰轮廓。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们