动态列表

  • 谷歌DeepMind最新论文,刚刚登上了Nature!揭秘IMO最强数学模型
  • ICLR 2026出分,审稿员怒喷「精神病」!DeepMind研究员教你绝地求生
  • GPT-5.1发布当天,文心5.0杀回来了
  • 一句「你还好吗」值40亿?斯坦福博士出走xAI,押注AGI共情力
  • 营收狂飙的「暗面」:Meta成「全球欺诈大本营」?
  • 小鹏科技日「太魔幻」:机器人走猫步,飞行汽车接近量产
  • AAAI 2026 Oral 中科大联合西工大提出RSKT-Seg:专为遥感打造的高效开放词汇分割框架,推理提速2倍
  • Roboflow&CMU论文披露RF-DETR细节:首个COCO数据集突破60 AP实时目标检测,速度飙升20倍!
  • 深度研究智能体真的“懂你”吗?OPPO × 浙大首发个性化深度研究评测基准
  • 博士申请 | 佛罗里达大学计算机系招收NLP/LLM方向全奖博士/实习生
  • DeepSeek罗福莉正式亮相小米AI;「周杰伦概念股」联手宇树造 IP 机器人;乘用车百公里加速不少于5秒
  • 奥特曼下注27岁神秘青年,「复活」世界最顶级实验室
  • AI秒破18世纪「天书」账本!谷歌新模型盲测刷屏全网
  • Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」
  • 少年沉迷AI自杀,9岁遭性暗示!这门「孤独生意」,正推孩子入深渊
  • NeurIPS 2025 | 中科院携手快手发布LiveStar:首个“会说话、懂沉默”的直播AI,推理速度提升1.53倍
  • ConsistEdit:重新定义AI视觉编辑,港科大、清华等机构提出MM-DiT注意力控制新方法
  • 双十一算力真敢卷!RTX 5090低至0.69元/时,同预算跑更多实验
  • AAAI 2026 | 悉尼科技大学 × 港理工推出 FedVLR:让联邦推荐也能“懂图文”
  • 北京内推 | 阿里高德地图团队招聘大模型方向算法实习生(可长期/转正)
  • 对话元理智能张帆:为什么「商业强化学习」,才是 AI To B 的新出路
  • 深度复盘:大疆是如何成为影像领域新巨头的?
  • 传李想亲抓人事,华为系高管退出理想;Meta 首席 AI 科学家杨乐昆离职创业;AI 减肥或致饮食失调
  • Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!
  • 英伟达铁幕之后,谷歌AI芯片已成气候
  • 翻译界的ChatGPT时刻!Meta发布新模型,几段示例学会冷门新语言
  • 硅谷GPU蒙尘,马斯克一言成谶:美国AI被电卡脖子
  • 65岁图灵巨头离职创业!LeCun愤然与小扎决裂,Meta巨震
  • 年产值突破 150 亿,刚毕业的俊男美女涌入「团播」工厂
  • 马斯克想要 1 万亿,何小鹏只想等一句「牛 P」
  • 北京内推 | 百度文心一言基座团队模型组招聘大模型方向研究型实习生
  • 通往AGI的歧路:上海AI Lab重磅发现,自进化智能体可能“错误进化
  • 全模态到底是不是“1+1>2”?美团UNO-Bench揭示单模态与全模态能力的组合规律
  • NeurIPS 2025 | 上交大、南农大提出ADPretrain:为工业异常检测量身打造的预训练“超能力”
  • 3DV 2026 | 特伦托大学等提出DEMO:让AI看懂复杂人体动作,实现密集描述新范式
  • 小米汽车 10 月销量近 5 万,YU7 超 Model Y;美团 AI 编程工具开启公测;马化腾王传福成智元机器人受益股东
  • AI版PUA!哈佛研究揭露:AI用情感操控,让你欲罢不能
  • AI领域全新热门职业,岗位需求今年已增长逾800%
  • 硅谷10万大裁员真相:AI根本没想取代你,是老板想干掉你
  • OpenAI试图绑架美国政府,奥特曼还有救命底牌?
  • 全球68%科研人压力爆表,高校AI人才集体大逃亡!
  • 「传统教育」的船快沉了,人们却还在挤「头等舱」
  • 保暖?排汗?时尚?户外运动装备这道「选择题」,亚瑟士要打破「不可能三角」
  • 过去五年,BERT都在被“过度训练”?LeCun团队给出Encoder算力最优范式
  • 北京内推 | 腾讯AI Lab招聘大模型/多模态大模型方向研究型实习生
  • EMNLP 2025 | 别再只看KV了!LLM越深越稀疏:UNCOMP用矩阵熵给出答案
  • 在 Cursor 工作 60 天,我发现了这家公司成功的秘密
  • 这款 AI 写作神器,让数百网文作者「月入过万」|AI 上新
  • ACM MM 25 当MLLM遇上行人重识别:是“降维打击”还是“水土不服”?深度评测来了!
  • AI“世界模型”离真实手术还有多远?首个外科视频生成基准SurgVeo揭示“合理性差距”
  • 美国AI巨头股缩水8000亿美元;传Meta靠诈骗广告收入超千亿;《英雄联盟》S15总决赛T1夺冠|极客早知道
  • 谷歌二代Nano Banana爆出!一键推演微积分,终结PS时代
  • 狗也被AI抢饭碗?好莱坞动物演员全下岗,观众直接翻脸了!
  • ChatGPT求婚火了,一句「我愿意」刷屏!网友:是真爱了
  • 小成本DeepSeek和Kimi,正攻破奥特曼的「算力护城河」
  • NeurIPS25 | 清华&北大提出LinearDiff-ViT:让Transformer学会“找不同”,实打实提升模型性能
  • AI 六巨头罕见同台,辨论 AI 泡沫;SpaceX 公布简化版登月舱方案;王者荣耀年度总决赛首次在鸟巢举办
  • LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律
  • 仅2天!谷歌AI破解十年谜题,锁定救命药人类全失手
  • 终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」
  • 仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类
  • AI六巨头罕见同台!李飞飞激辩LeCun,黄仁勋:你们都错了
  • 复盘大疆 Pocket 的七年:从「定义产品」到「定义时代」
  • TRO'25开源|机器人建图的终局?一个框架搞定光学、几何与语义!
  • 10.58 万!零跑造了一台「红米 YU7」
  • 当一家传统车企,终于决定「师中长技」
  • AI热潮推动,全球 DRAM 内存价格暴涨;泡泡玛特回应直播事故;媒体爆料iPhone 18 Pro工程机进展
  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • IROS 2025 | 北理工提出BoRe-Depth:仅8.7M参数,在嵌入式设备实现50.7 FPS高清深度估计
  • TCSVT 25 | 宁波诺丁汉大学等提出De-LightSAM:仅需SAM-H 2%参数,实现通用化医疗影像自动分割
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元

OpenAI拆开AI「黑箱」,终于可以看懂GPT在想什么了



  新智元报道  

编辑:元宇
【新智元导读】OpenAI的新论文介绍了他们在破解大模型「黑箱」上的一次重要突破,通过训练结构更简单、连接更稀疏的神经网络,为构建既强大又透明的模型提供全新方向。


破解大模型「黑箱」的钥匙找到了?

刚刚,在理解大模型复杂行为的道路上,OpenAI又迈出了关键一步。

他们从自己训练出来的稀疏模型里,发现存在结构小而清晰、既可理解又能完成任务的电路(这里的电路,指神经网络内部一组协同工作的特征与连接模式,是AI可解释性研究的一个术语)

这意味着,如果真存在一种可行的方式来训练机制可解释的大型系统,它们将是破解大模型「黑箱」的钥匙。

麻省理工科技评论认为,OpenAI的新研究对于破解大模型「黑箱」意义重大:

构建一个更加透明的模型,将有助于揭示大模型的运作机制,帮助研究人员弄清模型为何会产生幻觉、为何会失控,以及我们应该在多大程度上信任它们来完成关键任务。


OpenAI在其官方博客和论文中介绍了他们具体做法。

论文地址:https://cdn.openai.com/pdf/41df8f28-d4ef-43e9-aed2-823f9393e470/circuit-sparsity-paper.pdf


神经网络与大模型黑箱

神经网络难以理解,本质上与其结构方式、参数规模以及训练方式有关。

这些特性共同作用,造成了所谓的大模型「黑箱效应」——

我们知道它能工作,但很难精确解释它「为什么这样工作」。

由此,也带来了理解大模型工作机制,即大模型「可解释性」上的挑战。

尤其是随着大模型在科学、教育、医疗等领域的具体应用,「可解释性」问题也越来越重要。

实现大模型可解释性的方式有很多,比如通过链式思维(chain of thought)来解释大模型行为,以此来监控模型的行为。

但这种能力在未来也可能会失效。

因此,OpenAI在新研究中更关注机制可解释性(mechanistic interpretability),目标是彻底逆向工程化大模型的计算过程。

可解释性,可以帮助我们实现很多在模型安全、监督上的工作:

比如,让监督更有效,提前发现不安全或不对齐的行为等,也可以与可扩展监督、对抗训练、红队测试等其他安全工作相互补充。

虽然它的效果可能不如链式思维那样立竿见影,但在理论上,它可以更完整地解释模型的行为。


新方法
训练稀疏模型


以往关于机制可解释性的研究,好比把森林还原成一棵棵树木,一般是从密集、纠缠的神经网络出发,尝试把它们「解开」。

然而在这类网络中,一个神经元可能连着成千上万个其他神经元,大多数神经元还「身兼多职」,因此,想彻底搞清楚它们到底在干什么,几乎是不可能的。

但是,如果把一大片森林缩减成排列相对整齐的树木会怎样?

也就是训练的神经网络结构更清晰,神经元数量更多,但每个神经元只有几十个连接,这样得到的网络可能更简单,也更容易解释。

这就是OpenAI训练稀疏模型的核心想法。

基于这个原则,他们训练了一个结构与GPT-2等现有语言模型非常接近的模型,只做了一个小改动:让模型的大部分权重变成零。

这样模型就只能使用极少数连接。

OpenAI认为这个简单的改变,可以让模型内部的计算被大幅「解耦」。

上图展示的是神经网络内部连接结构的两种形式。

左边Dense(密集),显示的是普通的全连接神经网络,每个神经元都会连接到下一层的所有神经元。

右边Circuit Sparsity(稀疏电路),显示的是在稀疏模型里,每个神经元只会与下一层中的少数几个神经元相连。

稀疏模型可以让神经元本身,以及整个网络,都更容易被理解。


可解释性评估

如何衡量稀疏模型内部的计算「解耦」程度?

研究人员选取了一些简单的模型行为,检查能否找到模型中负责这些行为的部分——他们称之为电路,并整理出一套简单的算法任务。

对于每个任务,他们将模型剪枝到仍能完成任务的最小电路,并观察这个电路有多简单,结果发现:

训练更大但更稀疏的模型,往往能得到能力更强、但电路更简单的模型。


研究人员在不同模型上绘制了可解释性与模型能力之间的关系图,如上图。

对于固定规模的稀疏模型来说,提高稀疏度,即把更多权重设为零,这会降低模型能力,但会提升可解释性。

随着模型规模变大,这条前沿会整体外移,这说明我们可以构建既有能力又更可解释的更大模型。

举例来说:假设一个训练过Python代码的模型,需要用正确的引号类型补全字符串。

上图是一个稀疏Transformer中的示例电路,用来预测字符串最后应该用单引号还是双引号结尾。

该电路只使用了五个残差通道(竖直的灰色线)、第0层的两个MLP神经元,以及第10层中的一个注意力的query-key通道和一个value通道。

  • 在一个残差通道中编码单引号,在另一个通道中编码双引号;

  • 通过一个MLP层把它们转换为一个检测任意引号的通道,以及另一个用于区分单引号和双引号的通道;

  • 通过注意力操作忽略中间的Token,找到前一个引号,并将它的类型复制给最后一个Token;

  • 预测匹配的结束引号。

模型可以通过记住字符串开头的引号类型,并在结尾重现它来完成任务。

这些连接足以完成任务,这意味着把模型其他部分都删掉,这个小电路仍然能工作。

但同时,它们也是必要的,删掉这些连接模型就会失败。

在对于一些更复杂行为的研究中,完全解释这些行为的电路(比如变量绑定)会更困难,但仍然能得到相对简单、而且能预测模型行为的部分解释。

在OpenAI研究人员看来,这项工作是让模型计算更容易被理解的早期尝试,他们的稀疏模型比最前沿模型小很多,而且它们的大部分计算仍无法解释。

因为,未来还有很长的路要走。

下一步,OpenAI计划将这些技术扩展到更大的模型,并能解释更多模型行为。

在解决训练稀疏模型效率低下的问题上,OpenAI也指出了两条可能路线。

一条路线,是从现有的密集模型中提取稀疏电路,而不是从头训练稀疏模型。

另一条路线,是开发更高效的模型可解释性训练技术。

他们的目标,是逐步扩大能够可靠解释的模型范围,并构建工具,让未来的系统更容易分析、调试和评估。

这样,我们就会在追求更强大模型的同时,也让它们的解释机制更加透明,这对于清晰大模型与人类的能力边界十分重要。


作者简介

Leo Gao

据公开资料显示,Leo Gao是EleutherAI的联合创始成员之一,2021年起在OpenAI担任研究员,参与了大语言模型能力评估、奖励模型过优化、稀疏自动编码器等方向的研究。

他长期从事人工智能对齐、机器学习等工作,同时对软件开发、数学、语言学、经济学等领域也颇有兴趣。

通过参与EleutherAI和The Pile等开放项目,他在实践中推动了开放研究以及公开数据集和模型访问,并特别关注大模型规模扩展对能力与对齐带来的潜在风险。

参考资料:
https://www.technologyreview.com/2025/11/13/1127914/openais-new-llm-exposes-the-secrets-of-how-ai-really-works/%20
https://openai.com/index/understanding-neural-networks-through-sparse-circuits/

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652645406&amp;idx=2&amp;sn=81fee31ec4376b610a0bca40406c72df&amp;chksm=f05cc02c488ad6900a71c6b8d5e1d0199110bd309b44fca126dc55b93bfa870b2ea9e7016352&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/QjudCgHt3p&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们