动态列表

  • 刚刚,Anthropic紧急换帅!新任CTO执掌算力命脉,直面OpenAI千亿赌局
  • Gemini 3.0 Pro内测流出,编程实力惊人!下周上线
  • 刚刚,奥特曼首曝:AI取代CEO后,我想去当农民!
  • LeCun考虑辞职!Meta AI百亿豪赌引爆「内战」,逼走首席科学家
  • NeurIPS 2025 | RAD:基于大规模3DGS孪生数字世界的端到端强化学习训练策略
  • 小米 17 系列销量超百万;苹果新产品泄密源头疑为越南工厂;低价版 model Y 现身官网代码|极客早知道
  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道

华人主导谷歌SLED,论文登顶会!一键让模型学会自救



  新智元报道  

编辑:倾倾
【新智元导读】大模型最让人头疼的毛病,就是一本正经地「瞎编」。过去,只能靠检索补丁或额外训练来修。可在NeurIPS 2024 上,谷歌抛出的新方法SLED却告诉我们:模型其实知道,只是最后一步忘了。如果把每一层的「声音」都纳入考量,它就能从幻觉中被拉回到事实。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

十几年来,我们见证了大模型一次次刷新能力上限——写文章、写代码、写诗通通不在话下。

可问题是,它们往往一本正经地胡说八道:温哥华成了不列颠哥伦比亚的首府,走进壁炉还能瞬间传送……

这种「幻觉」几乎成了AI的原罪。

很多人以为,这是模型根本不知道。但Google Research在NeurIPS 2024上提出的SLED(Self Logits Evolution Decoding)却揭示了一个颠覆性事实:

大模型其实知道答案,只是最后一步给忘了。

论文地址:https://arxiv.org/html/2411.02433v3?utm_source

项目主页:https://github.com/JayZhang42/SLED

原来,在模型内部,早期层早就提示了正确答案,只是在最后一层被带偏。

而SLED的妙处,就是让所有层次的声音都被听到,一起决定结果。

这意味着,大模型或许并不需要外部检索、额外训练,就能把自己的幻觉率降下来。

AI幻觉的真相:到最后忘了

在我们日常用AI的时候,有一个老梗常被提起:问它「不列颠哥伦比亚的首府是哪座城市?」,它往往答「温哥华」。可真正的答案是「维多利亚」。

这种自信却错误的输出,就是所谓的AI幻觉」。

演示SLED在回答多项选择题时如何改进标准LLM 解码。通过使用来自所有层的信息,SLED+LLM会得出正确答案(维多利亚州),而不是不列颠哥伦比亚省更知名的城市(温哥华)

这类「AI幻觉」案例并不少见,也让人对大模型的可靠性打不少问号。

这意味着,它在医疗、法律、教育这些关键场景里可能造成严重后果——错误的判断、误导性的结论、甚至损害信任。

研究者早已指出,幻觉是大模型应用的系统性挑战,并开发了像TruthfulQA这样的基准来专门测试事实性。

传统的修复路径,通常是依赖外部检索(RAG)、或者让模型去查数据、用知识库、再结合微调。

这些方法虽然有效,但代价高,系统复杂: 检索有时慢、检索结果可能不准确,知识库也要维护,微调则需要标注/资源。

最近,谷歌的研究团队在NeurIPS 2024发布了一个新方法叫SLED(Self Logits Evolution Decoding),目标是:不依赖外部知识,不再额外微调,而是让模型自己用好内部的知识,减少幻觉。

原因在于模型生成答案时,每一层都会产生对下一个词的预测(logits)。

但传统方法只看最后一层,容易被训练语料里最常见的模式牵着走,从而忽视掉中间层里更接近事实的信号。

而SLED的关键点,则是把所有层的预测都纳入考量,再通过权重融合得出结果。

这样,当最后一层倾向于「套路答案」时,其他层提供的补充信息能把模型拉回到更符合事实的方向。

SLED的秘密:不只听一个声音

传统大模型在解码时,往往只依赖最后一层的预测结果。

但研究团队发现,这一步可能过于「武断」:最后一层倾向于给出训练语料里最常见的答案,而忽略了中间层已经蕴含的更准确信息。

研究团队这样定义SLED:

SLED的框架通过对比早期层与最终层的logits,挖掘模型中潜藏的知识,并利用一种近似梯度的方法,让这些潜在知识引导输出的自我修正,从而提升事实准确性。


幻觉产生的根源在于模型「知道的」和「说出来的」之间存在差距。

模型在训练中可能已经隐式学到事实性知识,但推理时输出的分布仍可能出现偏差,这就是幻觉的来源。

SLED的目标,就是在解码阶段弥合这两者的差距。

它的做法,是把中间层的预测结果也统一到同一词表上,再与最后一层加权融合。

这样就能利用「层与层之间的差异」,让模型不再只听一个声音。

SLED工作流程。对比早期层与最终层的logits,得到潜在分布,再修正最终层的输出,使结果更接近真实。

以一个简单的算术题为例:

Ash买了6个玩具,每个10个币,买4个以上能打九折,一共要付多少钱?

普通模型常常输出「6×10=60」。

但SLED在中间层发现有不少预测倾向于加上「×0.9」,于是修正出正确答案54。

SLED利用中间层线索修正输出,让模型避开常见错误,得到更准确的答案。

再看看更复杂的算术问题:

Eliza每小时10美元,每周前40小时正常工资,超过部分按1.2倍计算。她工作45 小时,一周收入是多少?

普通模型常常答 450 美元,而忘了1.2倍的加班费,而SLED借助中间层提示,把结果修正为正确的460美元。

GSM8K工资计算案例。普通模型输出错误的$450,而SLED利用中间层信号修正为正确的$460。

通过这种方法,SLED不需要改变模型结构,也不需要额外训练,就能在解码阶段把这些「差点被忘掉的知识」利用起来。

用实力说话:SLED稳定碾压DoLa

这项研究来自Google Research团队。

第一作者是Jianyi Zhang,还在读书,就已经在顶会上挂名核心作者。

团队里也不乏老牌大牛:研究科学家Cyrus Rashtchian、研究主管Da-Cheng Juan以及在机器学习和系统优化方向深耕多年的Chun-Sung Ferng、Heinrich Jiang、Yiran Chen。

他们把这项成果带到了NeurIPS 2024,并顺手把代码开源在GitHub上,希望能让更多人用得上。

而为了证明这套方法不是纸上谈兵,团队还在一系列模型上做了全面测试。

如果说SLED的原理听起来还略显抽象,那么实验结果就足够直观了。

研究团队把它放在多个开源模型上做了系统实验,包括Gemma-3、Qwen-3、Mixtral和GPT-OSS。

既覆盖了最小的1B模型,也覆盖了20B、27B这种更大规模的模型。

结果显示:无论模型大小、家族类型,SLED都能显著减少幻觉。

在Gemma-3系列上,表现尤其亮眼。

1B-PT模型在FACTOR数据集上的准确率只有47.83%,而引入SLED后直接飙升到 63.29%

Gemma-3 27B-IT在TruthfulQA MC1上也从41.14%提升到47.47%,比当时的最佳方法 DoLa高出整整10个百分点。

从最小的1B到最大的27B,SLED都带来了稳定的提升。

Gemma-3系列不同规模模型在FACTOR和TruthfulQA上的表现。SLED在所有规模和训练类型下均优于基线和DoLa

不仅如此,跨家族测试同样说明了SLED的稳健性。

在GPT-OSS 20B上,FACTOR分数从41.12%提升到55.31%;在Mixtral-8×7B-IT 上,从70.51%提升到75.55%;就连Qwen-3-14B这样的模型,在TruthfulQA MC1上也能从38.10% 稳定升到40.00%。

相比之下,DoLa在这些模型上的表现并不稳定,有时甚至比基线更差,而SLED几乎在所有场景下都能保持领先。

SLED在GPT-OSS、Mixtral、Qwen等不同模型家族上的表现,全面优于基线和DoLa。

推理速度确实会慢一点。但实验数据显示,延时开销只有大约4%,几乎感知不到,却换来了最高16%的准确率提升。

这让它不仅是一个性能优化技巧,更是一种能立刻落地、真正改变用户体验的解码策略。

下一步:更聪明的模型,而不是更大的模型

SLED带来的价值远不止修正几个答案,它让我们重新理解了大模型:

知识并不是只集中在最后一层,而是分散在整个网络里

过去我们只依赖最终的输出,就像只听一个人的意见,而忽略了其他层级中更接近真实的信号。

SLED的特别之处在于,它不改变模型结构,也不需要外部知识,就能把这些潜藏的信息调动起来,让答案更可信。

这在当下显得尤为重要。搜索和推荐场景已经在被AI改写——Google的AI Overview功能,会直接在搜索结果页展示由模型生成的摘要。

研究发现,当用户看到AI的总结时,他们更少点击下方的传统搜索链接,这让新闻网站的流量大幅下降。

与此同时,Google Discover流里也被曝光推荐了不少AI生成、未经验证的内容,甚至是假新闻站点。

当人们越来越依赖AI来直接告诉答案,内容的可靠性就变得至关重要。

如果输出的内容频繁出错,信任的代价将成倍增加。

在这种语境下,SLED的意义就不只是提升几个百分点的准确率,而是为生成式AI守住底线。

更值得期待的是,它还能走得更远。

SLED可以和监督微调结合,进一步适配特定领域;

也可以与检索增强(RAG)协同,把内部潜在知识和外部知识库结合成更强的「组合拳」;

甚至在未来在视觉问答、代码生成、长文本写作等任务中,都可能发挥作用。

与其盲目追求更大的参数和更多的数据,不如学会更聪明地使用已有的潜在知识。

SLED展示了一条新的路:把零散的记忆重新拼合,才能让模型更可靠,也更值得托付。

毕竟,AI不是不知道,而是忘了;而SLED,正在帮它记起来。

参考资料:
https://research.google/blog/making-llms-more-accurate-by-using-all-of-their-layers/
https://arxiv.org/html/2411.02433v3?utm_source
https://github.com/JayZhang42/SLED


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652631878&amp;idx=3&amp;sn=b46adaf023928d1634b736e971425bbf&amp;chksm=f00a20e3b92e13ea26458fef0a9c39bcffc138457e1d1d8afe6b56bcea39f420ac88c650e52d&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/JUYfl6M2kh&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们