动态列表

  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • SilentStriker:无声击溃大模型
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道

4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限

原创 让你更懂AI的 2025-09-29 14:31 北京

轻量模型的深度时刻

图片

当“并行分叉”和“逐步自省”不再互斥,Recursive Self-Aggregation(RSA)像一台“思维基因重组机”,把多条推理链里的正确片段拼成更强的解题方案——甚至让 Qwen3-4B 这类小模型,在无需外部验证器的前提下,也能逼近头部推理模型的无-RSA 表现。

“测试时扩展”(test-time scaling)这两年像是一条通往更强推理力的高速路:一条车道是并行探索——采样若干条候选、做多数投票或挑最优;另一条车道是顺序精炼——让模型自我反思、逐步纠错。遗憾的是,二者各擅胜场却互有短板:并行法覆盖广但“挖得浅”,顺序法专注深挖却缺乏分叉探索。

Recursive Self-Aggregation(RSA)试图打通两条车道。它来自 Mila/蒙特利尔大学联合 LLNL、爱丁堡大学等机构的合作,Yoshua Bengio 参与其中。

论文团队把推理看作一个“群体演化”的过程:每一代都从候选解集合中抽取多个小子集,由同一个模型对它们进行自聚合,生成更优的“后代”;多代演化后,再从终态种群中选择答案。

换句话说,RSA 把并行的多样性顺序的深度做了一个闭环,既保留“分叉搜索”的覆盖面,又把“逐步自省”的长处嵌入到每一次聚合之中。

这条路的“野心”,在于用极少的工程脚手架——不依赖外部判分器、不更改模型权重——去获得单调且可预期的性能提升。

论文标题:

Recursive Self-Aggregation Unlocks Deep Thinking in Large Language Models

论文链接:

https://rsa-llm.github.io/static/pdfs/Recursive_Self_Aggregation.pdf

项目主页:

https://rsa-llm.github.io/

代码链接:

https://github.com/HyperPotatoNeo/RSA

并行 vs. 顺序的“半壁江山”,缺一角的拼图

并行扩展(Best-of-N、多数投票、拒绝采样等)优点是覆盖面广、易并行;缺点是很少复用不同候选链条里那些局部正确的中间步骤。

顺序扩展(自我反思/自我润色)优点是能进行纵深修正;缺点是缺少分叉,一旦陷入错误思路就可能“越走越对错”。一些混合方法尝试把两者拼在一起,但通常依赖外部验证器(如裁判模型或程序化测试器),或者对推理链结构做强假设,泛化有限。

把这两条路放到同一张“地图”上看,会更清楚:论文将 test-time scaling 概括为并行(parallel)/顺序(sequential)/混合(hybrid)三类控制流,并强调很多既有方法借助外部或学习到的验证器来甄别候选,这也解释了为何“只靠模型自身进行聚合”的路线一直稀缺而关键。

图1. 测试时扩展的三类控制流

并行方法在多候选中择优(常依赖外部/学习到的验证器);顺序方法在单条链上迭代修正;混合方法把“分叉 + 精炼”组合,但多伴随外部验证或复杂脚手架。

该“方法图谱”为下文的 RSA 铺垫——它尝试在不依赖外部验证器的前提下,以“递归自聚合”的方式把并行的多样性与顺序的深度闭环起来。

顺着这幅“地图”,就更容易看清 RSA 的切口:它并非再造一个更强的“裁判”,而是让同一个模型在每一步都把若干候选链聚合成更好的后代,并通过递归更新让“跨链一致的正确片段”逐步扩散、反复出现的错误模式被自然稀释。

换句话说,它把“分叉探索”与“逐步自省收拢进同一条控制流,补上了混合范式中长期缺失的那一角。

把“思维链”做成可重组的“拼图”

1. RSA的三要素:N、K、T

RSA 的算法构件极其克制:种群大小 、聚合集合大小 、递归步数 先说初始化:给定问题 ,参考模型(可与被测模型相同)独立生成 条初始推理链,作为第一代种群

接着进入第 代:从当前种群 无放回抽取 个子集,每个子集大小为

把“问题+子集 ”拼接成聚合提示,喂给同一个参考模型,产出新一代候选:

图2. RSA Pipeline / 工作流

RSA 将“并行探索(多条链)”与“顺序深挖(递归聚合)”闭环在一起:每代从种群采 个大小为 的子集,以聚合提示生成“后代”,递归 代后从终态种群中选答案。

终止策略很朴素:在 中均匀采样一个答案(论文主结果均采用该策略),或进行简单多数投票。直觉上,随着 增加,“跨链一致的中间步骤”在种群中的频次会提高,成为显性基因;而“反复出错的片段”被聚合过程自然稀释掉。

2. 为什么“越聚越好”?一个可视化直觉

把每条推理链想象成一串标注为“对/错”的珠子。并行抽 条链,模型在聚合提示下去“识别并拼接”这些链条里一致的正确片段,丢弃分歧处与错误段。重复 次,正确片段的相对频次不断上升,群体中“优良基因”扩散开来。这解释了为什么 RSA 的收益随步数 单调上升(后文在实验里会看到具体曲线)。

图3. RSA递归伪代码/流程示意

初始化 ,循环 ,子集抽样 聚合提示 生成“后代”更新 ,最终在 选答。

小结: 控制多样性池的宽度 决定“基因重组”的强度 决定“正确基因”的传播时间。预算固定时,宁可略减 、把 堆高一些,常更划算(证据见实验部分的“步数曲线”)。

3. “让模型学会聚合”的RL版本(聚合感知训练)

如果训练目标只优化“直接答对”,而测试时却让模型先看一组候选再聚合,就会出现训练—推理错配。论文在 RL 框架下把“聚合”写进目标:先用参考策略采样 条候选形成聚合集 ,然后最大化:

直观地说,策略直接在条件分布 上学习“聚合偏好”:见到“多链上下文”时更倾向保留跨链一致的中间步骤;同时用 KL 将行为锚在参考策略上,避免学出过度的“聚合口癖”。实作可用 RLOO/PPO/GRPO 等优化器(论文主实验采用 RLOO)。

不是“更会投票”,而是真在“深度整合”

跨任务主结果:RSA的“深度收益”

论文主结果统一采用 。对比参考模型、拒绝采样、自我润色、多数投票、单步自聚合()与递归自聚合),RSA 在数学(AIME/HMMT)、代码(LiveCodeBench)、综合推理(Reasoning Gym)等任务上全面超越多数基线。

▲ 表1. 实验主结果

RSA(T=10)在大多数任务上显著优于拒绝采样、自我润色与投票;T=1 的单步聚合明显不如递归版本,说明递归本身带来“深度收益”。

“小模型反杀”与模型无关性

更有趣的是,把 RSA 套在 Qwen3-4B-Instruct 这类“轻量模型”上,也能获得非常可观的提升,逼近甚至打平一些大型/思维强化模型的无-RSA表现。对不同家族(指令/思维)模型的提升具有一致性,说明 RSA 更像一种通用控制流增益,而非对某类模型的“外挂补丁”。

图4. 跨模型增益

在 AIME-25 与 LiveCodeBench-v6 上,不同模型(如 Qwen3-4B/30B、GPT-OSS-20B、Nemotron-9B 等)在加 RSA 后均获得显著 ΔPass@1;小模型涨幅尤为亮眼。

步数 T 的“单调曲线”与 K 的边际

RSA 的“可控可兑付”体现在步数—收益曲线上。随 T 增加,Pass@1 总体单调上升;K 从 1→2 的提升最显著,K≥3 边际递减。极少数任务在 T 过大时略有回落,通常与任务结构与上下文窗口利用有关。

图5. 步数与K的影响

随步数 T 增加,曲线整体单调上升;K 从 1 到 2 的跃升最大,之后边际递减。

何时“投票更香”?SuperGPQA的例外

多选题这类“选项即验证器”的场景,多数投票天然占优势:因为“答案层的频率”本身就是强判据。RSA 在此类任务上的优势会被冲淡。这也提示我们:RSA 的核心价值,是在“过程可拆解与可验证”的任务里实现“中间步骤层的自证”(数学、代码、程序合成、规划/博弈等)。

▲ 表1. 投票对比

在 SuperGPQA 等多选类任务,多数投票与 RSA 的差距缩小甚至反超;在“可拆解可验证”的任务(数学/代码)上,RSA 优势明显。

聚合感知RL:闭环之后的加成

当训练目标也纳入“聚合”,RSA 的收益还会被进一步放大。这印证了把推理控制流纳入训练域的近年趋势:在训练时就让模型见过“多链聚合”的形式,测试时自然更稳更强。

▲ 图6. 总体效果与RL放大示意/对比

在 AIME、HMMT、Reasoning Gym、LiveCodeBench 等任务上,Base + RSA + RL 在 Pass@1 上对 Base + RSA 实现了进一步放大的增益

从“更会选”到“更会合”

RSA 的价值,不在于它让投票法更聪明,而在于它改变了思维链的节律。并行扩展强调“覆盖”,顺序精炼强调“深挖”,RSA 则让二者在一个递归循环里交织:候选解像基因一样被反复重组,正确片段在一代代聚合中扩散开来,错误模式逐步被稀释掉。这样一来,推理不再只是“多尝试选最优”,而是“多拼合成更优”。

对于 test-time scaling 的研究,这是一种范式性的转折。过去我们更多依赖外部验证器或复杂脚手架来提高准确率,而 RSA 显示出,大模型内部的隐式自证能力足以承担起“聚合者”的角色。尤其是在数学、代码、博弈这类中间步骤可自证的场景里,总体上它展现出比投票或自我润色更稳定、更单调的性能曲线。

更重要的是,RSA 给了“小模型”一次证明自己的机会。像 Qwen3-4B 这样的轻量模型,在 RSA 的加持下,居然能逼近 DeepSeek-R1 和 o3-mini(high)的表现。这种“低算力环境下的小模型增强”意义非凡:它把过去看似属于大模型的能力,开放给更广泛的应用场景。

实践启示与边界

当然,RSA 不是一剂万能药。它的优势来自于“中间片段的可复用性”,这决定了它更适合那些能拆解出推理链的任务:数学证明、编程题、规划与博弈。如果是多选问答类,答案本身就是验证器,多数投票往往更具性价比。

在部署时,你可以从一个简单的组合开始:种群规模 N 设在十几条,聚合集合 K 不必太大(从 1 到 2 的提升最显著,再往上边际递减),然后把预算更多分配给递归步数 T,让正确片段有时间扩散。这比盲目扩大并行采样更划算。若担心模式塌陷,可以在迭代中注入温度扰动或新链,维持候选多样性。

把 RSA 融入训练是更进一步的选择。论文提出的“聚合感知 RL”已经显示出优势:训练时就让模型见过“多链聚合”的形式,测试时它自然能更稳妥地把分散的片段合并成完整的答案。不过这需要控制好 KL 系数,避免模型学出过度的“聚合口癖”。

换句话说,RSA 的故事告诉我们:推理的提升,不仅仅是“更会选”,更在于“更会合”。如果说过去的 scaling law 让我们在参数和算力的纵轴上不断攀升,那么 RSA 打开了横轴上的另一条路——如何用更多的思维节律,把已有的模型,熬出更深的智慧

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们