动态列表

  • 比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!
  • 苹果AI秘密武器曝光!代号「AKI」团队浮出水面,乔布斯遗愿Siri终要翻身?
  • AI浪潮重塑一切,图形学路在何方?北大陈宝权入主SIGGRAPH执委会,肩负新使命
  • OpenAI用GPT-4b攻克诺奖难题!人体细胞「返老还童」,逆转效率飙升50倍
  • 「只参与,不参赛」奖牌数却仅次于宇树,这个幕后玩家如何做到的?
  • OpenAI重大发现:GPT-4b micro改造诺奖研究,山中因子重编程效率提高50倍
  • 第一名方案公开,代码智能体安全竞赛,普渡大学拿下90%攻击成功率
  • Coinbase强制全员上手AI工具,拒绝者直接开除
  • Chain-of-Agents: OPPO推出通用智能体模型新范式,多榜单SOTA,模型代码数据全开源
  • 马斯克沉迷的「刷刷刷」游戏,要来中国了
  • Anthropic 寻求 100 亿美元新融资;《恋与深空》获科隆展最佳移动游戏奖;脑瘫司机靠特斯拉 FSD 开车养家
  • 全球95%企业AI惨败?MIT报告引硅谷恐慌!90%员工偷用ChatGPT续命
  • 全球第一!西湖大学成功登顶Science,卷赢同行背后黑科技揭秘
  • 马斯克Grok-4卖货创收碾压GPT-5!AI卖货排行榜曝光,AGI的尽头是卖薯片?
  • 刚刚,大模型棋王诞生!40轮血战,OpenAI o3豪夺第一,人类大师地位不保?
  • 可灵AI单季营收超2.5亿,快手财报里的「AI含金量」有多高?
  • NASA、IBM打造日地物理学首个开放式 AI 基础模型,用九年观测训练提升约16%耀斑预测准确率
  • 1 个月,2 场胜仗,李斌从「斌子」变成「斌神」
  • 球首款AI原生游戏引擎再进化:GTA6再不来,我们就AI一个
  • KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架
  • 即梦推出“智能多帧”功能 突破AI视频长镜头创作瓶颈
  • 从实验室到餐桌:Robert Langer团队杨昕博士用新材料破解全球「隐性饥饿」
  • 别再分开训!SFT+RL融合范式全解析:统一视角下的六大方法
  • 北京内推 | 快手商业化算法部内循环电商模型组招聘推荐大语言模型算法实习生
  • 考场高分≠临床可靠!全球首个医疗动态红队测试框架,破解医疗AI落地危机
  • ICCV 2025 | 换脸迈入“电影级”!小红书发布DynamicFace,统一图像视频换脸基线
  • 那些让你「活人微死」的工作日,终于有救了
  • Cursor为Blackwell从零构建MXFP8内核,MoE层提速3.5倍,端到端训练提速1.5倍
  • 谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性
  • 从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践
  • 究竟会花落谁家?DeepSeek最新大模型瞄准了下一代国产AI芯片
  • ICCV 2025 | 打造通用工具智能体的基石:北大提出ToolVQA数据集,引领多模态多步推理VQA新范式
  • 对话小米 AI 眼镜负责人:20 天卖光库存,但属于产品的「长跑」才刚开始
  • DeepSeek V3.1 发布:更强的 Agent ,更贵的 API;多家网约车平台集体降抽成;影石发布 4K 画质「口袋相机」|极客早知道
  • 谷歌手机十年最狠升级,全家桶AI宣战苹果!一句话P图,100倍变焦
  • GPT-5点赞!八大顶尖机构发布「自进化智能体」全面综述
  • 打工半年后,Atlas觉醒!「大行为模型」零代码上新技能,AI工业革命来了?
  • DeepSeek-V3.1震撼发布,全球开源编程登顶!R1/V3首度合体,训练量暴增10倍
  • 刚刚,好莱坞特效师展示AI生成的中文科幻大片,成本只有330元
  • 摆脱遥控器,波士顿动力人形机器人,开始「长脑子」干活了
  • 微软AI CEO警告:我们需要警惕「看似有意识的AI」
  • ICCV 2025 | ECD:高质量合成图表数据集,提升开源MLLM图表理解能力
  • 汽车业务还没盈利,小米却已找到「第三曲线」
  • 通义APP上线官方知识库,首批覆盖教育、法律、金融等五大领域
  • AI Scientist生成的论文被指「剽窃」,回应称「未引用相关研究」,AI自动化科研还靠谱吗?
  • ICLR 2025 | 大模型为何会“举一反三”?揭开「上下文学习」的小样本学习密码
  • 提分不提参!遥感图像四大SOTA trick:多模态融合、统一框架、轻量化与新范式
  • 博士申请 | 香港理工大学Ajay Kumar教授(IEEE Fellow)招收计算机视觉全奖博士生
  • 击败Meta登榜首:推理增强的文档排序模型ReasonRank来了
  • 千寻位置护航无人机表演,开启品牌多城联动新篇章
  • 刚刚,字节开源Seed-OSS-36B模型,512k上下文
  • 上下文记忆力媲美Genie3,且问世更早:港大和可灵提出场景一致的交互式视频世界模型
  • OpenAI 单月营收已经破 10 亿美元;马斯克的 Grok,超 37 万条用户聊天记录「裸奔」;谷歌发布 AI 手机
  • 成为「流量黑马」的老品牌,如何借拼多多秒懂 00 后?
  • AI 的终点不是对话框,这家公司想让真实世界成为 AI 的提示词
  • 网易有道发布子曰教育大模型多款AI新品,定义教育AI应用能力L1-L5分级
  • 二十余名英国青年科学家在沪参与好望角科学沙龙活动
  • 为长视频生成减负!浙大与华为提出Compact Attention,挖掘结构化稀疏加速2.5倍
  • TPAMI 2025 | 骨架动作理解大一统:东南大学等提出USDRL,一个面向密集表征学习的基础模型
  • 报名开启|中关村国际青年论坛:诚邀全球青年学者共探AI前沿
  • Sora没做到的,LongVie框架给解决了,超长视频生成SOTA
  • 「价格战」打了半年,吉利如何做到核心利润暴增102%?
  • 小鹏Q2财报「炸裂」:营收暴涨125%,毛利率反超特斯拉
  • Nature子刊 | 上智院统一框架RXNGraphormer,实现化学反应多任务精准预测,自发掌握分类规律
  • 首个面向肽分子设计的大模型平台:直接「读序列」出结合子,无需结构输入即可生成
  • 北京内推 | 清华×生数科技联合招聘音视频生成方向研究型实习生
  • 类PPO强化学习三部曲:GRPO简化→DAPO修正→GSPO全面进化
  • ICCV 2025满分论文!空间理解与主动探索大统一,MTU3D重塑AI具身导航范式
  • 90.5%准确率登顶8B模型榜首,快手Klear-Reasoner破解RL训练裁剪难题
  • 智谱推出AutoGLM 2.0:手机 Agent 的「Manus 时刻」?
  • 论坛报名已启动,速来锁定席位!解码具身智能的落地挑战与产业爆点
  • DiT在数学和形式上是错的?谢赛宁回应:不要在脑子里做科学
  • dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型
  • DeepSeek开源新基础模型,但不是V4,而是V3.1-Base
  • Meta超级智能实验室重组为四个部门,某些高管将离开
  • ICCV 2025 | 跨越视觉与语言边界,打开人机交互感知的新篇章:北大团队提出INP-CC模型重塑开放词汇HOI检测
  • 黑神话系列第二作,《黑神话:钟馗》先导宣传片公布;小米卢伟冰:2027 年进军欧洲汽车市场;宇树预告新机器人
  • GPT-5暴写「屎山代码」!14个Prompt,看穿GPT-1到GPT-5七年智商进化史
  • 微软最新揭秘:「话痨实习生」AI助手,到底能帮人类做什么?
  • 陶哲轩「断粮」后,25年首次绝望怒吼:美国科学命脉被砍断!
  • 16岁天才少年炒掉马斯克,空降华尔街巨头!9岁上大学,14岁进SpaceX
  • 中科慧远发布CASIVIBOT,以九年积累开启AOI与机器人协同的品质检测新时代
  • 英伟达ViPE:任意视频一键转为3D几何数据,开源引擎与亿级帧数据集重磅发布!
  • CVPR 2025 | DeCLIP:解耦CLIP注意力,哈工大(深圳)、港大提出通用开放词汇密集感知新框架
  • 强化学习之父Richard Sutton最新演讲揭示OaK架构:通向超级智能的八步愿景
  • ICCV 2025 | RobustSplat: 解耦致密化与动态的抗瞬态3DGS三维重建
  • 医疗AI安全革命:全球首个医疗动态红队测试框架DAS,破解临床落地信任危机
  • 谷歌在上海办了场 AI 嘉年华,开发者们却说像逛「AI 基地」
  • 7年了,OpenAI官方给出五代GPT对比,网友却怀念起「狂野」初代
  • X-SAM:从「分割一切」到「任意分割」:统一图像分割多模态大模型,在20+个图像分割数据集上均达SoTA
  • FlashCommunication V2登场!突破「任意比特」通信瓶颈,加速大模型分布式训练与部署
  • CVPR 2025 | 打破壁垒!多模态统一学习新范式来了,数据、模型、代码全开源
  • 重温经典!十年前的视觉MoE雏形:HD-CNN用分层路由预演大模型逻辑
  • 博后招募 | 清华大学信息国家研究中心招收大模型/多模态/CV等方向博后/实习生
  • 开源版Genie 3世界模型来了:实时+长时间交互,单卡可跑,国内公司出品
  • 图生视频新玩法刷爆外网:图上画两笔就能动起来,终于告别文本提示
  • 妙笔生维:线稿驱动的三维场景视频自由编辑
  • 一句话,性能暴涨49%!马里兰MIT等力作:Prompt才是大模型终极武器
  • Z世代生存、学习与未来宣言!伯克利学霸预言课堂,用AI设计人生
  • AI来了!记者、UP主、写手,谁能逃过这场「灭绝浪潮」?
  • Hinton预言成真!AI接管美国一半白领,牛津哈佛扎堆转行做技工
  • 为什么「游戏」是 AI 陪伴落地的好场景?
  • 新加坡 AI 办公系统 Agnes:200 个 Agent 并行研究,让 AI 主动「找茬」打磨设计
  • 机器人也会「摸鱼」了?宇树G1赛后葛优瘫刷美女视频,网友:比人还懂享受生活
  • LLM为什么能看懂图?秘密不在Projector,残差结构才是跨模态理解的关键
  • 从GPT-2到gpt-oss,深度详解OpenAI开放模型的进化之路
  • NextStep-1:一次在图像生成上自回归范式的探索
  • KDD 2025 | UoMo来了,首个无线网络流量预测模型,一个框架搞定三类任务
  • ICCV 2025 | MobileViCLIP:快55倍!南大等提出首个高效“视频-文本模型,让多模态AI在手机可运行!
  • 突破长视频生成瓶颈:南大 × TeleAI 联合推出全新 AI 生成范式 MMPL,让创意“一镜到底”
  • 开源扩散大模型首次跑赢自回归!上交大联手UCSD推出D2F,吞吐量达LLaMA3的2.5倍
  • 一张图,开启四维时空:4DNeX让动态世界 「活」起来
  • AI发现新物理定律:纠正等离子体理论多年错误假设
  • 多模态大模型在化学与材料学的「体检表」——哪些能力靠谱,哪些还差很远?
  • Altman:希望 AGI 能提高生育率;与辉同行否认董宇辉年收入二三十亿元;今年国内智能眼镜市场同比增长121.1%
  • 刚刚!谷歌内部揭秘Genie 3:Sora后最强AI爆款,开启世界模型新时代
  • 硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码
  • 黄仁勋子女逆袭上位!4万亿「皇储」成长史首曝:一个学烘培,一个开酒吧
  • GPT-5首次会推理,OpenAI联创曝AGI秘诀!超临界学习吞噬算力,2045金钱无用?
  • 400万人围观的分层推理模型,「分层架构」竟不起作用?性能提升另有隐情?
  • CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力
  • SEAgent:开启从实战经验中自我进化的GUI智能体新纪元
  • 给DiT装上“迷你”控制舵:NanoControl实现高效精准控制,参数量仅增0.024%
  • OpenAI估值达5000亿美元;「原道」联手小岛秀夫,推《死亡搁浅》耳机;苹果手表将「大幅重新设计」

训练减半反超GRPO!Shuffle-R1引入动态洗牌术,突破多模态RL效率瓶颈

朱泠皞 2025-08-21 13:37 北京

Advantage 不再塌、Rollout 不再“哑”

©作者 | 朱泠皞

单位 | 华中科技大学/小米公司

研究方向 | 多模态大模型

太长不看:我们提出了 Shuffle-R1,一个简单而高效的多模态大语言模型(MLLM)强化学习后训练框架,它通过“动态数据洗牌”机制,大幅提升了训练效率和模型性能。

在多模态 RL 的训练中,常见的效率瓶颈——优势值塌陷与 rollout 静默——让计算资源白白浪费,也限制了模型能力的提升。Shuffle-R1 从“数据利用率”出发,利用成对轨迹采样(PTS)批次洗牌(ABS),把有限的更新集中在最有价值的样本上,从而让模型学得更快、更好。

下面就来分享我们在多模态 RL 上的最新工作:

论文标题:

Shuffle-R1: Efficient RL framework for Multimodal Large Language Models via Data-centric Dynamic Shuffle

论文链接:

https://arxiv.org/abs/2508.05612

项目主页:

https://xenozlh.github.io/Shuffle-R1/

工作简介

Shuffle-R1 是一个简单而有效的多模态 RL 框架,它通过动态数据选择与训练批次重组来提高强化学习微调效率。具体而言,Shuffle-R1 引入了两个关键模块:

  • Pairwise Trajectory Sampling(PTS):成对轨迹采样,专挑优势值反差大的样本对,像挑重点题一样精准

  • Advantage-based Batch Shuffle(ABS):基于优势的批次重组,动态调整训练批次,让模型多学有价值的内容

在多个多模态基准上的测试实验表明,Shuffle-R1 以极小的额外计算开销,超越了 GRPO、DAPO 等强化学习基准算法,以及一系列开源的多模态推理模型。特别地,在相同的实验设置下,Shuffle-R1 仅使用一半的训练步骤,就能取得超越 GRPO 的推理性能。

研究背景与问题

多模态 RL 在近一段时间获得了大量的关注,催生了一系列的研究工作。然而在多模态 RL 的训练过程中,我们发现了两个影响训练效率的问题:

▲ 揭示两个“训练黑洞”的探针实验

问题 1:Advantage Collapsing

理想情况下,优势值(advantage)应该有足够的离散度,才能提供强而多样的梯度信号。然而在实际训练中,大多数优势值挤在 0 附近,真正“有用”的高幅值样本很少,导致极其缓慢的梯度更新。

问题 2:Rollout Silencing

随着训练推进,产生非零梯度的 rollout 占比不断下降,导致大量无效的梯度计算。这个现象不仅消耗了大量无用的计算资源,同时阻碍模型持续学习。

如何解决?

上述的两个“训练黑洞”意味着:与其再去“调更复杂的奖励”,不如先回答一个更基础的问题:模型到底该在“哪些数据”上更新? 我们从 data-centric 的角度重新思考了 RL 的训练流程,尝试在训练过程中引入动态的数据选择与训练批次重组。Shuffle-R1 的核心就是把有限的更新“配给”到最能带来收益的样本,实现以数据为中心的训练效率最大化,进而提升模型的推理能力再进步。

方法设计

▲ Shuffle-R1 示意图

PTS 成对轨迹采样

PTS 的目标是缓解 Advantage Collapsing 现象。通过将 Group 内候选的轨迹组织成具有对比差异的 pair,我们以此增强训练中具有更大 advantage 的样本的梯度信号。我们先扩展 rollout 池,从一个更大的采样空间内收集 response,再将 rollout 按优势值从大到小排序,用“最大配最小”的 max-min 配对形成对比样本,训练时只保留对比差异最大的少部分对(高对比度、高幅值)。直觉上理解,就是把“最会教你”的两条轨迹(一个非常好,一个非常坏)放一起,让梯度信号更尖锐。

给定一个 query 以及 个 rollout,将当前的 Group 记为 。我们可以将排序后的 advantage 集合记为:

基于这个排序,我们可以构建下面的配对集合:

通过一个简单的 top-k 采样策略,我们从 中采样具有更大对比差异的有效配对集

在不显著增加计算成本的情况下,PTS 从更大的探索空间中选择对比度强、梯度信息丰富的轨迹对,以提高策略梯度的有效性并提升数据利用率。

ABS 基于优势值的批次洗牌

为了缓解 Rollout Silencing,我们引入了 ABS,它根据轨迹 pair 的优势值动态地对训练批次进行洗牌重组操作。原始 RL 训练中,每个 batch 内的样本仅更新一次就丢弃。我们希望通过一个动态的批次重构操作,删除掉无梯度的样本,同时复用批次中的高价值样本,提高训练效率的同时实现更加充分的模式学习。

将经过 PTS 操作后的一个 batch 记为:

batch size 为 。在标准的训练流程中,每个 batch 会被切分为 个 mini-batch 进行梯度累积更新。

对每个轨迹对 ,为其分配一个重要性权重:

根据重要性权重,得到 batch 内每个 pair 的采样概率:

基于采样概率,我们对原始的 batch 执行 次独立的无放回子采样,每个子批次容量为 个 pair( 个轨迹)

我们将所有的子批次拼接在一起得到洗牌后的 batch:

通过引入 ABS,我们将批次分布转换为一种“软优先级”结构,在保持多样性的同时实现高价值样本的“多重曝光”,从而提高数据利用率并缓解 Rollout Silencing 现象。

实验结果

我们首先在小规模的训练数据上和 RL 基线进行比较,以探究方法在有限训练样本下的性能

▲ 与 GRPO 和 DAPO 的对比

在 Geometry3K 和 K12 数据集上的实验(约 2.1k 训练样本)表明,Shuffle-R1 在 in-domain 和 out-of-domain 测试集上都相较于基础模型有显著的性能提升,优于 GRPO 和 DAPO。

我们进一步将训练数据规模扩展至 30k 样本,Shuffle-R1 展现出了优秀的性能,特别地,7B 模型在 MathVerse 上达到 53.9% 准确率,在 MathVista 上达到了 77.0% 准确率。3B 模型也具有出色的表现,甚至能够媲美不少 7B 模型。

▲ 30k 规模实验的性能

进一步观察 training dynamic 曲线,在训练准确率和测试准确率上 Shuffle-R1 都有明显的提升。在相同设置下,Shuffle-R1 仅用一半的训练步数,验证集准确率就超越了 GRPO。此外,非零梯度 rollout 占比始终处于绝对高位,有效缓解了 Rollout Silencing 现象。

▲ Training dynamic 曲线

统计训练批次的优势值分布可以发现,Shuffle-R1 在训练中鼓励了更多的高优势值样本参与训练,有效的缓解了 Advantage Collapsing 现象。

▲ 训练批次的优势值分布统计

小结

本文介绍了 Shuffle-R1,一个简单但有效的 RL 后训练框架,可提高多模态大语言模型强化学习的训练效率。

通过 PTS(成对轨迹采样)和 ABS(基于优势值的批次洗牌),Shuffle - R1 在多个多模态推理 benchmark 上取得了优异的性能,证明了以数据为中心的自适应动态 RL 算法的价值。我们希望我们的动机、方法和发现对进一步的研究有所帮助。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们