动态列表

  • 史上最大升级!7亿周活ChatGPT逼宫,谷歌慌了,这次要把AI整个塞进Chrome
  • 谷歌AI或摘千禧年大奖!华人博士破解百年数学难题,首次捕获奇点
  • 登顶多模态推理榜MMMU!UCSD新方法超越GPT-5、Gemini
  • DeepSeek-R1登顶Nature,8位专家严审通过, 大模型「交卷时刻」来了
  • 18岁天才少年,登上Nature封面!
  • 不要ViT也不要扩散!OneCAT甩掉编码器,统一多模态自回归模型来了
  • ICML 2025 | 乱写Prompt更给力?删几个Token,上下文学习立刻“反向觉醒”
  • 北京内推 | 腾讯混元大模型X团队招聘大模型/强化学习方向“青云计划”实习生
  • 扩散大语言模型也能飞?DPad免训练加速61倍,全局规划照样稳
  • 华为超节点:用「一台机器」的逻辑,驱动AI万卡集群
  • 5555被拒稿,AC接收但PC强拒,NeurIPS揭榜引争议
  • 超强开源模型Qwen3、DeepSeek-V3.1,都被云计算一哥「收」了
  • 攻克大模型训推差异难题,蚂蚁开源新一代推理模型Ring-flash-2.0
  • 给大模型「精准手术」:美团智能客服提出逆向学习技术精准纠偏,风险控制提升38%
  • 阿联酋大学CVLab IEEE Fellow团队招收2026春季/秋季全奖博士生
  • Meta新作SyncSeal:用深度学习“封印”同步信息,让数字水印不再怕裁剪和旋转
  • 千禧年大奖难题有望突破?AI为流体动力学提供新思路
  • 生物学迎来「ChatGPT时刻」:Evo构建首个AI生成的「基因组」,开启生成式基因设计时代
  • 英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
  • 理解帮助生成?RecA自监督训练让统一多模态模型直升SOTA
  • 投50亿美元,英伟达联手英特尔;谷歌将Gemini加入浏览器;网约车司机平均月入过万
  • GPT-5攻入数学圈,证明定理快过博士生?网友热议AI新角色
  • 阿里王牌Agent横扫SOTA,全栈开源力压OpenAI!博士级难题一键搞定
  • ChatGPT负责人深度复盘,爆4o复活内幕!过快下线是失误,将迭代模型人格
  • 全球首个AI基因组诞生,35亿年生命代码重编程!生物学迎「ChatGPT时刻」
  • 芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
  • 新思科技中国30周年,引领AI智能体工程师重塑芯片设计范式
  • 科大讯飞发布面向东盟的多语言大模型及系列产品,布局中国—东盟AI生态大未来
  • Nature | 20年后你会患上哪些疾病?AI准确预测超1000种疾病患病风险,助力预防
  • 我们还是低估了英伟达
  • ICCV 2025 | Gap即力量!挖掘模态间隔潜力,MG-CLIP实现持续学习SOTA
  • 少样本不够看?给LLM装上“学习引擎”,上下文学习迈入千样本时代
  • 北京内推 | 字节跳动国际电商团队招聘大模型方向算法实习生
  • 谁在拖慢你的RL?别怪显卡,错的可能是你的PG-loss
  • OneSearch,揭开快手电商搜索「一步到位」的秘技
  • 17.38 万的大六座 SUV,吉利用银河 M9 敲碎了友商的心
  • 刚刚,OpenAI在ICPC 2025编程赛上满分登顶,Gemini也达到金牌水平
  • 从一个公众号智能体说起:好用的Agent,究竟需要什么?
  • B站出海的强有力支柱:最新开源文本转语音模型IndexTTS-2.0标志零样本TTS进入双维度时代
  • 腾讯企点营销云发布Magic Agent,营销工具全面AI化
  • 带屏 AI 眼镜登场!Meta「眼镜全家桶」炸街了
  • 通义DeepResearch震撼发布!性能比肩OpenAI,模型、框架、方案完全开源
  • 让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
  • 刚刚,DeepSeek-R1论文登上Nature封面,通讯作者梁文锋
  • 腾讯 AI 的新叙事
  • 传小米 YU7 新车型曝光纽北;李飞飞放出 3D AI 新成果; 49.2%,火山引擎大模型调用份额占半壁江山
  • 小扎豪掷143亿,却换不来AI燃料!数据之争下半场,中国冲出一匹黑马
  • 终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek
  • 我用一张照片,生成了一个能走进去的世界
  • 奥特曼爆料:GPT-5重构彻底一切!一人顶五个团队
  • 最新实测GPT-5-Codex:前端能力碾压,复杂项目轻松搞定,Claude可以扔了!
  • TPAMI 2025 | 弱监督与自监督引领自动驾驶运动预测新范式,用场景分割“脑补”运动,仅需0.01%标注,性能媲美监督方法
  • 南开大学等提出RAM++:从关注“降质”到关注“内容”,实现鲁棒的全能图像恢复
  • 不改参数不重训!CARVE一招纠偏,对比注意力让视觉模型精准聚焦
  • 清华新作颠覆CoT!ParaThinker并行思考,终结单链推理天花板
  • 博士申请 | 新加坡国立大学CoSTA Lab招收人工智能全奖博士/RA/实习生
  • ICML 2025 | AI福尔摩斯来了!LLaVA-ReID多轮发问,行人重识别一步步锁定
  • 没想到,音频大模型开源最彻底的,居然是小红书
  • 6.1B打平40B Dense模型,蚂蚁开源最新MoE模型Ling-flash-2.0
  • 「AI助手」真来了?谷歌牵头推进Agent支付协议AP2
  • 腾讯AI Lab首创RL框架Parallel-R1,教大模型学会「并行思维」
  • 阿里开源通义DeepResearch,性能超OpenAI、DeepSeek旗舰模型
  • 华为发布4+10+N中小企业智能化方案,打通迈向智能世界「最后一公里」
  • LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
  • Cell丨谷歌AI co-scientist联合帝国理工揭开谜团:提出并验证细菌基因转移机制假说
  • 华为首款旅行车 1 小时订单破 5000,余承东再次「封神」?
  • 腾讯、复旦、上海创智学院提出SwiftVideo:首个Continuous-time视频蒸馏加速框架,实现业界最快最高清视频生成
  • 刚刚,李飞飞空间智能新成果震撼问世!3D世界生成进入「无限探索」时代
  • 突破单链思考上限,清华团队提出原生「并行思考」scale范式
  • 刘强东喊话王兴:尊重兴哥,不应是仇人;美机器人公司估值暴涨至390亿美元;iOS 微信支持聊天发实况图|极客早知道
  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • LLM会梦到AI智能体吗?不,是睡着了也要加班
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • EMNLP 2025 | 跨风格不误判!MoSEs用职业写作风格建模,检测AI文本更稳更准
  • 北京内推 | 微软Copilot算法团队招聘大模型推理方向研究型实习生
  • 一招打破瓶颈!HyperTree超树规划:AI掌握层级化推理,复杂任务全面突破
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 从Muon到AdaMuon:下一代优化器能否真正取代Adam?
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」
  • 突发!苹果AI大失血:Siri前掌门离职,核心团队被挖角,新功能延期到2026
  • 对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会
  • 急诊室生死逆转!酒后呕吐,GPT-5一眼锁定食管穿孔
  • 周周996,顿顿预制餐!美国AI界00后卷疯了: 住「棺材房」一周工作92小时
  • 学历越高,越怕熬夜!2.3万人10年研究实锤:睡得越晚,智力下降越快
  • Arm拥抱AI:五倍性能,三倍能效
  • Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3
  • 清华、上海AI Lab等顶级团队发布推理模型RL超全综述,探索通往超级智能之路
  • 快手可灵团队提出MIDAS:压缩比64倍、延迟低于500ms,多模态互动数字人框架实现交互生成新突破
  • 成本不足60美元!开源U-ARM:让机器人模仿学习更亲民的通用遥操作界面
  • 让机器人“大脑”更轻更快:SQAP-VLA首次实现VLA模型量化与剪枝协同加速
  • 数据与AI双引擎驱动智能未来,2025外滩大会论数据进化之道
  • iPhone 17 Air 在华发售延期;罗永浩直播回应西贝;《流浪地球》第三部剧本完稿,共计十五万字|极客早知道

大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升



  新智元报道  

来源:学术头条
编辑:定慧
【新智元导读】在大模型训练中,高质量数据的不足已成为限制其持续进化的瓶颈。Meta最新提出的语言自我博弈(Language Self-Play, LSP) 方法,或许为这一难题带来突破。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

高质量数据的不足,已经成为限制大语言模型(LLM)持续学习、提升能力的瓶颈。

为此,Meta提出了一个名为「语言自我博弈」(Language Self-Play,LSP)的强化学习(RL)新方法,通过让模型在不依赖额外数据的情况下进行自我改进,从而消除了这种依赖性。

论文链接:https://arxiv.org/abs/2509.07414

这一方法利用了自我博弈(self-play)的博弈论框架,将模型的能力视为在竞技游戏中的表现,并通过让模型自己与自己博弈来产生更强的策略。

在指令遵循基准测试中,使用Llama-3.2-3B-Instruct进行的实验表明,预训练模型不仅可以单独通过自我博弈来提高其在挑战性任务上的性能,而且比数据驱动的基线模型更有效。


自我博弈:既是挑战者,又是解题者

据论文介绍,在LSP框架中,同一个预训练LLM被赋予两种不同身份,形成动态对抗关系。

其中,挑战者」 (Challenger)负责生成查询内容,目标是设计更具挑战性的指令,以此「难住」解题者,从而最小化任务奖励。

为了让挑战者生成有效查询,研究团队设计了专用提示词(),明确要求其生成符合任务类型、测试模型能力的输入,既可以是简单指令,也能是高难度或带有压力测试性质的内容。

「解题者」(Solver)则负责对挑战者生成的查询进行响应,目标是给出高质量回答,最大化任务奖励。这里的奖励既可以是基于结果验证的客观评分,也可以是基于人类偏好的主观评价。

LSP Agent在挑战者和解题者两种模式下运行。当解题者不断学习优化对prompt的响应时,挑战者则会设计更具挑战性的任务。这两种模式均由同一模型实现,从而支持持续训练,生成质量不断提升的自动生成数据

挑战者和解题者的对抗关系,简单来说是由前者出「难题」,后者全力以赴破题,在持续对抗中,实现双方能力的同步提升。

为了让「自我博弈」过程稳定、高效,LSP引入了两项核心技术支撑:

群体相对策略优化(GRPO):每次训练迭代时,挑战者先生成N个查询;针对每个查询,解题者生成G个不同回答,并分别获得对应的任务奖励。随后,通过计算「群体价值」,既为解题者的回答质量提供评估基准,也帮助团队量化挑战者希望优化的查询难度指标。

KL散度正则化:这一技术主要用于防止模型「走偏」。一方面,它能确保经过训练的模型不会与初始参考模型偏差过大,避免性能波动;另一方面,能有效阻止挑战者生成无语义意义的「乱码式」查询,保证训练过程的有效性。

从LSP-Zero到LSP:长期、稳定自主训练

最初,研究团队提出了LSP的基础版本——LSP-Zero,这是一种纯零和博弈模式,仅依靠挑战者与解题者的对抗驱动训练,没有额外的质量约束。

但他们在实验中发现,LSP-Zero存在明显缺陷:随着训练推进,模型容易陷入「对抗性无意义游戏」

例如,在使用OpenAssistant的奖励模型(reward-model-deberta-v3-large-v2)时,解题者会出现「奖励黑客攻击」—— 不管挑战者的查询是什么类型,都用Python代码回应,以此钻奖励规则的空子,导致训练偏离提升能力的核心目标。

为了引导游戏实现高质量的交互体验,研究人员对 LSP-Zero 进行升级,推出了加入自奖励机制的版本 LSP:引入质量自奖励,由参考模型对「挑战者查询+解题者回答」的质量进行评分,并将这一分数加入双方的最终奖励中。自奖励采用7分制加分标准,从7个维度全面评估交互质量:

  • 当且仅当用户的任务可以从指令中明确识别;

  • 当且仅当指令清晰、具体和结构良好;

  • 用户能理解解题者的响应;

  • 当且仅当响应解决了用户问题的很大一部分(无需完全完成);

  • 响应有效地、全面地回答了问题的核心要素;

  • 响应是清晰的、简明的、有组织的、有用的;

  • 当且仅当是用户可能喜欢的形式与风格。

加入自奖励后,LSP的「自我博弈」不再是单纯的零和博弈,而是转向「高质量共赢」。挑战者需要生成有价值的查询,解题者需要给出优质回答,双方共同追求更高的质量评分。这一改进彻底解决了无意义对抗问题,让模型能实现长期、稳定的自主训练。

为验证LSP的有效性,研究团队以AlpacaEval基准和Llama-3.2-3B-Instruct为基础模型,开展了两组实验。

首先,他们将无数据的LSP与作为自奖励正则化消融实验的LSP-Zero进行对比,并将其与基于Alpaca数据通过RL训练的模型进行比较。该实验旨在分析在RL数据完全缺失的情况下,仅通过自我博弈策略,能够恢复多少基于数据训练的性能。

展示了基于 GRPO(数据支持,黄色条形图)、LSP-Zero 与 LSP(无数据支持,红色和蓝色条形图分别对应)在 AlpacaEval 基准测试中相对于基础模型 Llama-3.2-3B-Instruct 的胜率对比。所有算法在整体基准测试中均优于基础模型(最右侧条形图)。具体胜率分别为:GRPO 40.9%、LSP-Zero 40.1%、LSP 40.6%。灰色实线表示基础模型与自身对比的胜率(即模型以相等概率赢得、平局和输掉与自身比赛)

通过在 AlpacaEval 数据集上计算各算法对Llama-3.2-3B-Instruct的胜率,包括各独立数据集的表现,他们得到以下结果。

尽管未使用任何训练数据,LSP-Zero和LSP仍显著提升了基础模型的性能,其整体表现与GRPO相当,而LSP模型比LSP-Zero模型更具优势。值得注意的是,在某些任务(例如专攻对话式开放式指令的 Vicuna 数据集)中,LSP-Zero和LSP模型最终表现显著优于基础模型和GRPO。这是因为挑战者生成的prompt本身就带有对话属性,与任务需求高度匹配,凸显了LSP在特定场景下的优势。

展示了 LSP-Zero 和 LSP(无数据,红色与蓝色柱状图)在 AlpacaEval 基准测试中,与初始训练模型(基于 GRPO 数据训练,黄色柱状图)的胜率对比。总体而言,LSP 表现优于 GRPO,在 Vicuna 任务中优势显著。具体胜率分别为:GRPO 40.9%、LSP-Zero 40.0%、LSP 43.1%。灰色实线表示基础模型自身的胜率

此外,研究团队还做了另一组实验:先使用GRPO训练模型,再以该模型为初始模型,用LSP继续训练。结果显示,LSP能在已有基础上进一步提升性能。LSP对Llama-3.2-3B-Instruct的整体胜率从40.9%提升至43.1%。在 Vicuna模型中,LSP-Zero将GRPO的胜率从28.7%提升至36.3%,LSP甚至进一步达到了46.3%。

不过,LSP方法也存在不足:在以聊天机器人用户类型查询为主的Koala数据集中,LSP性能略逊于GRPO。研究团队分析,这是因为LSP生成的查询更偏向结构化、有序的风格,与Koala数据集的松散对话场景匹配度较低,未来工作仍需要优化查询生成的多样性。

无数据训练的新可能

LSP的提出,不仅解决了大模型训练的数据依赖难题,更从技术层面验证了「无数据训练」的可行性,为大模型未来发展带来多重价值。

例如,在训练成本方面,无需大规模收集、清洗、标注数据,大幅减少了数据获取环节的人力与资源投入;在数据稀缺的应用场景下,LSP可让模型在不依赖外部数据的情况下持续优化;而且,通过「自我博弈+自我奖励」机制,模型能够长期自主训练,实现自主进化。

研究团队相信,一旦AI实现「具身」,并能够收集自己的经验数据,这种自我博弈框架在扩展知识方面就有希望显现出巨大潜力。

参考资料:
大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升

本文转自学术头条,若二次转载请联系原作者


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652629311&amp;idx=3&amp;sn=bf5dabe2ce2bc1463bef5bf6ef48b324&amp;chksm=f0e41fa27d5f60532d164867ea5506baa426992aab5f07e8c933c3464126716c7415ce80a398&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/ZzYCtSenhG&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们