动态列表

  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线
  • GPT-5冷酷操盘,狼人杀一战封神!七大LLM狂飙演技,人类玩家看完沉默
  • 柳叶刀惊曝:AI让医生6个月「废功」20%,癌症检出率崩盘!
  • 硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库
  • 143亿美金买来一场空!小扎向谷歌OpenAI低头,史上最大AI赌注失速
  • 北京内推 | 微软DKI大模型团队招聘大模型/Agent/广告推荐方向研究型实习生
  • 性能超越GPT-5,成本减30%!大模型装上智能路由,Avengers-Pro刷新性价比极限
  • EMNLP 2025 | 看图就越狱!视觉上下文攻击:“图像语境”一招撬开多模态大模型
  • 动态压缩CoT!浙大×蚂蚁发布LightThinker,让模型推理“轻起来”
  • POSE:100倍加速视频生成,腾讯混元提出单步对抗平衡蒸馏框架
  • 那天,AI大模型想起了,被「失忆」所束缚的枷锁
  • LLM也具有身份认同?当LLM发现博弈对手是自己时,行为变化了
  • AI智能体是否能预测未来?字节跳动seed发布FutureX动态评测基准
  • 混乱、内耗、丑闻:Meta考虑向Google、OpenAI低头
  • 这个荒诞网站藏着30个AI「鬼点子」,但我觉得它活不长
  • R-Zero 深度解析:无需人类数据,AI 如何实现自我进化?
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费
  • CodeAgent 2.0 时代开启|GitTaskBench,颠覆性定义代码智能体实战交付新标准

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?



  新智元报道  

编辑:元宇
【新智元导读】为了降低大模型预训练成本,最近两年,出现了很多新的优化器,声称能相比较AdamW,将预训练加速1.4×到2×。但斯坦福的一项研究,指出不仅新优化器的加速低于宣称值,而且会随模型规模的增大而减弱,该研究证实了严格基准评测的必要性


一直以来,预训练,都是大模型训练过程中最花钱的部分。

比如,在DeepSeek V3中,它的成本占比就超过95%。

谁能在这里节省算力,就等于赚了。

长期以来,AdamW都是「默认选项」。但最近两年,出现了很多新的优化器。

它们大都声称能够相比AdamW,将预训练加速1.4×到2×,但却很少能真正落地。

斯坦福大学的研究人员,认为问题主要出现在两个方法学缺陷上:

一些基线的超参数调得不当;


许多实验局限于较小规模的设置,导致这些优化器在更广泛、更真实场景下的表现仍待验证。

论文地址:https://arxiv.org/abs/2509.02046

有趣的是,这篇论文的标题「神奇优化器在哪里」(Fantastic Pretraining Optimizers and Where to Find Them),正是「捏它」自《神奇动物在哪里》(Fantastic Beasts and Where to Find Them)。

不得不说,论玩梗还是大佬们厉害!


不同缩放范式下的加速差异

研究人员对比了大模型在不同缩放范式下的加速差异。

他们在四种不同的数据-模型比(相当于Chinchilla最优范式的 1×、2×、4×、8×)下进行基准测试,并将模型规模扩展到1.2B参数。

图1左上显示,在被广泛采用的GPT-3配方中,仅调一个超参数,就能让预训练获得2×的加速,这突显了正确超参数优化的重要性。

研究表明,在一系列模型规模和数据-模型比上,进行细致的超参数调优与训练结束时的评测是必要的,主要有三个原因:

首先,超参数不能盲目迁移,在优化器间固定超参数会导致不公平的比较。

第二,新优化器的加速低于宣称值,且随模型规模增大而减弱。相对于研究人员调优的AdamW基线,其他优化器的加速不超过1.4×。

此外,虽然Muon、Soap等新优化器在小模型(0.1B)上显示出1.3×加速,但在8×Chinchilla比例下的1.2B参数模型上,加速会降到约1.1×。

第三,早期的损失曲线可能产生显著误导。

在学习率衰减期间,不同优化器的损失曲线可能多次交叉,因此用中间检查点来评判优化器,得到的排名可能与在目标训练预算下比较的结果不同。


优化器设计的新见解

研究人员基于基准测试,带来了三个关于优化器设计的新见解:

1. 小模型更适合基于矩阵的优化器

研究人员发现,对于小模型,基于矩阵的优化器,持续优于基于标量的优化器。

基于标量的优化器(如AdamW、Lion、Mars等),需要通过标量操作逐个更新参数。

经过适当调参后,所有基于标量的优化器的优化速度与AdamW相近,平均加速比不足1.2×。

尽管其更新规则多样,但在小于520M参数的模型上,基于矩阵的优化器相对AdamW均可带来约1.3×的加速。

2. 最优优化器的选择,关键指标是「数据-模型比」

在1×Chinchilla范式下的赢家,随着数据-模型比提升,可能不再最优。

比如,在较小的Chinchilla比例下,Muon一直是表现最好的优化器。

但当数据-模型比增至8×或更高时,Kron和Soap的表现优于Muon(图3与图4)。

在本项研究中,研究人员研究了表1所列的11种优化器。

    模型参数量,涵盖了130M、300M、520M、1.2B四种规模,详细超参数见表2。


    超参数的三种调参方式

    按照不同阶段,研究人员对超参数采用了三种不同程度的调参方式:

    阶段1:对超参数进行「细颗粒度」调参

    研究人员在6种不同设置上执行该遍历,具体为1×Chinchilla下的130M、300M、500M,以及2×、4×、8×Chinchilla下的130M。

    对于每个优化器以及上述六种范式,研究人员都找到了一个按坐标的局部最优解。

    表3是一个针对300M参数、1×Chinchilla的AdamW示例性超参数优化过程。

    阶段2:着重调整对「尺度敏感」的超参数

    由于广泛调参在更大规模实验上代价过高,所以,研究人员对该过程进行了简化,着重调整对「尺度敏感」的超参数。

    如表4,研究人员仅将对尺度敏感的超参数带入阶段2,从而把下一轮调参对象集中在那些跨尺度确实需要重新调参的超参数上。

    通过这组实验,研究人员观察到两点现象:

    1.基于矩阵的优化器始终优于基于标量的优化器,但所有优化器相对AdamW的加速比都不超过1.5×;


    2.在基于矩阵的优化器内部,Muon在1–4×Chinchilla比例下表现最佳,但随着Chinchilla比例提高,会被Soap与Kron反超。


    阶段3:为进一步外推而建立超参数缩放律

    研究人员基于阶段2获得的优化超参数设置,拟合一个平滑的缩放律,用以预测每个随尺度敏感的超参数的最优值。

    作为模型大小N,与数据预算D的函数,研究人员将每个随尺度敏感超参数h的最优值建模为:

    其中A、B、α与β为学习得到的系数。

    研究人员在每个优化器的12个观测三元组(N,D,h)上,用非线性最小二乘来估计这些参数,使预测与真实最优超参数值的平方误差最小。

    为检验预测质量,研究人员在N=1.2B、Chinchilla=1的设置下对AdamW运行了完整的阶段1遍历,并将识别出的最优解与拟合出的超参数进行对比。

    在图2上图中,研究人员绘制了两个阶段的C4/EN验证损失;在图2下图中,研究人员绘制了为部分优化器选择的运行所对应的HellaSwag表现。

    在图3中,显示了跨尺度的不同优化器加速。

    研究人员通过为AdamW拟合缩放律,并将不同优化器的损失映射到对应的等效数据预算来估计加速,得到了以下二点观察:

    1. 最高加速被限制在1.4×;


    2. 基于矩阵的优化器始终优于基于标量的优化器,且随数据预算增加呈现更高的加速(表现出超线性趋势)。



    实证发现

    1. 在0.1B–0.5B参数模型上的结果

    在所有模型规模与算力预算下,方差减少类的Adam变体(NAdamW、Mars、Cautious)与基于矩阵的优化器都相对AdamW基线,带来了加速。

    然而,没有任何方法达到了过往文献声称的2×的加速。

    研究人员得出如下结论:

    (1)基于矩阵的方法优于基于标量的方法。加速比随数据预算增加而上升,但随模型规模增大而下降。

    (2)方差削减技术带来小而稳定的提升。

    在基于标量的家族中,所有方差削减型的Adam变体(NAdamW、Mars、Cautious)都稳定地超过vanilla的AdamW——仅在最小规模实验上有轻微落后。

    (3)AdamW的内存高效变体与AdamW的表现保持紧密。

    两种内存高效的AdamW变体(Lion、Adam-mini),尽管辅助状态更少,其表现与AdamW紧密跟随,最多仅慢5%,有时甚至优于AdamW。

    2. 在1.2B参数模型上的结果

    研究人员利用拟合的超参数缩放律,将模型规模扩大到1.2B,以考察优化器的加速如何随模型规模变化。

    观察到NAdamW、Muon与Soap依然相对AdamW带来加速,但这些优化器的加速减弱到约1.1×(图4,左与中),且不再带来下游改进(表 5)。

    3. 高数据-模型比

    在130M与520M模型的8×Chinchilla范式下,Muon已被Soap超过。

    为进一步验证,研究人员将三份300M模型训练到16×Chinchilla,并确认当数据-模型比增加时,Muon不再是最优优化器(图4,右)。

    研究人员推测,当数据-模型比增大时,Soap与Kron保持的二阶动量会更有效。从长期看,对参数方向异质性的自适应可能带来更大的加速。

    该研究证实了严格基准评测的必要性。


    各优化器的共性现象

    研究人员在预训练中,通过对11种深度学习优化器进行了基准评测,发现它们相对AdamW的真实增益远小于此前报道。

    由此,研究人员强调了三个关键教训:

    1.许多声称的加速源于超参数调优不足,因为公平的扫参会消除大多数表面的优势;


    2.基于早期或不一致的评估进行比较可能具有误导性,因为在完整训练轨迹上优化器的排名常会发生变化;


    3.即使表现最好的替代方案也只提供温和的加速,且随模型规模增大而进一步减弱,在12亿参数时降至1.1×。


    作者介绍

    Kaiyue Wen

    Kaiyue Wen是斯坦福大学的博士生。目前在马腾宇 (Tengyu Ma) 的课题组进行轮转,同时与Percy Liang老师合作。

    他本科毕业于清华大学姚班,期间获得了获得了马腾宇、刘知远、Andrej Risteski、张景昭、王禹皓以及李志远等多位老师的指导。

    他的研究兴趣涵盖深度学习的理论与应用,长远目标是理解深度学习背后的物理学原理,并坚信理论分析与实证研究相结合是实现这一目标的关键。

    马腾宇(Tengyu Ma

    Tengyu Ma是斯坦福大学计算机科学系和统计系的助理教授。

    他本科毕业于清华姚班,于普林斯顿大学获得博士学位。

    他的研究兴趣涵盖机器学习、算法理论等方向,具体包括:深度学习、(深度)强化学习、预训练/基础模型、鲁棒性、非凸优化、分布式优化以及高维统计学。

    Percy Liang

    Percy Liang是斯坦福大学计算机科学副教授,兼任基础模型研究中心(CRFM)主任。同时也是CodaLab Worksheets的创建者,并借此坚定倡导科研工作的可复现性。

    他专注于通过开源和严格的基准测试,提升基础模型(特别是大语言模型)的可及性与可理解性。

    他曾围绕机器学习和自然语言处理领域进行了广泛研究,具体方向包括鲁棒性、可解释性、人机交互、学习理论、知识落地、语义学以及推理等。

    此前,他于2004年在MIT获得学士学位,并于2011年在UC伯克利获得博士学位。

    参考资料:
    https://arxiv.org/abs/2509.02046


    <br>
    
    
        <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652625530&amp;idx=1&amp;sn=d7ad85f6a18baccefcdcac0897fbb76c&amp;chksm=f0fc66100467159194a5c023d6d5d98aff4d9ef445b4d99255705f521e4d0af8c98e32646dd0&amp;scene=0#rd"  target="_blank">文章原文</a>
        <br>
    
    
    
    
    <img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/OrXgMEO5UR&amp;maxage=1y"  width="1px"></div></div></body></html>
    

    联系我们