动态列表

  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • LLM会梦到AI智能体吗?不,是睡着了也要加班
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」
  • 突发!苹果AI大失血:Siri前掌门离职,核心团队被挖角,新功能延期到2026
  • 对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会
  • 急诊室生死逆转!酒后呕吐,GPT-5一眼锁定食管穿孔
  • 周周996,顿顿预制餐!美国AI界00后卷疯了: 住「棺材房」一周工作92小时
  • 学历越高,越怕熬夜!2.3万人10年研究实锤:睡得越晚,智力下降越快
  • Arm拥抱AI:五倍性能,三倍能效
  • Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3
  • 清华、上海AI Lab等顶级团队发布推理模型RL超全综述,探索通往超级智能之路
  • 快手可灵团队提出MIDAS:压缩比64倍、延迟低于500ms,多模态互动数字人框架实现交互生成新突破
  • 成本不足60美元!开源U-ARM:让机器人模仿学习更亲民的通用遥操作界面
  • 让机器人“大脑”更轻更快:SQAP-VLA首次实现VLA模型量化与剪枝协同加速
  • 数据与AI双引擎驱动智能未来,2025外滩大会论数据进化之道
  • iPhone 17 Air 在华发售延期;罗永浩直播回应西贝;《流浪地球》第三部剧本完稿,共计十五万字|极客早知道
  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • 一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道
  • 刚刚,ChatGPT支持MCP了!一句Prompt即可全自动化
  • 百度CTO王海峰:AGI曙光已现,Scaling Law仍有效|新智元十周年峰会
  • 通用Agent是伪命题?昆仑万维方汉现场拆解:垂直推理才是胜负手|新智元十年峰会
  • 文心X1.1三大能力狂飙,海内外实测还挺惊艳!
  • 超越90%城市规划师!清华、MIT等提出人机协作新范式 | Nature子刊
  • 慕尼黑车展,当冷静遇上冷静
  • 博士申请 | 新加坡国立大学计算机系卞亚涛老师招收2026 Fall人工智能全奖博士/博后
  • 别再狂刷CoT了!港科广DIGAI Lab发布隐式推理全景综述,静默思考开启新范式
  • 继首创“AI打赏”服务之后,支付宝再推国内首个“AI付”
  • 蚂蚁百宝箱新品Tbox超级智能体亮相外滩大会,5分钟即可完成专业教学素材
  • 量子宇宙模拟竞赛开启:量子计算机可以模拟并阐明复杂物理现象
  • 3000亿美元OpenAI大单,让世界首富位置换人了
  • 攻克大模型「表格盲区」!ST-Raptor框架发布,实现复杂半结构化表格的精准理解与信息抽取
  • 港大马毅外滩大会演讲:人工智能应从“黑箱”走向“白箱”
  • 兼顾准确率与可解释性,DeepSEA实现抗生素耐药蛋白注释范式转变
  • 交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式
  • RewardDance:字节跳动提出视觉生成奖励扩展新范式,破解“奖励劫持”难题
  • 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
  • 英伟达的AI已经开始接管整个项目了?SATLUTION自主进化代码库登顶SAT竞赛
  • 大模型智能体不止能写代码,还能被训练成白帽黑客
  • 高德扫街榜,能不能做成中国的「Google Map」?
  • 开启MPV家庭新时代,魏牌高山7正式启动预售
  • ACL最佳论文幕后的北大人!北大张铭带出顶会常胜军和百亿CEO天团|新智元十周年峰会
  • 刚刚,这款Agent浏览器力压OpenAI,72%成功率全球第一!还能免费用
  • =COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大
  • 当智能醒于物理世界,英伟达副总裁: 下一个十年属于物理AI!|新智元十周年峰会
  • 刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
  • 00后挑大梁!近20国选手激战外滩大会,AI科创赛三赛道冠军诞生
  • CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架
  • 英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
  • 谷歌AI新里程碑:一个能「做研究」的系统诞生了,用LLM+树搜索编写专家级软件
  • 爱诗科技完成6000万美元B轮融资,阿里巴巴领投,达晨财智、深创投、北京市AI基金、巨人网络、Antler等跟投
  • 当人工智能「看见」量子世界:AI如何改变对复杂量子系统的认知,南洋理工、上交等发布量子系统学习综述
  • 北京内推 | AMD北京AI算法团队招聘模型量化/剪枝算法实习生(可远程)
  • SFT真不如RL?MIT团队抛出“RL的剃刀”,砍掉遗忘直通终身学习
  • 院士领衔!从智能算网到司法AI:顶尖学者直播解读AI与工程前沿趋势
  • DeepSeek、Gemini都不行?AgenTracer锁定多智能体“背锅侠”,8B小模型反超闭源巨模
  • AI应用元年,这场标杆赛事见证了中国创新速度与野心
  • AI胡说八道这事,终于有人管了?
  • 人人都能炼专属Agent,上海交大开源端侧Agent全栈工具链,真实场景性能超GPT-5!
  • TPAMI 2025 | H2OT:分层沙漏型Tokenizer,重塑高效视频姿态Transformer
  • 史上最贵「打工皇帝」!马斯克解锁1万亿美金工资,拢共分几步?
  • 500 块的「电子宠物」,治好了我的「路怒症」|New Things
  • 苹果发布会:耳机测心率、手表听音乐、iPhone Air超级薄
  • 5999 元起,苹果发布eSIM、超薄 iPhone;王腾再辟谣离职原因谣言;反恶性补贴,主要外卖平台被约谈|极客早知道

从Muon到AdaMuon:下一代优化器能否真正取代Adam?

Chong Jie 2025-09-15 23:37 北京

©作者 | Chong Jie

单位 | 上海交通大学

研究方向 | 参数高效微调

放在开头:这篇文章会比较零碎,是由我之前做过的一次分享记录而成。我没有特意去梳理文章,直接把讲稿拿来主义,属于知识比较密集,需要读者自行整理。不过总的逻辑是顺的,可以放心阅读。

本文将分为两部分讲清楚 1)什么是 Muon 优化器、他怎么做的、以及一些相关工作,2)我们对 Muon 的探索。

优化算法是现代深度学习的基石。它决定了训练过程的轨迹,并显著影响模型的收敛速度与泛化性能。随着模型规模扩展至数十亿甚至数万亿参数量级,优化器的性能需求也相应提升。

诸如 AdaGrad、RMSProp、Adam 及其变体 AdamW 等自适应方法,已成为训练语言模型的事实标准,其优势在于稳健性高、超参数易于调节,并能在早期训练阶段实现快速收敛。

现有的方法基本上可以总结为以下三步:

1. 计算参数的梯度(向量化或者矩阵化)

2. 对梯度进行变换得到修正后的分量

3. 梯度回传

公式整理为:

1.

2.

3.

所以重点在于如何设计

在介绍 Muon 之前,我先来简单介绍两个经典的优化器,并且和 Muon 有很强的关系。

Adam

Adam 是一种常用的自适应学习率优化算法,结合了 RMSProp 和带动量的 SGD 的优点,能够在各种神经网络训练任务中快速收敛。Adam 可以算是至今为止最成功的优化器之一了。

动态学习率:在深度学习训练中,每个参数维度上的梯度大小和变化往往相差巨大,使用单一全局学习率容易导致部分参数更新过快而震荡,或更新过慢而难以收敛。

Adam 通过同时跟踪梯度的一阶矩(即梯度的指数加权平均,用于捕捉梯度方向)和二阶矩(即梯度平方的指数加权平均,用于估计梯度幅度),为每个参数动态调整有效学习率,从而在抑制噪声、加速收敛和兼顾稳定性方面表现出色。

bias correction:由于初始时 均为零,这两项在训练早期会产生偏向零的现象,因此需要进行 correction:

为什么用梯度的平方作为二阶矩:牛顿法强调了在优化过程中考虑曲率信息的重要性,通常是通过计算 Hessian 的逆来获得更优的局部下降方向。

虽然在大规模模型中直接计算或存储完整的 Hessian 不现实,但可以用 Fisher 信息矩阵(FIM)来进行近似。Adam 通过对梯度平方的指数滑动平均来估计这一信息,从而实现根据梯度方差动态调整步长。

Shampoo

Shampoo 是由 Google 提出的一个高效二阶优化算法,其核心思想是在不显式计算和存储完整 Hessian 矩阵的情况下,利用梯度的二阶矩信息来为每个参数维度自适应地调整更新方向和步幅。据说 Gemini 就是用它训的。

可以看到,Shampoo 是利用了 Fisher 矩阵的行和列关系。

Muon的背景与具体做法

随着现代大规模模型在参数维度和结构复杂性上的不断增长,其参数空间表现出越来越丰富的依赖关系与矩阵结构几何特性。这一趋势促使研究者越来越关注如何通过挖掘梯度中的全局结构,提升训练过程的条件数和效率。Muon 就是在这么样的背景下提出来的。

我们首先介绍一下 Muon 优化器,这是一种专门为二维参数结构设计的新型优化方法。

给定一个权重矩阵 ,以及当前迭代步 的梯度 ,Muon 首先会计算一个常规的动量缓冲项 ,其中 是动量系数。

不同于常规优化器直接使用动量或其自适应变种,Muon 对动量项进行了几何结构上的变换,从而生成更具结构性的更新方向。

具体来说,它会提取动量矩阵的“正交部分”,即通过极分解计算出 的正交因子 。理论上,这个因子可以看作是对 进行奇异值分解后得到的

考虑到完整 SVD 的计算代价较高,Muon 使用了一种更高效的替代方案:Newton–Schulz 迭代,来近似地求解这个正交因子:

最终,参数更新规则如下:

这种基于 Newton–Schulz 迭代的矩阵正交化方式,为参数更新带来了明确的结构和几何约束。相比传统的对角类自适应方法,它在高维参数空间中能更稳定地进行训练,并更高效地探索损失函数的形状。

牛顿迭代法的目的是逼近极分解。他的 motivation 是,对于一个需要分解的矩阵 G,我们可以通过矩阵乘法和加法,得到:

那接下来事情就简单多了,我只需要让中间关于 S 的多项式能够趋向于 1 就可以了。这就是牛顿迭代的思想,最终通过设计一个多项式,通过迭代多次,便可以将一个 [0,1] 之间的数映射到 1 或者接近 1。

我个人的一个简单理解:有一个函数,对于一个非常小的数,我将其放大 3 倍(假如),并且让最大值不超过 1。那么经历多次放大(迭代),我便可以将一个非常小的数放大到接近 1 了。

行业现状

Muon 还存在一些问题,针对这些问题,现有的工作提出了不同的技术方案。

4.1 训练稳定性与学习率的对齐问题

Muon 优化器存在以下两个问题:

1. Muon 训练的参数更新量的 RMS norm 不稳定。

2. Muon 在实际使用时是只作用在 2 维参数,1 维参数还是使用 AdamW。这表示需要用到额外一套学习率,增加调参的负担。

为了解决上述两个问题,Moonshot 提出以下解决策略:

1. 引入 weight decay,稳定更新量;

2. 对齐 Muon 和 Adam 更新量的 RMS norm,复用 Adam 学习率。

因此,最终 Muon 的形式为:

4.2 Attn logits 的爆炸问题

Moonshot 还在其实验中观测到 Muon 更容易产生大的 attn logits。

他们也对应的提出了 MuonClip,并用在 Kimi K2 中:

实验

我们自己也做了一些实验,结论是:Muon 可以取得比 Adam 25% 左右的 training efficiency。

上文我们完整回顾了 Muon 优化器的原理、相关工作以及工程挑战。接下来,我们将分享自己在 Muon 上的进一步探索,并介绍改进版本 AdaMuon —— 所有代码均已开源。

https://github.com/Chongjie-Si/AdaMuon

多啰嗦一句,我觉得 nanoGPT 这个代码框是真的好用,改一改模型或者优化器,很快就能出结果了,很适合作为学术界发论文或者工业界的一个小规模验证实验。

另外 Megatron-LM 的代码也一并附上了。

闲聊一下

今年 3 月份,我在 X 上闲逛,偶然间看到一个叫做 Muon 的优化器。当时看到评论区的人有的是一顿狠吹,说是训练效率大幅提升,并会取代 Adam;也有的人唱衰,说不好用,没有任何效果。其实直到今天关于 Muon 也大致分为这两派人,当然这是后话。

我本着吃瓜的态度,搜索了一下 Muon 的论文,结果 google scholar 上没有,arxiv 上也没有,最后才发现是一篇博客。当看完了博客,我的第一反应是质疑,因为 Muon 和 Shampoo 实在是太像了,甚至可以说是 Shampoo 的简化版:

Muon 与 Shampoo 的核心区别在于是否对预条件矩阵(preconditioner)进行历史累计——Shampoo 通过不断累加历史信息(虽不同于典型的 EMA,但本质仍是累积),而 Muon 则没有这一机制。

从动量优化的角度来看,我认为 Shampoo 应当具备更好的效果。之前也听说 Gemini 在用 Shampoo 训练,这也在一定程度上支持了我的判断。

不过,Shampoo 需要计算矩阵逆,计算开销较大;而 Muon 借助牛顿迭代法避免了显式求逆,在一定程度上可能比 Shampoo 更高效。但真正引起我注意的是苏剑林老师团队近期的工作。虽然我没有找到 Muon 的原论文,但发现了一篇刚刚发布的研究:

https://arxiv.org/abs/2502.16982

这一发现让我颇感意外,也隐约看到了新的可能性。既然工业界已经开始关注 Muon,并对其扩展性进行了实证分析,也许 Muon 真的有望成为 Adam 的替代方案。

不过,当时除了 Kimi 之外,我并未看到更多论文对 Muon 展开深入探索,一切尚处于未知阶段。

这也让我有些犹豫:转向一个新方向必然带来一定的成本,而当时我正专注于 model merging 方面的研究,同时 hold 两个方向虽然可行,但前者已是一片红海,后者却仍迷雾重重——鸡蛋固然不应放在一个篮子里,但资源的分配也需谨慎权衡。

但是,在经过短暂的考虑之后,我当下决定切换方向——之前的不做了。学界需要追求新的东西,业界需要的是真正有用的东西。既然现在还没有多少人关注,或许只是因为大家尚在观望。如果日后它真的展现出巨大价值,即便我吃不上肉,说不定也能跟着喝上一口汤。

我到现在还记得,当我告诉导师我打算做优化器时,他脸上那种震惊和不解的神情。也许他也没想明白,为什么在 LLM 如此火热的当下,我会突然对一个小众的领域产生兴趣。

不过谁又能想到,今天 Kimi v2 1T 的模型用 Muon 训练成功了,GLM4.5 也用 Muon 训练成功了呢?

对Muon的分析

好了,闲话不多说。开启一个新方向,第一要务就是打通一套可靠的 baseline。我选择了一个基于 nanoGPT 修改而来的代码仓库作为起点。在实现了 Muon 优化器之后,初步的实验结果却并不理想。Muon 在训练早期往往比 Adam 收敛得更快,但在中后期却容易被反超。

对于一个新兴方法来说,到这个阶段很容易让人怀疑其有效性。但出于一种直觉和信念,我总觉得应该是代码的某个地方出了问题。

经过逐行排查(幸亏代码量不大),我意外地发现了 Hugging Face 在 GPT-2 的注意力机制中的一个设置:

if self.scale_attn_by_inverse_layer_idx: att = (q @ k.transpose(-2, -1)) * (1.0 / math.sqrt(k.size(-1)) / float(self.idx_layer + 1))else: att = (q @ k.transpose(-2, -1)) * (1.0 / math.sqrt(k.size(-1)))

简单来说,原实现中对注意力输出额外除以了层数(layer),使得注意力值被人为缩小。这一做法相当奇怪——我从未在论文中见过类似描述,也没有看到任何理论依据,但它却实实在在地出现在了代码中。

在我将这个 hack 掉之后,训练结果立刻回归正常。Muon 的表现显著提升,相比 Adam 取得了 20% 到甚至 50% 的训练效率增益。

通俗来讲,在最优设置下,Muon 仅需训练 10B token 所达到的验证损失,就相当于 Adam 训练 20B token 的结果(所有的实验结果图我会放到最后)。紧接着 Megatron-LM 上的 Muon 也复现成功,在大规模实验上 Muon 也展示出了惊人的效率。

这个过程看似轻松,实际上耗费了我近两个月的时间。此外,它也给了我一个重要的启示:某些模型架构可能对 Muon 并不友好。

由于现有的模型大多基于 Adam 优化器进行训练和调优,许多被广泛采用的设计实际上是在 Adam 的语境下被验证有效的——我们可以认为这些架构是“为 Adam 优化”的。

这一发现也为未来的模型设计提供了新的思路:在探索新的优化方法时,我们或许也需要重新审视和调整模型结构本身,以更好地适配优化器的特性,而不仅仅默认沿用为 Adam 所设计的架构。

既然 Muon 已经验证有效,接下来的目标自然是探索能否构建一个更高效的改进版本。从整体框架来看,Muon 可被视为一种二阶优化器,因为它利用了参数矩阵的行和列信息来构造预条件矩阵。

不过,我更倾向于从矩阵操作的角度来理解:如果说 SGD 是元素级别的一阶优化器,那么 Muon 实际上是一种矩阵级别的一阶优化器——它的核心在于对一阶动量进行矩阵层级的更新。

于是,一个自然的思路是:能否为 Muon 引入矩阵层级的二阶动量,从而将这类 SGD 风格的优化器提升到 Adam 的级别?

这一步目前看来仍有困难。既然如此,我们不妨先退一步思考:能否先为其引入元素级别的二阶动量,以增强其自适应能力?元素级二阶动量的重要性已无需赘言,其有效性早已在大量实验和实践中得到广泛验证。

这就是 AdaMuon 的 motivation。

AdaMuon

论文标题

AdaMuon: Adaptive Muon Optimizer

论文链接

https://www.arxiv.org/abs/2507.11005

8.1 难点

要想实现一个二阶动量加持的 Muon,最直接的想法是像 Adam 那样对 Muon 进行扩展,直接引入一个二阶动量累积项,并利用该方差估计对正交更新矩阵 进行缩放。然而,这种做法引入了两个关键的设计挑战:

1. 首先,应确定对哪个分量进行累积。在 Adam 中,二阶动量自然是在原始梯度 上累积的;但在 Muon 中,更新方向 是通过动量 的极分解得到的。目前尚不清楚方差跟踪应当应用于 还是 ,因为每一种选择都会导致不同的稳定性和归一化行为。

2. 其次,如何实现与 Adam 相当的归一化效果。在 Adam 中,一阶矩和二阶矩均基于同一梯度信号计算,因此它们的比值可有效实现逐元素的步长归一化。

然而在 Muon 中, 在训练早期和中期可能波动剧烈,导致生成的 在不同坐标间差异显著。因此,无论二阶动量是在 还是 上积,所得的统计量仍不稳定,无法提供可靠的归一化效果,甚至可能放大噪声。

要顺利将方差自适应能力融入 Muon,同时不破坏其正交化优势和固有的尺度不变性,就必须审慎解决上述挑战。

8.2 方法

针对第一个挑战,我们选择在正交矩阵 上累积二阶动量,而非原始梯度 或动量缓冲

该设计基于两点考虑:首先,原始梯度 带有病态缩放和方向噪声,而 Muon 的极分解正是为消除此类噪声而设计,因此不适合用于稳定的方差估计;其次,虽然 提供了时间平滑的梯度,但其元素值在训练早中期仍不稳定。

此外,由于实际更新方向来自 ,在 上累积方差会导致与更新所用的缩放基准不匹配。相比之下, 提供了几何归一化且稳定的下降方向,为方差估计提供了更干净的基准。

具体来说,我们像 Adam 一样,对 逐元素平方进行指数移动平均:

其中 表示哈达玛积。 作为正交更新的二阶动量缓冲区,功能类似于 Adam 中的方差累积器。系数 直接沿用 Muon 的动量参数,这样也可以不引入额外超参数。方差归一化后的更新方向为:

其中 表示逐元素除法。之后我们也可以像 Muon 那样,对齐 Adam 更新量的 RMSnorm:

看上去开始像模像样了,但这么做的效果并不算是多好。主要原因是,动量缓冲 在元素层面仍会剧烈变化,导致极分解产生的 在不同坐标间波动显著。直接累积不稳定的 难以实现有意义的归一化,甚至可能放大噪声。

为使 既可用于二阶动量缩放又足够稳定,我们提出先对 施加变换 ,再执行极分解

注意到 具有全局尺度不变性,即 ,但其本身无法稳定元素级波动。因此, 需在保持坐标方向性的同时降低波动。最终我们选择 ,理由如下:

设计这些条件的原因在于:

到这里,AdaMuon 已经具备雏形了。我们将算法整理成表:

8.3 实验

来看看效果。

如果是做预训练的话,我觉得上面三张图已经很能说明问题了。无论是训练效率,还是评测集的跑分,AdaMuon 都能取得很好的结果。我现在还在进行 AdaMuon scaling law 的实验,还有一些其他架构的实验。从目前的初步结果来看,还挺有希望的。

一些讨论

我们讨论一些补充性发现。虽然 AdaMuon 在效果上优于 Muon,但不可否认的是,由于需要额外缓存一组二阶动量矩阵,AdaMuon 对 memory 的需求也相应提高。然而,在消融实验中我们观察到了一个非常有趣的现象:

Muon+Sign(我们暂称其为 SiMuon)的表现显著优于原始 Muon,甚至接近 AdaMuon 的效果。而 SiMuon 相比 Muon 仅增加了一个符号操作,计算开销极小,因此我们认为这是一种极具潜力的 Muon variant。

遗憾的是,受限于计算资源与时间,我未能进行大规模实验验证。然而,从现有实验结果已可清晰看出 SiMuon 所具备的潜力。

最后,我们从学术角度探讨几个可能的改进方向。首先,针对如 ResNet 等广泛使用卷积结构的模型,Muon 目前仅适用于二维矩阵参数,而卷积核通常以高维张量形式存在。因此,能否为高维张量设计相应的正交优化器,是一个值得探索的重要问题。

其次,Muon 在分布式训练中的通信开销仍有优化空间。当前实现需要跨数据并行组 gather 各节点的动量分量,这一操作引入了额外的通信负担。

能否设计一种通信效率更高的 Muon 变体,或寻求一种既保持其正交更新特性、又具备类似 Adam 那样低通信开销的替代方案,也具有重要的研究价值。

最终,一个更为根本的研究目标是:能否设计出一种真正意义上的矩阵级二阶优化器?

此类方法有望在矩阵空间中对曲率进行建模,从而实现对优化方向的更精确调整,从根本上突破现有基于标量或元素级自适应方法的局限。实现这一目标将不仅能够显著提升优化效率,更可能为深度学习的优化理论带来新的突破。

上述三个方向中,解决第一个问题可形成一篇具有扎实学术价值的论文,解决第二个问题将直接推动工业界的大规模应用;而第三个方向——实现真正的矩阵级二阶优化器,我认为堪称优化器领域的一颗明珠。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们