动态列表

  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道
  • 刚刚,ChatGPT支持MCP了!一句Prompt即可全自动化
  • 百度CTO王海峰:AGI曙光已现,Scaling Law仍有效|新智元十周年峰会
  • 通用Agent是伪命题?昆仑万维方汉现场拆解:垂直推理才是胜负手|新智元十年峰会
  • 文心X1.1三大能力狂飙,海内外实测还挺惊艳!
  • 超越90%城市规划师!清华、MIT等提出人机协作新范式 | Nature子刊
  • 慕尼黑车展,当冷静遇上冷静
  • 博士申请 | 新加坡国立大学计算机系卞亚涛老师招收2026 Fall人工智能全奖博士/博后
  • 别再狂刷CoT了!港科广DIGAI Lab发布隐式推理全景综述,静默思考开启新范式
  • 继首创“AI打赏”服务之后,支付宝再推国内首个“AI付”
  • 蚂蚁百宝箱新品Tbox超级智能体亮相外滩大会,5分钟即可完成专业教学素材
  • 量子宇宙模拟竞赛开启:量子计算机可以模拟并阐明复杂物理现象
  • 3000亿美元OpenAI大单,让世界首富位置换人了
  • 攻克大模型「表格盲区」!ST-Raptor框架发布,实现复杂半结构化表格的精准理解与信息抽取
  • 港大马毅外滩大会演讲:人工智能应从“黑箱”走向“白箱”
  • 兼顾准确率与可解释性,DeepSEA实现抗生素耐药蛋白注释范式转变
  • 交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式
  • RewardDance:字节跳动提出视觉生成奖励扩展新范式,破解“奖励劫持”难题
  • 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
  • 英伟达的AI已经开始接管整个项目了?SATLUTION自主进化代码库登顶SAT竞赛
  • 大模型智能体不止能写代码,还能被训练成白帽黑客
  • 高德扫街榜,能不能做成中国的「Google Map」?
  • 开启MPV家庭新时代,魏牌高山7正式启动预售
  • ACL最佳论文幕后的北大人!北大张铭带出顶会常胜军和百亿CEO天团|新智元十周年峰会
  • 刚刚,这款Agent浏览器力压OpenAI,72%成功率全球第一!还能免费用
  • =COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大
  • 当智能醒于物理世界,英伟达副总裁: 下一个十年属于物理AI!|新智元十周年峰会
  • 刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
  • 00后挑大梁!近20国选手激战外滩大会,AI科创赛三赛道冠军诞生
  • CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架
  • 英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
  • 谷歌AI新里程碑:一个能「做研究」的系统诞生了,用LLM+树搜索编写专家级软件
  • 爱诗科技完成6000万美元B轮融资,阿里巴巴领投,达晨财智、深创投、北京市AI基金、巨人网络、Antler等跟投
  • 当人工智能「看见」量子世界:AI如何改变对复杂量子系统的认知,南洋理工、上交等发布量子系统学习综述
  • DeepSeek、Gemini都不行?AgenTracer锁定多智能体“背锅侠”,8B小模型反超闭源巨模
  • 北京内推 | AMD北京AI算法团队招聘模型量化/剪枝算法实习生(可远程)
  • SFT真不如RL?MIT团队抛出“RL的剃刀”,砍掉遗忘直通终身学习
  • 院士领衔!从智能算网到司法AI:顶尖学者直播解读AI与工程前沿趋势
  • AI应用元年,这场标杆赛事见证了中国创新速度与野心
  • AI胡说八道这事,终于有人管了?
  • 人人都能炼专属Agent,上海交大开源端侧Agent全栈工具链,真实场景性能超GPT-5!
  • TPAMI 2025 | H2OT:分层沙漏型Tokenizer,重塑高效视频姿态Transformer
  • 史上最贵「打工皇帝」!马斯克解锁1万亿美金工资,拢共分几步?
  • 500 块的「电子宠物」,治好了我的「路怒症」|New Things
  • 苹果发布会:耳机测心率、手表听音乐、iPhone Air超级薄
  • 5999 元起,苹果发布eSIM、超薄 iPhone;王腾再辟谣离职原因谣言;反恶性补贴,主要外卖平台被约谈|极客早知道
  • 不到10天,国产「香蕉」突袭!一次7图逼真还原,合成大法惊呆歪果仁
  • 再也不怕面瘫脸!YouTube黑科技:AI帮你「永久微笑」,连僵尸都咧嘴笑
  • OpenAI真正王牌,不是Ilya!刚刚,奥特曼罕见致谢这两人
  • 缔造OpenAI的秘密,竟只有一个词!新智元十年峰会圆桌,七位大咖激辩
  • Hinton预言失灵?掌握AI技能涨薪23%,比读硕士更赚钱
  • 最薄 iPhone 登场,eSIM 正式落地|苹果秋季发布会新品回顾
  • 文心新出的推理大模型,给了我们信心
  • SFT远不如RL?永不过时的剃刀原则打开「终身学习」大模型训练的大门
  • 从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准
  • 击败多个行业巨头,优必选自研人形机器人最强大脑 Thinker 斩获全球四项第一
  • 字节跳动发布 Seedream 4.0 图像创作模型,豆包、即梦可免费体验
  • 从科幻到产业元年 | 「脑机接口」系统综述发布:全景解析理论、技术、挑战、趋势
  • 硅谷也996实锤了?AI的火,烧掉了硅谷的周末
  • DPad: 扩散大语言模型的中庸之道,杜克大学陈怡然团队免训推理加速61倍
  • Altman亲自发博客点赞,这两大杰出人才是谁?
  • 自变量机器人完成近 10 亿元 A+ 轮融资,多元资本押注共同布局具身智能未来
  • 报名启动!西湖大学云谷青年学者论坛·人工智能分论坛诚邀全球英才
  • 不止综述!多模态大模型持续学习全链路:Benchmark、方法与Codebase一网打尽
  • ICML 2025 | 别再只拼CoT了!不完备信息下的主动推理,LLM普遍掉线
  • 科研实习 | 北京大学计算机学院潘亮铭老师课题组招收NLP/大模型方向科研实习生
  • 时空壶发布 W4:用「硬核」技术,打赢一场 AI 翻译的「标准」之战
  • Science | 西奈山伊坎医学院新AI算法为1600种变异定量「风险」,解析疾病外显率难题
  • TPAMI 2025 | IGEV++:迭代多范围几何编码,刷新立体匹配技术新高度
  • 原来你是这样的外滩大会!
  • 小米通报王腾因泄密被辞退,本人发微博回应;传 IPO 估值 500 亿,宇树回应 ;辛顿自曝被女友用 AI 分手 | 极客早知道
  • Hinton自曝:前女友提分手,用ChatGPT列出自己「七宗罪」
  • 从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述
  • 字节Seedream 4.0将全量开放!抢先评测来了,我们摸索出AI生图20种「邪修」玩法
  • 全球图生视频榜单第一,爱诗科技PixVerse V5如何改变一亿用户的视频创作
  • 扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
  • 具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法
  • 上海AI Lab重磅综述:AI实现自主科学发现时代已经到来
  • 6 个月估值暴涨 5 倍突破 100 亿美元,三个「00后」逼急 Scale AI
  • 深圳内推 | 腾讯音乐天琴实验室招聘音乐生成算法研究员(社招/校招)
  • 给RL装上“防抖器”!GRPO稳化版来了:更高熵、更低KL、更稳更新
  • 导师放养真的会毁掉一个人……
  • Focal Loss也能无监督?北大×港中文团队用“双重不确定性优化”提升鲁棒3D感知
  • 上汽通用五菱与华为深化合作,推出首款车型宝骏华境S
  • IEEE TPAMI | M²Diffuser: 让机器人学会“脑补”,在复杂3D场景中实现精准移动操作
  • 国行版苹果 AI 推迟至年底上线;视频平台广告被曝「偷时间」;美国计划限制进口中国无人机和重型载具 | 极客早知道|极客早知道
  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬

一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」



  新智元报道  

编辑:倾倾
【新智元导读】开源炸场!Qwen3-Next 80B,每次仅激活约3B;训练成本约1/10,32K以上长文本吞吐提升约10倍,原生256K。这才是开源最想看的答案。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

AI狂飙,闭源大模型坚信「越大越强」、「大就是好」。
但一只80B的开源「小钢炮」却给了另一个答案:Qwen3-Next。
它用极稀疏MoE与混合注意力,把单次激活压到≈3B,训练成本约1/10、32K+长上下文、推理吞吐≈10×,在多项推理与长文场景逼近甚至反超闭源竞品。
小体量、低成本,却能硬刚巨头——这才是开源最想看的答案。

80B小体量,凭什么挑战235B巨头?

Qwen3-Next的混合架构。采用Gated DeltaNet+Gated Attention的混合注意力与高稀疏MoE,并通过zero-centered与weight-decayed LayerNorm等稳定化手段,提升大规模训练稳定性

极致稀疏MoE:512专家只激活3B

闭源大模型的常见逻辑是「越大越强」:参数从百亿到千亿一路狂飙,成本和门槛也被推到极高。

但Qwen3-Next给出了另一种答案——它只有80B总参数,却通过极致稀疏的MoE 架构,把「小体量」贯彻到了极致。

采用极稀疏MoE(1:50):512专家中每个token仅激活10个专家+1个共享专家,激活参数≈3B(约3.75%)

这种「按需激活」的设计,不仅让计算资源利用率最大化,也在官方评测中跑出了接近235B旗舰模型的表现。

Qwen3-Next-80B-A3B-Base在多项任务中表现超越32B,接近235B,展现出极高的性价比

Qwen3-Next用更小的规模,撕开了闭源巨头的防线,证明了「不是越大才越强」,而是越聪明才越强。

混合注意力:效率与召回的平衡

在注意力机制上,Qwen3-Next采用了75%Gated DeltaNet+25%标准 Attention的混合方案。

前者负责提升长文本处理的效率,后者保证全局信息的召回,再加上输出门控和部分旋转位置编码,既能处理超长上下文,又能维持强大的in-context学习能力。

这套设计让它在复杂推理任务中,不仅超过了自家更高成本的30B、32B模型,还在多个基准测试中超越了闭源Gemini-2.5-Flash-Thinking

更让人惊讶的是,部分关键指标已经接近Qwen3-235B-Thinking,尤其在256k超长上下文场景下,优势被进一步放大,成为开源阵营少见的「长文推理利器」。


稳定性优化:不怕大规模训练翻车
稀疏架构的难题一直是训练不稳。

Qwen3-Next在这一点上做了多重改造:

采用zero-centered与weight-decayed LayerNorm等稳定化手段,并在MoE Router上做归一化与初始化改进,保证高稀疏与RL后训阶段的稳态收敛

在MoE router初始化时进行归一化,让各个专家在早期训练阶段就能公平参与。

结果是,模型在scaling up时依然能稳步收敛。

省钱更省心:效率才是杀手锏

Qwen3-Next并不是靠堆算力取胜。

它只使用了Qwen3语料的15T tokens子集,训练所需GPU资源甚至不到Qwen3-32B的9.3%

在4K场景也有可观提升,而在 32K+ 长上下文下提升最为显著(约10×)。

训练更省,推理更快,这让「性价比」三个字,不再是宣传口号,而是能落到实处的硬指标。

原生MTP:快得有理由

效率的提升并不是凭空出现。

Qwen3-Next把Multi-Token Prediction原生集成进模型主干,一次前向就能预测多个token。

再结合多步一致训练,大幅提升了speculative decoding的接受率。

这意味着模型不仅能生成得更快,而且在长文本场景下依旧保持稳定。

换句话说,速度背后有机制,性能提升也能持久复现。

后训练见真章:Instruct与Thinking双线作战


如果说Base模型证明了Qwen3-Next的基本实力,那么Instruct和Thinking模型则展示了它在后训练阶段的全面爆发。

在Instruct模型上,Qwen3-Next-80B-A3B-Instruct的表现已经逼近Qwen3-235B Instruct,在部分任务上甚至反超。

无论是SuperGPQA、AIME25,还是Arena-Hard v2,都能看到80B模型与235B旗鼓相当,明显领先于Qwen3-30B、32B系列。

在对于长文本处理的对比下尤为突出,在RULER测试的256k上下文范围内,它甚至超过了235B,验证了混合架构在超长场景下的优势。

而在Thinking模型上,Qwen3-Next-80B-A3B-Thinking的突破更为亮眼。

在复杂推理任务中,不仅优于自家更高成本的30B、32B模型,Thinking版在多个基准上超过Gemini-2.5-Flash-Thinking:例如 IME25 87.8 vs 72.0、HMMT25 73.9 vs 64.2、LiveBench 76.6 vs 74.3、LiveCodeBench v6 68.7 vs 61.2、Arena-Hard v2 62.3 vs 56.7。

换句话说,开源社区第一次在推理能力上真正追上了闭源巨头,并在部分场景中完成了反超。

官方在X的发布中也给出了核心口径:80B总参但单token仅激活3B;训练约10×更省、在32K+上下文推理约10×更快。


长文稳定、综合均衡,网友:真香!

如果说Qwen3-Next的骨骼是极稀疏MoE与混合注意力,那它的「肌肉」就体现在长文本和综合基准里的硬指标。

原生256K的上下文不是纸面参数,在官方RULER测试中,Qwen3-Next-80B-A3B-Instruct在256K点位拿到约93.5%的准确率,全区间平均约91.8%。

也就是说,它不仅能「装下」超长材料,还能在长度翻倍之后依然保持理解力和稳定性,不是那种越长越糊的模型。

再看综合能力。放进自家旗舰和竞品横向比,Qwen3-Next给出的答卷同样惊喜:在Arena-Hard v2里拿到82.7分,已经和235B旗舰处于同一梯队;

LiveBench这样的综合评测上,它更是以75.8的成绩追平甚至略超235B。

LiveCodeBench v6上,它干脆以小博大,80B模型的56.6分超过了235B的51.8

当然,在更吃知识冗余的数学/常识任务上,它与235B仍有半步差距,但考虑到成本对比,这已是一笔「稳赚」的交换。

除了官方成绩单,社区也有第一波体验者。

有网友实测发现,Qwen3-Next在生成长文时,版式会有一定波动,同一个prompt多次跑出的页面排版不尽相同,需要靠更严格的提示去约束稳定性;

在处理长代码时表现强势,一次性能吐出上千行逻辑,但在「整理网页信息」这样的场景里,模型偶尔会「偷懒」,直接把片段抄过来而不是生成完整逻辑。

尽管如此,这位网友最后还是下了结论

100B以内的模型已经够打,等到A100B+级别的新版本量产,会更值得期待。

百万Token之外,还有Qwen3.5

Qwen3-Next 并不是终点。

它原生支持26万token的上下文,在实际测试中,通过YaRN技术已经可以稳定扩展到百万级

这意味着,无论是整本书的理解,还是跨月的长周期对话,都已经不再是实验室里的概念,而是真正可落地的能力。

更重要的是,团队已经在筹备Qwen3.5

在Qwen3-Next打下的架构基础上,未来的版本将进一步强化智能水平和生产力表现。

对研究者和开发者来说,这不仅是一代模型的更新,更是开源社区与闭源巨头竞争的加速信号。

从80B小体量撕开235B的防线,到百万级上下文的突破,再到即将到来的Qwen3.5,Qwen系列正在不断刷新行业对性价比和可能性的认知。

参考资料:
https://mp.weixin.qq.com/s/STsWFuEkaoUa8J8v_uDhag
https://huggingface.co/Qwen/Qwen3-Next-80B-A3B-Instruct
https://huggingface.co/Qwen/Qwen3-Next-80B-A3B-Thinking
https://www.reddit.com/r/LocalLLaMA/comments/1nefmzr/qwen_released_qwen3next80ba3b_the_future_of/
https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
https://x.com/Alibaba_Qwen/status/1966197643904000262


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652627281&amp;idx=2&amp;sn=477cd8689de5fde1430b5365816bb654&amp;chksm=f048eeef1199f7e934d061848f273cf0f95fb36104563607c0724c20e50f829800d69bd5f655&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/GS0KeYfSZV&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们