动态列表

  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」
  • 突发!苹果AI大失血:Siri前掌门离职,核心团队被挖角,新功能延期到2026
  • 对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会
  • 急诊室生死逆转!酒后呕吐,GPT-5一眼锁定食管穿孔
  • 周周996,顿顿预制餐!美国AI界00后卷疯了: 住「棺材房」一周工作92小时
  • 学历越高,越怕熬夜!2.3万人10年研究实锤:睡得越晚,智力下降越快
  • Arm拥抱AI:五倍性能,三倍能效
  • Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3
  • 清华、上海AI Lab等顶级团队发布推理模型RL超全综述,探索通往超级智能之路
  • 快手可灵团队提出MIDAS:压缩比64倍、延迟低于500ms,多模态互动数字人框架实现交互生成新突破
  • 成本不足60美元!开源U-ARM:让机器人模仿学习更亲民的通用遥操作界面
  • 让机器人“大脑”更轻更快:SQAP-VLA首次实现VLA模型量化与剪枝协同加速
  • 数据与AI双引擎驱动智能未来,2025外滩大会论数据进化之道
  • iPhone 17 Air 在华发售延期;罗永浩直播回应西贝;《流浪地球》第三部剧本完稿,共计十五万字|极客早知道
  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • 一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道
  • 刚刚,ChatGPT支持MCP了!一句Prompt即可全自动化
  • 百度CTO王海峰:AGI曙光已现,Scaling Law仍有效|新智元十周年峰会
  • 通用Agent是伪命题?昆仑万维方汉现场拆解:垂直推理才是胜负手|新智元十年峰会
  • 文心X1.1三大能力狂飙,海内外实测还挺惊艳!
  • 超越90%城市规划师!清华、MIT等提出人机协作新范式 | Nature子刊
  • 慕尼黑车展,当冷静遇上冷静
  • 别再狂刷CoT了!港科广DIGAI Lab发布隐式推理全景综述,静默思考开启新范式
  • 博士申请 | 新加坡国立大学计算机系卞亚涛老师招收2026 Fall人工智能全奖博士/博后
  • 继首创“AI打赏”服务之后,支付宝再推国内首个“AI付”
  • 蚂蚁百宝箱新品Tbox超级智能体亮相外滩大会,5分钟即可完成专业教学素材
  • 量子宇宙模拟竞赛开启:量子计算机可以模拟并阐明复杂物理现象
  • 3000亿美元OpenAI大单,让世界首富位置换人了
  • 攻克大模型「表格盲区」!ST-Raptor框架发布,实现复杂半结构化表格的精准理解与信息抽取
  • 港大马毅外滩大会演讲:人工智能应从“黑箱”走向“白箱”
  • 兼顾准确率与可解释性,DeepSEA实现抗生素耐药蛋白注释范式转变
  • 交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式
  • RewardDance:字节跳动提出视觉生成奖励扩展新范式,破解“奖励劫持”难题
  • 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
  • 英伟达的AI已经开始接管整个项目了?SATLUTION自主进化代码库登顶SAT竞赛
  • 大模型智能体不止能写代码,还能被训练成白帽黑客
  • 高德扫街榜,能不能做成中国的「Google Map」?
  • 开启MPV家庭新时代,魏牌高山7正式启动预售
  • ACL最佳论文幕后的北大人!北大张铭带出顶会常胜军和百亿CEO天团|新智元十周年峰会
  • 刚刚,这款Agent浏览器力压OpenAI,72%成功率全球第一!还能免费用
  • =COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大
  • 当智能醒于物理世界,英伟达副总裁: 下一个十年属于物理AI!|新智元十周年峰会
  • 刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
  • 00后挑大梁!近20国选手激战外滩大会,AI科创赛三赛道冠军诞生
  • CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架
  • 英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
  • 谷歌AI新里程碑:一个能「做研究」的系统诞生了,用LLM+树搜索编写专家级软件
  • 爱诗科技完成6000万美元B轮融资,阿里巴巴领投,达晨财智、深创投、北京市AI基金、巨人网络、Antler等跟投
  • 当人工智能「看见」量子世界:AI如何改变对复杂量子系统的认知,南洋理工、上交等发布量子系统学习综述
  • DeepSeek、Gemini都不行?AgenTracer锁定多智能体“背锅侠”,8B小模型反超闭源巨模
  • 院士领衔!从智能算网到司法AI:顶尖学者直播解读AI与工程前沿趋势
  • SFT真不如RL?MIT团队抛出“RL的剃刀”,砍掉遗忘直通终身学习
  • 北京内推 | AMD北京AI算法团队招聘模型量化/剪枝算法实习生(可远程)
  • AI应用元年,这场标杆赛事见证了中国创新速度与野心
  • AI胡说八道这事,终于有人管了?
  • 人人都能炼专属Agent,上海交大开源端侧Agent全栈工具链,真实场景性能超GPT-5!
  • TPAMI 2025 | H2OT:分层沙漏型Tokenizer,重塑高效视频姿态Transformer
  • 史上最贵「打工皇帝」!马斯克解锁1万亿美金工资,拢共分几步?
  • 500 块的「电子宠物」,治好了我的「路怒症」|New Things
  • 苹果发布会:耳机测心率、手表听音乐、iPhone Air超级薄
  • 5999 元起,苹果发布eSIM、超薄 iPhone;王腾再辟谣离职原因谣言;反恶性补贴,主要外卖平台被约谈|极客早知道
  • 不到10天,国产「香蕉」突袭!一次7图逼真还原,合成大法惊呆歪果仁
  • 再也不怕面瘫脸!YouTube黑科技:AI帮你「永久微笑」,连僵尸都咧嘴笑
  • OpenAI真正王牌,不是Ilya!刚刚,奥特曼罕见致谢这两人
  • 缔造OpenAI的秘密,竟只有一个词!新智元十年峰会圆桌,七位大咖激辩
  • Hinton预言失灵?掌握AI技能涨薪23%,比读硕士更赚钱
  • 最薄 iPhone 登场,eSIM 正式落地|苹果秋季发布会新品回顾
  • 文心新出的推理大模型,给了我们信心
  • SFT远不如RL?永不过时的剃刀原则打开「终身学习」大模型训练的大门
  • 从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准
  • 击败多个行业巨头,优必选自研人形机器人最强大脑 Thinker 斩获全球四项第一
  • 字节跳动发布 Seedream 4.0 图像创作模型,豆包、即梦可免费体验
  • 从科幻到产业元年 | 「脑机接口」系统综述发布:全景解析理论、技术、挑战、趋势
  • 硅谷也996实锤了?AI的火,烧掉了硅谷的周末
  • DPad: 扩散大语言模型的中庸之道,杜克大学陈怡然团队免训推理加速61倍
  • Altman亲自发博客点赞,这两大杰出人才是谁?
  • 自变量机器人完成近 10 亿元 A+ 轮融资,多元资本押注共同布局具身智能未来
  • 科研实习 | 北京大学计算机学院潘亮铭老师课题组招收NLP/大模型方向科研实习生
  • ICML 2025 | 别再只拼CoT了!不完备信息下的主动推理,LLM普遍掉线
  • 不止综述!多模态大模型持续学习全链路:Benchmark、方法与Codebase一网打尽
  • 报名启动!西湖大学云谷青年学者论坛·人工智能分论坛诚邀全球英才
  • 时空壶发布 W4:用「硬核」技术,打赢一场 AI 翻译的「标准」之战
  • Science | 西奈山伊坎医学院新AI算法为1600种变异定量「风险」,解析疾病外显率难题
  • TPAMI 2025 | IGEV++:迭代多范围几何编码,刷新立体匹配技术新高度
  • 原来你是这样的外滩大会!
  • 小米通报王腾因泄密被辞退,本人发微博回应;传 IPO 估值 500 亿,宇树回应 ;辛顿自曝被女友用 AI 分手 | 极客早知道

反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假



  新智元报道  

编辑:KingHZ
【新智元导读】上周,福布斯、Wired等争相报道「全球最快开源推理模型」K2-Think,,甚至图灵奖得主Yann LeCun转发推文。但仅三天后,ETH五位研究员的博客如晴天霹雳:87数学评估题竟藏在训练集中!这不仅仅是技术突破,更是行业诚信的警钟。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

全球最快开源AI推理模型!

这个标签为K2‑Think带来轰动效果:福布斯、VentureBeat、Wired、CNBC等媒体争先报道,甚至图灵奖得主转发相关推文介绍!

然而,苏黎世联邦理工学院计算机科学系SRI实验室的研究者,却泼了一盆冷水:

虽然K2-Think不错,但报告的性能被夸大了。

32B参数比肩o3 high?

上周,MBZUAI与G42等开源了一款号称是「全球最快的开源AI推理模型」——K2-Think。

当地媒体报道:K2-Think证明提升效率,不必牺牲模型性能

在数学能力上,只有32B参数的K2-Think,甚至能比肩OpenAI此前的旗舰——o3 high。

堪称是对Scaling Law的颠覆。

论文中,作者把六个没人费心整合过的技术诀窍组合到了一起:

长思维链微调、具有可验证奖励的强化学习(RLVR)、推理前的Agentic规划、测试时扩展、投机解码和优化推理的硬件。

其中的「先计划再思考」的架构不仅让模型变得更聪明,还实实在在地把token消耗降低了12%。

数据方面,据称仅使用开源数据集,无专有训练数据、无封闭API。

速度方面它能在Cerebras上跑到每秒2000个token。而大部分推理模型,每秒只有200个token。复杂的证明,过去要等3分钟,现在只要18秒,这就是差距。

基准跑分更是逆天。

在AIME 2024测试中,它得分率高达90.83%,要知道,大多数前沿模型连85%的门槛都过不了。

在复杂的数学竞赛中,它拿下了了67.99%的分数——一举击败了那些参数量超过1000亿的模型,如GPT-OSS 120B 和DeepSeek V3.1。

过去,大家都认为「模型越大越好」;这一下就彻底终结了这种论调。此前被OpenAI独占的推理能力,现在小型实验室也能部署了。

现在所有人都在惊叹它的速度记录。但真正的核心是:在推理层面,他们把参数效率这个难题给攻克了

效果如此出色,不仅在网上引发了广泛关注,还有多家新闻媒体对此进行了报道,包括福布斯、VentureBeat、Wired、CNBC等。

甚至,连Yann LeCun都亲自下场,转发了一条介绍这篇论文的推文。

然而,3天后,9月12日,故事迎来了逆转!

逆转:ETH发文遭「打假」

然而,就在论文发布后的第3天,5位来自ETH苏黎世的研究员就出来「打假」了。

博客地址:https://www.sri.inf.ethz.ch/blog/k2think

根据分析,他们列出了4个关键问题:

  • 数据污染

  • 以三打一

  • 只比旧模型

  • 平均分替代最高分

具体问题,请往下看;ETH的独立测评和结论在文末。

数据污染,评估无效

数学能力评估方面,K2-Think所使用的监督式微调(SFT)和强化学习(RL)数据集中,均包含DeepScaleR数据集,而后者又包含了Omni-Math的题目。

由于K2-Think又使用Omni-Math来评估其性能,评测与训练集可能存在重叠——这表明存在数据污染

通过近似字符串匹配,研究人员确认了这一点:

K2-Think用于评估的173个Omni-Math题目,至少有87个也出现在其训练数据里。

另据称,RL数据集Guru的创建者与论文作者重合度高,而K2-Think又使用了Guru进行强化学习训练。

代码基准LiveCodeBench评估中,也发现了类似问题。

评估中K2-Think所用样本的约22%,出现在其SFT数据集中。

虽然SFT数据集的原作者(AM-Team)执行了去污染步骤,移除了2024年10月之后的问题。

但K2-Think的LiveCodeBench评估,却使用了自2024年7月以来的所有问题,导致其中22%的问题是模型在训练阶段就已经见过的。

这直接导致其在数学和代码方面的评估结果大打折扣

不公平比较:采用「Best-of-N」和外部模型

该论文的主要结果表报告的是,K2-Think在「3选1」(Best-of-3)策略下的性能。这是一种众所周知的提升模型表现的技巧

而所有其他模型均采用「单次生成」(best-of-1)进行评估,这让它们处于极为不利的位置。

更甚的是,「3选1」的判断是由一个未指明的「外部模型」完成的,该模型的规模可能是任意的。

同样是这个外部模型,还为K2-Think提供了详细的解题计划。

作者将这整套流程定义为「K2-Think」,而32B模型本身只是其中一个组件。但原论文却声明「K2-Think仅依赖一个32B小模型」。

如论文所示,将这套流程与没有采用该流程的其他模型进行比较,是无效的。

这套流程本就可以轻松应用于其他模型,并同样能提升其得分。

在没有外部辅助的情况下,K2-Think的性能不如Nemotron 32B——

后者是一个同等规模的模型,于今年7月发布,基于Qwen2.5 32B并采用类似方法训练。

表1:K2-Think(无外部辅助)、Nemotron 32B(两者均为Qwen2.5 32B的微调版本)以及Qwen3 30B的性能对比。Qwen3(*)的结果取自其模型页面。所有其他结果均取自K2-Think的论文

歪曲其他模型的结果

该报告未能公正地评估其他模型。最明显的是,它在运行GPT-OSS时仅使用了「中等」推理强度,而非为推理基准推荐的「高」推理强度设置。

此外,K2-Think对许多竞品模型使用了过时的版本。

例如,尽管他们评估了8月份发布的GPT-OSS,但论文中评估的Qwen3模型似乎并非7月份发布的最新版本。具体来说,在Qwen3和K2-Think论文都涵盖的三个基准测试(AIME 2025、HMMT 2025、GPQA-Diamond)上,K2-Think给出的Qwen3分数似乎与旧版本相符,比7月新版本报告的结果低了15-20%之多。

下表比较Qwen3官方报告的分数与K2-Think论文中给出的分数。

可以看到,K2-Think归于Qwen3-30B的分数远低于预期,即便是对比7月发布前的旧版本也同样如此。

表2:在AIME 2025、HMMT 2025和GPQA-Diamond 3准上,Qwen3技术报告/模型页面、MathArena基准与K2-Think论文报告的分数对比

为得分高的数学基准赋予更高权重

最后,K2-Think使用「微观平均值」(micro average)来计算其总体数学评分。

这意味着它根据四个基准(AIME24、AIME25、HMMT、OmniMath-Hard)各自包含的任务数量来加权,而非对各基准分数进行等权重平均。

总体「微观平均值」:基本上是将所有测试集中的正确答案总数除以问题总数

虽然声称此举是为了量化模型的整体数学能力,但这种计算方式导致最终分数被OmniMath-Hard严重主导(占总分约66%)

OmniMath-Hard不仅是K2-Think表现最好的基准,也恰恰是上文讨论的、存在数据污染问题的基准

独立评估结果

为ETH为了验证分析,在自有的MathArena基准上,对K2-Think与其他模型进行了公平比较。

他们遵循了K2-Think的推荐超参数(temperature=1, p=0.95,输出64,000个token)。

结果显示,尽管K2-Think性能不错,但其表现远未达到论文和媒体文章所声称的水平。

特别是,它未能与DeepSeek V3.1或GPT-OSS 120B相提并论——尽管其作者声称可以。

事实上,评估表明K2-Think的数学能力甚至不及规模更小的GPT-OSS 20B模型。

结论

总而言之,ETH的研究小组发现K2-Think模型在多个方面存在夸大陈述:

它在已经用于训练的数据上进行评估,依赖外部模型和额外采样来夸大性能,并人为压低竞品模型的分数,同时又通过重新加权来凸显自己的分数,以制造性能持平乃至超越的假象。


这也反映了AI圈独特的文化:针对不同的基准测试,好像只要能拿到最高分就是好模型。

这催生出一种极端的信念:好模型就是benchmaxer。

甚至为了刷新「SOTA」,出现了类似「田忌赛马」的测评策略。

开源模型要拿好成绩,本是好事。然而,存在缺陷的评估和夸大其词的宣传对行业毫无益处。

参考资料:
https://x.com/ihteshamit/status/1966211223030202781
https://www.sri.inf.ethz.ch/blog/k2think
https://arxiv.org/pdf/2509.07604


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652627666&amp;idx=1&amp;sn=fc89156c6c3bfafec0314c52a0a74332&amp;chksm=f087c5ed562c6e620e231371f34509c7d992d6e97127e09853ca1277d61033666e3714e8b227&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/RzVPVdrYmm&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们