动态列表

  • 谷歌二代Nano Banana爆出!一键推演微积分,终结PS时代
  • 狗也被AI抢饭碗?好莱坞动物演员全下岗,观众直接翻脸了!
  • ChatGPT求婚火了,一句「我愿意」刷屏!网友:是真爱了
  • NeurIPS25 | 清华&北大提出LinearDiff-ViT:让Transformer学会“找不同”,实打实提升模型性能
  • AI 六巨头罕见同台,辨论 AI 泡沫;SpaceX 公布简化版登月舱方案;王者荣耀年度总决赛首次在鸟巢举办
  • LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律
  • 仅2天!谷歌AI破解十年谜题,锁定救命药人类全失手
  • 终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」
  • 仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类
  • AI六巨头罕见同台!李飞飞激辩LeCun,黄仁勋:你们都错了
  • 复盘大疆 Pocket 的七年:从「定义产品」到「定义时代」
  • TRO'25开源|机器人建图的终局?一个框架搞定光学、几何与语义!
  • 10.58 万!零跑造了一台「红米 YU7」
  • 当一家传统车企,终于决定「师中长技」
  • AI热潮推动,全球 DRAM 内存价格暴涨;泡泡玛特回应直播事故;媒体爆料iPhone 18 Pro工程机进展
  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • TCSVT 25 | 宁波诺丁汉大学等提出De-LightSAM:仅需SAM-H 2%参数,实现通用化医疗影像自动分割
  • IROS 2025 | 北理工提出BoRe-Depth:仅8.7M参数,在嵌入式设备实现50.7 FPS高清深度估计
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元
  • 蔚来,破 4 万!
  • 今年双十一最大的赢家是这张表
  • 大道至简,中科院等提出OneRef:统一视觉定位和指代分割
  • 复旦大学&StepFun提出WithAnyone:告别“复制粘贴脸”,实现可控、高保真的多人ID一致性生成
  • 极客公园创新大会 2026 首批嘉宾揭晓!
  • 达摩院联合浙大、港理工推出PixelRefer:多模态大模型迈向像素级视觉理解
  • 北京内推 | 美团招聘大模型算法实习生(IM全渠道)
  • 自回归不必按token算了:微信AI × 清华用CALM直接「整段」预测
  • Altman 怒喷 OpenAI 唱衰者;小鹏发布新一代人形机器人 IRON;苹果支付 10 亿美金,新 Siri 将引入谷歌 Gemini|极客早知道
  • 别被一堆Strong Accept吓住:德州农工×康奈尔实锤论文晒分“系统性虚高”
  • 记忆让机器人更聪明:原力灵机提出MemoryVLA化解长时程任务操作难题
  • 博士申请 | 南洋理工大学王琦琛老师课题组招收数据库方向全奖博士/博后
  • 151% 的增长背后,它正在成为 AI 的「新入口」
  • 清华&南洋理工等提出稀疏模型反演:ViT反演加速高达3.79倍,告别无效背景!
  • 低光图像增强新探索:SASW-Loss,无需改网络,即插即用提升多种模型性能
  • 山姆更新后遭会员疯狂吐槽;Switch2 销量破千万;小米马志宇警告存储涨价:明年最新的成本预估“有点惊悚”|极客早知道
  • NeurIPS25 | 香港理工&OPPO&哈佛提出DNAEdit:直接噪声对齐让Rectified flow文生图编辑更加准确
  • 为物理AI打造世界模型!英伟达发布Cosmos-2.5:模型缩小3.5倍,性能媲美SOTA
  • Sketch-to-Layout,从草图到布局!DeepMind & EPFL 在设计领域的新工作
  • 这个不「瞎 BB 」的 AI 硬件,给了我真正的「陪伴」丨New Things
  • Rokid 乐奇联手 BOLON 眼镜:眼镜巨头依视路的中国棋局
  • 跟一位日本比亚迪车主聊了聊,才明白我们对「出海」有多天真
  • 宁德时代赚走185亿,车企却不想再给「宁王」打工了
  • 从「绝望」到一轮融资43亿元:新石器做对了什么?
  • NeurIPS 2025 | 用蛋白质动态词表“搭积木”,ProDVa高效组装可折叠新蛋白
  • 北京内推 | 阿里通义实验室对话智能团队招聘大模型方向研究型实习生
  • 全注意力、复杂推理不掉速:MiniMax M2把Agent做成了「可执行能力」
  • 豆包,正在悄悄开启「电商新链路」
  • OpenAI 与 AWS 达成 380 亿美元算力合作;新 Siri 付费采用 Gemini;字节试行「豆包股」 | 极客早知道
  • Karpathy点赞NUS新研究:RL微调不稳定的关键根源,指向BF16精度本身
  • ICCV 2025 | 高德提出SeqGrowGraph:以序列化图扩展革新车道拓扑生成
  • 我体验了一下 AI 时代的「家」:快跑,到处都是 AI
  • 每天都和 AI 聊天,你可能已经是个「神经病」
  • 苹果,一赚「解」千愁
  • AMD发布E-MMDiT:仅304M参数,单节点1.5天训练,实现高效图像合成新基准
  • 多媒体顶会ACM MM 2025 最佳论文公布,从“看懂”到“会用”,再到“会思考”:揭示AI与物理世界融合新篇章
  • 顶刊ISPRS (IF 12+) | 400+参考文献,遥感图像超分辨率最新综述!
  • T1 零封 TES 战队,中国战队无缘 S15 总决赛舞台;英伟达合作制药巨头打造超级计算机;理想汽车汤靖详解 MEGA 起火事件|极客早知道

小成本DeepSeek和Kimi,正攻破奥特曼的「算力护城河」



  新智元报道  

编辑:艾伦
【新智元导读】2025年前盛行的闭源+重资本范式正被DeepSeek-R1与月之暗面Kimi K2 Thinking改写,二者以数百万美元成本、开源权重,凭MoE与MuonClip等优化,在SWE-Bench与BrowseComp等基准追平或超越GPT-5,并以更低API价格与本地部署撬动市场预期,促使行业从砸钱堆料转向以架构创新与稳定训练为核心的高效路线。

2025年以前,AI界盛行着一种信念:只有闭源、巨额投入和疯狂堆算力才能打造最强大的模型。

OpenAI作为这一思路的旗手,不仅将模型训练秘而不宣,更与合作伙伴绘制了高达1.4万亿美元的基础设施蓝图。

八年内烧掉1.4万亿美元来构建数据中心,被视作确保领先的唯一途径。

在这种思维下,OpenAI旗舰模型的研发成本节节攀升:据报道,训练GPT-4就花费了约1亿美元。

闭源+重资本模式一度令人信服,OpenAI因此获得了天价估值和汹涌资本支持。

然而,这一「用钱砸出智能」的神话,正随着一系列意料之外的挑战而动摇。

信念的第一次动摇
DeepSeek-R1横空出世

今年年初,一家彼时名不见经传的中国初创公司深度求索掀起了巨浪。

它发布的DeepSeek-R1模型不仅开源,而且号称性能可与OpenAI顶级模型比肩。

更令人瞠目的是,DeepSeek宣称训练这款模型只花了约560万美元,连旧金山一套像样的房子都买不起。

这个成本数字相比业内普遍认为的「烧钱」级别相差悬殊,仅为Meta开发Llama模型成本的约十分之一。

事实证明,这并非夸夸其谈。

DeepSeek-R1发布后一周内,DeepSeek App下载量迅猛攀升,一举超越ChatGPT,登顶美国苹果App Store免费榜。

一款开源AI应用在美国用户中的受欢迎程度超过了OpenAI的王牌产品,这一幕令业界震惊。

DeepSeek以微薄成本实现高性能,直接质疑了开发AI必须投入天量资金和算力的传统观念。

华尔街对此反应剧烈,微软和谷歌股价应声下挫,而AI芯片巨头英伟达的市值甚至蒸发了约17%,相当于约6000亿美元。

资本市场用脚投票,开始重新审视AI赛道的投入产出模型:烧钱打造封闭模型的路线,或许并非高枕无忧的康庄大道。

开源低成本路线的核弹
Kimi K2 Thinking震撼登场

DeepSeek年初点燃的星星之火尚未平息,中国另一家初创公司月之暗面在年末投下了一枚震撼弹。

本周,月之暗面发布了最新的开源巨模型Kimi K2 Thinking(以下简称K2 Thinking),以开源身份在多个关键基准上追平甚至超越了OpenAI的旗舰GPT-5。

要知道,GPT-5可是闭源巨头最先进的成果之一,而K2 Thinking仅用几百万美元训练,却在高难度推理和编码测试上正面较量并拔得头筹。

K2 Thinking在综合编程挑战「SWE-Bench Verified」上取得了71.3%的通过率,略高于GPT-5的成绩,甚至在复杂网页搜索推理任务BrowseComp上,以60.2%对54.9%的得分大幅领先GPT-5。

这些数字宣示了一个历史拐点:开源模型与顶级闭源模型之间性能鸿沟的实质性塌陷。

K2 Thinking的问世标志着开源免费模型在高端推理和编码能力上与封闭系统平起平坐,这一点在过去几乎难以想象。

而实现这一壮举,月之暗面投入的算力成本据传约为460万美元,比起OpenAI宏图中的万亿投入,几乎可忽略不计。

一边是几百万美元造就的开放奇迹,另一边是幻想烧钱万亿的巨无霸帝国,鲜明对比令人不禁怀疑:AI行业过去坚持的大投入逻辑,难道真的站不住脚了?

技术路径的胜利
巧用架构胜过砸钱堆料

K2 Thinking并非魔法横空出世,而是技术路线差异带来的成本逆袭。

传统的GPT-5这类闭源模型采用的是「通用大脑」式架构,每个参数对每个输入都会发动运算,因而模型越大推理开销越惊人。

K2 Thinking则采用混合专家架构,将庞大模型划分为384个专长各异的专家模块。

每次仅有8个专家(外加1个通用专家)被激活参与计算,相当于只动用320亿参数来解决特定问题。

换言之,K2-Thinking拥有一个「万智百宝箱」,每个token只调用其中不到3.5%的智力,却能享受近似万亿参数的知识储备。

这一架构设计让K2 Thinking在推理时既聪明又节省:「大而不笨重」。

架构优化带来的成本效率提升达百倍之多,令人叹为观止。

更关键的是,月之暗面研发了名为「MuonClip」的自定义优化器,在训练过程中自动稳压梯度,成功杜绝了超大模型常见的梯度爆炸和损失发散问题。

Kimi-K2在长达15.5万亿token的训练中实现了「零训练崩溃」,无需人为中途干预重启,这意味着即使资金设备相对有限的团队也能可靠地训练超大模型。

DeepSeek也在工程上强调「强化学习后训练」等高效策略,使得小团队得以攀登AI高峰。

这些技术路径上的创新,等于是用聪明才智破解了过去只有砸钱才能解决的难题。

曾经只有巨头烧钱才能铺就的康庄大道,如今民间高手另辟蹊径,用技术巧思抄了近路。

开源风暴的经济学冲击

当技术壁垒被攻克,开源路线在经济层面的优势便愈发凸显。

K2 Thinking的模型权重可在相应许可证条款下自由下载部署

这与OpenAI等闭源模式形成鲜明对比,它们的模型被封藏于云端,只能通过昂贵API租用它们的大脑。

以K2 Thinking为例,其官方提供的API价格是每百万输入token收费4元(命中缓存时更低至1元)、输出token16元。

相比之下,OpenAI的GPT-5 API价格约为每百万输入token收1.25美元(约9元),输出token高达10美元(约71元)。

换算下来,同样百万token的处理,K2 Thinking的费用仅为GPT-5的十分之一不到。

对开发者和企业而言,这无疑极具诱惑力,更何况K2完全可以本地部署,不愿付API费的话,大可以自建服务。

正因如此,我们已看到市场正在迅速响应:越来越多AI工具和平台开始集成K2 Thinking模型,许多开发者在社区分享如何用K2 Thinking微调自定义应用。

DeepSeek-R1发布后,其MIT开源权重更是被无数开源社区下载、魔改,用于各种插件和研究项目。

甚至政府机构和大型企业也开始重新考虑,与其斥资购买封闭模型的算力配额,不如采用开源模型作为基础,掌控自主可控的AI能力——尤其当这些开源模型已经足够好且成本低廉。

这种用脚投票的风向转变,不仅出现在技术圈,更在资本圈引发连锁反应:OpenAI此前天价的数据中心投资承诺,正面对质疑和压力。

OpenAI高管甚至在公共场合暗示需要政府贷款支持,事后又忙不迭出来「灭火」澄清不寻求政府背书,以平息外界对其烧钱计划的担忧。

当巨头为融资「续命」四处游说时,开源对手们正用实际成绩证明,也许根本不需要那么多钱,也能把事情办成。

行业叙事的改写与泡沫的冷却

DeepSeek和Kimi K2 Thinking带来的并非单纯的「追赶」,而更像是一场对旧路线的证伪。

过去,封闭巨头们的护城河建立在一种假设之上:只有不断投入数量级增长的资金和算力,才能保持模型性能的领先。

这一假设曾让OpenAI们在资本市场上如日中天,甚至形成了某种估值泡沫,AI公司和底层芯片厂商的价值被无限推高,因为所有人相信烧钱会带来奇迹。

然而当开源挑战者以区区百万量级美元达到同类水准,这个故事的结局便不再那么线性。

事实证明,「性能领先的最后20%」或许并非大多数用户真正需要的,尤其如果为此要付出十倍乃至百倍的价格。

从普通消费者到中小企业,更青睐的是「够用+便宜」的实惠。

OpenAI等公司无疑依然握有行业顶尖的研究人才和技术积累,但他们再难宣称自己的路线是「唯一正确且必不可少」的。

行业叙事正在转向:与其痴迷于砸钱堆出更大模型,不如在架构创新和工程稳定性上下功夫,以换取成本效率和开放生态。

投资者也日趋清醒,过去见谁谈AI就砸钱的狂热减退了许多,现在更关注实际效能和商业可行性。

最危险的对手,不是那个跟你拼烧钱的人,而是那个证明根本不需要烧那么多钱的人。

参考资料:
Kimi K2 Thinking 模型发布并开源,全面提升 Agent 和推理能力
DeepSeek-R1 发布,性能对标 OpenAI o1 正式版

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652643548&amp;idx=1&amp;sn=bb58dc8eca4dee15e74e1324525c6304&amp;chksm=f01ebf4891879ab3e1b18da702dcd47be318d5bde470e8912af2f59ca879964d79c55e85a3b1&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/scwOIbA0rH&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们