动态列表

  • 抱歉了GPT-5,这次是中国AI「上岸」了
  • Meta开始用KPI考核,强迫所有员工尽可能多使用AI
  • 接招吧,GPT-5.1!
  • 「前三代定律」下,百年吸尘器如何做出新意?
  • 两个月破 300 万用户,Agnes AI 刷新 Instagram 与 Snapchat 增长纪录
  • 每天给白领发 1000 万,他成了硅谷最年轻亿万富翁
  • 2025,中国科技圈进入全面「大乱斗」时代
  • 当 AI 开始分「左右」
  • 阿里云,用全栈 AI 刷新第十七个双十一
  • AAAI 2026 山大提出DiveSeg:为DINO注入“水下感知力”,实例分割性能提升显著
  • AAAI 2026 Oral MiniShift+Simple3D:面向高分辨率3D异常检测的可扩展数据集与实时检测新范式
  • 让千问APP当一周科研打工人:它比我想的能干,也比我想的累
  • 双重隐式记忆来了!JanusVLN让视觉语言导航真正理解3D空间
  • 雷军连发多条微博回应质疑;iPhone 发布方式将在明年重大变革;年度最令人不安的研究:AI 刷多社媒会变蠢|极客早知道
  • 图灵奖得主LeCun最后警告Meta!我搞了40年AI,大模型是死路
  • AI又封神了!华人新作直出憨豆+《猫和老鼠》,平行宇宙对上戏了
  • AI「逼宫」库克?苹果秘密计划曝光,接班人竟是M芯片之父!
  • 年度最强AI压轴!谷歌Gemini 3.0下周决战OpenAI,前端要下岗了
  • 安谋科技发了一枚 NPU,要把 AIGC 算力提升 10 倍
  • 无人工标注、可持续扩展:AcademicEval推动长文本评测进入“自更新”阶段
  • ICLR 2026吃瓜现场:有人用LLM连投4版论文,竟然拿到两个8分?
  • 宇树完成上市辅导,拟境内IPO;传索尼开发Labubu电影;2699元!原道X小岛秀夫耳机限量发售
  • AAAI 2026 Oral | 清华大学等提出SpatialActor:解耦空间感知,重度噪声下机器人操作鲁棒性暴涨19.4%
  • AI不懂痛苦,却成了你的深夜知己!170位医生教ChatGPT安慰人
  • 一条短信,7年恩怨!奥特曼与马斯克决裂曝出新隐情
  • 不会说英语的母亲,教出了5万亿英伟达CEO!
  • AI「牛顿」来了!北大团队新突破,看一眼数据就能推出物理定律
  • AAAI 2026 Oral | 中科院联合港大提出ARRA:外部视觉表征对齐重塑全局一致性,让自回归大模型充分释放图像生成潜能
  • 1899 元「iPhone 袜子」上架秒光;传华为 Mate80 上 20GB 内存;微信点赞苹果小程序政策
  • 全球最大开源具身大模型!中国机器人跑完马拉松后开始学思考
  • OpenAI拆开AI「黑箱」,终于可以看懂GPT在想什么了
  • LeCun在Meta的「最后一作」
  • 视觉压缩称王?谷歌死守AI黑科技,DeepSeek一夜开源
  • 大疆 OSMO Action 6 体验:完美进化,不止运动
  • iOS 为微信小程序「正名」,腾讯移动生态的新转机
  • “全模态”3D视觉基础模型OmniVGGT出炉!即插即用任意几何模态,刷新3D视觉任务SOTA,赋能VLA模型
  • WACV 2026 | PALMS+:融合深度基础模型,手机室内导航的技术再突破
  • GPT 5.1 发布了,但西方媒体准备「讲好中国故事」
  • AI、游戏双驱动,腾讯「赚麻了」
  • 对话李彦宏:Chatbot 不是一切,我在 AI 上看到了更让人兴奋的未来
  • OpenAI把Transformer训练成「几乎全零」,黑箱首次被彻底揭开
  • ACL 2025 | 用图结构让RAG学会「记忆与总结」,重塑长上下文理解
  • 杭州/北京内推 | 阿里淘天算法团队招聘多模态理解方向算法实习生
  • 传苹果从微信小程序抽成 15%,腾讯回应;特斯拉考虑支持 CarPlay;iPhone Air 成功支持实体卡 |极客早知道
  • 谷歌DeepMind最新论文,刚刚登上了Nature!揭秘IMO最强数学模型
  • ICLR 2026出分,审稿员怒喷「精神病」!DeepMind研究员教你绝地求生
  • GPT-5.1发布当天,文心5.0杀回来了
  • 一句「你还好吗」值40亿?斯坦福博士出走xAI,押注AGI共情力
  • 营收狂飙的「暗面」:Meta成「全球欺诈大本营」?
  • 小鹏科技日「太魔幻」:机器人走猫步,飞行汽车接近量产
  • AAAI 2026 Oral 中科大联合西工大提出RSKT-Seg:专为遥感打造的高效开放词汇分割框架,推理提速2倍
  • Roboflow&CMU论文披露RF-DETR细节:首个COCO数据集突破60 AP实时目标检测,速度飙升20倍!
  • 博士申请 | 佛罗里达大学计算机系招收NLP/LLM方向全奖博士/实习生
  • 深度研究智能体真的“懂你”吗?OPPO × 浙大首发个性化深度研究评测基准
  • DeepSeek罗福莉正式亮相小米AI;「周杰伦概念股」联手宇树造 IP 机器人;乘用车百公里加速不少于5秒
  • 奥特曼下注27岁神秘青年,「复活」世界最顶级实验室
  • AI秒破18世纪「天书」账本!谷歌新模型盲测刷屏全网
  • Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」
  • 少年沉迷AI自杀,9岁遭性暗示!这门「孤独生意」,正推孩子入深渊
  • NeurIPS 2025 | 中科院携手快手发布LiveStar:首个“会说话、懂沉默”的直播AI,推理速度提升1.53倍
  • ConsistEdit:重新定义AI视觉编辑,港科大、清华等机构提出MM-DiT注意力控制新方法
  • AAAI 2026 | 悉尼科技大学 × 港理工推出 FedVLR:让联邦推荐也能“懂图文”
  • 双十一算力真敢卷!RTX 5090低至0.69元/时,同预算跑更多实验
  • 北京内推 | 阿里高德地图团队招聘大模型方向算法实习生(可长期/转正)
  • 对话元理智能张帆:为什么「商业强化学习」,才是 AI To B 的新出路
  • 深度复盘:大疆是如何成为影像领域新巨头的?
  • 传李想亲抓人事,华为系高管退出理想;Meta 首席 AI 科学家杨乐昆离职创业;AI 减肥或致饮食失调
  • Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!
  • 英伟达铁幕之后,谷歌AI芯片已成气候
  • 翻译界的ChatGPT时刻!Meta发布新模型,几段示例学会冷门新语言
  • 硅谷GPU蒙尘,马斯克一言成谶:美国AI被电卡脖子
  • 65岁图灵巨头离职创业!LeCun愤然与小扎决裂,Meta巨震
  • 年产值突破 150 亿,刚毕业的俊男美女涌入「团播」工厂
  • 马斯克想要 1 万亿,何小鹏只想等一句「牛 P」
  • 北京内推 | 百度文心一言基座团队模型组招聘大模型方向研究型实习生
  • 通往AGI的歧路:上海AI Lab重磅发现,自进化智能体可能“错误进化
  • 全模态到底是不是“1+1>2”?美团UNO-Bench揭示单模态与全模态能力的组合规律
  • 3DV 2026 | 特伦托大学等提出DEMO:让AI看懂复杂人体动作,实现密集描述新范式
  • NeurIPS 2025 | 上交大、南农大提出ADPretrain:为工业异常检测量身打造的预训练“超能力”
  • 小米汽车 10 月销量近 5 万,YU7 超 Model Y;美团 AI 编程工具开启公测;马化腾王传福成智元机器人受益股东

你急它不急:GPT-5先判断,再决定「速答」还是「深想」



  新智元报道  

编辑:倾倾
【新智元导读】GPT-5不再只是更聪明的模型,而是一台学会犹豫的机器。它能判断问题的难度,分配自己的思考时间,甚至决定何时该停下。OpenAI副总裁Jerry Tworek在最新访谈中透露:GPT-5的真正突破,是让AI拥有了「时间感」。当机器学会克制,人类却愈加焦躁。也许我们教给AI的,不只是如何思考,而是如何重新做人。

十年前,人类教机器「算」;如今,机器开始学会「想」。

OpenAI副总裁Jerry Tworek在一次访谈里,随口提到一句话:

GPT-5可以自己决定要思考多久。

这句话让AI圈炸开了锅。

因为这意味着,AI不再只是被动接收指令的工具,而是开始调控自己的思维节奏

有的问题,它几秒就能答出;有的问题,它会「犹豫」、停顿、再推几步。仿佛第一次拥有了时间感

而这,可能是从生成答案的机器到真正会思考的智能体之间,最关键的一步。


从「算」到「想」
AI也该学会先想再答

当我们向GPT-5提问时,它并不总是最先给出答案。有时,它会停一停,先把内部的逻辑梳理清楚,再做选择。

这个停顿并非性能拉胯,而是其思考能力成熟的信号:AI不再是盲目输出,而是在思考要输出什么、如何输出最优解。

在Matt Turck的访谈中,Jerry Tworek提出了一个核心观点:

AI的「推理」,并不是逻辑或数学证明,而是在语言空间中学习搜索与组合模式。

他认为,AI的思考发生在语言的概率空间中。模型在生成每一个词(token)时,都会进行无数次隐形的比较与判断,这种语言层面的搜索,构成了它的推理过程。

为让这种「思考」更易于理解,研究者们在2022年提出了Chain of Thought(思维链) 技术。

简单来说,就是在提示词中要求模型「一步步思考再回答」,从而显著提升复杂推理任务的正确率。

GPT-5则在此基础上更进一步。Tworek提到,GPT-5不仅会展开推理链,还能「判断自己要思考多久」。

我们发现,模型能根据问题的难度动态决定思考时间——难题思考更久,简单题思考更短。

这意味着,GPT-5的升级不只是推理更强,而是让机器第一次拥有了时间感

它会在每一步内部问自己:「要不要再想一想?」、「这一步够了吗?」

这种控制思维深度的机制,被研究者称为Dynamic Reasoning Depth(动态推理深度)。

就像人解数学题,GPT-3可能秒回,GPT-5 却选择斟酌:它会先想清思路,再回答问题。

这不是迟缓,而是一种更高层次的克制。


AI的「犹豫」
机器如何学会自己决定思考多久?

在过去的语言模型里,AI的推理都是一口气完成的。

输入问题,模型沿着概率最高的路径一路生成,直到遇到结束符号。

这就像一个不会停下来的学生:无论题目多难,都用同样的时间、同样的思维方式作答。

而GPT-5的关键进化,是让机器学会了「犹豫」:它能判断自己是否「想得够不够」,要不要再推几步。

Jerry Tworek在与Matt Turck的访谈中提到:

我们一直在实验一种机制,让模型自己决定要思考多久。你几乎能看到它在复杂问题上分配更多步骤来推理。

这种机制的原理,与2024年一项研究提出的思路相似。

一篇论文曾提出模型可以在生成过程中「在线评估」当前答案的置信度,并据此选择继续推理或提前终止。

作者在论文中写道:

模型可以在推理阶段自适应地决定推理步数,从而同时提升效率与准确度。

换句话说,GPT-5不是在死记硬背,而是在分配思考预算:它会用更多计算资源处理逻辑链更长、变量更多的问题,在较简单的输入上则快速收敛。

这样的「时间自控力」,让AI从一个被动的应答者,变成了有节奏的思考者。

它不再一次性输出结果,而是像人一样先审题,再推理,再决定:「我是不是该再想一想?」

目前,OpenAI内部称这一思路为Controlled Deliberation(受控思考)

在实践中,这种机制不仅提升了复杂任务的正确率,也减少了幻觉的出现,因为模型有更多机会在中间步骤中自我验证。

根据2024年OpenAI的一份技术备忘录,这种动态推理模型在数学与逻辑类benchmark上的平均准确率提升了约18%。

当我们重新看向GPT-5的「犹豫」,会发现那其实是一种成熟。

它不再追求立刻回答,而是学会了——在正确之前,先想清楚。


从o1到GPT-5
OpenAI如何教出一台会思考的机器?

如果说GPT-5的犹豫是它的新能力,那么这场蜕变的起点,来自OpenAI内部的一系列试验模型。

在访谈中,Jerry Tworek首次公开提到一个很少见的版本序列:O1→O3→GPT-5。

这不是单纯的命名升级,而是一条清晰的演化线——每一代,都在回答一个问题:机器能不能更好地「想」?

Tworek解释道:

o1是我们第一次看到模型真正展现出推理能力的时候。o3让它能更稳定地使用中间步骤,而GPT-5则让整个思考过程变得可控。

这一演化路径,代表着 OpenAI在「让模型思考」这件事上从启蒙到自觉的过程:

  • o1阶段:模型开始显露出零星的推理迹象,能够在算术、逻辑题中表现出超出「模仿」层面的理解。

  • o3阶段:通过强化学习和思维链优化,模型能更系统地展开中间步骤,不再轻易跳步或遗忘关键逻辑。

  • GPT-5阶段:引入「动态推理深度控制」,让模型在推理过程中具备时间自我管理的能力。

从技术角度看,GPT-5很可能使用了一种结合Reinforcement Learning with Deliberation (RLD) 的框架,即在训练阶段为模型引入奖励信号,不仅评估「答对没」,还评估「思考得好不好」。

在这方面,一篇具有代表性的论文——Let’s Verify Step by Step提出了「过程监督(process supervision)」的概念。

论文指出:

在具有挑战性的MATH数据集上,用过程监督训练模型,显著优于只监督最终结果的方法。

OpenAI此后也在官方博客中多次提到,他们正在探索利用「中间步骤奖励」来改进推理模型的训练,以减少幻觉并增强模型在数学和逻辑任务上的可靠性。

从o1的「会想」,到o3的「想得稳」,再到GPT-5的「懂得停」, OpenAI完成了一次看似微小却决定性的飞跃:

智能,不只是计算力,更是对思考过程的调控力。


机器的耐心,人类的焦虑

GPT-5的进化,让机器第一次学会了慢下来。

它不再以最快速度给出答案,而是懂得分配推理时间、验证中间步骤、再谨慎地输出结果。

这种「克制」,在技术语境中被称作Controlled Deliberation(受控思考)

换句话说,AI越能「克制」,越能「正确」。这是一种与人类思维截然相反的进化路径。

在我们的时代,一切都在追求快:即时通讯、即时反馈、即时决策。

人类的思维越来越依赖短线反应,而机器却在被训练得越来越耐心。

OpenAI的研究人员在博客中写道:

思考步数越多的模型往往更准确,但我们也必须教它们——何时该停下。

这句话更像是在对人类说的。我们同样被效率困住,却忘了「停下」也是一种智慧。

当AI开始拥有思考时间的自我管理能力,它反而比我们更像人。

它懂得在复杂中沉默,在不确定中思索,而我们则在碎片化中一次次打断自己的思考。

有人将这种变化称为「耐心的反转」:

机器在学会慢,而人类却越来越快。

也许有一天,我们不再问「AI什么时候比人聪明」,而是会开始反思——我们是不是还配得上「思考」这个词。

从o1的稚嫩,到o3的沉稳,再到GPT-5的自控,OpenAI用十年时间,让一台机器学会了「慢」。

它不再只是追求速度的算子,而是一个有节奏的思考者。

它能判断问题的复杂度,分配自己的「思考预算」,甚至懂得在恰当的时刻停下。

而这一切的背后,是人类第一次教出了一种懂得克制的智能。

也许,这才是真正的「推理」起点。

当机器在追求「想得更清楚」,而我们忙着「做得更快」,

那一刻,AI 不再只是镜像我们的理性,它反而照出了我们早已遗忘的耐心。

人类让机器思考,最后被提醒的,可能正是——如何去想。

参考资料:
https://x.com/mattturck/status/1978838545008927034

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652645726&amp;idx=3&amp;sn=60d68aced4c71b270382a12580893b1f&amp;chksm=f05a1f6d63c8af6f8539f13eaa2357b0bda75f809e31c2abcfee8739f14d9b280e243048d1e9&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/vC1cTQoQJq&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们