动态列表

  • 77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明
  • 全球首款1.8nm芯片亮相!华人CEO打响关键一战,英特尔杀回来了
  • 清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!
  • 刚刚,Meta风雨飘摇中发了篇重量级论文,作者几乎全是华人
  • Attention is NOT All You Need:让“深度”重新流入时间,而非堆叠在参数之上
  • NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!
  • OpenAI 卖货做视频,Anthropic 专心写代码,谁能赢?
  • 一颗 1.8 纳米芯片,成了英特尔「最后的救赎」
  • 这款 AI 调研神器,让我一键产生 1000 个「种子用户」|AI 上新
  • 都用 GPT,为什么你没法中「百万大奖」?
  • ChatGPT 变身 App Store,「对话即应用」时代到了
  • IROS 2025 Oral | RAG-6Dpose:三大创新模块,利用 CAD 作为知识库进行检索增强 6D 姿态估计
  • IROS 2025 | 速度飙升24倍!巴黎萨克雷大学等提出HARP-NeXt:实时3D激光雷达分割新标杆
  • 「丐中丐」版特斯拉来了,Model 3/Y降价超3.5万元
  • 高德扫街榜的 23 天奇袭
  • 张一鸣近年来首次公开亮相;微软上海开始新一轮裁员,补偿N+4;罗永浩锐评 iPhone 17
  • GPT-5王者归来?奥特曼称AI已跨科学门槛,三大学科正迎来实质性突破
  • 老黄押宝「美版DeepSeek」!谷歌天才叛将创业,一夜吸金20亿美元
  • 任意Agent皆可强化学习!微软推出Agent Lightning框架,无需修改任何代码
  • 13万被引!ImageNet作者苏昊或将加盟复旦
  • 250份文档投毒,一举攻陷万亿LLM!Anthropic新作紧急预警
  • 和两位 CEO 聊 Sora: 应用层爆发的里程碑事件,创业者的机会来了
  • 新一代短剧人,涌向郑州「淘金」
  • 社交媒体的黄金时代,结束了
  • U-Bench:U-Net十年“大乱斗”终结者,100个变体、28个数据集的终极对决
  • 东京大学、牛津大学等联合发布VLA万字综述:机器人迈向通用智能的全栈指南
  • DeepSeek苦练1T,清华只用5B?InfLLM-V2把稀疏注意力玩明白了
  • EMNLP 2025 | 拨云见日:知识电路分析揭示大语言模型“知识遮蔽”幻觉之源
  • 北京/上海内推 | 阶跃星辰招聘RL for AIGC方向算法研究员/实习生
  • Sora 下载量破 100 万次;国庆中秋假期国内游总花费超过 8000 亿元;智驾多位核心高管离职,蔚来回应|极客早知道
  • 谷歌杀入诺奖神殿,两年三冠五得主!世界TOP3重现贝尔实验室神话
  • OpenAI×英伟达,可能创造了人类史上最大万亿级泡沫
  • H-1B正在筛掉「下一个英伟达」?
  • 全球AI视频大战升级!「中国版Sora」Vidu Q2参考生月底发布,能力对标Sora 2
  • 第二代InfLLM开源,同尺寸快三倍!零参数,可训练稀疏注意力
  • 稳住训练、跑出泛化:STAGE重写「自回归图像生成」的强化学习范式
  • 腾讯推出TRM:让大模型像人类一样批判性思考,从文本依赖到事实正确
  • 马毅团队重磅发布新书:从MCR²到白盒Transformer,重构深度学习的第一性原理
  • 北大等提出TrackVLA++:赋予机器人推理与记忆,跟踪成功率飙升12%
  • Diffusion²来袭:威斯康星大学&华盛顿大学等提出双扩散模型,“回溯历史-预测未来”,破解自动驾驶“鬼探头”难题
  • 把我的第一次日本旅行,完全交给 AI 是什么体验?
  • 英伟达将投资马斯克的 xAI;低价版Model 3/Y 「阉割」智驾功能;微信推出批量撤回信息功能
  • 刚刚,清华物理传奇Yao Shunyu,跳槽谷歌DeepMind!
  • 赚100亿,烧1万亿!OpenAI算力神话:英伟达撒钱、AMD送股、全硅谷陪跑
  • 英伟达垄断AI算力局面或将被颠覆!AMD赌上身家发起决斗,奥特曼窃喜
  • 刚刚,2025年诺贝尔化学奖揭晓!偷溜进图书馆的少年,改变了世界
  • 小心,AI依赖会让你变笨!吴恩达等专家教你如何正确使用AI
  • 无RLHF,7M小模型反超DeepSeek-R1:三星团队用递归思考取代规模堆叠
  • 告别深度传感器!慕尼黑工业大学提出DropD-SLAM:仅用单目RGB即可实现RGB-D级的SLAM精度
  • IROS 2025 | Waymo与谷歌DeepMind联手提出Drive&Gen:用生成视频评估自动驾驶,虚拟测试更逼真
  • 陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂
  • 刚刚,奥特曼官宣ChatGPT「终极OS入口」!8分钟速搭智能体,8亿人狂欢
  • 顿悟不是玄学!港科大清华等联手:撕开推理黑箱,RL让AI像人思考
  • 4万亿帝国接班人浮出水面!苹果不需要另一个库克
  • 刚刚,2025年诺贝尔物理学奖揭晓!量子计算成最大赢家
  • 告别梯度!Evolution Strategies全参微调挑战PPO/GRPO:更稳、更省、更好复现
  • NeurIPS 2025 | 北邮用“图+文”把人物检索拉满:自动合成数据 × 细粒度特征对齐
  • MICCAI 2025 | 莱斯大学提出MetaSeg:参数减少90%,元学习隐式网络重塑医学图像分割
  • TPAMI 2025 | 电子科大等提出EEMFlow:从事件相机学习高效Meshflow与光流,速度提升30倍
  • OpenAI 与 AMD 签百亿美元协议,后者股价暴涨;特斯拉廉价 Model Y 将于 7 日发布;知名旅行、听歌应用入住 ChatGPT
  • 乔纳森下一个iPhone神话,要黄了?OpenAI秘密AI硬件深陷三重困境
  • 3年手搓ChatGPT!剑桥天才少年在Minecraft游戏中爆火回归
  • 一举击败Claude Code!微软提出代码生成黑科技:一键直出36K行代码
  • 刚刚,2025年诺贝尔生理学或医学奖揭晓!三位得主点燃器官移植希望
  • OpenAI入股AMD,股价暴涨35%!奥特曼左手黄仁勋,右手苏姿丰,通吃全球算力
  • 自进化Agent的第三种可能:隐式记忆,不动模型参数,胜过GRPO
  • 真实数据、全链路、可复核:GenoMAS打造更可信的基因分析智能体
  • NeurIPS 2025 | 高通提出GCL:无需额外数据,通用多模态检索迎来“一统江湖”新范式
  • NeurIPS 2025 | 慕尼黑工业大学提出SIM(3)等变网络:让3D形状补全告别“姿态偏见”,实现跨域泛化
  • 今日迎本世纪「最晚中秋月圆」;雷军:小米17 五天销量破百万;ChatGPT 或添私信聊天功能
  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • 奥特曼:感受不到GPT-5变强,是因为你还不够「专业」
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • 宾大提出F³:事件相机迎来“预测性”表征新范式,光流、分割、深度全SOTA!
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控

陶哲轩亲测!GPT-5 Pro 40分钟破解3年难题,登顶最难数学考试



  新智元报道  

编辑:倾
【新智元导读】当数学家陶哲轩把一道几何难题交给GPT-5 Pro,几分钟后,屏幕亮起——推理完美、逻辑无瑕,却依然没有答案。就在同一周,它又在全球最难的数学测试上夺冠。 分数耀眼得几乎刺眼,却掩不住那一瞬的空白:它真的理解了什么吗?

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

十年前,数学家陶哲轩还在黑板前,与学生们手推每一道几何公式。

十年后,他把同样的问题丢给一台机器——GPT-5 Pro。

他想知道:AI只是更快的计算者,还是正在接近真正的理解?

几分钟后,屏幕亮起:Minkowski公式、Willmore不等式、体积积分……它把整个推理写成了完美的论文草稿。

陶哲轩看着那串结果,既震撼,又有点心凉:问题依然无解,只是被粉饰得更漂亮了。

就在那一周,另一场数字化的「数学登山」也在进行。

GPT-5 Pro在全球最难的测试集FrontierMath上拿下13%的最高分。

分数耀眼,直觉却失灵。它像一个擅长计算的神童,但在真正的研究面前,依然停下了笔。

于是问题不再是「AI能不能解题」,而是:它到底理解了多少世界?

陶哲轩的实测
AI在科研中的「三层表现」

十年前,陶哲轩还在黑板前与学生推演几何。

这位被誉为「天才中的天才」的数学家,21岁就成了最年轻的菲尔兹奖得主。

十年后,他决定亲自验证这台「拿下13%纪录」的AI究竟能做什么。

他没有选择标准题库,而是把它带进真正的科研现场——那里没有标准答案,只有开放问题。

「我想看看AI能否在我不擅长的领域提出新思路。」于是,他在MathOverflow上贴出了这道问题:

若一个光滑嵌入在R³中的球面,其主曲率都不超过1,它所包围的体积是否至少和单位球一样大?——这并非我擅长的领域(微分几何),但我想看看AI能否给出新思路。

这是一个微分几何难题。二维情况早有定理(Pestov–Ionin theorem)支撑,但三维版本至今悬而未解。

这道难题三年前曾被提出,至今无人能解。

陶哲轩不是在考AI,而是把它推向了没有标准答案的科研地带。

在与ChatGPT持续互动约40分钟,他总结道:AI辅助在微观、宏观层面有帮助,但在中观层面有限。

一起看看,陶哲轩如何用AI再一次完成了解题。

AI是计算型助手

他先让GPT-5 Pro处理最容易的「星形(star-shaped)」情形。

几分钟内,AI便生成了推理链条,自动调用三条经典结论:

  • Minkowski积分公式: |Σ| = ∫Σ H s dA;

  • Willmore不等式: ∫Σ H² dA ≥ 4π;

  • 体积公式: vol(V) = ⅓ ∫Σ s dA。

然后把它们一气整合成一句话:

 若 |κ₁|, |κ₂| ≤ 1,则 vol(V) ≥ (4π/3),即单位球体积。

AI不仅计算正确,还主动引用他未提及的Minkowski第一积分公式,甚至补上了两种证明路线。

陶哲轩在后续贴文写道:

它能在我给出的线索下完成所有推导,这部分几乎无可挑剔。

这一阶段,AI像一台完美的「数学引擎」——能推、能证、能举例,但它只在局部任务上发光。

从助手到镜面

他又进一步试探它:如果把曲面变形、稍微远离完美的球形,它还能保持推理稳定吗?

AI很快给出答案——准确、漂亮,却方向错了。

陶哲轩在日志里写下:

它开始顺从,而不再质疑。

这正是科研型AI的「镜像陷阱」:当方向错了,它会粉饰错误,甚至让错误更「漂亮」。

虽然没解出问题,这次实验仍让陶哲轩获得了新的洞察。

他意识到真正的障碍并非「近似圆球」,而是那些极细长、非凸、如同袜状的曲面结构——它们能无限拉长几何尺度,却几乎不增加体积。

陶哲轩后来总结:

AI确实让我更快地理解了问题——不是因为它解出来,而是因为我看清了它为什么解不出来。

这句话,也成为他此后所有AI实验的起点。

当GPT-5登上数学「珠峰」
只有13%成功率的登顶

与此同时,在陶哲轩把AI带进科研现场的那几天,另一场「数字版登山赛」也在进行。

10月初,研究机构Epoch AI发了一条不到30个词的推文——这次不是关于某个实验,而是一场「数学珠峰」的登顶公告。

这条信息背后,是全球最难的数学测试之一——FrontierMath Tier 4

Epoch AI在官网形容它是「研究级问题集」,题目难度可让专家花上数周甚至数月才有进展。

也就是说,这是考验「能不能思考」,而非「会不会算」。

从Gemini 2.5到GPT-5 Pro:三个月的登顶赛

7月,Epoch AI首次公开推出FrontierMath Tier 4,称之为「AI 数学能力的珠穆朗玛峰」——一套专为测试模型极限推理力而设计的研究级题库。

那时,还没有任何模型能在其中站稳脚。

8月,谷歌的Gemini 2.5 Pro率先登场:

我们刚刚完成了Gemini 2.5 Pro在FrontierMath上的初步评估。此次使用旧版推理脚手架(scaffold),结果尚不最终。

到了9月,他们更新评分机制,引入「重试机制」——让AI能在推理失败后自我修正。

一切都像是在为10月的决战做准备。

就在陶哲轩还在和GPT-5 Pro「研究未解题」的前一天,谷歌Gemini 2.5 Deep Think刚刚创下纪录。

Epoch AI写道:

我们在FrontierMath上评估了Gemini 2.5 Deep Think。由于没有API,我们手动运行它。结果:新纪录!

10月11日,Epoch AI发出那条掀起惊涛骇浪的推文——

FrontierMath Tier 4:终极对决!GPT-5 Pro创下新纪录(13%),比Gemini 2.5 Deep Think多答对一道题(但差距在统计上不显著)。

左侧是Grok 4 Heavy(约5%),中间是Gemini 2.5(约12%),最右的GPT-5 Pro微微高出,停在13%的位置。

比Gemini 2.5 Deep Think多答对一道题(但差距在统计上不显著)。

这意味着,GPT-5 Pro虽然暂时「站在了山顶」,但它离真正的理解仍有整座山的距离。

这场拉锯更像是一场平局,只是GPT-5比Gemini 2.5早登顶几秒钟。

高分背后:算法的胜利,还是幻觉?

这场登顶赛其实揭示了另一个事实:AI的分数可以突破,但理解力依旧受限。

而这个问题,在陶哲轩的实测中被进一步放大。

胜出的一题,多半来自结构明确、符号化强的题型:代数、线性系统、基础分析。

而在几何构造、偏微分方程、非凸空间等题上,它几乎毫无建树。

Epoch AI自己也知道,这更像一次「算法微胜」,而非「数学突破」。

这次高分,靠的是更高算力、更长推理链、更聪明的提示词。

于是问题变成:当分数升高,理解力也跟着升高了吗?

也许在算法的世界里,它赢了;在理解的世界里,它还没出发。

当「聪明」有了尺度
AI在科研中的边界

几个月后,他继续在做另一场实验——这次,不是考AI能不能解题,而是考他自己:当一切都能自动化,人类还在思考什么?

我发现,聪明也有尺度。

他写下这句话时,想起那次无解的几何题。AI在每个步骤上都完美,却在方向上失焦。

他终于明白——真正需要被训练的,也许是我们自己。

他举例说,一种叫<canonical>的依赖类型匹配工具可以让他瞬间验证一行证明,但当连续几十行都交由它完成时,他反而更难看清逻辑全貌。

进一步放大尺度,问题变得更明显。

当AI协助完成整篇论文、或自动化地编纂一整本教材时,表面上的「效率提升」,常常意味着结构理解的退化。

数学的本质在于结构与关联——而结构的理解,恰恰需要「缓慢的人类思考」。

陶哲轩在后续贴文中写道:

最优的自动化程度既不是0%,也不是100%。


真正高效的状态,是在每个层面都留下人的空隙。如果让AI解决所有简单任务,我们将失去面对困难时的方向感。

这段话与他此前在GPT-5 Pro数学实验中的体会形成了照应。

在小尺度上,AI能精准完成每一个步骤;在中尺度上,它倾向迎合而非反驳;而在大尺度上,它反而成为一种「反射镜」——让人更快看清自己思维的边界。

真正的突破,或许不在于让机器更像人,而在让人类学会:以不同的尺度,重新理解「聪明」这件事。

人类的空隙
当AI停在「还不懂」的地方

陶哲轩的这场实验,其实为GPT-5的「13%高分」找到了解释。

分数说明它强大,但实验揭示了它强大的方式——不是洞察,而是枚举;不是理解,而是复现。

在FrontierMath的基准中,GPT-5能正确地完成符号化的推理题,却在需要构造直觉的题目上失效。

而在陶哲轩的试验里,它能像熟练的研究生那样把定义、公式和不等式都串联起来,却依然无法判断方向对不对。

这两个场景,像是科研的两端:一个是统计意义上的聪明,一个是语义意义上的理解。

GPT-5在前者领先,在后者止步。

陶哲轩在事后说,AI的表现让他想到早年的科研训练。

年轻时的他,也曾花大量时间在局部细节中打转——证明一行、修正一式、推理一页,直到最后发现:真正的问题,在逻辑之外。

AI让他重新体会了这种「思维的局部化」,也让他意识到:人类的优势,正是在那些AI还不懂的地方。

今天的GPT-5已能自洽地完成复杂的形式推理,但它仍缺乏「全局意识」——那种在面对模糊、不确定、甚至错误假设时的直觉。

陶哲轩称之为「human situational awareness(情境感知)」:

AI的聪明是线性的,人类的理解是拓扑的。

这句话后来被不少数学家转发。因为它揭示了一种新的分工边界:AI可以成为证明的发动机,而人类依然是结构的设计师。

它能把定理算完,却算不出「意义」。或许这正是GPT-5真正的突破:

它逼着我们重新思考,AI的极限,正是人类的起点。

数学的意义,从来不只是得出答案,而是弄清楚——为什么答案还不存在。

参考资料:
https://x.com/EpochAIResearch/status/1976685685349441826?s=19
https://mathstodon.xyz/@tao/115351400633010670
https://mathoverflow.net/questions/425509/sphere-with-bounded-curvature%E3%80%82
https://mathstodon.xyz/deck/@tao/114501120421010793

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652633591&amp;idx=1&amp;sn=ca46f976dc6231fbda10b507deec8732&amp;chksm=f00ddb3a13c2060bfea3e98f9c75070c192c99add85c4de367cf77662d2caf6f647348d3f158&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/G0DXvOcBPH&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们