动态列表

  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控
  • 陶哲轩联手GPT-5,1小时攻克数学难题!全程无需编码,OpenAI副总惊呼
  • 1亿签约金抢AI大神?谷歌AI元老劝退全网:别再读博了!
  • 三天逆袭,Sora登顶美榜!15秒大片玩疯奥特曼,全网直呼真假难辨
  • 10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!
  • 首位AI女演员出道!好莱坞「天敌」来了,下一代偶像全是代码制造?
  • 南理工提出FMC-DETR:巧用“频率解耦”,航拍小目标检测精度飙升8.2% AP50
  • 网红挑战特斯拉FSD穿越美国出车祸;小米回应「小米汽车突然自己开走」;Sora 登顶美区苹果商城免费榜
  • 刚刚,Anthropic紧急换帅!新任CTO执掌算力命脉,直面OpenAI千亿赌局
  • Gemini 3.0 Pro内测流出,编程实力惊人!下周上线
  • 刚刚,奥特曼首曝:AI取代CEO后,我想去当农民!
  • 华人主导谷歌SLED,论文登顶会!一键让模型学会自救
  • LeCun考虑辞职!Meta AI百亿豪赌引爆「内战」,逼走首席科学家
  • NeurIPS 2025 | RAD:基于大规模3DGS孪生数字世界的端到端强化学习训练策略
  • 小米 17 系列销量超百万;苹果新产品泄密源头疑为越南工厂;低价版 model Y 现身官网代码|极客早知道
  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道

奥特曼:感受不到GPT-5变强,是因为你还不够「专业」



  新智元报道  

编辑:艾伦
【新智元导读】直播事故、网友吐槽、专家唱衰……GPT-5登场第一天就遭遇口碑滑铁卢。有人说这是AI泡沫破裂的前兆,也有人预言「第二个AI寒冬」或将来临。但奥特曼在近日接受Wired采访时不认输,认为这是一次被误解的跃迁。真相究竟如何?

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

GPT-5的发布不算体面。

发布会直播中,演示图表数据绘制错误导致严重误导,被观众抓包;

网友直接在发布会视频下面锐评并被点赞到第一位:「看吧,这肯定是用GPT-5做的PPT。」

Reddit上用户吐槽,「更不灵光」「没了GPT-4o的温柔」;

AI专家Gary Marcus更是在多个平台「庆功」,直言这款史上最被吹捧的AI模型没达标,AGI和「博士级认知」连边都没碰到。

质疑声席卷而来,一些人甚至喊出「AI第二次寒冬要来了」。

但OpenAI显然不这么认为。

奥特曼事后接受采访时坦言:「确实,发布当天的氛围不太妙。」

不过他说,这不是模型能力的问题,而是节奏错了,期待错位了。

换句话说,GPT-5不是不行,而是大家看它的角度出了偏差。

为什么这代GPT升级
普通人感觉不到

要理解这点,得先搞清楚一个问题:GPT-5到底进化了什么?

OpenAI的解释是——这一代的提升主要集中在科研、数学、代码等高阶领域。

奥特曼举了个例子:有物理学家说GPT-5帮他解开了研究瓶颈;生物学家惊叹它在某个难题上「想得出奇」。

可问题是,这些例子没人实名,也不是每个人都用得上。

正如奥特曼自己也承认:「大多数人不是物理研究员。」

于是,「进步」变得不明显,甚至成了「退步」。

再看几个更具体的细节:

这些变化,普通用户几乎感受不到。也正因此,它被误会成了「换皮产品」。

GPT的技术范式
已经偷偷改道了

过去几年,OpenAI的策略是「投喂更多数据 + 更大模型 + 更强算力」,一条路走到底。

但到了GPT-5,事情变了。

这一代模型的能力,不是靠数据量或算力暴力增长堆出来的。

核心升级源自:基于人类反馈的强化学习(RLHF)。

简单说,就是找来一批专家,对模型输出进行评估、打分、反馈,再反复训练它「像专家一样思考」。

更有意思的是:现在的模型已经可以「喂自己吃东西」了。

Greg Brockman称,当模型不够聪明时,只能靠大模型训练;但一旦它有足够的判断力,就可以从自己的输出中筛选优质内容,再回过头来教自己。

这个逻辑叫「自采样」(sampling from itself),是AI走向自我优化的关键节点。

这场技术转向带来了很大的变化:

  • 它更擅长处理复杂推理链条;

  • 对幻觉和错误率的控制更严格;

  • 在专业场景的适应性更强。

GPT变得更像一个满嘴术语的专家了,但或许也和普通人之间交流的隔阂变深了。

OpenAI没放弃规模化
只是暂时「火力不足」

面对「规模化路线失败」的批评,OpenAI并不认同。

虽然GPT-5并不是靠「多10倍显卡」训练出来的,但他们并没有停止投资基础设施。

相反,奥特曼明确表示:我们依然相信规模,但现在的难度是物理级的。

以他们正在德州阿比林(Abilene, Texas)建设的数据中心为例,预算高达数百亿美元。

Greg Brockman形容,这种规模的基建,「就像做一台2倍大的火箭——难度是10倍以上」。

原因显而易见:下一代模型的突破,不仅需要更聪明的训练策略,还要更大算力支撑,而现在的全球芯片与电力资源远远跟不上。

也就是说,强化学习是「当下最优解」,但真正把AI推向AGI级别,还是得靠规模发力。

AGI不再是一个终点
而是一种「持续影响力」

奥特曼过去几年的演讲里,AGI一直被描述为终极目标:「当AI能完成大多数人类有价值的工作,我们就完成了使命。」

但最近,他换了说法。

现在的OpenAI认为:AGI不是终点站,而是一段旅程。

或者说,它是一个「指数式增长的过程」,而非某个模型突然变得「全能」。

这种转向有两个好处:

  • 再也不需要设定一个「AGI发布日期」来背负压力;

  • 更适合以「科学进展速度」为衡量标准,而不是单次能力跃迁。

奥特曼的新定义里,AGI的核心是能参与推动基础科研进步,比如物理理论、化学实验、药物筛选。

正因如此,你会看到OpenAI内部正在「品牌化」这个模糊概念:

  • 员工笔电上贴着「FEEL THE AGI」;

  • 总部一楼有卖同款T恤;

  • 办公区墙上贴满「AI青春期」的解释图——指的是AI从「只会模仿」走向「有点意识」的尴尬阶段。

OpenAI眼中的GPT-5,就是AGI的青春期。

你或许应该更关注的是
今天它能帮你做多少事

GPT-5的争议,其实是一场「叙事落差」:

公众盼望的是「AI通关」,而OpenAI现在给的是「能力曲线」。

模型升级的路线,已经从「炫技」转向「内功」。

奥特曼说,GPT-6会更好,GPT-7会更惊人。

但真正值得期待的,是你手里的模型,能不能今天就帮你少错一步、多做一点。

参考资料:
https://www.wired.com/story/sam-altman-says-the-gpt-5-haters-got-it-all-wrong/

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652632304&amp;idx=2&amp;sn=497e7e671d948aeed922e7d3daab82bf&amp;chksm=f025acee86dec820f1adec5ba25f0e714d8309bd00deecbe23e9d6a451851707db903b0b2f1f&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/isQfncB1oL&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们