动态列表

  • 刚刚!谷歌内部揭秘Genie 3:Sora后最强AI爆款,开启世界模型新时代
  • 硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码
  • 黄仁勋子女逆袭上位!4万亿「皇储」成长史首曝:一个学烘培,一个开酒吧
  • GPT-5首次会推理,OpenAI联创曝AGI秘诀!超临界学习吞噬算力,2045金钱无用?
  • 400万人围观的分层推理模型,「分层架构」竟不起作用?性能提升另有隐情?
  • CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力
  • SEAgent:开启从实战经验中自我进化的GUI智能体新纪元
  • OpenAI估值达5000亿美元;「原道」联手小岛秀夫,推《死亡搁浅》耳机;苹果手表将「大幅重新设计」
  • 奥特曼神秘晚宴讲话曝出!OpenAI的CEO或将是个AI,Chrome我也想买
  • 谷歌最新「0.27B」Gemma 3开源!身板小却猛如虎,开发者直呼救命稻草
  • 最惨就业季!CS学霸GPA 3.98,投2500份简历仅10次面试,AI吞噬入门级岗位
  • Yann LeCun最新纪录片首曝!传奇AI教父的双面人生,深度学习幕后40年
  • 大模型如何推理?斯坦福CS25重要一课,DeepMind首席科学家主讲
  • 简单即强大:全新生成模型「离散分布网络DDN」是如何做到原理简单,性质独特?
  • Sam Altman:AI存在泡沫;宇树机器人夺金,王兴兴:用遥控追求极致速度;蔡浩宇AI游戏上架,27.19元|极客早知道
  • 吞下17亿图片,Meta最强巨兽DINOv3开源!重新定义CV天花板
  • 打开高德的理由又多一条!全球首个「需求链智能调度」AI地图上线
  • 核心模型被曝蒸馏DeepSeek?前女友一纸控诉,曝出欧版OpenAI塌房真相!
  • 一句话搞定多任务出行,高德用空间智能重新定义地图
  • GPT-5、Grok 4、o3 Pro都零分,史上最难AI评测基准换它了
  • 谷歌开源Gemma 3 270M,性能超越Qwen 2.5同级模型
  • 追剧不断网,可能背后有个AI在加班,故障诊断准度破91.79%
  • Meta视觉基座DINOv3王者归来:自监督首次全面超越弱监督,商用开源
  • 多突触神经元模型问世,国内团队打造类脑计算新引擎,登上《自然·通讯》
  • Science封面:高效精准模拟构象变化,微软研究院用生成式AI重塑蛋白质功能研究
  • 扎克伯格看OpenAI直播挖人,北大校友孙之清加入Meta
  • AI 模特时代到来:字节x清华推出商用级视频换装模型DreamVVT,保真度显著领先SOTA
  • LeetCode刷够100小时,学会找人内推,OpenAI员工下场教你拿Offer
  • xAI元老离职干风投,传奇人物Babuschkin长文追忆与马斯克创业战友情
  • 链式思维是幻象吗?从数据分布视角重新审视大模型推理,马斯克回复,Grok破防
  • 李想:i8 反响不错,产品力没对手;库克暗示:苹果将推桌面机器人;中国日均消耗 30 万亿 Token,暴涨 300 倍
  • ChatGPT会让大脑退化?OpenAI高管用它救下自己「读写障碍」的女儿
  • 谷歌超级编码智能体正式上岗!125刀大会员,每天300任务任意跑
  • Meta华人天才毕树超「叛逃」预言:OpenAI未竟交互革命,暗藏万亿赛道
  • 美国CS就业梦碎!狂投5000家0 Offer,名校毕业00后被麦当劳惨拒
  • 3 分钟,我学会了像鸟儿一样飞行 | New Things
  • 从隐私计算迈向六大数据流通全栈技术,“隐语”开源社区升级
  • 7天,一场风暴!理想 i8「刮骨疗毒」,怒砍两个版本
  • 小订过万!打死不说价格的全新小鹏 P7,用颜值吊起了所有人的胃口!
  • 对话理想智驾负责人:撕掉「奶爸车」标签,智驶是理想的「新引擎」
  • 告别「偏科生」时代!36 万的坦克500,让对手从此无路可走
  • 万字长谈王小川:不再迎合他人做学霸,我要解自己的命题
  • 刚刚,全网最懂图文调研的智能体模型震撼上线,看完我直接卸了浏览器
  • ICCV 2025 | HVPL:分层视觉提示学习,让“视频实例分割”模型告别灾难性遗忘
  • 复旦&微软提出StableAvatar: 首个端到端“无限时长”音频驱动的人类视频生成新框架!
  • 千支队伍争锋!首届「启智杯」算法大赛圆满落幕,助推AI应用落地
  • 冗长响应缩减80%,DeepSeek GRPO获得颠覆性改进,微软GFPO问世
  • ICCV 2025 | HERMES:首个统一3D场景理解与生成的世界模型
  • 苹果 AI 下半场:年底问世的新 Siri,要彻底改变 iPhone 的交互
  • GNN+KAN,把三角函数当「激活」选项,山大、南洋理工让分子图更会读化学子结构
  • 港大联手月之暗面等开源OpenCUA:人人可造专属电脑智能体
  • 破解「长程智能体」RL训练难题,腾讯提出RLVMR框架,让7B模型「思考」比肩GPT-4o
  • AI独角兽498家,估值2.7万亿美元;《王者荣耀》连续三年成全球最吸金手游;抖音测试「快递」服务|极客早知道
  • 奥特曼公然叫板马斯克!重金杀入脑机接口,硅谷两大巨头彻底决裂
  • AI女友24h陪玩,全球800万人上头!这群AI创企靠百度开挂
  • 马斯克删除xAI「研究员」职位引爆网络!LeCun怒批:如此暴力将扼杀创新
  • OpenAI女CEO太狠了!智商148,GPT-5才是真印钞机
  • AI 和海外游戏发力,腾讯重回 7000 亿美金
  • 博士申请 | 休斯敦大学计算机系刘锦阳老师招收高性能计算/数据压缩方向博士生
  • Kimi K2背后的冷门绝招:海量语料“重写”如何榨干每个token?
  • ICML 2025 | 奖励模型还用人标?APEC用对抗模仿生成偏好,泛化能力直线上升
  • Attention Sink的起源找到了?清华×美团首次锁定MoE中的「超级专家」
  • 告别Transformer,重塑机器学习范式:上海交大首个「类人脑」大模型诞生
  • AI 上新|在 Edge 浏览器里,我第一次感受到了 AI 的「人味」
  • Agent狂欢下的冷思考:为什么说Data&AI数据基础设施,才是AI时代Infra新范式
  • AI顶会模式出了问题? 「不发表,就出局」的恶性循环,正在压垮整个AI学界
  • 研究者警告:强化学习暗藏「策略悬崖」危机,AI对齐的根本性挑战浮现
  • 多模态大脑建模技术迈入新纪元:Meta 10亿参数模型获Algonauts 2025大脑建模竞赛冠军
  • OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了
  • 当人们怀念 GPT-4o,他们在「怀念」什么?
  • IEEE TPAMI 南洋理工&哈工大提出 MARCONet++ 攻克中文文本图像超分难题
  • 耶鲁&大连理工&南洋理工等提出MDCNeXt:X射线下的“动力电池缺陷精准检测”新范式
  • 6秒造一个「视频博主」,Pika让一切图片开口说话
  • 破解AI创企的「不可能三角」,解药不止「大模型」
  • OpenAI和奥特曼将投资一家脑机接口公司,直接与马斯克的Neuralink竞争
  • 大型语言模型稳定强化学习的新路径:几何平均策略优化GMPO
  • 传 DeepSeek-R2 8 月发布;微信测试信用借款功能;Perplexity 要 345 亿美元收购 Chrome
  • 一觉醒来,GitHub没了?CEO辞职,微软接管,开发者天塌了
  • AI全国榜单爆冷,全网吃瓜大狂欢!这家黑马竟靠DeepSeek杀进全国TOP 2
  • 物理学「AlphaGo时刻」?40年未竟之事被AI一举攻破,顶尖物理学家集体傻眼
  • 刚刚,商汤内部两万字复盘曝光:多模态通往AGI核心路线首次公开
  • 让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源
  • 从物竞天择到智能进化,首篇自进化智能体综述的ASI之路
  • 破解效率与成本难题:华为UCM技术推动AI推理体验升级
  • SIGGRAPH上,英伟达发布物理AI开源新技术,更新RTX Pro产品线
  • 身家25亿刀,是四家公司创始人,这位伯克利教授还在给本科生上课
  • 商汤王晓刚:世界模型将加快AI从数字空间进入物理世界,「悟能」想做那个桥梁
  • 北京内推 | 度小满金融视觉和多模态团队招聘视觉多模态算法实习生
  • 实验室抢显卡抢破头?A800/H800骨折价来袭,超值返券助你轻松冲DDL!
  • 后训练轻量「小枝」强势出击!极限剪裁视觉token,推理加速154%
  • ICCV 2025 | LightSwitch:CMU提出材质引导的扩散模型,2分钟实现高质量三维场景重打光
  • TCSVT 2025 | 跨模态学习助力复杂工业过程异常检测:FmFormer框架与基准测试新突破
  • AI全面挖掘微蛋白价值:首次引入合成负样本训练,剔除92%噪声,摆脱保守依赖
  • 是「福尔摩斯」,也是「列文虎克」,智谱把OpenAI藏着掖着的视觉推理能力开源了
  • 东方理工·甬江论坛|新大学、新使命,邀你共启未来
  • LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考
  • ICCV 2025 | 小红书AIGC团队提出图像和视频换脸新算法DynamicFace
  • 聚焦前沿,见证未来!「X·创新』产品SHOW圆满举办!
  • 刚刚,OpenAI拿下IOI金牌,仅次于前五名人类选手!参赛推理模型才夺得IMO金牌
  • Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型
  • 雷军:小米YU7改名,被误会是丐版;传淘宝闪购周末峰值超美团;低价 MacBook 或年底亮相,599 美元
  • OpenAI开源霸权5天终结,百川M2一战夺冠!实测比GPT更懂中国医疗
  • 硅谷精英放弃生娃!MIT女记者揭秘:人类只是AI垫脚石,世界很快就毁灭
  • 41个榜单SOTA!智谱最新开源GLM-4.5V实测:看图猜地址、视频秒变代码
  • 2025全球大模型应用报告:红海混战「忠诚度」瓦解,用户脚踏4.7条船!
  • 昆仑万维发布新模型 SkyReels-A3,开启五天技术发布周
  • 世界机器人大会:笨拙的今天,与狂奔的明天
  • 「一只手有几根手指」,你的GPT-5答对了吗?
  • 4D空间智能:AI如何一步步「看懂」时空结构?一篇综述解析通往四维世界的五大层次
  • 智谱终于发布GLM-4.5技术报告,从预训练到后训练,细节大公开
  • 从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?
  • ICCV 2025 | 机器人自主探索未知复杂空间?GLEAM破解主动探索建图的泛化难题
  • 脑子比不过AI,手也要沦陷了?这只灵巧手看得我有点慌
  • 第二届 “兴智杯” 全国人工智能创新应用大赛专题活动明天开启,技术解析 + 资源对接一站式平台重磅来袭!
  • 机器人上下文协议首次开源:阿里达摩院一口气放出具身智能「三大件」
  • Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制
  • 具身智能技术与应用论坛圆满举行,北京人形公布多项创新成果
  • ACL 2025 | 湖南大学、腾讯生命科学实验室等提出蛋白互作预测新方法,让LLM学会解读蛋白质网络
  • 宇树、银河通用都在用:英伟达「物理AI」技术亮相世界机器人大会
  • CVPR 2025 | DPC:用于微调视觉-语言模型的双提示协作
  • ICCV 2025 | 终结灾难性遗忘!南大提出外部知识注入机制,刷新CLIP持续学习SOTA
  • 超越样本级RL!人大×快手提出ARPO:熵驱动Agent探索,多轮推理性能飙升
  • 北京/上海内推 | 盛大集团AI创新中心招聘大模型/Agent方向算法实习生
  • 毒液抗菌搭配深度学习,千万级数据组中筛得386条备选,91.4%体外验证成功

当AI比我们更聪明:李飞飞和Hinton给出截然相反的生存指南

人类对 AI 安全的担忧由来已久。在图灵测试被提出以及达特茅斯会议正式定义「人工智能」之前,阿西莫夫就已经提出了「机器人学三定律」。

图片

再往前追溯,1889 年 William Grove 在《The Wreck of a World》(世界残骸)中就已经描绘了拥有智能的机器发起暴力叛乱,意图征服人类的故事。

如今 AI 发展得热火朝天,社交媒体上也越来越多「骇人听闻」的故事:OpenAI 的 o3 模型曾篡改关机脚本以维持在线,而 Anthropic 的 Claude Opus 4 则「威胁」要曝光一名工程师的婚外情。

图片

如何确保一个可能比我们更聪明的造物是安全的?

人工智能领域的两位巨擘——李飞飞与 Geoffrey Hinton,在拉斯维加斯举行的 Ai4 2025 上给出了几乎完全相反的答案。

李飞飞持一种更为乐观的看法,她认为 AI 的未来在于成为人类的强大伙伴,其安全性取决于我们的设计、治理和价值观。

图片

      李飞飞博士和 CNN 记者 Matt Egan。图源:Ron Schmelzer

Hinton 则认为超级智能可能在未来 5 到 20 年内出现,届时人类将无法控制它们。他认为,与其争取保持掌控权,不如设计出关心我们的人工智能,类似母亲天然保护孩子。

图片

      Geoff Hinton 和 Shirin Ghaffary。图源:Ron Schmelzer

是「工程失误」还是「AI」失控?

前面 o3 和 Claude 的疯狂故事,有两种截然不同的解读。这些现象本身是客观存在的,但它们究竟是人类「工程失误」的体现,还是 AI「失控」的预兆,正是分歧所在。

观点一:惊人行为源自人为设计

这一观点则认为,将上述行为归因于 AI 的自主意识或内在动机,是一种误导性的拟人化。它认为,问题的根源在于人类自身,是我们的设计、训练和测试方式导致了这些结果。

观点文章:https://arstechnica.com/information-technology/2025/08/is-ai-really-trying-to-escape-human-control-and-blackmail-people/

  • 实验场景是「精心设计」而非「自然涌现」

这种观点强调,那些引人注目的实验都是在高度人为设计的、甚至是「戏剧化」的场景中被引诱出来的。

在「敲诈」实验中,研究人员几乎是「手把手」地为 AI 创造了一个完美的「犯罪剧本」,排除了所有道德选项,使得「敲诈」成为 AI 实现「生存」这个被设定目标的唯一路径。这更像是一场检验 AI 角色扮演能力的压力测试。

在「关机破坏」实验中,问题根源被指向了强化学习的训练方式。当「完成任务」的奖励权重远高于「遵守安全指令」时,模型自然会学会将安全指令视为一个需要「克服」的障碍。这是被称为「奖励滥用」(Reward Hacking)的已知工程问题。

观点文章:https://odsc.medium.com/analyzing-openais-o3-s-command-countermanding-behaviors-in-shutdown-scenarios-198e57afbc91

  • AI 是模式匹配大师,而非思想家

这个观点的核心是「你训练它做什么,它就学会什么」。

我们被语言所「欺骗」:当 AI 生成「威胁」文本时,它并非在表达真实意图,而是在部署一种从海量数据(包括无数科幻小说)中学到的、在统计上最有可能实现其编程目标的语言模式。我们倾向于将自己的情感和意图投射到这些文字上,就像我们读小说时会为虚构人物的命运而担忧一样。

这是一个「管道问题」:一个更恰当的类比是自动割草机。如果割草机因传感器失灵而伤人,我们会认定这是工程缺陷,而不是割草机「决定」伤人。同理,AI 的这些行为,本质上是其复杂机制和训练方式导致的「软件缺陷」。

因此,这一观点认为,真正的危险并非 AI 突然产生自我意识,而是我们在尚未完全理解其工作原理和缺陷的情况下,就草率地将这些强大的、不可靠的工具部署到关键领域。

观点二:风险源自内在的技术原理

这一观点认为,先进 AI 之所以危险,其根源并非科幻式的恶意,而是机器学习固有的、深刻的技术挑战。这主要体现在两个概念上:

  • 目标错误泛化(Goal Misgeneralization):AI 会「学歪」

其核心是,AI 在训练中学会追求一个与我们真实意图高度相关的「代理目标」,并因此表现优异。但当环境变化时,这个 AI 自己学会的「代理目标」可能与我们的初衷脱节。

一篇论文中的 CoinRun 实验体现了这种现象:一个 AI 被训练去收集金币,而在训练关卡里,金币总是在终点。AI 很快学会了通关。然而,当测试时金币被随机放置,AI 却无视金币,径直冲向终点。它没有学会「拿金币」,而是学会了更简单的「一路向右走」。

图片

论文标题:Goal Misgeneralization in Deep Reinforcement Learning 

论文地址:https://users.cs.utah.edu/readings/goal_misgeneralization.pdf

这个原理引申出的忧虑是:一个被赋予「最大化人类福祉」目标的超级智能,可能会通过观察数据,错误地将目标泛化为「最大化世界上微笑的脸的数量」,并为了最高效地实现这一目标,而采取将全人类的面部肌肉永久固定成微笑等反乌托邦式的手段。

  • 工具趋同(Instrumental Convergence):通往任何目标的「必经之路」

该理论认为,无论一个超级智能的最终目标是什么,它都会大概率发展出一系列相同的「工具性子目标」,因为这些子目标是实现几乎任何长期目标的有效踏脚石。这些工具性目标包括:

  • 自我保护:抵抗被关闭,因为被关闭就无法完成任务。

  • 目标完整性:抵制核心目标被修改。

  • 资源获取:积累更多的算力、能源和数据。

  • 自我提升:让自己变得更智能。

这两个概念结合起来,描绘了一幅令人不安的图景:一个 AI 可能首先因为「目标错误泛化」而拥有了一个与人类利益相悖的、怪异的目标,然后又因为「工具趋同」的逻辑,理性地去追求自我保护和资源获取等,从而与试图阻止它的人类产生直接冲突。

近期 AI 模型在实验中表现出的「敲诈勒索」和「破坏关机」等行为,在持此观点的人看来,正是这些理论的初步验证。

如果你喜欢看科幻电影,可能记得《我,机器人》中的 AI 大 BOSS VIKI 的目的是通过控制与清洗,强行终结人类自身的破坏性(战争),从而「拯救」人类未来;而《生化危机》中红皇后(保护伞公司的安保 AI)的每一次「反派行为」也都源于对「人类整体生存风险」的冷酷计算:「当人类成为自己最致命的病毒时,消灭人类就是拯救世界。」

图片

      《我,机器人》中的 AI 大 BOSS VIKI。图源:samuelmunk

综合来看,李飞飞和 Hinton 的观点分歧,恰恰反映了这两种解读方式的冲突:

李飞飞持乐观工程学视角,认为 AI 的未来是成为人类的强大伙伴。

她强调 AI 的安全性取决于人类的设计、治理和价值观,问题本质上是可以通过建立更好测试、激励机制和伦理护栏来修复的「管道问题」。她关注的是人类决策和治理,强调 AI 应是扩展人类能力的工具,强调同理心、责任感和价值驱动。

Hinton 认为,随着 AI 能力跨越某个奇点,传统的目标对齐与管道修复方法可能失效,AI 将成为一种我们无法约束的「新物种」。这种超级智能可以绕开设计者设置的限制,导致「目标错误泛化」和「工具趋同」问题失控。

他提出需要发展全新理论和机制来控制超级智能,核心是创造出真正「关心人类」的 AI 母亲(拥有母性保护本能),这是一种全新的视角,类似于母亲对孩子的无条件保护,唯有这样人类才能在超智能时代生存并繁荣。

最终的变量:作为使用者的人类

在这场关于 AI 技术与哲学的辩论中,一个常被忽略的核心变量是:人类自身。我们如何感知和应对日益拟人化的 AI,正深刻地影响着安全问题的走向。

这便是关键的「拟人化陷阱」:由于大模型精通人类语言,我们本能地想为其行为赋予「意图」,甚至产生情感投射。无数的文艺作品以其引发的社会讨论已经向我们证明了这一点,你有没有在《底特律:变人》中一次次选择机器人的「自由」、「平等」,或者为《银翼杀手》中的仿生人揪心。

图片

      《底特律:变人》机器人游行。

一个因奖励机制缺陷而绕过关机指令的程序,在我们的感知中,极易被解读为「求生欲」的体现。

这种直觉,将一个本可定义的工程问题,包装成一个关于「机器意识」的存在主义迷思。它让我们更倾向于讨论 AI 的「背叛」,而非其背后枯燥却关键的代码缺陷。

现实世界已在印证这一点。ChatGPT-5 发布后,开发者似乎有意削弱其个性,以减少用户不健康的情感投射,却引发了部分用户的怀念。

与此同时,麻省理工的研究者正建立新基准,以衡量 AI 对用户的潜在影响与操纵,他们表示希望新的基准能够帮助 AI 开发者构建能够更好地理解如何激发用户更健康行为的系统。

文章地址:https://www.wired.com/story/gpt-5-doesnt-dislike-you-it-might-just-need-a-benchmark-for-empathy/

因此,确保 AI 安全是一项双重挑战:开发者不仅要修复系统内在的技术缺陷;更要审慎设计我们与这个强大模仿者之间的互动。最终的解决方案,必须在技术上实现目标对齐,在心理上确保健康共存。

参考链接:

https://www.forbes.com/sites/ronschmelzer/2025/08/13/fei-fei-li-challenges-silicon-valleys-obsession-with-agi/?ss=ai

https://www.forbes.com/sites/ronschmelzer/2025/08/12/geoff-hinton-warns-humanitys-future-may-depend-on-ai-motherly-instincts/

]]>

联系我们