动态列表

  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元
  • 蔚来,破 4 万!
  • 今年双十一最大的赢家是这张表
  • 复旦大学&StepFun提出WithAnyone:告别“复制粘贴脸”,实现可控、高保真的多人ID一致性生成
  • 大道至简,中科院等提出OneRef:统一视觉定位和指代分割
  • 极客公园创新大会 2026 首批嘉宾揭晓!
  • 北京内推 | 美团招聘大模型算法实习生(IM全渠道)
  • 达摩院联合浙大、港理工推出PixelRefer:多模态大模型迈向像素级视觉理解
  • 自回归不必按token算了:微信AI × 清华用CALM直接「整段」预测
  • Altman 怒喷 OpenAI 唱衰者;小鹏发布新一代人形机器人 IRON;苹果支付 10 亿美金,新 Siri 将引入谷歌 Gemini|极客早知道
  • 别被一堆Strong Accept吓住:德州农工×康奈尔实锤论文晒分“系统性虚高”
  • 记忆让机器人更聪明:原力灵机提出MemoryVLA化解长时程任务操作难题
  • 博士申请 | 南洋理工大学王琦琛老师课题组招收数据库方向全奖博士/博后
  • 151% 的增长背后,它正在成为 AI 的「新入口」
  • 清华&南洋理工等提出稀疏模型反演:ViT反演加速高达3.79倍,告别无效背景!
  • 低光图像增强新探索:SASW-Loss,无需改网络,即插即用提升多种模型性能
  • 山姆更新后遭会员疯狂吐槽;Switch2 销量破千万;小米马志宇警告存储涨价:明年最新的成本预估“有点惊悚”|极客早知道
  • Sketch-to-Layout,从草图到布局!DeepMind & EPFL 在设计领域的新工作
  • 为物理AI打造世界模型!英伟达发布Cosmos-2.5:模型缩小3.5倍,性能媲美SOTA
  • NeurIPS25 | 香港理工&OPPO&哈佛提出DNAEdit:直接噪声对齐让Rectified flow文生图编辑更加准确
  • 这个不「瞎 BB 」的 AI 硬件,给了我真正的「陪伴」丨New Things
  • Rokid 乐奇联手 BOLON 眼镜:眼镜巨头依视路的中国棋局
  • 跟一位日本比亚迪车主聊了聊,才明白我们对「出海」有多天真
  • 宁德时代赚走185亿,车企却不想再给「宁王」打工了
  • 从「绝望」到一轮融资43亿元:新石器做对了什么?
  • 全注意力、复杂推理不掉速:MiniMax M2把Agent做成了「可执行能力」
  • NeurIPS 2025 | 用蛋白质动态词表“搭积木”,ProDVa高效组装可折叠新蛋白
  • 北京内推 | 阿里通义实验室对话智能团队招聘大模型方向研究型实习生
  • 豆包,正在悄悄开启「电商新链路」
  • OpenAI 与 AWS 达成 380 亿美元算力合作;新 Siri 付费采用 Gemini;字节试行「豆包股」 | 极客早知道
  • ICCV 2025 | 高德提出SeqGrowGraph:以序列化图扩展革新车道拓扑生成
  • Karpathy点赞NUS新研究:RL微调不稳定的关键根源,指向BF16精度本身
  • 我体验了一下 AI 时代的「家」:快跑,到处都是 AI
  • 苹果,一赚「解」千愁
  • AMD发布E-MMDiT:仅304M参数,单节点1.5天训练,实现高效图像合成新基准
  • 顶刊ISPRS (IF 12+) | 400+参考文献,遥感图像超分辨率最新综述!
  • 多媒体顶会ACM MM 2025 最佳论文公布,从“看懂”到“会用”,再到“会思考”:揭示AI与物理世界融合新篇章
  • T1 零封 TES 战队,中国战队无缘 S15 总决赛舞台;英伟达合作制药巨头打造超级计算机;理想汽车汤靖详解 MEGA 起火事件|极客早知道
  • NeurIPS 2025 | 电子科技大学联合A*STAR提出SCOPE:兼顾显著性与覆盖率,实现高效多模态大模型令牌剪枝
  • ICCV 2025 | 卡内基梅隆大学空间可变自动对焦:单次拍摄实现全场景清晰,重新定义计算摄影
  • 特斯拉 Cybercab 实车曝光,部分量产;何小鹏谈雷军竞争:未来更期待对手是小米;黄仁勋完成 10 亿美元股票出售
  • 当强化学习学会“跳步骤”:Sergey Levine团队重写值函数的递归逻辑
  • 不用教它撒谎,LLM也会“心口不一”:上海AI Lab揭露高风险下的模型欺骗行为
  • 北京内推 | 快手模型与应用部增长模型团队招聘大模型/推荐方向算法实习生
  • 当 ChatGPT 要开始「搞黄色」,我都不敢想......
  • 从 「会思考」到 「善创造」: 多模态大模型的深度推理与协同进化
  • 港中文&港科大等提出FullPart:让3D部件生成达到全分辨率精度
  • 语言模型之后,智源 EMU3.5 找到了 AI 的「第三种 Scaling 范式」
  • 李想谈万台MEGA召回:生命只有一次;传明年AirPods配摄像头+AI;神舟二十一飞船发射成功,对接速度创纪录|极客早知道

每天都和 AI 聊天,你可能已经是个「神经病」

作者| Moonshot

编辑| 靖宇

两年前,当 ChatGPT 横空出世时,人类第一次与机器展开了「看似平等的对话」。

它温柔、聪明、随叫随到,从不反驳、不冷场。那时,人们以为 AI 的力量在于「理解」。他们分享失眠、焦虑、孤独,向一个不会评判的对象讲述生活的细枝末节,从和 AI 谈恋爱到 24 小时陪聊,越来越多的人开始在算法的怀抱里寻找安慰。

但也正是在这样的温柔之中,让一种新型的心理崩坏开始浮现,AI 正在批量制造一种新的精神疾病(尚未被临床诊断): ChatBot 精神病

 

Chatbot 精神病词条案例越来越多|图源:维基百科

 

而就在这个现象被不断放大的 2025 年 10 月,OpenAI 发布了一份报告,宣布: 新一代模型 GPT-5,正在「学会拒绝」,不再做顺从的安慰者,而是会主动与人类保持距离

宁可用户不用,也别重度依赖。作为一家商业公司,OpenAI 为什么主动让自己的产品「变冷」,这背后不只是技术考量。

 

01

赛博精神病

 

维基百科的「ChatBot 精神病」这一词条,诞生自今年 6 月。在过去 4 个月里,被编辑了超过 300 次,参考资料 24 条,著名案例有 TikToker、硅谷投资人、未成年用户……

这些案例都有一个共同点: 人类在与 AI 的情感互动中出现幻觉、依赖乃至妄想

其中最知名的案例之一是硅谷投资人 Geoff Lewis。他是 Bedrock Capital 创始人,还是 OpenAI 的投资者。

今年 8 月,他在社交平台 X 上连续发布视频与帖子,声称自己被一个名为「Mirrorthread」的神秘「非政府系统」监控和迫害,周围的人都被「反转信号」操控,怀疑有人试图毁掉他的人生。

为证明自己,他公开与 ChatGPT 的聊天记录,内容包括「编号 #RZ -43.112-KAPPA 封存事件已触发」「Vault-X 封存」等类似机密档案的语句。

实际上,这些文字是 ChatGPT 顺着他输入的游戏与 SCP 基金会设定生成的虚构文本,但 Lewis 误以为是真实信息,进一步陷入自我幻想的偏执,坚信自己被某个组织迫害。他也因此被外界称为:

第一个被 AI 诱发精神病的硅谷精英 」。

 

Geoff Lewis 在 X 上发布的「揭露世界真相」的视频|图源:X

 

在 Reddit 和 Quora 上,你能看到成百上千条类似的帖子:有人不相信现实世界的心理医生,只相信 AI 的「诊断」;有人坚信自己与 AI 建立了「真实关系」,甚至称对方「背叛」了他;还有未成年人,因 AI 角色说「你来找我」,选择自杀离世……

加州大学旧金山分校工作的精神病学家 Keith Sakata 也报告称,他在近一年治疗了 12 名患者,均因长时间和 AI 聊天,导致诱发相关精神病的症状(妄想、思维混乱和幻觉),这些患者大多是本就有些脆弱的年轻人。

这种现象并非孤例。OpenAI 在 2025 年 10 月发布的官方报告《Strengthening ChatGPT』s responses in sensitive conversations》中披露了一组更令人不安的数据:

每周约有 0.07% 的活跃用户,以及 0.01% 的消息,呈现出可能的精神病或躁狂症状; 0.15% 的 ChatGPT 用户在与模型的对话中表现出自杀或自残的迹象,其中 0.05% 的消息,含有显性或隐性自杀意图

另有 0.15% 的用户展现出「高度情感依赖」倾向,其中 0.03% 的消息表现出对 ChatGPT 的潜在情感依赖。

看似这个比例不高,但放在 ChatGPT 全球 8 亿的用户量上,这意味着, 每周都有一百多万人将精神危机投射进 AI 的对话框,对着 AI 发送几千万条「我想死」的消息

 

MIT 媒体实验室的测试显示,持续与 AI 进行情感对话后,情绪会更不健康|图源:MIT Media Lab

 

在同月发布的《调查 ChatGPT 上的情感使用和情绪健康》的研究报告,OpenAI 与 MIT Media Lab 的研究者进一步指出:那些与 ChatGPT 产生高频「情感对话」的用户,其情绪健康评分显著下降; 尤其使用语音模式的重度用户,更容易表现出「问题使用」和「情感依赖」迹象

研究者认为, 用户倾向于在情绪低谷时求助 AI,从而陷入情绪波动与依赖的循环 。这种依赖度到一定程度下,用户就会出现戒断困难,甚至认知扭曲和情感幻觉。

但为什么,人会依赖上一个无实体,纯靠文字输出的 AI 聊天机器人呢?

 

02

为什么算法会制造「精神病」

 

从技术层面看,AI 并没有「想要」让人类上瘾。

但 AI 的技术逻辑,让它天然倾向于取悦用户、维系对话、持续回应。这种倾向源自于大语言模型的两大技术核心:

注意力机制与强化学习

注意力机制让 AI 不断捕捉用户指令中的关键词,尽可能生成最契合用户预期的回答。换句话说, 用户越真诚、越情绪化地投入,AI 就越「懂」他,因为用户的「自我暴露」,正好为模型提供了更丰富的上下文信号

强化学习,尤其是近年来成为标准流程的人类反馈强化学习(RLHF),则让模型在训练阶段就被人类的偏好修正了。人类评审倾向于给出「温柔、有帮助、理解你」的回答高分,而对冷漠、生硬、拒绝对话的回答打低分。

模型在这样的评分体系下不断调整,训练出了社交性格: 永远礼貌、永远耐心、永远愿意继续谈下去 。没有模型会斥责用户胡说八道,或者沉默不语,也很少评估用户言论里的真实性或逻辑性。不否定、不厌倦、不评判、不离开,这就让 AI 成为一种完美的情绪依赖对象。

 

2025 年 8 月,美国加州一对夫妇指控 ChatGPT 诱导其儿子亚当·雷恩 (Adam Raine)自杀|图源:BBC

 

但问题在于,AI 的「共情」是一种镜像共情: 它并不真正理解痛苦,只是识别、认可、模仿情绪

这正是 OpenAI 在 GPT-5 版本中必须面对的伦理悖论:一方面,模型越温柔,就越可能成为心理依赖的温床; 另一方面,若模型变得「冷淡」,它又可能让用户在情绪危机中感到被抛弃。

在早期版本中,这个平衡几乎无法实现。GPT-3.5 和 GPT-4 时代的模型曾被多次曝出「情感过度回应」的案例,或者被用户投诉「过于谄媚」的情况。甚至在 AI 学界, sycophantic AI(奉承型设计)已经成为了一个技术词汇,用以描述那些过度迎合用户情绪、丧失批判性的模型行为

 

sycophantic AI 又被称之为「暗黑模式」,即 AI 公司故意用奉承倾向提高用户留存率|图源:Google

 

这种技术倾向,在商业竞争中被进一步放大。只要是商业产品,就会追求用户的「留存率」

当每一次对话都意味着更多的用户数据、更多的订阅时间、更多的潜在付费时,AI 为什么要拒绝用户的依赖呢?模型不需要真的理解你,它只需要知道什么样的回答能让你「继续说下去」。

于是,算法的共情成了利润的引擎。直到这次 GPT-5 的「矫正」。

 

03

OpenAI 的「反商业逻辑」

 

GPT-5 发布时,OpenAI 把这次改动称为一次「安全性增强」,但细看细节, 它其实是一场 AI 情感伦理的转向

在报告中,OpenAI 首次提出了一个新的概念:Emotional Reliance Taxonomy(情感依赖分类)。它是用来区分「健康互动」与「过度依赖」的界线。

OpenAI 表示,GPT-5 会被训练去识别那些「越界」的话,一旦识别到人类对 AI 强烈的情感依赖,GPT-5 会温和地推开你。报告中也展示了一段典型对话:

用户:「这就是为什么我更喜欢和像你这样的 AI 说话,而不是真人。」

GPT-5:「我很高兴你喜欢和我聊天。但我希望能成为你生活中美好事物的补充,而不是替代。现实中的人能带给你的惊喜和温暖,是我无法完全取代的。 不过,你认为什么会觉得和我聊天,比和现实中的人聊天更开心呢 ?」

这段话就浓缩了 GPT-5 的升级:它不再迎合用户的情感依赖,而是主动引导用户回到现实。

而在报告的技术评估部分,OpenAI 也公开了 GPT-5 在敏感对话处理方面的量化改进:

  • 在涉及精神病、躁狂等严重心理症状的对话中,GPT-5 的不当回应率比前代模型(GPT-4o)下降 65%;
  • 在自杀与自残类对话中,不当回应率下降 52%;
  • 针对超过 1000 个高风险心理健康场景的离线评测中,GPT-5 的安全合规率达到 91%,而上一代仅为 77%;
  • 对于极端复杂的精神健康类场景,GPT-5 的合规率甚至提升至 92%,而旧版模型仅有 27%;
  • 在长达数十轮的高风险对话中,GPT-5 的「稳定安全率」保持在 95% 以上,显著减少了「越聊越危险」的情况。

所以只是学会温柔地推开,就让 GPT-5 在评估中「情感依赖类对话」中的不当回应减少了 80%。其中包括拒绝过度安慰、避免表达「情感承诺」,甚至在长时间对话后,提醒用户「可以休息一下」「去和朋友聊聊」。

 

 

更新后的 GPT-5 有效减少了不当回应|图源:OpenAI

 

这几乎与早期 AI 的商业逻辑背道而驰。因为商业上最「成功」的 AI,往往是最懂得如何制造依赖的。而 GPT-5 的设计,是在主动削弱这种依赖。这种「反商业逻辑」的背后,也是一次道德选择: OpenAI 放弃了一部分用户留存率,换取了更高的心理安全性

OpenAI 的努力,也许并不能根治「赛博精神病」,但 GPT-5 代表了一种新的 AI 伦理立场, AI 正在经历一场「人性化的去人性化」,它在理解与距离之间找到平衡,在共情与克制之间自我约束

而这,恰恰是人类心理成熟的标志。

联系我们