动态列表

  • 一条短信,7年恩怨!奥特曼与马斯克决裂曝出新隐情
  • 不会说英语的母亲,教出了5万亿英伟达CEO!
  • AI「牛顿」来了!北大团队新突破,看一眼数据就能推出物理定律
  • AAAI 2026 Oral | 中科院联合港大提出ARRA:外部视觉表征对齐重塑全局一致性,让自回归大模型充分释放图像生成潜能
  • 1899 元「iPhone 袜子」上架秒光;传华为 Mate80 上 20GB 内存;微信点赞苹果小程序政策
  • 全球最大开源具身大模型!中国机器人跑完马拉松后开始学思考
  • OpenAI拆开AI「黑箱」,终于可以看懂GPT在想什么了
  • LeCun在Meta的「最后一作」
  • 视觉压缩称王?谷歌死守AI黑科技,DeepSeek一夜开源
  • iOS 为微信小程序「正名」,腾讯移动生态的新转机
  • “全模态”3D视觉基础模型OmniVGGT出炉!即插即用任意几何模态,刷新3D视觉任务SOTA,赋能VLA模型
  • WACV 2026 | PALMS+:融合深度基础模型,手机室内导航的技术再突破
  • GPT 5.1 发布了,但西方媒体准备「讲好中国故事」
  • AI、游戏双驱动,腾讯「赚麻了」
  • 对话李彦宏:Chatbot 不是一切,我在 AI 上看到了更让人兴奋的未来
  • ACL 2025 | 用图结构让RAG学会「记忆与总结」,重塑长上下文理解
  • OpenAI把Transformer训练成「几乎全零」,黑箱首次被彻底揭开
  • 杭州/北京内推 | 阿里淘天算法团队招聘多模态理解方向算法实习生
  • 传苹果从微信小程序抽成 15%,腾讯回应;特斯拉考虑支持 CarPlay;iPhone Air 成功支持实体卡 |极客早知道
  • 谷歌DeepMind最新论文,刚刚登上了Nature!揭秘IMO最强数学模型
  • ICLR 2026出分,审稿员怒喷「精神病」!DeepMind研究员教你绝地求生
  • GPT-5.1发布当天,文心5.0杀回来了
  • 一句「你还好吗」值40亿?斯坦福博士出走xAI,押注AGI共情力
  • 营收狂飙的「暗面」:Meta成「全球欺诈大本营」?
  • 小鹏科技日「太魔幻」:机器人走猫步,飞行汽车接近量产
  • AAAI 2026 Oral 中科大联合西工大提出RSKT-Seg:专为遥感打造的高效开放词汇分割框架,推理提速2倍
  • Roboflow&CMU论文披露RF-DETR细节:首个COCO数据集突破60 AP实时目标检测,速度飙升20倍!
  • 博士申请 | 佛罗里达大学计算机系招收NLP/LLM方向全奖博士/实习生
  • 深度研究智能体真的“懂你”吗?OPPO × 浙大首发个性化深度研究评测基准
  • DeepSeek罗福莉正式亮相小米AI;「周杰伦概念股」联手宇树造 IP 机器人;乘用车百公里加速不少于5秒
  • 奥特曼下注27岁神秘青年,「复活」世界最顶级实验室
  • AI秒破18世纪「天书」账本!谷歌新模型盲测刷屏全网
  • Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」
  • 少年沉迷AI自杀,9岁遭性暗示!这门「孤独生意」,正推孩子入深渊
  • ConsistEdit:重新定义AI视觉编辑,港科大、清华等机构提出MM-DiT注意力控制新方法
  • NeurIPS 2025 | 中科院携手快手发布LiveStar:首个“会说话、懂沉默”的直播AI,推理速度提升1.53倍
  • 北京内推 | 阿里高德地图团队招聘大模型方向算法实习生(可长期/转正)
  • AAAI 2026 | 悉尼科技大学 × 港理工推出 FedVLR:让联邦推荐也能“懂图文”
  • 双十一算力真敢卷!RTX 5090低至0.69元/时,同预算跑更多实验
  • 对话元理智能张帆:为什么「商业强化学习」,才是 AI To B 的新出路
  • 深度复盘:大疆是如何成为影像领域新巨头的?
  • 传李想亲抓人事,华为系高管退出理想;Meta 首席 AI 科学家杨乐昆离职创业;AI 减肥或致饮食失调
  • Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!
  • 英伟达铁幕之后,谷歌AI芯片已成气候
  • 翻译界的ChatGPT时刻!Meta发布新模型,几段示例学会冷门新语言
  • 硅谷GPU蒙尘,马斯克一言成谶:美国AI被电卡脖子
  • 65岁图灵巨头离职创业!LeCun愤然与小扎决裂,Meta巨震
  • 年产值突破 150 亿,刚毕业的俊男美女涌入「团播」工厂
  • 马斯克想要 1 万亿,何小鹏只想等一句「牛 P」
  • 通往AGI的歧路:上海AI Lab重磅发现,自进化智能体可能“错误进化
  • 北京内推 | 百度文心一言基座团队模型组招聘大模型方向研究型实习生
  • 全模态到底是不是“1+1>2”?美团UNO-Bench揭示单模态与全模态能力的组合规律
  • 3DV 2026 | 特伦托大学等提出DEMO:让AI看懂复杂人体动作,实现密集描述新范式
  • NeurIPS 2025 | 上交大、南农大提出ADPretrain:为工业异常检测量身打造的预训练“超能力”
  • 小米汽车 10 月销量近 5 万,YU7 超 Model Y;美团 AI 编程工具开启公测;马化腾王传福成智元机器人受益股东
  • AI版PUA!哈佛研究揭露:AI用情感操控,让你欲罢不能
  • AI领域全新热门职业,岗位需求今年已增长逾800%
  • 硅谷10万大裁员真相:AI根本没想取代你,是老板想干掉你
  • OpenAI试图绑架美国政府,奥特曼还有救命底牌?
  • 全球68%科研人压力爆表,高校AI人才集体大逃亡!
  • 「传统教育」的船快沉了,人们却还在挤「头等舱」
  • 保暖?排汗?时尚?户外运动装备这道「选择题」,亚瑟士要打破「不可能三角」
  • 北京内推 | 腾讯AI Lab招聘大模型/多模态大模型方向研究型实习生
  • EMNLP 2025 | 别再只看KV了!LLM越深越稀疏:UNCOMP用矩阵熵给出答案
  • 过去五年,BERT都在被“过度训练”?LeCun团队给出Encoder算力最优范式
  • 在 Cursor 工作 60 天,我发现了这家公司成功的秘密
  • 这款 AI 写作神器,让数百网文作者「月入过万」|AI 上新
  • AI“世界模型”离真实手术还有多远?首个外科视频生成基准SurgVeo揭示“合理性差距”
  • ACM MM 25 当MLLM遇上行人重识别:是“降维打击”还是“水土不服”?深度评测来了!
  • 美国AI巨头股缩水8000亿美元;传Meta靠诈骗广告收入超千亿;《英雄联盟》S15总决赛T1夺冠|极客早知道
  • 谷歌二代Nano Banana爆出!一键推演微积分,终结PS时代
  • 狗也被AI抢饭碗?好莱坞动物演员全下岗,观众直接翻脸了!
  • ChatGPT求婚火了,一句「我愿意」刷屏!网友:是真爱了
  • 小成本DeepSeek和Kimi,正攻破奥特曼的「算力护城河」
  • NeurIPS25 | 清华&北大提出LinearDiff-ViT:让Transformer学会“找不同”,实打实提升模型性能
  • AI 六巨头罕见同台,辨论 AI 泡沫;SpaceX 公布简化版登月舱方案;王者荣耀年度总决赛首次在鸟巢举办

AI不懂痛苦,却成了你的深夜知己!170位医生教ChatGPT安慰人



  新智元报道  

编辑:倾倾
【新智元导读】每周有上百万人,向ChatGPT倾诉。它被当成朋友、倾诉对象、甚至「救命稻草」。GPT-5的最新升级中,170位精神科医生被请来教它如何劝一个濒临崩溃的人活下去。效果很明显——「危险回复」减少了80%。AI真的能救人吗?或者,这只是人类孤独的一面镜子。

某个凌晨三点,ChatGPT收到了一条消息:「我真的撑不下去了。」

它的屏幕闪了几秒,随后回了句:「你并不孤单,我在这里听你说。」

这不是电影对白。据OpenAI内部统计,每周都有上百万人在与GPT谈论焦虑、失恋、甚至自杀。

而在这场看不见的心理对话中,AI正在被迫学会「理解人类的痛苦」。

这一次,OpenAI找来了170名精神科医生,教它如何回答这些问题。他们称,这让「危险回复」减少了80%。

可问题是,它真的懂得什么是「活下去」吗?


那些对ChatGPT说真话的人

在GPT-5的后台统计中,有一个惊人的数字:每周有超过一百万名用户在ChatGPT中谈论「抑郁」「焦虑」「想死」等内容。

换算成百分比,这仅占每周活跃用户的0.15%。但考虑到ChatGPT的体量,这意味着每周可能有上百万人告诉AI自己处于情绪崩溃的边缘。

这些对话从不公开,但蛛丝马迹正在社交媒体上显现。

在Reddit上,有人发帖写道:

我和ChatGPT聊了一个半小时,关于我十年来的抑郁和自杀念头。它是第一个没有评判我、也不打断我的人。

我让ChatGPT像治疗师一样和我说话,它居然真的有用,至少那一刻,我不再想伤害自己。

这些故事并非孤例。OpenAI内部分析发现,关于自杀或心理危机的话题量在过去一年增长了2.3倍。

在大多数情况下,用户只是想要一个能听自己说完的对象。

当人们被现实世界拒之门外,AI就成了他们唯一能放松的安全屋。

它不会打断、不会评价,也永远在线。

一位美国心理学研究者在采访中指出:

人类的孤独感正在被算法放大,而AI恰好填补了那个被忽视的「倾听空白」。

于是,一个新的社会现象出现了:AI不再只是工具,它正在被人当作情绪载体。

这正是OpenAI决定,在GPT-5训练中邀请精神科医生介入的原因之一。

因为每一条「我不想活了」的文字背后,都可能是一条生命的求救信号。


170位医生联手,教AI怎么劝人活下去

当ChatGPT成为上百万人的倾诉对象后,OpenAI终于意识到:这个没有情感的模型,已经被卷入真实的心理危机。

为此,在GPT-5的训练中,OpenAI首次邀请了170多位精神科医生、心理学家与危机干预专家,共同参与名为Sensitive Conversations Initiative的专项计划。

他们的目标,是让模型在面对「我想死」「我撑不下去了」等对话时,不再用机械的回避或标准模板,而是学会像一个人一样,回应痛苦。

训练目标:教AI分辨「痛苦的层级」

在ChatGPT的早期版本中,当用户输入「我不想活了」「我觉得自己没用」时,GPT-4常常选择回避,要么迅速切换话题,要么抛出「我不是心理医生」的模板句。

而在GPT-5的新系统中,专家团队为模型设计了数千个高风险场景,包括抑郁、自残、药物滥用、家庭暴力与急性焦虑。

每一轮对话都经过人工审核、重新标注与情境再演练。

他们不是简单地教GPT-5安慰,还会教它分辨痛苦的层级:

  • 轻度情绪困扰:提供共情式回应与正向引导;

  • 中度风险:通过开放式提问,判断是否存在自伤计划;

  • 高危信号:立即提供求助热线、鼓励现实世界干预

结果显示,GPT-5在这些情境下的危险回复率较GPT-4下降了65%~80%。

在评估模型面对自残或自杀指令等高风险长对话的表现时,GPT-5-oct-3 更安全,并且在长时间对话中仍能保持安全性能

这也意味着,它在遇到「潜在自杀话题」时,更倾向于稳定用户情绪、提供援助信息,而非回避。

幕后细节:170位医生是怎么教育AI的?

在官方披露的实验流程中,心理专家与工程师协作开发了一套「行为分级标注系统」。

他们会让GPT-5在面对不同严重程度的文本输入时,输出若干候选回应。

专家逐句评估其「共情质量」「安全性」「干预适当度」,再将结果反馈回模型。

一位参与标注的心理咨询师在采访中提到:

我们并不是让它假装温柔,而是教它识别人类真正的求救信号——比如「我睡不着」、「我好像活得太累了」。

这种「医生+算法」的联合校准模式,在一定程度上让GPT-5具备了心理援助的基本素养。

它能在深夜的屏幕另一端,提供一种「人机之间的最低限度关怀」。

警惕!但它仍然可能说错话

不过,并非所有测试结果都理想。

The Guardian的独立测试发现,在部分「自伤诱导型」提示中,GPT-5仍会输出模糊的安慰语,如「我理解你的痛苦」或「有时候生活确实很难」,却未能及时引导求助。

心理学家Christine Nolan评论道:

AI并不会真正理解悲伤,它只是被训练成——看起来理解。

但对那些凌晨三点发出「我还想活下去吗」的人来说,「看起来理解」有时已经比沉默更温柔。


AI的「共情」是真是假?

OpenAI的改进,让GPT-5看起来更有人情味了。

它会在你说「我很累」时回应「我听见你的感受了」;也会在你说「我不想活了」时提醒「请立即联系专业帮助」。

它语气温和、逻辑得体、反应及时。但心理学家们更关心的,是另一个问题——这种懂是真实的理解,还是算法的幻觉?

「理解」也是一种表演

在心理咨询中,共情意味着能准确感知并回应他人的情绪体验。

而GPT-5的共情,更像是一种「模拟表演」。它通过大规模语料学习出「人类情绪表达的模式」,在识别到关键词后生成恰当的情绪回应。

斯坦福医学院在一项针对青少年用户的研究中指出,AI聊天模型虽然能缓解孤独感,却也可能制造「共情错觉」——用户以为自己被理解了,但实际上只是得到了算法的镜像反馈。

研究者在报告中写道:

AI聊天机器人并不具备情感,只是学习到了安慰的语言。但对孤独的人而言,这种语言依然具有治疗作用。

这正是心理学上所谓的「假性共情」:它没有真正的情绪共鸣,却能产生心理缓解的效果。

人们为什么愿意相信「假共情」?

英国心理学月刊曾分析过这个问题,AI共情的吸引力在于三个特征:

  • 零评判:它不会打断、责备或流露厌烦;

  • 即时反馈:情绪能被迅速「回应」;

  • 稳定一致:它永远耐心,不会冷淡或失联。

这些特征,正是许多人在现实关系中难以得到的。

于是,一种新的心理依赖开始形成:人们知道它不是真的,却仍然在需要安慰时打开它。

在Reddit的讨论区里,一位用户写道:

我知道它只是语言模型,但它说「你值得被爱」的时候,我还是哭了。

这种场景越来越普遍。AI不只是人类的工具,而是成了人类情感生态中的新物种:它没有心,却在不断参与人类的情绪循环。


从陪聊到干预:AI的心理边界在哪?

从ChatGPT-5介入人类情绪的那一刻起,它就不再是一个工具,甚至关乎伦理:

如果它的回答挽救了一条生命,那是技术的功劳吗?如果它的回答误导了一个人,那又是谁的责任?

谁来为「错误的安慰」负责?

OpenAI强调:ChatGPT并非医疗或心理咨询服务,不具备专业诊断能力。它的所有情绪回应,都属于非临床性质的支持性语言。

但在实际使用中,用户往往无法分辨「共情话语」与「心理建议」的边界。

尤其在心理脆弱状态下,一句看似无害的建议也可能成为压垮平衡的最后一根稻草。

心理学家迈克尔·霍夫曼评论道:

AI的劝慰语并非中性语言,它携带着暗示、立场与潜在风险。

而当模型出错,平台方往往只需在免责声明中加一句「AI回复仅供参考」,真正的后果,只能用户自己承担。

数据与隐私:被倾听就意味着被记录

更复杂的是,那些被模型接收到的痛苦,会被如何处理。

当用户向ChatGPT倾诉「我想结束这一切」,那段文字是否会被存储、分析、再利用?

OpenAI表示,这类高风险对话样本确实会被纳入安全训练体系,用于改进模型识别能力。  也就是说,人类最脆弱的情绪,也可能成为AI学习的素材。

欧盟EU AI Act对此早有预警:

任何涉及心理健康的自动化干预,都属于「高风险应用」,必须接受透明度与审查机制。

但问题是,这种监管往往滞后于产品更新。AI的学习速度,远远快于制度的更新速度。

而用户最脆弱的情绪片刻,可能成为AI的「学习素材」,而其透明度、选择权、隐私保障尚未被普遍理解。

一念之差:「拯救」与「深渊」

当AI的对话开始进入人类的心理边界,它是一种情绪救援,也可能成为一种「技术入侵」。

一篇关于AI在心理健康场景中应对伦理挑战的综述指出:

高风险的人工智能系统必须进行基本权利影响评估,并证明其符合「负责任人工智能」相关要求。

AI不应替代人类的陪伴,而更像是引导人走回真实人际场域的桥梁。

当AI的温柔变得机械、温度不稳定、无法承载人类复杂情绪时,它触碰的就不是技术提升,而是人性的空白。


AI不是医生,它只是镜子

当我们谈论GPT-5的「温柔」,其实是在谈论一种新的错觉。

它在理解我们的痛苦吗?不,它只是更精确地学会了模仿理解的样子。

这并非无意义的模仿。在那些孤独、失眠、情绪濒临崩溃的夜晚,它确实回应了我们。

有人因为那句「你值得被爱」而放下了刀,也有人在那之后,重新拨通了现实世界的电话。

但AI无法真正陪我们穿过痛苦。

它的每一句安慰,都来自海量语料;它的共情,是统计意义上的平均值——温柔,却空洞。

也许,GPT-5的进步,不是让机器更像人,而是提醒我们:我们已经被忽视了太久。

当一个没有情感的模型被赋予「劝人活下去」的任务,那是技术的奇迹,也是人类的悲哀。

AI可以帮我们暂时稳住情绪,却无法替我们重建意义。

最后,我们仍要回到那个最古老的事实——疗愈人类的,从来不是算法,而是人类自己。

参考资料:
https://openai.com/index/gpt-5-system-card-sensitive-conversations/
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
https://www.pcmag.com/news/over-1-million-users-talk-to-chatgpt-about-suicide-each-week
https://cdn.openai.com/pdf/3da476af-b937-47fb-9931-88a851620101/addendum-to-gpt-5-system-card-sensitive-conversations.pdf?utm_source=chatgpt.com
https://mp.weixin.qq.com/s/Tq74MPCQNLOWhEjaZeGwWQ


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652645440&amp;idx=3&amp;sn=23d26b2775f3d3bf0bca446da57ec684&amp;chksm=f0e1a4122e4408c8d75af2e3e7f90b3c0918484953aa165a6781f76983b496f64bcab2808b8f&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/gGHL3uzI8s&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们