动态列表

  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • 从Muon到AdaMuon:下一代优化器能否真正取代Adam?
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」
  • 突发!苹果AI大失血:Siri前掌门离职,核心团队被挖角,新功能延期到2026
  • 对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会
  • 急诊室生死逆转!酒后呕吐,GPT-5一眼锁定食管穿孔
  • 周周996,顿顿预制餐!美国AI界00后卷疯了: 住「棺材房」一周工作92小时
  • 学历越高,越怕熬夜!2.3万人10年研究实锤:睡得越晚,智力下降越快
  • Arm拥抱AI:五倍性能,三倍能效
  • Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3
  • 清华、上海AI Lab等顶级团队发布推理模型RL超全综述,探索通往超级智能之路
  • 快手可灵团队提出MIDAS:压缩比64倍、延迟低于500ms,多模态互动数字人框架实现交互生成新突破
  • 成本不足60美元!开源U-ARM:让机器人模仿学习更亲民的通用遥操作界面
  • 让机器人“大脑”更轻更快:SQAP-VLA首次实现VLA模型量化与剪枝协同加速
  • 数据与AI双引擎驱动智能未来,2025外滩大会论数据进化之道
  • iPhone 17 Air 在华发售延期;罗永浩直播回应西贝;《流浪地球》第三部剧本完稿,共计十五万字|极客早知道
  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • 一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道
  • 刚刚,ChatGPT支持MCP了!一句Prompt即可全自动化
  • 百度CTO王海峰:AGI曙光已现,Scaling Law仍有效|新智元十周年峰会
  • 通用Agent是伪命题?昆仑万维方汉现场拆解:垂直推理才是胜负手|新智元十年峰会
  • 文心X1.1三大能力狂飙,海内外实测还挺惊艳!
  • 超越90%城市规划师!清华、MIT等提出人机协作新范式 | Nature子刊
  • 慕尼黑车展,当冷静遇上冷静
  • 博士申请 | 新加坡国立大学计算机系卞亚涛老师招收2026 Fall人工智能全奖博士/博后
  • 别再狂刷CoT了!港科广DIGAI Lab发布隐式推理全景综述,静默思考开启新范式
  • 继首创“AI打赏”服务之后,支付宝再推国内首个“AI付”
  • 蚂蚁百宝箱新品Tbox超级智能体亮相外滩大会,5分钟即可完成专业教学素材
  • 量子宇宙模拟竞赛开启:量子计算机可以模拟并阐明复杂物理现象
  • 3000亿美元OpenAI大单,让世界首富位置换人了
  • 攻克大模型「表格盲区」!ST-Raptor框架发布,实现复杂半结构化表格的精准理解与信息抽取
  • 港大马毅外滩大会演讲:人工智能应从“黑箱”走向“白箱”
  • 兼顾准确率与可解释性,DeepSEA实现抗生素耐药蛋白注释范式转变
  • 交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式
  • RewardDance:字节跳动提出视觉生成奖励扩展新范式,破解“奖励劫持”难题
  • 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
  • 英伟达的AI已经开始接管整个项目了?SATLUTION自主进化代码库登顶SAT竞赛
  • 大模型智能体不止能写代码,还能被训练成白帽黑客
  • 高德扫街榜,能不能做成中国的「Google Map」?
  • 开启MPV家庭新时代,魏牌高山7正式启动预售
  • ACL最佳论文幕后的北大人!北大张铭带出顶会常胜军和百亿CEO天团|新智元十周年峰会
  • 刚刚,这款Agent浏览器力压OpenAI,72%成功率全球第一!还能免费用
  • =COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大
  • 当智能醒于物理世界,英伟达副总裁: 下一个十年属于物理AI!|新智元十周年峰会
  • 刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
  • 00后挑大梁!近20国选手激战外滩大会,AI科创赛三赛道冠军诞生
  • CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架
  • 英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
  • 谷歌AI新里程碑:一个能「做研究」的系统诞生了,用LLM+树搜索编写专家级软件
  • 爱诗科技完成6000万美元B轮融资,阿里巴巴领投,达晨财智、深创投、北京市AI基金、巨人网络、Antler等跟投
  • 当人工智能「看见」量子世界:AI如何改变对复杂量子系统的认知,南洋理工、上交等发布量子系统学习综述
  • 北京内推 | AMD北京AI算法团队招聘模型量化/剪枝算法实习生(可远程)
  • SFT真不如RL?MIT团队抛出“RL的剃刀”,砍掉遗忘直通终身学习
  • 院士领衔!从智能算网到司法AI:顶尖学者直播解读AI与工程前沿趋势
  • DeepSeek、Gemini都不行?AgenTracer锁定多智能体“背锅侠”,8B小模型反超闭源巨模
  • AI应用元年,这场标杆赛事见证了中国创新速度与野心
  • AI胡说八道这事,终于有人管了?
  • 人人都能炼专属Agent,上海交大开源端侧Agent全栈工具链,真实场景性能超GPT-5!
  • TPAMI 2025 | H2OT:分层沙漏型Tokenizer,重塑高效视频姿态Transformer
  • 史上最贵「打工皇帝」!马斯克解锁1万亿美金工资,拢共分几步?
  • 500 块的「电子宠物」,治好了我的「路怒症」|New Things
  • 苹果发布会:耳机测心率、手表听音乐、iPhone Air超级薄
  • 5999 元起,苹果发布eSIM、超薄 iPhone;王腾再辟谣离职原因谣言;反恶性补贴,主要外卖平台被约谈|极客早知道

LLM会梦到AI智能体吗?不,是睡着了也要加班



  新智元报道  

编辑:倾倾
【新智元导读】人类的大脑,会在梦里筛选记忆。如今,AI也开始学会在「睡眠」中整理、保存,甚至遗忘。Bilt部署数百万智能体,让科幻小说里的设问——「仿生人会梦见电子羊吗?」——逐步成真。那么,当AI也能选择忘记时,它会变得更像人,还是更陌生?

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

 几十年前,菲利普·迪克提出了一个看似荒诞,却直击人心的问题:

「仿生人会梦见电子羊吗?」

如果机器也能做梦,它们梦见的,会不会是人类记忆的残影?

半个世纪后,这个问题正在以另一种方式被回应。

人类在睡眠中整理记忆,而今天,一些AI也开始「学会」这样做。


AI也会「做梦」
睡眠中的记忆整理实验

对人类来说,睡眠不仅是休息,更是一次「后台整理」。

大脑会自动把白天的精力归档:记住重要的,忘记无关的。

在今天,这个问题正在以另一种方式被回应。

Bilt公司,最近部署了数百万个AI智能体,并为他们安排了「睡眠时间」。

在这段时间里,AI会停下对话,启动「睡眠计算」(sleeptime compute)的机制,像人脑一样整理记忆。

它们会评估过往的互动,决定哪些内容进入长期记忆库,哪些放在快速提取区。

Fast Company指出,这不仅是模仿人类的梦,更是主动智能的开端:

AI 不再被动回答,而是在睡眠中「预演未来」,在推理任务上展现出更高的效率与更低的成本

这种看似科幻的实验,让「AI会做梦」不再只是文学隐喻,而是正在发生的现实。


从人脑到AI
记忆机制的巨大差距

人类大脑的记忆,就像一块不断吸水的海绵。


这意味着,人类不仅能记住事情本身,还能带着情绪权重来筛选信息,并且能在不知不觉中提炼重点,把情绪、场景、细节打包成长期经验。

而AI的大脑远没这么灵活。

它们的「记忆」取决于上下文窗口——它只能调用输入的信息。

即便GPT-4 Turbo的上限是128k tokens,也不过相当于几百页书。

相比之下,人脑的容量被估算高达2.5PB(250万GB)。

因此,想让AI记得上次说了什么,就需要把内容再输入一遍。

但问题是,上下文窗口长度有限。

如果信息量太大,AI就容易「过载」:逻辑混乱、答非所问、凭空幻觉。

相比之下,人类不仅能牢牢记住重要信息,还能在需要时灵活调用。

正如Letta的CEO Charles Packer所说:

人类大脑会因为不断吸收而进化,但语言模型在同一个上下文里循环太久,只会被污染,越跑越偏,直到不得不重置。

这意味着,人类的「梦境」能让我们更清醒,而AI的「上下文」却常常让它迷失。


Bilt+Letta
百万智能体的「睡眠计算」

在Bilt的实验中,睡眠计算是核心。

数百万AI智能体同时运行时,大部分其实都处于空闲状态

这些智能体会在后台进入一种「休眠」状态,暂停与用户的交互,转而对过去的对话和经验做一次系统化梳理。

它们会自动区分两类信息:

第一类:长期记忆。像用户的偏好、历史记录、关键事件,这些会被牢固保存。

第二类:快速提取。更短期、临时性的信息,可以随时调用,也能很快被替换。

在 Letta 的演示中,用户Chad的偏好最初是零碎的描述:

Chad 喜欢蓝色,比蓝色更喜欢红色,最喜欢灰色,讨厌绿色。

经过睡眠计算后,这些信息被整理成清晰的偏好表。

这就像把零散的对话记录压缩成一份长期「记忆档案」。

图:睡眠代理整理用户输入的内容,并把用户对颜色的喜好排序

更具颠覆性的是,这两个区间并非孤立存在。

Letta的技术支持对某一个「记忆块」进行单点更新,随后数十万智能体的行为便会随之改变。

这意味着,AI个体之间的「经验」是可共享的。

正如 Bilt 的工程师 Andrew Fitz 所说:

「我们可以通过一次更新,就让整个系统的表现发生连锁变化。」

根据Letta的介绍,该机制采用的是「主代理+睡眠代理」的架构。

前者负责实时交互,后者在后台持续整理记忆,把信息写入共享的memory blocks,让AI在「醒来」后拥有更清晰、更稳定的认知。

对此Fast Company评论道:

这不仅是模仿人类的梦境,更是「主动智能」(proactive intelligence) 的雏形。

AI 不再只是被动回答,而是在睡眠中提前优化推理策略。

实验显示,在数学和逻辑测试中,应用睡眠计算的模型表现更好,推理时间和成本也显著下降。

如果说人类的梦境是私密的,那AI的「睡眠记忆」更像是一场同步的大规模演练。


从健忘到记忆
AI的短板与突围

越来越多的用户抱怨AI健忘、答非所问,甚至编造「回忆」。

不少研究者认为,记忆缺陷是限制AI智能与稳定的根源。

如果没有稳定可靠的记忆,AI无法形成真正的个性化与长期价值。

也正因如此,「提高记忆力」成为行业的集体突围方向。

LangChain的CEO Harrison Chase把记忆视为「上下文工程的核心」。

他认为,AI的智能很大程度取决于开发者选择放进上下文的信息。

LangChain因此提供了不同的记忆存储机制,从用户长期画像到近期交互记录,都能灵活调用。

对此,OpenAI也在尝试。

今年2月,它宣布ChatGPT将具备记忆功能,能在多轮对话中逐步学习用户偏好——只不过细节并未公开。

与此不同的是,Letta和LangChain把「记忆回调」的过程完全透明化,方便工程师理解和管理。

AI托管平台Hugging Face的CEO Clem Delangue也强调:

「不仅模型需要开放,记忆系统也必须开放。」

MemGPT则在探索如何把短期与长期记忆区分开,避免AI被「污染」。

这套思路后来被Letta进一步扩展,用在了大规模智能体的「睡眠计算」中。

可以说,「谁先解决记忆问题,谁就更接近下一个AI时代」。


学会遗忘
AI未来的关键一步

在大多数人眼里,AI的进化意味着要「记住更多」。

但Charles Packer却提出另一种思路:

AI不仅要会记,还要学会忘。

在人类世界,遗忘是进化出优势。

研究显示,睡眠中的「智能忘却」能帮助大脑抑制无效信息,把注意力集中在真正重要的片段上。

如果没有遗忘,我们的大脑就会像塞满文件的硬盘,总有一天会崩溃。

而对于AI来说,这是它面临的另一难题:灾难性遗忘(catastrophic forgetting)

因为,AI的神经网络在学习新任务时,往往会覆盖旧知识 。

这和人类的「选择性遗忘」不同,它是一种有层次的、可控的机制。

因此,未来的 AI 需要发展出「人工遗忘」。

当用户对AI说「把那个项目删掉,不要再记了」,未来AI的回应不止是停止调用这段记忆,还能追溯性地清除所有相关内容。

即使是AI,也必须学会删除涉及敏感或过时的信息。

在欧洲,「被遗忘权(Right to Be Forgotten)」已写进隐私法规。

这不仅是技术挑战,更是伦理问题。

那么,谁有权利决定AI记得什么、忘记什么?

当遗忘成为可能,它会带来更安全的使用体验,还是新的操控手段?

或许,真正让AI更像人的,不是「永不遗忘」,而是「学会遗忘」。

参考资料:
https://www.wired.com/story/sleeptime-compute-chatbots-memory/
https://www.fastcompany.com/91368307/why-sleep-time-compute-is-the-next-big-leap-in-ai?utm_source=chatgpt.com
https://www.letta.com/blog/sleep-time-compute?utm_source=chatgpt.com


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652628031&amp;idx=3&amp;sn=caf3f5e5d33219b9c734692ee7a9a02b&amp;chksm=f05de389eee54c7513646ba96a081e6fdb81f3f636e46f17e1004807d9514961d694ae4d5599&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/OFTQJgN9LM&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们