动态列表

  • 4万亿刀,仅3.6万人!英伟达揭残酷真相:劳动正与财富大脱钩
  • 医疗AI智能体全面综述:行业爆发,年增长130%!
  • 震惊电影圈!好莱坞混了10年没出头,他把AI「烂片」做成23万粉爆款
  • Anthropic CEO:最快明年,一半初级白领下岗!失业率将达10%-20%
  • 谷歌 Gemini 3.0 深夜炸场:没有悬念的最强 AI
  • MIT何恺明团队新作:让扩散模型回归“去噪”本质,简单Transformer即可实现SOTA性能
  • Yann LeCun团队新作LeJEPA:仅一个超参数、50行代码,实现可证明、可扩展的自监督学习
  • JSON刚死24小时,TOON又被网友玩坏:LLM数据格式彻底乱套了
  • 美团多篇论文入选NeurIPS 2025:从大模型到多模态的全线突破 | 直播预告
  • 阿里千问公测,挑战 ChaGPT;京东上线独立外卖 App;贝佐斯出任 AI 初创公司 CEO
  • 抱歉了GPT-5,这次是中国AI「上岸」了
  • 你急它不急:GPT-5先判断,再决定「速答」还是「深想」
  • Meta开始用KPI考核,强迫所有员工尽可能多使用AI
  • 接招吧,GPT-5.1!
  • 「前三代定律」下,百年吸尘器如何做出新意?
  • 两个月破 300 万用户,Agnes AI 刷新 Instagram 与 Snapchat 增长纪录
  • 每天给白领发 1000 万,他成了硅谷最年轻亿万富翁
  • 2025,中国科技圈进入全面「大乱斗」时代
  • 当 AI 开始分「左右」
  • 阿里云,用全栈 AI 刷新第十七个双十一
  • AAAI 2026 山大提出DiveSeg:为DINO注入“水下感知力”,实例分割性能提升显著
  • AAAI 2026 Oral MiniShift+Simple3D:面向高分辨率3D异常检测的可扩展数据集与实时检测新范式
  • 让千问APP当一周科研打工人:它比我想的能干,也比我想的累
  • 双重隐式记忆来了!JanusVLN让视觉语言导航真正理解3D空间
  • 雷军连发多条微博回应质疑;iPhone 发布方式将在明年重大变革;年度最令人不安的研究:AI 刷多社媒会变蠢|极客早知道
  • 图灵奖得主LeCun最后警告Meta!我搞了40年AI,大模型是死路
  • AI又封神了!华人新作直出憨豆+《猫和老鼠》,平行宇宙对上戏了
  • AI「逼宫」库克?苹果秘密计划曝光,接班人竟是M芯片之父!
  • 年度最强AI压轴!谷歌Gemini 3.0下周决战OpenAI,前端要下岗了
  • 安谋科技发了一枚 NPU,要把 AIGC 算力提升 10 倍
  • ICLR 2026吃瓜现场:有人用LLM连投4版论文,竟然拿到两个8分?
  • 无人工标注、可持续扩展:AcademicEval推动长文本评测进入“自更新”阶段
  • 宇树完成上市辅导,拟境内IPO;传索尼开发Labubu电影;2699元!原道X小岛秀夫耳机限量发售
  • AAAI 2026 Oral | 清华大学等提出SpatialActor:解耦空间感知,重度噪声下机器人操作鲁棒性暴涨19.4%
  • AI不懂痛苦,却成了你的深夜知己!170位医生教ChatGPT安慰人
  • 一条短信,7年恩怨!奥特曼与马斯克决裂曝出新隐情
  • 不会说英语的母亲,教出了5万亿英伟达CEO!
  • AI「牛顿」来了!北大团队新突破,看一眼数据就能推出物理定律
  • AAAI 2026 Oral | 中科院联合港大提出ARRA:外部视觉表征对齐重塑全局一致性,让自回归大模型充分释放图像生成潜能
  • 1899 元「iPhone 袜子」上架秒光;传华为 Mate80 上 20GB 内存;微信点赞苹果小程序政策
  • 全球最大开源具身大模型!中国机器人跑完马拉松后开始学思考
  • OpenAI拆开AI「黑箱」,终于可以看懂GPT在想什么了
  • LeCun在Meta的「最后一作」
  • 视觉压缩称王?谷歌死守AI黑科技,DeepSeek一夜开源
  • 大疆 OSMO Action 6 体验:完美进化,不止运动
  • iOS 为微信小程序「正名」,腾讯移动生态的新转机
  • “全模态”3D视觉基础模型OmniVGGT出炉!即插即用任意几何模态,刷新3D视觉任务SOTA,赋能VLA模型
  • WACV 2026 | PALMS+:融合深度基础模型,手机室内导航的技术再突破
  • GPT 5.1 发布了,但西方媒体准备「讲好中国故事」
  • AI、游戏双驱动,腾讯「赚麻了」
  • 对话李彦宏:Chatbot 不是一切,我在 AI 上看到了更让人兴奋的未来
  • 杭州/北京内推 | 阿里淘天算法团队招聘多模态理解方向算法实习生
  • ACL 2025 | 用图结构让RAG学会「记忆与总结」,重塑长上下文理解
  • OpenAI把Transformer训练成「几乎全零」,黑箱首次被彻底揭开
  • 传苹果从微信小程序抽成 15%,腾讯回应;特斯拉考虑支持 CarPlay;iPhone Air 成功支持实体卡 |极客早知道
  • 谷歌DeepMind最新论文,刚刚登上了Nature!揭秘IMO最强数学模型
  • ICLR 2026出分,审稿员怒喷「精神病」!DeepMind研究员教你绝地求生
  • GPT-5.1发布当天,文心5.0杀回来了
  • 一句「你还好吗」值40亿?斯坦福博士出走xAI,押注AGI共情力
  • 营收狂飙的「暗面」:Meta成「全球欺诈大本营」?
  • 小鹏科技日「太魔幻」:机器人走猫步,飞行汽车接近量产
  • Roboflow&CMU论文披露RF-DETR细节:首个COCO数据集突破60 AP实时目标检测,速度飙升20倍!
  • AAAI 2026 Oral 中科大联合西工大提出RSKT-Seg:专为遥感打造的高效开放词汇分割框架,推理提速2倍
  • 深度研究智能体真的“懂你”吗?OPPO × 浙大首发个性化深度研究评测基准
  • 博士申请 | 佛罗里达大学计算机系招收NLP/LLM方向全奖博士/实习生
  • DeepSeek罗福莉正式亮相小米AI;「周杰伦概念股」联手宇树造 IP 机器人;乘用车百公里加速不少于5秒
  • 奥特曼下注27岁神秘青年,「复活」世界最顶级实验室
  • AI秒破18世纪「天书」账本!谷歌新模型盲测刷屏全网
  • Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」
  • 少年沉迷AI自杀,9岁遭性暗示!这门「孤独生意」,正推孩子入深渊
  • ConsistEdit:重新定义AI视觉编辑,港科大、清华等机构提出MM-DiT注意力控制新方法
  • NeurIPS 2025 | 中科院携手快手发布LiveStar:首个“会说话、懂沉默”的直播AI,推理速度提升1.53倍
  • 双十一算力真敢卷!RTX 5090低至0.69元/时,同预算跑更多实验
  • AAAI 2026 | 悉尼科技大学 × 港理工推出 FedVLR:让联邦推荐也能“懂图文”
  • 北京内推 | 阿里高德地图团队招聘大模型方向算法实习生(可长期/转正)
  • 对话元理智能张帆:为什么「商业强化学习」,才是 AI To B 的新出路
  • 深度复盘:大疆是如何成为影像领域新巨头的?
  • 传李想亲抓人事,华为系高管退出理想;Meta 首席 AI 科学家杨乐昆离职创业;AI 减肥或致饮食失调

AI「看见」实验,哈佛颠覆性突破!一副AR眼镜,新手秒变资深专家



  新智元报道  

编辑:好困
【新智元导读】当AI能「看」见实验室的细节,能「听」见研究员的每一次反应,能「感知」实验进展的每一点变化——它的推理将不再局限于硅基世界。那时,AI将通过人类的双手,直接参与并改变物理现实。它或许将成为实验室中最勤奋、最可靠的「智能伙伴」。如今,这一幕正在发生在微纳加工的超净间与生命实验室AI不仅能理解电子器件的诞生,也开始洞察细胞与类器官的生长。从芯片到细胞,从材料到生命,「人机共融」的边界,正在被重新定义。


科学研究和制造车间里,最让人崩溃的瞬间是什么?

想象一个场景:

刚入行的新手小李在柔性电子制造的超净间中。


一个典型的反应离子刻蚀步骤中,标准操作规程SOP(Standard Operating Procedure)要求参数设为30秒、50瓦。


他手忙脚乱输成了300秒、100瓦,自己还没察觉;旁边的资深工程师忙着记录数据,也没留意这个失误。


要是按错参数运行,整批器件可能直接报废,几天的准备工作全白费。


或者是:

研究员老王花了3个月摸索出新的材料合成方法。


可实验日志记的零散,新手想复刻时,对着SOP里「适度调整温度」的模糊描述无从下手,只能再花几个月试错。


类似的情况,同样出现在生命科学实验室:

在类器官培养的显微台前,研究生小张刚完成细胞消化步骤。


她比SOP规定的时间多消化了40秒,细胞融合度下降、类器官结构塌陷;或是换液时温度略低几度,整个分化周期的关键指标都受影响。


实验日志里只写着「细胞状态一般」,没有任何可追溯的信息。几周的培养成果,就这样在一次看似微小的操作偏差中被抹去。


这些不是极端案例,而是科研和高端制造的常态。

无论是硅片还是细胞,人类的双手都极其灵巧,却也难免出错;而传统AI的「数字大脑」再聪明,也看不见这些微妙的现实世界的实验细节。

但现在,哈佛大学刘嘉教授团队研发的人机共融智能(Human-AI Co-Embodied Intelligence)系统,让这些麻烦有了破解之道。

这一系统首次将人类研究者、具身AI智能体与可穿戴混合现实与增强现实(MR/AR)硬件深度融合,构建出一个与人类能够同时感知、推理并直接共同参与真实世界实验和制造过程的集成化智能平台。

人机共融智能范式:APEX系统与人合作完成智能制造

Agentic Lab——人机共融智能平台实现AI与研究员在类器官实验与生产中的实时协作


AI「脑瓜灵」,人类「手脚巧」,但很难配合


科学实验和高端制造,从来都是「精细活」。

既要严守SOP,又要根据实时情况灵活调整——这依靠的是人类专家多年积累的「手感」和判断力。

但无论是在芯片制造车间,还是在类器官培养皿前,一个共通难题始终存在:

1. 人类试错成本太高,新手成长慢。

哪怕是经验丰富的研究员,也可能因疏忽输错参数、漏记步骤,导致整批样品报废;新手要掌握 SOP 里没写的「隐性技巧」,往往需要数月甚至数年的师徒传承。

在生命科学实验室中,这种「隐性经验」尤其昂贵——培养一批细胞或类器官往往需要数周到数月,一次多消化几秒、试剂温度偏低几度,都可能让整个周期前功尽弃。

2. AI与物理世界「脱节」。

当下的AI模型已经能写出看似完美的实验设计、能解析数据图表,但仍被困在数字世界里——

看不见培养皿中细胞的状态变化,听不见实验台上的设备提示,也无法即时理解人类手部的操作。即便规划得再精密,也难落地到真实执行环节。


近几年虽有「自主实验室」出现,但受限于机器人「手脚」不够灵巧、环境感知不足,许多精密实验仍需人类临场应变与判断。

于是,一个尴尬的矛盾愈发凸显:

  • AI拥有强大的推理与记忆,却缺少匹配的「具身感知」;

  • 人类拥有灵巧的双手与直觉,却难免出错、遗漏、遗忘。两者各有所长,却始终隔着一道「看不见的墙」。

那有没有可能——

· 让人类与AI真正「组队干活」? 

· 让AI不再只是冷冰冰的算法,而是能与人类共享视野、感知与操作的「实验伙伴」? 

· 把人类的灵活操作与长期经验,和AI的强大记忆力、上下文推理与不知疲倦的专注力结合,实现「1+1>2」的智慧共研?


人机共融智能
AI眼镜与多智能体协作的闭环


哈佛大学刘嘉教授团队正在打造一种全新的科研范式——人机共融智能(Human-AI Co-Embodied Intelligence)

在这一范式中,人类与AI不再是「指令与执行」的单向关系,而是通过多智能体的协作,共同感知、推理、决策与行动。

AI不只是屏幕里的大脑,而是真实世界中的合作者。

在微纳加工中:让AI理解「人」的动作


在微纳制造车间里,刘嘉团队开发的APEX(Agentic-Physical Experimentation)系统通过混合现实(MR)眼镜,以8K分辨率、32ms超低延迟捕捉研究员的手部动作、视线与环境变化。

这些实时信息成为AI理解物理世界的「感官输入」。

系统内部由四个智能体协作完成闭环:

  • 规划智能体把研究目标拆解成可执行的工序;

  • 上下文智能体识别设备状态、工艺参数与操作者行为;

  • 步骤跟踪智能体精准比对当前操作与SOP,判断进度;

  • 分析智能体整合视频、语音、设备数据,给出纠错与指导。

这四个智能体像一个默契的科研小组,让AI的推理与人类的动作实时对齐,在高速、复杂的加工现场实现「人机共研」。

实测中,APEX在工具识别和步骤追踪任务的准确率比GPT-4o、Gemini等多模态模型高出24%至53%,在动态物理环境下的稳定性与理解力均处于领先水平。

在生命实验中:让机器理解「生命」的细节


在生物实验室与生产中,团队开发的Agentic Lab让AI通过增强现实(AR)眼镜进入生命科学的世界。

系统由多个协作智能体组成——

以虚拟PI MolAgent为核心,连接知识检索智能体(knowledge retrieving subagent)、多尺度数据分析智能体(multi-scale data analysis subagent),单细胞分割与解释智能体(SingleObjectVision subagent),AR观测智能体(ObserverVision subagent),写作智能体(Composer subagent)等子智能体模块。


研究员在显微镜前操作时,AR眼镜捕捉第一人称视角,AI能即时识别实验阶段、监测潜在偏差,并以视觉提示或语音方式给出指导。

它还能自动解析显微图像:借助Cellpose-SAM分割+VLM文本描述+CLIP/SigLIP嵌入,构建出可解释的表型表示——AI不仅「看见」细胞,还能「理解」它们的状态。

在复杂的类器官培养中,系统可发现微小的形态异质性,指出可能的原因(如培养液营养不足或过度消化),并建议调整条件。

实测显示:Agentic Lab 的 ObserverVision在关键帧判断上与专家一致率72.3%,部分一致9.2%,合并一致率超过80%,实现了生命实验场景下真正意义的「人机共融协作」。

APEX人机共融界面,通过多智能体协作实现超净间里芯片制备阶段识别、操作纠错与实时指导,支持芯片制备的闭环协作

Agentic Lab的增强现实(AR)人机共融界面,通过多智能体协作实现实验阶段识别、操作纠错与实时指导,支持细胞与类器官实验的闭环协作


实测封神
三大核心能力,颠覆科研制造流程


在柔性电子制造的超净间里,APEX接受了严格的实战检验;而在细胞与类器官实验室中,Agentic Lab同样经历了真实场景的挑战。

两套系统从不同维度证明了:当AI与人类共融协作时,科研流程将被彻底改写。

APEX技术帮助工程师检查芯片制备参数和帮助新手使用仪器

1. 实时纠错:一秒预警,零失误操作

还记得开头那位「小李」吗?

在RIE反应刻蚀环节中,APEX通过MR眼镜的实时监测,在他输错参数的那一刻便弹出提示:

警报:当前设置不正确……所需参数为30秒和50瓦。


即时反馈、即时修正——让潜在的损失在出现之前被扼杀。

而在Agentic Lab的AR环境中,当研究员在细胞传代或消化阶段操作超时、液体体积不符时,AR眼镜会在第一时间检测异常并发出提醒,避免细胞过度消化、培养液污染等不可逆错误。成为实验台上真正的「第二双眼」。

Agentic Lab的持续学习与知识记忆演化示意图

2. 自动记录与分析:让每一步都可追溯

在制造车间里,APEX能自动记录每一个操作参数、设备读数、环境快照和时间戳,形成一份结构化、可搜索的数字化实验日志。

当研究员事后追问:

上一次RIE步骤我设了多久计时器?


系统能立刻回应:

您在步骤5中设定了30秒,该步骤于[具体时间]完成。


无需再翻找零散记录——科研过程实现全链条可追溯。
不仅如此,APEX系统具备定制化实验记忆与智能分析能力,可实时记录、反馈并优化操作,结合历史数据,用户偏好,设备状态,与科研人员共同分析实验并共创新的实验方案。
在Agentic Lab中,这一理念同样被延伸至生命科学领域:系统不仅记录实验动作与参数,还能自动生成多模态分析报告。

通过VLM模型解析显微图像、表格与文本,AI能实时给出细胞状态评估、分化进度判断及优化建议。

每一次实验都会沉淀为结构化的「数字实验记忆」,可被搜索、复现、甚至被AI用来反思与改进下一次实验。

3. 技能迁移与智能共研:让新手秒变专家

在APEX的3D视觉提示与语音指导下,新手仅需一次训练,就能流畅完成复杂的八步RIE流程。

他们的操作水平几乎与专家无异——过去需要数月才能掌握的技能,如今几天即可。

在生命实验室里,Agentic Lab的表现同样惊艳。

借助AR指导界面与Agentic Lab的智能推理,新手研究员在仅有一次示范后便能完成类器官培养的关键步骤,准确率接近资深专家水平。

系统还能根据用户习惯调整提示方式,实现真正意义上的「个性化实验伙伴」。


从「人机配合」到「人机共融」
物理AI的未来已来


APEX的出现,让AI第一次真正走进制造现场;Agentic Lab的诞生,则让AI开始理解生命本身。

它们共同构成了「人机共融智能」的两翼——一个在工厂中与人共造器件,一个在实验室里与人共育细胞。

这种范式的跃迁,让智能不再局限于数字世界,而是通过人类的双手,延伸进物理现实。

未来,这一体系将进一步拓展:从柔性电子到生物医学,从化学合成到组织制造,AI将与研究员共同构建一个跨学科、自进化的实验生态

过去,我们追求让AI替代人类;如今,我们正让AI与人类共生。

最强大的智能,不是取代,而是共融。

从芯片到细胞,从器件到类器官——人机共融的时代,已经到来。

原文链接:

APEX:http://arxiv.org/abs/2511.02071

Agentic Lab:https://www.biorxiv.org/content/10.1101/2025.11.11.686354v1

参考文献:

[1] Akinwande, D. et al. Graphene and two-dimensional materials for silicon technology. Nature 573, 507-518 (2019).
[2] Tang, X. et al. Flexible brain-computer interfaces. Nat. Electron. 6, 109-118 (2023).
[3] Jordan, M. I. & Mitchell, T. M. Machine learning: Trends, perspectives, and prospects. Science 349, 255-260 (2015).
[4] Achiam, J. et al. GPT-4 technical report. Preprint at arXiv (2023).
[5] Lin, Z. et al. Spike sorting AI agent. Preprint at bioRxiv (2025).
[6] Swanson, K. et al. The Virtual Lab of AI agents designs new SARS-CoV-2 nanobodies. Nature 646, 716-723 (2025).
[7] Jia, Y. K. et al. Robot-assisted mapping of chemical reaction hyperspaces and networks. Nature 645, 922-931 (2025).
[8] Darvish, K. et al. ORGANA: A robotic assistant for automated chemistry experimentation and characterization. Matter 8, 101897 (2025).
[9] Lin, X. et al. Human-AI co-embodied intelligence for scientific experimentation and manufacturing. Preprint at arXiv (2025).
[10] Wang, W et al. Agentic Lab: An Agentic-physical AI system for cell and organoid experimentation and manufacturing. Preprint at bioRxiv (2025).

秒追ASI⭐点赞、转发、在看一键三连⭐点亮星标,锁定新智元极速推送!

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652646259&amp;idx=1&amp;sn=47156bf7230eeb78834f573638eeb4e1&amp;chksm=f08cdbf811d5db1d9b27573e6f5ea9bc95d5ed74e761926bc09d2a9666223106a9abd5d9f206&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/GaT2hfrTNI&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们