动态列表

  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • SilentStriker:无声击溃大模型
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道
  • 比思维链准43%!逻辑脑+大模型直觉,推理可靠性大幅提升
  • 陶哲轩官宣AI数学基金首轮名单:29个项目瓜分1.3亿,数学界沸腾!
  • GPT-5仅23.3%,全球AI集体挂科!地狱级编程考试,夺金神话破灭
  • 一手奶瓶一手键盘!新手宝妈产假氛围编程,自研实用家庭App
  • 刚刚,DeepSeek-V3.1「终极版」重磅发布!最大提升超36%,V4/R2还远吗?
  • 为了千元机用户的「流畅权」,OPPO 为安卓换了个「引擎」
  • ​一年卖出 10 个亿,这是年轻人真正的「户外神器」
  • Teable 宣布完成数百万美元天使轮融资,让数据库「长出耳朵和手」
  • 博士申请 | 复旦大学魏龙老师课题组招收AI4Science方向博士/硕士/RA/实习生
  • Lumos-1登场!自回归 + 离散扩散合体:让大模型真正“构造”动态世界!
  • RLHF要下岗?Meta × 牛津搞出新套路:用算力教算力,大模型训练新范式来了!
  • 北京内推 | 智源研究院多模态交互研究中心招聘多模态/具身智能方向研究型实习生
  • 不到两千块,我拍到了专业级别的月全食|New Things
  • 苹果发布Manzano:一种简单可扩展的统一多模态大模型,其混合视觉Tokenizer统一了理解与生成任务,性能SOTA
  • 字节跳动SAIL-VL2登顶OpenCompass,开源高效多模态新标杆
  • 博后年薪40万到90万 | 东方理工朱文韬课题组招聘AI方向博士后、研究助理教授、访问学生、实习生
  • 黄仁勋出手,50 亿美元入股英特尔,英伟达一统「GPU+x86」生态
  • 巴菲特清仓比亚迪,期间股价上涨 38 倍;苹果折叠屏手机细节曝光;雷军年度演讲定档 9 月 25 日
  • 刚刚,Gemini「灵魂人物」官宣加盟xAI!马斯克火速转推背书
  • 靠10万+粉丝,北漂插画师秒贷款!华为全栈AI加速,让银行及时看见
  • 醒醒,LLM根本没有性格!加州理工华人揭开AI人格幻觉真相
  • 哈佛大佬都哭了!H-1B签证飙至10万刀,微软谷歌连夜召回全球员工
  • 马斯克xAI百天血战,100天狂招100人!联创实权被削,豪言干掉微软
  • 全球双榜SOTA!明略科技专有大模型 Mano开启GUI智能操作新时代
  • 谷歌Gemini IMO和ICPC夺金功臣之一被xAI挖走,马斯克直呼:起飞
  • 工业级3D世界构建提速90倍!全新框架LatticeWorld让虚拟世界「一句话成真」
  • 集合通信库VCCL释放GPU极致算力,创智、基流、智谱、联通、北航、清华、东南重磅开源
  • 告别视频“抽帧”理解,美国东北大学新算法GRT算法实现高效可扩展的高帧率密集视频理解
  • 【招生招聘】阿卜杜拉国王科技大学孟彦达博士组全奖博士、博后、实习、交流生
  • iPhone17 卖爆,官网发货延至双 11;比亚迪仰望 U9 赛道版开启预定;网友玩坏 iPhone「舌头刷抖音」
  • 「逆龄大脑药」首次人体试验!奥特曼押注RTR242,返老还童将要成真?
  • 终结CMU霸权,清华首次登顶CSRankings世界第一!北大AI领域夺冠
  • 大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升
  • OpenAI最新硬件2026年底亮相!狂挖苹果20+老将,首款神秘设备或将颠覆iPhone
  • 小扎AI眼镜当场死机,CTO自曝灾难级演示内幕:一个指令干趴自家服务器
  • 当大厂「卷」Agent,腾讯选择「下产线」
  • 陈天桥旗下AI公司MiroMind打造全球顶尖预测型大模型,性能登顶行业基准
  • OpenAI从苹果挖了20多人搞硬件,知情人士:苹果创新缓慢、官僚主义令人厌倦
  • Mini-Omni-Reasoner:实时推理,定义下一代端到端对话模型
  • TPAMI 2025 | DiffMVS/CasDiffMVS:一种置信度感知的扩散模型,实现轻量且准确的多视图立体三维重建
  • 北大等提出BEVUDA++,首次解决BEV感知跨域难题,夜间检测性能提升12.9%
  • iPhone 17 Pro 首日即现划痕;传 OpenAI 联手立讯做 AI 硬件;2025 年搞笑诺贝尔出炉

斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务

CV君 2025-09-26 11:03 江苏

让机器人像人一样‘看’和‘动’,不再是科幻。

最近,机器人领域的一项新进展吸引了我的注意。来自斯坦福大学研究者们,带来了一个名为 VisualMimic 的全新框架,让机器人只通过视觉模仿,就能完成一系列复杂的移动和操作任务。

想象一下,一个机器人能看着人类的动作,然后自己学会怎么搬箱子、踢足球,甚至还能在户外溜达,是不是有点科幻电影走进现实的感觉?这篇论文做的就是这件事。VisualMimic 这个名字也很有意思,“Visual”代表视觉驱动,“Mimic”则是模仿,合在一起就是“视觉模仿”,精准地概括了这项技术的核心。

下面是论文的基本信息,感兴趣的朋友可以深入研究:

为何需要VisualMimic?

让双足人形机器人在人们生活的复杂环境中自由行动并与物体交互,一直是机器人研究的终极目标之一。这不仅要求机器人有强大的全身控制能力,还需要它能像人一样“看懂”周围的环境。

过去的方法大多有两个极端:要么依赖外部的动作捕捉系统(就像电影特效里演员身上贴满的那种传感器),但这在现实世界中显然不实用;要么虽然能用机器人自己的摄像头,但在任务泛化上做得不好,换个新任务就“歇菜”了。

所以,研究者们面临的核心挑战是:如何将机器人自己的视觉感知(第一人称视角)和全身的运动控制无缝结合起来,并且让它学会的技能可以轻松迁移到各种新任务和新环境中?

VisualMimic的“独门秘籍”

为了解决这个难题,VisualMimic 采用了一种非常巧妙的 分层控制策略 ,把一个复杂的任务拆解成了两个相对简单的子问题来解决。

1. 底层:一个“任劳任怨”的运动追踪器 (Low-Level Keypoint Tracker)

这个底层控制器是个“通才”,它的任务很简单:给定一些关键点(比如手、脚、头的位置)的目标,它就负责控制机器人的全身关节,让这些关键点精确地运动到指定位置。它不关心具体要做什么任务,只负责精准执行。

为了训练这个追踪器,研究者用了一种“师徒模式”(Teacher-Student Scheme)。“老师”策略在训练时可以看到所有真实状态(比如机器人的精确位置),像开了“上帝视角”;而“学生”策略(也就是最终部署到机器人上的策略)只能看到机器人自己传感器的数据(摄像头画面和本体感觉信号)。通过模仿“老师”的动作,“学生”就能学会在信息不完全的情况下,仅凭自己的感知来完成动作追踪。

2. 高层:一个“运筹帷幄”的任务决策者 (High-Level Keypoint Generator)

这个高层控制器则是个“专才”,它针对具体任务进行训练。它的输入是机器人的视觉和本体感觉信息,输出的不是直接的电机指令,而是给底层追踪器的一系列“关键点目标”。

举个例子,如果要“踢球”,高层策略会根据摄像头看到的足球位置,决定抬哪条腿、抬多高、何时踢出,然后把这些意图转化成一连串脚和身体其他关键点的目标位置,交给底层去执行。

这种分层设计的好处是,底层的运动能力是通用的,可以复用在任何任务上。当需要学习新任务时,只需要训练高层策略来产生不同的关键点序列就行了,大大提高了学习效率和泛化能力。

从仿真到现实的“零样本”飞跃

CV君认为,这项工作最亮眼的部分在于实现了从仿真环境到真实世界的 零样本迁移 (zero-shot sim-to-real transfer)。这意味着在仿真环境里训练好的策略,可以直接部署到真实的机器人上使用,无需在真实世界里进行任何额外的训练或微调。

为了实现这一点,团队在训练过程中加入了一些关键技术,比如在底层策略中注入噪声,以及根据人类运动数据来规范高层策略的动作范围,确保生成的动作既有效又像人类,从而保证了训练的稳定性和最终策略的鲁棒性。

实验结果也确实令人印象深刻。

仿真环境中的各种任务:平衡球、推方块、够箱子、大力踢

在仿真中,机器人完成了平衡球、推方块、够箱子等多种任务。

在不同地点和时间,机器人都能很好地完成推箱子任务

更重要的是,在真实世界里,机器人成功完成了搬箱子、踢球、踢箱子等任务,甚至还能在户外草地这样的非结构化环境中稳定运行,展现了极强的泛化能力。

与没有使用“师徒模式”训练的策略(下图)相比,VisualMimic(上图)生成的踢箱子动作更像人类,也更有效

通过消融实验,研究者也验证了框架中各个模块的必要性。例如,下图展示了在训练底层追踪器时加入噪声增强的重要性,可以看到不加噪声(No Aug)的策略成功率会显著下降。

下表则进一步展示了不同模块对最终性能的影响,比如,没有视觉输入的策略(Blind)在需要视觉反馈的任务上表现很差,证明了视觉在这些任务中的核心作用。

同时,论文也对比了其他方法,如下表所示,VisualMimic 在多个任务的成功率上都展现了优势。

总结与展望

总的来说,VisualMimic 通过一种创新的分层控制和师徒学习机制,成功地将第一人称视觉和全身控制结合起来,为人形机器人赋予了强大的、可泛化的 loco-manipulation 能力。实现零样本从仿真到真实的迁移,无疑是向通用人形机器人迈出的重要一步。

作者已经开源了代码,这对于整个社区来说是个巨大的福音。鼓励对机器人技术感兴趣的朋友们去他们的项目主页看看视频,或者亲自上手试试代码。

你觉得这种视觉模仿学习的思路,未来还能用在哪些更有趣的机器人任务上?欢迎来评论区聊聊吧!

阅读原文

跳转微信打开

联系我们