动态列表

  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线

字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动

图片

近日,字节跳动 Seed 团队发布了最新的机器人研究成果——Robix,一个旨在提升机器人思考、规划与灵活交互能力的「机器人大脑」。

图片

  • 标题:Robix: A Unified Model for Robot Interaction, Reasoning and Planning

  • ArXiv:https://arxiv.org/abs/2509.01106

  • 项目主页:https://robix-seed.github.io/robix/

长期以来,通用机器人在处理复杂、长程任务时,往往因依赖 “模块化” 拼接的设计而显得僵化。Robix 的核心亮点在于其一体化架构:将推理、任务规划与人机交互无缝整合到单个端到端多模态模型中。

根据报告与演示视频,搭载 Robix 的机器人已展现出一系列过去难以实现的复杂交互能力:

  • 在做饭时,它不仅能根据菜名(如「鱼香肉丝」)准备食材,还能主动发现缺少配料并询问是否需要补齐;

  • 在用户中途改变主意时,它可立即停止当前操作并灵活执行新指令;

  • 在你随手涂鸦时,它能识别出画中的物体,并自然地给予回应与赞赏;

……

以下演示视频将直观展示 Robix 在真实互动场景中的工作方式。

核心思想:从「指令执行器」到「统一思考者」

在将 AI 从数字世界带入物理现实的过程中,研究者们面临着巨大的挑战。一个真正的通用机器人,需要的远不止是执行「拿起杯子」这样的孤立指令。它必须在开放、动态的环境中,应对一系列复杂难题:

  • 理解模糊指令:如何领会「等大家吃完再收盘子」这样带有隐含条件的指令?

  • 处理实时反馈:当用户突然说「那个杯子别动」时,如何实时中止并调整计划?

  • 动态推理决策:在动态环境中,基于实时感知进行推理,并在物理约束下做出合理决策。

为此,Robix 采用了层次化机器人系统 (Hierarchical Robot System) 架构,将「大脑」与「小脑」解耦,实现「宏观思考,微观执行」:

  • 高阶认知层 (High-level Cognitive Layer):扮演「决策大脑」的角色,负责处理复杂的任务。它需要理解人类的指令,进行多模态推理,并制定出适应性的任务规划。Robix 正是为这一层而设计的。

  • 低阶控制层 (Low-level Controller Layer):扮演「行动小脑」的角色。它不负责「做什么」的决策,而是忠实地执行来自大脑的原子命令,如「拿起那个红色的苹果」、「向左移动 5 厘米」等。这一层通常由一个视觉 - 语言 - 动作(VLA)模型来实现。

通过这种分工,机器人系统既能在高层次上灵活地与环境和人类互动,又能在低层次上保证动作的精准执行,从而在真实场景中展现接近人类的适应性。

图片

Robix 是一个统一的视觉语言模型,充当机器人系统的「大脑」。它能够接收来自摄像头的第一视角信息和用户的自然语言指令,通过推理思考,生成既能与人沟通的自然回复,也能驱动机器人执行的原子级动作指令。

Robix 技术报告指出,现有多模态模型在迈向通用机器人「大脑」的过程中仍面临两大瓶颈:一是具身推理能力不足,难以将语言和视觉中的抽象概念(如空间关系、物体属性)准确映射到物理世界并应用于推理与规划;二是灵活交互能力缺失,无法在端到端框架中将推理、规划与自然语言交互无缝结合。这些局限严重制约了多模态模型在真实环境中支撑通用机器人智能的潜力。

为此,Robix 采用统一视觉语言模型架构,通过持续预训练增强具身推理能力,并在内部原生整合推理、任务规划与人机交互三大核心功能,从而在端到端流程中实现连贯的复杂指令理解、长程任务规划与自然对话交流,有效提升机器人系统的通用性和稳定性。在此基础上,Robix 进一步展现出更强的交互智能:不仅能够在指令模糊或多解时主动发起澄清,还能在任务执行过程中实时响应中断并进行动态重规划,同时结合上下文与常识进行推理与决策,从而展现出超越以往模块化系统的灵活性与智能性。

现场实测:Robix 具备基础世界知识,工作交流两不误

技术报告中的概念可能有些抽象,但通过演示视频里揭秘机器人行动前的「内心戏」,我们可以清晰地看到 Robix 是如何工作的。

1.  不仅听懂「话」,更能领会「意」(常识推理)

在演示中,当用户提出要做一道「鱼香肉丝」时,Robix 的表现远超一个搜索引擎。

  • 知识调用:它首先根据内置的知识,回答出做这道菜通常需要木耳、胡萝卜、青椒以及葱姜蒜等配料。

图片

      演示视频截图 03:24

  • 视觉结合:接着,它观察桌上现有的食材,识别出其中有任务所需的胡萝卜和青椒。

图片

      演示视频截图 03:36

  • 主动规划:最关键的是,在备好现有蔬菜后,它能意识到任务并未完全满足,并主动提出帮助:「我把需要用到的蔬菜都放进去了。不过看起来你好像还缺木耳呢,需要我帮你找找吗?」

图片

      演示视频截图 03:44

2. 随时变通,从容应对「我改主意了」 (实时打断)

真实的人机交互充满了不确定性。在清理桌面的任务中,用户多次打断了 Robix 的操作。

当 Robix 正要将一罐可乐放入收纳盒时,用户突然说:「等等,我讨厌喝可乐,你把它扔了吧。」

Robix 立刻理解了这条与原计划完全不同的新指令,中止了「放入收纳盒」的动作,转而执行「扔进垃圾桶」。这种无缝的计划切换能力,是机器人在家庭环境中服务的关键。

图片

      演示视频截图 00:49

3. 从「被动响应」到「主动交互」(主动对话)

除了响应用户的指令,Robix 还能主动对话。

在清理任务的结尾,Robix 观察到桌子上只剩下一串葡萄。它没有被动等待新指令,而是主动进行任务总结并发起对话,询问用户:「桌子上就剩下这些葡萄了,要不要帮你打包?」,以此来确认下一步的行动。

图片

      演示视频截图 01:15

4. 「眼观六路」,理解真实的三维空间 (空间理解)

Robix 对空间的理解不是平面的,而是立体的。当面对一桌琳琅满目的物品时,用户提出了一个非常考验空间感的问题:「离你较远的这一排,从左往右数的第三个是什么物体?」

Robix 清晰地推理出桌上有远近两排物体,并准确地在远排从左到右定位到第三个物体,回答出:「这是一瓶矿泉水」。这背后是其训练数据中包含的大量多视角对应、深度估计、空间关系等 3D 空间理解任务的支撑。

图片

      演示视频截图 02:47

5. 不止是「工具人」,还能成为「聊天搭子」(通用交互)

除了完成任务,Robix 还展现了广泛的通用交互能力。

  • 视觉识别:它可以准确读出手机屏幕上的时间「16:17」,也能识别白纸上手写的汉字「测试用,勿动」。

  • 开放式对话:当用户展示一幅自己画的简笔画时,Robix 不仅能认出是「一头大象」,还能自然地给出「我觉得你画得非常棒!这头大象看起来很可爱,线条也很流畅」这样的评价,展现了成为一个有趣互动伙伴的潜力。

图片

      演示视频截图 02:30

揭秘背后:Robix 的「养成三部曲」

如此流畅智能的表现,背后是一套严谨而创新的三阶段训练策略。

第一步:打好基础 —— 学习物理世界的规则

为了让模型具备机器人的「物理直觉」,构建对物理世界的基本认知,研究团队在通用视觉语言模型(Qwen2.5-VL)的基础上,用约 2000 亿 token 的海量数据进行「补课」,重点强化三大机器人核心能力:

  • 3D 空间理解:通过多视角对应、3D 边界框检测、深度排序与估计等任务,让模型理解三维世界。

  • 视觉定位:通过边界框和中心点标注,让模型能准确地「看到」并定位用户指令中提到的物体。

  • 任务推理:基于海量机器人和第一视角数据集,训练模型判断「任务是否完成」、「这个动作可行吗」、「下一步该做什么」。

图片

      Robix 通过在海量数据上持续预训练构建对物理世界的基本认知

第二步:学会互动 —— 情景模拟中的「社交演练」

真实世界中复杂的人机交互数据非常稀缺。为此,团队设计了一套创新的「交互合成」流水线,将现有的机器人操作数据转化为包含七种复杂人机交互场景的数据集,包括:多阶段指令、约束指令、开放式指令、随时打断、无效 / 非法指令、模糊指令和人机闲聊。这相当于让 Robix 在模拟环境中经历了各种「极限拉扯」,学会了如何灵活应对。

图片

      Robix 训练数据构造「流水线」,涵盖了多种复杂的人机交互场景

第三步:自我完善 —— 纠正「思想与行动的偏差」

SFT 之后的模型有时仍会犯一些逻辑错误,比如「想法与行动不一致」(心里想着扔纸巾,手上却要去拿杯子)。为了解决这个问题,团队引入了强化学习,设计了一个特殊的「思想 - 行动一致性」奖励函数 ,这个机制就像一位严格的导师,不断纠正 Robix 的逻辑偏差,让 Robix 的思考逻辑更严谨,行动更可靠。

评估结果:Robix 在具身推理、任务规划与人机交互方面表现出色

研究团队通过一系列离线基准和在线真实任务测试,对 Robix 进行了全面的评估。

1. 基础感知与推理能力评估

在 31 个公开基准测试中,预训练后的 Robix-Base 模型在 3D 空间理解、视觉定位和任务推理等具身推理能力上表现出明显提升。

图片

      Robix 展现出比较强的具身推理和多模态理解能力

  • 3D 空间理解:在 8 个空间推理基准测试中,Robix-7B 和 Robix-32B 在其中 7 个任务上均优于其基座模型 Qwen2.5-VL,平均准确率分别提升 6.5 和 5.1 个绝对点;同时在 5 个任务中超过了业界代表性闭源多模态模型 Gemini-2.5-Pro,展现出优异的空间理解能力。

  • 视觉定位:在 8 个视觉 Grounding 基准测试中,Robix 均取得明显提升,其中 Robix-32B 在多个任务中优于闭源大规模模型。尤其是在多物体定位的 LVIS-MG 基准上,Robix-7B 和 Robix-32B 的 F1 分数较 Qwen2.5-VL-7B/32B 分别提升 39.6 和 25.0 个绝对点,显示出强大的目标定位能力。

  • 具身任务推理:在团队构建的 Agibot-ER 真实世界具身任务推理基准上,Robix-7B 和 Robix-32B 的准确率相比 Qwen2.5-VL-7B/32B 分别提升 12.8 和 7.2 个绝对点,体现了其在任务级推理上的优势。

2. 离线交互任务评估

为系统评估模型的长程任务规划和任务泛化能力,研究团队构建了三个离线评估集:AGIBot OOD(Out-of-Distribution)、Internal OOD 和 Internal ID(In-Distribution)。它们涵盖整理桌面、超市购物、制作三明治、洗衣服等二十余种日常任务类型,同时包含多阶段任务、约束性指令、交互式中断等多类指令形式,用于全面测试模型在复杂环境下的推理、规划与交互表现。

图片

      在离线交互数据测试中,Robix 展示了优异的复杂指令理解、任务规划和 OOD 泛化能力

  • 整体表现:Robix-32B-RL 在所有评估集上排名第一,优于目前的开源和闭源模型基线,展现出优异的推理、规划与交互能力。

  • 跨领域泛化:在两项跨领域(OOD)任务测试中,Robix-32B 的准确率分别领先 Gemini-2.5-Pro 11.8 和 3.0 个百分点,凸显较强的泛化能力。

  • 思维链推理:显式思维链显著增强了模型在 OOD 任务泛化与复杂指令理解上的表现。去除思维链的基线模型在 Internal OOD 基准上准确率下降 7.2 个点,在 Open Instruction 任务中更是下降 26.7 个点。

  • 强化学习增益:RL 阶段带来进一步提升。相比仅经 SFT 训练的版本,Robix-7B 与 Robix-32B 在 Internal OOD 基准上的准确率分别提升 8.3 和 3.3 个点,验证了 RL 在增强具身推理能力方面的有效性。

3. 真实世界在线评估

研究团队进一步将 Robix 部署到真实机器人系统(字节跳动 Seed 自研 ByteMini 双臂机器人)上,并在厨房、超市等贴近日常生活的场景中设置了五项在线评测任务:

  • Table Bussing(桌面清理):清理使用过的餐具、器皿和食物。

  • Checkout Packing(结账打包):在结账环节整理购买的商品并将其放入袋子或盒子中。

  • Dietary Filtering(饮食筛选):根据饮食限制(如无咖啡因)选择或排除食物与饮品。

  • Grocery Shopping(杂货店购物):根据用户指令推荐并选购杂货商品。

  • Tableware Organization & Shipment(餐具整理与运输):分类、打包餐具并将其运送到指定位置。

图片

      Robix + UMI 测试结果

在由人类标注员通过 UMI 设备充当低层控制器的测试中,Robix-32B 的平均任务完成率达到 92.6%,略高于 Gemini-2.5-Pro 的 91.0%,并显著优于 GPT-4o (64.3%) 和 Qwen2.5-VL-32B (28.0%)。

图片

      Robix + GR-3 联合评测结果

在与 Seed 自研的 VLA 模型 GR-3 结合进行端到端测试时,Robix-32B 的平均任务完成率达到 92.5%,同样优于 Gemini-2.5-Pro (88.2%) 和 GPT-4o (64.4%)。

研究人员进一步分析发现,基线模型性能下降的一个重要原因在于 VLM–VLA 的「指令对齐」问题。具体而言,高阶 VLM 生成的文本指令在语义上正确,但低阶 VLA 模型无法识别。例如,VLA 可以识别「奥利奥」,却无法理解「饼干盒」。此外,响应延迟也是大型商业模型在真实场景中面临的实际挑战,其响应时间有时超过 30 秒,难以满足实时交互需求。

总结与展望

Robix 的研究为通向更通用、更智能的具身智能体提供了一条可行路径。通过将推理、规划与交互融为一体,它使机器人更接近「善解人意」的智能伙伴。

当然,通往通用机器人的道路仍然漫长。研究团队也坦言,Robix 在高度动态场景中依旧存在局限,且亟需更强大的长期记忆机制。但可以肯定的是,Robix 已经为这一目标奠定了坚实基础。我们有理由相信,在不远的将来,一个既能高效完成任务、又能自然交流的智能机器人,将真正走入人类生活。

]]>

联系我们