动态列表

  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车

武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧

CV君 2025-10-02 13:22 江苏

当AI视觉遇上多传感器融合,SLAM的下一站在哪?武大给出了答案。

大家好,今天CV君想和大家聊一个机器人和自动驾驶领域的核心技术——SLAM。简单来说,SLAM(即时定位与地图构建)就是要解决一个根本问题:一个机器人在未知环境中,如何知道“我在哪?”以及“周围长啥样?”。这个问题解决了,才能实现真正的自主导航。

近年来,基于学习的“前馈式”视觉模型(Feed-forward Models)给SLAM领域带来了新的活力。它们能直接从图像中“看”出3D结构,在弱纹理等传统方法抓瞎的场景里表现出色。但这些新方法往往是“纯视觉”的,忽略了机器人身上其他有用的传感器,比如IMU(惯性测量单元)和GNSS(全球导航卫星系统)。

如何将新潮的AI视觉模型与经典的多传感器融合技术优雅地结合起来?来自武汉大学的研究者们给出了一个漂亮的答案——MASt3R-Fusion

技术背景:当“AI视觉”遇上“经典融合”

在MASt3R-Fusion之前,SLAM领域主要有两大技术路线:

  1. 经典几何方法:比如大家熟知的ORB-SLAM系列,它们通过匹配图像间的特征点来计算位姿,依赖多视几何,但在纹理稀疏或快速运动时容易失效。

  2. 前馈式视觉模型:比如近两年大火的DUSt3R、MASt3R等。这些模型用深度学习的方式,直接从两张图片回归出稠密的3D点云和匹配关系。它们见过海量数据,自带强大的3D空间先验,因此在弱纹理场景下非常鲁棒。但缺点是,它们是纯视觉的,存在尺度不确定性(地图可能会随时间整体变大或变小),而且没有利用IMU、GNSS这些能提供真实尺度和绝对位置的宝贵信息。

MASt3R-Fusion的目标,就是取二者之长,将前馈式模型的强大视觉感知能力与传统多传感器融合的高精度、全局一致性结合起来。

MASt3R-Fusion:优雅融合之道

MASt3R-Fusion的系统框架非常清晰,分为实时SLAM和全局优化两个主要阶段。

强大的视觉前端

系统的前端,也就是“眼睛”,采用了一个类似MASt3R的前馈式模型。它接收图像对,直接输出稠密的3D点图(pointmaps)和特征描述子。这为后续的位姿估计和数据关联提供了非常鲁棒和稠密的信息。

融合核心:因子图优化

MASt3R-Fusion的核心是一个基于“因子图(Factor Graph)”的优化框架。CV君打个比方,因子图就像一张“关系网”,上面有代表机器人状态(位姿、速度等)的“节点”,以及代表各种传感器测量信息的“边”(因子)。比如:

  • IMU预积分因子:提供了连续帧之间高频的运动信息。

  • GNSS因子:提供了全局绝对位置信息。

  • 视觉因子:提供了相邻或有重叠区域的帧之间的相对位姿关系。

整个系统就是通过求解这张“关系网”,找到一个最优的机器人轨迹和地图,使其最符合所有传感器的测量结果。

关键创新:从Sim(3)到SE(3)的桥梁

这里就引出了本文最核心的技术贡献。前馈视觉模型估计的位姿和地图是在一个“相似变换”空间(Sim(3))下的,也就是说它的尺度会漂移。而IMU和GNSS的测量是在真实的“米”为单位的度量空间(SE(3))下的。如何将这两种不同“语言”的信息融合在一起呢?

作者设计了一种新颖的基于Sim(3)的视觉对齐约束,并将其巧妙地转换为SE(3)因子图能够理解的形式。如下图所示,它不再像传统BA(Bundle Adjustment)那样联合优化所有地图点和相机位姿,而是基于前馈模型提供的可靠的(无尺度)3D结构,只优化相机位姿和点云的尺度。

通过引入“同构群变换”,论文在理论上完美地搭建了一座从Sim(3)到SE(3)的桥梁,使得视觉信息可以被严谨地、紧耦合地融入到多传感器优化框架中。

此外,系统还设计了分层的因子图结构,兼顾了实时性的滑动窗口优化和全局一致性的回环检测与优化,使得系统既快又准。

实验效果:精度与鲁棒性双丰收

MASt3R-Fusion在多个公开数据集和自采数据集上都取得了非常出色的表现。

在经典的KITTI-360数据集上,无论是VIO(视觉惯性里程计)的相对位姿精度,还是加入回环和全局优化后的绝对轨迹精度,MASt3R-Fusion都显著优于ORB-SLAM3、VINS-Fusion等知名系统。

在更具挑战性的SubT-MRS洞穴数据集上,面对弱纹理、光照变化剧烈的环境,MASt3R-Fusion的优势更加明显,轨迹精度远超其他方法。

在融合GNSS的城市场景测试中,MASt3R-Fusion表现出极强的鲁棒性。即使在GNSS信号出现粗差甚至中断100秒的情况下,系统依然能凭借强大的VIO性能和全局优化能力,保持亚米级的定位精度。

最后,系统还能实时重建出稠密且度量准确的3D地图,效果非常惊艳。

总结

总的来说,MASt3R-Fusion做了一件非常漂亮的工作:它没有在“学习派”和“几何派”之间做选择,而是将前沿的AI视觉模型作为了一个强大的“视觉传感器”,并将其无缝地、严谨地融入到了经典的多传感器融合优化框架中。这不仅发挥了AI模型在感知上的鲁棒性,也继承了传统优化方法在精度和全局一致性上的优势。

将学习方法和经典优化框架融合,是近年来SLAM领域的一大趋势,大家对此怎么看?欢迎在评论区留下你的看法!

阅读原文

跳转微信打开

联系我们