动态列表

  • 刚刚,清华物理传奇Yao Shunyu,跳槽谷歌DeepMind!
  • 赚100亿,烧1万亿!OpenAI算力神话:英伟达撒钱、AMD送股、全硅谷陪跑
  • 英伟达垄断AI算力局面或将被颠覆!AMD赌上身家发起决斗,奥特曼窃喜
  • 刚刚,2025年诺贝尔化学奖揭晓!偷溜进图书馆的少年,改变了世界
  • 小心,AI依赖会让你变笨!吴恩达等专家教你如何正确使用AI
  • IROS 2025 | Waymo与谷歌DeepMind联手提出Drive&Gen:用生成视频评估自动驾驶,虚拟测试更逼真
  • 陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂
  • 刚刚,奥特曼官宣ChatGPT「终极OS入口」!8分钟速搭智能体,8亿人狂欢
  • 顿悟不是玄学!港科大清华等联手:撕开推理黑箱,RL让AI像人思考
  • 4万亿帝国接班人浮出水面!苹果不需要另一个库克
  • 刚刚,2025年诺贝尔物理学奖揭晓!量子计算成最大赢家
  • 告别梯度!Evolution Strategies全参微调挑战PPO/GRPO:更稳、更省、更好复现
  • NeurIPS 2025 | 北邮用“图+文”把人物检索拉满:自动合成数据 × 细粒度特征对齐
  • MICCAI 2025 | 莱斯大学提出MetaSeg:参数减少90%,元学习隐式网络重塑医学图像分割
  • TPAMI 2025 | 电子科大等提出EEMFlow:从事件相机学习高效Meshflow与光流,速度提升30倍
  • OpenAI 与 AMD 签百亿美元协议,后者股价暴涨;特斯拉廉价 Model Y 将于 7 日发布;知名旅行、听歌应用入住 ChatGPT
  • 乔纳森下一个iPhone神话,要黄了?OpenAI秘密AI硬件深陷三重困境
  • 3年手搓ChatGPT!剑桥天才少年在Minecraft游戏中爆火回归
  • 一举击败Claude Code!微软提出代码生成黑科技:一键直出36K行代码
  • 刚刚,2025年诺贝尔生理学或医学奖揭晓!三位得主点燃器官移植希望
  • OpenAI入股AMD,股价暴涨35%!奥特曼左手黄仁勋,右手苏姿丰,通吃全球算力
  • 自进化Agent的第三种可能:隐式记忆,不动模型参数,胜过GRPO
  • 真实数据、全链路、可复核:GenoMAS打造更可信的基因分析智能体
  • NeurIPS 2025 | 慕尼黑工业大学提出SIM(3)等变网络:让3D形状补全告别“姿态偏见”,实现跨域泛化
  • NeurIPS 2025 | 高通提出GCL:无需额外数据,通用多模态检索迎来“一统江湖”新范式
  • 今日迎本世纪「最晚中秋月圆」;雷军:小米17 五天销量破百万;ChatGPT 或添私信聊天功能
  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • 奥特曼:感受不到GPT-5变强,是因为你还不够「专业」
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • 宾大提出F³:事件相机迎来“预测性”表征新范式,光流、分割、深度全SOTA!
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控
  • 陶哲轩联手GPT-5,1小时攻克数学难题!全程无需编码,OpenAI副总惊呼
  • 1亿签约金抢AI大神?谷歌AI元老劝退全网:别再读博了!
  • 三天逆袭,Sora登顶美榜!15秒大片玩疯奥特曼,全网直呼真假难辨
  • 10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!
  • 首位AI女演员出道!好莱坞「天敌」来了,下一代偶像全是代码制造?
  • 南理工提出FMC-DETR:巧用“频率解耦”,航拍小目标检测精度飙升8.2% AP50
  • 网红挑战特斯拉FSD穿越美国出车祸;小米回应「小米汽车突然自己开走」;Sora 登顶美区苹果商城免费榜
  • 刚刚,Anthropic紧急换帅!新任CTO执掌算力命脉,直面OpenAI千亿赌局
  • Gemini 3.0 Pro内测流出,编程实力惊人!下周上线
  • 刚刚,奥特曼首曝:AI取代CEO后,我想去当农民!
  • 华人主导谷歌SLED,论文登顶会!一键让模型学会自救
  • LeCun考虑辞职!Meta AI百亿豪赌引爆「内战」,逼走首席科学家
  • NeurIPS 2025 | RAD:基于大规模3DGS孪生数字世界的端到端强化学习训练策略
  • 小米 17 系列销量超百万;苹果新产品泄密源头疑为越南工厂;低价版 model Y 现身官网代码|极客早知道
  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员

告别深度传感器!慕尼黑工业大学提出DropD-SLAM:仅用单目RGB即可实现RGB-D级的SLAM精度

CV君 2025-10-08 12:09 江苏

单目SLAM迎来新突破,精度媲美RGB-D,成本大幅降低!

今天,我们来聊一篇非常有意思的SLAM领域新工作,来自慕尼黑工业大学和3Dwe.ai的研究者们。他们提出了一个名为DropD-SLAM的系统,这个名字很直白,意思就是“扔掉深度(Dropping the D)”。顾名思义,它的核心目标就是:在不使用深度传感器的情况下,仅通过普通的单目RGB摄像头,就达到甚至超越传统RGB-D SLAM的精度。

  • 论文标题: Dropping the D: RGB-D SLAM Without the Depth Sensor

  • 作者: Mert Kiray, Alican Karaomer, Benjamin Busam

  • 机构: 慕尼黑工业大学, 3Dwe.ai

  • 论文地址: https://arxiv.org/abs/2510.06216

研究背景:SLAM的两难困境

SLAM(即时定位与建图)技术是机器人和AR/VR领域的关键。目前主流的视觉SLAM方案主要有两类:

  • 单目SLAM:只用一个普通摄像头,硬件成本低、简单。但它天生有两个“硬伤”:一是无法确定真实世界的尺度(尺度模糊性),二是场景中一有动态物体(比如走动的人)就容易“翻车”。

  • RGB-D SLAM:使用带有深度传感器的摄像头(比如Kinect或RealSense),能直接获取深度信息,从而解决了尺度问题,对动态物体也更鲁棒。但缺点是硬件成本高、功耗大,而且在室外强光下或面对透明、反光物体时,深度传感器常常会“失灵”。

有没有一种方法,能兼具两者的优点,既有单目方案的低成本和便捷性,又能达到RGB-D方案的的高精度和鲁棒性呢?这正是DropD-SLAM想要解决的问题。

DropD-SLAM:化繁为简的“虚拟”深度传感器

作者的思路非常巧妙:既然物理的深度传感器有诸多限制,那我们能不能用一个“虚拟”的深度传感器来代替它?这个“虚拟传感器”不是硬件,而是由几个先进的、预训练好的视觉模型组成。

DropD-SLAM的整体框架如下图所示,它像一个“预处理器”,将单目RGB图像“转换”成带有深度信息的三维特征点,然后无缝地喂给一个完全未经修改的传统RGB-D SLAM后端(如ORB-SLAM3)进行处理。

这个“虚拟传感器”主要由三个并行的“专家”模块构成:

1. 单目度量深度估计器 (Monocular Metric Depth Estimator)

这是获取“尺度”的关键。研究团队采用像DepthAnythingV2或UniDepthV2这样强大的预训练深度估计模型,它们能直接从单张RGB图像中预测出具有真实物理单位(米)的密集深度图。这相当于为SLAM系统提供了一双能感知距离的“眼睛”。

2. 实例分割网络 (Instance Segmentation Network)

为了解决动态物体干扰的问题,系统使用YOLOv11等实例分割网络来检测图像中的“人”、“车”等常见动态物体。一旦检测到,就会生成一个掩码(mask),将这些区域的特征点过滤掉,确保只有静态背景的特征点被用于定位和建图。

3. 学习型关键点检测器 (Learned Keypoint Detector)

传统的特征点检测方法(如ORB)在纹理稀疏或运动模糊的场景下表现不佳。DropD-SLAM改用学习型方法(如Key.Net),它能更均匀、更鲁棒地在各种环境下提取高质量的关键点,为后续的姿态估计打下坚实基础。

通过这三个模块的协同工作,DropD-SLAM成功地从每一帧RGB图像中提取出了一组“干净”(无动态物体干扰)、“带尺度”(有深度值)的3D特征点,完美模拟了RGB-D摄像头的输出。

实验结果:精度与效率的双重胜利

那么,这个“虚拟”方案的效果究竟如何呢?作者在权威的TUM RGB-D数据集上进行了全面评估。

在静态场景中

结果显示,DropD-SLAM的平均绝对轨迹误差(ATE)低至 7.4厘米。虽然略逊于一些需要端到端联合优化的复杂单目方法(如DROID-SLAM的3.8cm),但已经达到了非常有竞争力的水平,并且其模块化设计更具灵活性。

在动态场景中

这才是DropD-SLAM大放异彩的地方。在包含大量人体走动的动态序列中,它的平均ATE仅为 1.8厘米!这个成绩不仅超越了所有现有的单目SLAM方法,甚至优于许多专门为动态场景设计的RGB-D SLAM方法(如DynaSLAM的2.8cm)。

运行效率

在单个NVIDIA RTX 4090 GPU上,整个系统能以 22 FPS 的速度实时运行,完全满足了实际应用的需求。消融实验也证明了每个模块的不可或缺性,例如,去掉动态物体过滤模块后,误差会急剧增加。

一个非常有趣的发现是,论文通过实验指出,对于单目SLAM而言,深度预测的 时间一致性 (Temporal Consistency)比单帧的绝对精度更重要。也就是说,一个模型即使每帧预测的深度都有点小偏差,但只要这个偏差是稳定、连续的,SLAM系统就能更好地工作。这为未来深度估计模型的设计提供了新的思路。

CV君认为,DropD-SLAM的模块化、即插即用设计哲学非常值得称道。它不仅展示了预训练大模型在传统几何视觉任务中的巨大潜力,也为未来的SLAM系统提供了一个灵活、高效且低成本的范式。随着视觉基础模型的不断进步,我们有理由相信,未来昂贵的深度传感器在许多应用中或许真的不再是必需品。

你觉得这种用“算法”代替“硬件”的思路,未来还会在哪些领域大放异彩?欢迎在评论区留下你的看法!

阅读原文

跳转微信打开

联系我们