CV君 2025-10-07 15:32 江苏
性能炸裂,为事件相机运动估计开辟新道路!
大家好,今天想和大家聊一篇非常有意思的新工作,来自电子科技大学、香港科技大学和西南交通大学的研究者们,他们关注的是一个越来越火的领域——事件相机(Event Camera)。
这篇被 TPAMI 2025 录用的论文,标题为《Learning Efficient Meshflow and Optical Flow from Event Cameras》,不仅提出了一个全新的任务——基于事件的网格流估计(event-based meshflow estimation),还带来了一整套解决方案,包括一个大规模数据集和一个超高效的模型。
简单来说,事件相机是一种模仿生物眼睛工作原理的传感器,它不像传统相机那样固定频率曝光,而是只在像素亮度发生变化时才产生“事件”信号。这让它在处理高速运动和高动态范围场景时优势明显,不会产生运动模糊。而“Meshflow”则是一种稀疏的运动表示,它通过追踪网格顶点的位移来描述场景的动态,比计算每个像素运动的光流(Optical Flow)要高效得多。
作者们发现,虽然事件相机好处多多,但在 Meshflow 估计这个方向上,还存在两大难题:一是缺少专门的、带标注的数据集;二是事件数据本身密度不均的问题一直没得到很好的解决。
论文标题: Learning Efficient Meshflow and Optical Flow from Event Cameras
作者: Xinglong Luo, Ao Luo, Kunming Luo, Zhengning Wang, Ping Tan, Bing Zeng, Shuaicheng Liu
机构: 电子科技大学; 香港科技大学; 西南交通大学
录用信息: Accepted by TPAMI 2025
面对这些挑战,作者们可以说是“从无到有”地搭建了一套研究框架。
挑战与动机:为何需要新的数据集和方法?
事件相机虽然强大,但不同设备、不同场景下采集到的事件数据,其“密度”——即事件点的数量和分布——千差万别。如下图所示,现有的几个真实世界数据集(240C, MVSEC, DSEC, EventVOT)的事件密度分布几乎没有重叠,分辨率也各不相同,这给模型的泛化能力带来了巨大挑战。
此外,当时领域内还没有专门为 Meshflow 任务设计的大规模事件数据集,这极大地限制了相关研究的展开。
HREM/HREM+:首个大规模事件Meshflow数据集
为了解决数据荒的问题,作者首先构建了一个大规模、高分辨率(1280x720)的事件Meshflow数据集,命名为 HREM (High-Resolution Event Meshflow)。
上图展示了整个数据生成流程。他们从3D场景和相机参数出发,生成高帧率视频和密集的光流,然后通过事件模拟器生成事件数据,并最终处理得到作为基准真相(Ground Truth)的 Meshflow 标签。
为了让大家更直观地理解,上图展示了从密集光流生成稀疏 Meshflow 的过程,通过对网格顶点的运动进行中值滤波,最终得到平滑且鲁棒的运动场。
相比之前的同类数据集,HREM 的优势非常明显:
不仅如此,为了研究事件密度对模型性能的影响,作者还将 HREM 扩展为 HREM+ ,这是一个多密度事件数据集,为模型的鲁棒性研究提供了宝贵的资源。
HREM+ 数据集中不同密度的事件数据可视化
EEMFlow:轻量且高效的事件Meshflow网络
有了数据,接下来就是模型了。作者提出了一个名为 EEMFlow (Efficient Event-based MeshFlow) 的轻量级网络。
这是一个精心设计的编码器-解码器架构,输入是两个时间窗口内的事件体素网格(Voxel Grid),输出是预测的 Meshflow。它通过金字塔编码器提取多尺度特征,并利用扩张特征相关性(Dilated Feature Correlation)来计算代价空间(Cost Volume),最终由解码器输出结果。整个设计兼顾了速度和精度。
EEMFlow+:向密集光流的升级
作者并未止步于稀疏的 Meshflow,他们将 EEMFlow 升级为 EEMFlow+ ,使其能够支持密集的事件光流估计。这里的关键是一个名为 CDC (Confidence-induced Detail Completion) 的模块。
CDC 模块结合了基于密集卷积网络的自修正器(Self-corrector)和基于自注意力机制的自相关(Self-correlation),能够在从粗到精的光流恢复过程中,有效地修正双线性上采样带来的误差,从而保留清晰的运动边界。
ADM:应对变化的事件密度
为了解决前面提到的事件密度不一的“老大难”问题,作者还设计了一个即插即用的 ADM (Adaptive Density Module) 模块。
ADM 能够自适应地将输入事件数据的密度调整到一个更优的范围,这极大地增强了模型在不同场景、不同设备下的泛化能力。
惊人的实验结果:速度与精度的双重胜利
是骡子是马,拉出来遛遛。EEMFlow 的表现确实没让人失望。
从上图的计算开销与精度对比中可以看到,EEMFlow(红色圆圈)在保持极低端点误差(EPE)的同时,推理时间大幅领先,参数量也极小。
在 HREM+ 数据集上的定量比较更是直接。与近期的SOTA方法(如ERAFT)相比,EEMFlow将推理时间减少了92%(从93 ms减少到7 ms),参数量也大幅减少,而精度(Avg EPE)却依然领先。
定性效果如何?来看几组对比。
在HREM数据集上的Meshflow估计效果对比,EEMFlow的结果更接近真实情况。
使用估计的Meshflow进行图像对齐,EEMFlow带来的鬼影更少,说明对齐更准。
在DSEC数据集上的光流预测对比,EEMFlow+ 的结果细节更丰富,边界更清晰。
此外,实验还证明了 ADM 模块的巨大价值。加入 ADM 后,EEMFlow 和 EEMFlow+ 的性能分别提升了约 8% 和 10%,展现了其强大的泛化能力。
CV君觉得,这项工作最亮眼的地方在于它的系统性。作者不仅敏锐地指出了领域空白,还亲手填补了它——从构建高质量数据集到设计超高效模型,再到解决实际应用中的核心痛点(数据密度),一气呵成,为事件相机的运动估计领域铺设了一条宽阔的道路。
作者已经将代码和数据集全部开源,感兴趣的朋友可以去项目主页一探究竟。
大家对这个方法怎么看?欢迎在评论区留下你的看法!