作者:小柠檬 | 来源:3DCV
添加微信:dddvision,备注:SLAM,拉你入群。文末附行业细分群
标题
:
ARD-SLAM: Accurate and robust dynamic SLAM using dynamic object identification and improved multi-view geometrical approaches
论文
:
https://www.sciencedirect.com/science/article/pii/S0141938224000180
1、导读
在不断发展的自主导航领域,传统的可视同步定位和映射(SLAM)系统在动态环境中经常遇到挑战,这主要是由于它们依赖于静态环境的假设。为了应对这些局限性,我们推出了ARD-SLAM,这是一种突破性的动态SLAM方法,创新性地将全局密集光学跟踪与复杂的几何方法相结合。ARD-SLAM的核心创新在于其动态目标识别技术,该技术将几何运动信息与预期运动数据和谐地结合在一起。这种集成有助于对移动物体进行有效分割,从而大大减少它们对相机自我运动估计的影响。先进的多视图几何方法进一步增强了 ARD-SLAM,该方法强调选择匹配良好的特征点。这种方法有助于有效地管理动态场景,同时还可以减少计算负载。
2、主要贡献
ARD-SLAM的主要技术贡献概述如下:
动态目标识别策略:该策略融合了密集光流、空间聚类、数据融合和灵活的阈值技术。它经过定制,旨在最大限度地减少动态对象对相机运动估计的影响,这是传统SLAM系统中经常被忽视的一个关键方面。
增强型多视图几何算法:该算法擅长管理各种动态场景。它可以有效地选择最佳特征匹配来优化相机姿势,这是提高SLAM过程的鲁棒性和准确性的关键步骤。
对TUM和Bonn RGB-D数据集的广泛基准测试:ARD-SLAM已经过严格的测试,并在TUM和 Bonn RGB-D数据集上针对最先进的SLAM系统进行了基准测试。这些综合评估证明了ARD-SLAM的卓越性能,特别是在其在动态变化的环境中准确导航和映射的能力。
总之,ARD-SLAM不仅解决了SLAM技术在动态设置中的能力,而且大大提高了SLAM技术的能力。其动态对象识别的创新方法和改进的多视图几何结构使其成为VSLAM领域的突破性解决方案,在广泛的实际场景中提供更高的准确性、鲁棒性和实用性。
3、系统概述
本节全面概述了所提出的ARD-SLAM系统架构和方法。首先,介绍工作流程和模块。接下来,详细阐述了动态目标识别和改进的多视图几何的核心技术贡献。ARD-SLAM旨在解决ORB-SLAM3 在动态环境中的缺点,重点关注两个关键领域:动态物体识别和场景姿态细化。我们的框架基于ORB-SLAM3,因为它在静态环境中具有卓越的性能,正如先前的研究,所证明的那样。如图 1所示,ARD-SLAM的输入是立体声或RGB-D图像流。管道包括两个关键处理阶段:
图1.ARD-SLAM概述
动态物体识别
:该模块利用密集的光学跟踪来建立每个帧的初始姿态。通过K-means技术进行空间场景聚类,并基于这些聚类构建持久模型,可以有效地识别和分离帧中的动态对象。将前一帧的几何信息与当前帧的持久分布相结合,有助于计算用于精确运动分割的灵活阈值。
改进的多视图几何图形
:针对自主机器人遇到的各种动态场景(低、中和高),该模块评估动态内容的输入帧。它使用先进的多视图几何方法,为潜在的动态对象进行有效的图像分割、标签分配和掩码生成。这些信息对于改进相机姿态估计和进一步处理局部映射、环路闭合和全束调整至关重要。
使用深度信息作为输入的K均值聚类,(a)和(b)分别对应于输入和输出图像
所提出算法中动态关键点消除的示例
ORB匹配比较(a)原始光学跟踪和(b)密集光学跟踪
为了消除位于动态对象上的像素,原始RGB帧最初用于空间场景聚类
4、实验
作者在TUM和Bonn RGB-D数据集上对ARD-SLAM进行了评估和测试。
实验结果显示,与ORB-SLAM3、DynaSLAM、SD-SLAM、DGS-SLAM和OVD-SLAM等现有方法相比,ARD-SLAM在动态环境下表现更好。
在TUM数据集上,ARD-SLAM相较于ORB-SLAM3,平均减少了86.1%的绝对轨迹误差(ATE)和88.0%的相对姿态误差(RPE)。
在Bonn数据集上,ARD-SLAM相较于ORB-SLAM3、DynaSLAM、DGS-SLAM和OVD-SLAM,平均减少了37.8%的ATE和66.4%的RPE。
ARD-SLAM采用的方法在动态环境下进行有效处理,包括动态目标识别和多视角几何改进,从而提高了视觉SLAM系统的准确性和鲁棒性。
实验结果证明,ARD-SLAM在动态环境下的性能明显优于现有SLAM系统,具有更精确和适应性的解决方案。
5、总结
本文介绍了一种名为ARD-SLAM的新兴SLAM技术,该技术能够精确且健壮地在动态环境中进行同时定位和映射。作者指出,传统的SLAM系统在处理动态环境时存在局限性,因为它们依赖于静态环境的假设。为此,他们提出了一种创新且实用的解决方案,即结合全局密集光流跟踪和先进的几何方法进行动态对象识别和消除。他们详细描述了该方法如何利用深度信息进行空间聚类,通过密集光流跟踪估计每个帧的初始姿态,并构建一个持久的模型来分析每个空间聚类的持久运动模式。此外,他们还引入了一种灵活的阈值技术,以实现精确的动态分割。他们用TUM和Bonn RGB-D数据集进行了实验,结果表明,与现有的SLAM系统相比,ARD-SLAM在准确性和健壮性方面都有显著提升。
本文仅做学术分享,如有侵权,请联系删文。
3D视觉精品课程:
3dcver.com
3DGS、NeRF、结构光、相位偏折术、机械臂抓取、点云实战、Open3D、缺陷检测、BEV感知、Occupancy、Transformer、模型部署、3D目标检测、深度估计、多传感器标定、规划与控制、无人机仿真、三维视觉C++、三维视觉python、dToF、相机标定、ROS2、机器人控制规划、LeGo-LAOM、多模态融合SLAM、LOAM-SLAM、室内室外SLAM、VINS-Fusion、ORB-SLAM3、MVSNet三维重建、colmap、线面结构光、硬件结构光扫描仪。
▲长按扫码学习3D视觉精品课程
3D视觉学习圈子
3D视觉从入门到精通知识星球
、国内成立最早、6000+成员交流学习。包括:
星球视频课程近20门(价值超6000)
、
项目对接
、
3D视觉学习路线总结
、
最新顶会论文&代码
、
3D视觉行业最新模组
、
3D视觉优质源码汇总
、
书籍推荐
、
编程基础&学习工具
、
实战项目&作业
、
求职招聘&面经&面试题
等等。欢迎加入3D视觉从入门到精通知识星球,一起学习进步。
▲长按扫码加入星球
3D视觉交流群