泡泡图灵智库,带你精读机器人顶级会议文章
标题:A Robust Extrinsic Calibration Framework for Vehicles with Unscaled Sensors
作者:Celyn Walters, etc.
(the University of Surrey, UK)
来源:2019 IROS
播音员:
编译:郑帅康
审核:万应才,李鑫
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权
大家好,今天为大家带来的文章是 -- A Robust Extrinsic Calibration Framework for Vehicles with Unscaled Sensors 该文章发表于2019 IROS。
精确的传感器外参标定对于自动驾驶车辆和机器人都是至关重要的。传统上这是一个复杂的过程,需要校准目标和已知的基准标记,而且通常是在实验室进行。此外,即使是传感器布局上产生的一个小变化,也需要重新校准。为了解决这些局限性,我们提出了一个灵活的框架,可以估计外部参数而不需要一个明确的校准阶段,即使是未知规模的传感器。我们的第一个贡献是在标准手眼标定的基础上加入了尺度恢复。我们的第二个贡献是,通过收集独立的姿态集并自动选择最理想的姿态,我们的系统对不完美和退化的传感器数据具有鲁棒性。与以前的方法不同,我们的方法是实时运行的,并且不断地估计外部转换。通过一个理想的实验设置和一个实际的用例表明,我们比最先进的方法做得更好。此外,我们证明恢复的尺度可以应用于完整的轨迹,绕过了通过传感器融合进行尺度估计的需要。
针对手眼标定技术存在的只适用标度传感器、简并运动时退化、易受漂移影响等问题,提出了一个单一灵活的方案解决。
1)通过优化相似矩阵,同时求解外部变换及其对应的尺度。使得单目相机可以像其他标度传感器一样校准。
2)框架可以在观察时更新单个参数,实时运行不需要专门干预,从而在缺乏视觉特征时保持健壮性。
3)框架减轻了由低可观性和噪声引起的漂移,这些影响通常会干扰IMU和VO的处理。
另外,方案消除了视觉测程系统中可能由GPS校正或闭环检测产生的不连续性。由于不使用直接测量,校准与数据来源无关,故可以灵活选择VO或SLAM算法。
我们的外参标定框架允许传感器及其位置估计算法的全模块化配置。如下图所示,工作流程为:首先,从任意两个传感器(黑色块)收集时间对齐的位姿,使用每个位姿集合(绿色块)获得传感器外参估计值,这些集合根据运动的类型和参数估计的质量来确定的。最后不断合并估计值(蓝色块)以获取随时间变化的稳定校准结果。
这些姿态可以由系统已在运行的VO/SLAM算法直接获取,而不需要额外计算。
手眼标定利用A和B的姿态进行估计外参。为了同时优化尺度,需要加入尺度参数,这里使用相似矩阵,需要非线性优化求解。损失函数利用Frobenius范数:
X即为外参。利用LM算法求解并且初始化为单位变换,也可以初始化为已知值。如果两个传感器都具有尺度,则式2中s因子接近1.0。固定该值可以减少自由度并提高精度。
真实环境中由于噪声和漂移,优化过程不会对输入姿态进行调整,这需要相机BA和IMU偏置估计等技术。更长的优化时间使6个自由度更有可能得到可观测的解,但长时间漂移带来了更大的误差。我们鲁棒的可缩放的手眼校准可以在无监督部署的系统中运行。为了隔离容易漂移或不连续的数据,迭代中的校准要在滑动窗口上反复进行,图2中纵坐标即是。迭代过程中第i次的外参为:
完整的解需要所有轴的变换,输入的数据也需要每个轴都存在旋转。在无旋转过程中,所有点附着在同一刚体上,相对于起始点产生相同的轨迹。此时存在无穷多的满足最小值的解。大多车辆旋转并不是自由的,大部分时间运动时外参都不可观测。利用位姿的特征值选择位姿窗口,以保证得到充分激励。非完整车辆利用特征值和位置的比作为旋转。这使得系统可以自动选择标定的时间,而不会在静止时标定。利用RANSAC剔除窗口中错误或简并运动。交叠窗口存在重复的位姿则分别进行独立的估计。当存在传感器之间距离的先验知识时,将权重和其欧式距离的乘积作为正则项可以加入优化中:
与其他方法比较结果如表1。结果表明双四元数方法在测量噪声较少时精度最高,而我们的方法更鲁棒适合实际情况。
结果表明单目SLAM刻度会随时间漂移,但我们的校准可以在运动充分的情况下对其校正。
Abstract
Accurate extrinsic sensor calibration is essential for both autonomous vehicles and robots. Traditionally this is an involved process requiring calibration targets, known fiducial markers and is generally performed in a lab. Moreover, even a small change in the sensor layout requires recalibration. With the anticipated arrival of consumer autonomous vehicles, there is demand for a system which can do this automatically, after deployment and without specialist human expertise.
To solve these limitations, we propose a flexible framework which can estimate extrinsic parameters without an explicit calibration stage, even for sensors with unknown scale. Our first contribution builds upon standard hand-eye calibration by jointly recovering scale. Our second contribution is that our system is made robust to imperfect and degenerate sensor data, by collecting independent sets of poses and automatically selecting those which are most ideal.
We show that our approach's robustness is essential for the target scenario. Unlike previous approaches, ours runs in real time and constantly estimates the extrinsic transform. For both an ideal experimental setup and a real use case, comparison against these approaches shows that we outperform the state-of-the-art. Furthermore, we demonstrate that the recovered scale may be applied to the full trajectory, circumventing the need for scale estimation via sensor fusion.
如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号。
点击阅读原文,即可获取本文下载链接。
欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。
有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!
泡泡网站:www.paopaorobot.org
泡泡论坛:http://paopaorobot.org/bbs/
泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!