专栏名称: 泡泡机器人SLAM
SLAM的最新资讯,干货内容。
目录
相关文章推荐
电池cbu  ·  LG 新能源:为 Bear ... ·  3 天前  
新机器视觉  ·  手搓ROS应用 | 全局规划与局部避障系统 ·  5 天前  
新机器视觉  ·  手搓ROS应用 | 全局规划与局部避障系统 ·  5 天前  
51好读  ›  专栏  ›  泡泡机器人SLAM

【泡泡一分钟】使用物体位姿估计的无目标多相机激光雷达外参标定

泡泡机器人SLAM  · 公众号  · 机器人  · 2023-06-15 06:30

正文

每天一分钟,带你读遍机器人顶级会议文章

标题:Targetless Multiple Camera-LiDAR Extrinsic Calibration using Object Pose Estimation

作者:Byung-Hyun Yoon, Hyeon-Woo Jeong, and Kang-Sun Choi

来源:2021 IEEE International Conference on Robotics and Automation (ICRA)

编译:许士林

审核:Zoe

这是泡泡一分钟推送的第 1016 篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

我们提出了一种使用物体位姿估计来标定多个相机和一个LiDAR传感器之间的外参的无目标方法。与需要特定几何特征的先前无目标方法相比,所提出的方法利用场景中任何未指定形状的对象来估计单扫描配置中的标定参数。场景中的语义对象最初是从每个模态测量中分割出来的。使用多幅图像,按比例重建三维点云。通过将缩放后的点云注册到LiDAR点云,我们实现了初始标定,并找到了点云段和图像对象段之间的对应关系。对于每个点云段,将重建三维网格模型。基于对应信息,可以利用图像内的对应对象实例片段来精细地生成网格的颜色外观模型。从初始标定开始,通过使用具有与3D网格模型相关联的外观模型的物体位姿估计技术来逐步细化标定。实验结果证实,所提出的框架在单次拍摄中成功地实现了多模态标定。所提出的方法可以有效地应用于无特定目标的单扫描配置的数十个相机的全光成像系统的外参标定。

图1 所提出的多相机LiDAR外参标定方法的概述。


图2 所提出的对象实例分割方法结果的一个例子。(a)输入图像。(b)语义分割。(c)基于谱聚类的分割。(d)语义集群合并。


图3 轮廓修正用于准确的外观模型估计。(A)轮廓投影的未对准轮廓定义了错误的前景和背景区域。(B)与网格模型相关联的对象分割的轮廓。


图4 改进M到S一致性的网格修剪。(a)第一次迭代。(b)第三次迭代。


图5 合成数据生成配置。用激光雷达和三台摄像机拍摄了一个装有办公家具的房间。LiDAR传感器是固定的,摄像机沿着仰角和方位角方向移动,与场景中心的距离相同,以分别生成用于实验的数据集1和2。


图6 图5中橙色椅子的噪声点云。


图7 针对合成数据集1和2的各种配置,所提出方法的外参标定结果。(a)通过改变激光雷达的感测噪声获得的结果。(b)通过改变对象数量获得的结果。第一列和第二列分别表示数据集1的旋转误差和平移误差,而第三列和第四列表示数据集2的旋转误差。


图8  通过在图像上投影LiDAR点云,对多模态传感器外部校准方法进行主观比较。第一行:使用纸板角的基于目标的方法[5]。第二行:使用框[6]的基于目标的方法。第三行:无目标方法使用线特征[12]。第四行:本文提出的方法。


图9 通过使用部分重建的3D模型和物体的颜色外观模型迭代估计物体位姿来优化初始标定。


Abstract

We propose a targetless method for calibrating the extrinsic parameters among multiple cameras and a LiDAR sensor using object pose estimation. Contrast to previous target-less methods requiring certain geometric features, the proposed method exploits any objects of unspecified shapes in the scene to estimate the calibration parameters in single-scan configuration. Semantic objects in the scene are initially segmented from each modal measurement. Using multiple images, a 3D point cloud is reconstructed up-to-scale. By registering the up-to-scale point cloud to the LiDAR point cloud, we achieve an initial calibration and find correspondences between point cloud segments and image object segments. For each point cloud segment, a 3D mesh model is reconstructed. Based on the correspondence information, the color appearance model for the mesh can be elaborately generated with corresponding object instance segment within the images. Starting from the initial calibration, the calibration is gradually refined by using an object pose estimation technique with the appearance models associated with the 3D mesh models. The experimental results confirmed that the proposed framework achieves multimodal calibrations successfully in a single shot. The proposed method can be effectively applied for extrinsic calibration for plenoptic imaging systems of dozens of cameras in single-scan configuration without specific targets.

如果你对本文感兴趣,请点击点击阅读原文下载完整文章,如想查看更多文章请关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

        百度网盘提取码:t7sr

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/bbs/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系[email protected]