专栏名称: 泡泡机器人SLAM
SLAM的最新资讯,干货内容。
目录
相关文章推荐
电池cbu  ·  LG 新能源:为 Bear ... ·  3 天前  
新机器视觉  ·  手搓ROS应用 | 全局规划与局部避障系统 ·  5 天前  
新机器视觉  ·  手搓ROS应用 | 全局规划与局部避障系统 ·  5 天前  
51好读  ›  专栏  ›  泡泡机器人SLAM

【泡泡一分钟】基于距离图像的自主车辆激光雷达定位

泡泡机器人SLAM  · 公众号  · 机器人  · 2023-06-01 06:30

正文

每天一分钟,带你读遍机器人顶级会议文章

标题:Range Image-based LiDAR Localization for Autonomous Vehicles

作者:Xieyuanli Chen,Ignacio Vizzo,Thomas Labe,Jens Behle, Cyrill Stachniss

来源:2021 IEEE International Conference on Robotics and Automation (ICRA)

编译:Salome

审核:Zoe

这是泡泡一分钟推送的第 1012 篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

基于地图的鲁棒、准确定位对于自主移动系统至关重要。本文利用3D LiDAR扫描生成的距离图像来解决在由三角网格表示的大规模室外环境的地图中定位移动机器人或无人驾驶汽车的问题。使用泊松曲面重建来生成基于网格的地图表示。基于当前LiDAR扫描生成的距离图像和基于网格地图合成的渲染视图,我们提出了一种新的观测模型,并将其集成到一个Monte-Carlo定位框架实现了较好的定位性能,并能很好地推广到不同的环境中。我们在不同环境和不同LiDAR扫描仪采集的多个数据集上测试了所提出的定位方法。实验结果表明,我们的方法能够在不同环境下可靠准确地定位移动系统,并以LiDAR传感器帧频在线运行,追踪车辆位姿。


图1:距离图像和三角网图的可视化。左图展示了作为地图使用的三角网以及从网格中渲染的合成距离图像。在网格图中,红色部分对应地平面,蓝色部分代表非地面结构。右图展示了同一位置的LiDAR点云和LiDAR扫描生成的对应距离像。


图2:本文方法概述。本文将LiDAR点云投影为距离图像,并将其与从网格地图中每个粒子位置渲染的合成距离图像进行比较。基于距离图像提出了一种新的定位观测模型,并将其集成到蒙特卡罗定位系统中,以估计车辆的后验位姿


图3:渲染示例。与点云表示的地图相比,三角网格更加平滑、紧凑。 在投影过程中,对于每个三角形,只需要投影三个顶点。而且三角形能够更好地表示不同物体之间的遮挡关系


图4:基于距离图像的观测模型。( a )局部热力图显示扫描在汽车位置相对于具有相同航向的地图的位置似然。红色阴影对应更高的权重。( b )同一位置改变偏航角时观测模型的航向似然。( c )本例中使用的Carla场景的自顶向下视图。


表Ⅰ:不同体素大小的推断时间。单位:毫秒


表II: IPB - Car数据集上的定位结果


表Ⅲ :不同传感器数据集上的定位结果


图5. IPB Car数据集上使用10000个粒子的定位结果。显示的是网格图、真实轨迹(黑色)、基于重叠的结果(蓝色)和本文方法的结果(橙色)


图6: 10次全球化试验不同观测模式的成功率。这里,我们使用序列00 (左)和序列01 (右)在IPB - Car数据集的地图中进行定位


图7. 提供GPS位置的MulRan数据集上的定位结果。上图表示纬度误差,中图表示经度误差,下图表示航向误差。


Abstract

Robust and accurate, map-based localization is crucial for autonomous mobile systems. In this paper, we exploit range images generated from 3D LiDAR scans to address the problem of localizing mobile robots or autonomous cars in a map of a large-scale outdoor environment represented by a triangular mesh. We use the Poisson surface reconstruction to generate the mesh-based map representation. Based on the range images generated from the current LiDAR scan and the synthetic rendered views from the mesh-based map, we propose a new observation model and integrate it into a Monte Carlo localization framework, which achieves better localization performance and generalizes well to different environments. We test the proposed localization approach on multiple datasets collected in different environments with different LiDAR scanners. The experimental results show that our method can reliably and accurately localize a mobile system in different environments and operate online at the LiDAR sensor frame rate to track the vehicle pose.


如果你对本文感兴趣,请点击点击阅读原文下载完整文章,如想查看更多文章请关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

百度网盘提取码:1234

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/bbs/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系[email protected]