每天一分钟,带你读遍机器人顶级会议文章
标题:Unsupervised Motion Estimation of Vehicles Using ICP
作者:Tom Roussel, Tinne Tuytelaars, Luc Van Eycken
来源:2021 IEEE International Conference on Robotics and Automation (ICRA)
编译:方禄
审核:Zoe
这是泡泡一分钟推送的第 1022 篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权
预测动态目标的运动对于在环境中避障且导航时做出智能决策至关重要。本文提出了一个CNN模型,该模型通过单目序列图像来估计物体的三维运动。在不使用任何人工注释的情况下,通过ICP(迭代最近点)对齐一个物体在不同时刻的点云来训练此模型。作者在kitti数据集上将该方法与使用真值训练的模型做了比较,通过在更大的数据集上训练来改善该模型,否则在缺乏真值的情况是不可能实现的。本文还将该方法与一个使用简单跟踪方案估计运动的三维物体探测器进行了比较。
图4 KITTI跟踪数据集的示例。同一序列中的颜色表示相同的跟踪ID. 以数字形式观看最佳。
图5 运动估计结果显示在自上而下视角的三维点云中。红色是实例的初始位置,蓝色的点表示未来的位置,绿色的点表示沿模型估计的运动方向移动的初始点。被匹配的实例显示在点云下面。
图8 在帧边缘的两个点云的例子。两个时间点的点云以蓝色和红色显示。并且点云的长度是不一样的
Abstract
Anticipating the motion of dynamic objects iscritical for making intelligent decisions navigating throughan environment while avoiding collisions. In this work, wepropose a CNN model that estimates 3D motion of objectsusing sequences of monocular images. We show that we cantrain this model without using any manual annotations byusing Iterative Closest Points (ICP) to align pointclouds of anobject at different points in time. We compare our unsupervisedapproach to a model that was trained using ground truthsupervision, on the KITTI tracking dataset. We further improveour model by training our model on a larger dataset, whichwould otherwise not be possible due to the lack of ground truthdata. We also compare our approach with a 3D object detectorthat estimates motion using a simple tracking scheme.
如果你对本文感兴趣,请点击点击阅读原文下载完整文章,如想查看更多文章请关注【泡泡机器人SLAM】公众号(paopaorobot_slam)。
百度网盘提取码:9c79
欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。
有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!
泡泡网站:www.paopaorobot.org
泡泡论坛:http://paopaorobot.org/bbs/
泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!