泡泡机器人君与很多在校学生交流过,发现有很多能力很强,探索欲望也很强的学生,由于指导老师没有特别多的实际项目,导致研究生期间,课题对自己的锻炼并不是特别充分,能力的提升也并不明显。
我们相信,只有从实际的项目中学习理论知识,以及相应的填坑技巧,你才能成长得更快。
这里,泡泡机器人特地与一些优秀的老师探讨,成立一个
【泡泡机器人开放课题专栏】
,建立一个名校的优秀教师与泡泡机器人粉丝中的庞大的学生团体之间的
联系的桥梁
。
我们的开放课题专栏的初衷是:
论文合作发表 + 项目实际锻炼 = 大家能力的提升
。
当您被选中参加开放课题的研发后,会有泡泡机器人的专业导师对大家定期进行相应的指导,引导大家完成项目的开发及探索。优秀的成员还有机会在开放课题结束后,与相关老师有进一步更深入的合作。
由老师提出一些开放的合作及探索科研题目,在泡泡机器人平台进行发布。
我们第一期【泡泡机器人开放课题专栏】请到的老师为:
布树辉
教授
,
西北工业大学教授,
博士
毕业于
日本筑波大学计算机科学系,
带领智能系统实验室,进行无人机视觉定位、导航,以及无人机协同地图构建的研究。
个人主页:
http://www.adv-ci.com/blog/about-me/
他为泡泡机器人的粉丝们提供的开放课题有如下四个:
设计图像匹配、定位算法,能够根据无人机拍摄的图像在航空地图集里找到对应的位置。如下图所示,无人机在一个未知位置拍摄了一张图片,需要在地图数据库中找到拍摄图像的位置,即红色框的位置。
要求:
1.
拍摄的图像与地图数据库的数据可能存在不一致,(拍摄时间、亮度存在变化等情况)。
2.
地图数据库比较大,
200
平方公里以上。
3.
拍摄图像与地图数据库的图像比例会存在很大的差异。
4.
计算效率比较高,在普通的电脑上,定位的速度在
0.5
秒以下。
参考思路:
Siamese Network
在无人机视觉定位后,找出匹配区域的在不同时间上拍摄图像之间所存在的差异点,并标注差异。
要求:
1.
对比图像对可能存在模糊、角度偏差、尺度不同、光照、旋转、部分缺失等问题
2.
能够应对细微的对齐误差,图像对齐等微小的非内容变化的差异能够忽略;但物体级别的差异能够识别、检测出来。
当前重建地图在原始地图中匹配上之后,如何将现有的图像有效自然的融合到原始地图中。
要求:
1.
当前图像跟原始地图匹配后,需要比较自然准确的与原始图像融合。
2.
原始地图存在残缺,模糊,角度、光照变化。
3.
定位速度没有过高的要求。
参考思路:
GANs
四、
无人机多机协同地图构建及机器地图的表达和保存和实时传输
能够利用多架无人机实时构建地图,并通过自组网技术相互传输各自的地图数据到其他无人机(或者使用主从模式,各个无人机将其地图数据传输到地面电脑,地面电脑进行地图的融合)从而实现快速、大范围的实时地图生成。
要求:
1.
机器地图应该尽量轻量化,且可增量式更新传输(传输速率
<4M bps)。
2.
多个无人机的飞行有一定的重叠,能够实时侦测出重叠区域,并优化重叠区域的地图。
3.
全局地图的生成能够达到实时速度,地图生成的延时小于
1
秒。