点击下方
卡片
,关注
「3D视觉工坊」
公众号
选择
星标
,干货第一时间送达
扫描下方二维码,加入
「3D视觉从入门到精通」知识星球
(
点开有惊喜
)
,星球内凝聚了众多3D视觉实战问题,以及各个模块的学习资料:
近20门秘制视频课程
、
最新顶会论文
、计算机视觉书籍
、
优质3D视觉算法源码
等。想要入门3D视觉、做项目、搞科研,欢迎扫码加入!
作者 | 孙成浩 编辑 | 3D视觉之心
原文链接:https://www.zhihu.com/question/660844700/answer/89494980006
已经(基本)解决的问题
-
-
-
工程上的一些不足(多数从业者可以解决的问题)
-
视觉slam:低纹理场景下鲁棒性不足(可以通过引入多摄像头和以superpoint为代表的学习类匹配方法改善)
-
激光slam:几何结构相似场景的定位/重定位(面对具体业务场景,可以通过多种trick解决,例如加反光柱)
-
通病:高动态场景地图的维护与稳定定位(建图时选择静态场景,定位时轮式机器人通过轮速计,腿式机器人通过pdr实现定位约束)
-
更低的占用,更高的频率,更高的精度与鲁棒性。这些其实不是问题哈哈哈,看具体项目吧。
真正的危机
-
如何长时高动态的自动地图维护:面对以年为时间单位的动态地图,如何自主的维护地图,并智能实现高召回率的重定位与鲁棒的定位。
-
如何建立更好的语义地图。如何使用预训练的vlm模型,建立一个高信息密度的语义地图,实现多种地图查询任务。这涉及到大模型,具身智能,导航等相关技术,未来的slam肯定不是一个独立的工作站,而是要向端到端靠拢。
-
slam这个技术栈的重要性在减弱。面对大多数场景,其实不需要高精度的定位(想想人类的定位模式)。在具身智能时代,我们更希望机器人在简单的
拓扑地图
先验下,使用粗精度(米级)的定位与实时环境感知完成导航与操作任务。
本文仅做学术分享,如有侵权,请联系删文。
3D视觉交流群,成立啦!
目前我们已经建立了3D视觉方向多个社群,包括
2D计算机视觉
、
最前沿
、
工业3D视觉
、
SLAM
、
自动驾驶
、
三维重建
、
无人机
等方向,细分群包括:
工业3D视觉