专栏名称: 我爱计算机视觉
关注计算机视觉与机器学习技术的最前沿,“有价值有深度”,分享开源技术与最新论文解读,传播CVML技术的业内最佳实践。www.52cv.net 微博:计算机视觉与机器学习,QQ群:928997753,52CV君个人账号:Your-Word。
目录
相关文章推荐
闹闹每日星运  ·  星历0213:天秤掌握时机 双鱼需要慎言 ·  昨天  
闹闹每日星运  ·  终极老实人,说谎自心疼 ·  昨天  
闹闹每日星运  ·  星历0212:狮子理智分析现状 水瓶增加自己收入 ·  2 天前  
闹闹每日星运  ·  不恋假期的标准牛马星座 ·  2 天前  
闹闹每日星运  ·  哪些星座女最可能成为他人的白月光? ·  3 天前  
51好读  ›  专栏  ›  我爱计算机视觉

SpatialBot 空间大模型:上交、斯坦福、智源、北大、牛津、东大联合推出!

我爱计算机视觉  · 公众号  ·  · 2024-07-31 14:27

正文




关注公众号,发现CV技术之美




大模型走向空间智能、具身智能之路!

智源,斯坦福,北大,牛津,东大联合推出SpatialBot , 通过理解和使用深度图来理解空间。

  • 论文标题: SpatialBot: Precise Depth Understanding with Vision Language Models
  • 论文链接: https://arxiv.org/abs/2406.13642
  • 项目主页: https://github.com/BAAI-DCAI/SpatialBot

RGB+Depth可以作为多模态大模型(MLLM/VLM)理解空间的途径,但是:

  1. 现有模型无法直接理解深度图输入。比如CLIP在训练时,没有见过深度图。
  2. 现有大模型数据集,大多仅用RGB就可以分析、回答。模型不会主动到深度图中索引知识。

因此,作者提出:

  1. 三个层次的 SpatialQA 数据集。在low level引导模型理解深度图,在middle level让模型将depth与RGB对齐,在high level设计多个深度相关任务,标注了50k的数据,让模型在理解深度图的基础上,使用深度信息完成任务。
  2. SpatialBench 榜单。精心设计和标注的QA,测试模型深度理解能力。
  3. SpatialBot 模型。模型在需要时,可以通过API获取准确的深度信息。SpatialBot基于3B到8B的多个base LLM,在SpatialBench、常用MLLM数据集(MME, MMBench等)和具身数据上取得显著提升。

技术细节

  1. 作者将深度图转化为3通道的伪RGB图,在兼顾室内高精度、室外大范围场景的需求下,尽可能保留所有深度信息供模型索引。以毫米为单位,囊括1mm到131m。
  2. SpatialQA是RGBD的MLLM数据集,作者公布了详细的如何将现有CV任务的RGB或RGBD数据集,MLLM训练集,转化为SpatiaQA的pipeline,以及其中的数据标注细节。
  3. 最近大火的Cambrain-1 (LeCun Yann, Saining Xie)提出MLLM四大问题,其中之一是物体远近关系判断(proximity)。其实,在此之前,在SpatialBot提出的DepthAPI, 就以99+%的准确率解决了深度信息和远近关系的问题。

实验效果和DepthAPI







请到「今天看啥」查看全文