专栏名称: 计算机视觉深度学习和自动驾驶
讨论计算机视觉、深度学习和自动驾驶的技术发展和挑战
目录
相关文章推荐
三联生活周刊  ·  外公离去,一个“90后”替母亲挑起了“大梁” ·  17 小时前  
新周刊  ·  煤炭大省,亟待破局 ·  16 小时前  
新周刊  ·  年初最令人上头的短剧,竟然是他们的 ·  20 小时前  
三联生活周刊  ·  当一个中年女性,不得不面对挚友在隔壁死去 ·  2 天前  
51好读  ›  专栏  ›  计算机视觉深度学习和自动驾驶

LMM-3DP:集成 LMM 规划器和 3D 技能策略实现可泛化操作

计算机视觉深度学习和自动驾驶  · 公众号  ·  · 2025-02-09 00:06

正文

25年1月来自UCSD的论文“Integrating LMM Planners and 3D Skill Policies for Generalizable Manipulation”。

大型多模态模型 (LMM) 的视觉推理能力和 3D 特征场语义丰富性的最新进展,拓展了机器人能力的范围。这些发展对于弥合 LMM 高级推理与利用 3D 特征场低级控制策略之间的差距具有巨大潜力。这项工作引入 LMM-3DP ,这是一个可以整合 LMM 规划器和 3D 技能策略的框架。该方法包括三个关键角度:高级规划、低级控制和有效集成。对于高级规划,LMM-3DP 支持对环境干扰的动态场景理解、具有自我反馈的批评智体、历史策略记忆和失败后的重试。对于低级控制,LMM-3DP 利用语义感知的 3D 特征场进行精确操作。在协调机器人动作的高级和低级控制时,代表高级策略的语言嵌入与 3D Transformer 中的 3D 特征场共同参与,以实现无缝集成。在现实厨房环境中对多种技能和长期任务的方法进行广泛评估。与基于 LLM 的基线相比,该结果表明,低级控制的成功率显著提高 1.45 倍,高级规划准确率提高约 1.5 倍。

LLM-3DP 如图所示:



制造能够执行现实世界中各种长期任务的通用机器人,是一个长期存在的问题。大语言模型 (LLM) 推动机器人技术的最新进步,这些模型在理解现实世界和常识推理方面表现出非凡的能力。一些研究利用 LLM 将抽象任务分解为一系列高级语言指令以进行规划 [1]、[2]、[3]、[4]、[5]、[6]、[7]、[8]、[9]、[10]。尽管 LLM 在各种现实世界任务中取得重大进展,但目前将其集成到机器人技术中存在几个主要缺点。首先,LLM 只能处理自然语言,而不能理解视觉,因此很难理解和适应需要丰富视觉信息的动态现实世界场景。此外,基于 LLM 的规划器通常依赖人类语言反馈来持续执行长期规划 [10]、[5]、[6],这严重限制自主性。然而,具有多感官输入的大型多模态模型 (LMM) 已成为一种强大的工具,可为机器人配备强大的视觉理解和跨各种环境的泛化能力。这使机器人能够根据环境变化调整语言规划。

现有的基于 LLM 的规划器,通常依赖一组预定义的原始技能进行低级控制 [1]、[2]、[11]、[12]、[3]、[13],这是大规模应用到开放世界环境的主要瓶颈。因此,对于大多数基于 LLM 的框架来说,如何以数据高效的方式获得能够适应新环境的鲁棒低级技能,是一个巨大的挑战。最近的一些研究使用 LLM 直接输出低级控制 [14],[15]。然而,它们只在相对简单的操作任务中有效,这些任务不涉及快速的高维控制。由于 3D 理解不足,LLM 通常会在需要有效理解场景 3D 结构的复杂环境中失败。此外,最近的研究利用视觉-语言模型 (VLM) 进行视觉基础研究,预测目标物体的边框或关键点 [16],[1]。尽管结果很有希望,但它们依赖于现成的 VLM,而这些 VLM 可能并未针对动态环境中的特定复杂任务进行完全优化。

LLM 作为任务规划器 。大语言模型 (LLM) 的最新进展极大地影响机器人在各种应用中的发展。值得注意的方法通常包括使用 LLM 生成高级规划 [1]、[2]、[3]、[4]、[20]。例如,SayCan [1] 通过生成可行的语言规划并采用affordance 函数来衡量技能的执行可能性,强调 LLM 非凡的常识推理能力。一些方法还利用 LLM 生成编程代码或符号 API 作为规划 [12]、[21]、[8]、[22]、[23]、[24]、[25]。然而,这些方法仅将自然语言指令作为输入,缺乏通过多模态感官观察感知世界的能力。因此,它们无法根据环境反馈调整语言规划,这严重限制它们在动态现实环境中的性能。由于 LMM 的出现,一些研究 [26]、[27]、[28] 利用 GPT-4V [17] 进行视觉输入规划。然而,他们只将 GPT-4V 用作一个固定的规划器,没有批评和自我改进。

低级机器人原语 。尽管在高级规划方面取得了重大进展,但之前基于 LLM 的语言规划器 [1]、[2]、[11]、[12]、[3] 强烈假设存在可靠的低级技能供高级规划器检索,这些技能通常是手动预定义的技能集。一些研究 [14]、[12]、[29]、[30] 使用 LLM 在文本中输出直接的低级控制,这对于应用高维控制的复杂现实世界任务是不切实际的。一些方法 [16]、[31]、[32]、[33]、[34] 还利用视觉语言模型 (VLM) 来推断基于语言的功能 affordance 并执行运动规划。然而,对于具有多种几何形状和复杂 3D 结构的具有挑战性环境,它们仍然缺乏准确的 3D 理解。然而,LMM-3DP 通过将高级规划器与语言条件 3D 策略相结合来解决这一挑战,该策略可以通过对场景结构的全面 3D 理解有效地学习新技能。

低级技能的 3D 表示 。为了学习针对各种技能的视觉模仿学习策略,大多数先前的研究 [35]、[36]、[37]、[38]、[39]、[40] 一直在利用基于 2D 图像的表示进行策略训练,而最近的研究越来越多地认识到 3D 表示相对于 2D 图像的优势 [41]、[42]、[43]、[44]、[45]、[46]。 GNFactor [42] 和 DNAct [43] 通过从视觉基础模型中提取 2D 特征来学习 3D 表示。然而,它们仍然需要费力的多视图图像收集来训练 NeRF [47] 模型,这对大规模部署构成了挑战。

如图所示LLM-3DP流水线:


用于高级规划的 LMM

带视觉反馈的规划 。在现实世界中,执行任务的最佳规划可能不是最初设计的规划。例如,你可能规划将蔬菜放在最喜欢的蓝色碗里作为晚餐,但当发现蓝色碗不可用时,你会改用红色碗。同样,在机器人规划中,机器人必须能够根据当前情况更新其规划,这需要在任务执行期间提供视觉反馈。将 GPT-4V 作为规划器集成到机器人的执行循环中,使其能够在每次执行技能后更新规划。这种设计,增强机器人适应动态场景(例如当存在环境干扰时)的能力,并在低级控制无法执行时重新尝试之前的技能。

评论家智体 。为了确保规划器生成的规划正确可靠,引入一个额外的评论家智体,以主动识别生成规划中的缺陷并不断自我改进。评论家智体仅将视觉观察和提出的规划作为输入(无需人工指令),它会检查下一步在当前情况下是否可行。如果评论家发现执行下一步将导致不良结果,则其推理将输入回规划器,然后规划器提出新规划。例如,规划器的输出很容易受到人类指令的影响。即使使用流行的提示技术 [49],这个问题仍然存在。如果人类指令是关闭所有抽屉,但场景中有些抽屉已经关闭,规划器仍可能生成一个涉及关闭所有抽屉的规划。但是,评论家可以准确地判断机器人不应该关闭已经关闭的抽屉,从而纠正规划器的错误。

终身学习 。目标是让规划器随着时间的推移而改进,并通过从过去的经验中学习来避免重复犯错,就像人类学习一样。然而,对规划器进行微调需要耗费大量的计算资源。相反,利用人类对 GPT-4V 输出规划和推理的批评,然后总结这些批评以进行上下文学习。这些总结被存储为记忆,供规划者将来参考。此外,规划者可以在必要时向技能库提出新技能,然后低级策略将根据这些新技能进行相应更新。例如,在烹饪任务中,如果没有点击技能,机器人就无法打开炉子。规划者会将点击技能确定为未来学习的必需技能。随着技能库的扩展,这种方法使提出的框架能够处理更复杂的任务。

如图所示是规划器如何在机器人执行期间更新规划的示例:


使用 3D 语义表征的技能学习

根据规划器生成的语言指令,训练一个语言条件化的 3D 策略,从人类演示数据中学习所需的低级技能。不是预测每个连续动作,而是提取关键帧动作并将技能学习转换为基于关键帧的动作预测问题。这种方法简化连续控制,并且在学习可处理新目标和环境的泛化策略时样本效率更高。







请到「今天看啥」查看全文