24年9月来自香港大学、松灵机器人、上海AI实验室、深圳大学和中科院自动化所的论文“RoboTwin: Dual-Arm Robot Benchmark with Generative Digital Twins”。
双臂机器人的有效协作及其工具使用能力,是机器人技术进步中越来越重要的领域。这些技能在扩展机器人各种现实环境中运行能力的方面发挥着重要作用。然而,由于缺乏专门的训练数据,进展受到阻碍。RoboTwin,是一个基准数据集,它将现实世界的遥控数据与数字孪生的合成数据相结合,专为双臂机器人场景而设计。使用 COBOT Magic 平台,收集有关工具使用和人机交互的各种数据。提出一种使用 AI 生成内容创建数字孪生的方法,将 2D 图像转换为详细的 3D 模型。此外,利用大语言模型来生成面向功能的专家级训练数据和特定于任务的姿态序列。
本文使用 AIGC 从由 Deemos 的 Rodin 平台支持的简单 2D RGB 图像构建 3D 模型。流程从生成机器人任务中涉及目标对象详细 3D 网格和纹理开始,这些网格和纹理来自单个真实世界图像。此功能可确保在模拟环境中高保真地重现真实世界场景。该过程首先将单个 2D 图像转换为包含详细几何图形、表面法线、线框和纹理的 3D 模型。这些功能增强了视觉真实感并确保与模拟物理引擎的兼容性。 3D 模型准备就绪后,为模型中对象的功能部件分配特定的坐标轴。例如,如图所示,对于锤子,一个轴与锤头对齐(标识功能部件),而另一个轴指示接近方向。这种战略对齐对于自动计算抓取姿势至关重要,这对于机器人操作和工具使用至关重要。抓取姿态是沿指定的接近方向轴垂直于功能部件的表面法线计算的,从而以最少的手动干预实现正确和高效的工具使用。
如图所示AIGC 和专家数据生成流水线。从单张 RGB 照片中自动提取目标分割和文本描述,然后生成 3D 几何图形、表面法线、线框和纹理贴图,以创建高保真模拟目标。利用目标的表面法线和姿态信息,可以分解和生成抓取姿势,并利用大模型的功能为任务零样本生成专家数据。