|
SayCan:将语言落地于机器人Affordance 计算机视觉深度学习和自动驾驶 · 公众号 · 科技自媒体 · 5 月前 · |
|
|
MT-Opt:大规模持续多任务的机器人强化学习 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
RT-H:使用语言的动作分层 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
视频语言规划 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
3D-VLA:3D 视觉-语言-动作生成世界模型 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
在现实世界中微调离线的世界模型 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
扩散策略:通过动作扩散进行视觉运动策略学习 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
MANISKILL2:可泛化操作技能的统一基准 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
模型预测控制(MPC)的时间差分学习 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
TD-MPC2:可扩展、稳健的连续控制世界模型 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
ManiSkill:具有大规模演示的可泛化操作技能基准 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
视觉机器人操控的大规模视频生成式预训练 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
以目标为中心机器人操作的具身学习综述 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
大语言模型辅助 AI 规划的最新进展 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
通用操作界面:没有野外机器人,教野外机器人技能 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
利用潜动作进行行为生成 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
Mobile ALOHA:通过低成本全身远程操作学习双手移动操作 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
ALOHA:用于双手远程操作的低成本开源硬件系统 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
通过观看学习:基于视频机器人操作的学习方法综述 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|
|
多面手机器人从网络视频中学习:综述 计算机视觉深度学习和自动驾驶 · 公众号 · · 5 月前 · |
|