一个只有150万参数的神经网络模型,让机器人的运动像极了人类!
在当下动辄上千亿参数的AI大模型时代,英伟达GEAR实验室的研究团队却用一个
小得不能再小的模型
,实现了人形机器人的精准控制。
微型模型背后的大智慧
HOVER —— 这个仅有150万参数的神经网络模型,却承担着人形机器人的「潜意识」角色。
它能协调机器人的每一个运动部件,实现行走、保持平衡,以及将手臂和腿部移动到预期位置。
听起来很简单?
来看看它有多厉害!
疯狂的训练速度
在英伟达的Isaac模拟套件中,这个小模型经历了堪称「疯狂」的训练过程。
想象一下:
机器人在虚拟「道场」中进行了相当于一年的高强度训练,但实际只用了
50分钟
!这就是GPU加速带来的奇迹 —— 物理模拟速度提升了
1万倍
。
更神奇的是,训练完成后,这个模型可以
直接在真实世界中使用
,无需任何微调。
灵活的控制模式
HOVER支持多种高级运动指令控制模式:
头部和手部姿势
—— 可以通过Apple Vision Pro等XR设备捕捉
全身姿势
—— 通过动作捕捉或RGB摄像头实现
全身关节角度
—— 借助外骨骼装置
根部速度命令
—— 使用摇杆控制
这样的设计带来了三大优势:
-
统一接口
—— 可以使用任何方便的输入设备控制机器人
-
简化数据收集
—— 更容易获取全身遥操作数据用于训练
-
高级指令转换
—— 将视觉语言动作模型的指令实时转换为低级电机信号
背后的技术秘密
英伟达团队的这个「小而美」的方案,需要三个关键要素:
硬件与仿真共生
:仿真不再是事后考虑,而是硬件设计过程中的重要组成部分。
人类动作数据集
:利用电影和游戏角色的动作捕捉数据,让机器人的动作更自然。这些数据可以用于:
并行强化学习
:在Isaac模拟器中进行大规模随机化训练,通过PPO算法实现。
HOVER支持任何可以在Isaac中模拟的人形机器人。正如研究团队所说:「带上你的机器人,看它活起来!」