专栏名称: Python新手营
数据,算法,人工智能
目录
相关文章推荐
黄建同学  ·  历史性的进步——准确率高达 ... ·  3 天前  
爱可可-爱生活  ·  本文提出了一种基于库拉莫托模型的动态神经元A ... ·  5 天前  
宝玉xp  ·  看到有人用 AI ... ·  1 周前  
人工智能学家  ·  升空!NASA 飞船向木星的海洋卫星探索生命存在 ·  1 周前  
爱可可-爱生活  ·  【Mini-Omni2:一款多模态交互模型, ... ·  1 周前  
51好读  ›  专栏  ›  Python新手营

终于实现!我们要让机器人拥有敏感而灵巧的触觉!

Python新手营  · 公众号  · AI  · 2017-06-25 19:48

正文

我  相  信  这  么  优秀  的  你 

 已  经  置 顶  了  我

翻译|朱敏 选文|小象  

转载请联系后台


8年前,MIT计算机科学与人工智能实验室(CSAIL)的Ted Adelson研究小组提出了一项新的感知技术,GelSight。


GelSight能通过与物件表面的接触来提供详细的3D曲面图。

如今,两个MIT团队给机器人手臂装备上GelSight传感器后,机器人变得更敏感、更灵巧了。研究人员上周在国际机器人和自动化大会上发表了两篇文章,阐述了他们的研究结果。

在一篇论文中,Adelson团队使用了来自GelSight传感器的数据,使得机器人能够判断它所触摸的物体表面的硬度 – 这是一项决定家用机器人能否处理日常物体的关键能力。

在另外一篇论文中,CSAIL的Russ Tedrak's Robot Locomotion Group使用该传感器让机器人能够操作比以前更小的物体。



在某种程度上说,GelSight传感器其实是一个低技术的解决难题的方式。它由一块透明的橡胶板组成,其中一面覆盖有金属油漆。当这个金属面被按压在物体的表面时,橡胶层就会记录下该物体的形状。


油漆金属能反射物体的表面,而计算机视觉算法更容易对油漆金属面的几何形状进行推导。传感器的橡胶板上与油漆金属面相反的面上装有 3个有色灯和一个摄像头。

 “系统将有色灯安装在不同的角度,而有了这些反光材料,通过颜色,计算机就能识别物体的3D形状”,Adelson,John,以及脑与认知科学部视觉科学研究者Dorothy Wilson教授如此解释。

在两个实验中,GelSight传感器都装备上了机械夹具,是一个类似于镊子头部的设备,但是该夹子的表面非常平滑,而非布满尖端。


(GelSight传感器的应用)


接触点装备GelSight

对自助机器人来说,不仅是决定如何抓物体以及抓取物体的难易程度,而且在移动物体、堆放物体、将物体放在不同的表面时,机器人如何表现,测量物体的柔软度或硬度都是必不可少的环节。

在以前的研究中,机器人都是将物体放到一个平坦的表面上,轻柔的刺物体,从而获取物体的硬度。但这并不是人类辨别硬度的主要方式。确切地说,人类的判断是基于当挤压物体时手指和物体接触区域变化的程度。软的物体趋向于扁平化,增加接触面积。

MIT的研究者们采用同样的方法。

Adelson团队论文的第一作者,机械工程的研究生,袁文贞,采用糖果模具创建了400组硅胶物体,每组16个对象。经过标准工业测量后,每一组的物体拥有相同的外形和不同的硬度。

袁文贞手动将GelSight传感器按压在每个物体上,并且记录了接触模式随时间变化的情况,基本上为每个对象制作了一个短片 。为了让数据格式标准化,并且保持数据的可管理性,她从每个短视频中抽取了均匀分隔开的5帧,记录被压物体的变形情况。

最后,她将数据反馈给神经网络,它可以自动寻找接触模式的变化和硬度测量间的相关性。所生成的系统以视频帧作为输入,并以非常高的准确度生成硬度分数。

与此同时,袁文贞还进行了一系列非正式的实验:人类作为实验对象来触摸水果和蔬菜,并按硬度进行排名。在每一个实例中,装备了GelSight的机器人得出了同样的排名结果。

参与袁文贞这篇论文的有她的两个论文导师,Adelson和Mandavam Srinivasan,机械工程部的高级研究科学家;还有来自清华大学的本科生,朱宸卓,以及在MIT电气工程和计算机科学获得了博士学位的Andrew Owens,现在是加州大学的博士后。




视野受阻怎么破?


Robot Locomotion Group的论文来源于他们参加美国国防部“先进研究项目局”举办的机器人挑战赛(DRC)的经验。在这个挑战赛中,学术团队和工业团队相互竞争,研发出指导人形机器人在紧急情况下完成一系列任务的控制系统。

通常,自主机器人应该使用某种计算机视觉系统来指导它操作周围环境中的物体。这种系统能提供关于物体位置的可靠信息,直到机器人将物体拾取起来为止。尤其是当物体很小时,它的大部分会被机器人爪夹遮挡,这个时候判断其位置将变得无比困难。

因此,在机器人需要知道物体某个点的精确位置时,这种估计是不可靠的。而这就是MIT团队在DRC中会面对的问题,当他们的机器人需要捡起电钻并启动它时。

 “在我们DRC的视频中,你可以看到我们花了2到3分钟来启动电钻,” 论文的第一作者,电气工程和计算机科学的研究生,Greg Izatt说。“如果我们能够准确的预测电钻在哪以及我们的手相对电钻的位置,并且实时更新,那就更好了。”

这就是研究人员转向使用 Gelsight的原因。Izatt和他的共同作者们,Tedrake,电气工程和计算机科学、航天航空、机械工程的丰田教授;Adelson;以及Tedrake团队的另一名研究生Geronimo Mirano使用计算机视觉系统来引导机器人的手爪朝向工具,然后一旦机器人掌握了工具,就使用Gelsight传感器来估算位置。


(电影机器人9号)


一般而言,采用这种方法的挑战是将由视觉系统生成的数据和由触觉传感器生成的数据相协调。但是Gelsight本身就是配备摄像头的,所以它的数据输出比其它触觉传感器的数据更容易与视觉数据进行集合。

在Lzatt的实验中,装备有Gelsight夹具的机器人需要抓住一把小螺丝刀,将它从皮套中取出并放回。当然,Gelsight传感器并没有描述完整的螺丝刀,只是一小部分。

但是Lzatt发现,只要视觉系统对螺丝刀初始位置的估算能精确到几厘米内,他的算法就能推导出Gelsight传感器所接触到的是螺丝刀的哪个部位,从而确定螺丝刀在机器人手中的位置。

 “我认为Gelsight技术以及其它高带宽触觉传感器将对机器人产生巨大的影响,” 加州大学伯克利分校的助理教授,Sergey Levine如此说。“对于人类而言,触觉是手工灵巧的关键因素之一。

当前的机器人缺乏这种灵巧性,并且在操作物体时反映物体表面特征的能力也有限。想像一下,你在黑暗中摸索开关,或者从口袋中取东西,又或者很多其它你不需要思考就能做的事情,这些都依赖于触觉。

 “软件最终将赶上我们的触觉能力,” Levine补充。“通过深度学习和计算机视觉创新的机器学习算法能够处理来自GelSight等传感器的丰富的感官数据。

将来,我们会将这些学习方法加入到端对端训练的操作技巧中,这将使机器人更加灵巧和有能力,能够帮助我们理解自身的触觉和运动控制。”



译者介绍

朱敏


纽约大学计算机专业硕士,iOS程序员一枚。业余爱好机器学习和数据挖掘。