专栏名称: 雷峰网
中国智能硬件第一媒体
目录
相关文章推荐
LLM SPACE  ·  大模型日报(11月12日 资讯篇) ·  4 天前  
LLM SPACE  ·  大模型日报(11月12日 资讯篇) ·  4 天前  
新浪科技  ·  【#苹果高管回应Macmini电源键在底部# ... ·  1 周前  
36氪  ·  叫板宝马3系的捷豹,只卖15万了 ·  1 周前  
51好读  ›  专栏  ›  雷峰网

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH Aisa 2016

雷峰网  · 公众号  · 科技媒体  · 2016-12-05 22:57

正文

雷锋网招人了!


加入雷锋网,分享AI时代的信息红利,与智能未来同行。听说牛人都点了这里



机器会思考吗?如果可以,机器能思考之后会跟人类的交互真的会更加顺畅吗?除了思想和语言能力之外,机器还需要达到什么样的能力才能与人交互更加自然有序?


从上个世纪中叶“让机器去思考”这个概念被提出之后,研究者们都一齐向这个方向努力着,从最初的个人电脑到如今的AI热,让机器理解人类并与人类交互的研究热度在当下的研究环境中已经达到了空前的巅峰,多数研究者不顾“机器人威胁论”也要研究如何让机器人能够更好的理解人类的行为,因为这种研究带来的除了“威胁”之外还有更多的益处。


今日,Siggraph Asia 2016亚洲电脑图像和互动技术展览及会议在澳门举行,南洋理工大学电脑工程和设计学院的教授Nadia Thalmann在会议上为大家做了一次“社交机器人及虚拟人类的行为建模”为主题的演讲,在演讲中她提到了社交机器人及虚拟人物在社会环境中与人互动所需要的挑战,以及能给人类带来什么等等问题。



说起Nadia Thalmann教授很多雷锋网关注机器人的老读者应该都不陌生,今年年初的时候,她照着自己的样子研发了一款仿真机器人,并因此而闻名。这个类人机器人名叫Nadine,在当时,Nadia表示这款机器人主要用于社交用途,是为了陪伴老人和儿童而生,未来也许可以解决由人口老龄化引起的劳动人口紧缩的问题。在这次的Siggraph Asia 2016上,Nadia Thalmann仍然大量的使用了Nadine作为演讲实例。


目前对于社交机器人来说,更多的研究都集中在“让机器人如何理解人类的语言”方面,这也是Nadine与这些机器人不同的地方,Nadine的研究方向是,除了能让她理解人类的语言并和人类交流之外,还会有自己的表情和动作,并且这些表情和动作能够表达她的情绪,同时,她也能够通过识别人类的表情和动作来理解人类的情绪。这样就大大的增加了机器人在社会环境中与人互动的能力。


在演讲中,Nadia Thalmann教授为大家播放了一段视频,演示了Nadine在与人交流过程中的动作识别和交流上的交互。



从视频中可以看出,在动作方面,比如人在她面前丢了一本书,她就会立即做出反应,并告知人类:“你掉了一个东西(something)”,不过目前她也只能识别出这个动作本身,至于动作的内容(别如识别掉落的物体)她并不能进行识别。


而在语言方面,人类与其对话时,表现出不友好的一面,比如用粗俗的语言跟她对话,她也不会像Siri一样机械地进行回答,而是会情绪化的对人类语言进行“反击”,并“怒目而视”。



Nadia Thalmann说,对于机器人来说,给它加入动作识别及功能是非常重要的,因为一个真正的社交机器人应该能理解用户的行为,并用以手势、面部表情、目光等动作加以回应。


要达到以上的目标是非常难的,所以,Nadia Thalmann也在会上提出了社交机器人未来研发的三点挑战:


  • 让机器能够全面的感知用户的行为,并对用户的行为进行解释分析,理解用户的意图。

  • 做好利用局部传感让机器人在社交场合做出适合当时环境、语境的行为决策,而不是机械般的程式化。

  • 多线交流(不只是和一个人对话,而是多人环境)的同步以及反映的实时性的提升。


这些研究重点将在未来会一一实现,目前Nadine机器人只能有二十多种表情,而且能够识别的动作也有限,并且只能使用类似Kincet的体感设备来感知人的动作,未来在传感器等硬件方面还会有很大的提升空间。为了能够早日完成以上有挑战的研究点,Nadia Thalmann以及她的研究团队做出了一些具体的任务规划,来逐步完成:


  • 第一阶段:让机器人能够和人类对话并对人类的生活方面的某些数据进行长期监测。它能够帮用户做一些简单的事情,并且根据你的行为特征来分析一些对用户自身有意义的数据,比如健康信息,并且这些信息会嵌入到智能系统当中,当机器人跟你进行对话时就会将这些信息透露给你,举个例子,当你连续工作好几天,没有得到正常的休息,机器人就会提醒你:你已经很久没睡了,应该休息一下。

  • 第二阶段:在第一阶段的基础上增添多模式交互的框架,该框架能够使机器人能够完全理解用户的语言,并且在于人类聊天的时候,能够进行面部表情、手势等外部语言辅助的表达,并能够识别人类的表情和手势。

  • 第三阶段:有独立的思想和情感,能够基于人格和人类进行情感交互,比如能够有信任、同情等这类的抽象情感,并且能帮助人类解决更高级的问题,能提出更具有说服力的决策意见,成为你生活中完全的助手。


这样的目标量化对于完成真正的类人机器人的目标目前看起来貌似是可行的,在这其中就要做很多细致的工作,比如从外观开始做,研究一些适合机器人的3D打印项目,来给机器人做基础;还有仿生科技的研究,能够让机器人的行为举止不至于倾向“恐怖谷”,要更加的自然。以上属于外观的建模,除此之外还需要给机器人做情绪建模,这方面就复杂的多,涉及的知识点异常庞杂。


但拎出外观或者内核都不是最难的,其中最难点,也就是Nadia Thalmann她们正在研究的,是如何将二者完美的结合,让其语言和动作进行一个自然的交互状态,这才是类人机器人未来发展的关键所在。机器人真的达到第三阶段能够对人类有多大的帮助还不太好说,但一定能给人类的生活带来翻天覆地的变化。



点击关键词可查看相关历史文章


● ● 

热门文章


独家 | 借贷宝被拖库?裸条 10 G“资源”背后故事

「你的名字」上映,同款滤镜凭何迅速刷爆朋友圈?

拒绝大疆后,GoPro 终于为自己当年的任性买单

女主播“逆天”美颜原来是靠这些 AI 技术实现

国内人工智能+医疗影像公司大盘点

物联网年终盘点:最具影响力的十大并购


● ● 

华为5G | Autopilot 2.0 | 京东X事业部

商用性爱机器人 | 淘宝 Buy+ | 张小龙内部演讲

马斯克太阳能瓦片 | 外国记者评价乐视生态

小米MIX | 小米VR | 华为麒麟960

MacBook Pro 发布会 | 微软发布会 2016

锤子M1/M1L | 龙芯3A3000 | 三星 Note 7

大疆 “御 ”Mavic | Google Home

国产多线激光雷达 | 谷歌 Daydream VR 头盔

小米5s | Movidius | lightning | Prisma | 直播

小米扫地机器人 | 小蚁M1微单相机 | 小米笔记本

应用号 | 华为无人机 | Amazon Echo