首先,我想做一个小调查,如果一台机器人在你还没有开始微笑之前,就对你发起微笑,你会感觉到真诚还是恐惧呢?(欢迎大家把自己的答案敲在评论区)
我知道你很好奇,机器人是如何通过洞察我的表情,进而提前做出预测并反馈在自己的面部表情当中的呢?针对这一问题的解答,哥伦比亚大学工程学院的创意机器实验室(Creative Machines Lab)给出了答案,
该团队使用Emo机器人成功做出了预测人类面部表情并反馈在自身面部
。它甚至
学会了在人微笑前约840毫秒预测即将出现的微笑,并与人同时进行微笑
,目前该研究成果已在Science Robotics期刊上发表,并引起业界广泛关注。
▍
机器人表情反馈 时间必须恰到好处
Emo机器人最大的特点在于其采用强化模型设计,通过视觉来观察人类即将做出的面部表情,通过AI进行预测并输出相应的表情反馈。
Emo机器人能够同步人类表情
该团队负责人Hod Lipson表示,Emo机器人在设计之初面临两大挑战。首先是
如何以机械结构的方式来设计一台拥有丰富面部表情的机器人
,其中涉及非常复杂的硬件结构以及执行单元。其次是
要让Emo机器人知道自己应该生成什么样的表情
,从而让它的面部表情看起来更加自然。
预测模型可视化效果展示
为此,该团队提出一项建议,训练机器人具备预测人类未来面部表情的能力,并在适当的时候展现出这些表情。研究人员特别提到,
机器人表情出现的时机非常重要
,如果机器人延迟模仿面部表情,则会表现得过于虚伪,而如果过早地提前出现,则会显得非常诡异。只有恰到好处地与人类面部表情同步,才会展现出相对真实的感觉。为了实现这一目标,机器人必须正确推断人类的情绪状态,并在适当的时间点反馈面部表情。
▍
Emo是如何感知你的面部表情的?
Emo机器人是一个带有面部表情的仿人头像,研究人员只设计了头部结构,并没有上下半身设计,
该机器人配备26个致动器
,能够做出各种细微的面部表情。
头部被设计了柔软的硅胶皮肤
,并配有磁性连接系统,便于定制和快速维护。
Emo机器人面部采用硅胶材质设计
为了实现更逼真的互动,研究人员在
每只眼睛的瞳孔中都集成了高分辨率摄像头
,使Emo机器人能够进行眼神交流,这对非语言方式的交流至关重要。
Emo机器人内部结构设计
在驱动模型方面,该
团队自主开发了两个AI模型,一个通过分析人类面部的细微变化来预测人类即将出现的面部表情,另一个则利用相应的面部表情来生成特定的运动指令。
为了训练机器人作出相应的面部表情动作,研究人员将Emo机器人放在摄像头前,让其随意做动作,在训练了几个小时之后,机器人就学会了面部表情与运动指令之间的关系。这与我们人类照镜子练习面部表情颇为相似,研究人员称之为其“自我建模”,类似于人类想象自己做出特定表情时的样子。
Emo机器人模型结构解析
接下来,研究团队向Emo机器人播放了人类面部表情的视频,并要求其逐帧观察。经过数小时的系统训练,Emo机器人已可以通过观察人们面部的微小变化来预测他们的面部表情,出现产生微笑的意图。
四个模拟案例的展示(正确、错误、未能预测、正确预测没有明显偏离瓶颈的表情)
哥伦比亚大学工程系博士生胡宇航(Yuhang Hu)说道:“我认为,
准确预测人类面部表情是人机交互领域的一场重要革命
,传统概念的机器人在设计之时并不需要考虑人类在互动过程中的表情,但现在机器人可以整合人类的面部表情以此来作为情绪反馈。当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人与机器人之间的信任。在未来,机器人与人类互动时,机器人有望像真人一样观察并解读人类面部表情,让你认为它是有一定思维能力智能体。”
▍
后续Emo机器人将融合语言系统
目前研究人员正在尝试将Chat GPT这样的语言系统整合到Emo机器人当中
,而随着机器人的行为能力越来越像人类,团队负责人Hod Lipson非常清楚与这项新技术相关的伦理问题,尽管这种能力有望在家庭助手、教育辅助工具等领域有着广泛的应用前景,但开发人员和用户仍需审慎使用,并充分考虑到相关的道德因素。
▍
结语与未来:
Emo机器人并非首个具备自我表情管理的机器人,此前包括香港Hanson Robotics的索菲亚机器人以及英国公司Engineered Arts设计的Ameca都能做出相似的表情。以Ameca技术方案来看,同样由两个单元组成,Tritium实现表情管理的基础,Mesmer技术为Ameca提供大量的真人表情数据。
但不同的是,Emo机器人首次实现了人类表情预测以及同步表情反馈。
笔者认为,当机器人的行为愈发地与人类接近或相似时,便会触发诡异谷效应,如何突破这个阶段是研究者接下来要思考的问题。
来源 | AI机器人时代