专栏名称: 微软亚洲研究院
专注科研18年,盛产黑科技
目录
相关文章推荐
爱可可-爱生活  ·  【[111星]graphrag-practi ... ·  21 小时前  
爱可可-爱生活  ·  【[165星]wild-card-ai/ag ... ·  昨天  
爱可可-爱生活  ·  【[924星]LegendApp/legen ... ·  昨天  
黄建同学  ·  AI Agent的评估包括↓一、核心能力• ... ·  3 天前  
爱可可-爱生活  ·  【Savanna:为卷积多混合模型(Stri ... ·  3 天前  
51好读  ›  专栏  ›  微软亚洲研究院

Barbara Grosz:不做替代品!构建可实现高级人机协作的AI系统

微软亚洲研究院  · 公众号  · AI  · 2017-09-13 17:11

正文


编者按:未来的世界一定是人类与机器携手并进的时代,因此构建有意义、有价值的AI系统至关重要,它将能够帮助实现更加高级的人机协作。然而,AI系统的构建并不是一项简单的单系统任务,则需要考虑很多作用因素和边缘挑战。


在“2017微软教育峰会”上, 哈佛大学工程与应用科学学院自然科学家希金斯教授Barbara Grosz与大家分享了AI系统与人类交互的基础和挑战,探讨了智能机器系统的未来可能性。



(以下为Barbara Grosz分享的精简版文字整理)


“人工智能之父”艾伦·麦席森·图灵在1950年时提出了他个人最著名的假设——图灵测试,用于判定机器是否具有智能。如果在多次试验后有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了图灵测试,并被认为具有人类智能。30%是图灵当时对2000年的机器思考能力的一个预测,然而现在我们还远远落后于这个预测。


未来,在与机器进行合作时,你可能不会意识到它不是人类,但这也并不是说AI系统和人类已经达到了难以辨别的层次。事实上,你仍然能够明确地知道你是在和机器进行工作,而机器堪比人类的出色表现,就性能而言足以乱真。


目前,AI正在快速地进入人们的日常生活,声名鹊起之余,它也有能够与热度所匹配的能力。AI时代已经来临,我们需要探索如何能够更好地构建AI系统,以实现更高级的人机协作。



AI:不做人类的替代品、复制品


图灵曾经提出一个颇具哲学意味的问题,为了让科幻电影中机器失控的场面永远只是科幻,我们需要考虑 如何利用人工智能来增强人类的能力,而不是替代人类或者单纯复制人类的智慧 。人工智能大势已至,我们必须充分利用智能系统的利好进行协调合作:


1. 时代已经产生了翻天覆地的变化,过去是一人一台电脑,各自独立进行工作。而现在的电脑完全能够实现互联共享,很多人可以在不同的地点和不同的系统内同时工作。


2. 认知科学提出两大论断:第一,协调合作能够促进大脑发展。如果一个新生儿在出生两年内没有参与任何社交活动,那么他的大脑体量将相较更小,且会严重影响大脑内产生的能量。第二,语言学习是在人与人之间的交流中发生的,一岁大的孩子能够识别出世界上所有语言的音素,但是之后这种能力会逐渐衰退。因此,协调合作是语言学习的“防腐剂”。


3. 系统设计和工程研究非常重要,相比无限期沉浸在系统成功部分的喜悦中,错误和不足之处更该引起重视。这些错误将能够帮助找出与人类期望不匹配的部分,并实现系统升级。


4. 伦理问题不容忽视。以自动驾驶为例,这确实是一个很美好的概念,但需要我们共同协作。目前利用真人去做自动驾驶实验的还很少,这其中,仍有很多非常现实的问题需要解决。



对话和语言领域:边缘挑战重重


人们可以通过语言的架构和组织进行交流,从中获取对话内容和信息,因此语言是人们参与对话的深层次意图,而非一串单词的简单堆砌,对话也不是简单的线性排序或者随机组合,其结构其实非常清晰。目前, 我们处于对话和语言研究的边缘 ,有很多问题和挑战需要解决。


近年来,AI在医疗信息领域表现非常突出,不仅能够以极高的效率完成信息和数据收集工作,同时也正在发展一些过去只有医生才能掌握的高深专业技能,比如看X光影像等等。但是,AI也并非样样精通,它在理解感性世界、感知微小情绪变化等方面就相对落后。它不可能劝说一位拒绝医生治疗的患者“回心转意”,当然我们也无需AI如此。


越来越多领域普及AI并将AI应用于实际操作的同时,AI发展可能带来的伦理学问题也引发了人们的高度关注。我们以儿童玩具为例,曾经有一款专为3-8岁孩子量身打造的机器娃娃可以和孩子进行自由交流,这听起来非常美好。


但事实上,机器娃娃和孩子的对话往往只是单向的,娃娃无法真正理解孩子的语言,甚至会忽视孩子在交流过程中的心理活动。和机器娃娃的交流经常无法达到一些正常的谈话期望。如,当孩子流露出负面情绪时,机器娃娃难以即时调整对话情绪,反而是继续沉浸在无休止的兴奋互动中,这对孩子而言无疑是二次伤害。再比如,成人往往会以对话的形式教育孩子,“懂礼貌”、“不能对其他人过分刻薄”,但是机器娃娃的设计脚本中不会涉及这样的道德观,它只会自说自话,放任孩子的行为。


产生这种后果的原因之一是我们对人类对话的理解存在缺失。对话是由有目的性的参与者共同构造的,其中语音语调也不是无意义的对话元素,它们是对话整体不可忽视的一部分。对话也并不是相似内容的匹配,一个问题对应一个回答在现实世界中几乎是不存在的。因此,这些对话的特征也给未来AI系统的构建和聊天机器人的发展带来了一些挑战:开放领域(如:社交聊天机器人)将比封闭领域(如:旅行助手、客户服务)的应用更加困难,而一问一答的短对话将会比堪称全真的长对话容易操作得多。


哈佛大学工程与应用科学学院自然科学家希金斯教授 Barbara Grosz


从设计之初就将AI可能带来的伦理问题纳入考虑范围之内对企业而言是至关重要的,它不只是会对个人产生影响,而是对整个社会、世界都会有所波及。我们很高兴地看到微软目前就在做这件事情——关注AI的隐私、安全等一系列潜在问题。除了必须注意AI将产生的负面伦理影响,如何充分利用AI、发挥正面引导作用同样是值得研究的。以下是我认为研发AI系统所需要遵循的几项基本原则:


1. 价值是由人类来决定的,而不是机器。


2. 过度关注AI威胁论可能会分散在重大问题研究方面的注意力,错失最佳时机。


3. 研究前路挑战重重,除了关注监管和隐私问题,设计不同领域的AI系统、嵌入伦理能力也同样重要。


下期预告:

成千上万的科学家和工程师正在广泛应用机器学习,如何用机器学习来解决我的问题呢?传统算法以外,基于模型的机器学习有哪些突破性进展?下期“ 2017微软教育峰会”精彩分享,微软研究院剑桥研究院院长Christopher Bishop将聊一聊“基于模型的机器学习”,敬请期待!









请到「今天看啥」查看全文