专栏名称: CSDN
CSDN精彩内容每日推荐。我们关注IT产品研发背后的那些人、技术和故事。
目录
51好读  ›  专栏  ›  CSDN

机器学习奠基人Thomas Dietterich:人类将如何受到AI威胁

CSDN  · 公众号  · 科技媒体  · 2017-06-14 15:47

正文


文 | 王艺


AAAI前主席Thomas G. Dietterich教授曾说:“我一点也不担心人工智能会超过人类并控制人类。因为智能软件的主要风险不在于‘智能’,而在于‘软件’。像所有的软件一样,它会包含错误。如果将其用于包括自驾车在内的高风险应用,则这些错误有可能危及人的生命和财产。”

作为通用机器学习技术奠基人之一,Thomas G. Dietterich的研究贡献主要包括将纠错输出编码应用于多类分类问题,他发明了多示例学习、层次强化学习MAXQ框架及将非参数回归树整合到概率图模型中的方法。此外,Dietterich教授也参与撰写了美国白宫发布的两份重磅AI报告《为人工智能的未来做准备》和《美国国家人工智能研究与发展策略规划》。

有幸,Dietterich教授将参加7月22-23日于杭州国际会议中心举行的2017中国人工智能大会(CCAI 2017),现场向中国数百万开发者介绍如何通过适当的算法确保人工智能系统安全。此外,多位世界级专家也将在Keynote报告中分享人工智能关键领域的学术进展,并带来与企业界应用结合的最新实战案例。

会前,CSDN采访到Dietterich教授,并就人工智能对人类的最大威胁这一话题展开讨论。

以下为采访实录。



AI将以何种方式威胁人类



人工智能想要与人类抗衡,需要跨过一个门槛,我目前还没有发现任何证据表明AI系统已经聪明到可以跨过这个门槛。这个门槛即是AI系统能否快速地自我更新,进而演化为超级智能。但请不要天真地认为“人类的智慧”是这种门槛所在。目前,我们大多数的AI系统都能以某种方式超过人类,否则我们也没有必要创建或使用它们。但虽然如此,我们还是没有从中看到任何的阈值效应。因此,由J.J. Good和Nick Bostrom所提出的,一旦人工智能系统达到人类智能,就会出现智力爆炸的看法,是不被证据或理论所支持的。

虽然我不相信会有一个良好/博斯托克风格(Good/Bostrom style)的智能爆炸。但有一件事情需要注意,各种AI技术的能力正在呈指数级增长,我期望这个趋势能这样持续下去。这个指数增长使得未来很难预测。当雷·库兹维尔谈到“奇点”时,他正在引用一种物理奇异性的比喻(比如黑洞或大爆炸)。信息不能通过物理奇点传播,他以类推的方式认为,由于人工智能技术的指数级发展,我们无法预见未来。

我一直认为,在高风险应用中部署人工智能技术将带来危险,因为如果软件出现错误(然而软件总是存在错误),它们可能会威胁人身安全或对经济产生不利影响。例如,如果部署AI软件来管理电网,则软件缺陷可能导致大量停电。我认为这类问题是目前人类受到AI技术威胁的最有可能的方式。



AI将给人类带来哪些问题



我想以AI研究人员和从业者需要解决的三个技术问题切入回答。如果在我们拥有自主的AI系统和人机AI系统之前,这些问题还没有得到解决,那么这些系统将不可靠、不可预测,这很危险。

  1. 检验和确认(Verification and validation)。 第一个技术问题是,对于大多数AI系统,特别是基于机器学习的AI系统,我们无法验证其正确性。对于监督学习,只有在测试数据与训练数据来自相同的分布的假设下,我们才能验证其正确与否。最近的一些工作表明,深层神经网络容易受到对抗数据的影响。因此,在真实条件下,我们需要一个可测试的方法来保证系统的准确性。

  2. 对已知和未知的未知问题的鲁棒性(Robustness to known and unknown unknowns)。 传统意义而言,AI系统关注性能,其中包括相较于预期的准确性、成本以及回报。 除此之外,在与安全密切相关的应用中,我们需要准备一些方法以便处理下行风险和一些罕见但有灾难性后果的问题。大多数现有的下行风险方法只考虑“已知的未知”,即我们所知道的风险。但我们也需要开始寻找方法,以便从模型故障层面也能够提供鲁棒性(即未知的未知层面)。这是接下来的研究中一个非常重要的话题。

  3. 人机协作系统的平衡(Resilience of combined human-machine systems)。在绝大多数应用程序的设置中,AI系统不能完全自动运行。 相反,在循环中需要有人类的“参与”,这在高风险环境中尤其重要。我认为,下一步研究的挑战是寻找设计人机协作的方法,使人类与机器系统能够结合得更好。



您为什么提倡限制模型的复杂度



如果对世界上的一切建模的话,那么模型的大小基本上与宇宙的大小相同。用这样的模型进行计算是不切实际的,从数据中学习到这样的模型也是不可能的。 在机器学习中,我们知道模型的准确性与数据量成正比,与模型复杂度成反比。所以要获得准确的模型,我们必须要有大量的数据;若我们没有大量的数据,那么我们必须限制模型的复杂度。

在具体施行层面,上述问题能够实例化为AI研究人员所面对的资格问题(the Qualification Problem)以及分支问题(the Ramification Problem)。资格问题表明,我们无法枚举一件事情成功的所有前提条件。分支问题表明,我们不可能列举一个行动所有的直接和间接的影响。



中美人工智能发展有何差异



我对中国和美国AI行业的了解不是特别多。但我的印象是,中国、美国或者说世界其他国家之间,正在解决的人工智能问题以及应用的技术种类没有什么显着的差异。中国在将深度学习应用于自然语言理解以及机器翻译等领域较为领先,并在其他领域(例如计算机视觉)方面也有所贡献。特别有趣的是,中国的无人机产业正主宰市场,并能够将例如手势控制等有趣的AI形式融入无人机。

所以总体而言,我对中国或者非中国的AI行业的看法是一致的:AI技术需要通过关注测试、检验、确认、鲁棒性和强大的人机界面而变得更加成熟。在与安全相关的应用程序中部署AI的时候,我们应该非常小心。



您对AI最直观的三个看法



  1. AI说到底是一种智能软件。它不是要复制人类,而是一种能够为社会所用的人造智能。

  2. 当AI系统下围棋时,它是真的在下围棋。 但是,当AI系统模拟人的情感时,它并没有体验到人类的情感,因为它不是由生成人类感觉和情绪的生物材料所组成的。所以当一台电脑对你说,“我知道你的感觉”,它在说谎。

  3. 智能软件的主要风险不在于“智能”,而在于“软件”。像所有的软件一样,它会包含错误。如果将其用于包括自驾车在内的高风险应用,则这些错误有可能危及人的生命和财产。



您所参与的有趣研究与最自豪的科研成果







请到「今天看啥」查看全文