专栏名称: AI数据派
THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。
目录
相关文章推荐
布说天下  ·  衷心建议:长沙学位房只买第一梯队! ·  2 天前  
布说天下  ·  衷心建议:长沙学位房只买第一梯队! ·  2 天前  
中国教育报  ·  解码《纲要》⑨ | ... ·  3 天前  
海峡都市报闽南新闻  ·  36个教学班!新增学位1800个!泉州九中城 ... ·  3 天前  
海峡都市报闽南新闻  ·  36个教学班!新增学位1800个!泉州九中城 ... ·  3 天前  
教育之江  ·  图说 | ... ·  3 天前  
教育之江  ·  图说 | ... ·  3 天前  
微行动联盟  ·  关于中考计分科目的调整通知! ·  3 天前  
51好读  ›  专栏  ›  AI数据派

对话赫拉利与李飞飞:人工智能影响人类的四大问题

AI数据派  · 公众号  ·  · 2019-06-27 07:56

正文


来源:读芯术

本文约 5400 字, 建议阅读 10 分钟。

两人之间的对话标志着人工智能新类型工作的开始。


最近,在斯坦福大学,两大人工智能专家尤瓦尔·赫拉利和李飞飞展开了一场时长90分钟的对话,对话期间引发的问题要比得到的答案多。这场对话由WIRED的主编尼古拉斯·汤普森主持,当天到场观众多达1705人,整个演讲厅拥挤异常。


对话的目的是讨论人工智能对人类未来的影响。


耶路撒冷希伯来大学的历史学教授赫拉利曾两次荣获波龙斯基创意奖。同时,他也是国际畅销书《人类简史:从动物到上帝》和《未来简史:从智人到神人》的作者。


李飞飞是著名的人工智能研究人员、工程师和计算机科学系教授。她是当今人工智能领域最多产的学者之一,其在深度学习和计算机视觉方面的成果被世界各地的公司和研究团队所采用。李飞飞最为出名的成就是其创建的一个包含1400万幅图像的注释数据集——ImageNet,被广泛应用于计算机视觉领域。


二人谈到了有关人工智能与技术的最为重要的一些话题,包括是否仍可相信人类行为;民主在人工智能时代的模样;人工智能是否最终会破解或增强人类。


李飞飞和赫拉利并未拘束于谈话要点,相反,二人要求我们思考许多重要问题,这些问题描述了人工智能技术对个人的影响,包括自由与选择,以及人工智能对人类世界中法律、经济和政治制度的影响。


以下四大问题试图解决AI对个人的影响:


  • 反思自由意志: 如果你不相信顾客,不相信选民,不相信自己的感受,那么你相信谁?——尤瓦尔·赫拉利

  • 爱和人工智能的局限: 爱是否可被破解?——李飞飞

  • AI影响下的自我意识: 在算法中了解对自己格外重要的事物,生活在这样一个世界,意味着什么?——尤瓦尔·赫拉利

  • 位于人工智能中心的人类: 我们能否以人为中心,重新构建人工智能和技术的教育、研究和对话?——李飞飞


对话结束后,许多在场观众多了一份紧迫感。这些尖锐的问题值得AI从业者、政策制定者以及公众展开思考,也是人工智能需要讨论的重要部分。


需要迅速采取行动。赫拉利警告说,“工程师们不会等待。即使工程师愿意等待,工程师背后的投资者们也不会等待。因此,这意味着我们没有太多时间。”


反思自由意志



如果你不相信顾客,不相信选民,不相信自己的感受,那么你相信谁?

尤瓦尔·赫拉利


对话对自由意志与行为展开探讨,深刻而晦涩,完全避免了肤浅的话题。


质疑自由意志有效性的争论,乍一看,似乎是一种无关的、理论上的努力——这完全超出了工程学科的范畴。实际上,讨论提及的许多挑战都与哲学家们几千年来争论的话题类似。


这次对话提供了一个全新的视角:正如赫拉利所指出的,技术不断发展,人们所密切关注的信念遭到挑战,“不是因为哲学思想,而是由于实用技术。”


在十年的大部分时间里,赫拉利都在批评自由意志和个人行为的核心概念。


他并不是一个人。由于测量神经活动的技术进步,许多神经心理学实验一直在对自由意志展开新的攻击。


这导致许多顶级神经科学家怀疑人们的决策自由。


我们只是在脑中制图,从而在机制上影响自身行为,进行信息处理。因此,我们认为自己有意识地作出的决定,实际上只是一种幻觉,可简化为大脑告诉我们要做的事情。
汉娜·克里克洛,普林斯顿著名神经科学家、《命运的科学》一书的作者


虽然科学还在继续发展,但人们自由意志的结果正受到操纵——赫拉利称之为“破解人类”——构成社会中的巨大风险。


某一组织可能会努力“创建一种比我更了解自己的算法,因此可以操纵、增强或者取代我”。


因此,我们的挑战不仅在于要决定如何操纵、增强或替换,而且还要决定谁应首先做出这些决定。


我们可能想知道如何对人类增强的可能性作出选择。


“谁能决定增强的好坏?如果这是一个非常深刻的伦理和哲学问题,哲学家们也已对此讨论了数千年,那你又如何决定增强什么呢?(对这一问题,我们没有答案 ‘什么是好的?’我们需要提升哪些优秀品质?”赫拉利问道。


对于我们中的许多人来说,“依靠传统的人文主义思想”是很自然而然的事,这种思想优先考虑个人选择和自由。然而,他警告道:“当某一技术大规模破解人类时,这一切都失效了。”


如果人类行为和自由意志的想法存在争议,那么决定哪种技术可使用是很难确定的。这也影响了我们生活的方方面面:选择做什么、可能买什么、可能去哪里以及投票方式。目前尚不清楚谁应就技术范围作出决定。


由于生物技术(B)、计算能力(C)和数据分析(D)技术的共同发展,这种模棱两可使我们面临一个重大问题。根据赫拉利的说法,这三项技术已经用于Hack Hmans(HH)。


根据数学思维,他将其总结为B * C * D = HH。


借助现代技术,Hacking Humans成为现实的可能性很大。


“此时此刻应在这些问题上进行对话与研究。”李补充说。


如果的确存在操纵,那么如何确保政府、商业和个人自由体系依然合法?


爱与人工智能的局限



爱是否可被破解?

李飞飞


如果人类可被“黑客破解”,行为与信仰被操纵,那么这种微妙控制的局限是什么?


略施小计便可操纵人类,这一点我们供认不讳。例如,走进面包新鲜出炉的面包店,谁会不突然渴望一份肉桂面包呢?但人类行为必须受到限制。


在这一点上,似乎没有人确切地知道操纵的界限。


然而,操纵策略可谓是众所周知。通过媒体以及讲述其故事的电影、文学和电视作品,人们发现一些犯罪分子和骗子采用了这些操纵策略,后者也因此凭借其勇敢受人尊敬,由于残忍而备受指责。


总的来说,人们不相信自已容易被操纵。相反,认为那些被操纵的人是愚蠢的少数人。赫拉利总结说:“最易被操纵的人往往是那些相信自由意志的人,因为他们认为自己无法被操纵。”


为此,将爱作为可操纵的潜在武器,不仅是可行的,而且有据可查。这一做法与浪漫诈骗一样,历史悠久; 许多人都听说过“异地恋的情侣突然需要一笔钱解决紧急状况。”浪漫诈骗是所有诈骗中最“成功”的,去年美国的浪漫诈骗金额高达1.43亿美元。


哥伦比亚心理学家、《信心游戏》一书的作者玛丽亚•科尼科娃提醒我们,操纵“首先是通过情感实现的。”“至少在当下,感性取代理性”,这使我们处于脆弱状态。


毕竟,操纵系统无论是否为人工智能的,都不必通过体验爱,去操纵人类与他人的建立联系与亲密关系的能力。“操纵爱与实际感受不是一回事,”赫拉利解释道。


在未轻视爱的基础上,科学家们对其生物和神经化学成分进行了充分的研究。


个人提供的信息越来越多,对人类身心的了解更为深入,再加上分析大量数据的成本越来越低,导致这种金额较大的骗局可能性更大,因此不容忽视。这些骗局利用着人们的真实情感,包括孤独、孤立以及对与他人建立联系的渴望。


人们都很容易受到这种操纵。科尼科娃提醒道,“我们想要相信被告知的事物”。


很少有人对数据科学和技术进步可能带来的局限拥有明确看法。但李飞飞对此十分乐观,“我确实希望人们对这项技术的认识可以走得非常非常非常远。然而,目前这项技术还处于起步阶段。“但是,继续走下去,危险也会越来越大,如果现状果真如此,那么这种情况将持续多久?


正如李飞飞评论所言:“我觉得你真正揭示了这场潜在危机的紧迫性、重要性以及规模大小。但我认为,面对这种情况,我们需要采取行动。”


将自我意识交给人工智能



当人们对自我的重要认知来自于算法时,这意味着什么?

尤瓦尔·赫拉利


在千禧年,人类已将部分曾由大脑负责的工作转接给了其他工具。由于写作,我们从依靠记忆中释放,可以精细记录。航行的引导工具也由以前的神话和星图变为地图和卫星导航系统。


但是人工智能给我们带来了一个完全的新机遇,那就是如果人类将自我意识也交给科技,那会发生什么呢?


赫拉利讲述了一个有关自我发现的故事。在故事中坦白直到二十多岁他才意识到自己喜欢男生。这一坦白不免让人思考人类花了多少精力来发现自己的盲区。他说道:“在21岁时我才意识到我喜欢的是男孩。然后我开始回顾往昔,我本应该在15岁或者17岁就意识到这一点的。”


人工智能的历史进程中,这个想法几十年以来都十分令人心驰神往。


我敢打赌我们制造机器人的原因和创造其他科学艺术一致,都是为了满足对自我的重要认知,证实猜想和怀疑,简而言之,以新角度来检视自我。
著名人工智能历史学家及《机器思维》作者帕梅拉·麦考达克


甚至今天,我们很有可能利用提供的数据来检测各种不同的病症,这些疾病对我们的生活有早期和有意义的影响,可以从抑郁症到癌症。


除了身心健康,我们还想知道大规模分析这些提供的数据会带来什么。毕竟,人类经历中有些方面不受文化、世代和地位的影响。


当分析理论变得越来越先进,并且可提供的数据增加,我们能够从中学习到什么经验,从而与朋友、邻居、世界另一头与我们生活截然不同的人分享。


但仍然存在两大挑战。


就算再精细的算法,仍然有危险;危险还存在于让我们提供自我的信息,尤其质疑和验证都变得困难时。


一旦你把某个东西装点为一个算法或者一点人工智能,它就会表现为权威,从而让人难以与之争论。
伦敦大学知名数学家及《你好世界》作者汉娜·弗莱


如果算法预测我们得了癌症,我们可以去验证。但是如果算法告诉我们一些更加模糊的信息,比如说我们很受欢迎,那么我们只好倾向于把它当真因为根本无法验证。由于对于潜在错误算法的错误信任,这反过来会让我们做出不同的决定。


弗莱指出我们可能太过于相信算法以至于推翻个人判断。


她点到了关于一个关于一车游客的故事。这车游客想要从水里开过到达他们的梦想目的地。他们并没有违反行新规则,必须获救。


但要是我们的自我认知被强迫歪斜,谁会来拯救我们呢?


此外,使用数据将他人和我们自己的经验联系起来,对于让算法深入了解我们的个人信息来说,这是一个单独的问题,这些信息可能会与其他参与者(而不是我们)共享。


“如果算法不与您共享信息,但与广告商或是政府共享信息,会发生什么?“赫拉利疑惑道。


即使现在,我们在社交媒体上的信息也被用来提供“相关”的广告,而我们只是刚刚开始了解是谁在为我们付费看这些广告。


赫拉利说:“这是一个很好的例子,因为这已经发生了。”


人工智能已经被用来预测我们是否会辞职或与我们的爱人分手。这两方面都是我们中的许多人不愿让私人朋友(更不用说非个人组织)知道的个人决定。


李怀疑一个算法是否能够以这种方式超越我们自己的自省。“我不太确定!“她说,这给了我们希望,我们可以在还有时间的情况下,深思熟虑地解决其中一些挑战。


“人类从火开始创造的任何技术都是一把双刃剑。它可以改善生活、工作和社会,但它可以带来危险,而人工智能也有这些危险,”她提醒我们。


在人工智能中心的人类



我们能以人为中心,重新审视人工智能和技术的教育、研究和对话吗?

李飞飞


讨论涉及了许多相关学科,为了开始解决我们面临的许多问题,其中李提出了一个巧妙开放的建议,那就是以以人为中心的方式重建人工智能。







请到「今天看啥」查看全文