极客公园微信号:geekpark
人工智能
人工智能会把我们未来的生活变成什么样子?也许我们什么都不用做,就万事大吉了。
它能叫你起床,在你吃早餐的时候为你播放一首颇得你欢心的乐曲;然后你会坐着自己的自动驾驶汽车去公司上班,路上没事的时候可以看看一些 AI 已经帮你选好的新闻……
我们大可以放心,只要你的寿命不是太短,我相信我们在有生之年绝对都能体验到这些生活,而且他们带给我们生活的变化大都是积极正向的。
然而,如果你生活在美帝,你在 4/8/16 年后的这段时期会碰到另一件事,这件事会让你很头疼,但你又不能避免,这就是最近快要到大戏高潮的美国总统大选了。正如我们上面所说,人工智能能帮你做生活中的绝大多数事情,帮你选总统也不在话下。而这时,我们就要考虑一下了:在未来,你是否真的放心让机器算法替你选总统?
人类在算法中应该扮演何种角色?
考虑到你之前表达过的意见和你所在州其他选民的意见数据,你的 AI 助手会为你推荐一个选择,比如说民主党候选人 XXX。这时,你也许只需要点击一下屏幕上的「Agree」就能让 AI 帮你投出这神圣的一票,而这也许就是人们未来的生活。
不过回到现实生活中来,尽管现在已经有了很多的 AI 助手,比如 Siri 和 Cortana,但让人们把这样重要的公民义务交给机器来做还是难以接受的——即使机器可能才知道何种选择对你是最好的。事实上,从理论上说,只要有了足够多的数据,你的 AI 助手给你的建议比其他什么评论员和专家都更靠谱。
但数据显示,机器的智力潜能常常会引起人们的恐惧。有研究显示,34% 的人对 AI 有恐惧,而 24% 的人甚至认为 AI 对社会有害。数据研究机构 GWI 发现,63% 的人担心他们的个人数据会被商业公司利用。
但我们往往会忘记,那种看似无形却又能自动做出推理的数学模型其实是由其他人根据我们的兴趣、地理位置、行为习惯、财产状况和健康情况等多种因素设计得出的。
当前关于算法文化的众多讨论都集中在人类在算法设计中所起的作用:算法设计者潜意识中的信念和偏见是否会被写进能影响我们做决定的算法当中。目前舆论界对此充满恐惧,人们担心开发者们会在编写算法时允许对某些人群的潜在歧视,更糟的是,技术平台会作为通过这些信息的看门人。就像 John Mannes 所说:「一个充满偏见的世界能产生偏见的数据,而偏见化的数据又会继续得到偏见化的 AI 框架。」
推动这一论点的决策者和专家容易误解算法偏见的证据,他们常常责怪算法背后的人而不是算法本身。当你不了解技术内部的运作机制时,找到别人犯下的错误当然是很自然的反应。
但事实上,算法偏见很少源于人类开发者。在大多数情况下,它们都源于用于训练这种算法的数据。而这才是危险的真正来源。
算法决定论:我们塑造了我们的算法,然后它们再来塑造我们
让我们先把这些疑虑放一放,来回顾一下机器学习究竟是如何运作的。
通过应用统计学学习技术,研究人员可以开发能够自动识别数据中所存模式的计算模型。为了实现这一点,这个模型需要在大数据集上进行训练,通过这种训练来发现数据中的边界和关系。数据越多,准确度就越高。
在那些针对用户的个性化应用中,这些统计学习技术用于为用户创建一个算法上的「身份」,其中包括使用习惯、偏好、个性特征、社交结构等多个维度。然而,这中数字化身份不直接基于用户的个性和自我感觉,他们的凭证是一群可测量数据点的集合以及机器给出的理论解释。
但是,AI 只能根据历史数据对未来进行预测,这就是为什么通过过去的美国总统图像训练的神经网络预测唐纳德·川普(Donald Trump)会赢得这次选举,因为过去的美国总统都是男的,数据没办法推断性别是不是模型的相关特征。所以,如果我们使用这个 AI 来替我们投票,它肯定会投给川普。
然而,事实上,我们每个人在社会中的身份是动态的、复杂的,其中包含很多矛盾的因素。根据我们的社会背景,我们可能会有不同的行为,这就需要我们的 AI 助手在不同的场景下替我们做出不同的决策。
除了我们默认的自我介绍之外,我们有很多的原因想要去制定不同的身份去和不同的群体进行差异化的互动。如果我们想要去尝试不同的社会角色和不同的身份选择,这会发生什么?就像美国论坛 4chan 的创始人 Chris Poole a.k.a. moot 所说:「个人的身份就像棱镜,人们会通过很多不同的视角来看你。」
区分这些不同的自我呈现并将它们映射到不同的社交环境中对于现有的被训练成单一身份的 AI 来说是一大挑战。有时候你可能会产生「我是谁?」的这个问题,但你的 AI 助手知道,因为它知道你过去是谁。
我们越依赖于日常生活中的个性化算法,它们将越能塑造我们看到的东西,我们读到的东西,我们谈论的人,以及我们的生活。因为通过持续关注我们的生活,新的推荐会从之前那些让我们开心的推荐内容上学习,然后推给我们相同的东西。
当你的过去决定了你的未来,再想要通过开放性和自发性寻求个人发展将变得更加困难。就像丘吉尔当年说过的那样,「算法决定论」的本质就是:我们塑造了我们的算法,然后它们再来塑造我们。
「坏」的 AI 将你带去「美丽新世界」
今天,各式 AI 应用已经在我们的生活中随处可见了。但还有两个主要的挑战阻挡我们达到我们在文章开头提到的场景。
从技术进步的角度来说,在不同应用程序之间的数据交换缺乏互通性标准,这阻止了 AI 的个性化发展。想要真正有用,现有的机器学习系统需要更大量的个人数据,而这些数据现在都在大公司的专有数据库中孤立存在。不过目前已经有一些大公司开始合作来做这件事,展望未来,这对于建立公众对这项技术的信任至关重要。
而从社会进步的角度来说,存在一种隐含的对快速发展的 AI 技术的厌恶情绪,人们似乎有些担心对 AI 助手们失去控制。同时,对 AI 技术的恐惧也被许多反乌托邦科幻小说中的情节所影响,里面描绘了拥有情感的「坏」AI 接管世界的可怕场景。
然而,我们所向往的未来既不是《终结者》也不会是《1984》,它可能更接近于《美丽新世界》中的描绘的享乐社会:通过为人们提供普遍存在的幸福感和自我放纵的制度,技术控制了整个社会。
是时候为自己负责了
当然,虽然技术总是在前进,但希望永存。2016 年全球青年社区年度调查显示,年轻人认为 AI 是未来主要的技术趋势。更重要的是,21% 的受访者表示支持人形机器人的权利。年轻人们似乎对生活中的 AI 抱有一个越来越积极的态度。
在欧洲,欧盟新出台的《一般性数据保护法案》(General Data Protection Regulation)给了用户申请某项基于算法得出的结论的解释权,这可以限制极端形式的算法决定论。这项法案预计将会在 2018 年 5 月之前在全欧盟国家实施。但这是否会引起大公司算法上的变动还不得而知。
不过,现在是时候去找到一条明智的道路来创造透明和负责任的人工智能,以此改善人类的集体未来。因此,在跳跃到位置的未来之前,我们应该问问自己:我们究竟想要人类和 AI 之间的关系变成什么样子?重新思考这些问题能让我们设计出非确定性、透明和负责任的算法,这也许更有可能真正适应我们每个人复杂且不断变化的个性。
*本文编译自 TechCrunch http://t.cn/Rf7CT4F,在原文基础上有少量删改。
编辑 | colorvc
本文由极客公园编译
转载联系 [email protected]