极客公园微信号:geekpark
人工智能
人工智能会把我们未来的生活变成什么样子?也许我们什么都不用做,就万事大吉了。
它能叫你起床,在你吃早餐的时候为你播放一首颇得你欢心的乐曲;然后你会坐着自己的自动驾驶汽车去公司上班,路上没事的时候可以看看一些 AI 已经帮你选好的新闻
…
…
我们大可以放心,只要你的寿命不是太短,我相信我们在有生之年绝对都能体验到这些生活,而且他们带给我们生活的变化大都是积极正向的。
然而,如果你生活在美帝,你在 4/8/16 年后的这段时期会碰到另一件事,这件事会让你很头疼,但你又不能避免,这就是最近快要到大戏高潮的美国总统大选了。正如我们上面所说,人工智能能帮你做生活中的绝大多数事情,帮你选总统也不在话下。而这时,我们就要考虑一下了:在未来,你是否真的放心让机器算法替你选总统?
人类在算法中应该扮演何种角色?
考虑到你之前表达过的意见和你所在州其他选民的意见数据,你的 AI 助手会为你推荐一个选择,比如说民主党候选人
XX
X
。这时,你也许只需要点击一下屏幕上的「Agree」就能让 AI 帮你投出这神圣的一票,而这也许就是人们未来的生活。
不过回到现实生活中来,尽管现在已经有了很多的 AI 助手,比如 Siri 和 Cortana,但让人们把这样重要的公民义务交给机器来做还是难以接受的——即使机器可能才知道何种选择对你是最好的。事实上,从理论上说,只要有了足够多的数据,你的 AI 助手给你的建议比其他什么评论员和专家都更靠谱。
但数据显示,机器的智力潜能常常会引起人们的恐惧。有研究显示,34% 的人对 AI 有恐惧,而 24% 的人甚至认为 AI 对社会有害。数据研究机构 GWI 发现,63% 的人担心他们的个人数据会被商业公司利用。
但我们往往会忘记,那种看似无形却又能自动做出推理的数学模型其实是由其他人根据我们的兴趣、地理位置、行为习惯、财产状况和健康情况等多种因素设计得出的。
当前关于算法文化的众多讨论都集中在人类在算法设计中所起的作用:算法设计者潜意识中的信念和偏见是否会被写进能影响我们做决定的算法当中。目前舆论界对此充满恐惧,人们担心开发者们会在编写算法时允许对某些人群的潜在歧视,更糟的是,技术平台会作为通过这些信息的看门人。就像 John Mannes 所说:
「一个充满偏见的世界能产生偏见的数据,而偏见化的数据又会继续得到偏见化的 AI 框架。」
推动这一论点的决策者和专家容易误解算法偏见的证据,他们常常责怪算法背后的人而不是算法本身。当你不了解技术内部的运作机制时,找到别人犯下的错误当然是很自然的反应。
但事实上,算法偏见很少源于人类开发者。在大多数情况下,它们都源于用于训练这种算法的数据。而这才是危险的真正来源。
算法决定论:我们塑造了我们的算法,然后它们再来塑造我们
让我们先把这些疑虑放一放,来回顾一下机器学习究竟是如何运作的。
通过应用统计学学习技术,研究人员可以开发能够自动识别数据中所存模式的计算模型。为了实现这一点,这个模型需要在大数据集上进行训练,通过这种训练来发现数据中的边界和关系。数据越多,准确度就越高。
在那些针对用户的个性化应用中,这些统计学习技术用于为用户创建一个算法上的「身份」,其中包括使用习惯、偏好、个性特征、社交结构等多个维度。然而,这中数字化身份不直接基于用户的个性和自我感觉,他们的凭证是一群可测量数据点的集合以及机器给出的理论解释。
但是,AI 只能根据历史数据对未来进行预测,这就是为什么通过过去的美国总统图像训练的神经网络预测唐纳德·川普(Donald Trump)会赢得这次选举,因为过去的美国总统都是男的,数据没办法推断性别是不是模型的相关特征。所以,如果我们使用这个 AI 来替我们投票,它肯定会投给川普。
然而,事实上,我们每个人在社会中的身份是动态的、复杂的,其中包含很多矛盾的因素。根据我们的社会背景,我们可能会有不同的行为,这就需要我们的 AI 助手在不同的场景下替我们做出不同的决策。
除了我们默认的自我介绍之外,我们有很多的原因想要去制定不同的身份去和不同的群体进行差异化的互动。如果我们想要去尝试不同的社会角色和不同的身份选择,这会发生什么?就像美国论坛 4chan 的创始人 Chris Poole a.k.a. moot 所说:
「个人的身份就像棱镜,人们会通过很多不同的视角来看你。」
区分这些不同的自我呈现并将它们映射到不同的社交环境中对于现有的被训练成单一身份的 AI 来说是一大挑战。有时候你可能会产生「我是谁?」的这个问题,但你的 AI 助手知道,因为它知道你过去是谁。
我们越依赖于日常生活中的个性化算法,它们将越能塑造我们看到的东西,我们读到的东西,我们谈论的人,以及我们的生活。因为通过持续关注我们的生活,新的推荐会从之前那些让我们开心的推荐内容上学习,然后推给我们相同的东西。