专栏名称: 伯凡时间
吴伯凡官方账号,分享吴伯凡老师的真知与洞见。
目录
相关文章推荐
知产库  ·  娃哈哈集团转让“娃哈哈”商标 ·  17 小时前  
国家知识产权局  ·  关于核准怀仁恒源瓷业有限公司等363家企业使 ... ·  昨天  
锦缎  ·  这个小众赛道,炸出三款大药 ·  2 天前  
锦缎  ·  AI科学家出任阿里高管所传递的讯号 ·  2 天前  
禽报网  ·  冻品•2-9\\局部单品继续跌100-300 ... ·  3 天前  
51好读  ›  专栏  ›  伯凡时间

智能时代的压迫与反抗

伯凡时间  · 公众号  ·  · 2018-09-01 21:29

正文


尽管机器在很多领域正在逐渐超越人类,但是我们并没有感受到特别大的危机,一旦某项领域被机器占领,我们便会将其划出人类核心能力的领域。只有一种情况会让人类感觉毛骨悚然——机器拥有了自我意识。

不论是14年前由威尔·斯密斯主演的电影《I,Robot》(《机械公敌》),还是去年爆出的 Facebook 公司 AI 实验室两台人工智能相互对话的新闻,都让人类对人工智能技术的发展提心吊胆。今年年中在北美上映的电影《Upgrade》(《升级》),不啻又是一次警钟的敲响,让我们惶恐是否真的会有人工智能产生自我意识且造反人类的那一天。


1


“一个好消息是, 至少在未来几十年里,我们不用担心科幻小说里那种人工智能产生意识、杀光或奴役人类的噩梦。 ” 尤瓦尔·赫拉利在《今日简史》一书中给出了一个比较乐观的答案,“我们会越来越依赖算法为我们做决定,但算法并不太可能开始有意识地操纵人类。”

很多科幻作者之所以热衷于刻画人工智能产生意识这样的情节,源于作者们将智能与意识混为一谈。“ 智能是解决问题的能力。 ”尤瓦尔在书中区分道,“ 意识则是能够感受痛苦、喜悦、爱和愤怒等事物的能力。

人类在面对绝大多数问题时,都是凭感觉走的,计算机则会以迥然相异的方式处理相同的问题。尽管人工智能可能永远都无法具备诸如愤怒、恐惧、快乐等情绪,但是它们却能够通过相应的身体检测设备及我们在网上的一些习惯, 辨别我们相关情绪的生化模式,然后通过一定的手段操纵我们的行为和决策

随着神经科学和行为心理学的不断发展,我们逐渐意识到,原本我们自以为神秘且意义深远的 “自由意志”不过是一种生化机制,是人类在上百万年的演化过程中形成的一套趋利避害的运算系统。

之所以看到蛇的瞬间我们会感受到恐惧,是因为背后有上百万个神经元迅速计算了相关数据,得出了“一旦接触这个东西,死亡率极高”的结论。这一过程就像是 刷卡 一样,尽管看上去是一个塑料片和一台设备轻轻触碰了一下,但是这背后却蕴含着一套复杂的运算系统,只是反应速度极快。

“我们通常不会意识到各种感受是出于运算,原因在于这些快速的运算远不在我们的意识阈值范围内。”尤瓦尔解释道,“因此, 感受并非与理性背道而驰,而是体现了进化上的理性。

尽管我们借助文化进化的“快车道”让自己在地球生物中脱颖而出,但是 我们的运算系统依旧停留在100万年前的非洲大草原 ,这套系统毋庸置疑能够让我们在百万年前的大草原上生活得更好,但是在协作日益复杂,人工智能技术不断发展的21世纪是否依旧好用,就另当别论了。

既然我们的情绪和感受都是运算的结果,如果有一套更好的算法来替代旧的算法,让我们能够更好地适应当前的社会,绝大多数人一定会欣然接纳。毕竟,相比于让我们做出理性、恰当的决策,更多的时候,我们的生化机制往往因为数据量不足、受文化和基因程序错误的影响,导致的非理性、错误的决策更多。

尤瓦尔在书中提到, 生物技术与信息技术的融合,会让大数据算法比我们过去的生化机制更加精微和准确地监测我们的身体状态 ,能够更加体贴入微地理解我们的感觉和情绪。自然而然,它们也有极大的可能成为我们做出日常决策的主要支撑系统。

随着科学家越来越了解人类的决策机制,人工智能算法会据此不断得到优化,可靠性不断增强,加之算法在我们日常生活中的不断拓展和深入,我们会对其愈加依赖,而 我们原有的感受系统则会不断退化

2


以医疗和驾驶为例。

在医疗领域。 我们的健康指标早已不再取决于自己的感觉,甚至是医生的判断,而是各种检测和监测设备。据预测,再过几十年,就能够实现通过持续的生物统计数据流,让大数据24小时不间断监测我们的健康状态,早在我们有任何感觉之前,算法就能得知体内有哪些病毒,然后结合每个人的自身情况推荐合适的治疗方案。

在驾驶领 域。 导航已经成为当下几乎每一个司机的必备,除了借助导航系统到达某一陌生区域外,熟悉地段的决策权我们也在逐步出让。设想驾驶员开车走到一个岔路口,按照自己以往的经验,向左走更近一点,但这时候导航提示却是向右转。如果我们选择相信自己的经验,坚定左转,结果发现堵得水泄不通。

这样的情况不用多,两三次之后,我们就会彻底放弃自己的经验和直觉,将决策权完全交给导航系统。

除了驾驶和医疗外,很多人已经逐渐发现,亚马逊给自己推荐的书都是自己特别感兴趣的,网易云音乐推荐的歌曲大多数也很符合自己的口味。在未来,也许连专业、学校、结婚对象及工作地点等的选择,人工智能都会代劳。

不同于过去的奴隶是被统治阶层强行剥夺了人生自由与选择权, 智能时代的我们则会主动交出选择权和自由,以一种很软性的方式让自己成为“奴隶”。

也许有人会反驳说,很多的决策其实都涉及道德因素,因此,一些涉及道德的决策,人工智能或许无能为力。

3


1967年,英国哲学家菲力帕·芙特提出的伦理学思想实验—— 电车难题 ——一直是道德争论的焦点。


该问题假设了一个选择场景:一辆刹车失灵的有轨电车失控行驶,即将撞上前方轨道上的五个人,这时候,有一个按钮可以改变其行驶方向,让其驶向一条备用轨道,但是这条轨道上也有一个人。应该摁下这个按钮,以原本安全的一个人的性命去救另外五个人,还是不摁这个按钮,让那五个人丧命?如果那一条备用轨道上站的是你自己,让你来选择摁这个按钮,你会如何选择呢?

类似的悖论很早就被哲学家提出了(只是场景不同而已),针对这一悖论,千年以来争论不休,但是却没有对人们的实际生活产生实质性的影响。 一旦遭遇紧急情况,我们还是会按照情绪和心理惯性来做出选择。

尽管在研讨会或者课堂上,我们能够针对这样的哲学悖论详述自己的选择及相应的理性分析,一旦面对现实问题,我们则会瞬间回到哺乳动物的情绪和非洲大草原时期的本能。这也是为什么会“听了那么多道理,却依旧过不好这一生”的原因。

自动驾驶能够帮我们将这种纷争不息的哲学命题变成明确的选择。只要 将伦理道德以精确的数字和统计结果变成为程序 ,这些道德选择可以提前被设定好相应的选项,届时只需要你做出选择就可以了。

假设这样一个场景:某人在一辆自动驾驶汽车上打盹小憩,汽车按照交通规则正常行驶。这时候,突然有两个小孩相互追逐跑到马路中央,很快就被车撞上了。智能驾驶系统快速运算出结论——如果要避免撞上小孩,车辆必须转到逆向车道,但是会被一辆行驶而来的大卡车撞上,且极大概率导致车里的人丧命。智能驾驶系统该如何决策?

面对这一难题,汽车公司在设计程序时,可以 直接设计两款汽车程序,一款是“利他型”,一款是“利己型” ,你在购买的时候就做出选择,一旦后边面临相应的场景,程序则会按照原有设定做出选择。可见,即使在一些涉及道德困境的问题上,算法也会让其变得尽可能简洁和清晰,选择权的让渡在未来几乎是一种必然。

4


尽管在可预见的未来,我们不太有可能遭遇像影视作品中呈现的那种机器人叛变的威胁,但是 随着人工智能对我们的情绪不断地了解和掌握,它们会以种种手段和方式影响我们的购买决策和投票倾向,甚至于接受某种意识形态。


其实这一切当下就在发生着,特朗普上台和英国脱欧公投,就是源于剑桥分析公司对选民进行数据分析后,利用选民的偏见从而暗中操纵的结果。

当下人类社会,面对人工智能与大数据的表现太过被动,尤瓦尔不无担心地说到, 如果我们太注重发展人工智能,但是不注重人类意识的发展,那么人工智能增强的同时人类的“自然愚蠢”也会同步增强。

奶牛源于一种野牛,早在我们的祖先驯化之前,它们的祖先有很强的灵活性和攻击性,在漫长的人工选择作用下,它们的性情逐渐温顺,成为了乳量惊人的“生产资料”。

未来,我们也将逐渐成为一种不断生产数据以喂养人工智能的“数据牛” ,从来不会反思和提升人类自身的优势,以发挥最大潜能,而是向人工智能交出一切选择权,享受安逸的“产奶”工作。

就与人工智能相比而言, 人类的意识依旧是人类潜力能够发挥至最大的关键,也是人类与人工智能角逐的关键能力


但是, 当下整个人类社会都在忙于提升网络连接的速度及大数据算法的效率,却鲜有人去探索人类的心智。 如果一直任由这种状态延续,我们遭遇的局面将会是退化的人类滥用进化的计算机,伤害自己的同时也伤害了世界。

“如果想避免这种结果,每投入一美元、一分钟来提升人工智能,就应该同样投入一美元、一分钟来提升人类意识。”尤瓦尔在书中为我们指出了一条智能时代的反抗之道。








请到「今天看啥」查看全文