点击上面蓝色字关注,即可免费收阅政商内参。
By政商内参 (微信最好的政经读物,以专业的视角传递政商信息,深度解读政商新闻,这里使你了解更真实的中国) 微信号:zsnc-ok
作者:卢娜
来源:摩登中产(ID:modernstory)
本文经授权发布
23年后,人类命运将迎来史无前例的“奇点”,你我无从幸免。
一
人类唯一战胜阿尔法狗那个寒夜,疲惫的李世石早早睡下。世界在慌乱中恢复矜持,以为不过是一场虚惊。
然而在长夜中,阿尔法狗又和自己下了一百万盘棋。是的,一百万盘。
第二天太阳升起,阿尔法狗已变成完全不同的存在,可李世石依旧是李世石。
从此之后,人类再无机会。
人工智能,不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。
我们已身处大时代的革命之中,科学家将现今阶段,定义为弱人工智能时代。
即便是简单的人工智能,其实已打败多数人类。
美国亚马逊超级仓库内,无数机器人正在货架间疯狂奔跑;欧洲快餐店内,机器人端着汉堡和薯条7x24小时来去自如;而在南非矿井下,电脑正操作精密仪器,向幽暗处进发。
在珠三角,富士康厂区外,那些多愁善感的年轻人,来不及抒发乡愁,就得争抢为数不多的机会。
工厂流水线两侧,100万台精密机器人正逐步填满他们站过的位置。
这只是革命的开始,随着智能飞速进化,AI已杀入世界每一个角落。
全球数百位顶尖科学家,耗费漫长时间,搭建了一个复杂数学模型,通过类似摩尔定律的多重推演,得到一个最终结论。
人工智能或将在2040年,达到普通人智能水平,并引发智力爆炸。这一时刻,距今还有23年。
23年这个时间,并不是凭空杜撰,更非杞人忧天,数字背后是复杂的社科曲线和人为变量。
而且,这只是科学家保守估计。一个砸准的苹果或者一个任性的天才,都可能将节点大为提前。
比23年更可怕的是,到达节点后,人工智能或将实现瞬间飞跃。
人工智能专家普遍认同,人工智能不可能锁死在人类智力水平上。它将超越人类,变成我们无法理解的智慧物种。
科学家描述中,一个人工智能系统花了几十年时间到达了幼儿智力水平;在到达这个节点一小时后,电脑立刻推导出了爱因斯坦的相对论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能瞬间达到了普通人类的17万倍。
这就是改变人类种族的“奇点”。
我们,极有可能是站在食物链顶端的最后一批人类。
二
一个超人工智能,一旦被创造出来,将是地球有史以来最强物种。所有生物,包括人类,都只能屈居其下。
以谷歌技术总监雷·库兹韦尔为代表的一群极客,正欢欣鼓舞地期盼这天到来。
他们坚信,一个比我们聪明十几万倍的大脑,将解决所有问题,疾病、战乱、贫困,各种纠缠人类的苦难,都不再是问题。
为等待这一天到来,库兹韦尔每天吃下100个药片,希望自己能够活得足够长久。他还预订了冷冻遗体服务,如果提早离世,那么还有机会在人工智能到来后,将大脑解冻。
他眼中的未来,恍如伊甸。届时,人类身体内,奔跑着无数纳米机器人,帮我们修补心脏或消灭肿瘤。超智能计算机日夜计算,帮我们逆转衰老。
甚至,我们可上传记忆,与AI神魂合一。
然而,另一派人却忧心忡忡。特斯拉CEO埃隆·马斯克将人工智能比做核能。原子弹问世容易,但控制核武器时至今日仍困难重重。
比尔·盖茨也站在马斯克这一边,“很难想象为什么有人觉得人工智能不足为虑。”
在他们眼中,超人工智能是盘踞未来的可怕生物。它们的思维方式和人类南辕北辙,且不眠不休,飞速进化。
对超人工智能感到悲观的马斯克,正紧锣密鼓地筹备“火星殖民”项目。
他计划从2024年开始,逐步把100万人送上火星,并在火星建立起一个完整可持续的文明。
这位悲观的天才企业家,其实用心良苦。一方面他寄望于用“火星计划”,转移科学界焦点视线,拖慢人工智能到来的脚步。另一方面,他希望,在火星给人类留一个备份。
23年后,我们考虑的可能不再是逃离忧伤的北上广,而是逃离这个星球。
三
大众对人工智能的最大误解,是认为人工智能和曾经的石头、斧子、打字机、手机一样,不过是人类肢体的延伸。
但这一轮人工智能大潮,和以往几次技术革命都不同,人工智能将成为人类的替代。就连我们认为安全无忧的高级脑力工作,都岌岌可危。
美国已经有十家律所聘用了Ross,一个背后由IBM人工智能系统支持的虚拟助理。
Ross可以同时查阅数万份历史判决,并勾画重点。它能够听懂普通人所说的英文,并给出逻辑清晰的答案。以前需要500名初级律师完成的工作,它数分钟内就能够解决。
此外,交易算法已成为华尔街标配。在投资基金办公室里,以往急促的脚步声和电话铃声,已被服务器轻微的嗡鸣声取代。
寥寥数个分析师,偶尔抬头看看程序运行状况,在0.01秒内,人工智能就会根据市场走势和媒体信息作出判断,买卖数亿的股票。
斯坦福教授卡普兰做了一项统计,美国注册在案的720个职业中,将有47%被人工智能取代。在中国,这个比例可能超过70%。
过去用几代人命运承担的大变革,我们要在20年内独自面对。失业大潮即将开始,并没给我们留太多适应的时间。
学者分析,在接下来的几十年中,只有三类人,能勉强对抗AI的冲击,即资本家、明星和技术工人。
换而言之,面对步步逼近的人工智能,你要么积累财富,成为资本大鳄。要么积累名气,成为独特个体。要么积累知识,成为更高深技术的掌握者。
然而,财富堤坝、个性堤坝、技术堤坝,能在人工智能狂潮下坚持多久,无人可知。
这真是个荒谬又戏剧的时代,我们在狭小的星球上争吵不堪,黑天鹅振翅而起,地球村分崩离析,当我们以为泡沫剧将一直循环重播时,大结局却平静到来。
23年,我们擦亮灯壶,砸掉锁扣,放出的是阿拉丁,还是潘多拉,天知道。
AI或用核战毁灭人类!霍金再次发出警告,世界末日正逼近?
来源:华尔街见闻(ID:wallstreetcn)授权发布,其它微信转载请重新申请授权
前段时间热播的科幻美剧《西部世界》大家看了吗?剧中机器人觉醒、反叛,这或将在现实中发生,甚至情况还会更糟糕。
继2015年9月抛出“人工智能威胁论”之后,近日著名物理学家史蒂芬·霍金(Stephen Hawking)再次表达了他对人工智能(AI)的担忧:AI可能会通过核战争或生物战争让人类灭亡。
AI可能摧毁人类,人类必须尽早防止威胁
人工智能技术一直是霍金关注的重点。
霍金表示,世界的毁灭已经逼近,人类创造了可以毁灭世界的人工智能,却至今仍无能力可以避免这个灾难。
自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来人工智能进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。
霍金认为,人类需要利用逻辑和理性去控制未来可能出现的威胁,必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。
霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。
世界末日逐步逼近,霍金多次做出预测
霍金一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:
一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。
2016年10月,霍金再次表示,人工智慧虽然能为人类消除难题或疾病,但也有可能成为凌驾于人脑的存在,甚至衍生出有自我意识的武器,就像电影《终结者》当中的情节一样,过度进化的人工智能会试图反噬人类。
2016年11月,霍金还对地球末日做出过预测。他认为,按照目前人类活动的强度,地球的寿命只剩下1000年时间,届时如果人类还没有找到另一个移民星球的话,那么将面临毁灭命运。
AI潜在威胁受到越来越多科学家关注
近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。
英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:
我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。
对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:
AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。
Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。