专栏名称: 腾讯科技
只供应最有营养的科技大餐!
目录
相关文章推荐
51好读  ›  专栏  ›  腾讯科技

不好意思,Facebook的AI并没有“失控”

腾讯科技  · 公众号  · 科技媒体  · 2017-08-02 11:10

正文

请到「今天看啥」查看全文


点击上方 腾讯科技 ”,选择“置顶公众号”

关键时刻,第一时间送达!


来源 / PingWest品玩(ID:wepingwest)

文 / 光谱

内容经授权转载发布


吓死了。


事情是这样的:据“外媒报道”,Facebook 开发的聊天机器人创造了自己的语言。虽然语言还是英语,但人类无法理解。


文章来源是 TechWeb 的编译组。“Facebook 不得不拔掉其研究人员正在研究的人工智能系统的插头,因为事情失控了”,TechWeb 写道。


关于“人工智能是否邪恶”的话题, Facebook 创始人扎克伯格上周还在跟特斯拉 CEO 马斯克争吵。 马斯克站正方,认为人工智能非常值得担忧,扎克伯格站反方,认为人工智能很有益处,担忧完全是过虑。


所以……小扎就这么快打脸了?曾在著名科幻电影《终结者》中出现过的“SkyNet”(天网),真的来临了?

抱歉,这完全是在胡扯。我们来看看到底是怎么一回事。


Facebook 的人工智能研究院 (FAIR) 想要训练一个聊天机器人,让它学会谈判。于是他们开发了一个人工智能系。为了帮助大家理解,我们一步一步解释:


Facebook 用了一个神经网络结构来开发这个系统。这个结构叫做“生成式对抗网络”(Generative Adversarial Networks),以下简称 GAN。


你可以把神经网络理解为一种多层次的、模仿人脑神经元之间相互连接的思考方式的“电脑程序”。


而 GAN 是一种在目前非常先进的神经网络结构,可以理解为两个神经网络玩《街霸》。玩的越多、时间越长,大家的水平都会越来越高。当然,GAN 也有三个甚至更多个神经网络的结构。


聊天机器人你肯定很见过:苹果 Siri 就是一个。亚马逊 Alexa 和 Google Assitant 也是。


Facebook 的这项研究也是如此。研究人员训练了这样一个聊天机器人,让它带着“目的”和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。


Facebook 观察到的结果是比较正常的,体现在下图中:

但是人跟机器人聊天已经不稀奇了……俩机器人能聊成啥样?研究人员都很感兴趣。


今天的对话就发生在聊天机器人 Alice 和聊天机器人 Bob 之间:

什么鬼?


原来, 研究人员在把这两个聊天机器人拼到一起,但忘了给神经网络设定“用英语沟通”的激励。


刚才说了,神经网络是个程序,里面有一大堆各种线性的数学公式。但有时候线性的公式无法取得想要的结果,有些非线性的需求没法用线性公式表达出来,这时候就要设定一个激励函数。激励这件事对于神经网络,简单来说就是告诉神经网络“这样做得分更高”——傻子都能理解。


“坚持用英语说话没有激励,”这个研究小组的成员之一,佐治亚理工学院的访问学者 Dhruv Batra 这样解释 Alice 和 Bob 奇怪的对话。“机器人会脱线发明一些它们之间才能理解的句法。”


结果,Alice 和 Bob 就聊成了这样。等于是 研究人员告诉了它们:“请用英文”,但忘了告诉它们:“请用英文语法”。


研究人员真的是因为“事情失控了”,才“不得不拔掉系统的插头”吗?事情真的像听上去那样令人心惊胆颤吗?


并非如此。


“我们的目标是让机器人和人聊天(提高和人聊天的技巧)。”小组的另一名研究员 Mike Lewis 指出,Alice 和 Bob 的对话根本就是个试验而已,让两个聊天机器人聊天根本没有意义。

而且,Alice 和 Bob 根本就没有发明新的语言,因为他们还是在用“i”、“balls”、“the” 等英文单词沟通,只是创造了一种新的表达方式而已。

而且他们“发明”的新语言,人类真的听不懂吗?


再看一遍它们的对话:


Bob: I can i i everything else


Alice: balls have zero to me to me to me to me to me to me to me to me to


Bob: you i everything else


Alice: balls have a ball to me to me to me to me to me to me to me to me


如果你明白了前面描述的试验目的,很容易就能明白它们的套路。句法的确是乱的,但 一句话里 to me 重复的越多,这个东西对它的意义越大(权重越高)。


翻译过来就是:


Bob:我可以我任何其他(其他任何东西都可以给你)


Alice:球有0对我对我对我对我对我对我对我对我(我没有球,球对我特别特别特别特别特别特别特别特别重要)


Bob:你我任何其他(你可以拿走其他任何东西)


Alice:球有球对我对我对我对我对我对我对我对我(我要球,球对我特别特别特别特别特别特别特别特别重要)


难理解吗?


而且根本不是在谈判,就是很普通的表达而已。不给就吵嘛……


Facebook并没有“关掉”这个系统 ,而是重新设定了正确的激励,修正了机器人的行为,让机器人用标准的英文语法来进行交流。修正的原因也不是因为害怕 AI 失控——他们的目标是让机器人和人聊天(提高和人聊天的技巧)。 两个聊天机器人聊天根本没有意义。


GAN 这个东西,苹果曾经用它搭建了一个系统,让它自动合成足以以假乱真的图片。但设计的目的并非欺骗人,而是为学界和业界的其他研究者带来帮助。因为训练神经网络需要大量的图片,但世界上已有的、已标记的图片数据库也就那么多,苹果的这项研究,能自动创建带标记的、能被用来训练的图片,解了大家燃眉之急。

今年二月,我介绍过 Google 本部的人工智能团队 Google Brain 做的另外一个实验:同样用 GAN,他们训练了三个机器人 Alice、Bob 和 Eve,让 Alice 和 Bob 俩人从零开始琢磨出一个加密方法,让 Eve 来猜。这三个网络的加密学知识都是 0,但随着训练次数越来越多,Alice 和 Bob 默契越来越好,Eve 也破解不了。

——这才是发明了人类都不懂的语言。可也没看见 Google 着急啊。


人工智能能够帮助人类做很多事情。比如图像识别技术就被投入到图片搜索引擎中。当你在搜索引擎里搜索关键词,选择图片,才能找到符合描述的照片。

再比如语音识别和自然语言理解技术。当你和 Siri、Alexa 说话的时候,它们才能比较准确地理解你的意图。


从神经网络技术的发展程度来看,人工智能的确很厉害了。但我可以告诉你的是:图像识别、语言理解准确度上能做到现在这么高,完全是因为人类编程调优的结果。


它既不知道自己是谁,也不知道自己在哪儿,更不知道自己在干什么。


所以和人工智能相比,那些成天瞎吹人工智能威胁论的人才更可怕吧……










请到「今天看啥」查看全文