见人说人话,见鬼说鬼话,见AI也要说AI世界的话——AI也是蛮聪明的。
文 | 卢晓明
把AI和AI放在一起,似乎总能产生神奇的化学反应。
最近,Facebook 在实验中让两个 AI 聊天机器人互相对话,发现机器人竟逐渐发展出人类无法理解的独特语言。
其实,Facebook这个实验的主要目的,是想让机器学会谈判。
实验中,双方选手语言通过谈判“瓜分”一堆物品(比如两本书、一个帽子和三个球),而每种物品对于不同选手的价值是不一样的,也就是谈回来的物品,对于两位选手带来的分值是不一样的。
从人类的角度理解,这个分值就意味着,你有多想要这个物品。有趣的是,研究人员设置的场景,就跟生活中一样,存在信息不对称——你知道自己多在意这个东西,但是你不知道对方有多想要,所以,你必须从对话中推断对方的想法。
游戏界面
每一句话,都经过计算
Facebook的AI团队(简称FAIR)还设置了其他的限制,让其更接近现实中的谈判场景,比如,要确保两个选手不可能同时拿到最好的结果。生活中往往无法尽如人意,我们总是要学会妥协。
其次,如果放弃谈判,或者谈了10轮还没谈好,双方都只能拿零分,也就是一拍两散。因此,想要利益最大化,你必须拥有杰出的谈判技能。
在训练过程中,AI学会减少说废话和意思模糊的话,提高谈判的效率。谈判显然不是一件如此简单的事,而是一个关于语言和推理的艺术,既包括合作也包括对抗,选手必须学会适当的理解和表达,以达到自身目的。
FAIR研发了一个对话推断模型框架,模拟未说出的对话可能性,然后根据每种对话最后可能的得分,计算自己应该说什么。
对话推测模
AI学会了伪装与欺骗
FAIR团队会让AI跟人或者另一个AI一起玩游戏,让AI逐渐学习应该怎么谈判。经过一轮学习之后,研究团队发现了以下现象:
人类比AI更难捉摸、也更任性:新入局的选手在面对人类对手时,明显谈判耗费的对话时间更长,接受交易更慢。人类与AI另一不同,人类有时候会拒绝继续,直接一拍两散,而实验中的AI会一直谈判,直到达成共识与结果。
从下面的表格中可以看出,相比起人与AI谈判,两个AI谈判达成一致的概率更高,而且结果也更接近最优解。
机机对战与人机对战的对比
AI学会耍手段:某些案例中,AI选手会先假装自己很想要某个物品,其实这个东东对他而言毫无价值。为什么要这么做?原来是为了之后假装“妥协”,因为它发现了对方很想要,如此一来就能骗得对方放出一些更有价值的物品——人类平时的惯用伎俩,没有人教AI,但它自己学会了。