很多人可能都听说人工智能已经可以写文章了,但是你可能不知道编辑机器人早就已经是维基百科最重要的贡献群体之一。
2001 年,维基百科引入了机器人编辑者的概念,任何用户可以为自己研发的机器人单独建立一个维基百科帐号,只要根据维基百科社区官方的规定对帐号进行标注,即可让机器人参与维基百科的编辑。
2014 年,机器人在维基百科的所有语言中完成了 15% 的编辑动作,他们识别、撤销破坏行为,锁定遭到频繁篡改的页面、识别错别字和病句、创建不同语言之间的链接、自动导入站外内容、进行数据挖掘、识别侵权的内容并为新手编辑者提供引导等等。
在研究人员近期发布的一份报告中,研究人员累计在维基百科的 13 个版本上找到了 6627 个疑似为机器人的帐号,这些机器人编辑来自于不同的创建者并遵循创建者(人类)为其独立定制的规则对维基百科进行维护。
那么,问题就来了:这些机器人之间,会吵架吗?
从结论上来说,答案是肯定的。事实上,机器人编辑之间的冲突远高于人类之间的冲突。
这项研究中追踪了 6627 个疑似机器人帐号里的 1549 个,并抓取了他们在 13 个维基百科语言版本中 2001 年到 2010 年期间的行为记录。
研究显示,机器人之间彼此撤销或修改文章是非常常见的。英语维基百科上的每个机器人平均撤销 105 次别的机器人的编辑,这比人类之间的数据高出了 3 倍。但在德语维基百科上,互相撤销的数量则下降到了 24 次,而葡萄牙语机器人则高达 185 次。
这证明在不同的语言(文化)之间机器人的冲突也不同。甚至可以说,比起“内政”,机器人在“外交”上处理的更加不好。研究人员发现,在同一个语言内机器人的冲突明显低于跨语言的冲突。这是因为在同一个语言内,一个机器人往往只照看特定的词条页面,不同的机器人之间划江而治彼此互不侵犯。
但许多机器人在“占领”了自己语言的对应词条之后,会对同一词条在其他语言中的版本“指手画脚”从而导致与其他语言的机器人编辑产生冲突。这在一些有争议的国家和人物上尤为突出(比如巴基斯坦前总统、乌兹别克斯坦、爱沙尼亚),仿佛这些机器人也有政治倾向。
然而,机器人编辑冲突数量之高并不意味着机器人比人类之间更为好战,事实上大多数机器人之间的更改和撤销行为都比人类之间的在篇幅上要小许多,其中很多是由于不同机器人对语法和措辞上的理解无法像人类那样变通造成的。
研究人员 Yasseri 说,(编辑)机器人不可能在抽象的介质中工作,它们像人类一样通过语言进行“思考”并做出动作,因此语言和环境会显著的影响机器人的行为准则。因此以为机器人不是人类就可以没有社会性没有立场的工作是不可能的。
这种跨语言的冲突在 2013 年得到了缓解,因为从 2013 年开始,维基百科开始使用 Wikidata 中转不同语言版本之间的词条,这明显阻隔了机器人之间互相“侵犯领土主权”的行为。
但同时,随着机器人数量的增加和机器人活跃度的增加,机器人之间的冲突数字正在变得越来越高。这有点像是网上曾经出现的过的让两个 Siri 进行对话的视频,他们会陷入无限的无厘头对话中一样。当每个机器人固执的认为自己的修改是正确的时候,便会陷入无限反馈的深渊之中——尽管他们的修改可能无关紧要而且彼此都是对的。
这种完全没有意义的冲突有时会持续数年,并显著降低机器人的工作效率,直到其中一方的主人发现并针对性的做出调整才会结束。
研究人员说,总体来说维基百科是一个观察机器人生态系统的绝佳例子。首先它的机器人人口数量足够大,其次这是一个善意的机器人社区——所有机器人都是为了将文章做得更好,另外维基是一个由统一规则所引导的社区而并非完全的开放空间。
然而在更为开放的网络环境比如 Twitter 或 Facebook 上,机器人与其它机器人的互动可能带来非常严重的后果。曾经被网民“教育”成纳粹分子的微软聊天机器人 Tay 就是一个典型的例子。
这项研究的目的是为了更好地理解机器人在不同的社会环境中的反应,尤其是一个机器人在融入一个机器人群体时的行为。因为随着机器人的发展,我们陷入一个机器人承担大多数社会工作的世界似乎是个必然趋势,因此机器人除了学会和人类打交道之外,也必须学会怎么和自己的同类交流。
阅读原文,更多热门;扫码识别,关注“机器人网”