出品 | AI科技大本营(ID:rgznai100)
10 月 31 日,在北京智源大会上,京东集团副总裁兼人工智能事业部总裁、智源-京东联合实验室主任周伯文,斯坦福人工智能实验室负责人(SAIL)Christopher Manning,以《Next NLP Frontier After Deep Learning: A Conversation about Conversation and Beyond》为题,从语义、语境和知识,当前NLP的典型技术或应用以及以任务为导向的多轮和多模态对话三大部分出发,对下一个自然语言处理最前沿的课题展开尖峰对话。
以下为对话内容实录,AI科技大本营(ID:rgznai100)整理,有删改:
语义、语境和知识
周伯文:
我们的对话是比较学术的。对话的第一部分会谈一下语义学、语境和知识。我选择这三个词是非常谨慎的,因为它是来自于 Christopher 在 2015 年的《科学》杂志发表的文章。在您的结论部分提到,语义学、语境和知识方面的难题要解决,需要在语言学和在推理方面真正有一些新突破。四年已经过去了,现在您对四年前的阐述是否要做一些调整?
Christopher Manning:
这是一个非常有意思的问题。我的答案确实已经出现了一些变化,但是有些还没有变化。关于人工智能我的看法是,我们的进展并没有那么大,还无法使人工智能建模利用知识和语境,像人类那样去应用。另一方面,要承认人工智能在过去几年中一些思维方式有了一些变化,可以看到通过建立新的深度学习网络的系统,可以更好地去对更复杂的系统进行建模,这增强了我们的一些能力和知识。
现在要进一步推动深度学习的发展,深度学习现在也可以推动人工智能取得巨大的进展,确实也是如此。但是在接下来的五年中,我相信这样的方法还是有很大的进展空间,我们还需要做重大的发现。
周伯文:
2015 年到 2016 年是自然语言处理发展的转折点,在这一年中我们看到在深度学习方面足够的能力。您是否觉得要关注语义学的发展,才能把机器翻译向前推进呢?有时这个事情被我们搞的特别复杂了。如果让很多人都注意到这个领域,必须要确保大家要齐头增效才行,在不同层面都投入研究才能做出小小的成就。
Christopher Manning:
我觉得我们需要开放地探寻其他的方法。通过指针代表不同符号的方法,实际上是非常有用的做法。它找到了广泛的应用领域,比如在所有神经网络技术过程中都是这样。实际上我不会投反对票,因为我发现很多人找到了全新的方法。我觉得在某种程度上,我们可以模拟人推理的过程,现在已经基本上可以用迭代的计算,并模拟人的记忆,把输入的信息结合在一起,一步一步去做成所以这是非常有用的定义。
周伯文:
我会觉得光靠这方面肯定是不足够的,所以接下来比较可能的一点,就是我们要找到一些全新的方向,未来必须要了解到可能更复杂的领域。
Christopher Manning:
我们必须要取得进步的一个领域,就是如何能够大规模将记忆、内存、知识为我们所用,用知识触发理解。我觉
得在某种程度上可以去做,但是无法做到更大规模,无法在现有的知识和记忆中
找到蛛丝马迹。
周伯文:
回顾一下,你觉得自然语言处理在过去十年中最大的成果是什么?
Christopher Manning:
十年以前包罗万象,包括所有现在的神经自然语言处
理,可以关注到很多点。我会觉得,从某种程度上来讲,它的起源点超过十年。因为在世纪之交,有很多同仁希望词语可以分布式代表,可以用来进行预测。比如大家会有一些符号表示,不会受到其他的多向性的影响。当时我们觉得这好像是挺不起眼的想法,但后来就火起来了,且现在越来越知名。在 2013 年,当时有很多人都专注于这个模型的研究,这种方法非常好用,但只是第一步。