专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
PaperWeekly  ·  北京内推 | ... ·  2 天前  
募格学术  ·  冬天第一国民水果,滋润了中国人3000年! ·  昨天  
募格学术  ·  博士,苦“第一学历”久矣 ·  5 天前  
51好读  ›  专栏  ›  PaperWeekly

第4期Talk实录 | 基于知识库的问答

PaperWeekly  · 公众号  · 科研  · 2017-04-06 15:06

正文

本文为 4 月 5 日,复旦大学知识工场实验室——崔万云博士在第 4 期 Talk 中的直播分享材料和 QA 问答。


>>>>

获取完整PPT


关注“Paperweekly”微信公众号,回复“20170405”获取下载链接。


Q & A


Q

请问崔博士,在 EntityLink 部分可以推荐一些比较好的 link 工具吗?

崔万云

应该还没有特别好的,我们在自己实现。不过有大量的相关文献。英文也有现成的应该。中文的必须自己实现。可以搜一下 gerhard weikum 在 sigmod 的一个教程,里面有提到。

Q

请问一下,在基于多粒度的神经网络模型中,没一种特征采用了不同粒度的表示,请问在用不同粒度表示的向量在 merge 的时候是直接 concatenate 还是加权求和,或者其他?如果是加权的话,对于不同的粒度表示的权重是否需要学习,还是根据经验设定?

崔万云

先串行,上面再接一层,学习融合参数。


Q

QA 的两种解法:模板和深度学习,工业界有没将这两个混合的,模板用来保证可控,神经网络用来扩召回?

崔万云

这个我不是特别清楚。融合起来就很难保证可控了。


Q

请问下,如果想做知识图谱的 Demo,怎么着手呢?

崔万云

知识图谱 demo 是指图像还是还是数据存储?可以先参考 cndbpedia 设计。


Q

请教下,多粒度 dnn 的训练数据是如何生成的,比如从 cn db 生成?

崔万云

是的。先从问题中生成候选实体,然后将所有关联属性作为候选答案


Q

请问在做问题相似的时候,标注数据是代表匹配程度的分数还是 01?

崔万云

这是一个整体的模型。最终的输出的标注数据是 0 和 1 


Q

基于神经网络的问答在处理复杂问题的时候是不是也能够处理成一个端到端的分类问题?如果可以,在候选答案的抽取和校验上又会存在哪些挑战?

崔万云

可以按照我 talk 中给的思路,利用 language model 做一个无监督的出来。候选答案抽取和复杂问题分解是两个阶段的问题。候选答案抽取主要用在简单问题的理解上。


Q

知识图谱领域问答系统和图谱补全哪个更有学习的空间,LSTM 的处理对问答系统的准确性有多少影响呢?

崔万云

应该都是很难的问题。相比之下,知识图谱补全的相关研究更多,也更可行一些。lstm 对比其他模型的效果,我们暂时没有测试


Q

你好,那个复杂问题分成小问题那块,能具体说说吗?

崔万云

就是每一个字句看是否合理,子句合理性用 language model 计算。




关于PaperWeekly


PaperWeekly 是一个分享知识和交流学问的学术组织,关注的领域是 NLP 的各个方向。如果你也经常读 paper,喜欢分享知识,喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

关注微博: @PaperWeekly
    微信交流群: 后台回复“加群”