专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
阿昆的科研日常  ·  夹带私货? ·  2 天前  
阿昆的科研日常  ·  夹带私货? ·  2 天前  
实验万事屋  ·  博士就发了45.5分的cell,这浙江大学的 ... ·  1 周前  
51好读  ›  专栏  ›  PaperWeekly

论文推荐:GAN,信息抽取,机器阅读理解,对话系统 | 本周值得读 #34

PaperWeekly  · 公众号  · 科研  · 2017-05-21 11:20

正文

「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。 
这是第 35 篇「本周值得读」


#机器阅读理解#


MACHINE COMPREHENSION USING MATCH-LSTM AND ANSWER POINTER


作者使用其针对 neural inference 任务提出的 match-lstm 模型做了机器阅读理解(SQUAD),其融合 match-lstm 和 pointer-network 的框架在后续多篇工作中出现,包括 squad leaderboard 上目前的第一名 r-net。match-lstm 在标准的 word-by-word attention 之后,将生成的 weighted question representation 和 encoder 读入的当前 passage vector 一起作为输入送进 lstm,计算 question related passage representation。这种结构在其他自然语言生成任务上也值得借鉴。


论文链接:https://arxiv.org/pdf/1608.07905.pdf


推荐人:孙静远,中国科学院(PaperWeekly arXiv组志愿者)



#Metric Learning# 


Metric Learning: A Survey


This paper aims to estimate the distance (metric) function by the training dataset consist of, Type1: Input: (x_i, y_i) output: x_i, y_i are similar or not Type2: Input: (x_i, y_i, z_i) output: y_i is closer to x_i than z_i 


对于两种不同类型的数据类型, 文章里提出了几种估计方法。 第一种是线性的估计,假设 d_A(x,y) = x^T A y 问题转化成为估计 A 的问题,Type1 类型的 data 就转化成了分类问题,思想和 SVM 类似。第二种变成 Ranking 问题,思想和 RankSVM 类似。计算上会比 SVM 难,在某种意义在说就是 RankSVM 的 scoring function 是二次函数的形式。 


第二种是非线性的估计,假设 d(x,y) = d_A(f(x), f(y)), f 可以是 RKHS 空间里面的函数,用 representer thm 转化成了 kernel 的问题。思想和 kernel svm 非常相似,先把 data map 到非线性的空间,再算 distance。最后是一些 Application, 如 Face recognition,如两张照片是不是一个人。


论文链接:

http://web.cse.ohio-state.edu/~kulis.5/pubs/ftml_metric_learning.pdf


推荐人:Ben Dai,香港城市大学(PaperWeekly arXiv组志愿者)



#GAN#


GeneGAN: Learning Object Transfiguration and Attribute Subspace from Unpaired Data


本文的工作属于图像到图像间的翻译。类似于 DiscoGAN、CycleGAN 和 DualGAN,作者通过对偶学习,加上弱监督信息(weak 0/1 label),成功实现图像属性的迁移。G 采用 autoencoder 结构,encoder 将图像编码成图像主体信息(如:图像背景和人脸 ID 等)和属性信息(如:微笑、戴眼镜、发型等),decoder 则类似于 CGAN,将图像主体信息和属性信息翻译成图像。通过修改输入 decoder 的属性信息,实现属性的迁移。这种迁移成功的关键在于对偶学习机制(L1 重构误差),以及平行四边形 loss 和 nulling loss。值得一提的是,跟 CycleGAN 等相比,GeneGAN 只需要 generator 和 discriminator 各一个。文章在 CelebA 和 Multi PIE 数据集上进行实验,得到了不错的人脸属性迁移效果。 亮点推荐:推荐学习文章对弱监督信息的处理技巧。


代码地址:https://github.com/Prinsphield/GeneGAN


论文链接:https://arxiv.org/abs/1705.04932


推荐人:洪佳鹏,北京大学(PaperWeekly arXiv组志愿者)



#ACL2017# 


Joint Modeling of Content and Discourse Relations in Dialogues


本文研究的问题非常有意思,从多人会议中抽取关键信息,从而进一步自动生成会议摘要。类似的,我们可以做微信群的讨论摘要和精彩讨论抽取,以及其他多人对话、讨论场景中的重点信息抽取和摘要生成。


论文链接:https://arxiv.org/abs/1705.05039


推荐人:大俊,PaperWeekly 首席客服



#对话系统# 


Key-Value Retrieval Networks for Task-Oriented Dialogue


本文的具体研究场景是车载智能助理,作者提出了一种基于知识库的端到端解决方案,车的 response 信息检索自形如 key-value 知识库中。文章会在后面开放出一个数据集出来供大家研究。本文工作来自斯坦福 Christopher D. Manning 组。


论文链接:https://arxiv.org/pdf/1705.05414.pdf


推荐人:大俊,PaperWeekly 首席客服



#IJCAI 2017# 


Learning to Identify Ambiguous and Misleading News Headlines


信息过载是一个非常严重的事情,而大量的信息中又有非常多的标题党信息。本文的工作很有趣,研究标题和新闻内容之间的一致性和连贯性,来判断新闻是否为标题党。做这个方向的童鞋可以来看看。


论文链接:https://arxiv.org/abs/1705.06031


推荐人:大俊,PaperWeekly 首席客服


✎✎✎


「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。


关于PaperWeekly


PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事AI领域,欢迎在公众号后台点击「交流群」,小助手将把你带入PaperWeekly的交流群里。