「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。 ➊
#机器阅读理解#
MACHINE COMPREHENSION USING MATCH-LSTM AND ANSWER POINTER
作者使用其针对 neural inference 任务提出的 match-lstm 模型做了机器阅读理解(SQUAD),其融合 match-lstm 和 pointer-network 的框架在后续多篇工作中出现,包括 squad leaderboard 上目前的第一名 r-net。match-lstm 在标准的 word-by-word attention 之后,将生成的 weighted question representation 和 encoder 读入的当前 passage vector 一起作为输入送进 lstm,计算 question related passage representation。这种结构在其他自然语言生成任务上也值得借鉴。
论文链接:https://arxiv.org/pdf/1608.07905.pdf
推荐人:孙静远,中国科学院(PaperWeekly arXiv组志愿者)
➋
#Metric Learning#
Metric Learning: A Survey
This paper aims to estimate the distance (metric) function by the training dataset consist of, Type1: Input: (x_i, y_i) output: x_i, y_i are similar or not Type2: Input: (x_i, y_i, z_i) output: y_i is closer to x_i than z_i
对于两种不同类型的数据类型, 文章里提出了几种估计方法。 第一种是线性的估计,假设 d_A(x,y) = x^T A y 问题转化成为估计 A 的问题,Type1 类型的 data 就转化成了分类问题,思想和 SVM 类似。第二种变成 Ranking 问题,思想和 RankSVM 类似。计算上会比 SVM 难,在某种意义在说就是 RankSVM 的 scoring function 是二次函数的形式。
第二种是非线性的估计,假设 d(x,y) = d_A(f(x), f(y)), f 可以是 RKHS 空间里面的函数,用 representer thm 转化成了 kernel 的问题。思想和 kernel svm 非常相似,先把 data map 到非线性的空间,再算 distance。最后是一些 Application, 如 Face recognition,如两张照片是不是一个人。
论文链接:
http://web.cse.ohio-state.edu/~kulis.5/pubs/ftml_metric_learning.pdf
推荐人:Ben Dai,香港城市大学(PaperWeekly arXiv组志愿者)
➌
#GAN#
GeneGAN: Learning Object Transfiguration and Attribute Subspace from Unpaired Data
本文的工作属于图像到图像间的翻译。类似于 DiscoGAN、CycleGAN 和 DualGAN,作者通过对偶学习,加上弱监督信息(weak 0/1 label),成功实现图像属性的迁移。G 采用 autoencoder 结构,encoder 将图像编码成图像主体信息(如:图像背景和人脸 ID 等)和属性信息(如:微笑、戴眼镜、发型等),decoder 则类似于 CGAN,将图像主体信息和属性信息翻译成图像。通过修改输入 decoder 的属性信息,实现属性的迁移。这种迁移成功的关键在于对偶学习机制(L1 重构误差),以及平行四边形 loss 和 nulling loss。值得一提的是,跟 CycleGAN 等相比,GeneGAN 只需要 generator 和 discriminator 各一个。文章在 CelebA 和 Multi PIE 数据集上进行实验,得到了不错的人脸属性迁移效果。 亮点推荐:推荐学习文章对弱监督信息的处理技巧。
代码地址:https://github.com/Prinsphield/GeneGAN
论文链接:https://arxiv.org/abs/1705.04932
推荐人:洪佳鹏,北京大学(PaperWeekly arXiv组志愿者)
➍
#ACL2017#
Joint Modeling of Content and Discourse Relations in Dialogues
本文研究的问题非常有意思,从多人会议中抽取关键信息,从而进一步自动生成会议摘要。类似的,我们可以做微信群的讨论摘要和精彩讨论抽取,以及其他多人对话、讨论场景中的重点信息抽取和摘要生成。
论文链接:https://arxiv.org/abs/1705.05039
推荐人:大俊,PaperWeekly 首席客服
➎
#对话系统#
Key-Value Retrieval Networks for Task-Oriented Dialogue
本文的具体研究场景是车载智能助理,作者提出了一种基于知识库的端到端解决方案,车的 response 信息检索自形如 key-value 知识库中。文章会在后面开放出一个数据集出来供大家研究。本文工作来自斯坦福 Christopher D. Manning 组。
论文链接:https://arxiv.org/pdf/1705.05414.pdf
推荐人:大俊,PaperWeekly 首席客服
➏
#IJCAI 2017#
Learning to Identify Ambiguous and Misleading News Headlines
信息过载是一个非常严重的事情,而大量的信息中又有非常多的标题党信息。本文的工作很有趣,研究标题和新闻内容之间的一致性和连贯性,来判断新闻是否为标题党。做这个方向的童鞋可以来看看。
论文链接:https://arxiv.org/abs/1705.06031
推荐人:大俊,PaperWeekly 首席客服
✎✎✎
「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。
关于PaperWeekly
PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事AI领域,欢迎在公众号后台点击「交流群」,小助手将把你带入PaperWeekly的交流群里。