专栏名称: AI数据派
THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。
目录
相关文章推荐
泉安安海在线  ·  泉州晋江国际机场最新通告 ·  昨天  
泉安安海在线  ·  泉州晋江国际机场最新通告 ·  昨天  
海峡都市报闽南新闻  ·  36个教学班!新增学位1800个!泉州九中城 ... ·  3 天前  
海峡都市报闽南新闻  ·  36个教学班!新增学位1800个!泉州九中城 ... ·  3 天前  
海峡都市报闽南新闻  ·  事发泉州!一皮卡车突然冲进商场,现场画面曝光 ·  3 天前  
51好读  ›  专栏  ›  AI数据派

NLP领域近期有哪些值得读的开源论文?(附下载)

AI数据派  · 公众号  ·  · 2019-07-29 07:30

正文

来源:PaperWeekly

本文约 3300字 ,建议阅读 8分钟

本文为你分享10篇值得读的NLP论文,带源代码的那种~



@paperweekly 推荐

#Relation Extraction


本文是清华大学徐葳老师组和刘知远老师组发表于 ACL 2019 的工作, 论文在远程监督与弱监督融合两种技术之间搭建起了一座桥梁 ,既通过自动生成模式减轻了对领域专家在技能和工作量上的要求,又通过主动式的少量人工标注自动精炼高质量模式,从而赋能在新关系领域上的快速泛化。


此外,DIAG-NRE 不仅能有效抑制标签噪声,同时可以诊断不同关系类型上噪声类型、严重程度等方面,进而直观解释了噪声标签因何而起,又是如何得到抑制。


论文详细解读 ACL 2019 | 面向远程监督关系抽取的模式诊断技术


论文模型:点击查看大图



论文链接:

https://www.paperweekly.site/papers/3109


源码链接:

https://github.com/thunlp/DIAG-NRE


@tobiaslee 推荐

#Extractive Summarization


本文是 BERT 在摘要任务上的一次尝试,主要关注抽取式的摘要 。对于每个文档中的句子,在句子之前设置一个 CLS,利用 BERT 的设置得到句子的表示,在此基础之上判断是否选取这个句子。进一步地,为了整合 Document-Level 的信息,再得到句子表示之后(即 CLS token),可以再做一次 self-attention 或者是过一层 RNN。此外,除了 BERT 原有的 Positional Encoding,文章为了区别句子(某些词属于某个句子),额外增加了一个 Segment Encoding,对句子进行交错编码。


▲ 论文模型:点击查看大图



论文链接:

https://www.paperweekly.site/papers/3110


源码链接:

https://github.com/nlpyang/BertSum


@zhoujie 推荐

#Sentiment Classification


本文是一篇综述,对目前基于深度学习的 Aspect-level Sentiment Classification 进行了概括总结,对当前各种方法进行了分类。 该论文整理了关于 Aspect-level Sentiment Classification 的目前比较常用的数据集,并提供了统一下载的地方。该论文对比了目前比较经典的 state-of-the-art 的模型,并在 5 个数据集上进行实验看模型效果。


▲ 论文模型: 点击查看大图


论文链接:

https://www.paperweekly.site/papers/3081


源码链接:

https://github.com/12190143/Deep-Learning-for-Aspect-Level-Sentiment-Classification-Baselines


@IndexFziQ 推荐

#Commonsense Reasoning


本文是 Allen 实验室发表在 ACL2019 的一篇关于自动常识知识库构建的文章。 作者提出了Commonsense Transformers (COMET) 生成模型,主体框架是 Transformer 语言模型,在 ATOMIC 和 ConceptNet 知识种子训练集上训练,自动构建常识知识库。COMET与许多使用规范模板存储知识的传统知识库相反,常识知识库仅存储松散结构的开放式知识描述。


实证结果表明,COMET 能够产生新的人类评价为高质量的知识,高达 77.5%(ATOMIC)和 91.7%(ConceptNet)精度。使用常识生成模型 COMET 进行自动构建常识知识库也许就会成为知识抽取的合理替代方案。


▲ 论文模型: 点击查看大图



论文链接:

https://www.paperweekly.site/papers/3100


源码链接:

https://github.com/atcbosselut/comet-commonsense


@vertigo 推荐

#Sentence Representation


本文是杜克大学发表于 ACL 2019 的工作。 文章动机在于学习更加 compact 的 general-purpose sentence representations,以便于将其运用到移动设备上(内存较小,运算能力有限)。 作者提出了学习 binary 的 sentence embeddings,即句子向量的每一维是 0 或者 1,这样降低了储存 sentence embeddings 的内存,也加快了比较句子相似度的计算量(只需要计算 hamming distance)。


作者试验了一系列从 continous(real-valued)的句子向量 infer 出 binary 句子向量的办法。其中,autoencoder 加上一种 semantic-preserving loss 得到了很好的结果——在 10 个 downstream tasks 上,binary representations 达到了和 continous representations 很接近的结果。


▲ 论文模型: 点击查看大图



论文链接:

https://www.paperweekly.site/papers/3115


源码链接:

https://github.com/Linear95/BinarySentEmb


@tobiaslee 推荐

#Text Style Transfer


本文是腾讯微信 AI 和北大计算语言所发表在 ACL 2019 上的论文, 关注的是无监督的文本风格转换任务。 已有工作往往基于分步走的策略:先从文本中分离出内容,再通过一个风格融合模块来进行目标风格文本的生成,而这种策略无法捕获内容和风格之间的隐式关联,容易造成内容缺失等问题。


为了解决这个问题, 作者基于 Dual RL 框架,分别学习了两个 seq2seq 模型, 一个负责将源输入转换为目标风格输出,另一个恰好相反,这样就能直接完成输入到输出的转换而不需要分步走。reward 是调和平均风格奖赏(分类器判定为目标风格的概率)和内容奖赏(通过生成的文本重构原文本的概率),训练的时候交替更新两个 seq2seq 直到收敛。


另外,为了解决强化学习在生成过程中容易遇到的两个问题:需要预训练和在 RL 过程中语言模型容易崩坏,作者通过基于模板的方法来构建伪并行语料集来完成预训练,并且提出了 Annealing Pseudo Teacher-Forcing 来缓解后一问题。


实验部分,文章提出的模型在 YELP (情感极性转换)和 GYAFC (formality transfer)都取得了最佳的性能,并且发现 RL 方法对于风格迁移的准确度有所提升,但是在流畅程度上相比 MLE 有所欠缺。


▲ 论文模型: 点击查看大图




论文链接:

https://www.paperweekly.site/papers/3060


源码链接:

https://github.com/luofuli/DualLanST


@paperweekly 推荐

#Sentence Representation


本文是清华大学和华为诺亚方舟实验室发表于 ACL 2019 的工作,论文提出将知识图谱的信息加入到模型的训练中 ,这样模型就可以从大规模的文本语料和先验知识丰富的知识图谱中学习到字、词、句以及知识表示等内容,从而有助于其解决更加复杂、更加抽象的自然语言处理问题。实验表明,本文模型在多项 NLP 任务上的表现超越 BERT。


论文详细解读 ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT


▲ 论文模型: 点击查看大图



论文链接:

https://www.paperweekly.site/papers/3057


源码链接:

https://github.com/thunlp/ERNIE



@O3oBigFace 推荐

#Multimodal Sentiment Analysis


本文是清华大学和 CMU 发表于 AAAI 2019 的工作。 论文研究的内容是非文本的多模态数据对文本的情感极性的影响。 在日常生活中,除了说话内容,说话时的语调、面部表情、手势等等音频-视觉信息也是影响情感表达的重要部分。单纯利用文本词嵌入进行情感识别,会忽略掉重要的多模态信息。


本文提出了一个多模态情感分析模型,能够根据音频-视觉的多模态信息来动态地调整词嵌入的情感极性。 首先,模型根据文本中的每一个单词切分出对应的音频和视频片段,并利用 LSTM 分别对音频-视觉信息进行特征提取。然后,上一步抽取出的特征流入门控模态混合网络,该网络利用原始单词的词向量,以跨模态注意力的方式,来计算非文本特征的调整值。最后,加权合并原始词向量和对应的调整值,得到最终的多模态调整的词向量。


该模型使用了多模态融合机制(门控注意力)来融合不同模态之间的相关特征(视频-文本、音频-文本),最后用加权和的方式对文本特征进行调整;使用了多模态表示实现了文本与非文本特征的联合表示。结果比得上现有的情感分析模型,可能存在的问题:时间成本有点高、多模态注意力的实现方式有待商榷。








请到「今天看啥」查看全文