专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
科研大匠  ·  上科大再发Cell ·  3 天前  
科研大匠  ·  自然基金立项1818项,杰青80项、优青15 ... ·  3 天前  
募格学术  ·  特朗普将签署行政令:关闭美国教育部 ·  昨天  
募格学术  ·  换帅!南京一大学,迎来新党委书记 ·  2 天前  
51好读  ›  专栏  ›  PaperWeekly

每周论文清单:知识图谱,文本匹配,图像翻译,视频对象分割

PaperWeekly  · 公众号  · 科研  · 2017-12-27 11:56

正文



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「 阅读原文 」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第 31 篇文章

[ 自然语言处理 ]


Knowledge Graph Embedding: A Survey of Approaches and Applications

@jerryshi 推荐

#Knowledge Graph

本文对当下流行的 Knowledge Graph Eembedding 进行汇总,主要介绍了两大类,Translational Distance Models 和 Semantic Matching Models,简要叙述了每中方式下的算法。最后又给出了 KG Embedding 的一些应用,包括 KG 内部知识补全及外部的关系抽取、QA、推荐等。

论文链接

https://www.paperweekly.site/papers/1425

Parallel WaveNet: Fast High-Fidelity Speech Synthesis

@wuhecong 推荐

#Deep Learning

DeepmMind 17 年 11 月份的论文,wavenet 的改良版本,实现了并行文本转语音。可以和百度的 Deep Voice 3 对比一下。

论文链接

https://www.paperweekly.site/papers/1416

Deconvolutional Latent-Variable Model for Text Sequence Matching

@zhangjianhai 推荐

#Sentence Matching

利用 Convolution encoder - Deconvolution decoder 学习句子的语义表示,将 cnn-deconv 框架用于文本匹配任务中,如 Text Entailment、Paraphrase Identification 任务中,generation 和 discriminative 共同训练,提升特定任务的效果。

该论文方法优势是可以利用 unlabeled 数据帮助学习句子表示,当数据不足时非常有效,随着标注数据的增加,优势逐渐减小。

论文链接

https://www.paperweekly.site/papers/1387


Exploring the Effectiveness of Convolutional Neural Networks for Answer Selection in End-to-End Question Answering

@longquan 推荐

#QA System

本文尝试探索了从整个端到端问答系统的流程的角度去衡量卷积神经网络对于答案选择任务的有效性。使用的数据集是标准的 TrecQA 数据集。

论文链接

https://www.paperweekly.site/papers/1400


Attention-based LSTM for Aspect-level Sentiment Classification

@applenob 推荐

#Sentiment Classification

使用基于 Attention 的 LSTM 解决细粒度的情感分析问题,在 SemEval 2014 上取得 state-of-art 的结果。

论文链接

https://www.paperweekly.site/papers/1359


[ 计算机视觉 ]


Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

@Aidon 推荐

#Neural Networks

文章提出一种加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)来克服现有方法中存在的一个主要问题:如何保证网络加速而又不损失网络性能。

MAE 借助小波的思想,在 encoding 阶段利用 CNNs 分别提取图像的低频分量和高频分量,在 decoding 阶段利用这两个分量恢复出原始图像。

训练好 MAE 之后,可以用于提取图像的低频分量和高频分量,比如在图像分类任务中,将低频分量输入到标准的分类 DNNs(如 VGG-16,ResNet)中,然后与高频分量融合后一起用于分类。

这里提高效率的关键在于,相比于原始图像,提取的低频分量和高频分量都是低分率(原始图像的 1/4)的。

论文链接

https://www.paperweekly.site/papers/1413


Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning

@snowwalkerj 推荐







请到「今天看啥」查看全文