专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
阿昆的科研日常  ·  博士四年,摸鱼两年,谁说科研必须996? ·  昨天  
小张聊科研  ·  国自然思路:除了A-B-C模式外,国自然中常 ... ·  3 天前  
募格学术  ·  高校明确:实行岗位动态调整 ·  5 天前  
研之成理  ·  给大家介绍一位纳米科学领域的大牛! ·  6 天前  
51好读  ›  专栏  ›  PaperWeekly

论文推荐:语义分割,对话系统,机器翻译,Slam | 本周值得读 #33

PaperWeekly  · 公众号  · 科研  · 2017-05-07 11:26

正文

「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。 
这是第 33 篇「本周值得读」


#语义分割#


ICNet for Real-Time Semantic Segmentation on High-Resolution Images


本文提出了一个实时性的语义分割网络,Image Cascade Network(ICNet),在兼顾实时性的同时比原来的 Fast Semantic Segmentation,比如 SQ,SegNet,ENet 等大大地提高了准确率,足以与 Deeplab v2 媲美,给语义分割的实用提供了可能。


文中经过分析,影响速度最大的因素是图片分辨率,进而总结提高速度的方法有,对输入降采样,对特征降采样,或者进行模型压缩。在这基础上,本文提出的模型利用了低分辨率图片的高效处理和高分辨率图片的高推断质量两种优点。主要思想是:让低分辨率图像经过整个语义网络输出一个粗糙的预测,然后利用文中提出的 cascade fusion unit 来引入中分辨率和高分辨率图像的特征,从而逐渐提高精度。本文还对网络进行了模型压缩,再次提速。最终,该模型能达到实时进行语义分割处理,同时有较高准确率。


论文链接:https://arxiv.org/abs/1704.08545


知乎专栏简评:

https://zhuanlan.zhihu.com/p/26653218?refer=semantic-segmentation


推荐人:余昌黔,华中科技大学(PaperWeekly arXiv组志愿者)




#对话系统#

#上下文# 


Not All Dialogues are Created Equal: Instance Weighting for Neural Conversational Models


不论是基于检索来找 response 还是基于生成来出 response,都需要考虑对话的 context,简单的、没有取舍地将 context 作为 condition 来产生 response 都存在一定的问题。本文提出了一种 weighting model 加入到对话生成模型中,对 context 进行了重要性区分,从而检索出/生成更加合理的 response。建议各位做 chatbot 应用和服务的同学看看。


论文链接:http://cn.arxiv.org/abs/1704.08966


推荐人:大俊,PaperWeekly 首席客服



#SLAM#


SfM-Net: Learning of Structure and Motion from Video


文章致力于解决目前 SfM/SLAM 在运动估计和三维重建中存在的问题:1.易受场景中移动物体干扰,2.相机运动和结构估计的解的不唯一性,3.纹理特征较弱情况下的算法稳定性。 


文章提出了 SfM-net,该网络以前后两帧图像为输入,支持通过测量误差进行非监督学习,同时支持以相机运动参数、场景深度信息进行监督学习;此外,网络引入了对移动物体的运动估计,并施加了前后两帧图像前向、后向结构和运动估计的一致性约束;该网络能够以端到端的形式得到三维场景深度、相机运动参数、移动物体运动掩模及其运动参数。 


文章在 KITTI、MoSeg 数据集上进行无监督训练并测试,验证了网络在场景深度估计、移动物体运动掩模估计方面的性能;并且验证了移动物体运动掩模的使用能够提升场景深度估计的精度。在 RGB-D SLAM 数据集上,文章以场景深度进行监督学习,通过对比 benchmark,SfM-net 获得了更准确的相机运动参数估计。


论文链接:https://arxiv.org/abs/1704.07804


推荐人:高增辉,西安交通大学(PaperWeekly arXiv组志愿者)



#假新闻# 

#数据集# 


"Liar, Liar Pants on Fire": A New Benchmark Dataset for Fake News Detection


本文是 @王威廉 老师的工作,放出了一个假新闻检测的数据集,感兴趣的同学可以看过来。


数据地址:http://t.cn/Ra7mPuF


论文链接:http://cn.arxiv.org/abs/1705.00648


推荐人:大俊,PaperWeekly 首席客服




#NMT#

#ACL2017# 


A Teacher-Student Framework for Zero-Resource Neural Machine Translation


本文工作的亮点在于利用“教师-学生”的学习框架,在轴语言的帮助下,对零资源的语言对直接建立翻译模型。从而同时提高了翻译质量和解码效率。本篇工作来自 PaperWeekly 作者团队。


论文链接:http://cn.arxiv.org/abs/1705.00753


推荐人:大俊,PaperWeekly 首席客服



#NLG# 


Neural Question Generation from Text: A Preliminary Study


文章首次提出了使用深度学习模型从文本中生成问题的方法。该任务为:给定一个自然语言句子及该句子中的一个连续子串,要求根据该句子生成一个自然语言问题,且其答案为给定的子串。传统方法基本为在句法树上定义规则对其进行变换,较为繁琐且生成问题质量不高。 


该文章扩展了 seq2seq 模型,提出利用 feature-rich encoder 将答案位置信息进行编码,从而生成针对该答案的问题。同时,文章还结合了 pointing 机制以解决低频词问题。在斯坦福的问答数据集(SQuAD)上,该文章在 BLEU-4 自动评测指标与人工标注指标上均显著优于传统的基于规则的方法。 


文章基于 SQuAD 数据集,对其进行了处理与分割,发布了一个针对问题生成任务的数据集。该数据集可以在作者主页下载。


数据集:https://res.qyzhou.me/


论文链接:https://arxiv.org/abs/1704.01792


推荐人:大俊,PaperWeekly 首席客服



✎✎✎


「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。


关于PaperWeekly


PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事AI领域,欢迎在公众号后台点击「交流群」,小助手将把你带入PaperWeekly的交流群里。