李林 编译自 Google Research Blog
量子位 报道 | 公众号 QbitAI
想自己在TensorFlow上搭神经机器翻译(NMT)模型?Google亲自来教你了。
周三,Google在GitHub上发布了一份TensorFlow神经机器翻译教程,带着读者充分理解seq2seq,并从零开始构建翻译模型。
seq2seq直译成汉语是“序列到序列”,是机器翻译中一种常用方法,能够用深层神经网络捕捉句子意义。
Google Translate就用了seq2seq,Google开源的tf-seq2seq、哈佛大学的OpenNMT,都是基于seq2seq的框架。
Google的这份教程,从神经机器翻译的背景知识讲起,然后详解了基础系统的代码细节,再讲到NMT系统处理长句的关键:注意力机制。最后,这份教程还详细介绍了如何复制Google神经机器翻译系统(GNMT)的关键功能,并在多个GPU上进行训练。
教程中还包含了详细的基准测试结果。Google开源模型的性能与GNMT相当,在WMT’14英语-德语翻译任务上,BLEU得分为24.4。
另外,这份教程还展示了完全动态的seq2seq API,让建立seq2seq模型更简单。
Google神经机器翻译教程的主要作者有:Google研究员Thang Luong、Google Brain软件工程师Eugene Brevdo、Rui Zhao。
原文:
https://research.googleblog.com/2017/07/building-your-own-neural-machine.html
教程详情:
https://github.com/tensorflow/nmt
GNMT简介:
https://research.google.com/pubs/pub45610.html
【完】
交流沟通
量子位读者5群开放申请,对人工智能感兴趣的朋友,可以添加量子位小助手的微信qbitbot2,申请入群,一起研讨人工智能。
想要更深一步的交流?
量子位还有大咖云集的自动驾驶技术群,仅接纳研究自动驾驶相关领域的在校学生或一线工程师。申请方式:添加qbitbot2为好友,备注“自动驾驶”申请加入~
如果你从事NLP方向的研究,欢迎加入量子位的NLP群。申请方式:添加qbitbot2为好友,备注“NLP”申请加入~
(自动驾驶、NLP等群的审核条件比较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者等岗位,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
△ 扫码强行关注『量子位』
追踪人工智能领域最劲内容