专栏名称: 待字闺中
深度分析大数据、深度学习、人工智能等技术,切中实际应用场景,为大家授业解惑。间或,也会介绍国内外相关领域有趣的面试题。
目录
相关文章推荐
程序员的那些事  ·  趣图:只要你够莽,所有程序都是搞成一行代码 ·  3 天前  
码农翻身  ·  48k*16薪,进字节了! ·  1 周前  
程序猿  ·  特殊的岗位招聘 ·  1 周前  
51好读  ›  专栏  ›  待字闺中

最佳实践:深度学习用于自然语言处理(二)

待字闺中  · 公众号  · 程序员  · 2017-08-21 06:23

正文

(continue)

Attention

Attention is most commonly used in sequence-to-sequence models to attend to encoder states, but can also be used in any sequence model to look back at past states. Using attention, we obtain a context vector ci" role="presentation" style="font-variant: inherit; font-stretch: inherit; line-height: normal; font-family: inherit; vertical-align: baseline; border-width: 0px; border-style: initial; border-color: initial; display: inline; word-spacing: normal; word-wrap: normal; float: none; direction: ltr; max-width: none; max-height: none; min-width: 0px; min-height: 0px;">