专栏名称: 待字闺中
深度分析大数据、深度学习、人工智能等技术,切中实际应用场景,为大家授业解惑。间或,也会介绍国内外相关领域有趣的面试题。
目录
相关文章推荐
OSC开源社区  ·  地表最强「开源版PS」——GIMP ... ·  3 天前  
程序员的那些事  ·  年薪154w!又一新兴岗位崛起!这才是程序员 ... ·  2 天前  
程序员的那些事  ·  65 ... ·  2 天前  
程序猿  ·  刚刚,雷军宣布!瞬间爆了 ·  2 天前  
51好读  ›  专栏  ›  待字闺中

最佳实践:深度学习用于自然语言处理(二)

待字闺中  · 公众号  · 程序员  · 2017-08-21 06:23

正文

(continue)

Attention

Attention is most commonly used in sequence-to-sequence models to attend to encoder states, but can also be used in any sequence model to look back at past states. Using attention, we obtain a context vector c i " role="presentation" style="font-variant: inherit; font-stretch: inherit; line-height: normal; font-family: inherit; vertical-align: baseline; border-width: 0px; border-style: initial; border-color: initial; display: inline; word-spacing: normal; word-wrap: normal; float: none; direction: ltr; max-width: none; max-height: none; min-width: 0px; min-height: 0px;">







请到「今天看啥」查看全文