专栏名称: 待字闺中
深度分析大数据、深度学习、人工智能等技术,切中实际应用场景,为大家授业解惑。间或,也会介绍国内外相关领域有趣的面试题。
目录
相关文章推荐
OSC开源社区  ·  如何将谷歌开源的V8引擎移植到纯血鸿蒙系统? ·  3 天前  
程序员的那些事  ·  这个 2000 ... ·  3 天前  
程序员的那些事  ·  趣图:忘加 add 就 push 了 ·  4 天前  
程序猿  ·  据说只有程序员懂这是为什么 ·  4 天前  
51好读  ›  专栏  ›  待字闺中

如何深度理解Koth的深度学习分词?

待字闺中  · 公众号  · 程序员  · 2016-11-24 08:23

正文

作者简介:钱钤现就职于某创业公司的高级程序员,毕业于清华大学,是待字闺中的忠实粉丝和撰稿人。也欢迎广大的读者投稿,稿件一经采用,陈老师请你吃饭。


这篇技术文章,是对Koth大神上一篇关于深度学习分词技术博文的分析理解介绍,目的是分享深度学习在分词方面应用的一个学习过程,文章是对涉及到的理论进行分析,进而对最后要介绍的技术方案做更好的理解,请不要被“深度学习理论”吓到了。如果对深度学习很熟悉,可以直接跳到最后一个小节。


深度学习与自然语言处理


深度学习是近几年来发展十分迅速的领域,相信不少人都对此进行过研究,这一小节只是先简单介绍一下它。深度学习是一种特征学习的方法,区别于其他机器学习方法,它能够由低层到高层自动地去学习一个特征的层次结构。深层神经网络是由沃伦·麦卡洛克 (Warren McCulloch) 在 1943 年提出的,具备多层神经网络结构,一开始由于层数多且随机初始化造成训练结果不稳定,后来Hinton等人通过基于受限贝尔兹曼机的逐层无监督训练的预处理结果,在图像识别领域取得突破,而随后本希奥(Bengio)和萨拉赫丁诺夫 (Salakhutdinov)提出了基于自动编码的预处理方法,也取得了比较好的效果。


除了在图像处理领域的突破性进展,深度学习在自然语言处理领域也受到更多重视,但这两个领域有所不同。首先对于图像来说,可以通过向量空间表示输入信号,而自然语言处理大部分情况以词为基础进行处理,词向量的转换是第一步;其次,自然语言处理中涉及到对序列以及句法、翻译等更复杂的树形结构的处理,通常需要特殊的神经网络结构。


RNN与LSTM


本小节将对RNN和LSTM模型作对比阐述,并更深入地对LSTM的模型机理进行了解析。


RNN是一种为了克服普通DNN缺乏对时间序列上的变化进行建模的能力,而输入样本的时间序列对自然语言处理、语音识别等应用十分重要,为了适应这种需求,循环神经网络结构RNN产生了。




在RNN中,神经元的输出可以在下一个时间戳直接作用到自身,比如在下面的RNN模型结构中,隐藏节点的输入,除了来自输入层神经元的信号,还有来自上一个时刻其自身的输出。

  

另外,RNN模型展开后就能够看出随时间变化的模拟能力了,如下图所示的展开网络。因此RNN就能够学出自然语言处理、语音识别、手写识别等应用场景所需要的,较为复杂的树型结构。

 



这种节点展开的结构理论上可以学习无限长的序列,然而在实践中却并非如此,Bengio等人经过实践发现了一些影响这种结果的原因,即“梯度消失”,神经网络随着层数的增加,这种情况会越来越严重,反向传播一层,梯度衰减为上一层的0.25,层数多了以后,底层神经元基本接收不到信号。RNN在时间传播上的这种梯度消失问题,被一种称为LSTM的长短时记忆单元较好的解决。LSTM的变体发展出很多,这里只介绍一个基本的LSTM单元的结构作为理解的基础,图如下所示(画全部解析图太复杂了,就借来博客中的图直接用了):


与RNN类似,LSTM的重复模块可以随时间传递信息,只是结构有所不同,不同于单一的神经网络层,LSTM用四个神经元进行信息交互。可以把词汇信息的交互理解为细胞状态在上图水平线上的传递,LSTM 有通过精心设计的称作为“门”的结构来去除或者增加信息到细胞状态的能力。门是一种让信息选择式通过的方法。他们包含一个 sigmoid (黄色背景单元)神经网络层和一个 pointwise(粉色背景单元) 乘法操作。


我们从左至右,按照细胞状态走向看LSTM的结构,下图所示,最左侧称之为“忘记门层”(forget gate),决定从细胞状态中丢弃信息,该门读取输入h(t-1) 和x(t) ,经过神经网络层后,输出一个0-1之间的数值f(t) 给状态 C(t-1),即从完全舍弃到完全保留之间的所有状态。用在语言模型场景中可以解释为,细胞状态带有的现有的词汇信息的记忆,词汇被正确识别后,希望在识别新词汇时不受之前的干扰,忘记之前的信息。

 



下面一步是更新旧细胞状态C(t-1) ,计算出经过忘记门层丢弃掉需要忘记的信息i(t)或上图指示的f(t)后,再叠加乘以下图所示的C~(t),这一步就丢弃掉不需要的旧有词汇的信息,添加信息将细胞状态更新为目标状态。

 



最后一步,确定输出的具体值,下图中的sigmoid神经元层决定过滤掉输出的哪些部分,或者说确定输出哪部分,将上一步更新后的细胞状态经过tanh处理后,得到一个介于-1与1之间的值,再与sigmoid叠加相乘确定最终我们期望的输出结果。比如说,处理单元之前看到了一个主语,现在要根据这个主语代词的单复数形式,确定下面一个要输出的动词的词形变化。




基于双向LSTM与CRF的神经网络结构


上面扯了这么多基础知识,这部分内容开始正式呼应Koth大神写的深度学习与分词实践,参考对应的文献,详细介绍具体的解决方案。


分词和命名实体识别、浅语义标注、指代消解等都是自然语言处理中的基本问题,提到分词的解决方案,已经发展出很多种工具,常见的有Stanford CoreNLP的中文分词,IKAnalyzer,FudanNLP,ICTCLAS,结巴分词等等。同时涉及到多种算法和模型,基于字符串或规则的正向、反向最大匹配,基于统计的词共现技术,基于特征学习的最大熵、CRF这类监督式学习技术。公认效果最好最稳定的分词方案,都大多要依靠繁琐的人工特征处理,以及专业领域的词典。又啰嗦半天,好了马上介绍一种新颖的基于神经网络架构的分词方案。


这个方案就是上文提到的LSTM以及CRF的混合模型结构,如下图所示,单层圆圈代表的word embedding输入层,菱形代表学习输入的决定性方程,双层圆圈代表随机变量。信息流将输入层的word embedding送到双向LSTM, l(i)代表word(i)和从左边传入的历史信号,r(i)代表word(i)以及从右边传入的未来的信号,用c(i)连接这两个向量的信息,代表词word(i)。

 



先说Bi-LSTM这个双向模型,LSTM的变种有很多,基本流程都是一样的,文献中同样采用上一节说明的三个门,控制送入memory cell的输入信息,以及遗忘之前阶段信息的比例,再对细胞状态进行更新,最后用tanh方程对更新后的细胞状态再做处理,与sigmoid叠加相乘作为最终输出。具体的模型公式见下图,经过上一节的解释,这些符号应该不太陌生了。

 



双向LSTM说白了,就是先从左至右,顺序学习输入词序列的历史信息,再从右至左,学习输入词序列未来影响现在的信息,结合这两种方式的最终表示有效地描述了词的内容,在多种标注应用上取得了好效果。


如果说双向LSTM并不特殊,这个结构中另一个新的尝试,就是将深度神经网络最后学出来的结果,作为特征,用CRF模型连接起来,用P来表示双向LSTM神经网络学习出来的打分输出矩阵,它是一个 nxk 的矩阵,n是输入词序列个数,k是标记类型的数目, P(ij)指的是在一个输入句子中,第i个词在第j个tag标记上的可能性(打分)。另外一个特征函数是状态转移矩阵 A,A(ij) 代表从tag i转移到tag j的可能性(打分),但这个转移矩阵实际上有k+2维,其中包括句子的开始和结束两个状态,用公式表示如下图:

 



在给定输入序列X,最终定义的输出y序列的概率,则使用softmax函数表示如下:

 


而在训练学习目标函数的时候,要优化的就是下面这个预测输出标记序列的log概率,其中 Y(X)代表的是所有可能的tag标记序列集合,那么最后学习得到的输出,就是概率最大的那个标记序列。如果只是模拟输出的bigram交互影响方式,采用动态规划即可求解下列方程。

 


 

至此,基于双向LSTM与CRF的神经网络结构已经介绍完毕,文献中介绍的是在命名实体识别方面的一个实践应用,这个思路同样可以用在分词上。具体的实践和调参,也得应场景而异,Koth在上一篇博客中已经给出了自己的践行,读者们可以借鉴参考。


我的分享结束,但愿阅读文章的各位有收获,谢谢!也感谢陈老师提供的好平台做知识分享。


参考文献和资料


深度学习在自然语言处理中的应用,刘树杰 董力 张家俊等,中国计算机协会通讯

Understanding LSTM Networks    http://colah.github.io/posts/2015-08-Understanding-LSTMs/

Neural Architecture for Named Entity Recognition, Guillaume Lample, Miguel Ballesteros, etc, arXiv:1603.01360v1 [cs.CL]