专栏名称: 唤之
目录
相关文章推荐
程序猿  ·  问问DeepSeek,你和ChatGPT谁厉 ... ·  昨天  
OSC开源社区  ·  2024年AI编程工具的进化 ·  2 天前  
OSC开源社区  ·  敢自称Java版PyTorch,EasyAi ... ·  2 天前  
程序员的那些事  ·  感谢 ... ·  6 天前  
51好读  ›  专栏  ›  唤之

当RNN神经网络遇上NER(命名实体识别):双向LSTM,条件随机场(CRF),层叠Stack LSTM, 字母嵌入

唤之  · 掘金  · 程序员  · 2018-04-10 06:44

正文

命名实体识别 (NER) 语义 理解中的一个重要课题。NER就像自然语言领域的“ 目标检测 ”。找到文档D 中的名词实体还不够,许多情况下,我们需要了解这个名词是表示 地点(location) 人名(Person) 还是 组织(Organization) ,等等:

来自:https://www.slideshare.net/bperz/15-sdmpolyglot-ner

上图是 NER 输出一个句子后标记名词的示例。

在神经网络出现之前,几乎所有NER半监督或者非监督的方法,都要依靠 手工的单词特征 或者 外部的监督库(如gazetteer) 达到最好的识别效果。

手工的单词特征 可以方便提炼出类似 前缀,后缀,词根 ,如:

-ance , —ancy 表示:行为,性质,状态/ distance距离,currency流通
-ant,ent 表示:人,…的/ assistant助手,excellent优秀的
ary 表示:地点,人,事物/ library图书馆,military军事

可以知道-ant结尾的单词很可能是指 ,而-ary结尾更可能指的 地点

外部的监督库(如gazetteer) ,把一些 同种类的实体 聚合在一起做成一个库,可以帮助识别同一个意思的实体,如:

auntie 其实和 aunt 一个意思: 姨妈

Mikey 其实是 Mike 的昵称,都是 人名

今天所讲的 这篇卡内基梅隆大学的论文 ,用RNN神经网络的相关技术避开使用这些 人工特征,并能达到与之相当的准确率。

为了获取上述的 前缀,后缀,词根等相关特征 ,文章对每个单词的每个字母训练一个双 向LSTM ,把 双向LSTM 的输出作为单词的特殊embedding,和预训练eStack LSTM的算法识别命名实体,感兴趣可以继续阅读原论文。mbedding合成最后的词嵌入( final embedding ):







请到「今天看啥」查看全文