专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
实验万事屋  ·  还指望那些所谓的“SCI套路”,能让你发10 ... ·  5 天前  
科研圈  ·  【注册进行中】2024 ... ·  6 天前  
51好读  ›  专栏  ›  PaperWeekly

CANE:用于关系建模的上下文相关网络表示学习模型

PaperWeekly  · 公众号  · 科研  · 2017-06-15 15:59

正文

「每周一起读」是由 PaperWeekly 发起的协同阅读小组。我们每周精选一篇优质好文,利用在线协同工具进行精读并发起讨论,在碎片化时代坚持深度阅读。目前已成立的专题小组有:Chatbot、机器翻译、知识图谱、GAN、推荐系统、QA、增强学习、多模态、自动文摘和统计学习。


CANE: Context-Aware Network Embedding for Relation Modeling


本文工作来自第 9 期 PhD Talk 嘉宾 — 清华大学计算机系人智所自然语言处理组的涂存超博士。该工作利用社会网络中用户产生的文本信息(如论文),采用 cross attention 技术,建立了上下文敏感的网络节点表示学习模型,在这里某个网络节点的表示会根据链接邻居的不同而不同,该算法在社会网络链接预测任务上表现非常好。本文已入选 ACL2017


论文链接:

http://www.thunlp.org/~tcc/publications/acl2017_cane.pdf


相关代码:

https://github.com/thunlp/CANE

相关数据集:

Cora: https://github.com/thunlp/CANE/tree/master/datasets/cora

HepTh: https://github.com/thunlp/CANE/tree/master/datasets/HepTh

Zhihu: https://github.com/thunlp/CANE/tree/master/datasets/zhihu



阅读笔记精选



huangchao


本文是一篇关于网络表示学习的文章,用于对一个网络结构中的节点进行向量化表示,传统的方法大都没有考虑一些异构信息(如节点的标签,文本等),在和不同的节点进行交互时,其表示也是相同的,因而是 context-free 的。本文的模型(CANE)通过引入一种相互注意机制(mutual attention),对节点的结构信息和文本信息进行了融合,从而可以考虑节点的上下文信息,在和不同的节点交互时具有不同的表示。本文的模型在连接预测和节点分类的任务上均取得了比其它模型更好的结果。


个人觉得本文的工作对于实体消歧方面的工作具有借鉴意义,另外,个人觉得本文模型可能受限的地方在于,本文考虑的 context 是针对一条边所连接的结点的文本信息,可能有点匮乏,以前看一些工作,网络中一个结点的 context 通常被认为是该结点连接的边以及其邻居结点的信息,因此,或许结合之前做关系抽取用到的 selective attention 找到和该结点连接的比较重要的一些边,再使用本文的 mutual attention 对结点的 text 和这些边的领域结点的 text 进行融合表示,或许可以学习到一个更有意义的结点的表示。

lizhili


本文主要针对目前存在的 NE 方法对于每个顶点仅有一个简单 embedding,没有考虑到网络节点根据不同的交互对象会展现出不同交互特性的缺陷,提出了上下文敏感的网络表示(CANE)。首先通过 cnn 得到网络顶点的一个 embedding(context-free embedding),之后通过计算该节点与相邻节点的 mutual attention(就是在 pooling 层引入一个相关程度矩阵),得到顶点针对该相邻节点的 context-aware embedding,最终顶点的 embedding 表示由这两个 embedding 结合得到。文章将模型用到了链接预测,节点间关系解释任务中,均取得了不错效果。


dingboy


对于传统的 NE 方法,结点只有一个 embedding,缺乏多样性。本文针对这点提出了上下文敏感的 embedding,从而构成了“动态”的结点。本文的“动态”思路与之前的 TransX 系列有类似之处。例如,TransD 与 TransR 通过投影矩阵,使得 entity 在不同 relation 下有不同的 embedding。而 TransG 认为 relation 具有多语义,通过生成模型,根据不同的实体对动态生成 relation 的语义 embedding。总体来说,本文的模型具有较好的借鉴意义。



 Q&A 精选


beryl

a low-dimensional embedding

这里是为每个顶点学习一个表示还是根据连接情况学习多个表示?


lizhili: 这里指的应该是一个固定的 embedding,也就是下文提到采用 NRL 得到 Context-free embedding,得到一个自身的 embedding。 不过除此之外,CANE 还会通过不同的邻边节点得到 context-aware embedding。


karis: 为每个顶点学习一个表示,但利用了网络结构和相关信息如节点描述 text。

Herbert002

Invthis paper, we assume that one vertex usu-ally shows different aspects when interact-ing with different neighbor vertices, and should own different embeddings respec-tively. Therefore, we present Context-Aware Network Embedding (CANE), anovel NE model to address this issue. CANE learns context-aware embeddings for vertices with mutual attention mecha-nism and is expected to model the seman-tic relationships between vertices more precisely.

作者假设一个节点通常在与不同的相邻节点交互时表现出不同的侧面,所以应当分别 embedding。因此,提出了上下文相关网络 Embedding(CANE)。CANE 为节点学习一个带相互注意机制的上下文相关 embedding,有望更准确地模拟节点间的语义关系。 


sunflower18: 这个相互注意机制要怎么理解啊,跟上下文相关是一个意思吗?


Herbert002在 4.5 节有详细说明,我觉得文中主要是引入 attentive matrix A 来实现。


mikasa赋予不同权重。

plntr

Given a word sequence S=(w1;w2;:::;wn)

要求每个 vertex 的 word sequence 是固定长度。实际问题中,如果每个顶点的 associate text 变长怎么办? 


Update:根据后面描述,每一个顶点都有单独的 convolution matrix,也就是顶点不共享参数?

kaharjan: word sequence 的长度应该不固定。



想和我们一起研读优质paper?


点击「阅读原文」提交内测申请,我们将在 48 小时内完成审核并和您取得联系。


关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


点击 | 阅读原文 | 进行报名