专栏名称: AI算法科研paper
每日更新人工智能行业技术干货、论文推荐、动态资讯、职场指南等AI知识。关注AI算法科研paper更深入了解人工智能。
目录
相关文章推荐
51好读  ›  专栏  ›  AI算法科研paper

荣登Nature!可解释GNN取得新突破!

AI算法科研paper  · 公众号  ·  · 2025-02-02 19:06

正文

最近发现了一篇优秀的Nature子刊论文,作者提出了一种基于可解释GNN癌症基因分析新框架,在预测任务中实现了卓越的性能表现。

除此之外,还出现了很多 可解释GNN 的新研究,其中顶会不少,可见 无论在学术界和工业界,这方向都相当受欢迎。 这是因为可解释GNN不仅能处理复杂数据关系、辅助决策制定,也能促进模型优化、加强用户对模型的信任,在医疗诊断和金融分析这些领域拥有超绝竞争力。

目前这方向主要有基于梯度/特征的方法、基于扰动的方法等,都比较主流,如果有同学想以此发论文,建议从这些角度入手,有参考更好找idea。

这里为了给大家省掉点查找资料的时间,我整理了 9篇 最新的可解释GNN论文 ,挑的基本都是有开源代码的,拿来直接复现,希望能给大家的论文加快点进度。

扫码添加小享, 回复“ 可解释GNN

免费获取 全部论文+开源代码

CGMega: explainable graph neural network framework with attention mechanisms for cancer gene module dissection

方法: 论文提出了一种新的多组学数据整合方法CGMega,通过有效整合基因组、表观基因组、蛋白质相互作用和3D基因组结构,提升了癌症基因预测的性能。CGMega展示了在不同癌症类型间的知识迁移能力,证实其在预测癌症基因和解析基因模块方面的有效性。

创新点:

  • 利用图注意力和图解释技术开发了一种新框架CGMega,用于研究癌症基因模块。
  • 有效整合多组学数据,包括基因组、表观基因组、蛋白质相互作用(PPIs)及3D基因组结构。
  • 通过GNNExplainer实现对癌症基因模块的检测,提供对高阶基因模块的深入解析。

Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation

方法: 论文通过引入CFExplainer,提出了一种基于反事实推理的解释器,旨在通过识别代码图的最小扰动来改变GNN模型的漏洞检测预测,从而回答关键的“如果...会怎样”的问题,填补了现有研究在解释深度学习模型中的缺口。

创新点:

  • 提出CFExplainer:这是一个利用反事实推理来解释GNN在漏洞检测中预测的新方法。
  • 边缘剪枝技术:开发了一种新的技术来识别和剪枝代码图中的恶意边缘。
  • 模型无关性:CFExplainer不需要访问GNN模型的内部信息,使其适用于各种黑盒模型。

扫码添加小享, 回复“







请到「今天看啥」查看全文