最近发现了一篇优秀的Nature子刊论文,作者提出了一种基于可解释GNN癌症基因分析新框架,在预测任务中实现了卓越的性能表现。
除此之外,还出现了很多
可解释GNN
的新研究,其中顶会不少,可见
无论在学术界和工业界,这方向都相当受欢迎。
这是因为可解释GNN不仅能处理复杂数据关系、辅助决策制定,也能促进模型优化、加强用户对模型的信任,在医疗诊断和金融分析这些领域拥有超绝竞争力。
目前这方向主要有基于梯度/特征的方法、基于扰动的方法等,都比较主流,如果有同学想以此发论文,建议从这些角度入手,有参考更好找idea。
这里为了给大家省掉点查找资料的时间,我整理了
9篇
最新的可解释GNN论文,
挑的基本都是有开源代码的,拿来直接复现,希望能给大家的论文加快点进度。
扫码添加小享,
回复“
可解释GNN
”
免费获取
全部论文+开源代码
CGMega: explainable graph neural network framework with attention mechanisms for cancer gene module dissection
方法:
论文提出了一种新的多组学数据整合方法CGMega,通过有效整合基因组、表观基因组、蛋白质相互作用和3D基因组结构,提升了癌症基因预测的性能。CGMega展示了在不同癌症类型间的知识迁移能力,证实其在预测癌症基因和解析基因模块方面的有效性。
创新点:
-
利用图注意力和图解释技术开发了一种新框架CGMega,用于研究癌症基因模块。
-
有效整合多组学数据,包括基因组、表观基因组、蛋白质相互作用(PPIs)及3D基因组结构。
-
通过GNNExplainer实现对癌症基因模块的检测,提供对高阶基因模块的深入解析。
Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation
方法:
论文通过引入CFExplainer,提出了一种基于反事实推理的解释器,旨在通过识别代码图的最小扰动来改变GNN模型的漏洞检测预测,从而回答关键的“如果...会怎样”的问题,填补了现有研究在解释深度学习模型中的缺口。
创新点:
-
提出CFExplainer:这是一个利用反事实推理来解释GNN在漏洞检测中预测的新方法。
-
边缘剪枝技术:开发了一种新的技术来识别和剪枝代码图中的恶意边缘。
-
模型无关性:CFExplainer不需要访问GNN模型的内部信息,使其适用于各种黑盒模型。
扫码添加小享,
回复“
可解释GNN
”
免费获取
全部论文+开源代码
SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks
方法:
论文提出了一种自解释和自监督的GNN(SES),旨在解决现有图神经网络(GNNs)解释性和预测性能之间的差距,通过两个阶段的训练过程,即解释性训练和增强预测学习,SES利用全局掩码生成器提供可靠的实例级解释,并通过对比学习显著提升GNNs的预测准确性。
创新点:
-
提出了一个能够同时提供解释和预测的图神经网络(SES),解决了现有方法中解释性和预测性之间的脱节问题。
-
SES能够在训练过程中直接生成特征和结构的掩码,这些掩码有助于解释模型的决策过程。
-
通过使用对比学习增强模型的预测性能,使得解释信息能够反馈并提升模型的训练效果。