专栏名称: 深度学习与图网络
关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
目录
相关文章推荐
Quora文选英语  ·  老外说𝒐𝒖𝒕 𝒐𝒇 ... ·  17 小时前  
Quora文选英语  ·  老外说𝒕𝒂𝒍𝒌 𝒕𝒐 𝒕𝒉𝒆 ... ·  昨天  
知乎日报  ·  知乎瞎扯|你捡过最大的漏是什么? ·  2 天前  
知乎日报  ·  票房已突破 26 亿,如何评价《唐探 1900》? ·  3 天前  
51好读  ›  专栏  ›  深度学习与图网络

KDD2024 | GCOPE:港科广联合港中文提出首个跨域图预训练框架

深度学习与图网络  · 公众号  ·  · 2024-07-09 08:30

正文

今天介绍香港科技大学(广州)的一篇关于图预训练(Graph Pretraining)的文章" All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining",本文被KDD2024接收,代码已开源。
论文地址:https://arxiv.org/abs/2402.09834
项目地址:https://github.com/cshhzhao/GCOPE
背景
大型基座模型在自然语言处理(NLP)和计算机视觉(CV)领域都获得了瞩目的成就。其最显著的特点是能够在大规模的多样化的跨域数据集上进行预训练(称之为“All in One”),并将学习到的多样化知识迁移到各种跨域跨任务的下游数据集中(称之为“One for All”),展现出卓越的泛化能力和适应能力。然而,将这个想法应用到图领域仍然是一个巨大的挑战,跨域预训练往往会导致负迁移(如图1)。具体而言,首先,不同领域图数据之间多样化的结构模式会直接影响跨域预训练中学习到一种通用的结构模式用于下游的迁移,尤其是当结构模式差异很大的时候(比如,同配和异配图数据集)。其次,不同领域图数据之间的语义(特征)不对齐会导致跨域训练过程中难以找到一个统一的空间对图数据进行表示。这激发了本文的核心问题: 相比传统的单域图预训练框架,如何进一步提出一种跨域图预训练框架?核心的两个难点是如何处理多样化的结构模式以及保证语义(特征)空间上的对齐。
图 1 单源跨域图迁移场景下的负迁移现象
方法
本文提出了一种名为GCOPE的跨域图预训练方法,旨在解决不同图数据集在结构和特征对齐方面的挑战。该方法通过引入可学习的图协调器(Graph Coordinators)模块来增强图之间的互联性,并促进它们的特征和结构对齐,从而实现跨域预训练。
具体而言,GCOPE框架分为以下几个步骤:
  1. 特征投影: 在预训练阶段,首先通过特征投影模块将不同图的特征维度统一。具体操作包括奇异值分解(SVD)和注意力机制等方法,用于将特征投影到一个共同的低维空间中。这样, 所有图的特征都可以在同一维度下进行处理

  2. 引入图协调器: 为了进一步解决结构和语义对齐的问题, 本文提出了虚拟节点(即图协调器)的概念 。这些协调器通过以下两种方式来增强图的互联性:

  • 图内连接: 为每个图分配一个协调器节点,该节点与图中每个节点形成全连接子网络,确保协调器能够高效地传递信息并协调图内的交互。

  • 跨图连接: 不同图的协调器之间通过边进行连接,构建跨图的通信基础,实现信息流通和知识共享。 这些跨图连接的协调器节点通过相互连接,形成一个综合的跨域交互网络 ,促进不同图数据集之间的协作和知识共享。

  1. 生成图批次进行训练: 通过协调器节点的互联,本文实现了跨图节点的联合采样。这种创新策略使得训练过程能够 在单次学习迭代中处理来自不同图的数据,从而在统一的表示空间中进行学习 。这不仅提高了模型捕捉数据底层结构的能力,还促进了跨域的鲁棒性和泛化能力。

  2. 预训练与迁移: 本文采用应用广泛的图预训练策略(比如,GraphCL和SimGRACE)对联合采样后的跨域子图进行预训练。在 预训练阶段,通过图协调器模块,使得不同领域的图数据在统一的表示空间中进行对齐和学习,从而保留各自的结构信息和语义特征 。在迁移阶段,GCOPE展示了出色的泛化能力,能够灵活适应不同领域的下游任务,兼容传统微调和图提示框架。

通过上述方法,GCOPE不仅实现了跨域图数据的有效预训练,还通过图协调器模块解决了特征和结构对齐的问题,显著提升了模型在不同跨域下游任务中的表现。这样,GCOPE方法实现了“All in One”和“One for All”的目标,在图领域展现出卓越的泛化能力和适应能力。

实验
1.小样本下的跨域迁移
作者在同配和异配图数据集上对有监督方法(supervised)、预训练微调方法(IP + finetuning)和图协调器预训练微调框架(GCOPE + finetuning)进行了评估。下表展示了各种方法在小样本场景下跨同配异配数据集的迁移效果。结果表明, GCOPE方法对比传统单域预训练策略具有卓越的迁移能力
2.跨图连接分析
跨图连接作为跨域图数据集在预训练期间信息交互的重要结构。作者研究了不同协调器之间的跨图连接的边对GCOPE有效性的影响。具体来说,作者比较了两种变体:GCOPE/w(包括跨图连接)和 GCOPE/wo(取消跨图连接)。结果显示,GCOPE/w的效果远远好于GCOPE/wo的效果, 进一步验证了跨图连接的必要性和有效性






请到「今天看啥」查看全文