本文约1000字,建议阅读5分钟
本教程系统地介绍了最新的具备数据效率和资源效率的TGNN算法、框架和工具,并探讨了在高效时间图学习领域中一些具有前景但尚未充分研究的方向。
信息和知识管理国际会议 (CIKM : The Conference on Information and Knowledge Management) 是CCF推荐的B类国际学术会议,是信息检索和数据挖掘领域顶级学术会议之一。会议主要涉及人工智能、数据科学、数据库、信息检索和知识管理等领域。CIKM' 24于2024年10月21日至25日在美国爱达荷州举行。时间图通过时间边捕捉动态的节点关系,在时间变化模式至关重要的广泛领域中得到了广泛应用。时间图神经网络(Temporal Graph Neural Networks, TGNNs)由于其在表示时间图方面的有效性,受到了广泛关注。然而,TGNNs在现实世界的低资源环境中仍面临显著的效率挑战。首先,从数据效率的角度来看,训练TGNNs需要足够的时间边和数据标签,而在实际场景中,数据收集和标注通常十分有限,这成为一个关键问题。其次,从资源效率的角度来看,TGNN的训练和推理过程由于复杂的编码操作,尤其是在大规模时间图上,计算需求极大。如何在保持有效性的前提下尽量减少资源消耗,是当前的一个重要课题。基于这些效率挑战,本教程系统地介绍了最新的具备数据效率和资源效率的TGNN算法、框架和工具,并探讨了在高效时间图学习领域中一些具有前景但尚未充分研究的方向。本教程旨在为数据挖掘、机器学习和人工智能领域的研究人员和从业者提供帮助。第二部分:数据高效的时间图学习
数据高效TGNNs的关键挑战
自监督时间图学习
弱监督时间图学习
少样本时间图学习第三部分:资源高效的TGNNs
资源高效TGNNs的关键挑战
高效的离散时间TGNN框架
高效的连续时间TGNN框架
高效的分布式TGNN训练框架第四部分:开放问题与挑战
时间图上的生成式预训练
时间图上的分布式训练https://wjerry5.github.io/cikm2024-tutorial/
数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。
新浪微博:@数据派THU
微信视频号:数据派THU
今日头条:数据派THU