专栏名称: AI TIME 论道
AI TIME是一群关注人工智能发展,并有思想情怀的青年学者创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,链接全球AI学者,以辩论的形式探讨人工智能领域的未来。
目录
相关文章推荐
半月谈  ·  半月谈公考AI正式上线! ·  2 天前  
底线思维  ·  俄美关系:一直在重启,始终在死机 ·  2 天前  
半月谈  ·  “要不是你,我这个家就完了!” ·  2 天前  
半月谈  ·  “赛博森林”——荒漠也有春天 ·  2 天前  
51好读  ›  专栏  ›  AI TIME 论道

ICLR 2024 杰出论文荣誉提名奖专场直播 | 6月27日15:00

AI TIME 论道  · 公众号  ·  · 2024-06-25 18:00

正文

点击蓝字

关注我们

AI TIME欢迎每一位AI爱好者的加入!



ICLR NeurIPS ICML 并称为机器学习三大顶会。


ICLR 2024 共收到了7262篇提交论文,录用2260篇,录用率31.1%,其中367篇Spotlights,占比16.2%;86篇Oral,占比3.8%。


其中,5篇论文获得杰出论文奖,11篇论文获荣誉提名奖。有两篇荣誉提名奖来自国内,分别来自北京大学和香港城市大学。本次ICLR杰出论文荣誉提名奖专场特别邀请到这两篇论文的一作作者 张博航 吴一尘



01

图同态——评估图神经网络表达能力的定量框架

张博航



北京大学博士

导师为王立威教授。博士期间的研究方向为机器学习中的基础性问题,尤其聚焦图神经网络和Transformer的表达能力。博士期间在NeurIPS、ICLR、ICML三大机器学习国际会议上发表10余篇论文,多篇论文入选口头报告,其中两篇代表性论文荣获ICLR 2023杰出论文奖以及ICLR 2024杰出论文奖提名。曾获字节跳动奖学金、北京市优秀毕业生、北京大学优秀博士论文等荣誉。


报告主题:

图同态——评估图神经网络表达能力的定量框架


报告简介:

设计具有强大表达能力 (expressive power) 的图神经网络 (GNN) 是图学习领域的一个核心问题。到目前为止,GNN表达能力的评估主要通过Weisfeiler-Lehman (WL) 层次结构进行。然而,这种表达性度量方法存在明显的局限性:它本质上是粗糙的、定性的,且无法很好地反映实际需求(例如编码子结构的能力)。本次报告将提出一个新的框架,能够定量研究图神经网络的表达能力,并克服上述所有局限性。具体来言,我们将引入一种基本的表达能力度量,称为同态表达能力,它量化了GNN模型在同态下对图进行计数的能力。同态表达能力提供了一种完整且实用的评估工具:其完整性能够直接比较不同GNN模型的表达能力差异,而其实用性则有助于理解具体的GNN能力,例如子图计数。通过对四类代表性的GNN进行研究,本次报告推导了这些架构在不变 (invariant) 和等变 (equivariant) 情形的同态表达能力,给出了简单、统一且优雅的描述。这些结果为一系列先前的工作提供了新的见解,统一了不同子领域的研究范式,并解决了一些开放性问题。


02

元持续学习:基于二阶优化信息视角的理解与探索

吴一尘



香港城市大学博士

导师为魏颖和马柯德教授,主要研究领域为元学习,弱监督学习,持续学习。已在NeurIPS,ICML,ICLR,AAAI,ICCV,MICCAI,SCIS等国际顶级会议和期刊共计发表学术论文 10 余篇。目前担任 IEEE TNNLS, ICML, NeurIPS, ICLR,CVPR等国际顶级会议和期刊审稿人。曾入选“腾讯犀牛鸟科研精英计划”,获评德国“DAAD AInet Fellowship”以及ICLR24“Outstanding Paper Honorable Mention Award "。


报告主题:

元持续学习:基于二阶优化信息视角的理解与探索


报告简介:

持续学习旨在缓解模型在流式任务训练过程中所导致的灾难性遗忘问题。其中基于元学习的持续学习方法,希望通过双边优化的策略来缓解模型的遗忘现象。我们首次从二阶优化信息的角度出发,将元持续学习方法与基于正则的持续学习方法统一归纳到了一个模型更新框架,并从理论视角下分析了当前持续学习方法仍存在的问题——二阶优化信息不够准确。为了进一步解决这个问题,我们将元持续学习方法与方差减少技术相结合,并对所提方法进行了理论角度的分析与解释。

AITIME小助手

添加"AI TIME小助手",







请到「今天看啥」查看全文