专栏名称: 轻松参会
回复会议名称获取交流群二维码,如“cvpr”
目录
相关文章推荐
半导体行业联盟  ·  上海临港,2025重大签约:百亿项目1个,1 ... ·  2 天前  
Sir电影  ·  18岁以上谨慎观看! ·  2 天前  
桃桃淘电影  ·  刘亦菲,玫瑰盛放|赏色 ·  6 天前  
51好读  ›  专栏  ›  轻松参会

贾扬清十年经典之作获时间检验奖! ICML'24十篇最佳论文开奖, SD3等

轻松参会  · 公众号  ·  · 2024-07-25 10:05

正文

本文转载自“新智元”公众号



新智元报道

编辑:桃子 好困
【新智元导读】 一年一度的ICML顶会大奖终于公布了!今年,共有十篇论文夺得最佳论文奖,而这其中的3篇可谓是家喻户晓——图像生成模型SD3、视频生成模型VideoPoet、基础世界模型Genie。另外,时间检验奖颁给了贾扬清和团队十年前提出的框架DeCAF。

ICML 2024大奖新鲜出炉了!

刚刚,ICML开幕式正式召开,会上公布了10篇最佳论文奖,还有1篇十年前论文摘得时间检验奖。

最佳论文中,有几篇AI图像、视频生成领域的爆火之作,包括SD3技术报告、CMU谷歌AI视频模型VideoPoet、谷歌基础世界模型Genie。

值得一提的是,AI大牛贾扬清等人在2013年10月发表的论文DeCAF,获得了时间检验奖。

刚刚,他发文表示,深感荣幸获此殊荣。

CMU教授、Meta GenAI副总Russ Salakhutdinov对ICML 2024整体录用结果做了一个总结:

这届顶会一共收到了9473篇论文,其中2610篇被录用,录用率为27.55%。144篇是Oral,还有191篇是Spotlight。

今年全新引入的Position论文,提交有286篇,75篇被接收(26%)。15篇是Oral,11篇是Spotlight。

另外,Workshop中有145个提案,30个被接收。Tutorial有55个提案,12个被接收。

今年,是ICML 2024第41届年会(每年一届),于7月21日-27日在奥地利维也纳举办。

8675人纷纷前来现场参会,台下虚无坐席。

ICML 2024顶会速览


颁奖前,组委会首先介绍了下,今年大会的整体情况:

· 9个EXPO Talk Panel
· 12个Tutorial
· 6个特邀演讲
· 2,610篇论文(主会议)
· 30个研讨会
· 12345位作者和演讲者
· 39%参与者是学生
· 10个线下社交活动
· 3个affinity event
· 52名志愿者
· 97位高级区域主席(SAC),492位区域主席(AC),7473名审稿人

· 9406名注册参会者(其中8,675人现场参会)

根据被录用的论文,ICML汇总了出现的高频词,也正是这一年的热点词:

大模型出现频率最高,超过了600+次。

其次是强化学习、深度学习、图神经网络、机器学习、联邦学习、扩散模型、Transformer、LLM、表示学习、生成模型等等。

从注册国家/地区来看,美国高达2463人,中国以1100+人位列第二。

时间检验奖


通常来说,时间检验奖颁给10年以上的产生重要持久影响的学术论文。

这篇论文还是Caffe之父贾杨清就读于UC伯克利,在谷歌实习期间和团队合作完成的经典之作。

他曾在采访中表示,2013年在谷歌实习时喝了太多咖啡,由此起名DeCAF,为的是督促自己把咖啡戒了。

加班途中,他发文称,「DeCAF应该是视觉领域的foundation features和deepembedding,也让计算机视觉领域有了一个generalizable feature..」

DeCAF研究的影响在于,催生了通用物体检测框架R-CNN,高性能异构计算的框架Caffe,间接促成了伯克利和英伟达合作编写了第一代的加速框架CuDNN,雅虎实验室创作的大规模分布式训练CaffeOnSpark等一系列工作,奠定了伯克利在深度学习浪潮当中的领先地位。

题目:DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition

作者:Jeff Donahue,Yangqing Jia,Oriol Vinyals,Judy Hoffman,Ning Zhang,Eric Tzeng,Trevor Darrell

机构:加利福尼亚大学伯克利分校

论文地址:https://arxiv.org/abs/1310.1531

为了用一个更好的概率框架来表达人的行为,团队亲自写了第一个框架——DeCAF。

在这项工作中,作者评估了从一个在大量固定物体识别任务上以全监督方式训练的深度卷积网络中提取的特征,能否在新的通用任务上重新得到利用。

这些通用任务与最初的训练任务可能存在显著差异,且可能缺乏足够的标注数据,或完全没有标注数据,因此无法使用常规方法训练或微调深度网络来适应新任务。

此外,作者还可视化了深度卷积特征在场景识别、领域适应和细粒度识别等任务中的语义聚类,并通过比较依赖于网络不同层次来定义固定特征的效果,提出了在几个重要的视觉挑战上取得的新SOTA。

最后,作者发布了这些深度卷积激活特征的开源实现——DeCA,以及所有相关的网络参数。从而帮助视觉作者能够在各种视觉概念学习范式中进行深度表征的实验。

十篇最佳论文


今年,一共有十篇最佳论文。

以上排名皆以oral展示为序

论文一:Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution

作者:Aaron Lou,Chenlin Meng,Stefano Ermon

机构:斯坦福大学,Pika Labs

论文地址:https://arxiv.org/abs/2310.16834

这项研究提出了一个全新的机器学习模型SEDD(Score Entropy Discrete Diffusion),主要针对离散数据生成任务。

当前,扩散模型在许多生成建模任务中,展现出突破性的性能,但在自然语言等离散数据领域却表现不佳。

论文中,作者提出了得分熵(score entropy)的概念,来弥补这种差距。

这是一种新颖的损失函数,自然地将得分匹配扩展到离散空间,无缝集成以构建离散扩散模型,并显著提升性能。

实验评估过程中,SEDD比现有语言扩散模型表现更好(困惑度降低25-75%)。

而且,它还在某些方面超过了GPT-2等自回归模型。

总而言之,SEDD的优势在于:

- 无需使用温度scaling等技术就能生成高质量文本(生成困惑度比未退火的GPT-2好约6-8倍)

- 可以在计算资源和输出质量之间进行灵活权衡(使用32倍更少的网络评估次数达到相似的性能)

- 支持可控的文本填充,提供更多灵活性。(匹配核(matching nucleus)采样质量,同时支持除从左到右提示之外的其他策略)。

论文二:Scaling Rectified Flow Transformers for High-Resolution Image Synthesis

作者:Patrick Esser,Sumith Kulal,Andreas Blattmann,Rahim Entezari,Jonas Müller,Harry Saini,Yam Levi,Dominik Lorenz,Axel Sauer,Frederic Boesel,Dustin Podell,Tim Dockhorn,Zion English,Kyle Lacey,Alex Goodwin,Yannik Marek,Robin Rombach

机构:Stability AI

论文地址:https://arxiv.org/abs/2403.03206

正如开头所述,这篇论文是爆火出圈的Stable Diffusion 3的技术报告。

与Sora类似,SD3采用了改进版的Diffusion模型和一个基于DiT的文生图全新架构。

具体而言,作者利用了三种不同的文本编码器——两个CLIP模型和一个T5——来处理文本信息,同时使用了一个更为先进的自编码模型来处理图像信息。

全新提出的多模态扩散Transformer(MMDiT)架构,采用了分别针对图像和语言表示的独立权重集,与SD3的早期版本相比,显著提升了对文本的理解和文字的拼写能力。

评估结果显示,无论是在遵循提示的准确性、文本的清晰呈现还是图像的视觉美感方面,SD3都达到或超过了当前文生图生成技术的最高水平。

论文三:Probabilistic Inference in Language Models via Twisted Sequential Monte Carlo

作者:Stephen Zhao,Rob Brekelmans,Alireza Makhzani,Roger Grosse

机构:多伦多大学,Vector Institute

论文地址:https://arxiv.org/abs/2404.17546

这项研究主要关注的是,大模型中采样和推理问题。

LLM许多能力和安全技术,比如RLHF、自动化红队测试、提示工程和填充等,皆可以被视为:

给定奖励或潜在函数,在其定义的未归一化目标分布中进行采样。这一分布是针对完整序列定义的。

论文中,作者提出利用序列蒙特卡洛(SMC)方法,来解决这些采样概率问题。

对此,作者提出了扭曲函数(twist functions)来估计每个时间步的潜在未来值,进而优化采样过程。

此外,他们还提出了使用新型双向SMC边界(bounds),以评估LLM推理技术准确性的方法。

最终结果显示,扭曲SMC在以下方法中展现出强大效力:从预训练模型中采样不良输出、生成带有不同情感的评论,以及执行填充任务。

论文四:Position: Measure Dataset Diversity,Don't Just Claim It

作者:Dora Zhao,Jerone T.A. Andrews,Orestis Papakyriakopoulos,Alice Xiang

机构:斯坦福大学,慕尼黑工业大学,Sony AI

论文地址:https://arxiv.org/abs/2407.08188

当前,许多数据集都为自己贴上多样性的标签,但实际上却包含着抽象且富有争议的社会概念。

在这项工作中,作者通过分析135个图像和文本数据集中的「多样性」,来探讨这一问题。

如下图所示,作者借鉴社会科学理论中测量理论,作为需要考虑的因素,并为概念化、操作化和评估数据集中的多样性提供建议。

这项研究最终目的是,呼吁在机器学习研究中,特别是在数据集构建过程中,希望AI学者对带有价值判断的属性数据,采取更加细致和精确的处理方法。

论文五:Stealing Part of a Production Language Model

作者:Nicholas Carlini,Daniel Paleka,Krishnamurthy Dj Dvijotham,Thomas Steinke,Jonathan Hayase,A. Feder Cooper,Katherine Lee,Matthew Jagielski,Milad Nasr,Arthur Conmy,Itay Yona,Eric Wallace,David Rolnick,Florian Tramèr

机构:苏黎世联邦理工学院,华盛顿大学,麦吉尔大学,Google DeepMind,OpenAI

论文地址:https://arxiv.org/abs/2403.06634

在这项工作中,作者提出了首个能够从黑盒语言模型(如OpenAI的ChatGPT或Google的PaLM-2)中提取精确且复杂信息的模型窃取攻击。

具体来说,这种攻击能够通过常规的API访问,重建Transformer模型的嵌入投影层(在对称性条件下)。

并且,只需不到20美元,便可提取OpenAI的Ada和Babbage语言模型的整个投影矩阵。从而首次证实了这两个黑盒模型分别具有1024和2048的隐藏维度。

此外,作者还还原了gpt-3.5-turbo模型的确切隐藏维度大小。而这次,整个投影矩阵的提取成本,也不过是2000美元。

最后,作者提出了潜在的防御和缓解措施,并讨论了对未来工作影响。

论文六:Information Complexity of Stochastic Convex Optimization: Applications to Generalization and Memorization

作者:Idan Attias,Gintare Karolina Dziugaite,Mahdi Haghifam,Roi Livni,Daniel M. Roy

机构:本·古里安大学,东北大学,特拉维夫大学,多伦多大学,Vector Institute,Google DeepMind

论文地址:https://arxiv.org/abs/2402.09327

在这项工作中,作者研究了在随机凸优化问题(SCO)背景下记忆化和学习之间的相互作用。

首先,通过学习算法揭示与训练数据点相关信息来定义记忆化。然后,使用条件互信息(Conditional Mutual Information,CMI)框架来进行量化。从而,实现了对学习算法的准确性与其CMI之间权衡的精确描述。

结果显示,在L^2 Lipschitz有界设置和强凸性条件下,每个超额误差为ε的学习者的CMI分别在Ω(1/ε^2)和Ω(1/ε)处有下界。

更进一步,作者通过设计一个能准确识别特定SCO问题中大部分训练样本的对抗者,证明了记忆化在SCO学习问题中的重要作用。

最后,作者列举了几项重要意义,例如基于CMI的泛化界限的限制以及SCO问题中样本不可压缩性。

论文七:Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining

作者:Florian Tramèr,Gautam Kamath,Nicholas Carlini

机构:苏黎世联邦理工学院,滑铁卢大学,Vector Institute,Google DeepMind

论文地址:https://arxiv.org/abs/2212.06470

通过利用在大型公共数据集上预训练的非私有模型的迁移学习能力,可以显著提升差分隐私机器学习的性能。

在这项工作中,作者质疑了使用大型网络抓取数据集是否符合差分隐私保护。并警告称,将这些在网络数据上预训练的模型称为「private」可能会带来诸多危害,比如削弱公众对差分隐私这一概念的信任。

除了使用公共数据的隐私考虑之外,作者还进一步质疑了这种方法的实用性。

对于那些大到终端用户无法在自己设备上运行的模型,预训练的影响尤为明显。因为这将需要将私有数据外包给计算能力更强的第三方,因此部署此类模型会对隐私造成净损失。

最后,作者讨论了随着公共预训练变得越来越流行和强大,隐私学习领域的潜在发展路径。

论文八:Debating with More Persuasive LLMs Leads to More Truthful Answers

作者:Akbir Khan, John Hughes, Dan Valentine, Laura Ruis, Kshitij Sachan, Ansh Radhakrishnan, Edward Grefenstette, Samuel R. Bowman, Tim Rocktäschel, Ethan Perez

机构:伦敦大学学院,Speechmatics,MATS,Anthropic,FAR AI







请到「今天看啥」查看全文