专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
华商报  ·  张伟丽再度卫冕金腰带! ·  2 天前  
华商报  ·  张伟丽再度卫冕金腰带! ·  2 天前  
51好读  ›  专栏  ›  极市平台

NeurIPS 2024 Spotlight | 轻微的预训练数据扰动如何造就更优秀的扩散模型

极市平台  · 公众号  ·  · 2025-01-09 22:00

主要观点总结

本文主要探讨了轻微预训练数据扰动对扩散模型性能的影响,提出了一种创新的扰动方法——条件嵌入扰动(CEP)。实验验证显示,轻微的数据扰动不仅不会显著负面影响模型性能,反而有助于生成更高质量和多样性的内容。本文提供了详细的理论分析和实验验证,展示了轻微扰动在提升生成模型性能方面的潜力。

关键观点总结

关键观点1: 轻微预训练数据扰动对扩散模型的影响

传统的观点通常认为大规模数据中的误配对样本会削弱模型性能。然而,本文的研究挑战了这一认知,通过系统性实验发现,轻微的数据扰动不仅不会显著影响模型性能,反而有助于提升扩散模型的生成质量和多样性。

关键观点2: 条件嵌入扰动(CEP)方法的提出

为了模拟预训练数据中的轻微噪声并提升模型的生成性能,提出了一种创新的扰动方法——条件嵌入扰动(CEP)。该方法通过在条件嵌入层添加轻微扰动来模拟数据中的噪声,无需修改底层的数据或模型结构。

关键观点3: 实验验证和理论分析

本文在多个生成任务和数据集上评估了轻微扰动和CEP的有效性。实验结果显示,轻微扰动和CEP能够显著提升生成模型的性能。同时,本文还进行了理论分析,揭示了轻微扰动在提升生成多样性和质量方面的潜在机制。


正文

↑ 点击 蓝字 关注极市平台
作者丨王晋东
来源丨王晋东不在家
编辑丨极市平台

极市导读

适度的噪声(如2.5%-7.5%的条件误配对)不仅不会显著负面影响模型性能,反而能帮助生成更高质量和多样性的内容。文章通过实验验证了这一现象,并提出了一种创新的扰动方法——条件嵌入扰动(CEP),可以在不直接修改数据的情况下实现类似的效果。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

在人工智能领域,基础模型(Foundation Models)的预训练数据质量一直被认为至关重要。我们最新的研究《Slight Corruption in Pre-training Data Makes Better Diffusion Models》(轻微的预训练数据扰动如何造就更优秀的扩散模型),第一次全面系统地探讨了这些扰动对模型性能的影响,并提出了一种创新的方法来将数据的“瑕疵”转化为模型性能提升的“助力”。本文延续我们 之前的工作 [1],发现预训练数据中适度的噪声也可以提升模型预训练和下游性能。这项研究成果又卡耐基梅隆大学,香港大学,RIKEN等共同发表于NeurIPS 2024,并获得了spotlight论文荣誉。

  • 论文标题:Slight Corruption Makes Better Diffusion Models
  • 论文链接: https://arxiv.org/pdf/2405.20494
  • 论文模型及代码: https://huggingface.co/DiffusionNoise

研究背景

扩散模型(Diffusion Models)近年来在生成高质量图像、音频和视频方面取得了令人瞩目的成功,其背后的一大推动力是大规模的预训练数据。例如,著名的Stable Diffusion模型依赖于从互联网上爬取的数十亿对图文数据(如LAION-2B),这些数据不仅为模型提供了丰富的训练语料,还帮助其实现了高度多样化和条件化的生成能力。这种方法显著提升了扩散模型的生成效果,使其在艺术创作、内容生成等任务中表现出色。

然而,大规模数据的收集和处理并非毫无挑战。尽管这些数据集通常会经过严格的筛选和过滤,但误配对样本(condition corruption)依然不可避免,例如错误的图像标签、文本描述不匹配、甚至无意义的内容。这些误配对样本被认为是大规模数据不可避免的“副产品”,传统观点通常认为它们会削弱模型性能,增加生成的噪声和不一致性。

然而,我们的研究挑战了这一传统认知。通过系统性实验,我们发现, 轻微 的预训练数据扰动(例如2.5%-7.5%的条件误配对)不仅不会对模型性能造成显著负面影响,反而能够帮助扩散模型生成更高质量、更具多样性的内容。令人惊讶的是,这一发现与我们此前在CLIP和ImageNet分类器的研究结论高度一致:轻微的标签噪声在特定情况下可以帮助模型在域内任务(In-Domain Tasks)中提升性能[1]。

这一观察背后的潜在原因可能是,轻微的噪声引导模型利用更多的数据维度来学习特征分布,从而增加生成数据的多样性和质量。同时,噪声还能避免模型过度拟合数据中的偏差或冗余模式,使生成的分布更贴近真实数据分布。这一发现不仅为扩散模型的优化提供了新的视角,也对理解大规模数据预训练过程中的数据偏差提出了重要见解。

随着生成模型的广泛应用,我们的研究不仅为扩散模型的设计和训练带来了新思路,还为开发更健壮、更通用的生成系统提供了理论基础和实践方法。

实验发现

为了全面研究预训练数据扰动对扩散模型的影响,我们设计了系统性实验,涵盖预训练和下游任务两个部分。以下是实验的具体设置以及主要发现。

实验设置

模型 :我们采用了多种扩散模型,包括Latent Diffusion Models (LDMs)、Diffusion Transformers (DiT-XL/2) 和 Latent Consistency Models (LCMs),分别对类条件(class-conditional)和文本条件(text-conditional)的生成任务进行实验:

  • LDM-4: Latent Diffusion Model,基于VQ-VAE编码的潜空间(down-sampling factor为4),图像分辨率为256×256。
  • DiT-XL/2: 使用Transformer作为主干网络的扩散模型。
  • LCM-v1.5: 针对快速推理优化的Latent Consistency Models,基于Stable Diffusion v1.5

预训练数据 :我们在两个广泛使用的数据集上引入了合成扰动:

  • ImageNet-1K (IN-1K): 为类条件生成任务引入标签翻转扰动(随机将标签替换为其他类别标签)。
  • CC3M: 为文本条件生成任务引入文本替换扰动(随机交换图文对中的文本)。

扰动比例(corruption ratio, η)分别设置为0%、2.5%、5%、7.5%、10%、15%、20%。

预训练评价指标

  • 生成质量和保真度:使用Fréchet Inception Distance (FID) 和 Inception Score (IS)。
  • 多样性和覆盖率:使用Precision-Recall (PR) 曲线和样本熵值(Sample Entropy)。
  • 我们在Appendix里提供了其他metric的测试结果,如sFID, Memorization Ratio, RMD (sample complexity), L2 distance.

下游任务实验设置 :预训练之后,我们研究了扩散模型在两个下游个性化任务中的表现:

  • ControlNet:基于空间条件(如Canny边缘图和语义分割掩码)控制生成。
  • T2I-Adapter:在文本条件生成中结合额外的输入模态以提高可控性。数据集:

我们选用ImageNet-100(IN-100)作为个性化任务的数据集,并使用OpenCV Canny检测器和SegmentAnything(SAM)生成边缘和分割掩码作为输入条件。

下游任务评价指标 :与预训练一致,包括FID、IS、Precision 和 Recall。

Pre-training结果

  • 轻微扰动提升生成质量和多样性

    • 更高的质量:通过在不同程度扰动的条件下训练模型,我们发现2.5%-7.5%的扰动比例显著提高了生成图像的质量。例如,在IN-1K数据集上的类条件生成任务中,2.5%扰动的LDM-4模型,其FID从未扰动模型的9.44降至7.00。这表明轻微扰动帮助模型更好地捕捉特征分布,生成更接近真实分布的样本。
    • 更丰富的多样性:轻微扰动同样显著提升了生成样本的多样性。以文本条件生成任务(CC3M数据集)为例,7.5%扰动的模型在CLIP Score上从19.85提升至17.93,同时熵值(Sample Entropy)和相对马氏距离(Relative Mahalanobis Distance, RMD)也有所增加,反映出生成分布的覆盖范围更广。
  • 扰动程度的非线性效应

    • 提升-退化:随着扰动比例从0%逐步增加到20%,生成质量和多样性呈现出“先提升后下降”的非线性趋势。例如,在IN-1K数据集中,FID在扰动比例达到7.5%时达到最优(7.00),而当扰动比例增加到15%时,FID略有上升至9.18。这表明,过高的扰动可能会干扰模型捕捉有用的特征。
    • 偏向于低噪声的设置:与以往研究的高噪声标签学习不同,我们的结果表明低比例(2.5%-7.5%)的扰动不仅是可行的,还可以成为优化生成模型性能的有效策略。
  • 跨模型一致性

    • 轻微扰动的效应在多种扩散模型上得到了验证,包括LDM-4、DiT-XL/2和LCM-v1.5。这表明这种方法具有广泛适用性。即使在Transformer架构,如DiT-XL/2中,轻微扰动也能提高生成能力。
  • 视觉表现的显著改进

    • 我们进一步通过生成样本的视觉评估验证了轻微扰动的优越性。例如,在文本条件生成任务中,7.5%扰动的模型生成的图像更加逼真且多样化,展示了更丰富的细节和场景变化。

Downstream结果

  • 轻微扰动增强个性化生成性能

    • ControlNet实验:在基于Canny边缘图和SAM分割掩码的个性化任务中,轻微扰动的预训练模型表现优异。这表明,预训练中的轻微扰动为下游任务提供了更通用和更具适应性的特征表示。
    • T2I-Adapter实验:文本条件生成任务中,预训练扰动的优势也更加明显。
  • 增强模型的多样性与保真度平衡

    • 在下游任务中,我们观察到轻微扰动的模型不仅在FID指标上表现更优,还在Precision-Recall曲线上表现出更好的平衡性。例如,在IN-100的ControlNet实验中,2.5%扰动的模型在Precision和Recall上分别达到0.84和0.58,显著优于未扰动模型的0.82和0.61。这表明轻微扰动有效改善了模型生成的覆盖率,同时维持了较高的精确性。
  • 下游任务的视觉评估改进

    • 我们通过对生成图像的视觉质量进行对比,发现轻微扰动的模型能够生成更加自然且多样化的图像。
  • 高效适配的能力

    • 我们发现轻微扰动的预训练模型在进行下游任务的微调时具有更高的适应性。例如,与未扰动模型相比,轻微扰动的模型在少量标注数据的情况下,仍能实现显著的性能提升。这说明轻微扰动不仅能提升预训练阶段的表现,还能为下游任务提供更具泛化性的初始权重。

理论分析

我们通过理论分析揭示了轻微数据扰动如何在生成质量和多样性上影响扩散模型的性能。本部分分为两部分:生成多样性的提升和生成质量的改善,并结合我们的数学建模和分析,提供直观的解释和数学依据。

生成多样性:轻微扰动扩展生成分布

核心观察:
轻微扰动能有效提升生成样本的多样性,使生成分布覆盖更多的数据空间。我们通过计算生成分布的 熵值(Entropy) 作为多样性的度量,高熵表示生成分布更广泛地覆盖数据空间,而低熵则意味着生成分布过于集中。

理论证明:
在生成多样性方面,我们提出并证明了以下定理:

定理 1:
对于任意类别 ,在生成长度 足够大的情况下,若训练数据的经验协方差矩阵为满秩,且类别的期望范数 为常数,则有:

  • 分别为带有扰动和无扰动条件的生成分布的熵值;
  • 为扰动控制参数;
  • 为数据维度。

这一结论表明,条件扰动能够增加生成分布的熵值,提升生成样本的多样性。此外,熵值的提升程度与扰动大小 和数据维度 成正比。这也与我们实验中发现的结果一致,即轻微扰动( 小且适中)能够提升多样性,而过大的扰动会导致分布失衡。

我们在不同扰动比例下观察到样本熵值的变化,如IN-1K和CC3M数据集中,2.5%-7.5%扰动的模型的熵值显著高于未扰动的模型,进一步验证了理论结论。

生成质量:轻微扰动优化分布对齐

核心观察:
轻微扰动能够改善生成分布与真实数据分布的对齐程度,进而提升生成样本的质量。我们采用 2-Wasserstein距离 作为衡量分布对齐程度的指标,距离越小,生成分布越接近真实数据分布,生成样本质量越高。

理论证明:
在生成质量方面,我们提出并证明了以下定理:

定理 2:
对于任意类别 ,在生成长度 足够大的情况下,若类别的期望范数 为常数,假设 ,则有:

其中:

  • 为真实分布, 分别为无扰动和有扰动条件下的生成分布;
  • 为2-Wasserstein距离;
  • 为类别 的样本数量;
  • 为数据维度。

这一结果表明,轻微的条件扰动能够使生成分布更接近真实分布,即生成质量有所提升。此外,当







请到「今天看啥」查看全文