专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
江苏新闻  ·  最新通报:多人被警告处分,两人待岗! ·  昨天  
江苏新闻  ·  最新通报:多人被警告处分,两人待岗! ·  昨天  
闽南日报  ·  离家出走的浙江少年,在漳州找到了! ·  昨天  
BRTV建外14号  ·  《您的声音》2月18日公映 ·  昨天  
BRTV建外14号  ·  《您的声音》2月18日公映 ·  昨天  
Yuichi的宏观金融笔记  ·  中国股票的估值折价将消失 ·  4 天前  
Yuichi的宏观金融笔记  ·  中国股票的估值折价将消失 ·  4 天前  
51好读  ›  专栏  ›  极市平台

恺明新作Fluid:文生图质量刷新纪录

极市平台  · 公众号  · 科技创业 科技自媒体  · 2024-12-20 22:00

主要观点总结

本文探讨了自回归模型在文本生成图像任务中的扩展行为,特别关注了使用离散或连续token以及随机或光栅顺序生成的影响。通过实证研究,提出了使用连续token的随机顺序模型(即Fluid)在各项评估指标和视觉质量上表现出最佳性能和扩展性。该模型在MS-COCO数据集上取得了最先进的文本生成图像性能。

关键观点总结

关键观点1: 研究背景

文章探讨了自回归模型在文本生成图像领域的表现,特别是在扩大模型规模时的性能变化。

关键观点2: 研究问题

文章关注两个问题:模型使用离散还是连续的token,以及在生成token时采用随机顺序还是固定顺序(基于BERT或GPT的Transformer架构)。

关键观点3: 研究方法

文章通过实证研究,对比不同模型在使用离散或连续token,以及在随机顺序或光栅顺序生成时的表现。

关键观点4: 解决方案

基于实验结果,文章提出了一种新的模型——Fluid,该模型使用随机顺序的自回归生成方式,并基于连续token进行训练。

关键观点5: 实验结果

使用连续token的模型在视觉质量上显著优于使用离散token的模型。随机顺序的模型在GenEval评分上优于光栅顺序的模型。Fluid 10.5B模型在MS-COCO 30K数据集上实现了新的零样本生成的FID记录,并在GenEval基准上获得了0.69的综合评分,达到当前最佳表现。

关键观点6: 结论

文章通过实证研究揭示了自回归模型在文本生成图像任务中的扩展行为,并基于这些发现提出了Fluid模型,取得了最先进的文本生成图像性能。


正文

↑ 点击 蓝字 关注极市平台
作者丨AI生成未来
来源丨AI生成未来
编辑丨极市平台

极市导读

恺明团队的新作品Fluid,这是一个在文本到图像生成领域取得突破的模型。文章详细讨论了在视觉领域,尤其是文本生成图像任务中,自回归模型的扩展行为,并提出了使用连续token和随机顺序生成的新模型Fluid。Fluid模型在MS-COCO 30K数据集上实现了新的零样本生成FID记录。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

文章链接: https://arxiv.org/pdf/2410.13863

缩放法则(Scaling laws) 是大语言模型(LLMs)前所未有成功的基础。实证研究表明,在自回归模型中增加参数数量通常会显著提升性能,并在自然语言处理(NLP)任务中产生新的能力。这一实证关系激励了众多扩展语言模型的努力,导致许多高性能模型的发展。受到这一成功的鼓舞,许多尝试将自回归模型应用并扩展到计算机视觉领域,特别是在文本到图像生成等生成任务中。然而,这些模型生成的内容在性能和视觉质量上往往不及其他生成模型,如扩散模型,使得在视觉领域是否适用类似的缩放法则仍不清楚。

本文提出了几个关于性能差距的假设。

  • 首先,大多数视觉自回归模型所需的矢量量化(VQ)步骤可能会引入显著的信息损失,最终限制模型的性能。
  • 其次,与语言的固有顺序性质不同,生成视觉内容可能更需要不同的自回归预测顺序。
  • 第三,在评估视觉模型的缩放法则时,通常会在两个层次的泛化能力之间产生混淆:(a) 使用与训练损失相同的指标(通常称为验证损失)对新数据的泛化,和 (b) 对不同于训练目标的新指标或问题的泛化,例如FID、GenEval基准或视觉质量。我们假设,幂律缩放适用于自回归模型在视觉数据上的(a)情况,但不一定适用于(b)情况。

为了研究这些假设,对文本到图像生成背景下自回归模型的缩放行为进行了全面的实证研究。并基于研究提出了一个新的模型—— Fluid ,先来看看效果如何。

效果展示

总结速览

解决的问题: 本文探讨了在视觉领域,特别是文本生成图像任务中,扩大自回归模型并不像在大语言模型中那样有益的现象。具体关注了以下两个关键问题:

  • 模型使用离散还是连续的token。
  • 模型在生成token时,使用随机顺序还是固定顺序(基于BERT或GPT的Transformer架构)。

提出的方案:

  • 通过实验对比不同模型,研究模型在使用离散或连续token,以及在随机顺序或光栅顺序生成时的表现。
  • 基于实验结果,提出了一种新的模型—— Fluid ,该模型使用随机顺序的自回归生成方式,并基于连续token进行训练。

应用的技术:

  • 使用 BERT GPT 类型的Transformer架构,结合离散和连续token的生成。
  • 通过 FID(Fréchet Inception Distance) GenEval 评分,以及视觉质量来评估模型性能。
  • 在新提出的 Fluid 模型中采用随机顺序的自回归生成方式,并利用连续token进行训练。

达到的效果:

  • 使用连续token的模型在视觉质量上显著优于使用离散token的模型。
  • 随机顺序的模型在 GenEval 评分上优于光栅顺序的模型。
  • Fluid 10.5B 模型在 MS-COCO 30K 数据集上实现了新的零样本生成的 FID 纪录,并在 GenEval 基准上获得了 0.69 的综合评分,达到当前最佳表现。

实现

本文的文本生成图像模型训练的整体框架非常简单。首先,图像分词器将原始图像转换为tokens。然后,这些tokens被部分masked,接着训练一个Transformer模型,在文本的条件下重建被masked的tokens。下图3详细描述框架中的每个组件。

图像分词器 :使用一个预训练的图像分词器将256×256的图像编码为token空间。该分词器可以是离散的或连续的,以便为自回归模型实现不同的训练目标。实验中,离散分词器是一个预训练于WebLI数据集的VQGAN模型。Muse的方法,将每张图像编码为16×16的离散tokens,词汇表大小为8192。对于连续分词器采用了Stable Diffusion模型,该模型将图像编码为32×32的连续tokens,每个token包含4个通道。为了与离散分词器在序列长度上一致,将每2×2块的连续tokens分组为一个token,最终序列长度为256,每个token包含16个通道。如下图4所示,连续分词器在重建质量上明显优于离散分词器。

文本编码器 :原始文本(最大长度128)通过SentencePiece进行分词,并通过预训练的T5-XXL编码器进行嵌入,该编码器有47亿个参数并在训练期间被冻结。为了进一步对齐用于图像生成的文本embeddings,在T5嵌入的基础上添加了一个由六个可训练的Transformer模块组成的小型文本对齐器,来提取最终的文本表示。

Transformer :在将原始图像编码为tokens序列后,使用一个标准的仅解码Transformer模型进行自回归生成。每个块由三个连续的层组成——自注意力、交叉注意力和MLP层。自注意力和MLP层仅应用于视觉tokens,而交叉注意力层则将视觉和文本tokens分别作为查询和键。如下图2所示,对于光栅顺序模型,Transformer使用自注意力块中的因果注意力基于先前的tokens预测下一个token,类似于GPT。在随机顺序模型中,未知的tokens由一个可学习的token masked,Transformer使用双向注意力来预测这些被masked的tokens,类似于BERT。

输出头 :对于离散tokens,遵循自回归模型的常见做法。输出通过一个线性层后,使用softmax转换为类别分布,这个线性层的权重与输入embedding层的权重共享。对于连续tokens,应用一个六层轻量级的MLP作为扩散头来建模每个token的分布。该扩散头的嵌入维度与主干transformer相同。每个token的扩散过程遵循。噪声调度为余弦形状,训练时为1000步;在推理时,重新采样为100步。

实验

数据集 :使用WebLI(Web Language Image)数据集的一个子集作为训练集,该数据集由网络上的图像-文本对组成,并且这些对在图像质量和alt文本相关性上都有高分。默认情况下,图像进行中心裁剪并调整大小为256×256。

训练 :使用AdamW优化器( ,权重衰减为 0.02 ,每个模型训练 步,批次大小为2048。这相当于在数据集上约 3 个epoch。对于连续tokens, 使用常数学习率调度, 线性预热 65 K步, 最大学习率为 ; 对于离散tokens, 使用余弦学习率调度, 发现效果更好。对于训练随机顺序模型, 在 范围内随机采样masking比例, 并按照余弦调度对每张图像进行mask, 类似于 MaskGIT。对于所有模型,使用权重的指数移动平均(EMA),衰减率为 0.9999 ,然后在评估时使用。

推理 :遵循Imagen、Muse和Parti的做法,根据文本提示生成图像,不进行拒绝采样。对于随机顺序模型,使用64步生成并按照余弦调度。为了进一步增强生成性能,应用了温度和无分类器引导,这是常见的做法。

评估 :对不同的自回归模型变体的扩展行为进行了定量和定性评估。定量评估包括在MS-COCO 2014训练集中的30K图像上计算验证损失,以及两个广泛采用的指标:MS-COCO上的零样本Frechet Inception Distance(FID)和GenEval分数。推理的超参数,如温度和无分类器引导,针对每个评估指标进行优化。FID是在MS-COCO 2014训练集中的30K随机选取的图像-文本对上计算的,用于评估生成图像的保真度和多样性。GenEval基准则衡量模型生成准确反映给定提示的图像的能力。对于定性评估,从几个提示中生成图像,并比较生成图像的视觉质量。

扩展行为

研究者们探索了自回归图像生成模型中的两个关键设计选择——token表示和生成顺序——如何影响性能和扩展行为。构建了具有这两种设计选择不同组合的模型,产生了四种不同的自回归图像生成模型变体。还探讨了这些模型在不同数据和评估指标上的泛化能力。本文的实验揭示了几个有趣的特性。

验证损失随模型规模线性扩展 。在下图5中,研究者们考察了四种自回归变体在验证损失方面的扩展行为。验证损失和模型规模在对数空间中呈现线性关系,模型规模从1.5亿参数增加到30亿参数。这与Henighan等人发现的幂律规律相一致。这表明,增加模型规模所带来的训练损失改进能够很好地泛化到与训练数据不同的验证数据上。

使用连续tokens的随机顺序模型在评估分数上的扩展表现最佳 。下图6中分析了四种自回归变体在FID和GenEval总体分数方面的扩展行为。验证损失的改进并不总是线性地转化为更好的评估指标,这意味着这些指标与模型规模之间没有严格的幂律关系。例如,使用离散tokens的光栅顺序模型(蓝线)在约10亿参数时FID和GenEval分数趋于平稳。在四种变体中,使用连续tokens的随机顺序模型(即Fluid)在评估指标上显示出一致的改进,参数规模扩展至30亿,表现最佳。

随机顺序模型的连续token随训练计算量扩展。下图7中绘制了不同大小的Fluid模型在总训练步数和计算量上的验证损失、FID和GenEval分数。随着训练步数和计算量的增加,验证损失和评估性能都表现出持续改进。然而,训练步数的收益在大约1M步时趋于饱和,这表明相比于训练较小模型更长时间,训练较大模型更少的步数在计算上更加高效。这一行为与语言模型中的观察结果一致,突显了在足够的训练条件下扩展模型大小的潜力。

验证损失和评估指标之间的强相关性。下图8绘制了不同大小的Fluid模型的FID和GenEval分数与验证损失的关系,并观察到两者之间存在强相关性。为了量化这一关系,使用线性回归拟合了数据点。FID和GenEval分数的皮尔逊相关系数分别为0.917和-0.931,表明在150M到3B的模型规模范围内,验证损失与这些评估指标之间存在近乎线性的关系。训练了一个拥有10.5B参数、批次大小为4096的模型,并训练1M步,取得了最先进的文本生成图像性能。

连续token和大模型对视觉质量至关重要。下图9比较了四种自回归变体生成的图像的视觉质量。使用离散token的模型生成的图像质量明显不如使用连续token的模型。例如,离散token模型生成的柯基犬的眼睛是不对称的,扩大模型规模无法解决这个问题。这个局限性主要是由于离散tokenizer引入了大量信息丢失。例如,即使拥有3B参数,使用离散token的模型也无法生成精确的《蒙娜丽莎》,这是因为tokenizer的重构质量较差(见前面图4)。相比之下,使用连续token的模型能够生成质量更高的图像。







请到「今天看啥」查看全文


推荐文章
BRTV建外14号  ·  《您的声音》2月18日公映
昨天
BRTV建外14号  ·  《您的声音》2月18日公映
昨天
Yuichi的宏观金融笔记  ·  中国股票的估值折价将消失
4 天前
Yuichi的宏观金融笔记  ·  中国股票的估值折价将消失
4 天前
台海军事热点  ·  台毒年度闹剧回顾,又好气又好笑!
8 年前
十点读书  ·  萧红:不要因为寂寞而错爱
7 年前