在当今的多模态大模型的发展中,模型的性能和训练数据的质量关系十分紧密,可以说是“数据赋予了模型的绝大多数能力”。
在这其中,图像-文本数据集发挥着至关重要的作用,在图像理解、文本生成和图像检索等多个领域发挥着关键作用。
然而,现有的图像描述数据集主要来源于网络抓取和人工标注,存在着质量参差不齐、细节缺失、描述噪音多等问题。尽管人类可以为图像提供详细的描述,但高昂的标注成本限制了其规模和可行性。因此,迫切需要一种高效、可扩展的方法来生成准确且详细的图像描述。
Image-Textualization(IT),该框架
通过整合多模态大语言模型(MLLMs)和多种视觉专家模型的协作,将图片信息进行文本化
,最后利用拥有强大的推理能力的纯文本大语言模型将这些
文本化的信息转化为高质量的图像描述
。
论文题目:
Image Textualization: An Automatic Framework for Creating Accurate and Detailed Image Descriptions
论文地址:
https://arxiv.org/pdf/2406.07502v1
项目地址:
https://github.com/sterzhang/image-textualization/
利用多模态模型造的图片描述vs利用IT生成的图片描述
总的来说,本文贡献包括:
-
创新框架
:我们提出了图像文本化框架,利用多模态大模型的的粗粒度图像理解能力,视觉专家模型的精细感知能力,以及纯文本大语言的模型的推理能力去自动生成细节丰富且语言表达清晰的图像描述。
-
评估基准与实验
:提出了多个评估细节丰富的图片描述的基准,通过广泛的实验验证了框架的有效性。
-
数据集与代码发布
:利用我们的图像文本化框架,我们生成了一个大规模高质量的图像描述数据集(IT-170K)。为了促进未来的研究,我们已将所有源代码和生成的数据集公开发布。
一、Image Textualization 方法
Image-Textualization(IT)框架包括以下三个阶段:
-
粗粒度的图片文本化(Holistic Textualization)
:首先利用多模态大语言模型对图片生成参考描述,尽管这些描述可能存在细节缺失和幻觉,但它们为图像的视觉信息和语言表达提供了基本结构。这里视觉的结构主要体现在参考描述中往往会包含一些大的,核心的物体,这个可以为后续的细节提供类似 “锚点” 的作用,能够使得最后的文本化重述(Textualized Recaptioning)更好的添加细节。另外,语言表达上的结构主要体现在多模态大模型包含的纯文本大语言模型使得其拥有较强的语言能力,这使得这里生成的参考描述能够在语言上有良好的组织,比如会先说出这个图片大概描述了些什么,然后展开细节,最后总结,这种描述风格较为偏向人类的偏好。这也能够使得最后的文本化重述(Textualized Recaptioning)能够在一个语言能力较好的模板上进行加工。
-
视觉细节文本化(Visual Detail Textualization)
:这个阶段我们同时从图片端和文本端进行细节的提取。
首先是文本端,由于在上一阶段中我们利用多模态大模型生成的参考描述可能含有幻觉,所以这里首先做的是 “幻觉检测”。我们首先利用 LLM 去抓取参考描述中含有的实体,再利用了一个开集检测器去图片里对这个实体进行匹配,如果没有被检测出来,则将这个实体判断为幻觉。这里我们把检测出来的幻觉也进行了文本化,在最后的文本化重述(Textualized Recaptioning)进行删除。
在视觉端,我们利用在高分辨率图片上训练出来的各个任务上的视觉专家模型提取图像中的细节信息。想要将一个图片上的物体的细节信息利用文本表达出来仅仅用物体的 caption 是不够的,我们首先利用提取这些物体的 bounding box 来把这些物体的左右关系给用文本的方式体现出来。但图片中的物体不仅仅有左右信息,还有前后信息。
对此,我们首先利用分割模型将这些物体的 mask 给提取出来,再将原本的图片转化为深度图,通过计算深度图中特定物体 mask 对应的深度分数来将深度信息由文本体现出来。至此,我们能利用文本还原出图片中各个物体的大小,左右位置,前后关系等细节信息。
-
文本化重述(Textualized Recaptioning)
:结合前两个阶段的图片信息文本化的结果,加上我们通过精心设计的改写 prompt,纯文本的大语言模型能够很好的通过纯文本还原出图片的信息,并通过强大理解和推理能力生成详细且准确的图像描述。
为了验证我们框架的有效性,我们构建了三个评估基准,分别是 DID-Bench(详细图像描述基准)、D2I-Bench(描述到图像基准)和 LIN-Bench(语言基准)。我们进行了广泛的实验,结果表明 IT 框架生成的图像描述在细节丰富度和准确性方面显著优于现有方法。尤其是,通过我们的 IT 框架生成的数据集训练的 MLLMs,如 LLaVA-7B,展现出了更强的图像描述能力,减少了幻觉现象。
DID-Bench(详细图像描述基准):用于评估图片描述和人类手动标的详细的图片描述的相似性。可以看到我们的修改后的 IT-{LLaVA} 和 IT-{GPT4-V} 图片描述都比修改前的要更详细和准确,更贴合人类标注出来的描述。
D2I-Bench(描述到图像基准):利用文生图模型将生成的描述转化为图片,和原图进行相似度的对比,这里我们选取了 CLIP-score 和 DINO-score 进行评估,都能达到更高的分数。
另外我们还在 POPE 和 LIN-Bench 上验证了利用我们框架生成数据进行训练的 LLaVA-7B 能够在生成描述更详细更复杂的情况下(表右侧 LIN-Bench),还能降低幻觉(表左侧 POPE 基准)。
最后,我们对生成出的数据进行了统计上的对比,可以看到我们修改后的描述中各个词性的数量上都能有较大的提升。
三、未来展望
我们的工作不仅解决了现有图像描述数据集的局限性,也为设计更高效、可扩展的方法提供了灵感。我们期待 IT 框架在更多应用领域中展示其潜力,推动图像理解和生成技术的进一步发展。
作者:皮仁杰,张鉴殊
来源:公众号【机器之心】
llustration From IconScout By
M Wildan maulana
“AI技术流”原创投稿计划
TechBeat是由将门创投建立的AI学习社区(
www.techbeat.net
)
。
社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。
投稿内容
// 最新技术解读/系统性知识分享 //
// 前沿资讯解说/心得经历讲述 //
投稿须知
稿件需要为原创文章,并标明作者信息。
我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励
投稿方式
发送邮件到
[email protected]
或添加
工作人员微信(
chemn493
)
投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“
投稿
”二字,获得投稿说明。