专栏名称: FightingCV
一个专注于分享计算机视觉、多模态机器学习方向前沿论文,解答常见科研问题,分享好用科研工具的公众号。努力努力再努力,瑞思拜!
目录
相关文章推荐
龙船风电网  ·  这家风电企业改回原名!刚被判赔超2957万元! ·  2 天前  
龙船风电网  ·  这家风电企业改回原名!刚被判赔超2957万元! ·  2 天前  
风动幡动还是心动  ·  不多说了,赶紧上车 ·  3 天前  
风动幡动还是心动  ·  不多说了,赶紧上车 ·  3 天前  
连州点点网  ·  清远公布一批典型案例 ·  3 天前  
连州点点网  ·  清远公布一批典型案例 ·  3 天前  
每天学点HR  ·  刚刚!马斯克,重大宣布! ·  3 天前  
每天学点HR  ·  刚刚!马斯克,重大宣布! ·  3 天前  
51好读  ›  专栏  ›  FightingCV

EMNLP 2024 | 阿里通义实验室提出MLLM多图能力评估基准MIBench

FightingCV  · 公众号  · 科技自媒体  · 2024-10-15 09:00

主要观点总结

本文介绍了阿里通义实验室提出的MIBench,这是一个用于评估多模态大语言模型(MLLMs)在多图场景能力的基准测试集。MIBench包含13K条高质量测试样本,涵盖多图指令、多模态外部知识和多模态上下文学习三个典型多图场景的13个细分子任务。文章还介绍了数据集的构建、选项生成、知识采样、质量控制和评估策略等方面。

关键观点总结

关键观点1: 背景介绍

文章介绍了多模态大模型(MLLMs)在视觉描述、问答、推理等多种视觉-语言任务上的卓越性能,以及评估基准数据集的发展状况。

关键观点2: MIBench的提出

由于现有评估基准数据集大多局限于单图场景,阿里通义实验室mPLUG团队提出了大规模基准测试集MIBench,以全面评估MLLMs在多图场景的能力。

关键观点3: MIBench的特点

MIBench包含多图指令、多模态外部知识和多模态上下文学习三个典型的多图场景,涵盖13个细分子任务。数据集构建包括图片来源、选项生成、知识采样、质量控制等方面。

关键观点4: 评估策略和数据集子任务示例

采用多项选择题形式进行评估,并设计自动化筛选策略和人工验证来确保数据质量。通过多个开源和闭源模型在数据集上的评估,分析了性能差距和性能瓶颈。

关键观点5: 分析和结论

通过对不同子任务测试结果的分析,发现开源MLLMs与GPT-4o等闭源模型存在性能差距,特别是在依赖细粒度感知能力的任务上。多图训练的重要性以及多模态外部知识场景的挑战性也得到了探讨。


正文

本篇分享 EMNLP 2024 论文 MIBench: Evaluating Multimodal Large Language Models over Multiple Images ,阿里通义实验室提出MLLM多图能力评估基准MIBench。

  • 论文链接:https://arxiv.org/abs/2407.15272
  • 数据链接:https://huggingface.co/datasets/StarBottle/MIBench


动机

近年来,多模态大模型 (MLLMs) 在视觉描述、问答、推理等多种视觉-语言任务上展现出卓越的性能,也涌现出一批基准数据集工作,如MME、MMBench、SEED-Bench等,用于评估MLLMs在不同细分场景的能力。

然而,大多数MLLMs工作仅关注模型在单张图像输入时的性能,相应的评估基准也局限在单图场景。少数面向多图的评估数据集,如Sparkles-Eval、Mantis-Eval等,所包含的评估维度和样本数量十分有限。

基于此,阿里通义实验室mPLUG团队提出一个新的大规模基准测试集MIBench,包含13K条高质量测试样本,以全面、细致地评估现有MLLMs在多图场景的能力。

MIBench与现有MLLM评估基准对比


数据集设计

MIBench多图场景及子任务概览

如图所示,MIBench涵盖多图指令、多模态外部知识及多模态上下文学习等3个典型多图场景的13个细分子任务:

  • 多图指令 :包含对输入的多张图像进行比较、指代、推理等指令。按照指令具体的语义类型,划分为 通用比较、细致差异、视觉指代、时序推理 逻辑推理 等5个子任务。
  • 多模态外部知识 :模拟多模态检索增强 (RAG) 场景,考察MLLMs从图文形式的外部知识中,获取与当前问题有关的信息的能力。按照外部知识的形式,划分为 细粒度识别、富文本图片、视觉连接的文本知识 文本连接的视觉知识 等4个子任务。
  • 多模态上下文学习 :考察MLLMs基于若干演示 (demo) 回答视觉问题的能力。以往对多模态上下文学习 (ICL) 能力的评估,笼统地以模型在Caption/ VQA 等数据集上的性能随demo数量增加的变化来衡量。为了细致地评估多模态ICL对不同方面能力的影响,作者划分了 封闭式VQA、开放式VQA、物体幻觉 任务学习 等4个子任务。


数据集构建

数据集的构建包括图片来源、选项生成、知识采样、质量控制等方面。

  • 图片来源 :为了获得高质量的评估样本,收集相关数据集作为图片来源,例如在多图指令场景使用MagicBrush、VrR-VG等数据集,在多模态外部知识场景使用SlideVQA、 InfoSeek 等数据集,在多模态上下文学习场景使用Mini-ImageNet、POPE等数据集。
  • 选项生成 :采用多项选择的形式进行模型评估,为了使干扰项具有足够的挑战性,针对不同子任务,采用两种方案生成选项。第一种方案,根据任务特点设计相应的采样策略,从数据集的原始标注中采样与ground truth具有一定相似性和混淆性的其他标注作为干扰项;第二种方案,使用大语言模型如GPT-4,根据问题和 ground truth 生成一些错误的答案作为干扰项。
  • 知识采样 :对于多模态外部知识场景,为了使题目具有挑战性,采用两个采样原则:一是设置的干扰项均在采样的外部知识中有对应信息;二是外部知识中的正确与错误信息之间存在关联性,避免因干扰信息与问题无关导致模型利用语言先验走捷径,从而对模型性能产生错误的评估。
  • 质量控制 :设计两种自动化筛选策略,利用SOTA MLLMs,筛除去掉图像/外部知识后仍能正确回答的样本,以消除问题或选项本身存在的bias。进一步结合人工验证,以确保生成数据中没有重复或模棱两可的选项。
  • 评估策略 :采用多项选择题形式,并循环设置正确选项,以消除LLM对选项位置偏好的影响。
数据集子任务示例


模型评估与分析

数据集设计和构建完成后,作者首先在多图指令和多模态外部知识场景,评估了多个开源的单图及多图MLLMs,以及GPT-4o等闭源模型的性能。通过对不同子任务测试结果的分析,可以看到:

  • 开/闭源性能差距 :现有开源MLLMs相比GPT-4o,在多图指令和多模态外部知识场景的多数子任务上,仍然存在较大的性能差距。
  • 细粒度感知缺陷 :开源模型在细致差异(SD)、富文本图片(TRI)等依赖细粒度感知能力的任务上,性能大幅落后于GPT-4o。
  • 多图训练的重要性 :采用多图预训练的Idefics2模型,与采用多图指令微调的Mantis模型,在多数任务上的表现明显优于单图模型。
  • 多模态外部知识场景极具挑战 :富文本图片(TRI)、视觉连接的文本知识( VTK






请到「今天看啥」查看全文