专栏名称: FightingCV
一个专注于分享计算机视觉、多模态机器学习方向前沿论文,解答常见科研问题,分享好用科研工具的公众号。努力努力再努力,瑞思拜!
目录
相关文章推荐
北京厚朴中医  ·  今晚19:00直播 | 筑基课程说明与探究 (下) ·  2 天前  
拾榴询财  ·  新一轮户型革命来了!还有这么炸裂的房子 ·  4 天前  
北京厚朴中医  ·  厚朴电子日历 | 早 ·  4 天前  
51好读  ›  专栏  ›  FightingCV

开源模型突破原生多模态大模型性能瓶颈,上海AI Lab代季峰团队出品

FightingCV  · 公众号  ·  · 2024-10-26 09:00

正文

来源 | 量子位

原生 多模态大模型 性能瓶颈,迎来新突破!

上海AI Lab 代季峰 老师团队,提出了全新的 原生 多模态大模型 Mono-InternVL

与非原生模型相比,该模型首个单词延迟最多降低67%,在多个评测数据集上均达到了SOTA水准。

与常见的采用CLIP等结构进行视觉编码的 模块化 多模态大模型不同,Mono-InternVL将视觉感知和多模态理解均集成到大语言模型中。

相比于现有多模态大模型,Mono-InternVL有以下技术亮点:

  • 开源原生多模态架构最优解 :无需额外的视觉编码器,通过内嵌视觉专家打通了一条从大语言模型到原生多模态模型扩展的新路径,2B模型多模态能力优于7B参数的现有原生多模态模型,多个指标超越InternVL1.5。

  • 兼具视觉灵活性和部署高效性 :支持高达2M像素输入的动态图像分辨率,在原生多模态架构中感知精度最高。相比于InternVL1.5,在部署框架上首个单词延迟最多降低67%,整体吞吐量提高31%。

破解原生多模态大模型遗忘问题

现有的多模态大模型(MLLM)通常采用视觉编码器-对齐模块-语言模型的结构,将视觉编码和语言解码分别进行处理。

具体来说,这些模型通常通过将预训练的视觉编码器(例如CLIP)与大语言模型(LLM)结合来实现,即 模块化 MLLM。

最近新兴的Chameleon、EVE等 原生 MLLM,将视觉感知和多模态理解直接集成到一个LLM中,可以更方便地通过现有工具进行部署、具备更高的推理效率。

然而,由于原生MLLM缺乏视觉能力,视觉相关的训练通常不可避免,但视觉预训练过程中语言基座能力常常出现 灾难性遗忘 问题,导致现有原生MLLM的性能仍显著低于模块化MLLM。

为此,Mono-InternVL提出了采用 增量预训练 的方法,解决此前原生MLLM中的灾难性遗忘问题。

因此,作者在预训练的LLM中嵌入了专门服务于视觉建模的 视觉专家 ,通过MoE的方式实现稀疏化的建模。

基于此,作者通过仅优化视觉参数空间来进行视觉预训练,同时保留了语言基座的预训练知识。

原生多模态结构

具体来说,Mono-InternVL 由视觉文本嵌入和多模态MoE结构两部分组成:

  • 视觉和文本嵌入 :与使用CLIP等视觉编码器的模块化 MLLM 相比,Mono-InternVL 通过patch embedding直接将图像转换为patch序列。文本嵌入模块则直接使用LLM的分词器。

  • 多模态MoE结构 :Mono-InternVL 的核心是将视觉专家FFN嵌入到预训练的 LLM 中。视觉FFN从预训练LLM中的文本FFN初始化。由此不仅可以利用预训练的 LLM 知识促进视觉预训练,还能显著缓解灾难性遗忘问题。

内生视觉预训练

作者提出内生视觉预训练(EViP)方法,旨在通过在大规模噪声数据和合成数据上进行预训练来最大化Mono-InternVL的视觉能力。

EViP被设计为一个从基本视觉概念到复杂语义知识的逐步学习过程,包括三个阶段:

  • 概念学习 ,用于掌握基本的视觉概念;

  • 语义学习 ,用于捕捉高层次语义知识,例如世界知识;

  • 对齐学习 ,用于将知识与下游任务对齐。

在视觉预训练完成后,Mono-InternVL通过指令微调处理复杂的多模态任务。

在前两个阶段中保持预训练LLM的参数固定,仅训练视觉部分的嵌入模块和视觉FFN,而在第三阶段和指令微调中逐步放开LLM中的multi-head attention和文本FFN。

得益于这一架构和预训练策略,Mono-InternVL的视觉可扩展性得到了充分释放,随着预训练数据规模的增加,其下游性能持续提高。

原生多模态大模型性能大幅提升

作者基于InternLM2-1.8B开发了Mono-InternVL-2B模型,在16个多模态基准上进行了广泛的实验。

下图展示了中英文OCR、问答、图表解析等任务的可视化样例,体现了Mono-InternVL的实际效果。

如图,模型成功识别出了图中的“诺贝尔物理学奖2024”标题,Hopfield、Hinton等人名,以及瑞典皇家科学院落款等文本。

对于动漫风格的图片,模型识别出了形状扭曲的 NEC 、PANASONIC等品牌名,并提供了细致生动的图像描述。

在Grounding任务上,Mono-InternVL可以精准定位照片中的美短的坐标。

对于中文的手写文本同样具备不错的识别能力。

在代码生成任务上也表现较为出色。

数据上看,实验结果也表明,1.8B激活参数的Mono-InternVL可以大幅超越此前的7B参数原生多模态模型EVE, 平均提升15.5%

与最先进的模块化MLLM InternVL-1.5相比,Mono-InternVL在6个多模态基准上表现更优。

通过LMDeploy的部署实验表明,Mono-InternVL与模块化模型InternVL-1.5相比,首个token延迟减少了67%,整体吞吐量提高31%。







请到「今天看啥」查看全文