专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
科研大匠  ·  北京大学最新Nature ·  6 天前  
科研大匠  ·  国家杰青、清华教授,任211大学院长! ·  3 天前  
研之成理  ·  袁荃/余锂镭/张云合作团队Chem:太阳能时 ... ·  1 周前  
51好读  ›  专栏  ›  PaperWeekly

AAAI 2025 | 高效桥接视觉和语言,字节、中大提出全新多模态大模型连接器

PaperWeekly  · 公众号  · 科研  · 2025-01-20 18:56

正文


在多模态大语言模型(MLLMs)的发展中,视觉-语言连接器作为将视觉特征映射到 LLM 语言空间的关键组件,起到了桥梁作用。

因此,它几乎成为了所有多模态大语言模型中不可或缺的结构之一。然而,如何高效地将视觉特征映射到 LLM 的探索还有很大提升空间。

字节团队与中大合作提出的 ParGo 模型,通过巧妙地融合全局视野和局部细节,不仅在多项权威基准测试(Benchmark)中表现出色,成功入选了 AAAI 2025。


论文题目:
ParGo: Bridging Vision-Language with Partial and Global Views

收录会议:

AAAI 2025

论文链接:

https://arxiv.org/abs/2408.12928

代码链接:

https://github.com/bytedance/ParGo

过去,大多数研究主要依赖线性投影或多层感知机(MLP)将视觉特征直接映射,这种方法难以有效控制输入 LLMs 的视觉 token 数量,特别是在处理细粒度特征时,导致计算成本极高。

另一类基于注意力机制的方法(如 Q-former)通过注意力操作将图像特征投射为固定数量的视觉 token,虽然大幅减少了计算成本,但往往使得生成的 token 集中在图像的显著区域,忽略了细节部分。

为了解决这一问题,ParGo 提出了一种创新的全局-局部投影器来连接视觉与文本,通过结合全局视野和局部细节的双重视角,克服了传统方法对显著区域的过度聚焦,使得视觉特征能够在更细腻的层面上得到全面展现,同时有能有效控制过长的 token 带来的计算成本的升高,进而实现了视觉特征和 LLM 的高效连接。

▲ 全局+局部视角联合

方法

ParGo (Partial-Global) 采用两种类型的可学习 token,利用 attention 机制,同时从局部和全局视角将视觉特征映射到大语言模型(LLM)中。

该框架包含两个关键模块:Partial-Global Perception Block (PGP)Cascaded Partial Perception Block (CPP)。这两个模块共同作用,实现了高效的视觉-语言连接,既捕捉了图像的全局信息,又能精细地提取局部特征,从而提升了多模态大语言模型的效果。
▲ 图1. ParGo模型框架图

核心模块

Partial-Global Perception Block (PGP)

ParGo 中,视觉编码器的特征被映射为两种不同类型的 token:Partial tokenGlobal token,从而能够分别提取图像的局部和全局信息。具体来说:

Partial tokens每个 token 仅与部分视觉特征进行交互,专注于图像的局部信息;

Global tokens全局 token 则与所有视觉特征进行交互,捕捉图像的全局信息。

ParGo 采用了一种新的交叉注意力掩码设计(Partial-Global Attention Mask),如图 1 (b) 所示,来处理输入的视觉特征。该设计能够同时输出包含图像局部和全局信息的特征,即 Partial tokens Global tokens。具体的公式如下:

Cascaded Partial Perception Block (CPP)

此外,考虑到不同局部物体在图像中的占比不同,为了进一步增强对多种局部信息的完整捕获能力,ParGoPartial-Global Perception 模块之前引入了 Cascaded Partial Perception (CPP) 模块。

CPP 模块的核心是一个带有特殊设计掩码的自注意力机制,如图1 (b) 中的 Cascaded Partial Attention Mask。随着层数的增加,每个 Partial token 能够访问到更多的相邻 token,从而逐步扩展其感知范围。该过程可以通过以下公式表示:

实验效果

论文重点对比了当前不同类型的 Projector(投射器),在一些通用的 MLLM 的 benchmark 的效果,均取得了优异的效果。


为了进一步进行公平对比,论文在相同数据集和实验参数下,比较了三种主流的投影器(Projector)。结果显示,ParGo 依然取得了最佳的性能表现。另外,在不同基座 LLM 下,ParGo 均表现良好,体现出了更好的泛化性能。


案例分析
为了能进一步展现 ParGo 在控制 token 数量的情况下,依然能做到细粒度和空间关系的准确捕获,作者对比了 ParGo 和 Q-former 这两种均是基于注意力机制的 Projector(投射器)在相同 tokens 下的效果:


总结

本研究提出了 ParGo(局部-全局投影器),一种创新的视觉-语言投影方案,旨在提升多模态大语言模型(MLLMs)中视觉和语言模态的对齐效果。

ParGo 通过结合局部 token 和全局 token,并使用精心设计的注意力掩码分别提取局部和全局信息,在控制 token 数量的同时增强了局部区域之间的关系建模,充分考虑了图像的细节与全局视角,从而克服了传统方法中忽视细节的问题。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·