专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
ZaomeDesign  ·  人在上面跑,鸡在下面飞 ·  昨天  
ZaomeDesign  ·  每日灵感丨二月九日 ·  2 天前  
字体设计  ·  运用霓虹元素打造毕业展海报视觉效果 ·  2 天前  
字体设计  ·  从草稿到终稿! ·  2 天前  
庞门正道  ·  会跳钢管舞的鸡! ·  3 天前  
51好读  ›  专栏  ›  极市平台

ICLR 2025 | Ross: 多模态大模型的 MAE 时刻?

极市平台  · 公众号  ·  · 2025-01-24 22:00

正文

↑ 点击 蓝字 关注极市平台
作者丨王淏辰@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/19997220245
编辑丨极市平台

极市导读

探讨CrossFormer在多模态大模型中的创新设计,特别是其如何通过跨尺度交互解决多模态任务中的尺度差异问题,为多模态领域的发展提供了新的思路和方法。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

「Vision-Centric Supervision」Matters in Large Multimodal Models!

「Vision-Centric Supervision」Matters in Large Multimodal Models!

「Vision-Centric Supervision」Matters in Large Multimodal Models!

今天介绍我们在多模态大模型领域的一篇原创工作: Reconstructive Visual Instruction Tuning

  • arXiv Paper: https://arxiv.org/pdf/2410.09575
  • Project Page: https://haochen-wang409.github.io/ross/
  • GitHub Code: https://github.com/haochen-wang409/ross
  • Huggingface Checkpoint: https://huggingface.co/HaochenWang/ross-qwen2-7b

目前 Ross 已被 ICLR 2025 接收,相关代码已开源,有任何问题欢迎在 GitHub 提出。

TL; DR

我们针对多模态大模型的 视觉部分 设计了重建原图形式的监督信号,该监督能够显著提升模型细粒度理解能力以及减轻幻觉。我们认为这是多模态大模型的 MAE 时刻,如何针对多模态大模型设计更好的 visual pre-text task 是后续研究的重点。

1. Motivation

在当今的多模态学习领域,多模态大模型尽管希望处理的是视觉数据, 但其核心训练过程却几乎完全依赖于文本监督 ,即 “images --> CLIP --> LLM <== _text supervision_” 的架构。

这种做法缺乏对原始视觉信号的充分利用,模型的性能也很大程度上受限于被视觉表征的好坏。

为了突破这一瓶颈,我们提出了一种全新的方法——**Reconstructive Visual Instruction Tuning (Ross)**。

Ross 引入了 视觉监督 。它让大型多模态模型(LMMs)直接从输入图像中学习,通过重构图像来指导自身的优化过程。这种方式不仅充分利用了图像本身的丰富细节,还能够显著提升模型对细粒度视觉特征的理解能力。

2. Method

既然输入的图像本身就蕴含着大量的细节信息,为什么不直接利用它们来指导模型的学习呢?通过重构输入图像作为监督信号,我们鼓励模型保持对低级细节的关注,从而增强了其细粒度的理解能力,并减少了幻觉现象的发生。

Overview of Ross.

上图展示了 Ross 的 high-level idea。不同于传统的多模态大模型只利用了右半部分的 text supervision,Ross 引入了左半部分的 visual supervision。

在这个过程中,自然图像的空间冗余性,难以为 LLM 直接提供有意义的监督信号。为此,我们系统性地研究了 (1) 重建目标 (2) 重建损失,最终得到了一个巧妙的解决方案:采用去噪目标来重构隐特征,如下图所示。

3. Experiments

Ross 在不同的 visual backbone + LLM 上,在多数情况都能获得显著的性能提升,特别是在 MMVP 这类细粒度理解任务上

Ross 与 SOTA 方法的比较,仅仅使用一个 SigLIP,Ross 就能超越 Cambrian-1-8B 这个合并了 CLIP+SigLIP+ConvNeXt+DINOv2 的方法

引入 anyres 技巧后,Ross 在高分辨率 benchmark 上也能取得优越的性能

4. In-Depth Analysis

绝对的数字并不是最关键的,我们更应该关注为什么 Ross 这类视觉监督能 work。我们得出了以下的结论:

  • 引入视觉监督能带来更高的 attention values,多模态大模型更加看图了

Ross 和 LLaVA 对于视觉 token 的 attention value 对比,Ross 的 attention values 显著高于 LLaVA 的

  • 引入视觉监督能带来更合理的 attention map,多模态大模型更能关注到正确的区域

Ross 对 visual tokens 的 attention map 更合理,更能关注到问题相关的区域

  • 引入视觉监督能让模型的特征包含足够的细粒度信息, 把 frozen Ross-7B 的 feature 作为 condition,仅将 denoiser 在 ImageNet-1K 上 fine-tune 5 个 epoch,就能重建出图!

原图 (左) 和重建结果 (右)。Ross-7B 的特征可以被完美的映射回 RGB space!

其中,最后一点是我们认为最有趣的发现,该结果表明,image --> SigLIP --> Qwen2 之后得到的特征,通过 Ross 这样的训练后,竟然还能被映射回原始的 RGB pixel space。这说明 Ross 对于图像信息的压缩较少,保留了细粒度理解所需要的细节信息。

5. Discussion and Future Work

我们认为 Ross 的成功,是多模态大模型的 MAE 时刻,如何针对多模态大模型设计更好的 visual pre-text task 将是后续研究的重点,LMM 的范式不应该只是 text 端的 next-token-prediction!

当然,Ross 还有很多非常 straightforward 的拓展,例如拓展至生成领域,真正做到生成帮助理解。


公众号后台回复“ 数据集 ”获取100+深度学习各方向资源整理







请到「今天看啥」查看全文


推荐文章
ZaomeDesign  ·  人在上面跑,鸡在下面飞
昨天
ZaomeDesign  ·  每日灵感丨二月九日
2 天前
字体设计  ·  从草稿到终稿!
2 天前
庞门正道  ·  会跳钢管舞的鸡!
3 天前
中央广电总台中国之声  ·  辱母杀人事件一出,网友不干了
7 年前