专栏名称: 天池大数据科研平台
天池,基于阿里云的开放数据处理服务ODPS,面向学术界开放海量数据和分布式计算资源,旨在打造“数据众智、众创”第一平台。在这里,人人都可以玩转大数据,共同探索数据众创新模式。
目录
相关文章推荐
51好读  ›  专栏  ›  天池大数据科研平台

阿里开源R1-Omni,DeepSeek同款RLVR首度结合全模态情感识别,网友:可解释性+多模态学习=下一代AI

天池大数据科研平台  · 公众号  · 大数据  · 2025-03-12 11:12

正文

请到「今天看啥」查看全文


本文转载来源:量子位公众号,西风发自凹非寺

首次将DeepSeek同款 RLVR应用于全模态LLM ,含视频的那种!

眼睛一闭一睁, 阿里通义实验室薄列峰团队 又开卷了,哦是开源, R1-Omni 来了。

同样在杭州,这是在搞什么「开源双feng」 (狗头保命)

他们都做了啥?

DeepSeek-R1带火了RLVR (可验证奖励强化学习) ,之前已有团队将RLVR应用于图像-文本多模态LLM,证明其在几何推理和视觉计数等任务上表现优异。

然鹅, 尚未探索将其与 包含音频、动态视觉内容 的全模态LLM结合。

薄列峰团队首次将RLVR与全模态LLM结合,聚焦的是视觉和音频模态都提供关键作用的 情感识别任务

团队实验发现,模型在三个关键方面有显著提升:

RLVR的引入不仅提高了模型在分布内数据上的整体性能,而且在分布外数据集上也展现出了更强的鲁棒性。

更重要的是,提升后的推理能力使得能够清晰分析在情感识别过程中不同模态所起的作用。

R1-Omni在X上也吸引了不少网友关注:

非常有趣的论文,我立刻就能预见到它在市场营销和广告领域进行情感倾向分析的潜力。

还有网友表示可解释性+多模态学习就是下一代AI的方向。

一起具体来看R1-Omni。

R1-Omni长啥样?

在研究方法上,论文首先介绍了DeepSeek同款RLVR和GRPO。

RLVR 是一种新的训练范式,其核心思想是利用验证函数直接评估输出,无需像传统的人类反馈强化学习 (RLHF) 那样依赖根据人类偏好训练的单独奖励模型。

给定输入问题q,策略模型π θ 生成响应o,接着使用可验证奖励函数R(q,o)对其进行评估,其优化目标为最大化验证奖励减去基于KL散度正则化项的结果。

RLVR在简化了奖励机制的同时,确保了其与任务内在的正确性标准保持一致。

GRPO 是一种全新的强化学习方法,它与PPO等传统方法有所不同,PPO依赖于一个评论家模型来评估候选策略的性能,而GRPO直接比较生成的响应组,避免了使用额外的评论家模型,简化了训练过程。

利用归一化评分机制,GRPO鼓励模型在组内优先选择奖励值更高的响应,增强了模型有效区分高质量和低质量输出的能力。

遵循DeepSeek-R1中提出的方法,团队 将GRPO与RLVR相结合

R1-Omni模型构建方面,团队采用了一种受DeepSeek-R1训练方法启发的 冷启动策略

在包含232个可解释多模态 (视觉和音频) 情感推理数据集 (EMER) 样本和348个手动标注的HumanOmni数据集样本的组合数据集上对HumanOmni-0.5B (一个专为人为场景理解设计的开源全模态模型) 进行微调,使模型具备初步推理能力,了解视觉和音频线索是如何对情感识别产生作用的。

之后, 通过RLVR训练优化模型,奖励函数由准确率奖励和格式奖励组成,准确性奖励评估预测情感与真实情感的匹配度,格式奖励确保模型输出符合指定的HTML标签格式。


模型输出预期包含两部分:一个推理过程,封装在" "标签内,解释模型如何整合视觉和音频线索得出预测;一个最终情感标签,封装在" "标签内,表示预测的情感。

推理/理解/泛化三方面提升

实验评估中,研究者将 R1-Omni 与三个基线模型进行比较: 原始的H umanOmni-0.5B 、在EMER数据集上进行监督微调的模型 EMER-SFT 、直接在MAFW和DFEW训练集上基于HumanOmni-0.5B进行监督微调的模型 MAFW-DFEW-SFT

评估指标包括无加权平均召回率 (UAR) 和加权平均召回率 (WAR) ,这些指标衡量模型在不同情感类别中准确分类情感的能力。

重要的是,所有评估都在开放词汇情感测试 (OV-emotion) 协议下进行。在这种设置中,模型不提供预定义的情感类别,而是直接从输入数据中生成情感标签,这增加了评估的挑战性和实际应用价值。

实验结果表明,R1-Omni在三个关键方面优于三个对比模型: 推理能力增强、理解能力提高、泛化能力更强

研究者展示了一系列可视化示例,比较R1-Omni与其它三个模型的输出,R1-Omni提供了更连贯、准确和可解释的推理过程。

相比之下原始HumanOmni-0.5B和MAFW-DFEW-SFT模型表现出有限的推理能力,而EMER-SFT虽具备一定推理能力但推理过程连贯性较差且容易产生幻觉。

在MAFW和DFEW数据集上,R1-Omni在UAR和WAR指标上均优于其它模型。

例如在DFEW数据集上,R1-Omni实现了65.83%的UAR和56.27%的WAR,明显优于MAFW-DFEW-SFT的60.23%UAR和44.39%WAR。

为了评估模型的泛化能力,研究者在RAVDESS数据集上进行了实验,该数据集作为分布外 (OOD) 测试集。

与主要由电影片段组成的MAFW和DFEW数据集不同,RAVDESS数据集特点是专业演员以中性北美口音发表词汇匹配的陈述,这种数据分布的显著差异使RAVDESS成为评估模型泛化到未见场景能力的理想基准。

R1-Omni在RAVDESS数据集上相较于MAFW-DFEW-SFT模型有显著提升,实现了43.00%的UAR和44.69%的 WAR。

目前,基础模型HumanOmni-0.5B、冷启动模型EMER-SFT,还有MAFW-DFEW-SFT以及最终模型R1-Omni已全部开源。

参考链接:
[1]https://arxiv.org/abs/2503.05379
[2]https://github.com/HumanMLLM/R1-Omni







请到「今天看啥」查看全文