专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
杭州交通918  ·  太意外!44岁女演员官宣分手 ·  2 天前  
钱江晚报  ·  大S去世后,小S首度更新动态 ·  2 天前  
杭州日报  ·  终于!他官宣喜讯!网友沸了:期待今年3月 ·  2 天前  
FM93交通之声  ·  晚高峰突发!杭州一新能源车起火! ·  3 天前  
51好读  ›  专栏  ›  极市平台

NeurIPS 2024 | DACER:扩散模型与在线强化学习强强联合创造新SOTA!

极市平台  · 公众号  ·  · 2024-12-29 22:00

正文

↑ 点击 蓝字 关注极市平台
作者丨智能驾驶课题组
来源丨智能驾驶课题组
编辑丨极市平台

极市导读

清华大学智能驾驶课题组在NeurIPS 2024上发表的研究成果DACER,这是一种结合扩散模型和在线强化学习的算法,能够产生多模态动作分布,并提出了基于高斯混合模型的熵正则化方法来提升性能。DACER通过将扩散模型的反向过程作为策略函数,显著提升了在线强化学习算法的整体性能,并在MuJoCo基准测试中取得了优异的结果。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

本文介绍清华大学智能驾驶课题组(iDLab)在 NeurIPS 2024 发表的最新研究成果《Diffusion Actor-Critic with Entropy Regulator》。该算法创新性地将 扩散模型的反向过程作为策略函数 ,使在线强化学习算法能够产生多模态动作分布。此外,本文提出了基于 高斯混合模型的熵正则化 方法,显著提升了算法的整体性能。该研究工作由清华大学2023级研究生王以诺在李升波教授指导下完成。

Arxiv地址:https://arxiv.org/pdf/2405.15177

代码链接:https://github.com/happy-yan/DACER-Diffusion-with-Online-RL

1 背景

在线强化学习(Online Reinforcement Learning, Online RL) 作为人工智能领域解决复杂序列决策问题的核心方法之一,其应用范围持续扩展。在智能博弈、机器人控制及自动驾驶等传统应用领域取得显著成果的同时,强化学习技术正在大语言模型(Large Language Models, LLM)的微调优化、价值对齐及推理增强等关键环节发挥重要作用。然而在大多数传统的在线强化学习算法中,策略函数通常被参数化为可学习的高斯分布,这限制了它们表达复杂策略的能力。

扩散模型 作为一种生成模型因其强大的拟合多模态分布能力而广为人知。它通过 逐步添加和移除噪声来学习原始数据分布 ,在图像和视频生成领域表现出色。在RL中,策略网络可以被视为一种状态条件生成模型。Online RL通过与环境交互来学习控制策略,而Offline RL无需与环境互动,主要从先前收集的数据中学习策略[1]。在实际应用中,许多控制问题都有优秀的模拟器,使用Offline RL并不合适,因为具有互动能力的Online RL表现更佳。然而,扩散模型直接用于Online RL可能遇到的问题包括:

  1. 扩散模型的损失函数项本质上是一种模仿学习损失项,但与Offline RL不同,Online RL中并不存在可供模仿的数据;

  2. 扩散模型的反向过程无法进行解析求熵,这使得其难以与最大熵强化学习框架相结合,从而导致算法收敛性能不佳。

为了解决上述的问题,清华大学研究团队提出了一种基于扩散模型的在线强化学习算法 DACER(Diffusion Actor-Critic with Entropy Regulator) 。我们将DACER建立在去噪扩散概率模型(DDPM)[2]的基础上。受到Kaiming He[3]启发,扩散模型的表示能力主要来源于反向扩散过程而非正向,因此我们将扩散模型的反向过程重新概念化为一种新的 策略近似函数 ,利用其强大的表示能力来提升RL算法的性能。这个新策略函数的优化目标是 最大化期望Q值 。在RL中,最大化熵对于策略探索至关重要,但扩散策略的熵难以解析确定。因此,我们选择在固定间隔处采样动作,并使用 高斯混合模型(GMM) 来拟合动作分布,可计算每个状态下策略的近似熵。这些熵的平均值之后被用作当前扩散策略熵的近似。最后,我们使用估计的熵来平衡扩散策略在训练过程中的探索与利用。

2  DACER的关键技术

2.1 扩散策略表征

将条件扩散模型的反向过程用作参数化策略:

采样过程可以重新表述为:

2.2 扩散策略学习

在Online RL中,由于没有可供模仿的数据集,我们放弃了行为克隆项和模仿学习框架。策略学习的目标是最大化由扩散网络在给定状态下生成的动作的期望Q值:

此外,我们使用课题组提出的分布式Q学习[4]的方法来缓解值函数的过估计问题。然而,直接使用上述扩散策略学习方法进行训练时,会因策略动作过于确定性而导致性能不佳。

2.3 扩散策略与熵调节器

对于每个状态,我们使用扩散策略来采样N个动作,然后使用高斯混合模型(GMM)来拟合策略分布。我们可以通过以下方式估计对应于该状态的动作分布的熵[3]:

类似于最大化熵的RL,我们根据估计的熵学习一个参数α:

最终,我们使用下式在训练的采样阶段调整扩散策略的熵。熵调节机制是解锁探索潜能的关键。

综上所述,DACER算法的整体流程为

3 实验结果

下图为DACER与其他强化学习算法在MuJoCo[6]上的表现对比。图1和表1分别展示了学习曲线和性能策略。在所有评估的任务中,DACER算法始终与所有竞争基准算法的 性能相匹配或超越 。特别是在Humanoid-v3场景中,DACER相较于DDPG、TD3、PPO、SAC、DSAC和TRPO分别提升了 124.7%、111.1%、73.1%、27.3%、9.8%和1131.9%。

为评估策略表征能力,我们将DACER与DSAC、TD3和PPO的性能进行了比较,结果如图2所示。可以看出,DACER的动作倾向于指向不同状态下的最近峰值。 DACER的价值函数曲线显示了四个对称的峰值,与之前的分析相符合 。相比于DSAC,我们的方法学习到了更优的策略表示,这主要得益于采用扩散模型来参数化策略,而非传统的MLP。相比之下,TD3和PPO的价值函数曲线难以学得四个对称的峰值[7]。总体而言,DACER展示了极佳的策略表征能力。

为展示DACER的多模态能力,我们选择了五个需要多模态策略的点:(0.5, 0.5)、(0.5, -0.5)、(-0.5, -0.5)、(-0.5, 0.5)和(0, 0)。对每个点采样100条轨迹,在图3中绘制。结果显示与DSAC相比, DACER展现了显著的多模态特性 。这也解释了为什么只有DACER的Q函数能够学习到几乎完美对称的四个峰值。

在Humanoid-v3任务上, DACER、DSAC、SAC 训练收敛后的可视化:

DACER
DSAC
SAC

4 总结

本研究中我们提出了一种基于扩散模型的在线强化学习算法 DACER(Diffusion Actor-Critic with Entropy Regulator) ,旨在克服传统强化学习方法在策略参数化中使用高斯分布的局限性。通过利用扩散模型的反向去噪过程,DACER能够有效地学习多模态分布,使得创建更复杂的策略并提高策略性能成为可能。一个显著的挑战来自于缺乏解析表达式来确定扩散策略的熵,使其难以与最大熵强化学习结合,导致性能不佳。为了解决这一问题,我们采用 高斯混合模型(GMM)来估计熵,从而促进了关键参数α的学习 ,该参数通过调节动作输出中的噪声方差来实现探索和利用的平衡。在MuJoCo基准测试和多模态任务上的实证测试显示了DACER的优越性能。

5 参考文献

[1] S Eben Li. Reinforcement Learning for Sequential Decision and Optimal Control. Springer Verlag, Singapore, 2023.

[2] Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems, 33:6840–6851, 2020.

[3] Saining Xie Xinlei Chen, Zhuang Liu and Kaiming He. Deconstructing denoising diffusion models for self-supervised learning. arXiv preprint arXiv:2401.14404, 2024.

[4] Marco F Huber, Tim Bailey, Hugh Durrant-Whyte, and Uwe D Hanebeck. On entropy approximation for gaussian mixture random vectors. In 2008 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems, pages 181–188. IEEE, 2008.

[5] Jingliang Duan, Yang Guan, Shengbo Eben Li, Yangang Ren, Qi Sun, and Bo Cheng. Distributional soft actor-critic: Off-policy reinforcement learning for addressing value estimation errors. IEEE Transactions on Neural Networks and Learning Systems, 33(11):6584–6598, 2021.







请到「今天看啥」查看全文