专栏名称: AI科技大本营
为AI领域从业者提供人工智能领域热点报道和海量重磅访谈;面向技术人员,提供AI技术领域前沿研究进展和技术成长路线;面向垂直企业,实现行业应用与技术创新的对接。全方位触及人工智能时代,连接AI技术的创造者和使用者。
目录
相关文章推荐
小榄在线  ·  免费上门!为犬猫接种狂犬疫苗又开始啦 ·  11 小时前  
51好读  ›  专栏  ›  AI科技大本营

告别传统强化学习?上下文强化学习基座模型 OmniRL 让 AI “自学成才”

AI科技大本营  · 公众号  ·  · 2025-02-11 17:16

正文

当下的 AI 大模型,在特定场景中表现卓越,却往往囿于定制化的藩篱,难以跨越环境鸿沟。尤其在强调自主决策的强化学习领域,AI Agent 一旦脱离预设环境便“水土不服”。

通用性,成为横亘在强化学习通往 AGI 征途上的关键瓶颈。

文章将深入解析 OmniRL 的创新技术细节与实验结果,阐述其如何通过上下文强化学习方法和大规模元训练策略,探索让 AI 从“环境适应”走向“能力泛化”的可行路径。

作者 | AIRS

出品丨AI 科技大本营(ID:rgznai100)

长期以来,强化学习模型在面对不同环境时的泛化能力一直是研究者们关注的焦点。如何让 AI 智能体摆脱对特定环境的依赖,像人类一样快速适应新情境,是实现通用人工智能的关键挑战之一。

为了解决这一难题,香港中文大学 AIRS(深圳市人工智能与机器人研究院)相关团队近期预公开了强化学习基座模型 OmniRL

该团队创新性地提出了一种离散随机环境的规模化生成方法,能够生成百万级别的马尔可夫决策链任务,并用于合成数百亿时间步的泛强化学习过程数据,进行模型的训练。更进一步,他们还提出了一种在上下文中整合强化学习和模仿学习的数据合成方法和模型结构。

令人惊喜的是,利用这种随机世界训练出的 OmniRL 模型,无需梯度微调,即可直接用于解决前所未见的 Gymnasium 环境。

OmniRL 创新性地提出了 上下文强化学习范式 ,旨在构建具备通用学习能力的基座模型。 它能否真正让 AI 学会“自学成才”,告别传统强化学习的局限?让我们深入了解 OmniRL,探究其背后的奥秘。

论文地址: https://arxiv.org/abs/2502.02869
开源代码: https://github.com/airs-cuhk/airsoul/tree/main/projects/OmniRL

预训练和元训练:授模型以鱼和授模型以渔

传统预训练模型,如同让学生死记硬背知识点,虽然也能应付考试 (特定任务),但缺乏真正的泛化能力。预训练最早以教会模型完成多种多样的任务为出发点,在大规模预训练中,模型除了记住这些训练任务本身,涌现出的最重要的能力就是上下文学习(In-Context Learning),这种能力能够帮助大模型通过提示信息来构建完成新任务的能力。

OmniRL 提出大规模元训练,和预训练不同之处在于,OmniRL 目标不是记忆训练任务的技能本身,而是学习如何进行强化学习的过程。元学习,又叫学习学习的方法( Learning To Learn ),早在 80 年代被提出。但 OmniRL 论文认为,缺乏大规模任务和长序列支撑的元学习,容易实际陷入“任务识别”的模式:模型只是记住了训练的环境,在推理时通过识别处于哪一个环境“激活”对应的技能。这种模式不具备对未见任务和分布外任务的泛化性。

图 1  OmniRL 模型结构示意图

首次利用上下文学习统一多强化学习和模仿学习

OmniRL 提出同时利用 先验信息 后验奖励 (Feedback)进行上下文学习,使得该模型可以自己在不同学习模式间根据需求切换。

图 2 展示了在随机世界中训练的 OmniRL 模型,仅通过上下文学习,不依赖于任何梯度优化,在冷启动,或者预先给定一段演示轨迹(包括专家演示,以及较差的演示),能通过 在线强化学习 (Online-RL) 离线强化学习( Offline-RL 模仿学习( IL 的自主切换,达到较好表现,证明上下文学习有巨大的灵活性。进一步,还能在演示的基础上,进一步通过自主探索持续提升自身能力。

图 2  OmniRL 能够通过上下文学习进行在线强化学习,离线强化学习或者模仿学习。进一步,完全没有经历多智能体训练的相比传统人工设计强化学习方法有巨大效率优势。

首次揭示出数据多样性和序列长度重要性根源

OmniRL 使用数千万参数的 Transformer 和高效线性注意力结构来进行建模。训练任务数超过 50 万个,时间步数超过一百万。OmniRL 在实验中对比相同数据量,但来自不同任务数量的效果,发现任务数量不够多时,模型会转向记忆 + 环境识别模式,即把所有训练的环境储存在参数记忆中,通过上下文进行快速的辨识。

这种模式下,智能体能否以更少的样本适应训练过程中见过的环境,但却不能泛化到未见环境。而任务数量充分时,才能激发 通用上下文学习能力,这种能力可以有效泛化到未见任务,但对于所有任务都需要更长的上下文学习周期。

这个结论一定程度说明:

  • 数据的完整性和多样性比数据的绝对准确性(absolute fidelity)更重要。 即使采用失真的数据,通过提升上下文学习的泛化性,也有可能更好泛化到真实任务。

  • 长序列建模和长时记忆是通用学习能力的自然选择。 在训练任务数量增加时,模型在学习过程中自然选择不去记忆任务关联的知识,而是只记忆学习方法,从而导致对训练集中出现的任务也需要花费更长适应时间。 这正是大规模元学习的特点。

图 3  相同数据量,不同任务量训练的损失值(越低越好)和上下文长度以及元训练迭代次数的关系。任务数量越多,在已见( seen )和未见( unseen )任务上的表现越一致,但在上下文维度上花费更长的下降时间。

面向下一代通用具身智能体的技术探索

OmniRL 的最终目标是实现对任意环境都能完全自主探索和学习的智能体。对于具身智能意义更加重大。大语言模型通过参数记忆捕捉了大量常识,百科和数理逻辑,构成了其零样本能力的基础。但具身智能面对多样的环境,任务以及复杂的本体异构性,常识很难成为解决具身问题的基础。OmniRL 相关团队认为,自主学习能力和长时记忆将是通用具身智能体的关键。







请到「今天看啥」查看全文