专栏名称: 深度强化学习实验室
主要介绍深度学习、强化学习、深度强化学习环境、算法原理与实现、前沿技术与论文、开源项目、场景应用等与DRL相关的知识
目录
相关文章推荐
混沌学园  ·  对话“Manus”两位创始人:2025,AI ... ·  12 小时前  
慧田哲学  ·  现在社会最可怕的现象:傻子共振! ·  2 天前  
51好读  ›  专栏  ›  深度强化学习实验室

DeepMind发布强化学习库 RLax

深度强化学习实验室  · 公众号  ·  · 2020-02-22 08:01

正文

深度强化学习实验室报道

来源:Github/DeepMind

作者: DeepRL


||  RLax及背景

强化学习主要用于研究学习系统(智能体)的问题,该学习系统必须学习与环境进行交互的信息。智能体 和环境在不连续的步骤上进行交互。在每个步骤中,智能体都会选择一个动作,并会提供一个返回的环境状态(观察)状态(部分)和标量反馈信号(奖励)。智能体的行为以行为的概率分布为特征,该分布取决于对环境(策略)的过去观察。智能体寻求一种策略,该策略将从任何给定步骤中最大化从该点开始(返回)将收集的折扣累积奖励。智能体策略或环境动态本身通常是随机的。在这种情况下,回报是一个随机变量,并且通常将更精确的智能体策略指定为在智能体和环境的随机性下最大化回报期望(值)的策略。

RLax (发音为“ relax”)是建立在JAX之上的库,它公开了用于实施强化学习智能体的有用构建块。


|| 安装与使用

可以使用以下命令从github直接使用pip安装RLax:

pip install git+git://github.com/deepmind/rlax.git.

然后可以使用JAX的jax.jit函数为不同的硬件(例如CPU,GPU,TPU)及时编译所有RLax代码。


|| 强化学习算法

增强学习算法包含三个原型系列:

  • 那些估计状态和动作的价值,并通过检查推断策略的行为(例如,通过选择估计值最高的动作)

  • 学习环境模型(能够预测观察结果和奖励),并通过计划推断策略。

  • 那些参数化可以直接执行的策略的参数,

无论如何,策略,价值或模型只是功能。在深度强化学习中,此类功能由神经网络表示。在这种情况下,通常将强化学习更新公式化为可区分的损失函数(类似于(非)监督学习)。在自动区分下,将恢复原始更新规则。

但是请注意 ,尤其是只有以正确的方式对输入数据进行采样时,更新才有效。例如,仅当输入轨迹是当前策略的无偏样本时,策略梯度损失才有效。即数据是符合政策的。该库无法检查或强制执行此类约束。但是,在函数的文档字符串中提供了指向描述如何使用每种操作的论文的链接。


|| 命名约定和开发人员指南

我们为与单一经验流交互的代理定义功能和操作。JAX构造vmap可用于将这些相同的功能应用于批处理(例如,支持重放和并行数据生成)。

许多功能在连续的时间步中考虑策略,行动,奖励,价值,以便计算其输出。在这种情况下,qm_t和tm1通常用于说明每个输入是在哪个步骤上生成的,例如:

  • q_tm1:转换的源状态中的操作值。

  • a_tm1:在源状态下选择的操作。

  • r_t:在目标状态下收集的结果奖励。

  • discount_t:与转换关联的折扣。

  • q_t:目标状态下的操作值。

为每个功能提供了广泛的测试。当使用jax.jit编译为XLA以及使用jax.vmap执行批处理操作时,所有测试还应验证rlax函数的输出。


||  引用

@software{rlax2020github,
author = {David Budden and Matteo Hessel and John Quan and Steven Kapturowski},
title = {{RL}ax: {R}einforcement {L}earning in {JAX}},
url = {http://github.com/deepmind/rlax},
version = {0.0.1a0},
year = {2020},
}


更多细节查看Github

https://github.com/deepmind/rlax



总结1: 全网首发最全深度强化学习资料(永更)

总结2: 《强化学习导论》代码/习题答案大全

总结3: 30+个必知的《人工智能》会议清单

总结4 2019年-57篇深度强化学习文章汇总


第48篇: AlphaStar过程详解笔记

第47篇: Exploration-Exploitation难题解决方法

第46篇: DQN系列(2): Double DQN 算法

第45篇: DQN系列(1): Double Q-learning

第44篇: 科研界最全工具汇总

第43篇: 起死回生|| 如何rebuttal顶会学术论文?

第42篇: 深度强化学习入门到精通资料综述

第41篇: 顶会征稿 ||  ICAPS2020: DeepRL

第40篇: 实习生招聘 || 华为诺亚方舟实验室

第39篇: 滴滴实习生|| 深度强化学习方向

第38篇: AAAI-2020 || 52篇深度强化学习论文

第37篇: Call For Papers# IJCNN2020-DeepRL

第36篇: 复现"深度强化学习"论文的经验之谈

第35篇: α-Rank算法之DeepMind及Huawei改进

第34篇: 从Paper到Coding, DRL挑战34类游戏

第33篇: DeepMind-102页深度强化学习PPT

第32篇: 腾讯AI Lab强化学习招聘(正式/实习)

第31篇: 强化学习,路在何方?

第30篇: 强化学习的三种范例

第29篇: 框架ES-MAML:进化策略的元学习方法

第28篇: 138页“策略优化”PPT--Pieter Abbeel

第27篇: 迁移学习在强化学习中的应用及最新进展

第26篇: 深入理解Hindsight Experience Replay

第25篇: 10项【深度强化学习】赛事汇总

第24篇: DRL实验中到底需要多少个随机种子?

第23篇: 142页"ICML会议"强化学习笔记

第22篇: 通过深度强化学习实现通用量子控制

第21篇: 《深度强化学习》面试题汇总

第20篇: 《深度强化学习》招聘汇总(13家企业)

第19篇: 解决反馈稀疏问题之HER原理与代码实现

第18篇: "DeepRacer" —顶级深度强化学习挑战赛

第17篇: AI Paper | 几个实用工具推荐

第16篇: AI领域:如何做优秀研究并写高水平论文?

第15篇: DeepMind开源三大新框架!
第14篇: 61篇NIPS2019DeepRL论文及部分解读
第13篇: OpenSpiel(28种DRL环境+24种DRL算法)
第12篇: 模块化和快速原型设计Huskarl DRL框架
第11篇: DRL在Unity自行车环境中配置与实践
第10篇: 解读72篇DeepMind深度强化学习论文
第9篇: 《AutoML》:一份自动化调参的指导
第8篇: ReinforceJS库(动态展示DP、TD、DQN)
第7篇: 10年NIPS顶会DRL论文(100多篇)汇总
第6篇: ICML2019-深度强化学习文章汇总






请到「今天看啥」查看全文