行业资讯

华为诺亚方舟伦敦实验室推出鲁棒强化学习新算法

  背景

  近年来,强化学习在多项任务(如围棋,电脑游戏)中有着令人惊艳的表现。强化学习算法依赖大量采样的特性决定了其需要首先在仿真环境中进行训练再迁移到现实系统中。然而,由一般强化学习算法训练产生的策略往往容易过拟合在虚拟的仿真环境上,一旦仿真环境和现实系统无法完全匹配,策略的迁移过程将会困难重重。几个常见的例子如机器人控制问题中关节的阻尼无法被准确测量,或是自动驾驶问题中汽车和地面间的摩擦力会根据轮胎和路况而改变。希望依靠仿真环境去完全还原现实系统并针对不同的仿真环境参数去训练不同的策略显然是不现实的。这一问题严重影响了强化学习算法的实用性。

  优化问题的定义

  本文我们提出一种新的鲁棒强化学习算法。我们将强化学习的鲁棒性问题抽象成了一个策略和仿真模型之间的有约束的极大-极小化问题。将策略和仿真环境分别用θ和φ参数化,无约束形式的极大-极小化问题可以表达为

其中轨迹τ的分布

  由策略θ和环境φ共同决定。通过求解这个优化问题,我们希望能够搜索到策略

使其在最差的仿真环境

  中能够有最优的表现。然而这个无约束形式是不适定的,它允许对仿真环境进行随意改变。我们必须引入约束去限制φ的搜索范围并保证算法的收敛性。假设初始的仿真环境

  而现实系统这个初始环境的一个领域内,所引入的约束必须保证φ的搜索范围覆盖这个领域。我们采用转移概率分布

之间Wasserstein距离的期望去定义这个

的搜索领域

其中状态s和动作a的联合分布P(s,a)由一个均匀分布策略

  中采样产生。Wasserstein距离的期望可以用蒙特卡洛采样去进行估计。

  优化问题的求解

  在优化问题的求解方面,我们可以选用任意的策略搜索算法去求解外层关于策略参数θ的极大化问题。我们把目标函数在当前

处进行一阶泰勒展开并把约束在

  处进行二阶泰勒展开,将内层关于φ的有约束极小化问题简化为如下的QCLP问题:

相应的φ的更新规则可通过求该QCLP问题的解析解得到

其中

为目标函数在

  处的梯度,

为约束在

  处的Hessian矩阵。

  零阶优化

  之前所述的优化问题的求解过程中,环境参数φ的更新建立在我们能够获得目标函数的梯度以及约束的Hessian矩阵的基础上。但在大多数应用中,该条件是难以得到满足的。例如,无模型的强化学习普遍依赖从以微分方程求解器为基础的仿真环境中获取采样,这直接导致目标函数和约束对于环境参数φ不可微。考虑到基于模型的强化学习在高维复杂的任务中表现平平,学习一个对于参数可微的环境模型去替代仿真环境并不是一个可行选择。该条件难以满足的另一个原因在于,约束中的Wasserstein距离仅在转移概率分布

  被假设为某些特殊分布(如高斯分布)时才有关于分布参数闭式且可导的表达式。在只能经验估计Wasserstein距离的情况下,我们无法获得约束对于φ的导数信息。

  为了扩展算法的应用范围,我们提出了针对该优化问题的零阶解法,仅通过目标函数和约束的函数值来估计优化所需的梯度和Hessian矩阵。我们采用evolution strategy去估计目标函数对于φ的梯度:

并将该方法扩展至二阶去估计约束在

处的Hessian矩阵:

实验

  我们在Cartpole,Hopper,Walker2D和Halfcheetah四个MuJoCo机器人控制环境中测试了WR2L,并和若干基线进行了比较。作为基线的算法包含TRPO和PPO两个通用的策略搜索算法以及RARL鲁棒策略搜索算法。每个环境模型被参数化为若干物理量组成的向量,如机器人躯干密度,地面摩擦力等。通过WR2L训练的策略在所有测试任务中都显示出了很强的鲁棒性,和基线相比性能有明显的提升。

  一维环境实验结果

Invpendulum, reference

Hopper, reference

Halfcheetah, reference

Halfcheetah, reference

二维环境实验结果

高维环境实验结果

评论

  汪军教授对该工作的评论:决策系统的安全鲁棒抗干扰能力一直是阻碍强化学习算法落地应用的一个大障碍。这是在安全可信AI方向上的新成果,可以广泛应用到实际场景,例如自动驾驶,企业运筹,物流等等决策领域上。

  Haitham Ammar教授对该工作的评论:考虑到仿真环境和现实系统之间的不匹配,智能体测率对于环境动力学的鲁棒性是强化学习能否实用的关键因素。本文我们提出了鲁棒强化学习的新算法,并在若干个标准测试任务中取得了SOTA的表现。我们相信该算法将会推动华为在自动决策领域的进一步发展。

Copyright © 2002-2019 huohu365.com. 火狐网 版权所有