多智能体强化学习综述-Lucian Busoniu

Multi-Agent Reinforcement Learning: A Survey
Lucian Busoniu Robert Babuska Bart De Schutter,2006

这篇文章对多智能体强化学习(MARL)的背景,目的,代表性的算法进行了调研。

多智能强化学习算法分类图下图。
多智能体强化学习综述-Lucian Busoniu

1. 背景知识

A. 单智能体强化学习

单智能体情况下,使用马尔可夫决策过程(Markov Decision Process, MDP)来建模:<X,U,f,ρ><X, U, f, \rho>
其中UU是动作空间,ff是转移概率分布,ρ\rho是奖励函数。kk时刻的长期奖励Rk=j=0γjrk+j+1R_k=\sum_{j=0}^{\infty}\gamma^j r_{k+j+1}
在给定策略hh下的状态动作函数为Qh(x,u)=E{Rkxk=x,uk=u,h}Q^h(x,u)=E\{R_k|x_k=x,u_k=u,h\},求解最优策略hh^*来最大化QQ函数。使用Q-learning算法求解:Qk+1(xk,uk)=Qk(xk,uk)+α[rk+1+γmaxuQk+1(xk+1,u)Qk(xk,uk)]Q_{k+1}(x_k,u_k)=Q_{k}(x_k,u_k)+\alpha[r_{k+1}+\gamma\max_{u'}{Q_{k+1}(x_{k+1},u')}-Q_{k}(x_k,u_k)]

B. 多智能体强化学习

随机博弈(stochastic game, SG),或称马尔可夫博弈可以定义为<A,X,{Ui}iA,f,{ρi}iA><A,X,\{U_i\}_{i\in A},f, \{\rho_i\}_{i\in A}>其中A={1,...,n}A=\{1,...,n\}表示nn个智能体,XX是环境状态空间,{Ui}iA\{U_i\}_{i \in A}是动作空间,则联合动作集合U=×iAUiU=\times_{i\in A}U_if:X×U×X[0,1]f:X \times U \times X \to [0,1]是状态转移概率分布,ρi:X×U×XR,iA\rho_i:X \times U \times X \to \mathbb{R},i\in A是奖励函数。

此时的转移概率、即时奖励、长期回报都依赖联合动作uk=[u1,k,...,un,k]u_k=[u_{1,k},...,u_{n,k}]^{\top}ukUu_k\in Uui,kUiu_{i,k}\in U_i。此时的策略也是联合策略h={hi}h=\{h_i\}hi:X×Ui[0,1]h_i:X \times U_i \to [0,1]。每个智能体的Q函数依赖联合动作和联合策略Qih=X×URQ_i^h=X\times U \to \mathbb{R}

如果X=X=\varnothing,SG简化为静态博弈。当ρ1==ρn\rho_1=\cdots=\rho_n时的SG是完全合作的,当n=2,ρ1=ρ2n=2,\rho_1=-\rho_2时的SG是完全竞争的。静态博弈下,纳什均衡(Nash Equilibrum)是对对手的最佳策略。

合作的目的就是确保所有的智能体合理地选择期望联合策略中自己的部分。在多均衡的博弈中,合作归结为均衡的选择,智能体需要不断的选择同一均衡中自己的部分。

2. 多智能体学习目标

完全合作的随机博弈,可以通过最大化联合回报来解决。但是在其他的情况下,确定一个MALRL的目标并不容易,因为智能体的回报函数彼此之间相互关联,难以独立最大化。收敛到均衡点是多智能体学习的基本要求,并且纳什均衡是用的最多的。

聚焦稳定性的文献中智能体之间常常是相关独立的。而考虑调整的话,一般就会考虑其他智能体的行为。如果只考虑稳定性不考虑收敛性,那么就变成对其他智能体的跟踪了。

下表对多智能体强化学习算法进行了分类

多智能体强化学习综述-Lucian Busoniu

3. 多智能体强化学习算法简介

这里将涉及到的算法按任务进行分类:完全合作、完全竞争、混合任务。

A. 完全合作任务

前面说过,完全合作时ρ1==ρn\rho_1=\cdots=\rho_n,如果存在控制空心,学习目标简化为MDP,动作空间为联合动作空间,此时的Q学习形式为:Qk+1(xk,uk)=Qk(xk,uk)+α[rk+1+γmaxuQk+1(xk+1,u)Qk(xk,uk)]Q_{k+1}(x_k,\boldsymbol{u}_k)=Q_{k}(x_k,\boldsymbol{u}_k)+\alpha[r_{k+1}+\gamma\max_{\boldsymbol{u}'}{Q_{k+1}(x_{k+1},\boldsymbol{u}')}-Q_{k}(x_k,\boldsymbol{u}_k)]如果所有的智能体都是独立决策的,并且都采用贪婪策略,协作问题就会出现,即使所有的智能体都使用相同的算法并行学习共同的最优Q函数。理论上他们可以使用贪婪策略最大化共同回报,但是贪婪的动作选择机制以随机的方式打破了协作,最终导致联合动作是次优的。

无需协作模型
Team Q-learning1假设最优联合动作是唯一的(实际很少发生),因此原来的最优贝尔曼方程可以直接使用。Distributed Q-learning2没有假设协作的条件,但是这种方法只在确定性的场景下有效。每个只ii只通过它自己的动作来维护一个策略hi(x)h_i(x)和一个局部Q函数Qi(x,ui)Q_i(x,u_i),更新方向都是朝着怎加QiQ_i进行的:Qi,k+1(xk,ui.k)=max{Qi,k(xk,ui,k),rk+1+γmaxQi,k(xk+1,ui)}Q_{i,k+1}(x_k,u_{i.k})=\max\{Q_{i,k}(x_k,u_{i,k}),r_{k+1}+\gamma \max Q_{i,k}(x_{k+1},u_i)\} hi,k+1={ui,kifmaxuiQi,k+1(xk+1,ui)maxuiQi,k(xk+1,ui)hi,k(xk)otherwiseh_{i,k+1}=\begin{cases}u_{i,k} & \text{if}\quad\max_{u_i}Q_{i,k+1}(x_{k+1},u_i) \neq \max_{u_i}Q_{i,k}(x_{k+1},u_i) \\h_{i,k}(x_k) & \text{otherwise}\end{cases}Qi,0=0Q_{i,0}=0以及共同奖励为正的情况下,可以证明策略会收敛到最佳联合粗略h\boldsymbol{h}^*
直接协作方法
在随机选择动作的时候有些做或者协商

  • Social conventions3和roles4会限制智能体的动作选择
  • Coordination graph简化协作,如果全局Q函数可以加性的分解为局部Q函数5-6
  • 在协商选择动作的过程中需要通信

非直接协作方法

备注以及一些开放问题

B. 完全竞争任务


  1. M. L. Littman, Value-function reinforcement learning in Markov games, Journal of Cognitive Systems Research, vol. 2, pp. 55-66, 2001. ↩︎

  2. M. Lauer and M. Riedmiller, An algorithm for distributed reinforcement learning in cooperative multi-agent systems, in Proceedings Seventeenth International Conference on Machine Learning (ICML-00), Stanford University, US, 29 June 2 July 2000, pp. 535-542. ↩︎

  3. C. Boutilier, Planning, learning and coordination in multiagent decision processes, in Proceedings Sixth Conference on Theoretical Aspects of Rationality and Knowledge (TARK-96), De Zeeuwse Stromen, The Netherlands, 17-20 March 1996, pp. 195-210. ↩︎

  4. M. T. J. Spaan, N. Vlassis, and F. C. A. Groen, High level coordination of agents based on multiagent Markov decision processes with roles, in Workshop on Cooperative Robotics, 2002 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS-02), Lausanne, Switzerland, 1 October 2002, pp. 66-73. ↩︎

  5. C. Guestrin, M. G. Lagoudakis, and R. Parr, Coordinated reinforcement learning, in Proceedings Nineteenth International Conference on Machine Learning (ICML-02), Sydney, Australia, 812 July 2002, pp. 227-234. ↩︎

  6. J. R. Kok, M. T. J. Spaan, and N. Vlassis, Non-communicative multirobot coordination in dynamic environment, Robotics and Autonomous Systems, vol. 50, no. 2-3, pp. 99-114, 2005. ↩︎