2017 Fall CS294 Lecture 6: Actor-critic introduction

很奇怪,没有看到Lecture 5的视频,不过Lecture 5貌似是回顾NN,也没关系,所以就跳过直接从Lecture 6开始了!

我们重现一下actor-critic的诞生过程:

2017 Fall CS294 Lecture 6: Actor-critic introduction

上图中,其实PPT中是有动画的,但是上面无法显示出来,实际的推演过程是:
Qπ(st,at)=r(st,at)+Est+1p(st+1|st,at)[Vπ(st+1)]
Qπ(st,at)r(st,at)+Vπ(st+1)
于是有:
Aπ(st,at)r(st,at)+Vπ(st+1)Vπ(st)

这里想要说明一下的是,当时听完lecture后,我一直把Vπ(st)当作一个多么神秘的量,实际上,后来在读的Reinforcement Learning: An introduction(Sutton1998)一书中Value Functions相关内容时才发现,上面提到的Vπ(st)的含义其实就是一个普通的Value Functions啊,用书中的话来阐述就是:

Informally, the value of a state s under a policy π , denoted Vπ(s) , is the expected return when starting in s and following thereafter.

我把书中相关的一页截图如下,里面还涉及到了Qπ的解释,读完这一页,感觉真是神清气爽。

记住这两个名字:
Vπ(s): the state-value function for policy π
Qπ(s,a): the action-value function for policy π

2017 Fall CS294 Lecture 6: Actor-critic introduction

Policy Evaluation(也就是下图的step2)有两种方法,

2017 Fall CS294 Lecture 6: Actor-critic introduction

都在先前的ppt中提到了,如下。其中第二种bootstrapped estimate用的更多。

2017 Fall CS294 Lecture 6: Actor-critic introduction
2017 Fall CS294 Lecture 6: Actor-critic introduction
2017 Fall CS294 Lecture 6: Actor-critic introduction

将actor-critic改造成online形式,这样一来,可以发现第二步就只能使用先前提到的boostrapped estimate了。

2017 Fall CS294 Lecture 6: Actor-critic introduction

网络设计方案,有两种

2017 Fall CS294 Lecture 6: Actor-critic introduction

同步和异步并行方案

2017 Fall CS294 Lecture 6: Actor-critic introduction

Critics as state-dependent baselines,这个我还看得懂,相当于把critic放到PG里面做为baseline

2017 Fall CS294 Lecture 6: Actor-critic introduction

Control variates: action-dependent baselines,这个我就看不懂了。

2017 Fall CS294 Lecture 6: Actor-critic introduction

往后也是。