在说bandit
之前先考虑一个实际问题 :假设你来到一个新的城市,你刚开始选择去哪吃饭可能随机选一选,你大概会知道哪些店比较符合你的口味。当你有了一些基本的判断之后,你是会选择吃原来觉得好吃的店呢?还是探索你从来都没有去过的店呢?从来都没有去过的店你可能会觉得更好吃,也有可能不会。人的选择一般都是探索一点点,大部分时候都会选择以前觉得还可以的店。这中间就有个度的问题。在计算机中怎么量化这个度呢,其实还是蛮难的。
可以看出上述问题明显是一个决策性问题,并且是单步决策问题,在强化学习中当前所采取的动作会影响之后的决策,甚至有时候为了获取未来期望的最大回报,我们当前决策可能并不会采取能够获得及时奖励最大的那个动作,像下围棋这种是连续决策问题。单步决策就只有一个状态,选择某个动作,然后游戏结束,开始新一轮游戏。因此Multi-armed Bandit
相关的算法的关键都在于如何平衡探索和利用(trade off exploration and exploitation
)。这类问题的建模过程可以被用于其它领域,比如像逛淘宝,买东西等等都可以建模成此类问题。甚至可以用于药物研发:
在药物设计问题上面,开发一款药,不同的成分比例对病人的实际应用效果不一样,那究竟是什么样的比例能够把病人快速治好呢?此时动作就变成了选择某个成分的药品,奖励来自病人的反馈(是否痊愈,以及痊愈程度),我们要做的事情就是用最少的病人,发现这个药物的成分的最佳比例。
bandit
*描述的就是这样一类问题的数学模型。(下文对其基本算法展开说明):
Stochastic Bandits
让我们考虑一个最基本的Stochastic Bandits
问题,定义如下:
状态集合为single state
:S = { s } S=\{s\} S = { s } ;一个动作集合A A A ,动作此时对应arms
,采取某个动作(或者选中某个arm
)时,将会得到一个及时奖励的反馈,通常是属于[ 0 , 1 ] [0,1] [ 0 , 1 ] 的一个标量。
与传统的强化学习不一样的地方在于这里没有转移函数(transition function
),因为其只有一个单个的状态。智能体需要学习的是随机的奖励函数 stochastic reward function
。也就是说智能体在采样过程中,依据采样数据学习奖励函数分布,从而进一步指导接下来的动作(如果知道某个arm
能够获得更多的奖励,那之后就一直选择这个arm
,就能获得更多的奖励)。
对于多臂*,描述起来都是比较简单的一个问题,但是最优解求解比较困难,对于上述问题看起来就没有什么思路。
多想一下可能会有一个贪婪策略(greedy strategy
),就是选择当前平均奖励最高的那个arm
,但是这种贪婪策略就没有考虑探索,比如有两个arm
,当选择了其中一个arm-1
这次得到奖励1
,而另一个arm-2
奖励为0
,之后依据贪婪策略就一直选择arm-1
,但arm-1
实际的奖励为1
的概率为0.1
比arm-2
奖励为1
的概率0.9
低呢?只不过刚好第一次被选中了而已,就很容易丢失掉探索,导致得到一个次优解。
而ε \varepsilon ε -greedy方式说的是以一个ε \varepsilon ε 概率随机选择arm
,而1 − ε 1-\varepsilon 1 − ε 概率选择greedy
策略,也就是选择当前平均奖励最高的那个arm
。由此可以看出收敛率(多快找到最优的arm
)会取决于ε \varepsilon ε 。一旦找到最优的arm,
我们要衡量算法的好坏的话,需要定义一个指标,遗憾值(Regret
)。
定义R ( a ) R(a) R ( a ) 为某个arm
的实际平均奖励值(或者称之为期望奖励)。如果我们知道了每个arm
的平均奖励值,那我们可以找到具有最高平均奖励的那个arm
,即:
r ∗ = max a R ( a )
r^{*}=\max_{a}R(a)
r ∗ = a max R ( a )
也就找到了具有最高平均奖励所对应的动作a a a :
a ∗ = a r g max a R ( a )
a^{*} = arg\max_{a}R(a)
a ∗ = a r g a max R ( a )
但是我们并不知道每个arm
的实际真实平均奖励R ( a ) R(a) R ( a ) ,但是我们可以定义一个loss
,用于衡量采取某个动作的好坏。对于每个动作与最优的动作比较,其二者之差可以定义为loss
:
l o s s ( a ) = r ∗ − R ( a )
loss(a)=r^{*}-R(a)
l o s s ( a ) = r ∗ − R ( a )
n n n time step
下的期望累计遗憾可表示为:
L o s s n = ∑ t = 1 n l o s s ( a t )
Loss_{n}=\sum_{t=1}^{n}loss(a_{t})
L o s s n = t = 1 ∑ n l o s s ( a t )
理论分析
我们之前在讨论strategy
的时候说过ε \varepsilon ε -greedy策略,那在定义好了衡量指标遗憾值regret
时如何来进行理论分析呢?分析其本质规律。
如果ε \varepsilon ε 是个常量,time step
足够大的话,P r ( a t ≠ a ∗ ) ≈ ε Pr(a_{t} \neq a^{*}) \approx \varepsilon P r ( a t = a ∗ ) ≈ ε (近似随机选择的arm
都会后悔regret
),此时的期望累计遗憾值 L o s s ≈ ∑ t = 1 n ε = O ( n ) Loss \approx \sum_{t=1}^{n} \varepsilon =O(n) L o s s ≈ ∑ t = 1 n ε = O ( n ) (这里只需要其是线性 的就可以)。
如果 ε t ∝ 1 / t \varepsilon_{t} \propto 1/t ε t ∝ 1 / t ,也就是随着time step
增加,ε \varepsilon ε 逐渐收敛。time step
足够大的话,P r ( a t ≠ a ∗ ) ≈ ε t = O ( 1 t ) Pr(a_{t} \neq a^{*}) \approx \varepsilon_{t}=O(\frac{1}{t}) P r ( a t = a ∗ ) ≈ ε t = O ( t 1 ) ,也就是说随着time step
的增加,次优解会逐渐减少,此时的期望累计遗憾值 L o s s ≈ ∑ t = 1 n 1 t = O ( l o g n ) Loss \approx \sum_{t=1}^{n} \frac{1}{t} =O(log n) L o s s ≈ ∑ t = 1 n t 1 = O ( l o g n ) (这里只需要其是对数 级的就可以)。
线性级的遗憾值无法收敛,是无法得到最优解的 ,只能得到一个次优解。因此我们期望说能够找到一个遗憾值能尽快收敛的策略,若ε t ∝ 1 / t \varepsilon_{t} \propto 1/t ε t ∝ 1 / t 是可以使得遗憾值达到收敛的。
Empirical mean
那经验平均奖励R ~ ( a ) \tilde{R}(a) R ~ ( a ) 与真实的平均奖励R ( a ) R(a) R ( a ) 差多少呢?如果其两者差值存在一个上界(upper bound
),如∣ R ( a ) − R ~ ( a ) ∣ ≤ bound |R(a)-\tilde{R}(a)| \leq \text{bound} ∣ R ( a ) − R ~ ( a ) ∣ ≤ bound ,随着数据的采集,上界逐渐收敛:lim n → ∞ U B n ( a ) = R ( a ) \lim _{n \rightarrow \infty} U B_{n}(a)=R(a) lim n → ∞ U B n ( a ) = R ( a ) ,那经验平均奖励也将逼近真实的奖励。此时的最优算法求解就是在每一步选择最大的upper bound
对应的那个arm
,即 argmax a U B n ( a ) \operatorname{argmax}_{a} U B_{n}(a) a r g m a x a U B n ( a ) 。因此当upper bound
收敛的时候,由于一直选取最大的upper bound
对应的那个arm
,我们得到的最优动作就是a ∗ a^{*} a ∗ 。
此时的问题就在于我们通过sample
的方法是无法得到确定的upper bound
的。就是基于采样的方法并不能得到真实的每个arm
对应的奖励分布。我们可以采用概率的方法来表示,就是在采样过程中,R ( a ) R(a) R ( a ) 小于等于上界是以一定的概率出现的,如:Pr ( R ( a ) ≤ f ( a ) ) ≥ 1 − δ \operatorname{Pr}(R(a) \leq f(a)) \geq 1-\delta P r ( R ( a ) ≤ f ( a ) ) ≥ 1 − δ ,依据霍夫丁不等式(Hoeffding’s inequality
)有:
Pr ( R ( a ) ≤ R ~ ( a ) + log ( 1 δ ) 2 n a ) ≥ 1 − δ \operatorname{Pr}(R(a) \leq \tilde{R}(a)+\sqrt{\frac{\log \left(\frac{1}{\delta}\right)}{2 n_{a}}}) \geq 1-\delta P r ( R ( a ) ≤ R ~ ( a ) + 2 n a log ( δ 1 ) ) ≥ 1 − δ
其中 n a n_{a} n a 是arm a
尝试的次数。δ n \delta_{n} δ n 通常设置为1 / n 4 1/n^{4} 1 / n 4 ,使得算法收敛快一些。基于霍夫丁上界我们可以得到选择动作的最优策略:
尽管上述算法理论上有收敛性保证,但是需要sample
多次。
Bayesian Bandits
能够更好地描述不确定性,在智能体平衡探索和利用的时候也是在决策不确定性,当智能体选择探索的时候不确定性更大一点,当选智能体择利用以往经验知识的时候不确定性就更小一点。用贝叶斯的方法来描述这种不确定性分布就是bayesian bandits
。另一种能够获取更多状态信息的bandits
方法称之为Contextual Bandits
。
Bayesian Bandits
在开始贝叶斯多臂*之前我们需要先定义贝叶斯学习(Bayesian Learning
)。
当我们采取某个动作a a a 时,我们能够得到一个随机的奖励值r a r^{a} r a ,它是从某个分布中采样得到的。也就是说奖励的分布是不确定的,服从某个参数分布θ \theta θ ,P r ( r a ; θ ) Pr(r^{a};\theta) P r ( r a ; θ ) 。而我们关心的是这个随机奖励P r ( r a ; θ ) Pr(r^{a};\theta) P r ( r a ; θ ) 的期望值R ( a ) = E [ r a ] R(a)=E[r^{a}] R ( a ) = E [ r a ] 。
因此我们可以把这种不确定性表述为一个先验分布P r ( θ ) Pr(\theta) P r ( θ ) ,我们需要做的事情就是通过采样获取数据 r 1 a , r 2 a , ⋯ , r n a r_{1}^{a},r_{2}^{a},\cdots,r_{n}^{a} r 1 a , r 2 a , ⋯ , r n a ,依据这些采样得到的结果去估算后验分布P r ( θ ∣ r 1 a , r 2 a , ⋯ , r n a ) Pr(\theta|r_{1}^{a},r_{2}^{a},\cdots,r_{n}^{a}) P r ( θ ∣ r 1 a , r 2 a , ⋯ , r n a ) 。一旦知道这个后验分布,也就是求解出了bandits
的奖励分布。那这个后验分布怎么求呢?依据贝叶斯定理有:
Pr ( θ ∣ r 1 a , r 2 a , … , r n a ) ∝ Pr ( θ ) Pr ( r 1 a , r 2 a , … , r n a ∣ θ ) \operatorname{Pr}\left(\theta | r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a}\right) \propto \operatorname{Pr}(\theta) \operatorname{Pr}\left(r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a} | \theta\right) P r ( θ ∣ r 1 a , r 2 a , … , r n a ) ∝ P r ( θ ) P r ( r 1 a , r 2 a , … , r n a ∣ θ )
假设我们已经求得这个后验分布,我们就可以去估计下一个时刻的奖励r a r^{a} r a 的分布:
Pr ( r a ∣ r 1 a , r 2 a , … , r n a ) = ∫ θ Pr ( r a ; θ ) Pr ( θ ∣ r 1 a , r 2 a , … , r n a ) d θ \operatorname{Pr}\left(r^{a} | r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a}\right)=\int_{\theta} \operatorname{Pr}\left(r^{a} ; \theta\right) \operatorname{Pr}\left(\theta | r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a}\right) d \theta P r ( r a ∣ r 1 a , r 2 a , … , r n a ) = ∫ θ P r ( r a ; θ ) P r ( θ ∣ r 1 a , r 2 a , … , r n a ) d θ
而我们关心的是每个arm
的平均奖励R ( a ) R(a) R ( a ) ,因此我们需要依据采样所得到的数据去估计平均奖励,如果θ \theta θ 是期望奖励 θ = R ( a ) \theta=R(a) θ = R ( a ) ,有:
Pr ( R ( a ) ∣ r 1 a , r 2 a , … , r n a ) = Pr ( θ ∣ r 1 a , r 2 a , … , r n a ) \operatorname{Pr}\left(R(a) | r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a}\right)=\operatorname{Pr}\left(\theta | r_{1}^{a}, r_{2}^{a}, \ldots, r_{n}^{a}\right) P r ( R ( a ) ∣ r 1 a , r 2 a , … , r n a ) = P r ( θ ∣ r 1 a , r 2 a , … , r n a )
到此,我们就可以计算最优策略。与之前的UCB
算法对比:
UCB
解决arm
奖励分布不确定性用的是bound
的方式,通过迭代求解bound
来获得真实的期望奖励R ( a ) R(a) R ( a ) :Pr ( R ( a ) ≤ bound ( r 1 a , r 2 a , … , r n a ) ) ≥ 1 − δ \operatorname{Pr}\left(R(a) \leq \text { bound }\left(r_{1}^{a}, r_{2}^{a}, \dots, r_{n}^{a}\right)\right) \geq 1-\delta P r ( R ( a ) ≤ bound ( r 1 a , r 2 a , … , r n a ) ) ≥ 1 − δ 。
Bayesian techniques :并不通过求解upper bound
,而是直接对其进行建模求解,直接求解arm
奖励分布的概率。
Coin Example :
举个例子,假设我们有两枚硬币C 1 C_{1} C 1 和C 2 C_{2} C 2 。两枚硬币head
朝上的概率不一样,可表示为:
R ( C 1 ) = Pr ( C 1 = head ) R ( C 2 ) = Pr ( C 2 = head ) \begin{array}{l}
R\left(C_{1}\right)=\operatorname{Pr}\left(C_{1}=\text { head }\right) \\
R\left(C_{2}\right)=\operatorname{Pr}\left(C_{2}=\text { head }\right)
\end{array} R ( C 1 ) = P r ( C 1 = head ) R ( C 2 ) = P r ( C 2 = head )
期望在k k k 次掷币过程中最大化head
的次数。那每次掷币我们因该选择哪个coin
呢?可以量化每个coin
的奖励分布r C 1 , r C 2 r^{C_{1}},r^{C_{2}} r C 1 , r C 2 会满足一个伯努利分布{ 0 , 1 } \{0,1\} { 0 , 1 } 。我们可以用一个参数θ \theta θ 表示获得奖励的分布:
P r ( r C 1 ; θ 1 ) = θ 1 = R ( C 1 ) Pr(r^{C_{1}};\theta_{1})=\theta_{1}=R(C_{1}) P r ( r C 1 ; θ 1 ) = θ 1 = R ( C 1 )
P r ( r C 2 ; θ 2 ) = θ 2 = R ( C 2 ) Pr(r^{C_{2}};\theta_{2})=\theta_{2}=R(C_{2}) P r ( r C 2 ; θ 2 ) = θ 2 = R ( C 2 )
若我们知道θ \theta θ 的真实值,我们可以依据θ \theta θ 来选择能够获得平均奖励最大的coin
。设定θ \theta θ 的先验分布P r ( θ ) Pr(\theta) P r ( θ ) 是beta
分布,则有:
Beta ( θ ; α , β ) ∝ θ α − 1 ( 1 − θ ) β − 1 \operatorname{Beta}(\theta ; \alpha, \beta) \propto \theta^{\alpha-1}(1-\theta)^{\beta-1} B e t a ( θ ; α , β ) ∝ θ α − 1 ( 1 − θ ) β − 1
其中α − 1 \alpha -1 α − 1 为掷到head
的次数,β − 1 \beta -1 β − 1 为尝试(tails
)的次数,能拿到的奖励的期望值为E ( θ ) = α α + β E(\theta)=\frac{\alpha}{\alpha + \beta} E ( θ ) = α + β α 。
获得了θ \theta θ 的先验分布Pr ( θ ) = Beta ( θ ; α , β ) ∝ θ α − 1 ( 1 − θ ) β − 1 \operatorname{Pr}(\theta)=\operatorname{Beta}(\theta ; \alpha, \beta) \propto \theta^{\alpha-1}(1-\theta)^{\beta-1} P r ( θ ) = B e t a ( θ ; α , β ) ∝ θ α − 1 ( 1 − θ ) β − 1 之后我们就可以计算其后验分布:
Pr ( θ ∣ head ) ∝ Pr ( θ ) Pr ( head ∣ θ ) ∝ θ α − 1 ( 1 − θ ) β − 1 θ = θ ( α + 1 ) − 1 ( 1 − θ ) β − 1 ∝ Beta ( θ ; α + 1 , β ) \begin{aligned}
\operatorname{Pr}(\theta | \text {head}) & \propto \operatorname{Pr}(\theta) \quad \operatorname{Pr}(\text {head} | \theta) \\
& \propto \theta^{\alpha-1}(1-\theta)^{\beta-1} \quad \theta \\
&=\theta^{(\alpha+1)-1}(1-\theta)^{\beta-1} \\
& \propto \operatorname{Beta}(\theta ; \alpha+1, \beta)
\end{aligned} P r ( θ ∣ head ) ∝ P r ( θ ) P r ( head ∣ θ ) ∝ θ α − 1 ( 1 − θ ) β − 1 θ = θ ( α + 1 ) − 1 ( 1 − θ ) β − 1 ∝ B e t a ( θ ; α + 1 , β )
和
Pr ( θ ∣ tail ) ∝ Pr ( θ ) Pr ( tail ∣ θ ) ∝ θ α − 1 ( 1 − θ ) β − 1 ( 1 − θ ) = θ α − 1 ( 1 − θ ) ( β + 1 ) − 1 ∝ Beta ( θ ; α , β + 1 ) \begin{aligned}
\operatorname{Pr}(\theta | \text {tail}) & \propto \operatorname{Pr}(\theta) \quad \operatorname{Pr}(\text {tail} | \theta) \\
& \propto \theta^{\alpha-1}(1-\theta)^{\beta-1}(1-\theta) \\
&=\theta^{\alpha-1}(1-\theta)^{(\beta+1)-1} \\
& \propto \operatorname{Beta}(\theta ; \alpha, \beta+1)
\end{aligned} P r ( θ ∣ tail ) ∝ P r ( θ ) P r ( tail ∣ θ ) ∝ θ α − 1 ( 1 − θ ) β − 1 ( 1 − θ ) = θ α − 1 ( 1 − θ ) ( β + 1 ) − 1 ∝ B e t a ( θ ; α , β + 1 )
Thompson sampling
当我们能够获得后验分布时,通过采样可以获得每个动作a a a 的后验平均奖励:
R 1 ( a ) , … R k ( a ) ∼ Pr ( R ( a ) ∣ r 1 a , … , r n a ) R_{1}(a), \ldots R_{k}(a) \sim \operatorname{Pr}\left(R(a) | r_{1}^{a}, \ldots, r_{n}^{a}\right) R 1 ( a ) , … R k ( a ) ∼ P r ( R ( a ) ∣ r 1 a , … , r n a )
然后估计经验平均奖励:
R ^ ( a ) = 1 k ∑ i = 1 k R i ( a ) \hat{R}(a)=\frac{1}{k} \sum_{i=1}^{k} R_{i}(a) R ^ ( a ) = k 1 i = 1 ∑ k R i ( a )
选择动作的时候抽取能获得最大的奖励所对应的那个action
a = a r g m a x a R ^ ( a ) a=argmax_{a}\hat{R}(a) a = a r g m a x a R ^ ( a ) 就可以:
与Greedy Strategy
对比,两者的不同就在于经验平均奖励一个是来自后验分布概率计算出来的R ^ ( a ) = 1 k ∑ i = 1 k R i ( a ) \hat{R}(a)=\frac{1}{k} \sum_{i=1}^{k} R_{i}(a) R ^ ( a ) = k 1 ∑ i = 1 k R i ( a ) ,一个是基于实际观测所得到的R ~ = 1 n ∑ i = 1 m r i a \tilde{R}=\frac{1}{n}\sum_{i=1}^{m}r_{i}^{a} R ~ = n 1 ∑ i = 1 m r i a 。因此Thompson Sampling
基于后验概率算出来的奖励是具有不确定性的,因此探索程度会比贪婪策略更好,而随着观察数据的增多,模型越来越准确,这种探索也会随之减少 。
Contextual Bandits
在很多场合Context
会提供更多的额外信息,比如像个性化推荐系统,Context
会包含用户的年龄,性别,居住地等信息,而这些信息对个性化推荐系统都能起到辅助的作用。
contextual bandits
用数学的方式描述为:
S S S :状态集合,由一个特征向量描述x S = ( x 1 S , x 2 S , … , x k S ) x^{S}=\left(x_{1}^{S}, x_{2}^{S}, \ldots, x_{k}^{S}\right) x S = ( x 1 S , x 2 S , … , x k S )
A A A :动作集合,由一个与每个动作相关的特征向量描述x a = ( x 1 a , x 2 a , … , x l a ) x^{a}=\left(x_{1}^{a}, x_{2}^{a}, \ldots, x_{l}^{a}\right) x a = ( x 1 a , x 2 a , … , x l a ) 。
奖励空间 R \mathbb{R} R 。
同样的是没有状态转移函数的。而我们要做的是找到一个策略π : x S → a \pi : x^{S}\rightarrow a π : x S → a ,它能够最大化期望奖励E ( r ∣ s , a ) = E ( r ∣ x s , x a ) E(r | s, a)=E\left(r | \boldsymbol{x}^{s}, \boldsymbol{x}^{a}\right) E ( r ∣ s , a ) = E ( r ∣ x s , x a ) 。为了能够获得奖励函数的模型,可以采用函数近似的方法,比如线性近似R ~ w ( x ) = w T x \tilde{R}_{w}(x)=w^{T} x R ~ w ( x ) = w T x 和非线性近似R ~ w ( x ) = n e u r a l N e t ( x ; w ) \tilde{R}_{\boldsymbol{w}}(\boldsymbol{x})=neuralNet (\boldsymbol{x} ; \boldsymbol{w}) R ~ w ( x ) = n e u r a l N e t ( x ; w ) ,其中x = ( x S , x a ) x=(x^{S},x^{a}) x = ( x S , x a ) 。
在线性近似的情况下采用贝叶斯的方法对其进行求解。假设参数w \boldsymbol{w} w 的先验分布为高斯分布,即:
p d f ( w ) = N ( w ∣ 0 , λ 2 I ) ∝ exp ( − w T w 2 λ 2 ) p d f(\boldsymbol{w})=N\left(\boldsymbol{w} | 0, \lambda^{2} I\right) \propto \exp \left(-\frac{\boldsymbol{w}^{T} w}{2 \lambda^{2}}\right) p d f ( w ) = N ( w ∣ 0 , λ 2 I ) ∝ exp ( − 2 λ 2 w T w )
一旦我们知道了参数w \boldsymbol{w} w ,我们可以计算奖励的概率分布:
p d f ( r ∣ x , w ) = N ( r ∣ w T x , σ 2 ) ∝ exp ( − ( r − w T x ) 2 2 σ 2 ) p d f(r | \boldsymbol{x}, \boldsymbol{w})=N\left(r | \boldsymbol{w}^{T} \boldsymbol{x}, \sigma^{2}\right) \propto \exp \left(-\frac{\left(r-\boldsymbol{w}^{T} \boldsymbol{x}\right)^{2}}{2 \sigma^{2}}\right) p d f ( r ∣ x , w ) = N ( r ∣ w T x , σ 2 ) ∝ exp ( − 2 σ 2 ( r − w T x ) 2 )
基于贝叶斯定理可以计算后验概率求得参数w \boldsymbol{w} w
p d f ( w ∣ r , x ) ∝ p d f ( w ) Pr ( r ∣ x , w ) ∝ exp ( − w T w 2 λ 2 ) exp ( − ( r − w T x ) 2 2 σ 2 ) = N ( w ∣ μ , Σ ) \begin{array}{l}
p d f(\boldsymbol{w} | r, x) \propto p d f(\boldsymbol{w}) \operatorname{Pr}(r | x, \boldsymbol{w}) \\
\propto \exp \left(-\frac{\boldsymbol{w}^{T} \boldsymbol{w}}{2 \lambda^{2}}\right) \exp \left(-\frac{\left(r-\boldsymbol{w}^{T} x\right)^{2}}{2 \sigma^{2}}\right) \\
=N(\boldsymbol{w} | \mu, \Sigma)
\end{array} p d f ( w ∣ r , x ) ∝ p d f ( w ) P r ( r ∣ x , w ) ∝ exp ( − 2 λ 2 w T w ) exp ( − 2 σ 2 ( r − w T x ) 2 ) = N ( w ∣ μ , Σ )
其中μ = σ − 2 ∑ x r \mu=\sigma^{-2}\sum xr μ = σ − 2 ∑ x r ,Σ = ( σ − 2 x x T + λ − 2 I ) − 1 \Sigma=\left(\sigma^{-2} x x^{T}+\lambda^{-2} I\right)^{-1} Σ = ( σ − 2 x x T + λ − 2 I ) − 1 。到此整个的求解框架就差不多完事了。假设我们有一个状态动作对( x S , x a ) = x (x^{S},x^{a})=x ( x S , x a ) = x ,我们期望去预测它的奖励r r r ,可以采用预测后验概率分布的方式得到:
p d f ( r ∣ x ) = ∫ w N ( r ∣ w T x , σ 2 ) N ( w ∣ μ , Σ ) d w = N ( r ∣ σ 2 x T μ , x T Σ x ) \begin{aligned}
p d f(r | \boldsymbol{x}) &=\int_{\boldsymbol{w}} N\left(r | \boldsymbol{w}^{T} \boldsymbol{x}, \sigma^{2}\right) N(\boldsymbol{w} | \boldsymbol{\mu}, \Sigma) d w \\
&=N\left(r | \sigma^{2} \boldsymbol{x}^{T} \boldsymbol{\mu}, \boldsymbol{x}^{T} \boldsymbol{\Sigma} \boldsymbol{x}\right)
\end{aligned} p d f ( r ∣ x ) = ∫ w N ( r ∣ w T x , σ 2 ) N ( w ∣ μ , Σ ) d w = N ( r ∣ σ 2 x T μ , x T Σ x )
拿到了奖励分布之后再结合UCB
和Thomson sampling
得到基于线性高斯的UCB
算法和线性高斯的汤普森采样算法。
UCB
:Pr ( r < σ 2 x T μ + c x T Σ x ) > 1 − δ \operatorname{Pr}\left(r<\sigma^{2} \boldsymbol{x}^{T} \boldsymbol{\mu}+c \sqrt{\boldsymbol{x}^{T} \boldsymbol{\Sigma} \boldsymbol{x}}\right)>1-\delta P r ( r < σ 2 x T μ + c x T Σ x ) > 1 − δ ,其中c = 1 + ln ( 2 / δ ) / 2 c=1+\sqrt{\ln (2 / \delta) / 2} c = 1 + ln ( 2 / δ ) / 2 。
Thomson sampling
:r ~ ∼ N ( r ∣ σ 2 x T μ , x T Σ x ) \tilde{r} \sim N\left(r | \sigma^{2} \boldsymbol{x}^{T} \boldsymbol{\mu}, \boldsymbol{x}^{T} \boldsymbol{\Sigma} \boldsymbol{x}\right) r ~ ∼ N ( r ∣ σ 2 x T μ , x T Σ x ) 。