【机器学习基础】概率生成式模型

本系列为《模式识别与机器学习》的读书笔记。

一,概率生成式模型

⾸先考虑⼆分类的情形。类别 C1\mathcal{C}_1 的后验概率可以写成

p(C1x)=p(xC1)p(C1)p(xC1)p(C1)+p(xC2)p(C2)=11+exp(a)=σ(a)(4.36) \begin{aligned}p(\mathcal{C}_1|\boldsymbol{x})&=\frac{p(\boldsymbol{x}|\mathcal{C}_1)p(\mathcal{C}_1)}{p(\boldsymbol{x}|\mathcal{C}_1)p(\mathcal{C}_1)+p(\boldsymbol{x}|\mathcal{C}_2)p(\mathcal{C}_2)}\\&=\frac{1}{1+\exp(-a)}=\sigma(a)\end{aligned}\tag{4.36}
其中,
a=lnp(xC1)p(C1)p(xC2)p(C2) a=\ln\frac{p(\boldsymbol{x}|\mathcal{C}_1)p(\mathcal{C}_1)}{p(\boldsymbol{x}|\mathcal{C}_2)p(\mathcal{C}_2)}
σ(a)\sigma(a) 称之为 logistic sigmoid函数

如图4.12,logistic sigmoid函数 σ(a)\sigma(a) 的图像, ⽤红⾊表⽰,同时给出的是放缩后的逆probit函数 Φ(λa)\Phi(\lambda a) 的图像, 其中 λ2=π8\lambda^2=\frac{\pi}{8} , ⽤蓝⾊曲线表⽰。
【机器学习基础】概率生成式模型
logistic sigmoid函数 在许多分类算法中都有着重要的作⽤,满⾜下⾯的对称性
σ(a)=1σ(a)(4.37) \sigma(-a)=1-\sigma(a)\tag{4.37}
logistic sigmoid的反函数为
a=ln(σ1σ)(4.38) a=\ln\left(\frac{\sigma}{1-\sigma}\right)\tag{4.38}
被称为 logit函数。它表⽰两类的概率⽐值的对数 ln[p(C1x)p(C2x)]\ln[\frac{p(\mathcal{C}_1|\boldsymbol{x})}{p(\mathcal{C}_2|\boldsymbol{x})}] ,也被称为 log odds函数

对于 K>2K > 2 个类别的情形,有
p(Ckx)=p(xCk)p(Ck)jp(xCj)p(Cj)=exp(ak)jexp(aj)(4.39) \begin{aligned}p(\mathcal{C}_k|\boldsymbol{x})&=\frac{p(\boldsymbol{x}|\mathcal{C}_k)p(\mathcal{C}_k)}{\sum_{j}p(\boldsymbol{x}|\mathcal{C}_j)p(\mathcal{C}_j)}\\&=\frac{\exp(a_k)}{\sum_{j}\exp(a_j)}\end{aligned}\tag{4.39}
被称为归⼀化指数normalized exponential),也叫 softmax函数 ,可以被当做logistic sigmoid函数对于多类情况的推⼴。其中, aka_k 被定义为
ak=lnp(xCk)p(Ck) a_k=\ln p(\boldsymbol{x}|\mathcal{C}_k)p(\mathcal{C}_k)
如果对于所有的 jkj\ne k 都有 akaja_k \gg a_j ,那么 p(Ckx)1p(\mathcal{C}_k|\boldsymbol{x})\simeq 1p(Cjx)0p(\mathcal{C}_j|\boldsymbol{x}) \simeq 0

1,连续输⼊

假设类条件概率密度是⾼斯分布,然后求解后验概率的形式。假定所有的类别的协⽅差矩阵相同,这样类别 Ck\mathcal{C}_k 的类条件概率为

p(xCk)=1(2π)D21Σ12exp{12(xμk)TΣ1(xμk)}(4.40) p(\boldsymbol{x}|\mathcal{C}_k)=\frac{1}{(2\pi)^{\frac{D}{2}}}\frac{1}{|\boldsymbol{\Sigma}|^{\frac{1}{2}}}\exp\left\{-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}_k)^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu}_k)\right\}\tag{4.40}

⾸先考虑两类的情形。根据公式(4.36),有

p(C1x)=σ(wTx+w0)(4.41) p(\mathcal{C}_1|\boldsymbol{x})=\sigma(\boldsymbol{w}^{T}\boldsymbol{x}+w_0)\tag{4.41}

其中,
w=Σ1(μ1μ2)w0=12μ1TΣ1μ1+12μ2TΣ1μ2+lnp(C1)p(C2) \boldsymbol{w}=\boldsymbol{\Sigma}^{-1}(\boldsymbol{\mu}_1-\boldsymbol{\mu}_2)\\ w_0=-\frac{1}{2}\boldsymbol{\mu}_{1}^{T}\boldsymbol{\Sigma}^{-1}\boldsymbol{\mu}_{1}+\frac{1}{2}\boldsymbol{\mu}_{2}^{T}\boldsymbol{\Sigma}^{-1}\boldsymbol{\mu}_{2}+\ln\frac{p(\mathcal{C}_1)}{p(\mathcal{C}_2)}

如图4.13,左图给出了两个类别的类条件概率密度,分别⽤红⾊和蓝⾊表⽰。 右图给出了对应的后验概率分布 p(C1x)p(\mathcal{C}_1|\boldsymbol{x}) , 它由 x\boldsymbol{x} 的线性函数的 logistic sigmoid 函数给出。 右图的曲⾯的颜⾊中, 红⾊所占的⽐例由 p(C1x)p(\mathcal{C}_1|\boldsymbol{x}) 给出,蓝⾊所占的⽐例由 p(C2x)=1p(C1x)p(\mathcal{C}_2|\boldsymbol{x})=1-p(\mathcal{C}_1|\boldsymbol{x}) 给出。
【机器学习基础】概率生成式模型
对于 KK 个类别的⼀般情形,根据公式(4.39),有
ak(x)=wkTx+wk0(4.42) a_k(\boldsymbol{x})=\boldsymbol{w}_{k}^{T}\boldsymbol{x}+w_{k0}\tag{4.42}

其中,
wk=Σ1μkwk0=12μkTΣ1μk+lnp(Ck) \boldsymbol{w}_k=\boldsymbol{\Sigma}^{-1}\boldsymbol{\mu}_{k}\\ w_{k0}=-\frac{1}{2}\boldsymbol{\mu}_{k}^{T}\boldsymbol{\Sigma}^{-1}\boldsymbol{\mu}_{k}+\ln p(\mathcal{C}_k)

如图4.14,左图给出了三个类别的类条件概率密度,每个都是⾼斯分布,分别⽤红⾊、绿⾊、蓝⾊表⽰,其中红⾊和绿⾊的类别有相同的协⽅差矩阵。右图给出了对应的后验概率分布,其中 RGBRGB 的颜⾊向量表⽰三个类别各⾃的后验概率。决策边界也被画出。注意,具有相同协⽅差矩阵的红⾊类别和绿⾊类别的决策边界是线性的,⽽其他类别之间的类别的决策边界是⼆次的。
【机器学习基础】概率生成式模型

2,最⼤似然解

⾸先考虑两类的情形,每个类别都有⼀个⾼斯类条件概率密度,且协⽅差矩阵相同。假设有⼀个数据集 {xn,tn}\{\boldsymbol{x}_n, t_n\} ,其中 n=1,,Nn = 1,\dots,N 。这⾥ tn=1t_n = 1 表⽰类别 C1\mathcal{C}_1tn=0t_n=0 表⽰类别 C2\mathcal{C}_2 。 把先验概率记作 p(C1)=πp(\mathcal{C}_1)=\pi , 从⽽ p(C2)=1πp(\mathcal{C}_2)=1-\pi 。 对于⼀个来⾃类别 C1\mathcal{C}_1 的数据点 xn\boldsymbol{x}_n , 有 tn=1t_n = 1 ,因此

p(xn,C1)=p(C1)p(xnC1)=πN(xnμ1,Σ) p(\boldsymbol{x}_n,\mathcal{C}_1)=p(\mathcal{C}_1)p(\boldsymbol{x}_n|\mathcal{C}_1)=\pi\mathcal{N}(\boldsymbol{x}_n|\boldsymbol{\mu}_1,\boldsymbol{\Sigma})

类似地,对于类别 C2\mathcal{C}_2 ,有 tn=0t_n = 0 ,因此

p(xn,C2)=p(C2)p(xnC2)=(1π)N(xnμ2,Σ) p(\boldsymbol{x}_n,\mathcal{C}_2)=p(\mathcal{C}_2)p(\boldsymbol{x}_n|\mathcal{C}_2)=(1-\pi)\mathcal{N}(\boldsymbol{x}_n|\boldsymbol{\mu}_2,\boldsymbol{\Sigma})

于是似然函数为
p(t,Xπ,μ1,μ2,Σ)=n=1N[πN(xnμ1,Σ)]tn[(1π)N(xnμ2,Σ)]1tn(4.43) p(\mathbf{t},\mathbf{X}|\pi,\boldsymbol{\mu}_1,\boldsymbol{\mu}_2,\boldsymbol{\Sigma})=\prod_{n=1}^{N}[\pi\mathcal{N}(\boldsymbol{x}_n|\boldsymbol{\mu}_1,\boldsymbol{\Sigma})]^{t_n}[(1-\pi)\mathcal{N}(\boldsymbol{x}_n|\boldsymbol{\mu}_2,\boldsymbol{\Sigma})]^{1-t_n}\tag{4.43}

其中,t=(t1,,tn)T\mathbf{t}=(t_1,\dots,t_n)^{T}

⾸先考虑关于 π\pi 的最⼤化,对数似然函数中与 π\pi 相关的项为

n=1N{tnlnπ+(1π)ln(1π)} \sum_{n=1}^{N}\{t_n\ln\pi+(1-\pi)\ln(1-\pi)\}

令其关于 π\pi 的导数等于零,整理,可得

π=1Nn=1Ntn=N1N=N1N1+N2(4.44) \pi=\frac{1}{N}\sum_{n=1}^{N}t_n=\frac{N_1}{N}=\frac{N_1}{N_1+N_2}\tag{4.44}

其中 N1N_1 表⽰类别 C1\mathcal{C}_1 的数据点的总数,⽽ N2N_2 表⽰类别 C2\mathcal{C}_2 的数据点总数。

现在考虑关于 μ1\mu_1 的最⼤化,把对数似然函数中与 μ1\mu_1 相关的量挑出来,即
n=1NtnlnN(xnμ1,Σ)=12n=1Ntn(xnμ1)TΣ1(xnμ1)+(4.45) \sum_{n=1}^{N}t_n\ln\mathcal{N}(\boldsymbol{x}_n|\boldsymbol{\mu}_1,\boldsymbol{\Sigma})=-\frac{1}{2}\sum_{n=1}^{N}t_n(\boldsymbol{x}_n-\boldsymbol{\mu}_1)^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{x}_n-\boldsymbol{\mu}_1)+常数\tag{4.45}

令它关于 μ1\mu_1 的导数等于零,整理可得

μ1=1N1n=1Ntnxn(4.46) \boldsymbol{\mu}_1=\frac{1}{N_1}\sum_{n=1}^{N}t_n\boldsymbol{x}_n\tag{4.46}

通过类似的推导,对应的 μ2\mu_2 的结果为

μ2=1N2n=1N(1tn)xn(4.47) \boldsymbol{\mu}_2=\frac{1}{N_2}\sum_{n=1}^{N}(1-t_n)\boldsymbol{x}_n\tag{4.47}

最后,考虑协⽅差矩阵 Σ\boldsymbol{\Sigma} 的最⼤似然解。选出与 Σ\boldsymbol{\Sigma} 相关的项,有

12n=1NtnlnΣ12n=1Ntn(xnμ1)TΣ1(xnμ1)12n=1N(1tn)lnΣ12n=1N(1tn)(xnμ2)TΣ1(xnμ2)=12lnΣN2Tr{Σ1S}(4.48) \begin{array}{lcl}-\frac{1}{2}\sum_{n=1}^{N}t_n\ln|\boldsymbol{\Sigma}|-\frac{1}{2}\sum_{n=1}^{N}t_n(\boldsymbol{x}_n-\boldsymbol{\mu}_1)^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{x}_n-\boldsymbol{\mu}_1) \\ -\frac{1}{2}\sum_{n=1}^{N}(1-t_n)\ln|\boldsymbol{\Sigma}|-\frac{1}{2}\sum_{n=1}^{N}(1-t_n)(\boldsymbol{x}_n-\boldsymbol{\mu}_2)^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{x}_n-\boldsymbol{\mu}_2) \\ =-\frac{1}{2}\ln|\boldsymbol{\Sigma}|-\frac{N}{2}\text{Tr}\{\boldsymbol{\Sigma}^{-1}\boldsymbol{S}\}\end{array}\tag{4.48}

其中,

S=N1NS1+N2NS2S1=1N1nC1(xnμ1)(xnμ1)TS2=1N2nC2(xnμ2)(xnμ2)T \boldsymbol{S}=\frac{N_1}{N}\boldsymbol{S}_1+\frac{N_2}{N}\boldsymbol{S}_2 \\ \boldsymbol{S}_1=\frac{1}{N_1}\sum_{n\in\mathcal{C}_1}(\boldsymbol{x}_n-\boldsymbol{\mu}_1)(\boldsymbol{x}_n-\boldsymbol{\mu}_1)^{T}\\ \boldsymbol{S}_2=\frac{1}{N_2}\sum_{n\in\mathcal{C}_2}(\boldsymbol{x}_n-\boldsymbol{\mu}_2)(\boldsymbol{x}_n-\boldsymbol{\mu}_2)^{T}

使⽤⾼斯分布的最⼤似然解的标准结果,我们看到 Σ=S\boldsymbol{\Sigma} = \boldsymbol{S} ,它表⽰对⼀个与两类都有关系的协⽅差矩阵求加权平均。

3,离散特征

⾸先考察⼆元特征值 xi{0,1}x_i\in\{0, 1\} ,如果有 DD 个输⼊,那么⼀般的概率分布会对应于⼀个⼤⼩为 2D2^D 的表格,包含 2D12^D−1 个独⽴变量(由于要满⾜加和限制)。由于这会 随着特征的数量指数增长,因此我们想寻找⼀个更加严格的表⽰⽅法。这⾥,我们做出朴素贝叶斯naive Bayes)的假设,这个假设中,特征值被看成相互独⽴的,以类别 Ck\mathcal{C}_k 为条件。因此得到类条件分布,形式为

p(xCk)=i=1Dμkixi(1μki)1xi(4.49) p(\boldsymbol{x}|\mathcal{C}_k)=\prod_{i=1}^{D}\mu_{ki}^{x_i}(1-\mu_{ki})^{1-x_i}\tag{4.49}

其中对于每个类别,都有 DD 个独⽴的参数,有

ak(x)=i=1D{xilnμki+(1xi)ln(1μki)}+lnp(Ck)(4.50) a_k(\boldsymbol{x})=\sum_{i=1}^{D}\{x_i\ln\mu_{ki}+(1-x_i)\ln(1-\mu_{ki})\}+\ln p(\mathcal{C}_k)\tag{4.50}

这是输⼊变量 xix_i 的线性函数。

4,指数族分布

使⽤指数族分布的形式,可以看到 x\boldsymbol{x} 的分布可以写成

p(xλk)=h(x)g(λk)exp{λkTμ(x)}(4.51) p(\boldsymbol{x}|\boldsymbol{\lambda}_k)=h(\boldsymbol{x})g(\boldsymbol{\lambda}_k)\exp\{\boldsymbol{\lambda}_{k}^{T}\boldsymbol{\mu}(\boldsymbol{x})\}\tag{4.51}

现在把注意⼒集中在 μ(x)=x\boldsymbol{\mu}(\boldsymbol{x})=\boldsymbol{x} 这种分布上,引⼊⼀个缩放参数 ss,这样就得到了指数族类条件概率分布的⼀个⼦集

p(xλk,s)=1sh(1sx)g(λk)exp{1sλkTx}(4.52) p(\boldsymbol{x}|\boldsymbol{\lambda}_k,s)=\frac{1}{s}h(\frac{1}{s}\boldsymbol{x})g(\boldsymbol{\lambda}_k)\exp\left\{\frac{1}{s}\boldsymbol{\lambda}_{k}^{T}\boldsymbol{x}\right\}\tag{4.52}

注意让每个类别有⾃⼰的参数向量 λk\boldsymbol{\lambda}_k ,并且假定各个类别有同样的缩放参数 ss

对于⼆分类问题,把这个类条件概率密度的表达式代⼊相关公式,计算后可得后验概率是⼀个作⽤在线性函数 a(x)a(\boldsymbol{x}) 上的logistic sigmoid函数。a(x)a(\boldsymbol{x}) 的形式为

a(x)=1s(λ1λ2)Tx+lng(λ1)lng(λ2)+lnp(C1)lnp(C2)(4.53) a(\boldsymbol{x})=\frac{1}{s}(\boldsymbol{\lambda}_1-\boldsymbol{\lambda}_2)^{T}\boldsymbol{x}+\ln g(\boldsymbol{\lambda}_1)-\ln g(\boldsymbol{\lambda}_2)+\ln p(\mathcal{C}_1)-\ln p(\mathcal{C}_2)\tag{4.53}

类似地,对于 KK 类问题,有

ak(x)=1s(λk)Tx+lng(λk)+lnp(Ck)(4.54) a_k(\boldsymbol{x})=\frac{1}{s}(\boldsymbol{\lambda}_k)^{T}\boldsymbol{x}+\ln g(\boldsymbol{\lambda}_k)+\ln p(\mathcal{C}_k)\tag{4.54}

这又是⼀个 x\boldsymbol{x} 的线性函数。

如图4.15,线性分类模型的⾮线性基函数的作⽤的说明。下图给出了原始的输⼊空间 (x1,x2)(x_1,x_2) 以及标记为红⾊和蓝⾊的数据点。这个空间中定义了两个“⾼斯”基函数 ϕ1(x)\phi_1(\boldsymbol{x})ϕ2(x)\phi_2(\boldsymbol{x}) ,中⼼⽤绿⾊⼗字表⽰,轮廓线⽤绿⾊圆形表⽰。
【机器学习基础】概率生成式模型
如图4.16,对应图4.15中的特征空间 (ϕ1,ϕ2)(\phi_1,\phi_2) 以及线性决策边界。
【机器学习基础】概率生成式模型

二,贝叶斯logistics回归

对于logistic回归,精确的贝叶斯推断是⽆法处理的。特别地,计算后验概率分布需要对先验概率分布于似然函数的乘积进⾏归⼀化,⽽似然函数本⾝由⼀系列logistic sigmoid函数的乘积组成,每个数据点都有⼀个logistic sigmoid函数,对于预测分布的计算类似地也是⽆法处理的。

1, 拉普拉斯近似

由于寻找后验概率分布的⼀个⾼斯表⽰,因此在开始的时候选择⾼斯先验是很⾃然的。故把⾼斯先验写成⼀般的形式

p(w)=N(wm0,S0)(4.98) p(\boldsymbol{w})=\mathcal{N}(\boldsymbol{w}|\boldsymbol{m}_0,\boldsymbol{S}_0)\tag{4.98}

其中 m0\boldsymbol{m}_0S0\boldsymbol{S}_0 是固定的超参数。 w\boldsymbol{w} 的后验概率分布为

p(wt)p(w)p(tw) p(\boldsymbol{w}|\mathbf{t})\propto p(\boldsymbol{w})p(\mathbf{t}|\boldsymbol{w})

其中 t=(t1,,tN)T\mathbf{t} = (t_1,\dots, t_N)^{T} 。两侧取对数,然后代⼊先验分布,对于似然函数,有

lnp(wt)=12(wm0)TS01(wm0)+n=1N{tnlnyn+(1tn)ln(1yn)}+(4.99) \begin{aligned}\ln p(\boldsymbol{w}|\mathbf{t}) &= -\frac{1}{2}(\boldsymbol{w}-\boldsymbol{m}_0)^{T}\boldsymbol{S}_{0}^{-1}(\boldsymbol{w}-\boldsymbol{m}_0)\\&+\sum_{n=1}^{N}\{t_n\ln y_{n}+(1-t_n)\ln(1-y_n)\}+常数\end{aligned}\tag{4.99}

其中 yn=σ(wTϕn)y_n=\sigma(\boldsymbol{w}^{T}\boldsymbol{\phi}_n) 。为了获得后验概率的⾼斯近似,⾸先最⼤化后验概率分布,得到MAP(最⼤后验)解 wWAP\boldsymbol{w}_{WAP} ,定义了⾼斯分布的均值,这样协⽅差就是负对数似然函数的⼆阶导数矩阵的逆矩阵,形式为

SN1=lnp(wt)=S01+n=1Nyn(1yn)ϕnϕnT(4.100) \boldsymbol{S}_{N}^{-1}=-\nabla\nabla \ln p(\boldsymbol{w}|\mathbf{t})=\boldsymbol{S}_{0}^{-1}+\sum_{n=1}^{N}y_n(1-y_n)\boldsymbol{\phi}_n\boldsymbol{\phi}_{n}^{T}\tag{4.100}

后验概率分布的⾼斯近似的形式为

q(w)=N(wwMAP,SN)(4.101) q(\boldsymbol{w})=\mathcal{N}(\boldsymbol{w}|\boldsymbol{w}_{MAP},\boldsymbol{S}_{N})\tag{4.101}

2, 预测分布

给定⼀个新的特征向量 ϕ(x)\boldsymbol{\phi}(\boldsymbol{x}) ,类别 C1\mathcal{C}_1 的预测分布可以通过对后验概率 p(wt)p(\boldsymbol{w} | \mathbf{t}) 积分,后验概率本⾝由⾼斯分布 q(w)q(\boldsymbol{w}) 近似,即

p(C1ϕ,t)=p(C1ϕ,w)p(wt)dwσ(wTϕ)q(w)dw(4.102) p(\mathcal{C}_1|\boldsymbol{\phi},\mathbf{t})=\int p(\mathcal{C}_1|\boldsymbol{\phi},\boldsymbol{w})p(\boldsymbol{w}|\mathbf{t})\mathrm{d}\boldsymbol{w}\simeq \int \sigma(\boldsymbol{w}^{T}\boldsymbol{\phi})q(\boldsymbol{w})\mathrm{d}\boldsymbol{w}\tag{4.102}

且类别 C2\mathcal{C}_2 的对应的概率为 p(C2ϕ,t)=1p(C1ϕ,t)p(\mathcal{C}_2|\boldsymbol{\phi},\mathbf{t})=1-p(\mathcal{C}_1|\boldsymbol{\phi},\mathbf{t}) 。为了计算预测分布,⾸先注意到函数 σ(wTϕ)\sigma(\boldsymbol{w}^{T}\boldsymbol{\phi}) 对于 w\boldsymbol{w} 的依赖只通过它在 ϕ\boldsymbol{\phi} 上的投影⽽实现。记 a=wTϕa=\boldsymbol{w}^{T}\boldsymbol{\phi},有

σ(wTϕ)=δ(awTϕ)σ(a)da \sigma(\boldsymbol{w}^{T}\boldsymbol{\phi})=\int \delta(a-\boldsymbol{w}^{T}\boldsymbol{\phi})\sigma(a)\mathrm{d}a

其中 δ()\delta(·)狄拉克Delta函数 。由此有

σ(wTϕ)q(w)dw=σ(a)p(a)da(4.103) \int \sigma(\boldsymbol{w}^{T}\boldsymbol{\phi})q(\boldsymbol{w})\mathrm{d}\boldsymbol{w}=\int\sigma(a)p(a)\mathrm{d}a\tag{4.103}

其中,

p(a)=δ(awTϕ)q(w)dw p(a)=\int \delta(a-\boldsymbol{w}^{T}\boldsymbol{\phi})q(\boldsymbol{w})\mathrm{d}\boldsymbol{w}

计算 p(a)p(a) :注意到Delta函数给 w\boldsymbol{w} 施加了⼀个线性限制,因此在所有与 ϕ\boldsymbol{\phi} 正交的⽅向上积分,就得到了联合概率分布 q(w)q(\boldsymbol{w}) 的边缘分布。
通过计算各阶矩然后交换 aaw\boldsymbol{w} 的积分顺序的⽅式计算均值和协⽅差,即
μa=E[a]=p(a)ada=q(w)wTϕdw=wWAPTϕ(4.104) \mu_a=\mathbb{E}[a]=\int p(a)a\mathrm{d}a=\int q(\boldsymbol{w})\boldsymbol{w}^{T}\boldsymbol{\phi}\mathrm{d}\boldsymbol{w}=\boldsymbol{w}_{WAP}^{T}\boldsymbol{\phi}\tag{4.104}

σa2=var[a]=p(a){a2E[a]2}da=q(w){(wTϕ)2(mNTϕ)2}dw=ϕTSNϕ(4.105) \begin{aligned}\sigma_{a}^{2}&=\text{var}[a]=\int p(a)\{a^2-\mathbb{E}[a]^{2}\}\mathrm{d}a\\&=\int q(\boldsymbol{w})\{(\boldsymbol{w}^{T}\boldsymbol{\phi})^{2}-(\boldsymbol{m}_{N}^{T}\boldsymbol{\phi})^{2}\}\mathrm{d}\boldsymbol{w}=\boldsymbol{\phi}^{T}\boldsymbol{S}_{N}\boldsymbol{\phi}\end{aligned}\tag{4.105}

注意,aa 的分布的函数形式与线性回归模型的预测分布相同, 其中噪声⽅差被设置为零。因此对于预测分布的近似变成了

p(C1t)=σ(a)p(a)da=σ(a)N(aμa,σa2)da(4.106) p(\mathcal{C}_1|\mathbf{t})=\int \sigma(a)p(a)\mathrm{d}a=\int \sigma(a)\mathcal{N}(a|\mu_{a},\sigma_{a}^{2})\mathrm{d}a\tag{4.106}

使⽤ probit函数 的⼀个优势是:它与⾼斯的卷积可以⽤另⼀个逆probit函数解析地表⽰出来。 特别地,可以证明

Φ(λa)N(aμ,σ2)da=Φ(μ(λ2+σ2)12)(4.107) \int \Phi(\lambda a)\mathcal{N}(a|\mu,\sigma^{2})\mathrm{d}a=\Phi\left(\frac{\mu}{(\lambda^{-2}+\sigma^{2})^{\frac{1}{2}}}\right)\tag{4.107}

现在将逆probit函数的近似 σ(a)Φ(λa)\sigma(a)\simeq\Phi(\lambda a) 应⽤于这个⽅程的两侧, 得到下⾯的对于logistic sigmoid函数与⾼斯的卷积近似

σ(a)N(aμ,σ2)daσ(κ(σ2)μ)(4.108) \int \sigma(a)\mathcal{N}(a|\mu,\sigma^{2})\mathrm{d}a\simeq\sigma\left(\kappa(\sigma^{2})\mu\right)\tag{4.108}

其中,

κ(σ2)=(1+πσ28)12 \kappa(\sigma^{2})=\left(1+\frac{\pi\sigma^{2}}{8}\right)^{-\frac{1}{2}}

得到了近似的预测分布,形式为

p(C1ϕ,t)=σ(κ(σa2)μa)(4.109) p(\mathcal{C}_1|\boldsymbol{\phi},\mathbf{t})=\sigma\left(\kappa(\sigma_{a}^{2})\mu_{a}\right)\tag{4.109}