统计推断-经典统计推断

基本问题

  • 统计推断是什么?
    统计推断是从观测数据推断未知变量或未知模型的有关信息的过程。
  • 统计推断的用途是什么?
    统计推断可用于“参数估计”,“假设检验”,“显著性检验”
  • 统计推断的研究思路是什么?
    主要有两种思路:“贝叶斯统计推断” 和“经典统计推断”。(大局方法)
  • 统计推断具体使用的"算法"有哪些?
    最大后验概率准则,最小均方估计,最大似然估计,回归,似然比检验等。(小方法)

统计学与概率论

“统计学”与“概率论”在认识论上有明显的区别。
概率论是建立在概率公理上的系统自我完善的数学课题。我们会假设一个完整的特定的概率模型满足概率公理,然后用数学方法研究模型的一些性质。概率模型无需与现实世界相一致,它值对概率公理负责。
统计学是针对一个具体的问题,寻求合理的研究方法,希望得到合理的结论。这就存在很大的自由度,采取不同的研究方法,结论可能不同。通常我们会附加一些限制条件,以便得到“理想结论”。

正是由于统计学的这种特征,现实社会存在许多人为制造的"理想结论",这些结论可能来源于真实的数据,但研究方法是人为选定的。

贝叶斯统计与经典统计

贝叶斯统计与经典统计(频率学派)是两种突出但对立的思想学派。
最重要的区别就是如何看待未知模型或变量。贝叶斯学派将其看成已知分布的随机变量。而经典统计将其看成未知的待估计的量。
贝叶斯方法将统计拉回“概率论”的研究领域,使得每个问题只有一个答案。经典统计将未知量看作一种参数,它是一个常数,未知需要估计。
从现实角度来看,贝叶斯统计主张将假设的先验分布公开,即研究过程公开了。贝叶斯统计推断涉及到多维度积分,计算困难,所以贝叶斯学派的最新成功可能集中于如何计算上。

推断模型与推断变量

这两种问题有细微的区别。推断模型是为了研究某种现象或过程的一般规律,以期能够预测未来现象的结果。推断变量是从已知的量,推测未知的量,例如从gps信息推断所处于的位置。

术语解释

  • 参数估计:对参数进行估计,使得在某种概率意义下估计接近真实值。
  • 假设检验:未知参数根据对立的假设可能取有限个值,选择一个假设,目标是使犯错误的概率最小。
  • 显著性检验:对于一个给定的假设,希望发生错误(“接受错误”与“拒绝正确”)的概率适当地小.
  • 最大似然估计:在选择参数θ\theta时,使得观测数据最有可能出现,即观测到当前数据的概率达到最大。
  • 线性回归:对于给定的一组观测数据,采用线性拟合的方式建立模型。约束条件是使观测数据与模型值的差的平方和最小。(最小二乘法)
  • 似然比检验:对于给定的两个假设,根据他们发生的可能性的比值选择其中一个,使得犯错的概率适当小。

经典参数估计

虽然把θ\theta当作常数,而不是随机变量,但仍然把θ\theta估计量当作随机变量Θ^\hat\Theta,因为θ^\hat\theta一般而言是xx的函数,θ^=g(x)\hat\theta=g(x),所以也有:Θ^=g(X)\hat\Theta=g(X)。也可以写成Θ^=g(X;θ)\hat\Theta=g(X;\theta),这个式子的意思是Θ^\hat\Thetaθ\theta的数值函数。

术语

Θ^n\hat\Theta_n是未知参数θ\theta的估计量,也即nn个观测X1,X2,...,XnX_1,X_2,...,X_n(XX的分布依赖于θ\theta)的函数:

  • 估计误差:Θ~n=Θ^nθ\tilde \Theta_n=\hat\Theta_n-\theta
  • 估计量偏差:bθ(Θ^n)=E(Θ^)θb_\theta(\hat\Theta_n)=E(\hat\Theta)-\theta
  • 估计量的偏差,方差,期望是\theta的函数,而估计误差是(X1,X2,....,Xn,θ)(X_1,X_2,....,X_n,\theta)的函数
  • 无偏估计的定义:如果E(Θ^)=θE(\hat\Theta)=\thetaθ\theta所有可能的取值都成立
  • 渐进无偏的定义:如果limnE(Θ^n)=θ\lim _{n\rightarrow \infty}{E(\hat\Theta_n)}=\theta.
  • Θ^\hat\Thetaθ\theta的相合估计序列,如果对于所有的θ\theta可能的取值,Θ^\hat\Theta依概率收敛到参数θ\theta的真值:ϵ>0,limnP(Θ^θ>ϵ)=0.\forall \epsilon >0,\lim _{n\rightarrow \infty}{P(|\hat\Theta - \theta|>\epsilon)=0.}
  • E(Θ~2)=E[(Θ^nθ)2]=var(Θ^nθ)+E2(Θ^nθ)=var(Θ^n)+bθ2(Θ^)E(\tilde\Theta ^2)=E[(\hat\Theta_n-\theta)^2]=var(\hat\Theta_n-\theta)+E^2(\hat\Theta_n-\theta)=var(\hat\Theta_n)+b^2 _\theta(\hat\Theta),这个式子建立了估计均方误差、估计量方差、估计偏差的关系。可以看出均方误差也是θ\theta的函数。如果均方误差不变,则减小方差会增大偏差,减小偏差会增大方差。

最大似然估计

定义:设观测向量X=(X1,X2,...,Xn)X=(X_1,X_2,...,X_n)的联合分布列为pX1,X2,..,Xn(x1,x2,...,xn;θ)=pX(x1,x2,...,xn;θ)p_{X_1,X_2,..,X_n}(x_1,x_2,...,x_n;\theta)=p_{X}(x_1,x_2,...,x_n;\theta),最大似然估计就是寻求参数θ=θ^\theta=\hat\theta使得关于θ\theta的函数pX(x1,x2,...,xn;θ)p_{X}(x_1,x_2,...,x_n;\theta)达到最大,即寻求参数θ=θ^\theta=\hat\theta使得观测值XX最有可能出现。
XX为连续随机变量时,pXp_X用概率密度函数fX(x1,x2,...,xn;θ)f_X(x_1,x_2,...,x_n;\theta)代替。
如果X1,X2,...,XnX_1,X_2,...,X_n是相互独立的,那么pX=pX1pX2...pXn,p_X=p_{X_1}p_{X_2}...p_{X_n},此时可用对数似然函数来简化计算:ln(pX)=lnpX1+...+lnpXnln(p_X)=lnp_{X_1}+...+lnp_{X_n}

与贝叶斯最大后验概率准则对比:
最大后验概率准则:求θ=θ^\theta=\hat\theta使得pΘ(θ)pXΘ(xθ)p_\Theta( \theta)p_{X|\Theta}(x|\theta)取最大值。
最大似然估计:求θ=θ^\theta=\hat\theta使得pX(X;θ)p_{X}(X;\theta)取最大值。
可以看出当Θ\Theta是均匀分布时,最大后验准则等价于最大似然估计。均匀分布即Θ\Theta取任何值的概率都相等,这就是经典统计推断与贝叶斯统计推断的不同之处。

如果θ\theta的最大似然估计是θ^\hat\theta,那么g(θ)g(\theta)的最大似然估计是g(θ^)g(\hat\theta).这里要求g(x)g(x)是一一映射函数。


举例:某人上班迟到时间是一个随机变量X,服从参数为[0,θ][0,\theta]上的均匀分布,θ\theta未知,是随机变量Θ\Theta的一个值,Θ\Theta服从[0,1][0,1]上的均匀分布。假设某次迟到时间为x。用最大似然估计来估计θ\theta
流程:
fX(x;θ)=1θf_X(x;\theta)=\frac{1} {\theta}
画出θx\theta-x的取值范围图:
统计推断-经典统计推断
θ\theta的取值范围图中阴影部分。对于观测值x=x0,θx=x_0,\theta的取值范围为图中红线部分。显然当θ=x\theta =x时能使fXf_X达到最大。所以θ\theta的最大似然估计Θ^=X\hat\Theta=X.


均值和方差的估计

利用经典统计推断一个概率分布的均值和方差(不一定是“最大似然估计”)。
这里的目标是通过样本推断总体的无偏估计均值和方差。

假设条件:

  1. 观测向量(X1,X2,...,Xn)(X_1,X_2,...,X_n)是独立同分布
  2. 均值为未知参数θ\theta.方差为未知参数v=σ2v=\sigma^2
    对于均值最自然的估计量是样本均值:
    Θ^=Mn=X1+X2+...+Xnn\hat\Theta=M_n=\frac{X_1+X_2+...+X_n}{n}
    样本均值当作均值估计量时有:
  • E(Mn)=θE(M_n)=\theta,所以MnM_nθ\theta的无偏估计量。
  • E(XiMn)=θ2=E(Xi)E(Mn)E(X_iM_n)=\theta^2=E(X_i)E(M_n),所以MnM_nXiX_i不相关。
  • var(Mn)=var(X1+X2+...+Xn)/n2=v/nvar(M_n)=var(X_1+X_2+...+X_n)/n^2=v/n.可见方差和均方不依赖
  • 均方误差E[(Θ^θ)2]=E[(Mnθ)2]=E[(MnE(Mn))2]=var(Mn)E[(\hat\Theta-\theta)^2]=E[(M_n-\theta)^2]=E[(M_n-E(M_n))^2]=var(M_n),对于无偏估计量总有方差等于均方误差。上式也说明估计量MnM_n的方差和均方误差都不依赖于θ\theta(不是所有的估计量都有这个性质).
  • 样本均值MnM_n不一定是方差最小的估计量。例如取Θ^=0\hat\Theta=0,此时方差是0,由于“均方误差=方差+偏差的平方”,此时偏差不是0,均方误差也依赖于θ\theta了。

对于方差vv的估计量最自然的选择:
V^=1ni=1n(XiMn)2=Sn2\hat V=\frac{1}{n}\sum _{i=1}^{n}(X_i-M_n)^2=\overline S_n^2
那么Sn2\overline S_n^2是否是vv的无偏估计量呢?
E(V^)=E(Sn2)=1ni=1n[E(Xi2)2E(XiMn)+E(Mn2)]=1n[n(v+θ2)vnθ2]=vvn=n1nvE(\hat V)=E(\overline S_n^2)=\frac{1}{n} \sum_{i=1}^{n}[E(X_i^2)-2E(X_iM_n)+E(M_n^2)]\\=\frac{1}{n}[n(v+\theta^2)-v-n\theta^2]\\=v-\frac{v}{n}=\frac{n-1}{n}v
说明S2\overline S^2不是vv的无偏估计量,比方差vvv/nv/n,但S2\overline S^2是渐进无偏的.为了得到vv的无偏估计量,可以对S2\overline S^2进行一定的缩放:
E(S^n2)=E[nn1Sn2]=vE(\hat S_n^2)=E[\frac{n}{n-1}*\overline S_n^2]=v
所以方差的估计量有两个:
S2=1ni=1n(XiMn)2,S^2=1n1i=1n(XiMn)2\overline S^2=\frac{1}{n}\sum _{i=1}^{n}(X_i-M_n)^2,\hat S^2=\frac{1}{n-1}\sum _{i=1}^{n}(X_i-M_n)^2

无偏估计方差为什么会出现有(n-1)?
方差的计算式子中E[(Xμ)2]E[(X-\mu)^2]μ\mu是常数,方差为0.而在这里的估计过程中,期望和方差都是待估计量,都不是常数。所以样本的方差Sn2\overline S_n^2包含了样本均值的方差v/nv/n和样本的无偏方差S^n2\hat S_n^2.

置信区间

粗略地说,置信区间的作用是使用"区间估计"代替“点估计”,使得"区间"包含真值的概率达到适当的水平。这个适当的水平即"置信水平",通常设为1α1-\alpha.置信区间设为[Θ^n,Θ^n+][\hat\Theta_n^-,\hat\Theta_n^+],要求置信区间包含真值的概率达到置信水平:
P(Θ^nθΘ^n+)(1α)P(\hat\Theta_n^- \le \theta \le \hat\Theta_n^+)\ge (1-\alpha)
[Θ^n,Θ^n+][\hat\Theta_n^-,\hat\Theta_n^+](1α)(1-\alpha)置信区间。

请注意,这里随机变量是与区间相关的。例如假设[0,1][0,1]θ\theta0.950.95置信区间,准确的理解是[0,1][0,1]包含θ\theta的概率是0.950.95,而不能说θ\theta落在[0,1][0,1]内的概率是0.950.95.

求近似的置信区间

在很多重要的模型中Θ^\hat\Theta的分布是渐进正态无偏的(中心极限定理),在nn\rightarrow \infty时,E(Θ^)θE(\hat\Theta) \rightarrow \theta,所以:
Zn=Θ^nθvar(Θ^)Z_n=\frac{\hat\Theta_n - \theta}{\sqrt{var(\hat\Theta)}}
服从标准正态分布.
查表Φ(1.96)=P(Zn1.96)=0.975\Phi(1.96)=P(Z_n\le1.96)=0.975
假设θ\theta处于置信区间的中点,那么Θ^=Θ^l,Θ^+=Θ^+l\hat\Theta^-=\hat\Theta-l,\hat\Theta^+=\hat\Theta+l,于是有:
P(lΘ^θ+l)(1α)P(-l \le \hat\Theta-\theta \le +l)\ge (1-\alpha)
(Θ^θ)(\hat\Theta-\theta)正态分布的对称轴是0(因为均值为0).
统计推断-经典统计推断
如图阴影部分面积为(1α)(1-\alpha),那么就应该有Φ(L)=1α/2\Phi(L)=1-\alpha/2
如果α=0.05\alpha =0.05,置信水平是0.950.95,查表Φ(1.96)=10.25=0.975\Phi(1.96)=1-0.25=0.975,
所以L=1.96=Θ^θvar(Θ^)L=1.96=\frac{\hat\Theta-\theta}{\sqrt{var(\hat\Theta)}},
Θ^Lvar(Θ^)θΘ^+Lvar(Θ^)\hat\Theta - L\sqrt{var(\hat\Theta)} \le \theta \le \hat\Theta + L\sqrt{var(\hat\Theta)}
其中Φ(L)=1α/2\Phi(L)=1-\alpha/2.上式就是(1α)(1-\alpha)置信水平的置信区间。

假设θ\theta是固定的,运用相同的统计过程建立了n个0.950.95置信区间。可以预期在n个置信区间中,将有95%的置信区间包含θ\theta.

基于方差近似估计量的置信区间

在上面的置信区间式子中包含估计量的方差var(Θ^)var(\hat\Theta),如果用样本均值Θ^=Mn=X1+X2+...+Xnn\hat\Theta=M_n=\frac{X_1+X_2+...+X_n}{n}
来估计θ\theta,用无偏估计量:
S^2=1n1i=1n[(Xiθ)2]\hat S^2=\frac{1}{n-1}\sum _{i=1}^{n}[(X_i-\theta)^2]
来估计方差.那么就可以用S^2/n\hat S^2/n来估计var(Θ^)=var(Mn)=v/nvar(\hat\Theta)=var(M_n)=v/n
对于给定的α\alpha,可以构造一个近似的(1α)(1-\alpha)的置信区间,即:
[Θ^LS^n,Θ^+LS^n][\hat\Theta-L\frac{\hat S}{\sqrt n},\hat\Theta+L\frac{\hat S}{\sqrt n}],
其中Φ(L)=1α/2\Phi(L)=1-\alpha/2.
整个过程有两个近似:

  • Θ^\hat\Theta看作正态分布的随机变量
  • 用估计S^2/n\hat S^2/n来代替来Θ^\hat\Theta真实的方差var(Θ^)var(\hat\Theta)

所以这里实际上是用正态分布去近似了一个不是正态分布的概率。为了Φ(L)=1α/2\Phi(L)=1-\alpha/2更精确,用一个比正态分布更好的tt-分布去计算LL.
现在定义一个随机变量:
Tn=Θ^S^n/nT_n=\frac{\hat\Theta}{\hat S_n /\sqrt n}
,称TnT_n为自由度n1n-1tt-分布。
此时LL的计算式子为:
Ψn1(L)=1α/2\Psi_{n-1}(L)=1-\alpha/2.
其中Ψn1(z)\Psi_{n-1}(z)是自由度为n1n-1的t-分布的概率分布函数.
由t-分布和正态分布的关系,可以得出t-分布应该和正态分布函数的图像近似。


举例:利用电子天平得到一个物体重量的八次测量,观测值是真实的质量加上一个随机误差,随机误差服从(0,v)(0,v)的正态分布,假设每次观测误差都是相互独立的,观测值如下:
X=(0.5547,0.5404,0.6364,0.6438,0.4917,0.5674,0.5664,0.6066)X=(0.5547,0.5404,0.6364,0.6438,0.4917,0.5674,0.5664,0.6066)
计算95%置信区间。
这类不知道方差的情况,使用t-分布来近似计算置信区间.
流程:

  1. 计算均值和方差.
    θ=E(Θ^)=E(Mn)=0.574\theta=E(\hat \Theta)=E(M_n)=0.574,方差的估计是S^2n=1n1i=1n[(Xiθ)2]=3.2952104\frac{\hat S^2}{n}=\frac{1}{n-1}\sum _{i=1}^{n}[(X_i-\theta)^2]=3.2952*10^{-4}
    因而标准差估计为:3.2952104=0.0182\sqrt{3.2952*10^{-4}}=0.0182
  2. 查t-分布表
    查表使得:Ψ7(L)=1α/2=0.975=Ψ(2.365)\Psi_{7}(L)=1-\alpha/2=0.975=\Psi(2.365)
  3. 计算置信区间[Θ^LS^n,Θ^+LS^n][\hat\Theta-L\frac{\hat S}{\sqrt n},\hat\Theta+L\frac{\hat S}{\sqrt n}]
    置信区间为:[Θ^0.043,Θ^+0.043][\hat\Theta-0.043,\hat\Theta+0.043].使用样本均值作为Θ^\hat\Theta的估计则0.950.95置信区间为:[0.531,0.617][0.531,0.617]

方差的估计方式可以有多种,所以答案不是唯一的,这里采用的是样本的无偏估计方差S^2\hat S^2


线性回归

线性回归的典型应用:已知nn组数据对(xi,yi)(x_i,y_i),使用线性回归y=cx+dy=cx+d来拟合x,yx,y之间的关系。
用最小二乘法推导计算公式:
{cx1+d=y1cx2+d=y2...cxn+d=yn\begin{cases} cx_1+d=y_1 \\ cx_2+d=y_2 \\ ... \\ cx_n+d=y_n \end{cases}
将此式写成矩阵形式Az=bAz=b:
A=(x11x21......xn1),z=(cd),b=(y1y2...yn)A=\begin{pmatrix}x_{1} & 1 \\x_2 & 1 \\... & ... \\x_n & 1\end{pmatrix}, z=\begin{pmatrix} c \\ d \end{pmatrix}, b=\begin{pmatrix} y1 \\ y2 \\...\\y_n \end{pmatrix}
Az=b,ATAz=ATbAz=b,A^TAz=A^Tb
z=(ATA)1ATbz=(A^TA)^{-1}A^Tb
计算:
AT=(x1x2...xn11...1)A^T=\begin{pmatrix} x_1 & x_2 & ... & x_n \\ 1 & 1 & ... & 1 \end{pmatrix}
ATA=(xi2xixin)A^TA=\begin{pmatrix} \sum x_i^2 & \sum x_i \\ \sum x_i & n \end{pmatrix}
由于:(abcd)1=1adbc(dbca)\begin{pmatrix} a & b \\ c& d \end{pmatrix}^{-1}=\frac{1}{ad-bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}
(ATA)1=1nxi2(xi)2(nxixixi2)(A^TA)^{-1}=\frac{1}{n\sum x_i^2-(\sum x_i)^2}\begin{pmatrix} n & -\sum x_i \\ -\sum x_i & \sum x_i^2 \end{pmatrix}
ATb=((xiyi)yi)A^Tb=\begin{pmatrix} \sum(x_iy_i) \\ \sum y_i \end{pmatrix}
z=(ATA)1ATb=1nxi2(xi)2(nxixixi2)((xiyi)yi)z=(A^TA)^{-1}A^Tb=\frac{1}{n\sum x_i^2-(\sum x_i)^2}\begin{pmatrix} n & -\sum x_i \\ -\sum x_i & \sum x_i^2 \end{pmatrix} \begin{pmatrix} \sum(x_iy_i) \\ \sum y_i \end{pmatrix}
=1nxi2(xi)2(n(xiyi)xiyixi(xiyi)+(xi2)yi)=\frac{1}{n\sum x_i^2-(\sum x_i)^2} \begin{pmatrix} n\sum(x_iy_i)-\sum x_i \sum y_i \\ -\sum x_i \sum(x_iy_i)+\sum(x_i^2)\sum y_i \end{pmatrix}
nx=(xi),ny=yin\overline x=\sum (x_i),n\overline y=\sum y_i,则有:
x2=1/n(x1+x2+...+xn)y=xix\sum \overline x^2 =1/n*\sum (x_1+x_2+...+x_n)\overline y=\sum x_i\overline x
xy=(xiy)=(xyi)\sum \overline x\overline y=\sum (x_i\overline y)=\sum (\overline x y_i)
推导一个分母:
n(x12+x22+...+xn2)(x1+x2+...+xn)2=n(x12+x22+...+xn2)(nx)2=n[(x12+x22+...+xn2)nx2]=n(xi2x2)=n(xi22xix+x2)=n(xix)2n(x_1^2+x_2^2+...+x_n^2)-(x_1+x_2+...+x_n)^2=n(x_1^2+x_2^2+...+x_n^2)-(n\overline x)^2\\=n[(x_1^2+x_2^2+...+x_n^2)-n\overline x^2]=n\sum (x_i^2-\overline x^2)=n\sum(x_i^2-2x_i\overline x + \overline x^2)\\=n\sum(x_i-\overline x)^2
类似的,最终可以化称下面这个式子:
c=(xix)(yiy)(xix)2c=\frac{\sum (x_i-\overline x)(y_i-\overline y)}{\sum (x_i-\overline x)^2}
d=ycxd=\overline y - c\overline x

最小二乘法合理性

这一节是尝试说明最小二乘法的合理性,它同统计理论的许多方法类似。
在贝叶斯线性最小均方估计中,假设估计量和观测向量是线性关系,即:Y^=aX+b\hat Y=aX+b.求得的线性最小均方估计为:
Θ^=cov(Y,X)σX2(XμX)+μY\hat\Theta=\frac{cov(Y,X)}{\sigma _X^2}(X-\mu_X)+\mu_Y
a=cov(Y,X)σX2,b=μYaμXa=\frac{cov(Y,X)}{\sigma _X^2},b=\mu _Y-a\mu _X
由于不知道(X,Y)(X,Y)的分布,如果用样本均值代替上式中的分布参数:
μX=x,μY=y\mu _X=\overline x,\mu _Y=\overline y
cov(X,Y)=E[(XμX)(YμY)]=[(xix)(yiy)]/ncov(X,Y)=E[(X-\mu _X)(Y-\mu _Y)]=\sum [(x_i-\overline x)(y_i-\overline y)]/n
σX2=[(xix)2]/n\sigma_X^2=[\sum(x_i-\overline x)^2]/n

a=[(xix)(yiy)](xix)2a=\frac {\sum [(x_i-\overline x)(y_i-\overline y)]}{\sum(x_i-\overline x)^2}
可见最小二乘法和线性最小均方估计是类似的。

贝叶斯线性回归

线性回归是一种方法,用线性关系拟合两个量之间的关系,其特点是观测量到拟合直线的距离的平方和最短。所以无论是经典统计推断还是贝叶斯统计推断,凡是要求这种拟合关系的场合,都可以运用线性回归。

多元线性回归

多元线性回归的公式,比一元复杂得多。结合最小二乘法和矩阵的知识,则相对容易求解。常见思路:y=a+a1x1+a2x2+a3x3y=a+a_1x_1+a_2x_2+a_3x_3,先考虑能否求得x2=h2(x1),x3=h3(x1)x_2=h_2(x_1),x_3=h_3(x_1),这样就能使多远线性规划问题化为一元线=线性回归问题。

非线性回归

非线性回归通常没有闭合式解,对于具体问题需要具体的应对方法。

线性规划注意事项

在解决实际问题问题时,线性回归分析需要考虑以下问题:

  • 异方差性。实际问题中观测值的分布的方差可能具有很大的差异性,这样方差很大的观测值对于参数估计将造成不恰当的影响,适当的补救办法是采用加权最小二乘准则。
  • 非线性。实际问题并非近似线性关系,用线性回归处理就不合适量。
  • 多重共线性。如果有真实关系:y=2x+1,z=xy=2x+1,z=x,那么对于y=ax+bz+cy=ax+bz+c,就无法区分x,zx,zyy的贡献。
  • 过度拟合。用8次多项式拟合8个数据点,显然这是不合适的。经验:数据点的数量应当是待估参数的5~10倍.
  • 线性关系不是因果关系,而只是说明相关性。

简单假设检验

假如未知参数θ\theta只有两种取值{θ0,θ1}\{\theta_0,\theta_1\},假设检验就是判断接受哪一种假设,分别设为{H0,H1}\{H_0,H_1\}.
现将观测向量XX的空间分为两类:1.拒绝域RR:若XRX\in R,则认定H0H_0为假,拒绝;2.接受域RcR^c.

  • 第一类错误:错拒.即H0H_0正确而拒绝.α(R)=P(XR;H0)\alpha(R)=P(X\in R;H_0)
  • 第二类错误:受假.H0H_0错误而接受。β(R)=P(XR;H1)\beta(R)=P(X\notin R;H_1)
  • 似然比:两种假设情形下概率的比值():
    L(x)=pX(x;H1)pX(x;H0)L(x)=\frac{p_X(x;H_1)}{p_X(x;H_0)}
    似然比的临界值需要根据问题来适当选取。
    举例子说明。

现在想检验一骰子是否六面均匀,给出两个假设:
H0H_0:骰子均匀。pX(x;H0)=1/6p_X(x;H_0)=1/6.
H1H_1:骰子不均匀。pX(x;H1)={1/4,x=1,21/8,x=3,4,5,6p_X(x;H_1)=\begin{cases} 1/4,x=1,2 \\ 1/8,x=3,4,5,6 \end{cases}
1.先计算似然比函数:
L(x)={3/2,x=1,23/4,x=3,4,5,6L(x)=\begin{cases} 3/2, 当x=1,2 \\ 3/4,当x=3,4,5,6 \end{cases}
2.现在要选取临界值ξ\xi.临界值会影响拒绝域RR
L(x)>ξL(x)>\xi时,更倾向于H1H_1,即拒绝H0H_0
L(x)<ξL(x)<\xi时,更倾向于H0H_0,即接受H0H_0
对这个问题似然比L(x)L(x)只有两个值,如果取ξ<3/4\xi<3/4,那么L(x)>ξL(x)>\xi总是成立的,即拒绝H0H_0.如果取ξ>3/2\xi>3/2,那么L(x)<ξL(x)<\xi总是成立的,即接受H0H_0.当ξ\xi在这两个范围时,拒绝域不依赖于观测值,这是不合适的。所以ξ\xi选取区间为[3/4,3/2][3/4,3/2].
用错误类型描述上述分析:
第一类错误(H0H_0真,而拒绝。即拒绝H0H_0的概率)
α(ξ)={1,ξ<3/413,3/4<ξ<3/20,ξ>3/2\alpha(\xi)=\begin{cases}1,当\xi<3/4 \\ \frac{1}{3} , 当3/4<\xi<3/2 \\ 0,当\xi>3/2 \end{cases}
第二类错误(H0H_0假,而接受.即接受H0H_0的概率)
β(ξ)={0,ξ<3/41/2,3/4<ξ<3/21,ξ>3/2\beta(\xi)=\begin{cases}0,当\xi<3/4 \\ 1/2 , 当3/4<\xi<3/2 \\ 1,当\xi>3/2 \end{cases}
这里ξ\xi的选取,犯第一类错误和犯第二类错误的概率是此消彼长的关系。由于这种平衡存在,没有一种最优的方法选取ξ\xi.下面是一种常见的方法。
3.选取ξ\xi

  • 确定错误拒绝H0H_0的目标概率α\alpha
  • 选择ξ\xi使得P(L(x)>ξ;H0)=αP(L(x)>\xi;H_0)=\alpha.
  • 观测xx的值,若L(x)>ξL(x)>\xi则拒绝H0H_0
  • α\alpha的典型值是:0.1,0.01,0.05

内曼-皮尔逊引理

内容:现有确定的似然比临界值ξ\xi(同时确定了拒绝域RR),使得犯两类错误的概率分别为:
P(H1;H0)=P(L(x)>ξ;H0)=αP(H_1;H_0)=P(L(x)>\xi;H_0)=\alpha
P(H0;H1)=P(L(x)<ξ;H1)=βP(H_0;H_1)=P(L(x)<\xi;H_1)=\beta
则:
如果有另一个拒绝域使得:
P(H1;H0)=P(L(x)>ξ;H0)αP(H_1;H_0)=P(L(x)>\xi;H_0) \le \alpha,则会有P(H0;H1)=P(L(x)<ξ;H1)βP(H_0;H_1)=P(L(x)<\xi;H_1) \ge \beta.

这个引理是说在假设检验中,如果减少犯第一类错误的概率(错误拒绝),那么就会增大犯第二类错误的概率(错误接受).

考虑假设检验的过程,如果H0H_0真假的概率已确定,减少犯第一类错误的概率就是更加倾向于接受H0H_0,所以很自然地,错误接受的概率会相应增大。

显著性检验

当假设检验问题中的可供选择的结果多于2个时,简单假设检验的方法不再适用,“显著性检验”就是为了处理这类问题。“显著性检验”没有确定的解决办法,基本思想是对于一个"假设",找“证据”去“支持/反驳"该假设。
虽然可供选择的结果多余2个,但我们关心的是某一个假设,即原假设H0H_0.我们根据观测向量X,决定接受还是拒绝H0H_0.此时相对于原假设的反面,是备择假设H1H_1:即H0H_0不正确.


举例:投掷一枚硬币n=1000次,每次投掷互相独立,θ\theta是硬币朝上的概率,现有原假设θ=0.5\theta=0.5,备择假设θ0.5\theta \neq 0.5.
解决流程:

  1. 选择合适统计量SS表达观测数据:S=g(X1,X2,...,Xn)S=g(X_1,X_2,...,X_n)
    此处SS可以选择S=x1+x2+...+xn,xi{0,1}S=x_1+x_2+...+x_n,x_i \in \{0,1\}

  2. 确定拒绝域RR
    SS落入拒绝域RR时拒绝H0H_0.当然集合RR是跟目前未知的临界值ξ\xi有关的.这里拒绝域可定为:S500>ξ|S-500|>\xi

  3. 选择显著性水平:第一类错误的概率P(H1;H0)=αP(接受H_1;H_0为真)=\alpha
    此处选择α=0.05\alpha=0.05

  4. 选择临界值ξ\xi
    可用正态分布近似二项分布,在H0H_0的条件下(S-500)服从参数为(0,250)(0,250)
    P(S500>ξ;H0)=0.05,Φ(1.96)=10.25=0.975P(|S-500|>\xi;H_0)=0.05,\Phi(1.96)=1-0.25=0.975
    ξ0250=1.96,ξ=31\frac{\xi-0}{\sqrt {250}}=1.96,\xi=31

如果观测到S=472,S500=28<ξS=472,|S-500|=28<\xi,则可以说:在5%的显著性水平下不拒绝假设H0H_0.这里5%的意思是该论断犯错误的概率小于5%.“不拒绝”隐含的意思是只倾向于不拒绝,而不是接受。虽然在数学上两者是一个意思。但在这里显然θ=0.499999,0.499999,0.499999999\theta=0.499999,0.499999,0.499999999都是可以接受的,不能人为接受其中一个就代表其他的都拒绝。这说明原假设可认为代表一个小的范围,在这个范围里面的取值都是可以的。类似于置信区间的味道。


广义似然比和拟合优度检验

问题:检验给定的分布列是否和观测数据一致,这类问题称为"拟合优度检验"。
给定离散随机变量X的分布列为P(X=k)=qX(k)P(X=k)=q_X(k),则可以认为这类问题的原假设为(接受分布列):
H0:pX=(qX(1),qX(2),...,qX(n))H_0:p_X=(q_X(1),q_X(2),...,q_X(n))
H1:P(qX(1),qX(2),...,qX(n))H_1:P \neq (q_X(1),q_X(2),...,q_X(n))
现在为了对H0H_0进行判断,采用"广义似然比"的方法。“广义似然比”就是假设H1H_1为最大似然估计:
H1:P=(θ^1,θ^2,...,θ^n)H_1:P=(\hat\theta_1,\hat\theta_2,...,\hat\theta_n),其中θ^i\hat\theta_ipX(k)p_X(k)的最大似然估计.

这里用qX(k)q_X(k)表示这是一条假设的分布列,用以区分X的真实分布列pX(k)p_X(k).

广义似然比为:
P(X=x1,x2,...,xn;q)P(X=x1,x2,...,xn;θ^)\frac{P(X=x_1,x_2,...,x_n;q)}{P(X=x_1,x_2,...,x_n;\hat\theta)}
通常采用对数的方法,可以简化计算。