基本问题
- 统计推断是什么?
统计推断是从观测数据推断未知变量或未知模型的有关信息的过程。
- 统计推断的用途是什么?
统计推断可用于“参数估计”,“假设检验”,“显著性检验”
- 统计推断的研究思路是什么?
主要有两种思路:“贝叶斯统计推断” 和“经典统计推断”。(大局方法)
- 统计推断具体使用的"算法"有哪些?
最大后验概率准则,最小均方估计,最大似然估计,回归,似然比检验等。(小方法)
统计学与概率论
“统计学”与“概率论”在认识论上有明显的区别。
概率论是建立在概率公理上的系统自我完善的数学课题。我们会假设一个完整的特定的概率模型满足概率公理,然后用数学方法研究模型的一些性质。概率模型无需与现实世界相一致,它值对概率公理负责。
统计学是针对一个具体的问题,寻求合理的研究方法,希望得到合理的结论。这就存在很大的自由度,采取不同的研究方法,结论可能不同。通常我们会附加一些限制条件,以便得到“理想结论”。
正是由于统计学的这种特征,现实社会存在许多人为制造的"理想结论",这些结论可能来源于真实的数据,但研究方法是人为选定的。
贝叶斯统计与经典统计
贝叶斯统计与经典统计(频率学派)是两种突出但对立的思想学派。
最重要的区别就是如何看待未知模型或变量。贝叶斯学派将其看成已知分布的随机变量。而经典统计将其看成未知的待估计的量。
贝叶斯方法将统计拉回“概率论”的研究领域,使得每个问题只有一个答案。经典统计将未知量看作一种参数,它是一个常数,未知需要估计。
从现实角度来看,贝叶斯统计主张将假设的先验分布公开,即研究过程公开了。贝叶斯统计推断涉及到多维度积分,计算困难,所以贝叶斯学派的最新成功可能集中于如何计算上。
推断模型与推断变量
这两种问题有细微的区别。推断模型是为了研究某种现象或过程的一般规律,以期能够预测未来现象的结果。推断变量是从已知的量,推测未知的量,例如从gps信息推断所处于的位置。
术语解释
- 参数估计:对参数进行估计,使得在某种概率意义下估计接近真实值。
- 假设检验:未知参数根据对立的假设可能取有限个值,选择一个假设,目标是使犯错误的概率最小。
- 显著性检验:对于一个给定的假设,希望发生错误(“接受错误”与“拒绝正确”)的概率适当地小.
- 最大似然估计:在选择参数θ时,使得观测数据最有可能出现,即观测到当前数据的概率达到最大。
- 线性回归:对于给定的一组观测数据,采用线性拟合的方式建立模型。约束条件是使观测数据与模型值的差的平方和最小。(最小二乘法)
- 似然比检验:对于给定的两个假设,根据他们发生的可能性的比值选择其中一个,使得犯错的概率适当小。
经典参数估计
虽然把θ当作常数,而不是随机变量,但仍然把θ估计量当作随机变量Θ^,因为θ^一般而言是x的函数,θ^=g(x),所以也有:Θ^=g(X)。也可以写成Θ^=g(X;θ),这个式子的意思是Θ^是θ的数值函数。
术语
Θ^n是未知参数θ的估计量,也即n个观测X1,X2,...,Xn(X的分布依赖于θ)的函数:
- 估计误差:Θ~n=Θ^n−θ
- 估计量偏差:bθ(Θ^n)=E(Θ^)−θ
- 估计量的偏差,方差,期望是\theta的函数,而估计误差是(X1,X2,....,Xn,θ)的函数
- 无偏估计的定义:如果E(Θ^)=θ对θ所有可能的取值都成立
- 渐进无偏的定义:如果limn→∞E(Θ^n)=θ.
- 称Θ^是θ的相合估计序列,如果对于所有的θ可能的取值,Θ^依概率收敛到参数θ的真值:∀ϵ>0,limn→∞P(∣Θ^−θ∣>ϵ)=0.
-
E(Θ~2)=E[(Θ^n−θ)2]=var(Θ^n−θ)+E2(Θ^n−θ)=var(Θ^n)+bθ2(Θ^),这个式子建立了估计均方误差、估计量方差、估计偏差的关系。可以看出均方误差也是θ的函数。如果均方误差不变,则减小方差会增大偏差,减小偏差会增大方差。
最大似然估计
定义:设观测向量X=(X1,X2,...,Xn)的联合分布列为pX1,X2,..,Xn(x1,x2,...,xn;θ)=pX(x1,x2,...,xn;θ),最大似然估计就是寻求参数θ=θ^使得关于θ的函数pX(x1,x2,...,xn;θ)达到最大,即寻求参数θ=θ^使得观测值X最有可能出现。
当X为连续随机变量时,pX用概率密度函数fX(x1,x2,...,xn;θ)代替。
如果X1,X2,...,Xn是相互独立的,那么pX=pX1pX2...pXn,此时可用对数似然函数来简化计算:ln(pX)=lnpX1+...+lnpXn
与贝叶斯最大后验概率准则对比:
最大后验概率准则:求θ=θ^使得pΘ(θ)pX∣Θ(x∣θ)取最大值。
最大似然估计:求θ=θ^使得pX(X;θ)取最大值。
可以看出当Θ是均匀分布时,最大后验准则等价于最大似然估计。均匀分布即Θ取任何值的概率都相等,这就是经典统计推断与贝叶斯统计推断的不同之处。
如果θ的最大似然估计是θ^,那么g(θ)的最大似然估计是g(θ^).这里要求g(x)是一一映射函数。
举例:某人上班迟到时间是一个随机变量X,服从参数为[0,θ]上的均匀分布,θ未知,是随机变量Θ的一个值,Θ服从[0,1]上的均匀分布。假设某次迟到时间为x。用最大似然估计来估计θ。
流程:
fX(x;θ)=θ1
画出θ−x的取值范围图:

θ的取值范围图中阴影部分。对于观测值x=x0,θ的取值范围为图中红线部分。显然当θ=x时能使fX达到最大。所以θ的最大似然估计Θ^=X.
均值和方差的估计
利用经典统计推断一个概率分布的均值和方差(不一定是“最大似然估计”)。
这里的目标是通过样本推断总体的无偏估计均值和方差。
假设条件:
- 观测向量(X1,X2,...,Xn)是独立同分布
- 均值为未知参数θ.方差为未知参数v=σ2
对于均值最自然的估计量是样本均值:
Θ^=Mn=nX1+X2+...+Xn
样本均值当作均值估计量时有:
-
E(Mn)=θ,所以Mn是θ的无偏估计量。
-
E(XiMn)=θ2=E(Xi)E(Mn),所以Mn和Xi不相关。
-
var(Mn)=var(X1+X2+...+Xn)/n2=v/n.可见方差和均方不依赖
- 均方误差E[(Θ^−θ)2]=E[(Mn−θ)2]=E[(Mn−E(Mn))2]=var(Mn),对于无偏估计量总有方差等于均方误差。上式也说明估计量Mn的方差和均方误差都不依赖于θ(不是所有的估计量都有这个性质).
- 样本均值Mn不一定是方差最小的估计量。例如取Θ^=0,此时方差是0,由于“均方误差=方差+偏差的平方”,此时偏差不是0,均方误差也依赖于θ了。
对于方差v的估计量最自然的选择:
V^=n1i=1∑n(Xi−Mn)2=Sn2
那么Sn2是否是v的无偏估计量呢?
E(V^)=E(Sn2)=n1∑i=1n[E(Xi2)−2E(XiMn)+E(Mn2)]=n1[n(v+θ2)−v−nθ2]=v−nv=nn−1v
说明S2不是v的无偏估计量,比方差v少v/n,但S2是渐进无偏的.为了得到v的无偏估计量,可以对S2进行一定的缩放:
E(S^n2)=E[n−1n∗Sn2]=v
所以方差的估计量有两个:
S2=n1i=1∑n(Xi−Mn)2,S^2=n−11i=1∑n(Xi−Mn)2
无偏估计方差为什么会出现有(n-1)?
方差的计算式子中E[(X−μ)2]中μ是常数,方差为0.而在这里的估计过程中,期望和方差都是待估计量,都不是常数。所以样本的方差Sn2包含了样本均值的方差v/n和样本的无偏方差S^n2.
置信区间
粗略地说,置信区间的作用是使用"区间估计"代替“点估计”,使得"区间"包含真值的概率达到适当的水平。这个适当的水平即"置信水平",通常设为1−α.置信区间设为[Θ^n−,Θ^n+],要求置信区间包含真值的概率达到置信水平:
P(Θ^n−≤θ≤Θ^n+)≥(1−α)
称[Θ^n−,Θ^n+]为(1−α)置信区间。
请注意,这里随机变量是与区间相关的。例如假设[0,1]是θ的0.95置信区间,准确的理解是[0,1]包含θ的概率是0.95,而不能说θ落在[0,1]内的概率是0.95.
求近似的置信区间
在很多重要的模型中Θ^的分布是渐进正态无偏的(中心极限定理),在n→∞时,E(Θ^)→θ,所以:
Zn=var(Θ^)Θ^n−θ
服从标准正态分布.
查表Φ(1.96)=P(Zn≤1.96)=0.975
假设θ处于置信区间的中点,那么Θ^−=Θ^−l,Θ^+=Θ^+l,于是有:
P(−l≤Θ^−θ≤+l)≥(1−α)
(Θ^−θ)正态分布的对称轴是0(因为均值为0).

如图阴影部分面积为(1−α),那么就应该有Φ(L)=1−α/2
如果α=0.05,置信水平是0.95,查表Φ(1.96)=1−0.25=0.975,
所以L=1.96=var(Θ^)Θ^−θ,
Θ^−Lvar(Θ^)≤θ≤Θ^+Lvar(Θ^)
其中Φ(L)=1−α/2.上式就是(1−α)置信水平的置信区间。
假设θ是固定的,运用相同的统计过程建立了n个0.95置信区间。可以预期在n个置信区间中,将有95%的置信区间包含θ.
基于方差近似估计量的置信区间
在上面的置信区间式子中包含估计量的方差var(Θ^),如果用样本均值Θ^=Mn=nX1+X2+...+Xn
来估计θ,用无偏估计量:
S^2=n−11i=1∑n[(Xi−θ)2]
来估计方差.那么就可以用S^2/n来估计var(Θ^)=var(Mn)=v/n。
对于给定的α,可以构造一个近似的(1−α)的置信区间,即:
[Θ^−LnS^,Θ^+LnS^],
其中Φ(L)=1−α/2.
整个过程有两个近似:
- 将Θ^看作正态分布的随机变量
- 用估计S^2/n来代替来Θ^真实的方差var(Θ^)
所以这里实际上是用正态分布去近似了一个不是正态分布的概率。为了Φ(L)=1−α/2更精确,用一个比正态分布更好的t-分布去计算L.
现在定义一个随机变量:
Tn=S^n/nΘ^
,称Tn为自由度n−1的t-分布。
此时L的计算式子为:
Ψn−1(L)=1−α/2.
其中Ψn−1(z)是自由度为n−1的t-分布的概率分布函数.
由t-分布和正态分布的关系,可以得出t-分布应该和正态分布函数的图像近似。
举例:利用电子天平得到一个物体重量的八次测量,观测值是真实的质量加上一个随机误差,随机误差服从(0,v)的正态分布,假设每次观测误差都是相互独立的,观测值如下:
X=(0.5547,0.5404,0.6364,0.6438,0.4917,0.5674,0.5664,0.6066)
计算95%置信区间。
这类不知道方差的情况,使用t-分布来近似计算置信区间.
流程:
- 计算均值和方差.
θ=E(Θ^)=E(Mn)=0.574,方差的估计是nS^2=n−11∑i=1n[(Xi−θ)2]=3.2952∗10−4
因而标准差估计为:3.2952∗10−4=0.0182
- 查t-分布表
查表使得:Ψ7(L)=1−α/2=0.975=Ψ(2.365)
- 计算置信区间[Θ^−LnS^,Θ^+LnS^]
置信区间为:[Θ^−0.043,Θ^+0.043].使用样本均值作为Θ^的估计则0.95置信区间为:[0.531,0.617]
方差的估计方式可以有多种,所以答案不是唯一的,这里采用的是样本的无偏估计方差S^2。
线性回归
线性回归的典型应用:已知n组数据对(xi,yi),使用线性回归y=cx+d来拟合x,y之间的关系。
用最小二乘法推导计算公式:
⎩⎪⎪⎪⎨⎪⎪⎪⎧cx1+d=y1cx2+d=y2...cxn+d=yn
将此式写成矩阵形式Az=b:
A=⎝⎜⎜⎛x1x2...xn11...1⎠⎟⎟⎞,z=(cd),b=⎝⎜⎜⎛y1y2...yn⎠⎟⎟⎞
Az=b,ATAz=ATb
z=(ATA)−1ATb
计算:
AT=(x11x21......xn1)
ATA=(∑xi2∑xi∑xin)
由于:(acbd)−1=ad−bc1(d−c−ba)
(ATA)−1=n∑xi2−(∑xi)21(n−∑xi−∑xi∑xi2)
ATb=(∑(xiyi)∑yi)
z=(ATA)−1ATb=n∑xi2−(∑xi)21(n−∑xi−∑xi∑xi2)(∑(xiyi)∑yi)
=n∑xi2−(∑xi)21(n∑(xiyi)−∑xi∑yi−∑xi∑(xiyi)+∑(xi2)∑yi)
设nx=∑(xi),ny=∑yi,则有:
∑x2=1/n∗∑(x1+x2+...+xn)y=∑xix
∑xy=∑(xiy)=∑(xyi)
推导一个分母:
n(x12+x22+...+xn2)−(x1+x2+...+xn)2=n(x12+x22+...+xn2)−(nx)2=n[(x12+x22+...+xn2)−nx2]=n∑(xi2−x2)=n∑(xi2−2xix+x2)=n∑(xi−x)2
类似的,最终可以化称下面这个式子:
c=∑(xi−x)2∑(xi−x)(yi−y)
d=y−cx
最小二乘法合理性
这一节是尝试说明最小二乘法的合理性,它同统计理论的许多方法类似。
在贝叶斯线性最小均方估计中,假设估计量和观测向量是线性关系,即:Y^=aX+b.求得的线性最小均方估计为:
Θ^=σX2cov(Y,X)(X−μX)+μY
即a=σX2cov(Y,X),b=μY−aμX
由于不知道(X,Y)的分布,如果用样本均值代替上式中的分布参数:
μX=x,μY=y
cov(X,Y)=E[(X−μX)(Y−μY)]=∑[(xi−x)(yi−y)]/n
σX2=[∑(xi−x)2]/n
则
a=∑(xi−x)2∑[(xi−x)(yi−y)]
可见最小二乘法和线性最小均方估计是类似的。
贝叶斯线性回归
线性回归是一种方法,用线性关系拟合两个量之间的关系,其特点是观测量到拟合直线的距离的平方和最短。所以无论是经典统计推断还是贝叶斯统计推断,凡是要求这种拟合关系的场合,都可以运用线性回归。
多元线性回归
多元线性回归的公式,比一元复杂得多。结合最小二乘法和矩阵的知识,则相对容易求解。常见思路:y=a+a1x1+a2x2+a3x3,先考虑能否求得x2=h2(x1),x3=h3(x1),这样就能使多远线性规划问题化为一元线=线性回归问题。
非线性回归
非线性回归通常没有闭合式解,对于具体问题需要具体的应对方法。
线性规划注意事项
在解决实际问题问题时,线性回归分析需要考虑以下问题:
- 异方差性。实际问题中观测值的分布的方差可能具有很大的差异性,这样方差很大的观测值对于参数估计将造成不恰当的影响,适当的补救办法是采用加权最小二乘准则。
- 非线性。实际问题并非近似线性关系,用线性回归处理就不合适量。
- 多重共线性。如果有真实关系:y=2x+1,z=x,那么对于y=ax+bz+c,就无法区分x,z对y的贡献。
- 过度拟合。用8次多项式拟合8个数据点,显然这是不合适的。经验:数据点的数量应当是待估参数的5~10倍.
- 线性关系不是因果关系,而只是说明相关性。
简单假设检验
假如未知参数θ只有两种取值{θ0,θ1},假设检验就是判断接受哪一种假设,分别设为{H0,H1}.
现将观测向量X的空间分为两类:1.拒绝域R:若X∈R,则认定H0为假,拒绝;2.接受域Rc.
- 第一类错误:错拒.即H0正确而拒绝.α(R)=P(X∈R;H0)
- 第二类错误:受假.H0错误而接受。β(R)=P(X∈/R;H1)
- 似然比:两种假设情形下概率的比值():
L(x)=pX(x;H0)pX(x;H1)
似然比的临界值需要根据问题来适当选取。
举例子说明。
现在想检验一骰子是否六面均匀,给出两个假设:
H0:骰子均匀。pX(x;H0)=1/6.
H1:骰子不均匀。pX(x;H1)={1/4,x=1,21/8,x=3,4,5,6
1.先计算似然比函数:
L(x)={3/2,当x=1,23/4,当x=3,4,5,6
2.现在要选取临界值ξ.临界值会影响拒绝域R。
当L(x)>ξ时,更倾向于H1,即拒绝H0;
当L(x)<ξ时,更倾向于H0,即接受H0。
对这个问题似然比L(x)只有两个值,如果取ξ<3/4,那么L(x)>ξ总是成立的,即拒绝H0.如果取ξ>3/2,那么L(x)<ξ总是成立的,即接受H0.当ξ在这两个范围时,拒绝域不依赖于观测值,这是不合适的。所以ξ选取区间为[3/4,3/2].
用错误类型描述上述分析:
第一类错误(H0真,而拒绝。即拒绝H0的概率)
α(ξ)=⎩⎪⎨⎪⎧1,当ξ<3/431,当3/4<ξ<3/20,当ξ>3/2
第二类错误(H0假,而接受.即接受H0的概率)
β(ξ)=⎩⎪⎨⎪⎧0,当ξ<3/41/2,当3/4<ξ<3/21,当ξ>3/2
这里ξ的选取,犯第一类错误和犯第二类错误的概率是此消彼长的关系。由于这种平衡存在,没有一种最优的方法选取ξ.下面是一种常见的方法。
3.选取ξ
- 确定错误拒绝H0的目标概率α
- 选择ξ使得P(L(x)>ξ;H0)=α.
- 观测x的值,若L(x)>ξ则拒绝H0
-
α的典型值是:0.1,0.01,0.05
内曼-皮尔逊引理
内容:现有确定的似然比临界值ξ(同时确定了拒绝域R),使得犯两类错误的概率分别为:
P(H1;H0)=P(L(x)>ξ;H0)=α
P(H0;H1)=P(L(x)<ξ;H1)=β
则:
如果有另一个拒绝域使得:
P(H1;H0)=P(L(x)>ξ;H0)≤α,则会有P(H0;H1)=P(L(x)<ξ;H1)≥β.
这个引理是说在假设检验中,如果减少犯第一类错误的概率(错误拒绝),那么就会增大犯第二类错误的概率(错误接受).
考虑假设检验的过程,如果H0真假的概率已确定,减少犯第一类错误的概率就是更加倾向于接受H0,所以很自然地,错误接受的概率会相应增大。
显著性检验
当假设检验问题中的可供选择的结果多于2个时,简单假设检验的方法不再适用,“显著性检验”就是为了处理这类问题。“显著性检验”没有确定的解决办法,基本思想是对于一个"假设",找“证据”去“支持/反驳"该假设。
虽然可供选择的结果多余2个,但我们关心的是某一个假设,即原假设H0.我们根据观测向量X,决定接受还是拒绝H0.此时相对于原假设的反面,是备择假设H1:即H0不正确.
举例:投掷一枚硬币n=1000次,每次投掷互相独立,θ是硬币朝上的概率,现有原假设θ=0.5,备择假设θ̸=0.5.
解决流程:
-
选择合适统计量S表达观测数据:S=g(X1,X2,...,Xn)
此处S可以选择S=x1+x2+...+xn,xi∈{0,1}
-
确定拒绝域R
当S落入拒绝域R时拒绝H0.当然集合R是跟目前未知的临界值ξ有关的.这里拒绝域可定为:∣S−500∣>ξ
-
选择显著性水平:第一类错误的概率P(接受H1;H0为真)=α
此处选择α=0.05
-
选择临界值ξ
可用正态分布近似二项分布,在H0的条件下(S-500)服从参数为(0,250),
P(∣S−500∣>ξ;H0)=0.05,Φ(1.96)=1−0.25=0.975
250ξ−0=1.96,ξ=31
如果观测到S=472,∣S−500∣=28<ξ,则可以说:在5%的显著性水平下不拒绝假设H0.这里5%的意思是该论断犯错误的概率小于5%.“不拒绝”隐含的意思是只倾向于不拒绝,而不是接受。虽然在数学上两者是一个意思。但在这里显然θ=0.499999,0.499999,0.499999999都是可以接受的,不能人为接受其中一个就代表其他的都拒绝。这说明原假设可认为代表一个小的范围,在这个范围里面的取值都是可以的。类似于置信区间的味道。
广义似然比和拟合优度检验
问题:检验给定的分布列是否和观测数据一致,这类问题称为"拟合优度检验"。
给定离散随机变量X的分布列为P(X=k)=qX(k),则可以认为这类问题的原假设为(接受分布列):
H0:pX=(qX(1),qX(2),...,qX(n))
H1:P̸=(qX(1),qX(2),...,qX(n))
现在为了对H0进行判断,采用"广义似然比"的方法。“广义似然比”就是假设H1为最大似然估计:
H1:P=(θ^1,θ^2,...,θ^n),其中θ^i是pX(k)的最大似然估计.
这里用qX(k)表示这是一条假设的分布列,用以区分X的真实分布列pX(k).
广义似然比为:
P(X=x1,x2,...,xn;θ^)P(X=x1,x2,...,xn;q)
通常采用对数的方法,可以简化计算。