数据压缩第十三次作业

随机信号的参数建模法

Modern modeling method for signal

为随机信号建立参数模型是研究随机信号的一种基本方法,其含义是认为随机信号x(n)是由白噪声w(n)激励某一确定系统的响应。只要白噪声的参数确定了,研究随机信号就可以转化成研究产生随机信号的系统。
数据压缩第十三次作业
对于平稳随机信号,三种常用的线性模型(按照滤波器的有理分式区分)分别是AR模型(Auto-regression model),MA模型(Moving average model)和ARMA模型(Auto-regression-Moving average model)。

MA模型
随机信号x(n)由当前的激励w(n)和若干次过去的激励w(n-k)线性组合产生:
数据压缩第十三次作业
该模型的系统函数是:

数据压缩第十三次作业
q表示系统阶数,传递函数的分母多项式为常数(全零点模型)。(滑动平均模型),输出只由模型的输入来决定。MA模型产生的序列称为MA过程序列。

AR模型
随机信号x(n)由当前的激励w(n)和若干次过去的激励w(n-k)线性组合产生:
数据压缩第十三次作业
该模型的系统函数是:
数据压缩第十三次作业
p 是系统阶数,传递函数的分子多项式为常数(全极点模型)。(自回归模型),输出只取决于过去的信号值。AR模型产生的序列称为AR过程序列。

ARMA模型
ARMA 模型是 AR 模型与 MA 模型的混合结构:
数据压缩第十三次作业
该模型的系统函数是:
数据压缩第十三次作业
传递函数含有极点和零点(零极点模型)。(自回归——滑动平均模型),ASMA模型产生的序列称为ARMA过程序列。

AR模型参数估计

AR模型参数与自相关函数的关系
数据压缩第十三次作业
例题:已知自回归模型AR(3)为:
数据压缩第十三次作业
(1)求其表达式x(n),代入公式
数据压缩第十三次作业
使用matlab进行计算
数据压缩第十三次作业
数据压缩第十三次作业
白噪声方差为1
数据压缩第十三次作业
数据压缩第十三次作业
计算Rxx序列
数据压缩第十三次作业
数据压缩第十三次作业
代入上面推导的矩阵,求得数据压缩第十三次作业
与真实 AR 模型参数误差为: e1=0.1151, e2=0.1002,e3=0.0498,原因在于我们只有一部分的观测数据,使得自相关序列值与理想的完全不同。输入信号的方差误差比较大:为0.5322,造成的原因比较多,计算机仿真的白噪声由于只有 32 点长,32 点序列的方差不可能刚好等于 1。给出一段观测值求 AR 模型参数这样直接解方程组,当阶数越高时直接解方程组计算就越复杂,因而要用特殊的算法使得计算量减小且精确度高。

L-D算法

由AR模型表达式:
数据压缩第十三次作业
可知当前输出值与它过去的输出值有关。若序列的模型已知而用过去观测的数据来推求现在和将来的数据称为前向预测器,m 阶预测器表示为:
数据压缩第十三次作业
显然预测出来的结果与真实的结果存在预测误差或前向预测误差,设误差为 e(n):
数据压缩第十三次作业
把e(n)看成是系统的输出,x(n)看成是系统的输入,得到系统函数:
数据压缩第十三次作业
假如 m=p,且预测系数和 AR 模型参数相同,把预测误差系统框图和 AR 模型框图给出,即有 w(n)=e (n) ,即前向预测误差系统中的输入为x(n) ,输出为e(n)等于白噪声。也就是说前向预测误差系统对观测信号起了白化的作用。由于 AR 模型和前向预测误差系统有着密切的关系,两者的系统函数互为倒数, 所以求 AR 模型参数就可以通过求预测误差系统的预测系数来实现。
数据压缩第十三次作业
求预测均方值得:
数据压缩第十三次作业
要使得均方误差最小,将上式右边对预测系数求偏导并且等于零,得到 m 个等式:
数据压缩第十三次作业
从而求得最小均方误差:
数据压缩第十三次作业
也就是 p 阶预测器的预测系数等于 p 阶 AR 模型的参数,由于 w(n)=e (n),所以最小均方预测误差等于白噪声方差,即:
数据压缩第十三次作业

L-D 递推算法是模型阶数逐渐加大的一种算法。这种递推算法的特点是,每一阶次参数的计算是从低一阶次的模型参数推算出来的,既可减少工作量又便于寻找最佳的阶数值,满足精度时就停止递推。
预测系数和均方误差估计的通式:
数据压缩第十三次作业
其中am​(m)称为反射系数,从上式知道整个迭代过程需要已知自相关函数,给定初始值E0=R(0),a0(0)=1以及AR模型的阶数p,就可以按照流程图进行估计。
数据压缩第十三次作业
L-D 算法的优点:计算速度快,求得的 AR 模型必定稳定,且均方预测误差随着阶次的增加而减小。
L-D 算法的缺点:由于在求自相关序列时,是假设除了观测值之外的数据都为零,必然会引入较大误差。

例题:已知自回归模型AR(3)为:
数据压缩第十三次作业
使用matlab实现
根据预测系数和均方误差估计的通式代入得
数据压缩第十三次作业
数据压缩第十三次作业

L-D算法改进

1.为了克服L-D算法导致的误差,1968年Burg提出了Burg算法,其基本思想是对观测的数据进行前向和后向预测,然后让两者的均方误差之和为最小作为估计的准则估计处反射系数,进而通过L-D算法的递推公式求出AR模型参数。Burg算法的优点是,求得的AR模型是稳定的,较高的计算效率,但递推还是用的L-D算法,因此仍然存在明显的缺点。
2.1980年Marple在前人的基础上提出一种高效算法,Marple算法或者称不受约束的最小二乘法(LS),该算法的思想是,让每一个预测系数的确定直接与前向、后向预测的总的平方误差最小,这样预测系数就不能由低一阶的系数递推确定了,所以不能用L-D算法求解,实践表明该算法比L-D、Burg算法优越。由于该算法是从整体上选择所有的模型参数达到总的均方误差最小,与自适应算法类似,不足是该算法不能保证AR模型的稳定性。