周期自回归模型(精选7篇)
周期自回归模型 篇1
0 引言
负荷预测是电力部门的重要工作之一,以时间期限进行分类,通常分为长期、中期、短期和超短期负荷预测。短期负荷预测是对未来一小时到一天的预测,实际工程应用中,可以为电力系统制定短期运行计划提供数据。目前,配电网的量测量不足、精度低、出现不良数据的几率大,通常也需要通过短期负荷预测的方法来补充数据。
短期电力负荷的最大特点是具有明显的周期性,包括[1]:(1)不同日之间24 h整体变化规律的相似性;(2)不同星期、同一星期类型日的相似性;(3)工作日/休息日各自的相似性;(4)不同年度的重大节假日负荷曲线的相似性。这些特点说明短期负荷预测应更关注负荷本身的短期周期特性。
目前短期负荷预测的方法很多,主要分为传统方法和智能方法两大类。常用的传统方法包括:时间序列法[2,3,4]、卡尔曼滤波预测法[5]、灰色预测法[6]等;常用的智能方法包括:神经网络法[7,8]、支持向量机预测法[9,10]、混沌预测法[11,12]和小波分析法[13,14]等。周期自回归(Periodical Auto-Regression,PAR)模型[3,4]属于时间序列法中的一种,与智能算法和其他传统算法相比,在精度相同的前提下,PAR具有模型简单、预测速度快的优点。主要缺点在于:当周期的长度过大时,会使得模型过于复杂导致预测计算量增大和建模所需样本容量的倍增。而在建立回归模型时,样本数据可能出现的多重共线性问题可以用样本聚类方法来解决[2]。
本文采用线性相关分析法对电力负荷周期特性进行分析。通过负荷曲线相关性分析,研究了电力负荷的日周期特性和周周期特性,确定了合理的预测模型;通过时刻相关性分析,得到预测模型的特征输入量,减小了模型的阶数,从而达到简化模型和提高预测精度的目的。
1 周期自回归模型
电力负荷的历史数据就是按一定时间间隔进行采样记录下来的一个时间序列。PAR模型能够较好地描述时间序列的周期特性,并利用其周期性方便地对这个序列进行分析和处理。
1.1 周期自回归(PAR)的概念
根据文献[15],假设一个时间序列
式中:Xt表示t时刻的负荷值,Xt-p表示t时刻的前p时刻的负荷值,αpt表示模型中的第p个参数。εt为随机干扰量。
若满足以下两个条件:
1)εt为平稳白噪声序列,即
2)对于任意
其中:t=0,±1,±2,…,为整数;T为一正整数,则该模型为PAR模型。T称为PAR模型的周期长度,t称为PAR模型的相位,且p≥T。
文献[3]中提出:基于PAR的短期负荷预测中,取p>T,预测精度并没有显著提高,而运行速度则随参数的增多明显下降。因此,我们在建立PAR模型的时候,一般取p=T。
PAR模型的特点就是不同周期中的同时刻点有相同的αit和σt值,即αit=αit+T,σt2=σt2+T。当T>1时,式(1)可以改写为:
式中是负荷预测值;而则是负荷实测值,i=1,2,…,T。
由式(2)可以看到:该模型中,是对周期中的各个时刻点进行单独建模。即同一周期中各个时刻点对应的预测方程的系数都不同。周期长度为T的PAR模型,就相应地有T个回归方程。
1.2 周周期PAR预测模型
采用基本的周周期性PAR模型[4]进行短期负荷预测时,认为既可以利用负荷的日周期性又可以利用负荷的周周期性,负荷预测序列的周期T为168,模型由168个预测方程组成,其中第t个方程可表示为
式中为一个周周期168时刻中第t时刻的负荷预测值,是模型的输出量;Xt-j为第t时刻的前j时刻的负荷实测值(j=1,2,…,168),是模型的输入量。
文献[4]在基本周周期PAR模型的基础上作了改进,改进的周周期PAR模型保留了基本周周期PAR模型。式(3)中168个输入量中的前24个,在后144个输入量中又选取了6个特征量作为补充输入,简化了模型。
2 配电负荷相关性分析
在回归分析中,输入与输出之间的线性相关性越强,对输出的结果影响越大。因此,根据相关性分析的结果,来对预测模型的输入量进行选择,可以达到精简模型和提高预测精度的目的。
2.1 日负荷曲线相关性分析
通常认为配电负荷除了具有很明显的周周期性外,日周期性也很明显。本节将通过对大量实际数据的相关分析来确定二者中哪种更为明显。
2.1.1 日负荷曲线相关性分析方法
假设有L天的历史数据,设Zi为第i天的日负荷列向量,顺序存放24个整点时刻的负荷值。按照距离当前日期越近列向量的序号越小,顺序存放日负荷列向量Zi(i=1,2,…,L),形成的矩阵称为日负荷矩阵,记作
D_Data中的任意两列向量的相关系数[16]为
式中:Cov(Zi,Zj)为矩阵D_Data中第i列与第j列数据的协方差分别为第i列、第j列数据的均方差。
定义日负荷曲线相关系数矩阵为
日负荷曲线相关系数矩阵的第i行表示的是第i天与前1至前7天日负荷曲线的相关系数。将矩阵B中的各列分别求平均值,得到各列的平均相关系数Sj。
式中:Sj表示所有日负荷曲线与各自前第j天日负荷曲线的平均相关系数。值得指出的是,S1反映的是负荷的日周期性,而第七列元S7反映的是负荷的周周期性。Sj组成的行向量称为日负荷曲线平均相关系数向量,记作
2.1.2 实际日负荷曲线相关性分析结果
对某地区14台配变49天的运行数据,按照2.1.1节中的方法,计算得到各台配变的平均相关系数向量S,结果列于表1。
从表1中的总平均值可以看出,随着天数间隔的增大,相关系数逐渐减小。也就是任一天的负荷曲线与其前1天的负荷曲线相关性最大,与上周具有相同星期序号那天负荷曲线的相关性最小。
为了验证表1的结论对工作日和休息日是否单独成立,对日负荷曲线相关系数矩阵B中工作日和休息日分别计算平均相关系数的总平均值,计算结果如表2所示。
由表2可见,无论是工作日还是休息日,日负荷曲线相关性的变化规律都与表1相同。由此可见,配电负荷的日负荷曲线的日周期特性比周周期特性更为明显。
2.2 配电负荷时刻相关性分析
配电负荷时刻相关性分析是基于相同时刻负荷形成的数据序列进行,目的在于确定预测时刻之前24时刻的负荷对于预测值的影响程度。
2.2.1 负荷时刻相关性分析方法
假设有N天的历史数据,设Pi为时刻负荷列向量,按照日期由近至远顺序存放N-1天相同时刻负荷。由时刻负荷列向量形成时刻负荷矩阵,记作
式中:前24列顺序存放24至1时刻负荷列向量;后24个列向量为前24列向量中相应元素的位移。
在H_Data中,当列号大于24时,有
需要注意的是:这样得到的P25至P48每列只有N-2个元素,应该将第N天的24至1时刻负荷分别存放到后24列中,使得后24个列向量与前24列具有相同的长度,均为N-1。
H_Data中的任意两列向量的相关系数[16]可表示为
式中:Cov(Pi,Pj)表示矩阵H_Data中第i列与第j列数据的协方差分别表示矩阵H_Data中第i列、第j列数据的均方差。
定义时刻负荷相关系数矩阵为
时刻负荷相关系数矩阵C的第i行为第i时刻与前1至24时刻的相关系数。将矩阵C中的各列分别求平均值,得到各列的平均相关系数Hj。
Hj表示一天24个时刻的负荷分别与前第j时刻负荷相关系数的平均值(相关系数)。Hj组成的行向量称为时刻平均相关系数向量,记作
2.2.2 实际负荷时刻相关性分析结果
对某地区14台配变49天的运行数据,按照2.2.1节中的方法,计算得到各台配变的时刻平均相关系数向量H,结果列于表3。
图1为表3中最后一行总平均值的柱状图。由图中柱状的高低,我们可以得到一天中任意时刻t的负荷与前24个时刻负荷的平均相关程度。按照相关程度由强到弱的时间序列为
3 改进的日周期PAR负荷预测模型
本文依据日负荷曲线相关分析得到配电负荷日周期性强的结论,将以往电力负荷预测PAR模型[4]以周为周期改为以日为周期。又根据负荷时刻相关性分析结果,从中挑选出与预测输出量相关性强的时刻负荷作为预测模型的特征输入量,从而简化模型的计算规模。
3.1 模型的特征输入量
本文以14台配变2008年1月至2008年8月运行数据作为样本建模,2008年9月的运行数据作为预测对比的实际值,按照式(15)给出的时刻顺序依次增加模型的输入量的个数,对每台配变进行负荷预测仿真试验。总的月平均日负荷预测准确率随着输入量个数增加的变化曲线如图2所示。日负荷预测准确率计算公式[17]为
式中分别为k时刻负荷的日负荷预测值和实际值;n为预测总点数。
从图2显示的所有配变总体预测效果来看,PAR模型的输入个数按照相关性递减的顺序增加,大致呈凸形变化,并不是个数越多预测的精度越高。在按照时刻序列Q输入前7个元素时,总的月平均日负荷预测准确率达到最大值。
由此,选取预测t时刻负荷时的平均精度达最高的7个变量作为日周期PAR模型的特征输入量。7个特征输入量对应的时刻为
QT序列前4个是距时刻t过去最近的时刻,而后3个为上一个日周期对应的t时刻和与t时刻未来最近的2个时刻。
3.2 改进日周期PAR模型
选择序列QT中各时刻对应的负荷作为PAR模型的特征输入量,得到简化的日周期配电负荷预测模型。该模型共有24个回归方程组成,其中第t个方程可表示为
式中为一个日周期24时刻中第t时刻的负荷预测值,是模型的输出量;Xt-j为第t时刻的前j时刻的负荷实测值(j的取值分别为时刻序列QT对应的7个时刻),是模型的输入量。
3.3 实例
将本文改进的日周期PAR模型记为模型一,将基本日周期PAR模型记为模型二,将文献[4]中基于补充纵分量法的改进周周期PAR模型记为模型三。以某地区同一台配变负荷为分析对象,用于建模的历史数据为2008年6月1日至2008年10月12日共134天的运行数据,分别用三种模型预测该配变2008年10月13日至2008年10月19日一周的日负荷曲线。三种模型的平均准确率、平均中值相对误差(MPE)[18]和预测计算时间(计算机主频为1.8 GHz,内存为1 G)列于表4。
从表4中可以看到:在一周内,1)基本日周期PAR模型(模型二)各天的预测精度均高于文献[4]的改进周周期PAR模型(模型三),说明利用配电负荷日周期更强的特征可以提高负荷预测的精度;2)本文的改进日周期PAR模型(模型一)的预测精度比模型二的精度进一步提高,平均预测精度从0.887提高到0.9,而且计算时间大大减少,平均计算时间从0.063 ms减少到0.022 ms。
4 结论
本文采用数理统计中线性相关分析法对大量配电负荷的运行数据进行了分析和统计研究,得到以下结论:
1)负荷曲线相关性分析结果表明配电负荷的日周期性比周周期性更明显,利用此特征不仅可以提高负荷预测的精度而且还可以简化模型,提高计算速度。
2)本文提出的负荷时刻相关性分析法,可以给出负荷预测值与过去24个时刻负荷的平均相关程度时刻序列,由该序列可以得到日周期PAR模型的特征输入量。
3)基于所提取的负荷预测特征量输入量,改进了日周期PAR模型,实例研究表明本文改进日周期PAR模型较基本日周期PAR模型的预测速度和预测精度都有较大的提高。
基于自回归的高斯混合模型 篇2
关键词:高斯混合模型,自回归模型,EM算法,聚类
一、简介
聚类问题是当今统计学领域的热点研究问题之一, 统计学家已经发明了诸多成熟的算法。随着数据特别是生物中基因数据的快速增长, 人们逐渐发现数据中的一些内在的性质, 利用传统的聚类算法处理这些数据无法利用这些性质因而无法提供较高的准确率。为此, 研究人员更多的是针对一类特殊模型提出特殊的算法, 这实际上是聚类细化的问题, 例如, 作者提出了一个混合模型 (Mixture Model) 来对基因表达数据进行聚类分析, 该模型运用了在基于基因表达试验中的设计矩阵, 作者将算法运用到三种不同的数据上并取得了非常好的效果。同样在中, 作者提出了一个混合模型来对周期性的基因数据进行聚类研究。
二、模型介绍
混合模型 (Mixture Model) 是聚类算法中常用的模型, 具有较强的理论基础, 通过利用期望最大化算法, 可以迅速地求解。现在我们将混合模型的思想运用在基于自回归数据中。假设自回归数据可以分为c个类, 类符合参数为π= (π1, …, πc) 的多重分布 (Multinom ialDis tribution) , 其中类h是符合正态分布, 其期望为uh= (uh1, uh2, Luhm) 方差Sk=δk Rk, 其中
混合模型的参数为μ, ρ, δh, 其中μ代表了c个类的期望值向量, ρh代表了c个类的自回归系数 (ρ1…ρk…, ρc) 。
若数据点yi= (yi1, yi2, …, yim) , 用zhi表示yi的类指标, 这样很自然的有 (∑ch=1zhi=1) , 若zhj=1表示数据点yi是由类h来产生的, 那么它出现的概率为
数据点yi出现的概率为
若有n个数据点 (n个样本) y1, y2, …, yn, 则数据的对数似然函数为
现在我们的目标是要估计出参数μ, ρ, δ以极大化似然函数L (1) .首先考虑对式子 (1) 进行求导并设置导数为零, 但由于log函数中含有和的形式, 无法通过求导来得出结果。期望最大化算法对于处理这种情形是非常自然的, 在下一小节, 我们将介绍如何利用期望最大化算法 (EMAlgorithm) 解决上述优化问题。
如果参数μ, ρ, δh已经被正确的估计出来, 那么数据点yi来自于类h的后验概率为τhi=f (zhi=1|u, ρ, δh, yi) =
因此可以将数据点yi分配到τhi最大的那个类中, 这也是混合模型进行分类的标准。
三、实验结果
对自回归系数估计的实验
本部分将对算法来进行测试以证明有效性, 算法的一个非常重要的部分是对相关系数ρh的估计, 如果能保证这部分的正确性, 则算法的整体正确性会得到保证。为此我们首先进行如下的试验:对于ρ=0.1, 0.3, 0.7, 0.9, δ=0.3, 1, 1.5分别生成期望为0, 从而估计ρ和δ的值, 设置m=10, 每个实验进行10次, 结果在表中。
四、总结
本文提出了一个基于自回归模型的混合模型并利用期望最大化算法给出了这个算法的迭代过程, 具有较完善的理论基础。在实验部分, 通过测试多种自回归数据并对比常用的Kmeans和Mclust算法, 我们证实了算法在处理自回归数据上的高精度。算法应用在基于时间点的基因表达数据上, 我们未来的工作将集中于算法的应用并进行算法的模型选择问题研究。
参考文献
[1]Kim BR, Zhang L, Berg A, Fan J, and Wu R.A computational approach to the functional clustering of periodic gene-expression pro?les.Genetics, 180:821–834, 2008.
[2]C.Fraley and A.E.Raftery.Enhanced model-based clustering, density esti-mation, and dis-criminant analysissoftware:Mclust.J.Classif., 20 (2) :263286, 2003.
[3]Hironori Fujisawa.The maximum likelihood estimatorsin a multivariate nor-mal distribution with ar (1) covariance structure for monotone data.Annals of the Institute of Statistical Math-ematics, 48:423428, 1996.
周期自回归模型 篇3
数字电视接收机的移动性,导致接收的OFDM符号产生多普勒频谱扩展,由此子载波间的正交性被破坏,从而引起载波间干扰(ICI)。
ICI直接导致了移动接收机系统性能的误码地板效应,这是OFDM系统在时变信道中的最大瓶颈,已有许多研究围绕ICI的抑制问题展开讨论。与无迭代的接收机相比,迭代接收机通过迭代过程,利用判决反馈的结果来修正信道估计的精度,通过初始步的预判决结果作为训练序列,来对信道进行更精确的拟合,从而减小误码率。本文从时域推导了采用Kalman滤波器进行判决反馈的均衡算法,以改善由于信道时变带来的误码率和降低复杂度。由于Kalman滤波算法是基于统计AR模型给出的状态方程,本文也分析了信道的时域的统计特性。
1 时变信道的时域统计AR模型
通常考虑信道系统函数的相关性,设信道冲激响应的相关函数为:
则当信道满足条件:
时,称信道为广义平稳(WSS)的。其中。这意味着以不同多普勒频移到达的信号是不相关的。当主要路径在时间上可以分辨出来时,于是得到
其中,和分别表示第l条路径的复数值幅度和时延的时变函数。信道的时变特性可以用有限参数的AR模型来描述,并且一阶AR模型可以对时变信道给出足够精确的辨识,因此信道模型可以表示为:
其中,a为AR模型参数,vn为高斯白噪声过程变量,其方差为。信道的快衰落是由于收发双方的相对移动产生的多普勒频移效应,引起信号相位的迅速变化形成的,按照Jakes衰落模型,第l径信道的相关函数可以表示为:
式中,fdTs为归一化的多普勒频偏,J0(·)为第一类零阶贝塞尔函数。利用式(5)中的相关函数求解Yule-Walker方程,可以求得a和
将式(6)表示成向量,得到如下状态空间模型:
其中,hn.l表示n时刻信道第l径复增益,,,wn是一均值为零,方差为的加性高斯白噪声。
2 基于Kalman滤波器的信道估计
2.1 算法描述
由状态空间模型式(8),在已得到接收序列N-1后,采用Kalman滤波算法[1]可以获得时变信道的递推估计值。
上式中,Qn+1为过程噪声vn+1的相关矩阵,由于信道的各径增益为统计独立的随机变量,所以Qn+1为对角矩阵且
但由于各径的未知,为此可以假设每一径都有相同的,则有:
为信道估计误差的协方差矩阵,其初始值可设为p0=I,在这种方法中,由于在接收端多普勒频偏fdTs和Qn+1未知,由式(6)给出的参数a未知,导致式(9)给出的Kalman滤波算法实用性受到限制。若引入en的最小均方误差作为代价函数,采用VFF-RLS算法可得到一种a的递推估计方法,下面是推导过程。
2.2 算法改进
考虑均方误差目标函数
为了使估计的均方误差最小,可以对目标函数取关于a的导数
令:对式(9)中第4个等式两边求导。
对式(9)中第3个等式两边求导,可得
令:,将(11)代入式(9)中第5个等式,并对它两边求导。
此处,,否则,通过式(12),可以用递归的自适应算法来计算参数a,
其中为收敛因子,指设定上限和下限的截断运算。
这样改进后,完整的Kalman滤波算法由下列各式给出:
这样只要设定相应参数的初始值,在σ2n已知的情况下,就能够得到信道的估计值,通常可以设定,a-和a+根据fdTs的范围由式(6)给出。
3 TDS-OFDM系统的Kalman均衡方法
3.1 系统模型
TDS-OFDM的基带传输模型如图1所示,整个系统采用伪随机PN序列代替传统的循环前缀,二进制数据在完成星座映射后得到频域的复数序列{X(n)},经过离散傅立叶反变换后得到时域数据序列{x(n)},插入PN序列{g(n)}后缀,经过快衰落时变信道传输后,得到接收序列{y(n)}。要恢复出原发送符号序列,通常对接收数据利用信道估计信息进行均衡,将均衡后的数据经过离散傅立叶变换后进行符号判决,得到发送序列的估计值。
3.2 信道初始值设定
若信道的最大多径时延小于PN序列的长度,则可以利用PN序列的自相关特性来估计信道的各径增益和最大多径时延[2]。设PN序列的长度为M,将PN序列和接收符号序列做自相关运算可得:
Rgw(k)是PN序列与噪声的相关项;Rgg(k-l)是PN序列自相关项,有以下性质:
对各径信道的估计可以通过对相关运算后的峰值搜索得到,步骤如下:
(1)搜索Rgy(k)(其中:)的最大值,χ0是峰值的位置,为了消除式(32)-1项的影响,在完成第一次搜索后,在原相关序列中消除的影响,得到:
(2)搜素的最大值,得到,同样按照式(31)方法处理,得到,继续搜索直到得到所有的峰值和位置值。最后得到信道初始参数值为:,,i为搜索的次数,观测向量可以从PN序列的第L+1个符号到第M个符号得到,共M-L个。
3.3 信道跟踪
利用发送符号中的已知序列,来对以上Kalman算法进行训练阶段的信道估计,可以得到各径不同时刻的信道估计值,训练阶段完成后,由于观测向量为未知符号序列,对后面各时刻的信道增益,本节采用二阶多项式来拟合每一径信道的变化,多项式的系数由训练阶段各时刻的估计值来确定。在完成信道跟踪后,对发送序列的检测由基于MMSE准则的时域均衡和判决反馈的联合算法给出,如图2所示。
对信道各径增益的时变特性,本文采用一个二阶多项式函数来近似,则第l径信道:
为近似误差,令,为训练结束后得到的估计值,系数由最小二乘公式得到。
所有时刻的信道估计值由下式给出:
对接收符号的均衡按照MMSE[3]方法进行。
3.4 仿真分析
按照瑞利衰落信道模型[4],在载波频率为1GHz频段进行了仿真,信道的多径时延功率服从COST 207标准,以典型城市(Tux)环境为例。OFDM参数设置按照我国的数字电视广播标准给出,子载波总数为3780,后缀采用PN255构成长度为420的序列,调制方式为QPSK,符号周期为555.6μs,设接收机最大移动速度为360km/h,则最大归一化多普勒频偏为0.1852。
图3、图4、图5分别给出了在移动速度为120km/h、240km/h、360km/h三种情况下的各均衡方法的误码率曲线,当移动速度为120km/h时,此时归一化多普勒频偏为0.0617,此时信道可以近似为平坦衰落信道,各种算法误码率相差不大,但是线性插值算法比较简单,且只需要在一个符号间隔内处理就可以进行,BE模型和二次多项式拟合需要接收两个符号间隔的时域序列,且参数计算相对复杂一些,Kalman算法更复杂一些。但当移动速度增加到240km/h时,此时归一化多普勒频偏为0.1235,信道的时变特性较明显,从图3较明显地看出BE模型由于考虑了信道的实际时变特性,具有一定的性能优势,线性插值算法具有较高的误码率,二次多项式拟合算法相比较而言,是一个折衷选择,因为不需要考虑信道的最大多普勒频移。Kalman均衡算法在信噪比较高的情况下,可以有效地均衡对信道估计误差带来的影响。当移动速度进一步增加到360km/h的情况下,从图5可以看出,其它三种算法对误码率的改善都有限,但本文给出的Kalman均衡算法仍然可以将误码率控制在10-2内。且Kalman均衡算法首先采用二次多项式预估计信道,再采用判决结果作为训练序列来对估计结果进行修正,不需要知道信道的任何参数信息。
图6比较了各种算法在信噪比为30d B的情况下各种均衡算法的性能和移动速度的关系。从图6看出,在移动速度较低的情况下,Kalman均衡算法没有任何性能优势。但当信道的时变特性较明显时,Kalman算法能够对信道估计的误差进行更加精确的消除。此时Kalman均衡算法具有很好的性能优势,随着移动速度的增加,信道估计的精度逐渐变差,为了得到更好的估计,需要提高信道模型的拟合精度,如采用更高阶的多项式拟合或采用Q值更高的BE模型,但是随着估计参数的增加,需要增加导频块的数目,在OFDM符号结构固定的情况下,只有靠增加接收的OFDM符号个数,即增加拟合的信道时间长度,这又会增加估计误差,所以基于以上考虑,本文给出的Kalman算法在不需知道信道参数特性的情况下,对信道给出了一个相对较好的跟踪。应当指出的是,Kalman均衡算法对信道的噪声干扰是比较敏感的,只有在信噪比相对较高的情况下才有较好的性能,在信噪比较低时,由于加性噪声的存在干扰了信道跟踪的精度,这点从以上误码率曲线图可以得到。
4 结论
本文详细分析了时变信道的时域统计特性,并由此得到了时域的基于AR模型的状态方程,在此基础上设计了Kalman滤波器来对时变信道进行均衡。当信道的时变特性较明显时,Kalman算法能够对信道估计的误差进行更加精确的消除,对由于信道时变带来的误码率给予一定程度的改善。当移动速度增加到360km/h的情况下,本文给出的Kalman均衡算法可以将误码率控制在10-2内,比起其它三种算法性能优势明显。仿真结果很好地验证了此算法的有效性,并且具有较低的复杂度。
参考文献
[1]Hye Mi Park,Jae Hong Lee.Estimation of time-variant channels for OFDM systems using Kalman and Wiener Filters[C]//IEEE 64th Vehicular Technology Conference,2006:1-5.
[2]Bowei Song,Lin Gui,et al.On channel estimation and equalization in TDS-OFDM based terrestrial HDTV broadcasting system[J].IEEE Transactions on Consumer Electronics,2005,51(8):790-797.
[3]Woo Kyung Soo,et,al.MMSE channel estimation for OFDM systems with transparent multi-hop relays[C]//IEEE 18th International Symposium on Personal,Indoor and Mobile Radio Communications,2007:1-4.
周期自回归模型 篇4
关于资产负债率的影响因素,从资产负债率的计算公式可以看出:资产负债率=负债总额/资产总额,而作为分子的负债总额大体等于应付账款、其他应付款、预收账款、应交税金的和,作为分母的资产总额大体等于货币资金、应收账款、存货、其他应收款、预付账款的和,即资产负债率主要受这9个因素的影响。
根据往年的数据,通过建立数学模型来分析预测未来月份的资产负债率,对一个企业的发展和稳定有着重要的作用,也是企业非常关心的一个指标。
本文通过选择合适的变量,建立资产负债率的向量自回归模型,在此基础上,利用Eviews5.0对影响资产负债率的因素进行实证分析,得到资产负债率的3阶滞后模型,这样就使影响资产负债率的因素线性化,在计算和预测资产负债率时,方便简单,并且提高了精度。
1 向量自回归模型的建立
1.1数据搜集与整理
现有某IT企业两年24个月(2007年1月—2008年12月)的资产负债表,每个月的资产负债表中详细给出了各个数据指标,我们从中提取出9个主要因素的值,并算出每个月的资产负债率,得到表1和表2。
1.2变量选择
根据观察上述9个主要因素近两年的变化趋势图,我们发现:有一些因素变化不大或基本无变化。比如:存货、其他应收款、预付账款,这说明这3个变量对资产负债率的影响有限或不起决定性作用,通过下面变量的选取可以验证这一点,故在选择变量时考虑舍去这三个变量。
另外我们希望建立资产负债率和各主要因素之间的线性关系模型,由于影响资产负债率的这9个因素与资产负债率呈非线性关系,这就使资产负债率的计算和预测复杂化。
为了寻求影响资产负债率的线性主要因素,我们对这9个变量的数据先进行预处理。由于存货、其他应收款、预付账款这三个变量变化不是很大,故我们选择如下变量:
undefined;
undefined;
undefined;
undefined。
这些变量作为影响资产负债率的主要因素,即作为关于资产负债率的向量自回归模型的外生变量。
1.3建立模型
向量自回归模型(VAR)是基于数据的统计性质建立模型,VAR模型把系统中每一个内生变量作为系统中所有内生变量的滞后值的函数来构造模型,从而将单变量自回归模型推广到有多元时间序列变量组成的向量自回归模型。VAR模型是处理多个相关经济指标的分析与预测最容易操作的模型之一,分析经济指标的各影响因素对系统的动态影响,在多因素指标分析中有广泛的应用[2]。
VAR模型的数学表达式为:
yt=A1yt-1+...+Apyt-p+Bxt+εt t=1,2,...,T。
其中:yt是k维内生变量向量,xt是d维外生变量向量,p是滞后阶数,T是样本个数。k×k维矩阵A1,...,Ap和k×d维矩阵B是要被估计的系数矩阵。εt是维扰动向量。
资产负债率除了和以上四个变量有线性关系外,还可能与它的滞后有关系[3],所以我们构造关于资产负债率的向量自回归模型,首先应该确定资产负债率的滞后阶数。
因为模型是建立在小样本基础之上的,所以在选择滞后阶数p时,一方面为了反映所构造模型的动态特性,另一方面为了有足够的自由度,选用AIC准则,其计算方法可以由下式给出[4]:
undefined。
资产负债率=负债总额/资产总额n是向量维数,T是样本长度,p是滞后阶数,ln表示自然对数,det表示矩阵求行列式,∑p是当滞后阶数为p时,残差向量白噪声方差-协方差矩阵的估计。
根据AIC准则,确定关于资产负债率的向量自回归模型的滞后阶数为3,于是建立模型如下:
yt=α0+α1yt-1+α2yt-2+α3yt-3+β1x1+β2x2+β3x3+β4x4。
2 模型的求解与分析
根据已知的两年24个月的资产负债表算出每个月的资产负债率以及每个月的x1,x2,x3,x4,并根据所建立的关于资产负债率的向量自回归模型,利用Eviews5.0对该回归模型进行估计,获得的回归结果如表3所示。
这样就得到关于资产负债率3阶滞后的向量自回归模型:
yt=0.365 637+0.000 565yt-1+0.054 117yt-2+
0.462 599yt-3-0.035 610x1-0.029 270x2-
0.058 784x3-0.068 664x4。
(1) 从向量自回归模型的输出结果可以看出:
F值为2.259 288,模型总体上是成立的,D-W检验值为1.598 409,不存在自相关,R2值为0.548 846,说明模型的拟合优度不是很理想。这与影响因素的选择是有关系的,但这个模型已经达到我们预先要求的是线性模型的目标,总体还是可以的。
(2) 为了检验模型是否存在序列相关,我们进行LM检验,结果如表4所示:
由于F-统计量值和R2值的显著性概率都明显大于5%,所以认为模型不存在序列相关。
(3) 为了进一步验证模型是否存在异方差,我们进行怀特检验,结果如表5所示。
由于F-统计量值和R2值的显著性概率都明显大于5%,所以认为模型不存在异方差。
综上,我们根据AIC准则所确定的滞后阶数以及据此所建立的向量自回归模型是合理的,得到的回归结果是可靠的。
3 资产负债率的预测
在得到上述关于资产负债率的向量自回归模型后,我们就可以根据历史数据对未来月份的资产负债率进行预测。已知2008年9月、10月、11月的资产负债率的数据,算出11月份的x1,x2,x3,x4值,代入上述模型,得到2008年12月份的资产负债率为0.698 2,公司的资产负债率的真实值为0.703 2相对误差率为0.72%;在知道了2008年10月、11月、12月的数据,以及12月份的x1,x2,x3,x4值后,代入上述模型,可以得到2009年1月份的资产负债率预测值为0.720 0,而公司2009年1月份的资产负债率的真实值为0.710 6,相对误差率为1.3%;取得了比较好的效果。
4 结论
作为企业关注的一个重要财务指标,资产负债率的计算和预测是很重要的方面,也是企业重点关注的。本文通过合理选择影响资产负债率的主要因素,化非线性为线性,建立基于资产负债率3阶滞后的向量自回归模型,并用此模型进行未来数据的预测,得到了比较精确的结果,为企业进行数据分析和掌握公司运行情况提供了一个有力的工具,有一定的应用价值。
摘要:资产负债率是检查企业财务状况的一个重要指标,它的预测是很多企业所关心的。由于影响资产负债率的因素很多,选取了4个影响资产负债率的线性主要因素。根据某公司两年的资产负债率数据,选择变量,建立向量自回归模型。对下一月份的资产负债率进行预测,取得了很好的结果,相对误差控制在1.5%以内。
关键词:向量自回归模型,相对误差,资产负债率
参考文献
[1]田天,王淑锐.对资产负债率指标的动态数学分析.中国管理信息化,2007:10(12):55—57
[2]高铁梅.计量经济分析方法与建模.北京:清华大学出版社,2006:249—250
[3]李庆华.运用向量自回归模型(VAR)分析存款准备金率的变动对开放式基金价格的影响.湖南理工学院学报(自然科学版),2008;21(2):20—23
周期自回归模型 篇5
混合音频信号处理中,除了大量已知的信号外,尚有一小部分未知的信号交叠于待检测信号中,因此,如何有效检测出这部分信号,成为了混合音频信号处理中的难点问题。
此类问题的根本所在就是如何对给定混合信号源进行分解,使其能够实现单个信号的线性复现。
传统的信号表示方法用如正弦函数或小波函数等完备基来表示信号,这些基函数均有较强的物理意义,并且对于某些特定类型的信号取得了较好的表示效果。但这类表示方法都试图使用性质相同的一类基函数来表达任意的信号,一旦基函数确定以后,对于一个信号只能有唯一的一种分解方法,从而对于一般的信号不能总得到信号的稀疏表示。更好的信号分解方式应该根据信号的特点,自适应地选择合适的基来分解信号,这对于含有分布较广的时域和频域局部化信息分量的信号来说尤其显得重要[1]
稀疏分解具有较强的数字压缩能力,具有更稳健的建模假设,还具有去噪,特征提取和数字压缩等潜在的能力[2]。以贪婪算法为核心的匹配追踪(Marching Pursuit)信号稀疏分解方法,是目前信号稀疏分解最常的用方法[3]。但研究发现MP信号稀疏分解易出现过匹配现象,而且随着迭代次数的增加MP误差衰减的速度变得很慢,而基追踪方法在这方面却表现出较好的特性。
基追踪方法是信号稀疏表示领域的一种新方法。基追踪方法采用表示系数的范数作为信号表示稀疏性的度量,通过最小化1一范数将信号稀疏表示问题定义为一类有约束的极值问题,进而转化为线性规划问题进行求解。目前,基追踪方法在一维信号处理领域有很好的应用[4]。
因此,提出一种新的混合音频信号处理方法,利用基追踪(Basis Pursuit,简称BP)算法和自回归模型,实现信号稀疏的分解。
1 模型
1.1 基追踪
基追踪是目前非常流行的一种信号分解方法,可将信号分解为字典元素(亦称原子Atom)的优化叠加信号。若定义信号为,原子为那么,BP算法旨在计算出稀疏线性相关系数(标量)使得下式成立:
假设字典是过完备的,即:原子数目K超过了信号的维数[5]。
对于满足式(1)的分解结果,利用稀疏分解,可最大限度地简化βi
从式(2)可以得出:式(2)的优化可以最大限度地减低受式(1)约束的线性相关系数的L1范数。这是因为优化是凸优化,没有局部最小点。
B P可以对待检测信号建立基于幅度变化的原子模型,但是此类模型适合基于傅立叶变换或者是小波变换的数据压缩,却不适合用来分析由自然声源组成的混合音频信号,因为此类声源信号不仅在幅度上有巨大变化,在时间、相位和音色等方面存在着很大变化,所以,利用原子及字典大小再现这些变化需要更为先进的模型。
1.2 BP自回归模型
为了更好地再现混合音频信号在幅度、时间、相位、音色等方面的变化,将BP与自回归模型结合在一起,提出了新的模型—-BP自回归模型(BP autoregressive model,简称BP-AR)。
BP自回归模型可参数化单个信号源的变化,即:假设第i个信号源波形近似满足m阶线性递推关系
严格地讲,若第i个信号源波形只定义为t>0,那么,式(3)只适合于t>m,且第i个信号源波形的特殊处理取决于m阶线性递推关系的初始条件。
定义初始条件为,那么,式(3)可以扩展为
假设(1)每个字典条目模型均可以表示为信号的m阶矩阵;(2)初始条件可以表示信号幅度、相位、时间、音色的变化;(3)每个信号源的自回归模型的m阶线性相关系数是先验的,储存于K个字典条目中的其中一个。其中,时间T可以简单表示为依据式(3)的不同时间步数的递推演变[6]。
那么,信号源的稀疏分解可以用一些有效信号(k<<K来代替,如下式所示
式(5)表明优化条件涵盖所有的K个信号源波形和初始条件式(5)中,min是用来检测每个信号源自回归模型的保真度,其约束条件如式(4)所示。式(5)条件表示每个信号源的初始条件的范数条件:
式(6)解释了周期性混合信号稀疏分解的前期工作,即:许多信号有零激励,认为是无效的。上述两个公式之间关于模型误差与稀疏性的平衡由规划因子γ>0来调节[7]。
1.3 优化
式(5)显示BP自回归模型的优化复杂度远远高于BP模型(式(2))。特别地,BP模型仅仅计算每个信号源的幅度变化βi,而BP自回归模型计算的是初始条件向量和拓展信号源这种方法不再是通过固定基向量代表示信号源,而是通过明确建模表示每个信号源的明显变化。
虽然此方法较BP更为复杂,但是,此优化过程可以简化如下:
(1)对于表达式(5),消除代表信号源波形的变量为此,引入拉格朗日算子λ强化约束条件,获得关于的非约束的、持续变化的周期性最小化方程。从而依据信号源初始条件通过求解优化解来消除这些变量,其最终结果是一个执行了所有初始条件的无约束优化解。价值函数如下式所示。
其中,变量u是变量uit与信号源及滞后的级联,Y与Z是关于待检测信号xt与字典相关系数αit的矩阵表示;
(2)简化L(u)。从选择一组初始条件uj,假定u中其他变量维持在当前值,重复执行包含所有初始条件的计算过程,直到L(u)最小。在此过程中,若满足式(8),则将uj置零。
当uj=0时,Zj是从矩阵Z中得到的T×m阶子矩阵。
若上述条件无法满足,可将uj设置为一个非零值,使其稳态最小化:
虽然式(9)是非线性的,但是,使用诸如牛顿法等方法,经过简单的代数计算,便可产生一个有关‖uj‖2量纲的一维非线性方程。最后,根据给定的‖uj‖2,式(9)可以演变为关于uj的线性方程组。
2 仿真分析
在仿真试验中,设定混合音频信号中包含周期与非周期信号,时间窗函数为100 ms,采样频率为22 050 Hz,且为了更好的用信噪比SNR (signal-tonoise ratio)衡量此方法的优势,选择在混合信号中加入各种水平的高斯噪声信号。高信噪比可视为期望结果的上限值。
每一次试验,使用式(5)和式(7)进行优化获得非零的初始条件{uiτ}(对应信号源有效);调整规划因子γ获得最佳的平均性能,即精度与记忆之间的平衡误差。
若试验信号为具有确切信号的单个信号源,此方法还可获得具有最低拟合误差的自回归模型,一次评判其分类性能。
2.1 信号选择
假设如下:1)构建一个K=60的字典库,每个信号源具有32阶的自回归模型;2)根据式(3),从具有零均值和单位方差的正态分布中随机采样相关系数{αiτ},相关系数{αiτ}会被重新调整,从而使得对于模型稳定,且其期望值不会随着时间而推移;3)利用随机采样的自回归模型的初始条件得到单个信号源。
那么,通过不断演化的递推关系即可获得计算波形。
在试验中,采取长度为256、取值为[-128,128]的实际数字信号。实际计算中,对原子库做了一定调整,去除了伸缩尺度很大和很小的原子,库的大小为53520×256。除此外,考虑到BP-AR的可行性,实验中针对原子库加入了随机噪声。
2.2 仿真结果
为了更好地体现BP自回归模型在信号处理中的优点,将BP自回归模型与GBP算法、MP模型对信号处理的结果做了比较,其仿真结果如图1所示。
GBP算法是实现BP思想的一种新颖的算法,其核心思想可以等同于寻找信号向量同原子库凸集的交叉点,它较一般的线性规划方法,在运行时间及计算复杂度上有着显著的提高。
图1—图3分别显示了GBP,MP,BP自回归模型在256个原子上重建的256点一维信号的情况。
由图4可见,起初MP模型的近似误差衰减速度比较快,后来随着重建精度的提高开始减慢,而BP自回归模型却随着重建原子数的增加呈现出近似指数的衰减,而且计算速度有所提高。另外,即使时间窗函数为100 ms,BP自回归模型的稀疏分解方法依然能够有效区分非周期信号,且对噪声信号具有良好的鲁棒性。
由图4可见,BP-AR算法在实现信号稀疏分解时具有着较小的重建系数1——范数。
3 小结
在基追踪的基础上,将自回归模型与其结合,形成了一种新的混合信号处理方法。该方法旨在表征不同来源的特性,诸如变化度等。通过试验,验证了此方法分析的可行性,与以往信号分解的先验方法相比较,此方法对多种可能信号的组合也是行之有效的。
但是,目前BP思想的实现方法不是很多,而且都面临着计算量大的问题。因此,目前的基追踪方法仅在一维信号去噪和超分辨处理方面有很好的结果。未来,将着重研究来源于采样音频的稳定自回归模型的学习算法,以及在多个分析框架下的有效源的集合。此外,将持续关注规划因子γ的设置与调整,因为它对信息检索的规模问题有着重要影响。
摘要:针对混合信号中少量未知的交叠信号无法检测与精确描述的问题,提出了一种新的检测方法。该方法基于BP自回归模型,将待检测信号通过稀疏分解理论分解为一系列信号源的线性描述。仿真结果表明,该方法具有较高的精确度和有效性。
关键词:基追踪,自回归模型,稀疏分解,混合信号
参考文献
[1]邵君.基于MP的信号稀疏分解算法研究.成都:西南交通大学硕士研究生学位论文,2006
[2]王潇.MP和BP稀疏分解在盲源分离中的应用.成都:西南交通大学,2009年
[3]高瑞,徐华楠,胡钢.基于GA和过完备原子库划分的MP信号稀疏分解算法.科学技术与工程,2008;8(4):914-916
[4]汪雄良,王正明.基于快速基追踪算法的图像去噪.计算机应用, 2005;25(10):144-146
[5]方耀.基于稀疏分解的非合作猝发信号解调技术研究.杭州:杭州电子科技大学,2010
[6]张延良;楼顺天;张伟涛.非正交联合对角化盲分离算法的可辨识性研究.电子与信息学报,2010;32(5):1066-1070
周期自回归模型 篇6
尽管反卷积模糊消除算法能够取得良好的图像复原效果,但是当前的图像模糊消除算法大都集中于改善模糊消除效果,且都是非并行算法,忽略了算法的运行速度和计算代价,难以实现实时性; 且这些算法不稳定,难以克服解模糊问题,其复原图像的细节信息清晰度有待进一步提高。
对此,为了使得模糊消除算法能兼顾良好的模糊消除效果和算法运行的实时性,本文引入神经网络,以并行模式运行,大大提高了算法的计算速度,并基于突触权重系数,构造激活函数; 再嵌入人 工蜂群算 法 ( Artificial Bees Colony,ABC) ,并以神经网络的均方误差函数设计适应度方程,由ABC算法训练神经网络,找出神经网络的最优权重值与阈值,实现全局最小,获取自回归移动平均模型的参数; 引入自回归移动平均优化模型来同时识别模糊函数与模糊图像,对非线性模糊图像进行反卷积,有效解决了解模糊问题。最后借助MATLAB实验,通过与当前其他算法进行对比,测试了本文算法的相关性能。
1 基于自回归移动平均模型( ARMA)表示的模糊图像及其模糊消除
任何一幅图像都可视为随机变量数组的样本函数,这种特性有利于开发图像处理技术。一个2D线性随机系统可产生失真图像的数学模型,可作为自回归移动平均模型( Autoregressive Moving Average Model,ARMA) 的处理过程[7]; 其中,自回归( Auto-Regressive,AR) 模块决定了该系统的模糊函数。因此,盲图像反卷积问题可转变为ARMA的参数估算问题。确定ARMA的参数,有利于识别正确图像和模糊图像; 而ARMA参数的估算可通过神经网络,联合经典的优化算法来获取。
将正确图像可被建模成一个2D自回归过程
式中: x和y代表模型空间变量; l和m代表空间位移模型变量; f(x,y)代表正确图像的像素强度; α(l,m)代表模型参数v (x,y)代表建模误差,该误差为零均值的均匀噪声过程,与f (x,y)无关。
依据向量矩阵表示法,模型( 1) 可变为
式中: A代表参数矩阵,; v代表建模误差。
对于平滑 与均匀的 真实图像,只有3个AR系数{α(0,1),α(1,0),α(1,1)}可合理重塑图像。
然而在实际的应用中,模糊函数带有局部性,当前的模糊消除机制中都忽略这个局限性。该函数对真实图像的影响可建模成一个2D FIR滤波器。线性模糊函数模型如下
式中: 代表卷积运算; h(x,y)为模糊函数; η(x,y)代表图像的零均值高斯附加噪声; g(x,y)代表模糊图像。
结合式( 1) 和式( 2) ,则g(x,y)可表达为
再次利用向量矩阵表示法,则模型( 4) 可表示为
式中: H代表MR参数矩阵,; f代表正确图像的像素强度; η为附加高斯噪声。
重排式( 2) ,代入式( 5) ,可得
式中: I代表单位矩阵; A代表参数矩阵; η代表图像的零均值高斯附加噪声。
则根据式( 6) ,完整的基于ARMA模型的模糊图像如图1所示。从图1可知,盲图像反卷积问题就转变为AR参数a( l,m) ∈Ra和MR参数h( l,m) ∈Ra的估算问题。图1中Z1和Z2代表Z变换( Z-transformation) 。
因此,一旦模糊函数h( l,m) 被确定,则根据经典的线性图像复原技术就可得到真实图像。
然而,根据式( 6) 来估算a( l,m) 和h( l,m) 的缺陷就是计算复杂度高,估算算法不稳定,且没有唯一解。为此,本文引入二阶统计量方法[8],对模糊函数进行如下定义:
1) 该模糊函数值为正,则真实图像的均值保存在模糊过程中,即
通过这个定义,有效地解决了模糊解难题。
2) 模糊函数值是对称的,且为零相位。该定义有效解决了估算算法的不稳定性,且保证有唯一解。
3) 模糊函数有一个已知参数。可显著降低计算复杂度。其模糊消除机制见图2。
模糊消除步骤如下:
1) 设计神经网络模型;
2) 构造ABC算法的适应度方程,并对ABC算法进行初始化,再利用ABC算法训练神经网络;
3) 将步骤2) 得到的最优权重和阈值分别作为AR参数、MR参数;
4) 根据步骤3) ,构造ARMR模型,并对模糊图像与模糊函数进行识别;
5) 利用反卷积技术对模糊图像进行复原,消除模糊,见图3。
从图3可知,经过本文模糊消除机制处理后,图像及其细节非常清晰,见图3b; 对其局部( 虚线方框) 进行放大后,仍然是清晰可见,见图3c。
2 人工蜂群算法( ABC 算法)
在人工蜂群算法中,ABC殖民地不断搜索丰富的人工食物源 ( 对于一个特定的问题,找出最优解)[9]。为了应用ABC,首先将优化问题转变成找出最佳参数向量; 然后人工蜂群随机发现一个初始解向量的种群,通过反复应用一种策略来改进: 根据邻居搜索机制,向最优解靠近,放弃不良解。人工蜂群包括了3部分: 1) 雇佣蜂; 2) 跟随蜂; 3) 侦查蜂。
该算法的步骤如下:
1) 初始化阶段
由跟随蜂初始化所有食物源xij种群的向量; 并设置好控制参数; 由于每个食物源m代表优化问题的解向量,故每个食物xi都有n个变量( xij,i = 1,2,…,n) ,这些变量都是需要优化的,以减小目标函数。初始化方程如下
式中: lj和uj分别代表参数xmj的上、下边界; rand代表零均值的随机函数发生器。
2) 雇佣蜂阶段
雇佣蜂搜索拥有更多花蜜的食物源vi,这些花蜜是与它们记忆中食物源xi相邻的; 当它们找到一个相邻食物源时,开始估算它们的适应度。可根据如下函数来决定相邻食物源
式中: xij代表随机选择的食物源; i代表随机选择参数引擎;φij∈[- 1,1]为一致分布随机实数。
在产生新的食物源vi后,计算其适应度,并在vi与xi之间利用贪婪选择。适应度值计算方程如下
式中: fi为vi的成本; abs代表求取绝对值。
3) 跟随蜂阶段
非雇佣蜂包括两个: 跟随蜂和侦查蜂群。在ABC算法中,跟随蜂按照雇佣蜂提供的fitnessi获取概率值pi,并以此来择取食物源。因此,可使用基于选择机制的适应度值,如轮盘赌选择法。pi计算模型如下
式中: pi代表概率值; fitnessi代表适应度函数值。
在跟随蜂选择一个食物源xi后,通过式( 9) 来决定相邻食物源vi,并计算其相应的适应度值。由于在雇佣蜂阶段使用了贪婪选择机制,更多跟随蜂找到了更丰富的食物源,并因此产生正反馈行为。
4) 侦查蜂阶段
由于侦查蜂群的解是被抛弃的,因此雇佣蜂无法通过预先设定好的轨迹来改善它的解,特别是ABC算法的用户及其所谓的“限制”。侦查蜂以随机方式来搜索新解。如果侦查蜂的解xi被抛弃,则其根据式( 8) 来产生新的解。
3 ABC 算法优化神经网络( NN)
神经网络( Neutral Network,NN) 是一种并行结构的轻量非线性处理器。并行化、模块化以及动态自适应是其3个典型的计算特性; 其多层感知器( Multilayer Perception,MLP) 由不同的层构成: 1) 输入层; 2) 隐蔽层; 3) 输出层,见图4。
图4中的这些层都是基于一些与前反馈环节有关的神经处理单元来进行的,见图5。
上述单元都进行相同步骤: 1) 由式 ( 12) 输入总权重;2) 根据这些权重,构造激活函数,根据式( 13) 输出实际值yi。
对于输入层xij,其隐蔽层节点的输入值为
式中: yi代表处理单元的输出值; wij代表突触权重系数; bj代表模型( 13) 的阈值。
逆向传播机制BP( Back Propagation) 作为一个有效的学习规则,已经成功用于找出神经网络的最优权重和基础值; 使用ABC算法,通过所有的权重矩阵元素wij来定义每个食物源向量; 且其最优解为误差函数的适应度值。在BP和ABC算法同时达到相等的误差精度,ABC算法的计算复杂度更低,运行速度更快。因此,本文引入ABC算法,以训练神经网络,最大限度减小NN单元的均方误差函数,并用多层NN结构来表述能够同时识别模糊函数与模糊图像的ARMR模型。本文所采用的多层神经网络模型见图6。由于本文的NN结构的输入端为高斯噪音,故以均方误差函数来设计ABC算法的适应度
式中: N为训练标本; qi代表预期输出值; yi代表实际输出值;MSE代表均方误差函数。
具体训练步骤如下:
1) 选定训练样本N,根据式( 12) 计算各层间的突触权重系数wij。
2) 再根据式( 13) 计算样本的输出值yi。
3) 依据式( 14) 计算出MSE。
4) 利用ABC算法训练NN; 若MSE≤ε( e- 7) ,则训练结束,输出此时的权重wij和阈值bj; 否则返回步骤1) ,继续执行。
5) 将最优解wij和bj分别作为AR参数、MR参数。
经过ABC算法训练神经网络后,得到最佳的MSE,见图7。从图中可以看到,在迭代35次时,就开始收敛,稳定MSE为0. 87×10-7,误差非常小。
4 仿真结果与分析
为了凸显本文机制性能的优异性,将文献[10]、文献[11]视为对照组,分别记为A、B机制。在Inter 3. 5 GHz双核CPU、16 Gbyte的内存的私人机上进行实验。设置ABC算法的种群规模N = 50,选择概率值p = 0. 3,迭代次数113; 神经网络模型见图6。
实验对象见图8a所示,尺寸为228×228; 且向该图施加了30% 的高斯白噪声。从信噪比PSNR、计算效率以及局部放大细节清晰 视觉效果3方面来测 试。PSNR的计算模型[10]为
式中: PSNR为模糊消 除图像的 信噪比; MN为图像尺 寸S1( i,j) 代表正确图像在位置( i,j) 的灰度值; S2( i,j) 代表模糊消除图像在坐标( i,j) 的灰度值。
图8为不同模糊消除机制处理后的复原图像视觉效果。从图中可知,3种不同的模糊消除机制的去模糊效果相差无几,图像细节都清晰,没有明显的噪声。
为了量化3种不同机制的去模糊质量,本文测试它们的PSNR,结果见图9。从该图中可知,3种机制复原图像后的稳定PSNR都很接近,分别为32. 47 d B( 本文机制) 、32. 21 d B( A机制) 、32. 52 d B( B机制) ; 但是3种机制存的计算效率存在明显的差异,本文机制的运行速度最快,在13 s时,就进入了稳定状态; 而A、B机制分别需要25 s、32 s。主要原因是本本文机制设计了ARMR神经网络模型来同时识别模糊图像和模糊函数,以并行模式进行复原; 而其他两种机制过分专注于改善模糊消除效果,以单一通道进行复原。可见,本文模糊消除机制具有较快的计算效率。
另外,从图9中也可看到,本文机制的稳定性较好,在进入稳定PSNR前,其波动程度要显著低于A、B机制。这也表明本文模糊消除机制的稳定性较好。原因是本文机制对模糊函数进行了限制定义,使其函数值是对称的,且为零相位。
去模糊图像局部放大视觉效果如图10所示。放大位置如图10a虚线框框所示。从图中可以看到,本文机制的模糊消除效果最佳,局部放大后,图像边缘信息以及细节非常清楚,见图10b所示; 而经过A、B机制去模糊处理后,局部放大视觉相接近,去模糊质量较好; 通过对比图10c所示部分细节,可知A、B机制的模糊消除效果不如本文机制。
5 结论
针对当前的模糊消除机制专注于改善复原效果,而忽略了运行速度,导致计算效率较低,以及模糊消除机制不稳定等不足,本文引入神经网络和人工蜂群算法计算自回归移动平均模型的参数; 再将回归移动平均模型引入模糊图像; 并对模糊函数进行相关定义; 最终提出了基于自回归移动平均模型的图像模糊消除并行稳定机制。该机制以并行模式进行复原,兼顾了高的复原质量和高运行速度。仿真实验验证了本文模糊消除机制的优越性,结果表明: 与其他模糊消除算法相比,该机制的运行速度更快,时耗最短; 且模糊消除机制更稳定,去模糊效果更佳,复原图像的细节信息清晰可见。
摘要:为了克服图像模糊消除算法不稳定与解模糊等难题,保证复原图像的细节信息清晰完整,并提高算法的运行效率,获取实时性,提出了神经网络融合自回归移动平均模型的图像模糊消除并行稳定机制。引入神经网络,基于突触权重系数,构造激活函数;再嵌入人工蜂群算法(Artificial Bees Colony,ABC),并以神经网络的均方误差函数设计适应度方程,由ABC算法训练神经网络,利用优化后的神经网络来获取自回归移动平均模型的参数;再将自回归移动平均优化模型引入模糊图像,以同时识别模糊函数与模糊图像;并对模糊函数进行相关定义,以消除算法不稳定性与解模糊问题;再对模糊图像进行反卷积,消除模糊。借助仿真实验来测试该机制的相关性能,结果表明:与其他模糊消除算法相比,该机制的运行速度更快,时耗最短;且该机制更稳定,模糊消除效果更好,复原图像的细节信息清晰可见。
周期自回归模型 篇7
目前我国城市供水量规划主要采用综合指标。但由于我国城市情况十分复杂,对城市用水量的影响很大。为此,在预测城市用水量时,应根据当地实际,建立合适的水量预测模型。
英国计量学家Hednry认为,模型的建立应该是从一个能够代表数据生成过程的自回归分布滞后模型(ADL),最后得到保护变量间长期稳定关系的简单模型。文章研究了时间、人口、生产总值与城市用水量之间的关系,建立自回归分布滞后模型,并对模型及其预测结果进行比较,最终建立了简单、精确的预测模型[1]。
1 城市用水量影响因素分析
国内生产总值是一个城市或者一个地区经济发展综合水平的标志,自20世纪90年代,广州市经济迅速发展,带动了城市供水量的直线增长。因此,GDP是影响城市供水的重要因素。人口因素主要影响综合生活用水量,因为人口的增加必然导致生活用水量的增加。生活用水量同时也受区域经济水平的影响。
2 用水量预测的自回归分布滞后模型
自回归分布滞后模型的一般形式为[3]:
这种模型是一个或多个被解释变量的滞后值作为解释变量加入的分布滞后模型,称为自回归分布滞后模型,记为ADL(m,n,p)。其中,m,n分别为yt和xjt的最大滞后期,xjt(j=1,2,…,p)为外生变量。本文中的自变量有国内生产总值和人口总数,分别用GDP和RK表示;供水量作为因变量用SL表示。由此建立用水量预测的自回归分布滞后模型:
3 模型的建立
3.1 “一般模型”的建立
将年用水量的滞后值,国内生产总值和人口总数滞后值作为因变量,首先要确定它们的最大滞后期。引入用水量、国内生产总值和人口总数的二期滞后期:
对模型(3)进行L.M检验,得到其相伴概率为0.995 3,即不能拒绝序列残差不存在自相关的假设,L.M检验通过。故式(3)可以作为用水量预测的“一般模型”。
再对模型(3)进行显著性检验(F检验)和回归系数的显著性检验(t检验)。F检验反映选择的所有自变量对因变量的总体解释力度。t检验则反映每一个自变量的合理性。
3.2 “简单模型”的建立
根据“一般模型”中各自变量的系数t检验结果,逐步剔除不显著变量,得到“简单模型”:
SLt=α0+α1SLt-1+α2SLt-2+β1GDPt-1+γ1RKt-1 (4)
模型的自变量由用水量的二期滞后期及GDP和人口的一期滞后期构成,并且不含GDP和人口的当前期。即自变量完全不含因变量的同期变量,从而使模型具有实用价值的预测功能。对“简单模型”进行F检验和t检验,结果见表1。
由表1可以看出模型通过了F检验(F统计量概率等于0),说明模型的回归方程都是显著的。分布滞后模型的所有回归系数均通过了t检验(t统计量概率约等于0),说明分布滞后模型中每个自变量都是显著的。
4模型比较
笔者分别运用多元回归模型、时间序列模型ARMA和自回归分布滞后模型对广州市用水量进行了分析,得出各自的预测结果,并进行分析。结果见表2。
从表2可见,时间序列预测结果精度不高。多元回归模型预测次之,自回归分布滞后模型的预测精度最高。
5用水量预测
通过对广州市1991年~2006年历史用水量分析,应用自回归分布滞后模型研究对未来用水量进行预测。2015年和2020年广州市用水量将达到2.36亿m3和3.16亿m3。广州市用水供需矛盾将长期存在。为此在进行城市规划时,考虑供水规模时要具有超前意识,保证城市各方面正常发展。
6结语
应用自回归分布滞后模型于广州用水量的预测,模型合理并且它们的建模误差和检验误差都很小,可以满足工程实际的需要。且模型中自变量不含因变量的同期变量,为此可用于实际的水量预测。运用自回归分布滞后模型对广州市中长期用水量进行预测,为城市供水规划提供了依据。
摘要:通过对广州市年用水量的分析,考虑时间、区内生产总值、人口、对用水量的影响,运用并建立自回归分布滞后预测模型,对规划用水量进行预测,实例分析说明自回归分布滞后模型预测城市用水量是可行的,具有很高的精度。
关键词:供水规划,用水量预测,自回归分布滞后模型
参考文献
[1]易丹辉.数据分析与EVIEWS应用[M].北京:中国统计出版社,2002:33-43.
[2]王国栋.广州市需水量预测研究[D].上海:同济大学,2007:43-44.