改进的粒子群算法

2024-07-05

改进的粒子群算法(共12篇)

改进的粒子群算法 篇1

在现实生活中,无论从事什么样的职业,都会遇到优化问题。随着科技的不断发展、世界的不断变化,早前一些静态的、传统的方法,如单纯形法、共轭梯度法、模式搜索法以及牛顿法等,已经不能够很好的处理一些复杂的问题,于是动态的、高效的粒子群算法(PSO)便成为了众多学者研究的热点[1]。

基本PSO算法虽然比较简单,实现相对容易,不需要调整太多的参数,同时算法的早期收敛速度也比较快;但算法后期会受到随机振荡现象的影响,导致算法搜索到全局最优解的时间比较长,减慢了收敛速度;并且在一定程度上使其局部搜索能力表现较差,极易陷入局部最小值,精度降低,易发散[2]。针对基本粒子群算法的收敛精度问题,该文提出了一种新的改进粒子群优化算法—LPSO。

1 改进PSO算法研究

1.1 基本PSO算法

随机初始一群粒子,每个粒子均不包括体积和质量信息,将每个粒子都看作为优化过程中的一个可行解,粒子的好坏通过一个事先设定好的适应度函数来进行确定。优化过程中,每个粒子都将在可行解空间中进行运动,由一个速度变量决定其方向和距离。通常情况下粒子将追随当前的最优粒子,并经过不断的迭代搜索最后得到全局最优解。在每一次迭代过程中,粒子都将会跟踪两个最优值:一个是粒子本身迄今为止找到的最优解,即局部最优解;另一个是整个粒子群体到目前为止找到的最优解,即全局最优解[3]。

假设一个由n个粒子组成的粒子种群在d维的搜索空间中按照一定的速度进行飞行。粒子i在t时刻的状态属性设置如下:

位置:

Xi(t)=(xi1(t),xi2(t),…,xid(t)

xid (t)∈[Ld,Ud]

其中Ld为搜索空间的下限,Ud为搜索空间的上限;

速度:

其中:vmin为最小速度,vmax为最大速度;

个体最优值位置:

Pi(t)=(pit(t),pi2(t),…,piD(t))

全局最优值位置:

pg(t)=(Pgt(t)pg2(t)…,pgD(t))其中:1≤d,1≤i≤M。

那么粒子在t+1时刻的位置可以通过下式来得到:

式中,r1、r2都为均匀分布在(0,1)区间的随机数;c1、c2是学习因子,一般取2。

基本的PSO算法尽管比较简单,实现也相对容易,并且不需要调整太多的参数,早期收敛速度快;但同时也存在其局限性,由于粒子在移动时没有选择性,即使下一个粒子位置的评价函数值较差,粒子还是利用逐个位置来代替当前位置,这样就使得粒子很容易跳出最优解附近的某一邻域,因此在一定程度上表现出较差的局部搜索能力,比较容易陷入局部最小值,降低了精度,也易发散[4]。鉴于基本粒子群算法还存在一些不足之处,该文提出了一种新的改进的粒子群算法,下面将对其做具体介绍。

1.2 粒子群算法的改进算法研究

该文所提出的改进的粒子群算法主要是在基本粒子群算法基础上,对以下几个方面做了改进:

(1)惯性权重模型。

由于惯性权重w较大时,算法具有较强的全局搜索能力;w较小时,则算法局部搜索能力较强。所以本文中采用线性模型,随着迭代次数的增加,将w由初始的0.9线性递减至0.4,以达到期望的优化目的。权重函数w由下式确定:

式中Wmax为最大惯性权重,一般取0.9,wmin为最小惯性权重,一般取0.4。

(2)学习因子模型。

学习因子c1、c2表示粒子向个体最优值和全局最优值进化的随机加速权值。当c1、c2都等于0时,粒子会按照当前速度进行飞行,直到运动至边界处。当学习因子较小时,粒子将会在远离最优值区域内发生振荡现象;较大的学习因子则可以促使粒子快速向最优解区域内移动。所以该文中采用自适应模型,如下式所示:

式中cmax为最大学习因子,Cmin为最小学习因子,MaxDT为最大迭代次数,t为当前迭代次数。

(3)粒子位置更新方程的改进。

基本PSO算法前期,精度较低,易发散。如果参数较大的话,在后期收敛速度会变慢,从而无法继续进行优化。在进化规划中,算法中若带有高斯变异和柯西变异算子时,算法都会取得较好的收敛效果,因此,该文中对个体最优解加入了高斯算子,每次找到一个个体最优值时,将在其周围利用高斯算子进行局部搜索。这样不仅可以提高算法前期的收敛精度,还可以改进算法后期的收敛速度,可以有效避免后期在最优解附近发生振荡。所以该文中的粒子位置通过下式来进行更新:

是均值为0,方差为1的高斯变量,fmin是n个粒子中的最小适应函数值,即当前最优值,β是尺度因子,通常取0.6。

(4)早熟收敛的改进策略。

PSO运行过程中,如果其中一个粒子发现一个当前最优位置,此时其他的粒子会快速向其聚集。如果该最优位置是个局部极值点,或者两个粒子均处于局部极值点,此时整个粒子种群将不可能在解空间内重新进行寻优,导致算法失去了搜索能力,陷入局部最优,这一现象就称为早熟收敛。该文对会与当前最优解重叠的粒子加入交叉操作过程,这样可以使该粒子状态重新更新,寻找新的搜索区域,从而跳出函数的局部极值点。首先给定一个阈值,如果其中一个粒子与当前最优粒子的位置距离小于之前设定的阈值,则对其进行交叉操作。具体的交叉公式如下:

式中x是粒子位置,x为粒子速度,pi是介于[0,1]之间的一个随机数,x'ibest为局部最优解。

2 仿真实验

(1)粒子群算法性能比较仿真。

为了验证改进粒子群算法的有效性,该文中选取标准的测试函数,分别利用基本粒子群算法和改进后的粒子群算法对函数进行优化,寻找适应度函数的最优解。

测试函数:Griewank函数

式(6)中的X表示一个粒子,xi为粒子的每个分量,d为每个粒子的维数[3]。

首先在[-10,10]的区间内均匀生成两组数,作为初始的粒子种群,数的个数为生成粒子的个数,每个粒子都是二维的,则该函数的三维图形如图1所示。由图可以看出:该函数存在多个局部极值点,但只存在唯一的全局最优点在(0,0)处。

该文在进行仿真实验过程中的相关参数设置如下:学习因子cimin=2,cimax=5,粒子个数n=100,粒子维数D=10,粒子位置范围xi∈[-100,100],最大迭代次数选取为100次,交叉操作过程中的阈值g取0.5,尺度因子β取0.6。仿真结果如下,图2中描述的是函数的最优适应值与迭代次数之间的关系。

由上述仿真结果可以看出,改进的粒子群算法(LPSO)较基本粒子群算法,不管是收敛精度还是循环迭代次数,都有所提高,验证了改进算法的有效性。

3 结语

该文在基本PSO的基础上,对参数的选择进行了调整,同时引入高斯算子及交叉操作过程。仿真结果证明,改进后的算法收敛效果较好。

参考文献

[1]张必兰.改进的粒子群优化算法及应用研究[D].重庆:重庆大学,2007.

[2]李丽,牛奔.粒子群优化算法[M].北京:冶金工业出版社,2009.

[3]吴进华,吴华丽,周仕.基于模拟退火的粒子群算法[J].仪器仪表学报,2008.

[4]Yumao Li.Particle swarm optimization algorithm research and improvement[D].Northwestern university master degree thesis,2009.

[5]任小波,杨忠秀.一种动态扩散粒子群算法[D].银川:宁夏工程学院,2010.

[6]刘逸.粒子群优化算法的改进及应用研究[D].西安:西安电子科技大学,2013.

改进的粒子群算法 篇2

基于改进粒子群优化算法的新安江模型参数优选

新安江模型是一种实用有效的水文模型,在洪水预报以及水资源评估和管理中得到了广泛的应用.为此,结合新安江模型参数的`特点,提出了基于改进粒子群优化算法的新安江模型参数优选方法,并将该模型应用到日径流预报中.实例表明,该方法能快速地完成参数寻优,并能较好地寻找出参数的全局最优解.

作 者:刘力 周建中 杨俊杰 刘芳 安学利 Liu Li Zhou JianZhong Yang JunJie Liu Fang An XueLi 作者单位:华中科技大学水电与数字化工程学院,湖北,武汉,430074刊 名:水力发电 ISTIC PKU英文刊名:WATER POWER年,卷(期):200733(7)分类号:O224 TV125关键词:参数优选 新安江模型 粒子群优化算法 径流预测

改进的粒子群算法 篇3

关键词:粒子群算法;单目标;多目标;传递率;传递函数矩阵;无穷范数;状态反馈控制;控制力传递率

中图分类号:TU112.41文献标识码:A

单自由度、双自由度体系是研究设备振动隔离的主要模型方法,且隔振体系性能与隔振参数关系密切,选择合适的参数,能提高系统的隔振性能,如果参数选择不当,就会适得其反,所以隔振参数的优化研究显得非常必要.文献1将遗传算法与最大熵法结合,给出了两级隔振系统参数优化设计的一种混合方法;宋鹏金等2采用傅里叶变化法和直接积分法分别对时域函数和频域函数进行参数优化,提出了一种锻锤隔振参数优化的新方法;文献3根据超精密隔振器的内部结构和隔振系统的布置形式,建立了超精密隔振系统的动力学模型,并在此基础上推导出理论频响函数、进行了系统参数的辨识研究;LIU等4基于整星隔振体系进行了参数优化;ESMAILZADEH5采用梯度优化方法对汽车悬挂体系进行了隔振参数的优化研究;文献6提出了一种隔振参数线性变化的方法,主要通过刚度迟滞模型实现;刘春嵘等7基于反共振原理在小振幅假设下建立了两级浮筏系统的数学模型,并分析了隔振机理,推导出了力传递率的表达式.

作为新型的群智能算法——粒子群优化算法PSO自1995年提出以来,就因其简单、易实现、收敛快,可调参数少等优点得到了广泛应用8.由于传统粒子群算法的局限性,许多学者对其做出了改进.Shi9等提出了关于权重的线性调整策略,获得了满意的优化效果;李军等10在Shi的基础上提出了自适应权重变化策略,克服了传统粒子群算法寻优过程的早熟情况,能使粒子群算法达到局部最优及全局最优的平衡.Coello等首次提出了多目标粒子群优化算法MOPSO,掀开了多目标优化问题的新篇章,主要思想是通过Pareto最优解集决定粒子飞行方向以及在全局知识库中得到之前发现的非支配向量,以指导其它粒子飞行11.

状态反馈控制是振动控制领域的常用方法,通常包括线性二次型最优控制、极点配置控制、基于观测器的控制器等,由于实际问题的不确定性,鲁棒H2H

SymboleB@ 控制被提出并广泛应用 12.上述方法在机械、结构等振动控制领域中发挥了巨大作用,其实质是通过控制器产生基于输出的反馈控制力,以优化控制系统响应.

1粒子群算法

1.1标准粒子群算法

粒子群优化算法模型中,每一个粒子的自身状态都由一组位置和速度向量描述,分别表示问题的可行解和它在搜索空间中的运动方向.粒子通过不断学习它所发现的群体最优解和它在搜索空间中的运动方向,并不断更新它所发现的群体最优解和邻居最优解,从而实现全局最优解.粒子的速度和位置更新方程是PSO的核心,由式1表示:

1.3多目标粒子群算法

多目标粒子群算法的主要计算步骤如下所述:

Step1:初始化粒子群,计算各对应粒子的目标函数向量,将其中的非劣解加入到外部档案之中;

Setp2:初始化粒子的局部最优值pbest和全局最优值gbest;

Setp3:在搜索空间内,通过式1,2调整粒子的飞行速度和位置,形成新的pbest;

Step4:根据新的非劣解维护外部档案,并为每个粒子选取gbest档案的内容决定全局最优值的选取;

Step5:是否达到最大迭代次数,若否则继续计算,若是则停止计算,输出pareto最优解集及全局最优解.

多目标粒子群优化算法与单目标粒子群优化算法的主要区别就是全局最优解的选取方式及外部档案的设定和更新.需要着重指出的是,关于全局最优解的选取问题;对于多目标优化,直接计算会存在一组等价的最优解集,很难从每一次迭代中确定一个全局最优解.解决该问题最直接的方法即是利用Pareto支配的概念,考虑档案中的所有非劣解,并从中确定一个“主导者”,通常采用密度测量的方法来确定全局最优解.本文将采用基于粒子最近邻拥挤程度评判的最近邻密度估计方法

6结语

基于粒子群优化算法,以控制输出的传递率为目标函数,在单自由度、双自由度隔振体系传递率分析的基础上,分别进行了隔振参数的单目标和多目标优化设计研究.

传统的振动控制设计,往往是在已知隔振参数的情况下创新控制方法或者优化控制器,却忽略了隔振参数对控制系统的重要性,盲目地从控制角度优化体系,不仅容易造成控制能源浪费,还可能会引起系统响应发散.

我国《隔振设计规范》15仅对单自由度隔振体系的传递率等相关参数做了规定,事实上,本文研究表明,双自由度隔振体系更适用于常见的工程振动控制.本文亦为最优隔振体系设计及最优振动控制设计提供了新思路,对《隔振设计规范》接下来的修订工作具有指导意义.

参考文献

1 魏燕定,赖小波,陈定中,等. 两级振动隔振系统参数优化设计J.浙江大学学报,2006,405:893-896.

WEI Yanding, LAI Xiaobo, CHEN Dingzhong, et al. Optimal parameters design of twostage vibration isolation systemJ.Journal of Zhejiang University, 2006, 405:893-896.In Chinese

2宋鹏金,陈龙珠,严细水.锻锤隔振基础参数优化的新方法J.振动与冲击,2004,233:96-98.

SONG Pengjin, CHEN Longzhu. YAN Xishui. The new parameters optimization method of vibration isolation base of hammer J. Journal of Vibration and Shock, 2004, 233:96-98. In Chinese

3董卡卡,蒲华燕,徐振高,等. 超精密隔振系统的建模与参数辨识J.武汉理工大学学报,2013,31:126-128.

DONG Kaka, PU Huayan, XU Zhengao, et al. Modeling and parameter identification of the ultraprecision vibration isolation system J. Journal of Wuhan University of Technology, 2013, 31:126-128. In Chinese

4LIU L K, ZHENG G T. Parameter analysis of PAF for wholespacecraft vibration isolation J. Aerospace Science and Technology, 2007, 116: 464-472.

5ESMAILZADEH E. Design synthesis of a vehicle suspension system using multiparameter optimization J. Vehicle System Dynamics, 1978, 72: 83-96.

6ZHANG F, GRIGORIADIS K M, FIALHO I J. Linear parametervarying control for active vibration isolation systems with stiffness hysteresis J. Journal of Vibration and Control, 2009, 154: 527-547.

7刘春嵘,肖卫明,徐道临. 双层流体浮筏的隔振特性研究J.湖南大学学报:自然科学版,2013,401:43-48.

LIU Chunrong, XIAO Weiming, XU Daolin. Study of the vibration isolation of twodegreeoffreedom fluidtype floating raft J. Journal of Hunan University:Natural Sciences, 2013,401:43-48. In Chinese

8KENNEDY J, EBERHART R C. A new optimizer using particle swarm TheoryCProceedings of the Sixth International Symposium on IEEE.Micro Machine and Human Science, 1995: 39-43.

9SHI Y, EBERHART R C. A modified particle swarm optimizer CIEEE World Congress on Computational Intelligence.NewYork: IEEE,1998:69- 73.

10李军,许丽佳.一种带压缩因子的自适应权重粒子群算法 J.西南大学学报,2011,337: 118-120.

LI Jun, XU Lijia. Adaptive weight particle swarm optimization algorithm with construction coefficient J.Journal of Southwest University, 2011, 337: 118-120. In Chinese

11COELLO A C, LECHUGA, MOPSO M S: A proposal for multiple objective particle swarm optimizationC Proceedings of the 2002 Congress on IEEE.Evolutionary Computation, 2002, 2: 1051-1056.

12欧进萍.结构振动控制——主动、半主动和智能控制M. 北京:科学出版社,2003:61-68.

OU Jinping. Structure vibration controlactive, semiactive and smart controlM.Beijing: Science Press, 2003:61-68. In Chinese

13DEB K, PRATAP A, AGARWAL S, et al. A fast and elitist multiobjective genetic algorithm: NSGAII J. IEEE Transactions on Evolutionary Computation, 2002, 62: 182-197.

14GOLDBERG D E, RICHARDSON J. Genetic algorithms with sharing for multimodal function optimizationC Proceedings of the Second International Conference on Genetic Algorithms and Their Applications.Hillsdale, NJ: Lawrence Erlbaum, 1987: 41-49.

15GB 50463-2008 隔振设计规范S.北京:中国计划出版社,2008: 36-40.

基于粒子群算法的改进遗传算法 篇4

遗传算法是根据自然界的“物竞天择,适者生存”现象二提出的一种随机搜索算法。1975年,Holland教授在他的专著《Adaptation in Natural and Artificial Systems》[2]中,首次系统地提出了遗传算法(GA or Genetic Algorithm)的基本原理,标志着遗传算法的诞生。该算法将优化问题看作是自然界中生物进化过程,通过模拟大自然中生物进化过程中的遗传规律,来达到寻优的目的。

进入90年代,遗传算法作为一种新的全局优化搜索方法,适用于处理传统搜索方法难以解决的复杂的和非线性的问题、组合优化、机器学习、自适应控制和人工生命等方面,都得到了极为广泛的应用[3,4,5,6,7,8],是21世纪有关智能计算的关键技术之一。

1995年Eberhart博士和Kennedy博士提出了粒子群优化算法。这种算法以其实现容易、精度高、收敛快等优点引起了学术界的响应,并且在解决某些实际问题时,展示了其优越性。粒子群优化算法是一种新的进化算法,与遗传算法相似,它也是从随机解出发,通过迭代寻找最优解,它也是通过适应度来评价解的优劣。但是它比遗传算法规则更为简单,它没有遗传算法的“交叉”和“变异”操作,它通过追随当前搜索到的最优值来寻找全局最优。

根据坐标的可平移性,从整体上看,我们可以假设优化问题的最优解在整个解空间服从均匀分布。按照最大熵原则,最优解应该更加趋向于较优解。为了能够更快地搜索到最优解,本文将粒子群算法和遗传算法相结合。得到了一个应用更加广泛的改进遗传算法。

1 初始化染色体

在遗传算法中,初始染色体是随机产生的,最优化问题的解转换成染色体一般有两种表示方法:二进制向量或浮点向量。使用二进制向量作为一个染色体来表示决策变量的真实值,向量的长度依赖于要求的精度,但使用二进制代码的必要性已经受到了一些批评。在求解复杂优化问题时,二进制向量表示结构有时不太方便。

另一种表示方法是用浮点向量,每一个染色体有一个浮点向量表示,其长度与解向量相同。用向量x=(x1,x2,⋅⋅⋅,xn)表示最优解问题的解,其中是维数。则相应的染色体是V=(x 1,x2,⋅⋅⋅,xn)。

对于每一个染色体V,我们选取已知的可行解做随机的扰动,这样便得到一个染色体V=(x 1,x2,⋅⋅⋅,xM)。如果如此得到的染色体可行,即说明满足约束条件。对于每一个染色体V在约束条件中,我们可以得出可行集中的一个内点,记为0V。我们定义一个足够大的数M,以保证遗传操作遍及整个可行集。当然M的选取依赖于不同的决策问题。在RM中,首先随机选择一个方向d,如果V0+M⋅d满足不等式约束,则将V=V0+M⋅d作为一个染色体,否则,置M为0到M之间的随机数,直到V0+M⋅d可行为止。由于V0是内点,所以在有限步内,总是可以找到满足不等式约束的可行解。重复以上过程popsize次,从而产生popsize个初始染色体V1,V 2,⋅⋅⋅,Vpopsize,其中popsize为种群规模。

2 适应函数

比较常用的评价函数是基于序的评价函数,我们将一代种群的染色体按照从好到差的顺序排列成{V 1,V 2,⋅⋅⋅,Vpopsize}。在极大化问题中,这个顺序就是指对应目标函数值由大到小排列染色体,在极小化问题中则正好相反。为了得到每个染色体的适应度,我们根据这个顺序给出如下的评价函数,

其中a∈(0,1)是一个事先给定的数。可以看到,机会越大的解适应值也越大。

3 选择过程

选择过程是以popsize个扇区的旋转赌轮为基础的。赌轮上的刻度是按各染色体的适应值来划分的,染色体的适应值越大,则其在赌轮上所占的面积就越大,该染色体被选中的概率也就越大,每旋转一次都会为新的种群选择一个染色体。但是为了避免早熟现象,在这里,我们结合粒子群算法的优越性,首先选出最佳染色体0V。然后,令0q=0,对于各染色体Vi,令其累次概率为

我们在区间中随机产生一个实数。如果满足,则选择。重复上述过程,直至生成个新的染色体终止,于是我们得到一个新的种群。

4 交叉算子

首先给定交叉概率,则每次种群中平均有cp*popsize个染色体进行交叉操作。对各染色体我们随机产生[0,1]上的一个随机数p,若p

其中随机数c∈[0,1]。经过上述交叉操作,我们可以得到一个子代染色体。最后,我们可以用约束条件对它进行可行性检验。若该子代染色体满足约束条件,则用子代染色体替代原染色体,否则,

重新检验该子代染色体的可行性,若还是不满足越深条件,则重新产生新的随机数,再次进行交叉操作,直到新的可行染色体出现或者达到最大交叉上限,则停止。这样,我们几可以得到popsize个新的染色体Vi,i=1,2,⋅⋅⋅,popsize。

5 变异算子

变异操作是产生新染色体的辅助方法,但它决定了遗传算法的全局搜索能力,可以保证群体的多样性,防止早熟现象。同样给定一个变异概率Pm,并从区间上随机产生p∈(0,1),若p0(足够大),其中向量与染色体维数相同,则变异后的染色体X=V'+M×d。同理,我们对进行可行性和优越性检验。如果通过检验则用X替换掉V',否则,d=d/2,继续进行变异操作,直到用X替换掉V'或者达到最大变异次数,则停止变异并保留。这样,我们通过变异可以得到新的种群V i,i=1,2,⋅⋅⋅,popsize。

6 遗传算法步骤

步骤1:根据约束条件随机产生popsize个染色体,即种群。

步骤2:按照转盘赌原则,随机选取一个最佳父代染色体和其它popsize个父代染色体作为交叉种群(交叉种群不能包含最佳父代染色体)。

步骤3:对于每个父代染色体都以概率cp与最佳染色体进行交叉运算,即随机生成r∈(0,1),若r

步骤4:将所新得到的各子代染色体以概率mP进行变异操作,即随机生成r∈(0,1),若r

步骤5:更新父代染色体,即在子代染色体中,择优选取较好的染色体代替原来的父代染色体,作为下次交叉变异的父代染色体,并计算各自相应的适应值。

步骤6:重复步骤2—步骤5知道达到精度要求,或者达到约定的最大循环次数。

7 数值实验

7.1 实验模型

例1现运用遗传算法求解以下最大值问题,

对于这个问题,我们可以直接将解(x1,x2,x3)是为遗传迭代的染色体。显然染色体属于集合内

7.2 Matlab实验结果

运用Matlab软件来实现遗传算法,并设定相应的各参数如下:

最大交叉、最大变异次数、最大变异半径以及最大遗传迭代次数均设为1 000。利用Matlab7.6得到结果如下:

遗传迭代次数:i=135

最佳染色体:(x1,x2,x3)=(0.6332,0.3990,0.3058)

最优值:1.9805

显然这一结果要优于Liu[9]给出的遗传迭代400次的结果:

最佳染色体:(x1,x2,x3)=(0.636,0.395,0.307)

最优值:1.980

结果误差曲线图:2.3

其中横坐标为遗传迭代次数,纵坐标为每次迭代的误差取值。

8 结论3

本文按照最大熵原理,用粒子群算法代替了遗传算法的交叉算子,得到了一个应用更加广泛的改进遗传算法。最后的数值实验结果也表明,改进后的算法不管是在收敛速度还是精度上都明显优于原有的算法,说明该算法确实是有效可行的。实际上本文给出了一种判断算法优越性的新思路。

摘要:本文假设优化问题的最优解在整个解空间中服从均匀分布,并在此基础上,按照最大熵原则,最优解应该更加趋向于较优解。为了能够更快地搜索到最优解,用粒子群算法[1]代替了遗传算法的交叉算子。得到了一个应用更加广泛的改进遗传算法。最后的数值实验结果表明,改进后的算法不管是在收敛速度还是精度上都明显优于原有的算法,说明改进后的算法确实是有效可行的。

关键词:遗传算法,交叉算子,变异算子

参考文献

[1]胡辉.粒子群优化算法的VisualC++实现研究[J].科技广场,2008(5).

[2]Goldberg D E.Genetic Algorithms in Search,OptimizationandMachineLearning[M].MA:Addison-Wesley,1989.

[3]KozaJR.GeneticProgramming[M].Cambridge,MA:MIT Press,1992.

[4]KozaJR.GeneticProgrammingII[M].Cambridge,MA:MITPress,1994.

[5]Michalewicz Z.Genetic Algorithms+Data Structures=Evolution Programs[M].New York:Springer-Verlag,1996.

[6]YoshitomiY,IkemoueH,TakabaT.Geneticalgorithm in uncertain environments for solving stochastic programmingproblem[J].JournaloftheOperationsResearch SocietyofJapan,2000,43(2):266-290.

[7]邢文训,谢金星.现代优化计算方法[M].北京:清华大学出版社,1999.

[8]ZadehLA.Fuzzysetsasabasisforatheoryof possibility[J].FuzzySetsandSystems,1978,1:3-28.

改进的粒子群算法 篇5

基于粒子群优化算法的无人机航迹规划

提出一种基于粒子群优化算法的无人机路径规划方法,利用粒子群优化算法,将约束条件和搜索算法相结合,从而有效减小搜索空间,得到一条全局最优路径.仿真结果表明:该方法能够快速有效地完成规划任务,获得满意的三维航迹.

作 者:陈冬 周德云 冯琦 CHEN Dong ZHOU De-yun FENG Qi 作者单位:西北工业大学电子信息学院,西安,710072刊 名:弹箭与制导学报 PKU英文刊名:JOURNAL OF PROJECTILES, ROCKETS, MISSILES AND GUIDANCE年,卷(期):27(4)分类号:V279关键词:无人机 航迹规划 粒子群优化

改进的粒子群算法 篇6

关键词:计算机神经网络;粒子群优化算法;应用

中图分类号:TP183

粒子群优化算法是一种相对简单、有效的随机全局优化技术,通过对粒子群优化算法进行相应的改进,以此确保其收敛性,然后再将粒子群优化算法应用到神经网络的学习训练中,能够更有效的找出最优化解。粒子群优化算法和遗传算法相比,粒子群优化算法并没有遗传算法复杂的交叉、变异以及编码,而是对粒子所在解空间的具体位置进行搜索,不需要对众多的参数进行调整,其收敛速度相对较快。

1 粒子群优化算法的基本原理以及优化改进

1.1 粒子群吧优化算法的基本原理

PSO中,每一个优化问题的解都是搜集空间中的一个“粒子”的状态,粒子群优化算法是对群体的全局进行考虑,通过迭代搜寻选取最优值,通过将系统转化成一组随机的例子,由于例子在解空间追随最优的例子进行凑所,所以粒子群优化算法是一种具有全局寻优能力的优化工具。例子群优化算法的基本原理表现为:假设在一个D维的目标搜集中间中,由N个不同的粒子组成了一个特定的群体,其中第i个粒子表示成其在这个D维空间中的向量(xi),也就是该粒子在D为空间中的位置,每一个粒子的位置都存在一个特定的解,通过将xi带入到相应的目标函数中,通过适当的函数计算就能得到其适应度值,然后根据该xi适应度值的大小,以此衡量xi的优劣程度。其中,第i个粒子飞行的速度表示D维中的另一个向量,表示为vi,将在D维空间中搜索到的第i个粒子的最有位置记录为pi,则整个粒子群搜索到的最有位置pi的粒子群优化算法表现为:公式一:vi=ci+c1r1(pi-xi)+c2r2(pg-xi);公式二:vik+1=vik+c1×rand()×(pbest-xik)+c2×rand()×(gbest-xik);公式三:xi=xi+vi,其中i=1,2,…N;r1和r2为学习因子,rand()表示介于[0,1]之间的随机常数,c1和c2表示为非负常数。其中迭代的终止条件是根据选择的最大迭代次数决定的,表示的为第i个李在迄今为止搜索到的最优化位置应该满足的适应度的最小值。

从社会学角度方面来说,粒子群优化算法公式中的表示的是粒子的记忆项以及自身认知项,能够表示上次速度的方向以及大小对粒子造成的影响,还能够将当前的指向粒子当作自身的最优化矢量,以此表示粒子的动作来源于自身的经验,能够反映粒子之间的协同作用以及知识共享,粒子能够根据粒子群中相邻粒子的最好经验,然后再结合自身的经验,以此来决定自身的下一步运动,从而形成PSO的标准形式。

1.2 粒子群优化算法的改进

粒子群粒子群优化算法需要用户确定的参数相对较少,并且其操作相对简单,因此该种方法使用起来非常方便,但是,由于粒子群优化算法容易陷入局部极值点,导致搜索的收敛性相对较低,并且粒子群优化算法的收敛性分析已经收到众多学者的重视,因此,为了增强粒子群优化算法的收敛性,可以将抗体多样性保持机制引入到粒子群优化算法中,其步骤表现为:首先,确定参数值,记忆粒子个数M,即常数因子c1和c2粒子群的个数N,粒子的浓度概率选择阀值Pi,其随机产生的N个粒子xi的飞行速度表示为vi,以此计算粒子的适应度函数值;根据公式计算粒子的选择概率,将粒子群体中前M个最大适应度的粒子当作记忆细胞进行储存,将概率大于Pi的粒子根据相应的方法进行计算,从而把M个记忆细胞替换成适应度最差的M个粒子,以此形成全新的粒子群,最终判断其能付满足相应的选择条件,如果满足输出适应度值最好的要求,则选定该粒子。由此可见,通过上述的方法对粒子群优算法进行改进,能够保证粒子群优化算法的精确性,并且通过实践证明,经过改进后的粒子群优化算法,其计算机的仿真结果显示,该种粒子群优化算法的收敛速度明显优于没有改进的粒子群优化算法的收敛速度。

2 粒子群优化算法在计算机审计网络中的应用

计算机神经网络能够模拟大脑的思维能力,然后通过对各种数据进行分析,从而建立其相应的数学模型,计算机神经网络中除了包含许多处理器以外,还包含了许多与人脑神经相似的节点,这些节点按照一定的规律进行连接。如果将计算机神经网络中的每一个过程都细分为若干个微程序,并且将所有的微程序都交付于处理器进行处理,那么处理器处理所有的微程序的过程,就是一条微程序的处理流水线,这样计算机处理信息的速度也将会显著的提高。粒子群优化算法在计算机神经网络中的应用,包括的内容有组合优化、参数优化、神经网络训练、学习算法、网络拓扑结构和传递函数、链接权重等,通过把个体转化成微粒,其中包括计算机神经网络中的所有能够用到的参数,然后经过一些列的复杂、重复的程序,最终达到最终的训练目标。相对于传统的神经训练法来说,由于BP算法需要可微的函数以及梯度信息等大量的数据,只有通过大量的计算才能得到相应的训练结果,其运行难度较大、程序相对复杂,而采用离子群优化算法,其处理信息的速度显著的提升,能够有效的克服其运行效率低的问题。粒子群优化算法在计算机神经系统网络中的应用,主要表现在两个方面:其一,粒子区优化算法在参数优化中的应用,能够通过解决计算机神经网络中的各种离散型问题,从而进行参数优化;其二,粒子群优化算法在组合优化中的应用,其中典型的应用表现为其在工程经济问题中的应用,其能够通过将各种资源进行科学的组合,通过设置一定的约束条件对这些组合进行排序,通过不断的尝试最终能够找到最有效的解决方案,然后合理的利用所有的组合实现经济效益的最大化。此外,粒子群优化算法不仅能够应用在计算机神经网络中,还能够应用在更多的领域中,例如软件编辑、游戏开发、电力系统等领域中。

3 结束语

文章对计算机神经网络中粒子群优化算法的应用进行了研究,对粒子群优化算法进行了相应的改进,有效的提高了粒子群优化算法的收敛速度。将粒子群优化算法应用在计算机神经网络中,其操作相对简单,比较容易实现,并且其还能够更快的收敛于最优解,有效的克服了传统遗传算法缺点。因此,在计算机神经网络学习训练中,广泛的推广和应用粒子群优化算法具有很大的现实意义。

参考文献:

[1]丁玲,范平,闻彬.粒子群优化算法在计算机神经网络中的应用[J].理论与算法,2013(17):39-41.

[2]曹大有.一种免疫粒子群优化算法及在小波神经网络学习中的应用[J].计算机应用于软件,2009(06):189-192.

[3]刘爱军,杨育,李斐.混沌模拟退火粒子群优化算法研究及应用[J].浙江大学学报(工学版),2013(10):1722-1729.

[4]虞斌能,焦斌,顾幸生.改进协同粒子群优化算法及其在Flow Shop调度中的应用[J].华东理工大学学报(自然科学版),2009(03):468-474.

[5]刘宝宁,章卫国,李广文.一种改进的多目标粒子群优化算法[J].北京航空航天大学学报,2013(04):458-473.

作者简介:张小军(1980.01-),男,河南人,讲师,研究方向:云计算,数据挖掘,通信技术。

改进粒子群算法的应用研究 篇7

Kennedy和Eberhart于1995年提出了粒子群优化算法 (Particle Swarm Optimization, PSO) [1]。由于该算法描述简单、需要较少的调整参数, 具有较快的收敛速度等优点, 目前己在自适应控制、组合优化、模式识别、管理决策等领域得到了大范围的应用, 被证明是解决全局优化问题的有效方法之一。

随着研究的不断深入, 学者们也发现了粒子群算法在优化过程中存在的一些弊病。粒子群算法参数的选择对优化的结果会产生很大的影响, 参数选择的合适与否会导致收敛速度和精度不同。针对上面提出的问题, 学者们也作出了很多改进的措施, 通过实验表明, 改进后的算法大多取得了理想的效果, 随着对理论的深入研究以及工程领域的不断实践, 显示出了自身无比广阔的应用前景和研究价值[2]。

2 粒子群算法基本原理

标准粒子群优化算法的理论产生于对动物群体智能觅食行为的模拟。对于鸟群的捕食行为, 我们可以设置如下场面:一个鸟群在一个森林里随机地寻找食物, 但是这个森林里只有一个地方有食物。没有一个鸟知道这个有食物的地方的具体位置, 但是它们知道他们的位置与有食物地点之间的距离。怎么能找到这个地方?最简单的办法就是找到哪只鸟离这个有食物地点的距离最小。粒子群优化算法就是从这种问题中得到启发并且应用到优化问题中。

在粒子群优化算法中, 每一个需要优化的问题的可能解都是解空间中的一个“粒子”。每个粒子都会对应一个适应值, 这个适应值由适应函数计算得到, 适应值的优劣决定了粒子位置的好坏。寻优过程中每个粒子都有两个描述粒子状态的量, 即寻优的速度和当前的位置。每个粒子都会不断的去追踪当前位置最优的粒子, 从而不断地向最优位置移动。

在解空间中初始化一个具有M个粒子的粒子群体。在优化的过程中, 群中每个粒子的状态都通过两个N维向量表示出来, 即当前的位置和移动的速度, 记作:X= (X11, X12, …, X1M) 和V1= (V11, V12, …, V1M) 。前者为粒子自身到目前为止经过的最好位置, 表示粒子自身的搜索经验, 即个体极值Pk1, 记为P1= (P11, P12, …P1M) ;后者为当前所有粒子经过的最好位置, 表示其他粒子的搜索经验, 即全局极值PK, 记为P1= (P1, P2, …PM) 。每个粒子都要追踪这两个极值来更新搜索的速度, 从而更新自身的位置, 直至搜索到全局最优解。

3 改进粒子群算法

禁忌搜索算法的收敛效果较好, 但计算的结果很大程度上依赖于设定的初始解, 一个合适的初始解很有可能会帮助禁忌搜索算法快速地收敛, 并找到全局最优解, 而一个不恰当的初始值会很大程度地使算法的收敛速度降低, 收敛效果变差。介于此, 我们考虑运用其他智能优化算法进行前期的计算来求得一个较好的初始解, 从而来完善禁忌搜索算法的优化效果。粒子群优化算法计算到后期时收敛速度变得缓慢, 局部搜索能力差, 但是粒子群优化算法的操作简单、易于实现、全局搜索能力强。分析了两种算法的各自特点后, 本文在粒子群优化算法的后期加入局部寻优能力较强的禁忌搜索算法, 把两种算法融合在一起, 这样以来就解决了粒子群算法后期收敛难的问题。

4 仿真分析

本文利用Matlab编程, 采用下图所示的含DG的IEEE-33节点配电网系统进行仿真。其电网额定电压为12.66kV, 网络总负荷为3715.0kW+j2300.0kVar。在系统的7、17、19、29节点处接有DG。进行重构前, 支路7-20、8-14、11-21、17-32、24-28打开。

在分布式电源接入配电网时, 由于DG和节点上的负荷支路距离非常近, 所以支路7-33、17-36、19-34、29-35上的电阻与电抗忽略不计, 视为零计算;DG的注入功率按照负荷进行计算, 并标记符号为负。

经过重构后, 得到最优结果为打开开关6-7、8-9、13-1424-28、31-32。系统不接DG前的初始网损为203.55kW, 接入DG后系统网损降低到90.99kW, 与之前相比减少了55%, 可见DG的接入降低了网络损耗。

实验结果表明本文提出的改进方法较之基本粒子群算法对降低网络损耗和提高节点电压具有明显的效果。

摘要:粒子群优化算法是由Kennedy和Eberhart于1995年提出的一种基于智能的进化算法。目前, 在自适应控制、组合优化、人工生命、管理决策等领域得到了广泛的应用。本文在粒子群算法后期加入了禁忌表思想, 形成了改进粒子群算法, 并将改进后的粒子群算法应用于配电网重构问题。通过对含分布式电源的IEEE-33节点系统进行仿真, 结果表明分布式电源的接入能够提高节点电压, 降低网络损耗, 证明本文算法对含分布式电源的配电网重构问题具有良好效果。

关键词:粒子群算法,配电网重构,分布式电源

参考文献

[1]曾建潮.微粒群算法[M].北京:科学出版社, 2004.

一种改进的粒子群算法 篇8

1 改进粒子群优化算法

1.1 标准粒子群算法

设一个有N个粒子的种群在D维搜索空间中飞行。 种群中某个粒子i在第t代的位置为

粒子i迄今为止搜索到的体极值为

整个种群迄今为止搜索到的全局最优值为

标准粒子群算法中粒子i位置和速度的更新公式如下:

从 (5) , (6) 式可以看出: 速度更新公式由以下几部分决定粒子的速度: (1) 惯性权重 ω, 体现当前速度和上一时刻速度之间的关系; (2) 学习因子c1 也被称为加速度常量, 它反映了粒子飞行过程中自己的最好位置对自己本身飞行的影响也称为认知项, 决定粒子的搜索能力; (3) 学习因子c2, 是另外一个加速度常量, 它反映了整个种群记忆中的最好位置对粒子本身的影响, 体现粒子之间的信息共享能力, 又被称为社会学习系数[6]。

1.2 惯性权重概略

在粒子群算法的参数改进方面惯性权重是一个重要的参数, 它的大小决定了粒子对当前速度的继承程度, 它说明了当前的飞行速度和先前飞行速度的关系, 选择合适的惯性权重有利于平衡粒子的全局搜索能力和局部搜索能力。 当惯性权重较大时, 全局搜索能力强, 局部搜索能力弱, 当惯性权重小时, 全局搜索能力弱, 局部搜索能力强, 由于标准粒子群算法在搜索过程中惯性权重保持不变, 粒子不具有这种动态寻优的意识, 因此应当根据粒子在寻优过程中的动态特征, 使粒子前期具有较高的全局搜索能力以保证能较快寻得合适的位置, 而后期具有较高的开发能力, 加快收敛速度, 提高精度。 Shi和Eberhart的惯性权重线性递减策略在目前应用最为广泛, 但由于在这种策略下迭代初期全局搜索能力较强, 如果在初期搜索不到最好点, 那么随着 ω 的减少局部搜索能力加强就陷入局部最优。

1.3 改进粒子群算法主要思想

结合Shi和Eberhart提出的线性惯性权重策略中利用的迭代次数用以调整惯性权重的递减特点和粒子寻优过程的位置分布, 提出另外一种非线性动态的惯性权重方法, 更加科学地使得算法在进化初期 ω 的减小趋势缓慢, 全局搜索能力加强, 算法后期一旦找到合适的适应值可以使得算法的收敛速度加快, 在一定程度上减弱了典型线性策略的局限性。 由于算法前期粒子具有多样性, 一旦找到最优置, 粒子将通过群体的信息共享的方式朝当前最好位置的方向聚集收敛。 用某一时刻粒子与当前全局最优位置之间的欧式距离d达到给定的聚集精度r的粒子个数M来表示聚集的粒子数, 这里把它称之为佳粒子, 用当前聚集在最好位置范围内的佳粒子数M与总粒子数N的比值U表示在最好位置的范围内粒子的收敛程度, 具体表达式如下

为克服粒子惯性权重前期粒子可能聚集度高, 粒子陷入最优, 克服后期可能聚集度低, 收敛速度慢的特点综合考虑粒子的聚集度和考虑迭代次数的综合作用, 通过正规化的方式, 结合幂函数的特点, 进行粒子惯性权重的调整。 具体过程如下:

为得到控制权重的控制因子, 将涉及的影响因素表示成以下矩阵: (8) , 再通过列正规化和行正规化[7]得到影响因素的一个权重矩阵: (9) , 令k= (a1+b1) / (a1+b1+c1+d1) , 结合幂函数的图像变化规律, 对K进行操作得到控制因子z=kh (10) , 其中a1=M/N, b1=T/TMAX, c1= (N-M) /N, d1= (TMAX-T) /TMAX (11) 。

用z对提出的线性策略加以改进, 得到动态惯性权重表达式为ω=ωstart-z* (ωstart-ωend) (12) 。

以此惯性权重来更新速度。

1.4 算法流程

step1 设置相关参数, 初始化种群位置、 速度, 设置聚集精度r, 计算并初始化粒子的个体极值、 种群的全局最优值。

step2 根据某一时刻粒子的佳粒子数和当前的迭代次数等因素依次用 (7) 、 (8) 、 (9) 、 (10) 、 (11) 、 (12) 式子计算权重, 并根据式 (5) 、 式 (6) 更新粒子的速度位置, 计算粒子的适应值fitness, 更新粒子个体极值和种群全局最优值。

step3 是否满足最大迭代次数停止条件, 若是, 输出全局最优值, 停止迭代; 否则, 转向step 2。

2 实验仿真

为验证改进算法是否具有一定的优越性, 利用Matlab软件对改进后的算法进行编程, 并选取经典测试函数中比较有代表性的单峰函数Sphere函数和多峰函数Griewank函数对算法进行测试并与参数设置具有代表的标准粒子群算法作比较。由于标准测试函数都是经过精心设计和严格测试的, 如果某一优化算法能解决某一个标准测试问题则可以认为他在大量的问题上会有良好的表现[7]。

2.1 实验参数讨论和设置

算法中引入的开始时的惯性权重 ωstart和结束时的惯性权重end、 学习因子c1 和c2、 收敛于最优值周围的精度r对算法的性能有一定的影响。 通过多次实验比较, ω 设置为0.7298-0.4 的范围, c1 和c2 均采用值1.4962,

用测试函数sphere测试算法时, 将种群数设置为80, 维数设置为3, 上下限为[5, -5], 最大速度设置为Vmax=1.2, 控制因子k的次数设置为h=1。 迭代次数设置为50、 100、150、 200、 150、 500、 1000、 1500; 用Griewank函数测试算法时将种群设置为80, 维数设置为3, 上下限设置为[-5, 5] , 最大速度设置Vmax=1.2, 迭代次数设置为50、 100、150、 200、 150、 500、 1000、 1500, 控制因子k的次数设置为h=1。 运行次数均设置为20 次。

2.2 实验结果

(1) 函数对两种算法的测试结果

Sphere函数对两种算法的测试结果如表1, 表2 所示。

(2) Griewank函数对两种算法的测试结果, 如表3, 表4所示。

3 实验结果分析

从数据结果来看, 单峰函数Sphere函数测试的最优值在每次设置的迭代次数中改进后的算法都要明显优于标准算法, 而对多峰函数Griewank函数, 则在较少的迭代次数中效果要优于标准算法, 并且改进后的算法收敛的速度要快一些。 另外当维数变化时, 以及h的值取2, 4, 6, 8 等值时均能得到较好的结果。 通过利用粒子的聚集程度和迭代次数的结合对惯性权重进行动态改进, 平衡了固定惯性权重在搜索方面的不足, 通过实验结果分析, 改进后的粒子群算法在寻优方面比标准粒子群算法要具有一定的优越性。

参考文献

[1]郭文忠, 陈国龙.离散粒子群优化算法及其应用.北京:清华大学出版社, 2012.

[2]刘晶晶.粒子群优化算法的改进与应用.武汉理工大学, 硕士学位论文, 2007.

[3]王俊伟.粒子群优化算法的改进与应用.博士学位论文, 2006.

[4]徐生兵, 夏文杰, 冯继强.一种改进的粒子群优化算法[J].计算机与现代化, 2015, 3.

[5]杨华芬, 董德春, 杨丽华, 李丽.一种改进的粒子群优化算法[J].重庆师范大学学报, 2015, 32 (5) .

[6]沈显君.自适应粒子群优化算法及其应用.清华大学出版社, 2015.

[7]谭跃进, 等.系统工程原理.北京:科学出版社, 2010.

改进的粒子群算法 篇9

对约束广义预测控制问题, 求解带有约束的二次规划时, 由于约束优化问题常用的罚函数, 对函数和约束的特性要求较高, 很难解决复杂的约束优化问题[1]。为了提高广义预测控制的性能, 很多优化方法被用于求解约束广义预测控制。张强、李少远提出将遗传算法应用到广义预测控制中, 用遗传算法求解约束条件下的广义预测控制目标函数[2]。陈增强等将Tank-Hopfiled神经网络应用到求解约束预测控制中[3], 但是存在计算量大的问题。宋莹等将混沌优化算法应用到约束广义预测的滚动优化当中[4]。粒子群算法已经在许多优化问题中得到应用, 现将PSO-Powell结合算法引入到约束广义预测控制中。

粒子群算法 (PSO) 源于对鸟群觅食行为的研究, PSO实现简单、不要求目标函数和约束条件可微, 但是PSO的全局搜索能力较差[5,6]。Powell是对约束问题的一种直接搜索法, 它计算简单、具有快速收敛性, 但是对初始点的选择要求较严格。将PSO与Powell结合起来, 利用Powell的局部搜索能力, 提高PSO的收敛速度。将PSO-Powell应用到约束GPC中, 增强该算法在约束空间内的搜索能力。

1约束GPC问题的描述

在推导具有约束GPC时仍然用受控自回归积分滑动平均 (CARIMA) 模型来描述受随机干扰的对象:

式 (1) 中:A (z-1) =1+a1z-1+…+anaz-na;

差分因子Δ=1-z-1, u (k) 、y (k) 分别是系统输入和输出, d为滞后步数, 假设d=1;{ξ (k) }是一个不相关的随机序列。

考虑GPC的约束条件, 即控制量增量约束、控制量约束、输出约束。

控制量增量约束:

控制量约束:

输出约束:

引入丢番图方程1=Ej (z-1) AΔ+z-1Fj (z-1) 求得预测时域为N, 控制时域为Nu的预测模型可以写成

式中:

则k时刻满足上述约束条件的性能指标为

其中yr为参考轨迹;

约束GPC的滚动优化即为求得满足约束条件的情况下, 求得k时刻最优控制率ΔU=[Δu (k) , …, Δu (k+Nu-1) ]T, 使得性能指标J (k) 达到最小。

2基于PSO-Powell算法的约束GPC算法

对于上述约束GPC问题, 引入粒子群算法结合Powell算法来求取最优解。在该算法中约束GPC的二次性能指标作为粒子群算法的适应度函数进行滚动优化, 为了解决粒子群算法全局搜索能力弱, 易陷入局部最优值的缺点, 引入Powell算法帮助粒子群算法跳出局部最优值, 扩大粒子群在解空间的搜索能力[7]。该算法在处理约束时, 把GPC的约束条件和适应度函数一起判断滚动优化求得的最优解的好坏。

基于PSO-Powell算法的约束广义预测控制结构如图1所示。

2.1粒子群算法

该算法对约束广义预测的被控变量ΔU进行寻优, 故令粒子群的搜索空间维数为Nu, 第i个粒子的位置可表示成一个Nu维向量xi=[Δui (l) , Δui (l+1) , …, Δui (l+Nu+1) ]。

将广义预测的二次性能指标作为粒子群优化的适应度函数, 即fik (xi) =J (k) , 以此来对xi进行迭代更新。

在Nu维搜索空间中的第i个粒子的位置和速度分别为Xi= (xi1, xi2, …, xiNu) 和Vi= (vi1, vi2, …, viNu) , 在每一次迭代中, 粒子通过跟踪个体最优解pi和全局最优解pg, 更新公式如下

其中vid (l) 、xid (l) 分别为第i个粒子在第l次迭代中飞行速度和位置的第d维分量, pid是粒子i最好位置的第d维分量, pgd是群体最好位置的第d维分量;w惯性因子, c1和c2为正的学习因子, r1和r2为0到1之间均匀分布的随机数。

2.2约束处理

在粒子群的寻优过程中, 粒子的更新受适应度函数和约束条件的影响, 为了方便更新粒子, 对约束条件做如下处理:

将式 (2) —式 (4) 式全部转化为关于Δu的表达式:

将3个不等式合为一个, 取

将式 (9) 转化成不等式约束形式

其中A由Γ、G、γ组成, b是相应的约束向量[8]。

2.3粒子的可行性规则

假设pik为种群中第i个粒子在第k代的历史最优位置, xik+1为该粒子在第k+1代时所在的位置, 由粒子的适应度函数和约束条件给出了粒子的可行性规则:

2.4 Powell算法

为了防止粒子群优化求得的全局最优解pg陷入局部最小, 应用Powell算法对pg做二次搜索, 以求得全局最优解。

Powell求minfik (xi) 步骤如下:

1) 给定初始点pg (0) , n个线性无关的初始向量组{p0, p1, …pNu}0及精度ε>0, 置s=0;

2) 令h0=pgs, 依次沿{p0, p1, …pNu}s中的方向进行一维搜索:

3) 令pNu=hNu-h0, 若pNu≤ε, 停止迭代, 输出pgs+1=hNu, 否则转4) ;

4) 求出m, 使得

若下式成立

转5) , 否则转6) ;

5) 求解minfik (hNu-tpNu) , 设最优解为tNu, 令

同时令

6) 置s=s+1, 转2) ;

令pgs+1=hNu置s=s+1, 转2) ;

3仿真结果及分析

为仿真对象, 采样时间为5s。

约束条件为:-30≤u (k) ≤30;-10≤Δu (k) ≤

设噪声为[-0.1, 0.1]的均匀白噪声。仿真过程中取预测步长N=10, 控制步长Nu=2, 加权系数q=1、λ=0.8, 输出柔化系数α=0.2。微粒数m=40, 最大迭代次数M=500, 惯性权重ω=0.8, 学习因子c1=c2=2。Powell线性无关向量为[1, 0][0, 1]。使用基于PSO-Powell的约束GPC算法时的仿真曲线如图2所示, 经过对比可以得出, 由于约束的存在, 约束GPC的输出跟踪速度较无约束GPC慢, 但是控制量变化较小, 输出较为平稳且无超调, 有较好的控制效果。

4结论

基于PSO-Powell的约束GPC具有很强的全局搜索能力, 能够很好地在约束空间内搜索最优解。仿真结果可以看出该算法有效地提高了约束广义预测的性能, 但是仍需要进一步提高算法的运行速度。

摘要:提出了一种基于PSO-Powell算法的广义预测控制算法, 利用PSO与Powell进行二次搜索来求取广义预测控制的最优控制率。将PSO-Powell算法引入到广义预测控制的滚动优化过程中, 约束条件函数和适应度函数一起判断最优解的优劣。该算法可以有效地处理约束并找到全局最优解。最后通过仿真验证该方法的有效性。

关键词:广义预测控制,约束,粒子群,鲍威尔算法

参考文献

[1]席少霖.非线性最优化方法.北京:高等教育出版社, 1992:190—312

[2]张强, 李少远.基于遗传算法的约束广义预测控制.上海交通大学学报, 2004;38 (9) :1562—1566

[3]陈增强, 赵天航, 袁著祉.基于Tank-Hopfiled神经网络的有约束多变量广义预测控制器.控制理论与应用, 1998;15 (7) :847—852

[4]宋莹, 陈增强, 袁著祉.基于混沌优化的有约束广义预测控制器.工业仪表与自动化装置, 2006; (2) :3—5

[5]刘华蓥, 林玉娥, 王淑云.粒子群算法的改进及其在求解约束优化问题中的应用.吉林大学学报:理学版, 2005;43 (4) :472—473

[6] Fan Shu-Kai, Zahara S E.Ahybrid simplex search and particle swarmoptimization for unconstrained optimiz-Ation.European Journal of Op-erational Research, 2007;181 (2) :527—548

[7]刘国志, 苗晨.一个与Powell搜索相结合的混合免疫进化算法.江西师范大学学报, 2010;34 (1) :53—56

改进的小生境粒子群优化算法 篇10

小生境(Niche)是来自于生物学的一个概念,是指特定环境下的一种生存环境。生物在其进化过程中,一般总是与自己相同的物种生活在一起,共同繁衍后代,这些生物赖以生存的环境资源,称为小生境。人们把这种思想提炼出来,运用到优化算法中来。优化算法实现小生境的方法最早由Cavicchio于1970年提出,该方法叫做基于预选机制的小生境方法[1];1975年DeJong提出了基于排挤机制的小生境实现方法[2];Goldberg在1987年提出了基于共享机制的小生境实现方法[3]。随着研究的深入,越来越多的小生境实现方法被提出,小生境在优化算法中的应用也越来越广泛。文献[4]提出了小生境粒子群优化算法。在标准PSO算法中,种群中的粒子会不断向当前最优位置靠拢,算法迅速收敛,但同时种群的多样性也快速下降。在NPSO算法中,若某个粒子在连续几代的进化过程中,适应度值只有很细微的变化,那么该粒子和它的邻居将就会形成一个小生境粒子群,该粒子是这个小生境粒子群的中心。具体算法如下:

Step1:初始化主粒子群,并设置小生境的参数。

Step2:主粒子群中的粒子进行速度、位置和适应度值的更新。

Step3:对每个小生境粒子群中的粒子进行速度、位置和适应度值的更新。

Step4:根据小生境半径的设置,查看是否有需要合并的小生境粒子群。

Step5:查看主群中是否有粒子进入了小生境范围,若有,则将该粒子吸收进入小生境粒子群中。

Step6:搜索主群中是否有满足产生新的小生境的条件的粒子,若有满足条件的粒子,则建立以该粒子群为中心的新的小生境子粒子群。

Step7:返回至Step2,直到满足算法终止条件。

NPSO算法实现过程中,需要输入两个参数μ和δ ,μ是判断子群是否合并的阈值,δ是判断子群是否产生的阈值,算法的实现效果依赖于参数的设置。在文献[5]中,小生境子粒子群的合并依赖于参数μ,如果该参数的选择不合适,算法很容易将处在不同山峰上的两个小生境子群合并,造成寻优效率下降;在文献[4]中,新的小生境子群的产生依赖于给定的 参数δ,不同的参 数其算法 性能也不同,算法需要先验知识才能保持其稳定性。

2改进的小生境粒子群优化算法

在NPSO进化过程中,需要根据参数μ和δ的设定进行。若有一种简单的方法能够判断两个粒子是否在同一个山峰上,此方法可以大大提高NPSO算法的收敛速度和收敛性能,也可以避免算法过于依赖参数设置。文献[6]设计了一个hill-valley函数,能够判别搜索空间的任意两点是否在同一个山峰上。将此函数应用到遗传算法上可求解多峰值问题,本文将此函数与NPSO算法相结合,进行多峰函数的求解。

设搜索空间的任意两点e1和e2,hill-valley(e1,e2)为判断e1和e2是否在同一山峰上的函数,若e1和e2不存在适应度值同时小于e1和e2适应度值的内点,则e1和e2在同一个山峰上,hill-valley函数的返 回值为0,否则hillvalley函数的返回值为非0值,则e1和e2不在同一个山峰上。e1和e2之间的内点由抽样向量samples确定:

其中,j=1,…,L,L是抽样向量samples的长度,本文中L的取值为5。

一维hill-valley函数如图1所示,图中e1、e2之间的内点i1、i2的适应度值均大于e1和e2的适应度值,不存在适应度值小于该两点的内点,判定e1和e2在同一个山峰;图中e3和e4之间的内点i3、i4、i5、i3的适应度值大于e3和e4的适应度值,而i4、i5的适应度值小于e3和e4的,故e3和e4 不在同一 座山峰上。 将上述hill-valley函数应用 到NPSO算法中,解决NPSO算法依赖参数设置的弊端,新算法称为改进的小生境粒子群优化算法(ImprovedNicheParticleSwarmOptimization,INPSO)。算法具体 实现如下:

Step1:参数设置及主粒子群的初始化,主粒子群以认知模型进行更新。

Step2:判断主粒子群中的每一个粒子xi是否为潜在的最优解,如果是,则产生一个以xi为中心的小生境子粒子群。判断最优解时,设粒子xi的适应度值变化为σi,在算法进化过程中若在连续几代(本算法中设置是5代)内均满足σi <δ(δ设定的一个很小的阈值),则产生新的小生境子群。

Step3:对每一个子群中的粒子进行迭代。

Step4:对所有子群进行合并操作,当任意两个子群的最优粒在同一个山峰时,合并这两个子群。假设子群Di(i≥1)的最优粒子xm,子群Dj(j≥1)的最优粒子xn处于同一山峰时,即hill-valley(xm,xn)=0时,合并两个子群。合并后的子群粒子数目变大,保留适应度值较好的R个粒子,其余粒子移到主粒子群中。

Step5:对每个子群进行吸收粒子的操作,主群中的粒子xm移动到小生境的Di(i≥1)范围内,即对于任意xm∈Di都有hill-valley(xm,xn)=0,且Di中的粒子 数目小于R,则粒子xm被吸收到小生境子粒子Di中,若Di中的粒子数目等于R,用xm替换Di中适应度值最小的粒子。

Step6:判断是否满足终止条件,若不满足转到Step2。

3实验分析

为了验证INPSO算法的有效性,针对3个典型的多峰函数做了两组实验,第一组实验测试算法能否搜索到多峰函数的所有山峰;第二组实验测试算法的精度。测试函数如下:

(1)f1(x)=xsin(10πx)+2.0,x∈ (-1,2)。该函数具有17的局部最大值,这些峰值大小不等,间隔相等,当x =1.850549时,函数有全局最大值[7]为3.850274。

函数具有19个局部极大值,当x=-7.0835、-0.8003、5.4829时,函数有3个全局最大值:14.508008。

(3)f3(x,y)=cos(x)2+sin(y)2,x∈ (-5,5),y∈(-5,5)。函数具有12个局部极大值2。

测试中的参数设置 为:迭代次数50,惯性权重 ω =0.729 ,学习因子c1=c2 =1.49,实验结果为30次独立实验的平均值。

第一组实验是为了验证新算法的有效性,函数f1和f2 的初始种群规模为100,函数f3的初始种群规模为80。

3个函数运行的结果如图2所示,其结果是30次运行结果的平均值。图中星星表示粒子,a、b、c图是函数的图形表示,d、e、f图是小生境子群中最优粒子在图形中的位置。d图是函数f1的运行结果,基本上最优的粒子都爬到了山峰的顶端。e是函数f2的运行结果,所有的峰值都有粒子。f1 和f2是的维度是一维,函数f3的维度设定为二维。f图是函数f3的俯视效果图,图上的白色星星表示粒子。从图形上可以看出粒子处在山峰的顶端位置,本算法能够找到所有的峰值。因此,本算法对多元函数仍然适用。

第二组实验是为了验证新算法的有效性,将本文所得测试结果与NPSO算法[8]所得结果进行对比分析。参数的设置和第一组实验中的参数设置基本相同,个别参数设置如表1所示。本文INPSO算法不需要设置参数,是否合并两个子群由hill-valley判断两个子群中的最优粒子是否在同一山峰上实现。两种算法的实验对比结果如表2所示。

从实验结果可知,本文提出的INPSO与文献[8]提出的NPSO算法在一维函数f1和f2上都得到了较好的结果,收敛率是100,而在二维函数运行上INPSO算法每次都能搜索到函数的全部峰值,而NPSO算法只有26次找到全部峰值,收敛率87%。另外,INPSO算法搜索到每个峰值的平均位置偏差要比NPSO算法要小,说明本文提出的INPSO算法的精确度高于NPSO算法。

4结语

本文引入一个函数判断两个粒子是否在同一座山峰上,克服了NPSO算法需要输入两个参数的弊端。通过对3个典型函数的优化实验可以看出,本文所提出的算法能够找到多峰函数的所有峰值,并且在平均偏离度和收敛率上都优于NPSO方法,是一种有潜力的优化方法。改进后的小生境粒子群算法有更强的全局搜索能力和更高的收敛速度,能够高效地寻找到多个全局最优值是一种寻优能力、效率和可靠性更高的优化算法,其综合性能比基本NPSO算法有显著提高。

摘要:传统的小生境粒子群优化算法(NPSO)需要两个参数的输入,一个是判断子群合并的阈值,另一个是子群产生的阈值。参数设置的不当,将直接影响计算结果。引入一个函数判断两个点是否在同一座山峰上,以克服NPSO算法需要输入参数的弊端。在程序运行时,无须严格限定小生境的半径,也不需太多的先验知识。实验结果证明,该算法合理有效,能够能快速有效地找到多峰函数的全局最优点。

改进的粒子群算法 篇11

[关键词] MAX-MIN蚁群算法时间窗车辆路径问题优化

一、VRPTW模型的建立

带有时间窗口的车辆路径问题是典型的多目标组合优化NP-hard问题,因此需要通过合理的构造数学模型来安排车辆配送路线,达到提高配送效率同时又能够产生巨大的社会和经济效益的目的。

VRPTW包括一些客户和仓库,每个客户有一定的需求和时间窗口。每个客户只能由一辆车一次服务完成,还要保证每个客户只能被精确的访问一次,同时不能违背时间窗口约束。其目的是要找到一个可行解使得车辆数最少并且总行程最小。

二、最大最小蚁群算法

为克服在Ant.Q中可能出现的停滞现象,Thomas Stutzle等提出了MMAS算法。该算法具有比基本蚁群算法更贪婪的搜索模式,其主要的改进有以下几点:首先,MMAS在运行期间更多的利用最优解信息,即每次迭代后仅允许一只最优的蚂蚁增加信息素。其次,该算法限定了信息素浓度的上下限,有效避免了在搜索中过早收敛于非全局最优解。

将m只蚂蚁随机放到n个客户中,为t时刻支路(i,j)上的信息素强度,每只蚂蚁都可认为是根据状态转移策略来选择下一个客户,并遵循信息素全局更新规则和信息素限制规则。

1.状态转移策略

针对VRPTW自身的特点,我们定义其状态转移概率为:

其中h∈allowedk={n-tabuk};ηij为启发信息;α(α≥0)代表信息素的权重,β(β≥0)代表启发信息的权重;μij=di0+dj0-dij为节约值; δij为紧迫性因子。

2.信息素更新规则

在MMAS中,只允许其中的最优路径更新信息素,其更新规则为:

其中,为该次迭代sib或全局最优路径sgb的目标函数。

3.信息素限制规则

为了降低算法搜索中的早期停滞问题,该算法限定了信息素浓度允许值的上下限,即

。若,则;若,则。

在搜索过程中,当得到最优解时,按下式便得到一个动态变化的:

为了提高算法的收敛性,我们一般先给定一个Pbest,然后根据下式来选定一个 :

三、算例分析及结论

设某仓库使用完全相同的车辆把货物运往8个客户,车辆的载重能力为8吨,车速为50公里每小时,客户所需货物的重量,服务时间及访问时间窗口的具体要求由Tab.1给出。客户之间的距离如Tab.2所示。问题是寻找合适的路径,使得车辆运行总成本最小。

实验开始,将每个客户都放置一只蚂蚁,蚂蚁的个数与客户数相同。取α=1,β=3,γ=3,λ=1,ρ=0.8,θ=10。采用本文的算法,得到的最优解为:第一辆车:0-2-7-4-0;第二辆车:0-3-1-0;第三辆车:0-8-5-6-0。

将求解的结果与Clarke-Wright算法和遗传算法比较,从Tab.3中可以看出MMAS不失为带时间窗车辆路径问题的一个较优解。

四、结语

本文将MMAS算法应用于VRPTW问题中,充分发挥了其超强的贪婪搜索能力,获得了较为满意的实验效果。这次成功尝试再次表明了该算法在组合优化领域中是具有强大竞争力的,同时也证明了用这种方法解决具有一定的理论参考价值和实际意义。

参考文献:

[1]吴启迪汪 镭:智能蚁群算法及应用[M].上海科技出版社,2004,4

[2]刘云忠宣慧玉:动态蚁群算法在带时间窗车辆路径问题中的应用[J].中国科学工程,2005,12(7):35-40

基于质心的改进型粒子群优化算法 篇12

粒子群优化(PSO)算法是一种模拟鸟类群体觅食行为的优化算法。该算法是由 Kennedy和 Eberhart[1] 于 1995年提出的一种优化算法。PSO算法的运行机理不是依靠个体的自然进化规律,而是对生物群体的社会行为进行模拟,通过对类似生物群体的行为的研究[2],发现生物群体中存在着一种社会信息共享机制,它为群体的进化提供了一种优势[3,4],这也是 PSO算法形成的基础。由于算法参数较少,易于实现,且能够较有效地解决复杂优化问题的特点,PSO算法已经被广泛用于很多优化问题上。

PSO算法由于种群的多样性,使其收敛性随着迭代的次数增加而快速下降,由于它的过早的收敛性很容易陷入局部极值,使得种群局部收敛速度变慢和种群进化停滞不前。该算法一经提出,越来越多的研究人员就开始针对基本PSO参数的选择、位置的变化、粒子的速度[4]或其他优化算法[5]来研究PSO的特点和其收敛性的改进[6]。例如文献[7]引入了基因换位和变异算子,文献[8]引入了牛顿法、最速下降法来对PSO算法进行优化。现通过对社会群体的智能行为和基于质心[9]的粒子群算法的研究,提出了一种新的基于质心的改进型粒子群优化算法模型(CPSO)。仿真实验结果表明,该算法的收敛速度和全局收敛性要优于PSO和改进型PSO(AF-PSO[10])。

1 基本PSO算法

PSO首先初始化为一组随机粒子群,每个粒子都有自己的位置矢量xi(i=1,2,…,M),速度矢量vj(j=1,2,…,M)和一个用于衡量粒子位置质量的参数值w,粒子根据自己及种群的搜索经验来调整自己的搜索方向,从而不断地改变自己的矢量值,为下一次迭代搜索的位置和方向做好准备,每个粒子在搜索过程所经历过的最好位置,就是粒子本身找到的最优解,整个种群找到的最好位置,就是整个种群目前找到的最优解。前者叫做个体最优解pi,后者叫做全局最优解pg。这样,粒子通过个体最优和全局最优指引自己不断地调整位置,从而产生新一代群体。粒子速度和位置矢量更新的公式如下

νijt+1=wνijt+c1ξ1(pij-xijt)+c2ξ2(pgi-xijt)(1)xijt+1=xijt+νijt+1(2)

其中,Xi=(xi1,xi2,…,xin)为第i个粒子的当前位置,Vi=(vi1,vi2,…,vin)为第i个粒子的当前搜索速度,pipg分别为第i个粒子找到的最优位置和所有粒子的最好位置,t=1,2,…,为迭代的次数,w是惯性权重,其大小决定对粒子当前速度继承的多少;c1和c2是学习因子或加速系数,一般是正常数;ξ1,ξ2为两个相互独立的[0,1]区间中均匀分布的随机数。从式(1)可以看出粒子通过最初的位置和速度来提供飞行动力,在飞行中不断根据自身及同伴的新发现的最优位置和速度来调整自己,引导粒子飞向粒子群中的最好位置。

2 改进后的PSO算法

在基本PSO算法中,由于每个粒子在搜索时依靠的是自己和种群的经验,粒子之间缺乏合作和信息共享,使得大多数粒子将快速地向某一特定的区域搜索,最终陷入局部最优解中。现提出的基于质心的粒子群优化算法(CPSO)将通过提高粒子之间的合作和信息共享来避免粒子陷入局部最优解中。

假定pi是第i个粒子xi的最优解,M是种群规模,xctpct分别是种群中粒子的质心和粒子第t次迭代产生的个体最优质心,定义如下

sum1=i=1Μxit,xct=sum1/Μ(3)sum2=i=1Μpi,pct=sum2/Μ(4)

把式(3)和式(4)代入式(1)得到

vijt+1=wvijt+c1ξ1(pij-xijt)+c2ξ2(pgj-xijt)+

c3ξ3(α×xcjt+(1-α)pcjt-xijt) (5)

式(5)中α是[0,1]区间的一个常数,称为权重调节因子;c1和c2、c3是学习因子或加速系数,ξ3是[0,1]区间中均匀分布的随机数。

由式(5)和式(2)组成了基于质心的粒子群优化算法模型(CPSO)。新的算法表明种群中的每个粒子在搜索时不仅和个体最优解和全局最优解有关,而且还得依靠其他粒子的个体最优解和全局最优解,有效地提高了粒子之间的合作和信息共享能力,使整个PSO性能得到很大提高,在更新粒子的速度和位置过程中,限定粒子的搜索空间,对每一维的粒子xi都限制在[0,N]中,N为搜索区域边长。速度vij都限制在[-vmax,vmax]之间,使得粒子在飞行过程中速度始终在该范围内,不至于因为速度过快或过慢而飞离最优解或陷入局部最优解中。

CPSO算法实现流程如下:

(1) 在整个搜索范围内初始化所有的粒子;

(2) 计算每个粒子的适应值,并更新全局最优解;

(3) 根据粒子搜索的聚集度来决定是否要重新初始化粒子;

(4) 设定pipg:对每一个粒子比较其目前的最优解和历史最优解以及种群中的最优解,用当前粒子的最优解替换pi,用当前的种群最优解替换pg;

(5) 根据式(5)和式(2)来更新粒子的速度和位置;

(6) 如果搜索没有达到一个满意的解或一个预设的最大迭代数,返回步骤2;否则,停止迭代,输出结果。

3 仿真实验结果分析

为了证明CPSO算法的有效性,实验使用4个Benchmark函数来测试比较CPSO算法和基本PSO算法及其它改进型算法的实验结果。

(1) Ackley 函数,函数在搜索空间中存在很多局部极小值点,当 xi=0时达到全局最小值0。

f(x)=-20exp[-0.21ni=1nxi2-exp(1ni=1ncos(2πxi))]+20+e

-32≤xi≤32 (6)

(2) Rastrigrin 函数,函数在搜索空间中存在大量正弦凸起的局部极小值点,当xi= 0时达到全局最小值0。

f(x)=i=1n[xi2-10cos(2πxi)+10];

-5.12≤xi≤5.12 (7)

(3) Rosenbrock 函数,函数在(1,1)处有一个全局最小值0。

f(x)=i=1n[100(xi+1-xi2)2+(xi-1)2];

-30≤x2≤30 (8)

(4) Schaffer函数,函数全局最大点在(0,0)处,而在距离全局最大点3.14的范围内,有无限个次全局最大点。

f(x1,x2)=0.5+sin2x12+x22-0.51+0.001(x12+x22)-100xi100(9)

PSO,AF-PSO,CPSO(α=0.0, 0.5, 1.1)被分别运行50次,PSO和AF-PSO两算法共同参数设置相同,即种群规模设置为60,学习因子c1=c2=2.0,CPSO的学习因子c1=c2=c3=1.4,惯性权重w取值为从0.9到0.4线性递减,其他参数参照表1所列,3种算法的实验比较结果如表2所列。

从100个粒子中随机抽取50个粒子计算出粒子和其质心的位置以及粒子和其质心的距离偏差分别如图1、图2所示。从图中可以发现在一定速度范围内,合理利用质心迭代更新粒子的速度可以使粒子快速合理地向全局最优解飞行,很大程度上提高了算法的收敛性。

从表2可以清楚地看到,CPSO算法的求解速度和精度要优于其它两种算法,而且从均方差和求解成功率上来看,CPSO算法也要优于其他两种算法,平均求解成功率几乎都是100%。CPSO通过粒子内部之间合作和信息共享能有效地避免陷入局部最优解中,从而获得全局最优解。值得注意的是,对于不同的测试函数算法PSO、AF-PSO、CPSO表现出一定的差异性,以Ackley函数为例,见图3,可以看出,CPSO算法具有比PSO和AF-PSO更高的收敛性,CPSO通过粒子内部之间合作和信息共享能有效地避免陷入局部最优解中,从而快速地获得全局最优解,但其寻优结果比AF-PSO要差,原因是CPSO采用了质心提高了寻优速度,但难以保证达到最小值点。

4 结论

为了避免陷入局部最优解和有效地提高基本PSO的优化性能,提出了一种基于质心的新的粒子群优化模型(CPSO),其搜索最优解的能力得到很大提高,因为提高了粒子之间的合作和信息共享,从而大大降低了陷入局部最优解的概率。仿真实验结果证明该算法模型具有快速收敛速度和较高的全局收敛能力。如何使该算法在更广泛的领域里得到应用, 并且通过新的优化技术来提高该算法的性能将是下一步研究的重点。

参考文献

[1]Eberhart R C,Kennedy J.A new optimizer using particle swarm theo-ry.Proceedings of the 6th International Symposium on Micromachineand Human Science,Nagoya,Japan,1995:39-43

[2]邓璐娟,林楠,卢华琦,等.基于改进粒子群算法的测试数据自动生成研究.计算机测量与控制,2011;19(2):250-252

[3]Wilson E O.Sociobiology:the new synthesis.MA:BelknapPress,1975

[4]Jin Xinlei,Ma Longhua,Wu Tiejun.Convergence analysis of theparticle swarm optimization based on stochastic processes.ZidonghuaXuebao/Acta Automatica Sinica,2007;33(12):1263-1268

[5]Monson C K,Sepp K D.The Kalman swarm--a new app roach toparticle motion in swarm optimization.Proceedings of the Genetic andEvolutionary Computation Conference.Springer,2004:140-150

[6]Shelokar P S,Patrick S,Jayaraman V K.Particle swarm and ant col-ony algorithms hybridized for improved continuous optimization.Ap-plied Mathematics and Computation,2007;188(n1):129-142

[7]朱冰,齐名军.混合粒子群优化算法.计算机工程与应用,2012;48(9):47-50

[8]殷脂,叶春明,温蜜.结合局部优化算法的改进粒子群算法研究.计算机工程与应用,2011;47(9):51-53

[9]汪永生,李均利.质心粒子群优化算法.计算机工程与应用,2011;47(3):34-37

上一篇:电话号码管理系统下一篇:学生科学记录能力培养