当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

【机器学习】依概率收敛的改进粒子群优化算法

资源类别:文库,文档格式:PDF,文档页数:8,文件大小:1.79MB,团购合买
点击下载完整版文档(PDF)

第12卷第4期 智能系统学报 Vol.12 No.4 2017年8月 CAAI Transactions on Intelligent Systems Aug.2017 D0I:10.11992/is.201610004 网s络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.tp.20170407.1744.008.html 依概率收敛的改进粒子群优化算法 钱伟懿,李明 (渤海大学数理学院,辽宁锦州121013) 摘要:粒子群优化算法是一种随机优化算法,但它不依概率1收敛到全局最优解。因此提出一种新的依概率收敛 的粒子群优化算法。在该算法中,首先引入了具有探索和开发能力的两个变异算子,并依一定概率对粒子当前最好 位置应用这两个算子,然后证明了该算法是依概率1收敛到ε最优解。最后,把该算法应用到13个典型的测试函数 中,并与其他粒子群优化算法比较,数值结果表明所给出的算法能够提高求解精度和收敛速度。 关键词:粒子群优化算法:随机优化算法:变异算子:依概率收敛:全局优化:进化计算:启发式算法:高斯分布 中图分类号:TP301.6文献标志码:A文章编号:1673-4785(2017)04-0511-08 中文引用格式:钱伟懿,李明.依概率收敛的改进粒子群优化算法[J].智能系统学报,2017,12(4):511-518. 英文引用格式:QIAN Weiyi,LI Ming..mproved particle swarm optimization algorithmwith probability convergence[J].CAAI transactions on intelligent systems,2017,12(4):511-518. Improved particle swarm optimization algorithm with probability convergence QIAN Weiyi,LI Ming (College of Mathematics and Physics,Bohai University,Jinzhou 121013,China) Abstract:The particle swarm optimization (PSO)algorithm is a stochastic optimization algorithm that does not converge to a global optimal solution on the basis of probability 1.In this paper,we present a new probability-based convergent PSO algorithm that introduces two mutation operators with exploration and exploitation abilities,which are applied to the previous best position of a particle with a certain probability.This algorithm converges to the- optimum solution on the basis of probability 1.We applied the proposed algorithm in 13 typical test functions and compared its performance with that of other PSO algorithms.Our numerical results show that the proposed algorithm can improve solution precision and convergence speed. Keywords:particle swarm optimization;stochastic optimization algorithm;mutation operator;probability convergence;global optimization;evolutionary computation;heuristic algorithm;Gaussian distribution 粒子群优化算法是Kennedy等)在1995年提 结合1):3)在PS0算法引入一些改进PS0算法性 出的一种群体搜索的随机优化算法。由于PSO算 能的其他算子,比如,把高斯扰动策略加入粒子群 法的参数少而且易操作,所以在实际问题中得到了 优化算法中[,把均匀设计方法引入到粒子群优化 广泛的应用。对PSO算法的研究主要有以下几个 算法中),把变异策略)、精英策略1)、局部搜索 方面:1)对PS0算法自身参数的改进,这方面的工 策略[20]及邻域搜索策略[21]引入到粒子群优化算法 作主要关于惯性权重的自适应改进2-)和对学习因 中:4)PS0算法的理论分析,比如,基于线性系统理 子的改进9-川;2)将其他进化算法与PS0相结合, 论研究PS0收敛性2-2],基于随机过程研究PS0 比如,遗传算法与PS0算法结合2-),差分进化算 收敛性[2),但是粒子群算法不依概率收敛[2。本 法与PS0算法结合[14,模拟退火算法与PS0算法 文给出了一种依概率1收敛的PS0算法,该算法在 标准粒子群优化算法实施位置更新后按一定概率 收稿日期:2016-10-05.网络出版日期:2017-04-07. 对较好的粒子实施具有开发能力的变异操作,对较 基金项目:国家自然科学基金项目(11371071):辽宁省数育厅科学研究 差的粒子实施具有探索能力的变异操作,从而平衡 项目(L2013426). 通信作者:钱伟懿.E-mail:qianweiyi2008@163.com. 了算法的全局搜索能力和局部搜索能力,提高了算

第 12 卷第 4 期 智 能 系 统 学 报 Vol.12 №.4 2017 年 8 月 CAAI Transactions on Intelligent Systems Aug. 2017 DOI:10.11992 / tis.201610004 网络出版地址:http: / / kns.cnki.net / kcms/ detail / 23.1538.tp.20170407.1744.008.html 依概率收敛的改进粒子群优化算法 钱伟懿,李明 (渤海大学 数理学院,辽宁 锦州 121013) 摘 要:粒子群优化算法是一种随机优化算法,但它不依概率 1 收敛到全局最优解。 因此提出一种新的依概率收敛 的粒子群优化算法。 在该算法中,首先引入了具有探索和开发能力的两个变异算子,并依一定概率对粒子当前最好 位置应用这两个算子,然后证明了该算法是依概率 1 收敛到 ε⁃最优解。 最后,把该算法应用到 13 个典型的测试函数 中,并与其他粒子群优化算法比较,数值结果表明所给出的算法能够提高求解精度和收敛速度。 关键词:粒子群优化算法;随机优化算法;变异算子;依概率收敛;全局优化;进化计算;启发式算法;高斯分布 中图分类号:TP301.6 文献标志码:A 文章编号:1673-4785(2017)04-0511-08 中文引用格式:钱伟懿,李明.依概率收敛的改进粒子群优化算法[J]. 智能系统学报, 2017, 12(4): 511-518. 英文引用格式:QIAN Weiyi,LI Ming. Improved particle swarm optimization algorithmwith probability convergence [ J]. CAAI transactions on intelligent systems, 2017, 12(4): 511-518. Improved particle swarm optimization algorithm with probability convergence QIAN Weiyi, LI Ming (College of Mathematics and Physics, Bohai University, Jinzhou 121013, China) Abstract:The particle swarm optimization ( PSO) algorithm is a stochastic optimization algorithm that does not converge to a global optimal solution on the basis of probability 1. In this paper, we present a new probability⁃based convergent PSO algorithm that introduces two mutation operators with exploration and exploitation abilities, which are applied to the previous best position of a particle with a certain probability. This algorithm converges to the⁃ optimum solution on the basis of probability 1.We applied the proposed algorithm in 13 typical test functions and compared its performance with that of other PSO algorithms. Our numerical results show that the proposed algorithm can improve solution precision and convergence speed. Keywords: particle swarm optimization; stochastic optimization algorithm; mutation operator; probability convergence; global optimization; evolutionary computation; heuristic algorithm; Gaussian distribution 收稿日期:2016-10-05. 网络出版日期:2017-04-07. 基金项目:国家自然科学基金项目(11371071);辽宁省教育厅科学研究 项目(L2013426). 通信作者:钱伟懿. E⁃mail:qianweiyi2008@ 163.com. 粒子群优化算法是 Kennedy 等[1] 在 1995 年提 出的一种群体搜索的随机优化算法。 由于 PSO 算 法的参数少而且易操作,所以在实际问题中得到了 广泛的应用。 对 PSO 算法的研究主要有以下几个 方面:1)对 PSO 算法自身参数的改进,这方面的工 作主要关于惯性权重的自适应改进[2-9] 和对学习因 子的改进[9-11] ;2)将其他进化算法与 PSO 相结合, 比如,遗传算法与 PSO 算法结合[12-13] ,差分进化算 法与 PSO 算法结合[14] ,模拟退火算法与 PSO 算法 结合[15] ;3)在 PSO 算法引入一些改进 PSO 算法性 能的其他算子,比如,把高斯扰动策略加入粒子群 优化算法中[16] ,把均匀设计方法引入到粒子群优化 算法中[17] ,把变异策略[18] 、精英策略[19] 、局部搜索 策略[20]及邻域搜索策略[21] 引入到粒子群优化算法 中;4)PSO 算法的理论分析,比如,基于线性系统理 论研究 PSO 收敛性[22-25] ,基于随机过程研究 PSO 收敛性[26] ,但是粒子群算法不依概率收敛[26] 。 本 文给出了一种依概率 1 收敛的 PSO 算法,该算法在 标准粒子群优化算法实施位置更新后按一定概率 对较好的粒子实施具有开发能力的变异操作,对较 差的粒子实施具有探索能力的变异操作,从而平衡 了算法的全局搜索能力和局部搜索能力,提高了算

.512. 智能系统学报 第12卷 法的效率,另外,证明了该算法依概率1收敛到ε- P实施式(4)或式(5)的变异操作,即当f(P)≤∫ 最优解。实验结果表明,提出的算法能够提高全局 时,对P按概率μ实施式(5)的变异操作,当f(P)> 搜索能力,算法的收敛速度明显加快。 f时,对P按概率u实施式(4)的变异操作,其中 Ne 1标准PS0算法 ), (7) 标准粒子群算法中,粒子群由N。个粒子组成, [(-(P)) 在时刻k,第i个粒子在d维空间中速度和位置的更 fs-f(P) f(P)≤fe 新公式为 u= (8) a(f(Pi)-fv) v=ovi cir(pi -xia)+car2(pa -x) fu -fave f(P)>fv (1) 城=x始+城 式中:f=max{f(P)},a是一个自适应参数,它 (2) 1iN 式中:i=1,2,…,N。,d=1,2,…,D,D为决策变量的 被定义为 维数,ω为惯性权重,x=(x始,x点,…,x0)表示粒子i a=1-0.8 (9) 的当前的位置;=(,哈,…,)是粒子i的当前 由式(8)知,对适应值较好的粒子实施局部搜 的速度;P=(p哈,p哈,…,P)是粒子i当前最优位 索的概率较大,而对适应值较差的粒子实施全局搜 置,P=(p,P点,…,P)是全局最优位置;c1、2是 索的概率较大。由于当算法迭代到后期,粒子比较 加速度因子,12是0~1之间的随机数。第k次迭 代的惯性权重表示为 集中,从而导致-或)-接近1,若a -可或 fef(p)fa-fe =(@stan -@end (3) 大,那么实施式(4)或式(5)的变异操作的粒子较 多,从而导致算法运算时间长,因此按式(9)实行单 式中:wat、w分别为最初和最终的惯性权重,K 调递减策略。 是最大迭代步。 位置与速度越界处理: 2 改进的PSO算法 , 儿≤站≤山 la+rand()·(u4-la), 其他 提高PS0算法性能的有效方法之一就是平衡 (10) 算法的探索能力和开发能力。我们的目的是对粒 子所经历的最好位置进行操作,一方面能够使其跳 站,n≤话≤ 出局部最优;另一方面使其具有一定的局部搜索能 =min' 姑11和P2>1是常数,N(0,o2)是具有时变标 计算各粒子的适应度,确定每个粒子的经历过的最 准差σ的高斯分布的随机变量,σ表示为 优位置及全局最优位置,令k=1: 00--小 2)按式(3)计算惯性权重,并按式(1)和式(2) (6) 进行速度与位置更新: 式中:0m和σ是标准差σ的最终和初始值,k是 3)按式(10)和式(11)进行越界处理: 当前迭代步,K是最大迭代步。因为P,N(0,σ2) 4)对粒子i(i=1,2,…,N)计算其适应值,更 的值比1大或比1小,又因为P·P1N(0,σ2)是一 新其经历过的最优位置P和全局最优位置P, 个随机值,所以它比P大或小,这样P可能远离 并按式(7)计算fe: P,因此说式(4)具有一定的全局搜索能力。另一 5)若f(P)≤f,按式(9)计算a,按式(8)计 算u,在[0,l]选取一个随机数and,若randf,按式(9)计算a,按式(8)计

法的效率,另外,证明了该算法依概率 1 收敛到 ε⁃ 最优解。 实验结果表明,提出的算法能够提高全局 搜索能力,算法的收敛速度明显加快。 1 标准 PSO 算法 标准粒子群算法中,粒子群由 Np 个粒子组成, 在时刻 k,第 i 个粒子在 d 维空间中速度和位置的更 新公式为 v k+1 id = ωv k id + c1 r1(p k id - x k id ) + c2 r2(p k gd - x k id ) (1) x k+1 id = x k id + v k+1 id (2) 式中:i = 1,2,…,Np,d = 1,2,…,D,D 为决策变量的 维数,ω 为惯性权重,x k i = (x k i1 ,x k i2 ,…,x k iD)表示粒子 i 的当前的位置;v k i = (v k i1 ,v k i2 ,…,v k iD )是粒子 i 的当前 的速度;P k i = ( p k i1 ,p k i2 ,…,p k iD ) 是粒子 i 当前最优位 置,P k g = ( p k g1 ,p k g2 ,…,p k gD )是全局最优位置;c1 、c2 是 加速度因子,r1 、r2 是 0~1 之间的随机数。 第 k 次迭 代的惯性权重表示为 ωk = (ωstart - ωend ) Kmax - k Kmax æ è ç ö ø ÷ + ωend (3) 式中:ωstart、ωend分别为最初和最终的惯性权重,Kmax 是最大迭代步。 2 改进的 PSO 算法 提高 PSO 算法性能的有效方法之一就是平衡 算法的探索能力和开发能力。 我们的目的是对粒 子所经历的最好位置进行操作,一方面能够使其跳 出局部最优;另一方面使其具有一定的局部搜索能 力。 为此,给出两个变异算子: P -k id = P k id·ρ1N(0,σ 2 ) (4) P -k id = P k id + ρ2N(0,σ 2 ) (5) 式中:ρ1>1 和 ρ2>1 是常数,N(0,σ 2 )是具有时变标 准差 σ 的高斯分布的随机变量,σ 表示为 σ = σmax - (σmax - σmin ) k Kmax (6) 式中:σmax和 σmin是标准差 σ 的最终和初始值,k 是 当前迭代步,Kmax是最大迭代步。 因为 ρ1N(0,σ 2 ) 的值比 1 大或比 1 小,又因为 P k id·ρ1N(0,σ 2 )是一 个随机值,所以它比 P k id 大或小,这样 P -k id 可能远离 P k id ,因此说式(4)具有一定的全局搜索能力。 另一 方面,式(5)表明在 P k id附近搜索,因此式(5)具有一 定的局部搜索能力。 如果每次都对P k i 实施式(4)或式(5)的变异操 作,那么导致算法运行时间长,因此按一定概率 μ 对 P k i 实施式(4)或式(5)的变异操作,即当 f(P k i )≤f ave 时,对P k i 按概率 μ 实施式(5)的变异操作,当f(P k i )> f ave时,对P k i 按概率 μ 实施式(4)的变异操作,其中 f ave = 1 Np ∑ Np j = 1 f(P k j ), (7) μ = α(f ave - f(P k i )) f ave - f(P k g ) , f(P k i ) ≤ f ave α(f(P k i ) - f ave) fmax - f ave , f(P k i ) > f ave ì î í ï ïï ï ïï (8) 式中:fmax = max 1≤i≤Np { f(P k i )},α 是一个自适应参数,它 被定义为 α = 1 - 0.8 k Kmax (9) 由式(8)知,对适应值较好的粒子实施局部搜 索的概率较大,而对适应值较差的粒子实施全局搜 索的概率较大。 由于当算法迭代到后期,粒子比较 集中,从而导致 f ave -f(P k i ) f ave -f(P k g ) 或 f(P k i )-f ave fmax -f ave 接近 1,若 α 大,那么实施式(4) 或式(5) 的变异操作的粒子较 多,从而导致算法运算时间长,因此按式(9)实行单 调递减策略。 位置与速度越界处理: x k+1 id = x k+1 id , l d ≤ x k+1 id ≤ ud l d + rand()·(ud - l { d ), 其他 (10) v k+1 id = v k+1 id , vmin ≤ v k+1 id ≤ vmax vmin , v k+1 id < vmin vmax, v k+1 id > vmax ì î í ï ï ï ï (11) 式中:v min d = 0.5l d ,v max d = 0.5ud 。 改进 PSO 算法的流程如下: 1)设置参数,随机初始化粒子的位置和速度, 计算各粒子的适应度,确定每个粒子的经历过的最 优位置及全局最优位置,令 k = 1; 2)按式(3)计算惯性权重,并按式(1)和式(2) 进行速度与位置更新; 3) 按式(10)和式(11)进行越界处理; 4) 对粒子 i(i = 1,2,…,Np )计算其适应值,更 新其经历过的最优位置P k+1 i 和全局最优位置P k+1 g , 并按式(7)计算 f ave; 5) 若 f(P k+1 i )≤f ave,按式(9)计算 α,按式(8)计 算 μ,在[0,1]选取一个随机数 rand,若 rand< μ,则 按式(6)计算 σ,按式(5)更新粒子经历过的最优位 置,得到P -k+1 i ,转 7); 6)若 f(P k+1 i )>f ave,按式(9)计算 α,按式(8)计 ·512· 智 能 系 统 学 报 第 12 卷

第4期 钱伟懿,等:依概率收敛的改进粒子群优化算法 ·513· 算u,在[0,1]选取一个随机数rand,若rand0,使得 7)令 pr(P1∈BI重=)≥p p,fp)0,设 1 D B.={x∈Sllf(x)-f(x·)|0,其中μ为勒贝格测度。 于是 由定义1和2得: pr(p'∈B|电=)= x结=点+ω点+c(p点-xa)+cr2(p-x) ng(x1,x2,…,xo)dxd2…dxo≥ (12) 由式(12)可看出,在第k+1代粒子群中第i个 √22 exp(-D 2m2 D 粒子的状态由x、、P、P决定,所以令9:=(x,”, u(B.) P:,P)∈T,其中T=SxVxSXSER"。 式中m=m,,lu,}。 定义3设中,=1重|重=(9,…,P,),9:∈ 1 D a加(B.),则 2m2 令p= exp(-D- T,i=1,…,N},则称中为状态空间,中∈中称为 mP2) 状态。 pr(P∈BI重=Φ)≥p>0。 定义4设2={ω1ω=(中,中2,中,…), 定理1设(中,中2,少,…)∈2是由算法任意 重∈中p,Hk,则称n为样本空间,w∈2称为状 生成的状态序列,则序列{p}依概率1收敛到c-最 态序列,其中重=(,,…,吹),=(,,P, 优解,即 P)。 lim pr{pg∈Be}=1 由改进算法可知,f(P)≤f(P),所以有如下 证明由算法可知,中+1只与Φ。有关,所以Φ, 引理。 ④2,中,…是马尔可夫过程,由马尔可夫过程性质及 引理1对Hk≥1,若P∈B,则P∈Bo 引理1可知 pr(PI生B)=pr(PEB) 引理2对Vi,k,若PeB。,那么P(new)∈B。 Πpr(PI年BIP华B)≤ 证明如果P(new)=p,由算法7)知f(p)≥ f(P),再由P∈B。有P∈B.,从而P'(new)∈ Πpr(P生B.lP生B)

算 μ,在[0,1]选取一个随机数 rand,若 rand< μ,则 按(6)式计算 σ,按(4)式更新粒子经历过的最优位 置,得到P -k+1 i ; 7)令 P k+1 i (new) = P - k+1 i , f(P - k+1 i ) < f(P k+1 i ) P k+1 i , f(P - k+1 i ) ≥ f(P k+1 { i ) ; 8) 令P k+1 i =P k+1 i (new),更新P k+1 g ; 9) 判断是否满足终止条件(本文采用最大迭代 步),若满足则输出结果,否则令 k = k+1,转 2)。 3 收敛性分析 本文考虑如下全局优化问题: minimize f(x) subject to x ∈ S 式中:f:S →R 是实值函数, S = { xmin ≤x ≤xmax }, xmin = (l 1 ,l 2 ,…,lD),xmax = (u1 ,u2 ,…,uD)。 定义 1 设 f(x)是实值函数,x ∗ ∈S,若对任意 x∈S, f(x ∗ ) ≤ f(x) 则称 x ∗为 S 的全局最优解。 定义 2 对任意 ε>0,设 Bε = x ∈ S f(x) - f(x ∗ { ) < ε } 则称 Bε 为 ε 最优解集,x∈Bε 被称为 ε⁃最优解。 本文假设 μ(Bε )>0, 其中 μ 为勒贝格测度。 由定义 1 和 2 得: x k+1 id = x k id + ωk v k id + c1 r1(p k id - x k id ) + c2 r2(p k gd - x k id ) (12) 由式(12)可看出,在第 k+1 代粒子群中第 i 个 粒子的状态由x k i 、v k i 、P k i 、P k g 决定,所以令 φi = (xi,vi, Pi,Pg )∈Γ,其中 Γ = S×V×S×S∈R 4D 。 定义 3 设 ΦNp = {Φ 丨Φ = (φ1,…,φNp ),φi ∈ Γ,i = 1,…,Np}, 则称 ΦNp为状态空间,Φ∈ΦNp称为 状态。 定义 4 设 Ω = {ω | ω = ( Φ1 , Φ2 , Φ3 ,…), Φk ∈ΦNp,∀k}, 则称 Ω 为样本空间,ω∈Ω 称为状 态序列,其中Φk = (φ k 1 ,φ k 2 ,…,φ k Np ),φ k i = ( x k i ,v k i ,P k i , P k g )。 由改进算法可知,f(P k+1 g )≤f(P k g ),所以有如下 引理。 引理 1 对∀k≥1,若 P k g∈Bε ,则P k+1 g ∈Bε 。 引理 2 对∀i,k,若P -k i ∈Bε,那么P k+1 i (new) ∈Bε 。 证明 如果P k i(new)= P k i ,由算法 7)知 f(P -k i )≥ f(P k i ),再由P -k i ∈Bε 有 P k i ∈Bε ,从而 P k+1 i ( new) ∈ Bε ;如果P k i(new)= P -k i ,则结论是显然的。 引理 3 ∀Φ∈ΦNp ,P k+1 g 由算法生成的,则存在 ρ>0,使得 pr(P k+1 g ∈ Bε | Φk = Φ) ≥ ρ 式中 pr 表示概率测度。 证明 如果P k i 实施变异算子(4) 或(5) 操作, 则令 χ(P -k i )= 1,否则令 χ(P -k i )= 0,由算法步骤 5)和 步骤 6)及式(8)有 pr(χ( P -k+1 g ) = 1) = α,pr(χ( P -k+1 g ) = 0) = 1 - α 于是 pr(P k+1 g ∈ Bε | Φk = Φ) ≥ pr(χ( P -k+1 g ) = 1)· pr((P k+1 g ∈ Bε | Φk = Φ) | χ( P -k+1 g ) = 1) = α·pr((P k+1 g ∈ Bε | Φk = Φ) | χ( P -k+1 g ) = 1) = α·pr(P k+1 g (new) ∈ Bε | Φk = Φ) 由引理 2 有 pr(P k+1 g ∈Bε | Φk = Φ) ≥α·pr(P -k+1 g ∈Bε | Φk = Φ) 由于P -k+1 g 的每个分量是独立的,再由式(5)知, 随机变量P -k+1 g 的密度函数为 g(x1,x2,…,xD) = 1 2πσρ2 æ è ç ö ø ÷ D exp( - ∑ D d = 1 (xd - p k+1 gd ) 2 2σ 2 ρ 2 2 ) 于是 pr( p -k+1 g ∈ Bε Φk = Φ) = ∫ Bε g(x1 ,x2 ,…,xD)dx1 dx2…dxD ≥ 1 2πσmax ρ2 æ è ç ö ø ÷ D exp( - D 2m 2 σmin 2 ρ 2 2 )μ(Bε ) 式中 m = max 1≤i≤D { | l i | , | ui | }。 令 ρ = 1 2πσmax ρ2 æ è ç ö ø ÷ D exp(-D 2m 2 σmin 2 ρ 2 2 )μ(Bε ),则 pr(P k+1 g ∈ Bε | Φk = Φ) ≥ ρ > 0。 定理 1 设(Φ1 ,Φ2 ,Φ3 ,…)∈Ω 是由算法任意 生成的状态序列,则序列 p k g { } 依概率 1 收敛到 ε⁃最 优解,即 lim k→¥ pr{p k g ∈ Bε } = 1 证明 由算法可知,Φk+1只与Φk 有关,所以Φ1 , Φ2 ,Φ3 ,…是马尔可夫过程,由马尔可夫过程性质及 引理 1 可知 pr(P k+1 g ∉ Bε ) = pr(P 1 g ∉ Bε )· ∏ k t = 1 pr(P t+1 g ∉ Bε P t g ∉ Bε ) ≤ ∏ k t = 1 pr(P t+1 g ∉ Bε P t g ∉ Bε ) 第 4 期 钱伟懿,等:依概率收敛的改进粒子群优化算法 ·513·

,514 智能系统学报 第12卷 令 选取文献[24]中的13个测试函数进行实验研究。 △={ΦP.EB}CΦy 前7个函数为高维单峰函数,后6个函数是高维多 则HΦ∈中,由引理3有 峰函数。在本文中13个问题的维数都取30。PS0 pr(P”生BlP生B)≤ 算法的实验结果与LDIWPSO2]、CDIWPSO) pr(P生B|④,=D)=1-p DAPSO[4、和SSRDIWPSOL]实验结果进行比较。 所有算法的共同参数设置如下:oam=0.9,ωmd= 于是pr(PeB)≤1-(1-p),故 0.4,p=30,G1=c2=2,"n=0.5xin,"m.=0.5x, lim pripB=1 Km=3000,PS0算法的其他参数设置如下:P,=2, 数值实验 P2=0.1,0mx=1,0mm=0.2。所有算法的程序都是 由MATLAB2007实现,且每个实验独立运行30次, 为了评价改进算法(简称,PS0)的性能,我们 实验结果见表1和表2。 表1 高维单峰函数的实验结果 Table 1 Experimental results for unimodal functions 测试函数 LDIWPSO CDIWPSO DAPSO SSRDIWPSO IPSO 最好收敛值 1.8024×1018 8.0553×10~39 1.4906x10-20 6.8915x10-8 2.9978×1048 最差收敛值 1.9980x105 7.1317×102 4.7508×1014 6.3577×108 4.9490×10~37 平均收敛值 2.5759×10-16 2.3817×10-2 2.1494×10-15 3.3532×104 1.0262×10~8 方差 1.7596x1031 1.6952×104 7.5669x10-2 2.0137×10-6 2.3843×105 最好收敛值 1.1885×1012 6.5151×109 7.2893×1014 1.7545×1024 4.9281×1032 最差收敛值 7.2170×109 1.1902×10~0 7.8997×10 3.3250×1018 1.1493×10 平均收敛值 3.1295×100 6.8920x102 4.6966×109 2.3788×1019 1.2719x1029 方差 1.7210×10~ 6.0557x102 2.4803×10~16 5.7642×107 1.0997×10~56 最好收敛值 68.4539 1.1843 58.2694 0.0929 2.3526×1025 最差收敛值 668.4762 55.9227 577.0090 4.0948 7.4470×10 平均收敛值 255.7415 13.9276 230.0843 0.8589 7.8654×10-2 方差 2.4053×10 0.6244 1.4937×10 0.8771 2.0584×10 最好收敛值 2.0365 0.5392 1.8241 0.1273 1.8101×1024 最差收敛值 8.2982 3.8830 8.7478 0.9779 1.0096×10-9 平均收敛值 4.8073 2.2561 5.1848 0.4659 2.7701×1020 方差 3.3552 0.6244 2.6767 0.0702 3.6932×100 最好收敛值 0.3308 0.0069 6.6552 0.0083 23.5679 最差收敛值 147.1466 96.3554 119.8775 91.9750 24.6369 平均收敛值 50.7752 35.5231 44.3036 39.8869 24.1214 方差 1.4967×103 877.0478 1.1164×103 906.3516 0.0269 最好收敛值 0 0 0 0 0 最差收敛值 0 0 0 0 0 平均收敛值 0 0 0 0 0 方差 0 0 0 0 0 最好收敛值 0.0064 0.0077 0.0131 0.0047 1.9271×106 最差收敛值 0.0496 0.0355 0.0441 0.0218 5.2760×104 平均收敛值 0.0248 0.0171 0.0277 0.0115 1.4020×10-3 方差 1.0811×10 4.3125×10 8.5989x10 1.5079×10 1.1127×108

令 Δ = {Φ Pg ∉ Bε } ⊂ ΦNp 则∀Φ∈ΦNp ,由引理 3 有 pr(P t+1 g ∉ Bε P t g ∉ Bε ) ≤ pr(P t+1 g ∉ Bε Φt = Φ) = 1 - ρ 于是 pr(P k+1 g ∈Bε )≤1-(1-ρ) k ,故 lim k→¥ pr{p k g∈Bε } = 1 4 数值实验 为了评价改进算法(简称,IPSO) 的性能,我们 选取文献[24]中的 13 个测试函数进行实验研究。 前 7 个函数为高维单峰函数,后 6 个函数是高维多 峰函数。 在本文中 13 个问题的维数都取 30。 IPSO 算 法 的 实 验 结 果 与 LDIWPSO [2] 、 CDIWPSO [3] 、 DAPSO [4] 、和 SSRDIWPSO [5] 实验结果进行比较。 所有算法的共同参数设置如下:ωstart = 0. 9,ωend = 0.4,Np = 30,c1 = c2 = 2,vmin = 0.5 xmin ,vmax = 0.5 xmax, Kmax = 3 000,IPSO 算法的其他参数设置如下:ρ1 = 2, ρ2 = 0.1, σmax = 1, σmin = 0.2。 所有算法的程序都是 由 MATLAB2007 实现,且每个实验独立运行 30 次, 实验结果见表 1 和表 2。 表 1 高维单峰函数的实验结果 Table 1 Experimental results for unimodal functions 测试函数 LDIWPSO CDIWPSO DAPSO SSRDIWPSO IPSO F1 最好收敛值 1.802 4×10 -18 8.055 3×10 -39 1.490 6×10 -20 6.891 5×10 -53 2.997 8×10 -43 最差收敛值 1.998 0×10 -15 7.131 7×10 -22 4.750 8×10 -14 6.357 7×10 -43 4.949 0×10 -37 平均收敛值 2.575 9×10 -16 2.381 7×10 -23 2.149 4×10 -15 3.353 2×10 -44 1.026 2×10 -38 方差 1.759 6×10 -31 1.695 2×10 -44 7.566 9×10 -26 2.013 7×10 -86 2.384 3×10 -75 F2 最好收敛值 1.188 5×10 -12 6.515 1×10 -19 7.289 3×10 -14 1.754 5×10 -24 4.928 1×10 -32 最差收敛值 7.217 0×10 -9 1.190 2×10 -10 7.899 7×10 -8 3.325 0×10 -18 1.149 3×10 -27 平均收敛值 3.129 5×10 -10 6.892 0×10 -12 4.696 6×10 -9 2.378 8×10 -19 1.271 9×10 -29 方差 1.721 0×10 -18 6.055 7×10 -22 2.480 3×10 -16 5.764 2×10 -37 1.099 7×10 -56 F3 最好收敛值 68.453 9 1.184 3 58.269 4 0.092 9 2.352 6×10 -25 最差收敛值 668.476 2 55.922 7 577.009 0 4.094 8 7.447 0×10 -21 平均收敛值 255.741 5 13.927 6 230.084 3 0.858 9 7.865 4×10 -22 方差 2.405 3×10 4 0.624 4 1.493 7×10 4 0.877 1 2.058 4×10 -42 F4 最好收敛值 2.036 5 0.539 2 1.824 1 0.127 3 1.810 1×10 -21 最差收敛值 8.298 2 3.883 0 8.747 8 0.977 9 1.009 6×10 -19 平均收敛值 4.807 3 2.256 1 5.184 8 0.465 9 2.770 1×10 -20 方差 3.355 2 0.624 4 2.676 7 0.070 2 3.693 2×10 -40 F5 最好收敛值 0.330 8 0.006 9 6.655 2 0.008 3 23.567 9 最差收敛值 147.1466 96.355 4 119.877 5 91.975 0 24.636 9 平均收敛值 50.775 2 35.523 1 44.303 6 39.886 9 24.121 4 方差 1.496 7×10 3 877.047 8 1.116 4×10 3 906.351 6 0.026 9 F6 最好收敛值 0 0 0 0 0 最差收敛值 0 0 0 0 0 平均收敛值 0 0 0 0 0 方差 0 0 0 0 0 F7 最好收敛值 0.006 4 0.007 7 0.013 1 0.004 7 1.927 1×10 -6 最差收敛值 0.049 6 0.035 5 0.044 1 0.021 8 5.276 0×10 -4 平均收敛值 0.024 8 0.017 1 0.027 7 0.011 5 1.402 0×10 -3 方差 1.081 1×10 -4 4.312 5×10 -5 8.598 9×10 -5 1.507 9×10 -5 1.112 7×10 -8 ·514· 智 能 系 统 学 报 第 12 卷

第4期 钱伟懿,等:依概率收敛的改进粒子群优化算法 ·515 表2高维多峰函数的实验结果 Table 2 Experimental results for multimodal functions 测试函数 LDIWPSO CDIWPSO DAPSO SSRDIWPSO IPSO 最好收敛值 -1.0319×10 -1.0536×10 -1.0497×104 -9.3124×103 -1.1622×10 最差收敛值 -8.5820×103 -8.9175×103 -8.1674×103 -7.3383×10 -9.4506×10 平均收敛值 -9.2970×10 -9.6920x10 -9.3788×103 -8.0845×103 -1.0301×10 方差 2.2238×10 1.7414×105 2.2818×105 1.9323×10 1.5892×10 最好收敛值 16.9143 16.9143 21.8891 20.8941 0 最差收敛值 45.7681 45.7681 50.7428 65.6672 0 平均收敛值 30.4703 28.6216 34.1975 41.9872 0 方差 50.4865 49.7484 55.3084 135.8404 0 最好收敛值 4.4714×100 7.9936×10-5 5.3995×10-11 7.9936×105 8.8816×10-6 最差收敛值 5.3020×10 2.4369×10" 1.8997 1.3404 4.4409×105 平均收敛值 8.5364×10-9 8.3057×10B 0.3301 0.0670 9.1778×10-16 方差 104575×10-16 1.9764×10-23 0.4323 0.0898 1.0518×10-31 最好收敛值 0 0 0 0 最差收敛值 0.0296 0.0442 0.0731 0.0566 0 平均收敛值 0.0103 0.0135 0.0142 0.0139 0 方差 7.749×105 1.864×10 2.981×10 2.413×10 0 最好收敛值 4.188×10-7 1.925×10-2 1.812×10 1.780×102 5.124×10-24 最差收敛值 0.4147 0.3110 0.8300 0.6219 3.3658×10-20 平均收敛值 0.0587 0.0276 0.0864 0.0726 2.4129×10-21 方差 0.0087 0.0051 0.0342 0.0250 3.0290×104 最好收敛值 1.4840×10-6 1.3676×10- 2.4086x10-7 3.4452×10-2 8.0767×10~9 最差收敛值 0.0110 0.0110 0.0439 0.0439 0.0210 平均收敛值 0.0033 0.0037 0.0060 0.0027 0.0027 方差 2.6226×10 2.7752×10 1.0769x10+ 1.0007×104 3.4655×10 从表1可以看出,除了测试函数F,、F,和F 法优于其他4种算法。对于测试函数F。,PS0算法 外,PS0算法与其他4种算法相比,在寻优能力和 与其他4种算法获得相同的结果。总之,对于高维 稳定性方面明显优于其他4种算法,特别是测试函 单峰函数来说PSO算法有一定优势,其原因如下: 数F,和F4,其他4种算法不能获得到最优解,而 函数F,~F,都单峰函数,由于PS0算法有较好的 PSO算法能够得到较理想的最优解,且稳定性也非 局部搜索能力,所以PS0算法对于单峰函数具有 常好。对于测试函数F,来说,PS0算法不如 一定优势。函数F,是非线性简单的单峰函数,所以 SSRDIWPS0算法,但是优于其他3种算法。对于测 大多数算法都能够找到最优解:函数F,是很难极小 试函数F,来说,IPS0算法的最好收敛值不如其他4 化的典型病态二次函数,由于其全局最优解与可达 种算法,但是对于平均收敛值和方差来说,PS0算 到的局部最优之间有一道狭窄的山谷,所以算法很

表 2 高维多峰函数的实验结果 Table 2 Experimental results for multimodal functions 测试函数 LDIWPSO CDIWPSO DAPSO SSRDIWPSO IPSO F8 最好收敛值 -1.031 9×10 4 -1.053 6×10 4 -1.049 7×10 4 -9.312 4×10 3 -1.162 2×10 4 最差收敛值 -8.582 0×10 3 -8.917 5×10 3 -8.167 4×10 3 -7.338 3×10 3 -9.450 6×10 3 平均收敛值 -9.297 0×10 3 -9.692 0×10 3 -9.378 8×10 3 -8.084 5×10 3 -1.030 1×10 4 方差 2.223 8×10 5 1.741 4×10 5 2.281 8×10 5 1.932 3×10 5 1.589 2×10 5 F9 最好收敛值 16.914 3 16.914 3 21.889 1 20.894 1 0 最差收敛值 45.768 1 45.768 1 50.742 8 65.667 2 0 平均收敛值 30.470 3 28.621 6 34.197 5 41.987 2 0 方差 50.486 5 49.748 4 55.308 4 135.840 4 0 F10 最好收敛值 4.471 4×10 -10 7.993 6×10 -15 5.399 5×10 -11 7.993 6×10 -15 8.881 6×10 -16 最差收敛值 5.302 0×10 -8 2.436 9×10 -11 1.899 7 1.340 4 4.440 9×10 -15 平均收敛值 8.536 4×10 -9 8.305 7×10 -13 0.330 1 0.067 0 9.177 8×10 -16 方差 104 575×10 -16 1.976 4×10 -23 0.432 3 0.089 8 1.051 8×10 -31 F11 最好收敛值 0 0 0 0 0 最差收敛值 0.029 6 0.044 2 0.073 1 0.056 6 0 平均收敛值 0.010 3 0.013 5 0.014 2 0.013 9 0 方差 7.749 ×10 -5 1.864 ×10 -4 2.981 ×10 -4 2.413 ×10 -4 0 F12 最好收敛值 4.188 ×10 -7 1.925 ×10 -32 1.812 ×10 -8 1.780 ×10 -32 5.124 ×10 -24 最差收敛值 0.414 7 0.311 0 0.830 0 0.621 9 3.365 8×10 -20 平均收敛值 0.058 7 0.027 6 0.086 4 0.072 6 2.412 9×10 -21 方差 0.008 7 0.005 1 0.034 2 0.025 0 3.029 0×10 -41 F13 最好收敛值 1.484 0×10 -16 1.367 6×10 -31 2.408 6×10 -17 3.445 2×10 -32 8.076 7×10 -19 最差收敛值 0.011 0 0.011 0 0.043 9 0.043 9 0.021 0 平均收敛值 0.003 3 0.003 7 0.006 0 0.002 7 0.002 7 方差 2.622 6×10 -5 2.775 2×10 -5 1.076 9×10 -4 1.000 7×10 -4 3.465 5×10 -5 从表 1 可以看出,除了测试函数 F1 、F5 和 F6 外,IPSO 算法与其他 4 种算法相比,在寻优能力和 稳定性方面明显优于其他 4 种算法,特别是测试函 数 F3 和 F4 ,其他 4 种算法不能获得到最优解,而 IPSO 算法能够得到较理想的最优解,且稳定性也非 常好。 对 于 测 试 函 数 F1 来 说, IPSO 算 法 不 如 SSRDIWPSO 算法,但是优于其他 3 种算法。 对于测 试函数 F5 来说,IPSO 算法的最好收敛值不如其他 4 种算法,但是对于平均收敛值和方差来说,IPSO 算 法优于其他 4 种算法。 对于测试函数 F6 ,IPSO 算法 与其他 4 种算法获得相同的结果。 总之,对于高维 单峰函数来说 IPSO 算法有一定优势,其原因如下: 函数 F1 ~ F7 都单峰函数,由于 IPSO 算法有较好的 局部搜索能力,所以 IPSO 算法对于单峰函数具有 一定优势。 函数 F1 是非线性简单的单峰函数,所以 大多数算法都能够找到最优解;函数 F5 是很难极小 化的典型病态二次函数,由于其全局最优解与可达 到的局部最优之间有一道狭窄的山谷,所以算法很 第 4 期 钱伟懿,等:依概率收敛的改进粒子群优化算法 ·515·

·516· 智能系统学报 第12卷 难辨别搜索方向,找到全局最优解的机会很小,因 10 此5种算法都没有找到全局最优解,而函数F,是含 有随机变量的函数,由于目标函数不确定,找到非 常理想的全局最优解也是较困难的。 10 从表2可以看出,除了测试函数F2和F外 100 -LDEWPSO PS0算法与其他4种算法相比,在寻优能力和稳定 CDIWPSO 10s -·-DAPSO 性方面明显优于其他4种算法,特别是测试函数F, -SSRDIWPSO 和F1,其他4种算法不能获得较好最优解,而PS0 10 -IPSO 0 0.5 1.0 1.5 2.0 2.5 算法能够得到非常理想的最优解,且稳定性也非常 迭代步 好。对于测试函数F2来说,关于最好收敛值,PS0 图2函数F,的收敛曲线 算法不如SSRDIWPSO和CDIWPSO算法,但是优于 Fig.2 Convergence curve of function F 其他两种算法,而关于最差收敛值、平均收敛值和 LDIWPSO 方差,PS0算法远好于其他4种算法。对于测试函 1020 --CDIWPSO --DAPSO 数F:来说,对于最好收敛值PS0算法不如 10 ++4种种渐 SSRDIWPSO -IPSO SSRDIWPSO和CDIWPSO算法,对于平均收敛值, 1024 PSO算法与SSRDIWPSO算法一样优于其他3种算 10-0 法。总之,除了函数Fg~F:外,对于其他函数PS0 106 算法都能够得到满意结果,其原因如下:函数Fg~ 10 F:都是多峰函数且有较多局部最优解,由于PS0 101 算法按一定概率对适应值较差的粒子实行全局搜 0 0.5 1.01.5 2.02.5 3.0*10 迭代步 索,对于适应值较好的粒子实行局部搜索,所以 图3函数F。的收敛曲线 PS0算法对于解决多峰函数有一定优势。但是由 于函数F。的全局最优解与局部最优相距较远,且有 Fig.3 Convergence curve of function Fs 一定的欺骗性,导致算法朝着错误方向搜索,因此 从图1~6中可以看出,对于函数F4、F和F2, 不易找到满意的全局最优解;函数F:含有大量深度 PS0算法的收敛速度及求解精度明显优于其他4 不同的“坑”,导致算法陷入第一个坑后不易跳出 种算法,对于函数F。,虽然求解精度一样,但是PS0 来,因此也不易找到满意的全局最优解。 算法的收敛速度明显比其他4种算法收敛快,对于 为了更清楚且直观地比较各种算法的收敛性, 函数F,虽然收敛精度IPSO算法不如SSRDIWPSO 我们分别从高维单峰函数和高维多峰函数中选取3 算法,但是他较快收敛到人们比较满意精度,对于 个函数进行收敛曲线分析,图1~图3分别表示测试 函数Fg,PS0算法的求解精度略优于其他4种算 函数F1、F4、和F。的收敛曲线,其中用100~0代替 0。图4~图6分别表示测试函数Fg、Fo和F2的收 法。总之,PS0算法有较好的收敛速度和求解 敛曲线。 精度。 100 103 10 100 109 -LDIWPSO 10o LDIWPSO ---CDIWPSO --CDIWPSO 10 -----DAPSO ---DAPSO --SSRDIWPSO -SSRDIWPSO ◆-IPSO --IPSO 10 0 0.5 1.01.52.02.53.0×10 106 0.5 1.01.52.02.5 3010 迭代步 迭代步 图1函数F,的收敛曲线 图4函数Fg的收敛曲线 Fig.1 Convergence curve of function F Fig.4 Convergence curve of function Fs

难辨别搜索方向,找到全局最优解的机会很小,因 此 5 种算法都没有找到全局最优解,而函数 F7 是含 有随机变量的函数,由于目标函数不确定,找到非 常理想的全局最优解也是较困难的。 从表 2 可以看出,除了测试函数 F12 和 F13 外 IPSO 算法与其他 4 种算法相比,在寻优能力和稳定 性方面明显优于其他 4 种算法,特别是测试函数 F9 和 F11 ,其他 4 种算法不能获得较好最优解,而 IPSO 算法能够得到非常理想的最优解,且稳定性也非常 好。 对于测试函数 F12来说,关于最好收敛值,IPSO 算法不如 SSRDIWPSO 和 CDIWPSO 算法,但是优于 其他两种算法,而关于最差收敛值、平均收敛值和 方差,IPSO 算法远好于其他 4 种算法。 对于测试函 数 F13 来 说, 对 于 最 好 收 敛 值 IPSO 算 法 不 如 SSRDIWPSO 和 CDIWPSO 算法,对于平均收敛值, IPSO 算法与 SSRDIWPSO 算法一样优于其他 3 种算 法。 总之,除了函数 F8 ~ F13外,对于其他函数 IPSO 算法都能够得到满意结果,其原因如下:函数 F8 ~ F13都是多峰函数且有较多局部最优解,由于 IPSO 算法按一定概率对适应值较差的粒子实行全局搜 索,对于适应值较好的粒子实行局部搜索, 所以 IPSO 算法对于解决多峰函数有一定优势。 但是由 于函数 F8 的全局最优解与局部最优相距较远,且有 一定的欺骗性,导致算法朝着错误方向搜索,因此 不易找到满意的全局最优解;函数 F13含有大量深度 不同的“坑”,导致算法陷入第一个坑后不易跳出 来,因此也不易找到满意的全局最优解。 为了更清楚且直观地比较各种算法的收敛性, 我们分别从高维单峰函数和高维多峰函数中选取 3 个函数进行收敛曲线分析,图 1~图 3 分别表示测试 函数 F1 、F4 、和 F6 的收敛曲线,其中用 100 -100代替 0。 图 4~ 图 6 分别表示测试函数 F8 、F10和 F12的收 敛曲线。 图 1 函数 F1 的收敛曲线 Fig.1 Convergence curve of function F1 图 2 函数 F4 的收敛曲线 Fig.2 Convergence curve of function F4 图 3 函数 F6 的收敛曲线 Fig.3 Convergence curve of function F6 从图 1~6 中可以看出,对于函数 F4 、F10和 F12 , IPSO 算法的收敛速度及求解精度明显优于其他 4 种算法,对于函数 F6 ,虽然求解精度一样,但是 IPSO 算法的收敛速度明显比其他 4 种算法收敛快,对于 函数 F1 ,虽然收敛精度 IPSO 算法不如 SSRDIWPSO 算法,但是他较快收敛到人们比较满意精度,对于 函数 F8 ,IPSO 算法的求解精度略优于其他 4 种算 法。 总之, IPSO 算法有较 好 的 收 敛 速 度 和 求 解 精度。 图 4 函数 F8 的收敛曲线 Fig.4 Convergence curve of function F8 ·516· 智 能 系 统 学 报 第 12 卷

第4期 钱伟懿,等:依概率收敛的改进粒子群优化算法 .517. 109 information and control.Kumamoto,Japan,2007:475. [4]SHEN X,CHI Z Y,CHEN J C.et al.Particle swarm 105 optimization with dynamic adaptive inertia weight [C]// 10 International conference on challenges in environmental science and computer engineering.Wuhan,China,2010: LDIWPSO 287-290. -CDIWPSO 1015 -·-DAPSO4 [5]ADEWUMI A O,ARASOMWAN A M.An improved -SSRDIWPSO --IPSO particle swarm optimizer based on swarm success rate for 10 0 0.5 1.052.0253.ǒ10 global optimization problems[J].Journal of experimental 送代步 and theoretical artificial intelligence,2016,28 (3): 图5函数F。的收敛曲线 441-483. Fig.5 6]PLUHACEK M,SENKERIK R,DAVENDRA D,et al.On Convergence curve of function Fo the behavior and performance of chaos driven PSO algorithm 100 with inertia weight[J].Computers and mathematics with 10 applications,2013,66:122-134. a [7 YANG C,GAO W,LIU N,et al.Low-discrepancy 10 sequence initialized particle swarm optimization algorithm with high-order nonlinear time-varying inertia weight [J]. 100 -LDIWPSO -CDIWPSO Applied soft computing,2015,29:386-394. 105 --DAPSO -SSRDIWPSO [8]郭建涛,刘瑞杰,陈新武.用于跳频分量选取的修正适应 102 -IPSO ×10 度距离比粒子群算法[J].重庆邮电大学学报:自然科学 0 0.5 1.0 1.52.02.5 3.0 迭代步 版.2015,27(1):26-30. GUO Jiantao,LIU Ruijie,CHEN Xinwu.Modified fitness- 图6函数F,的收敛曲线 distance ratio based particle swarm optimizer for selection of Fig.6 Convergence curve of function F frequency hopping components [J].Journal of chongqing university of posts and telecommunications:natural science J 结束语 edition,2015,27(1):26-30. [9 ARDIZZON G,CAVAZZINI G,PAVESI G.Adaptive 针对标准PS0算法不依概率收敛和易出现早 acceleration coefficients for a new search diversification 熟收敛等缺点,提出了标准粒子群优化算法中增加 strategy in particle swarm optimization algorithms[J]. 了具有开发能力和探索能力两个变异算子,其目的 Information sciences,2015,299:337-378. 是平衡算法的全局探索能力和局部搜索能力。并 [10]姜建国,田旻,王向前,等.采用扰动加速因子的自适应 且从理论上证明所提出算法依概率1收敛到ε-最优 粒子群优化算法[J].西安电子科技大学学报,2012, 解。数值结果表明,所提出的算法较大提高了全局 39(4):74-79 寻优能力且具有较好的鲁棒性。在未来的工作中, JIANG Jianguo,TIAN Min,WANG Xiangqian,et al. 将对变异算子中的参数设置进一步研究,以便提高 Adaptive particle swarm optimization via disturbing 算法收敛精度与收敛速度。 acceleration coefficients J.Journal of xidian university, 2012,39(4):74-79. 参考文献: [11]任凤鸣,李丽娟.改进的PS0算法中学习因子(c1,c2) 取值的实验与分析[J].广东工业大学学报,2008,25 [1]KENNEDY J,EBERHART R C.Particle swarm optimization (1):86-89. [C]//IEEE International Conference on Neural Networks. REN Fengming,LI Lijuan.Experiment and analysis of the Perth,Australia,1995:1942-1948. value selection of acceleration coefficients(c)in IPSO [2]SHI Y H,EBERHART R C.Empirical study of particle method [J].Journal of Guangdong university of swarm optimization[C]//IEEE International Conference on technology,2008,25(1):86-89. Evolutionary Computation.Washington,USA,1999: [12]GRIMACCIA F,MUSSETTA M,ZICH R.Genetical swarm 1945-1950. optimization:self-adaptive hybrid evolutionary algorithm for [3]FENG Y,TENG G F A X,WANG Y,et al.Chaotic inertia electromagnetics[J].IEEE transactions on antennas and weight in particle swarm optimization [C]//Proceedings of propagation,2007,55(3):781-785. the 2nd international conference on innovative computing, [13]熊伟丽,徐保国,吴晓鹏,等.带变异算子的改进粒子群

图 5 函数 F10的收敛曲线 Fig.5 Convergence curve of function F10 图 6 函数 F12的收敛曲线 Fig.6 Convergence curve of function F12 5 结束语 针对标准 PSO 算法不依概率收敛和易出现早 熟收敛等缺点,提出了标准粒子群优化算法中增加 了具有开发能力和探索能力两个变异算子,其目的 是平衡算法的全局探索能力和局部搜索能力。 并 且从理论上证明所提出算法依概率 1 收敛到 ε⁃最优 解。 数值结果表明,所提出的算法较大提高了全局 寻优能力且具有较好的鲁棒性。 在未来的工作中, 将对变异算子中的参数设置进一步研究,以便提高 算法收敛精度与收敛速度。 参考文献: [1]KENNEDY J, EBERHART R C. Particle swarm optimization [C] / / IEEE International Conference on Neural Networks. Perth, Australia, 1995: 1942-1948. [2] SHI Y H, EBERHART R C. Empirical study of particle swarm optimization[C] / / IEEE International Conference on Evolutionary Computation. Washington, USA, 1999: 1945-1950. [3]FENG Y, TENG G F A X, WANG Y, et al. Chaotic inertia weight in particle swarm optimization[ C] / / Proceedings of the 2nd international conference on innovative computing, information and control. Kumamoto, Japan, 2007: 475. [4] SHEN X, CHI Z Y, CHEN J C. et al. Particle swarm optimization with dynamic adaptive inertia weight [ C] / / International conference on challenges in environmental science and computer engineering. Wuhan, China, 2010: 287-290. [ 5 ] ADEWUMI A O, ARASOMWAN A M. An improved particle swarm optimizer based on swarm success rate for global optimization problems [ J]. Journal of experimental and theoretical artificial intelligence, 2016, 28 ( 3 ): 441-483. [6]PLUHACEK M, SENKERIK R, DAVENDRA D, et al.On the behavior and performance of chaos driven PSO algorithm with inertia weight[J]. Computers and mathematics with applications, 2013, 66: 122-134. [ 7 ] YANG C, GAO W, LIU N, et al. Low⁃discrepancy sequence initialized particle swarm optimization algorithm with high⁃order nonlinear time⁃varying inertia weight [ J]. Applied soft computing, 2015, 29: 386-394. [8]郭建涛,刘瑞杰,陈新武. 用于跳频分量选取的修正适应 度距离比粒子群算法[J]. 重庆邮电大学学报:自然科学 版, 2015, 27(1): 26-30. GUO Jiantao, LIU Ruijie, CHEN Xinwu. Modified fitness⁃ distance ratio based particle swarm optimizer for selection of frequency hopping components [ J ]. Journal of chongqing university of posts and telecommunications: natural science edition, 2015, 27(1): 26-30. [ 9 ] ARDIZZON G, CAVAZZINI G, PAVESI G. Adaptive acceleration coefficients for a new search diversification strategy in particle swarm optimization algorithms[J]. Information sciences, 2015, 299: 337-378. [10]姜建国,田旻,王向前,等. 采用扰动加速因子的自适应 粒子群优化算法[ J]. 西安电子科技大学学报, 2012, 39(4): 74-79. JIANG Jianguo, TIAN Min, WANG Xiangqian, et al. Adaptive particle swarm optimization via disturbing acceleration coefficients[ J]. Journal of xidian university, 2012, 39(4): 74-79. [11]任凤鸣,李丽娟. 改进的 PSO 算法中学习因子( c1 ,c2 ) 取值的实验与分析[ J]. 广东工业大学学报, 2008, 25 (1): 86-89. REN Fengming, LI Lijuan. Experiment and analysis of the value selection of acceleration coefficients (c1 ,c2 ) in IPSO method [J]. Journal of Guangdong university of technology, 2008, 25(1): 86-89. [12] GRIMACCIA F, MUSSETTA M, ZICH R. Genetical swarm optimization: self⁃adaptive hybrid evolutionary algorithm for electromagnetics [ J ]. IEEE transactions on antennas and propagation, 2007, 55(3): 781-785. [13]熊伟丽,徐保国,吴晓鹏,等. 带变异算子的改进粒子群 第 4 期 钱伟懿,等:依概率收敛的改进粒子群优化算法 ·517·

.518. 智能系统学报 第12卷 算法研究[J].计算机工程与应用,2006,42(26): [21]WANG H,SUN H,LI C,et al.Diversity enhanced 1-3. particle swarm optimization with neighborhood search[]. XIONG Weili,XU Baoguo,WU Xiaopeng,et al.Study on Information sciences,2013,223:119-135. the particle swarm optimization with mutation operator [J]. [22]TIAN D P.A review of convergence analysis of particle Computer engineering and applications,2007,55(3): swarm optimization[J].international journal of grid and 781-785. distributed computing,2013,6:117-128. [14]段玉红,高岳林.基于差分演化的粒子群算法[J].计 [23 LIU Q.Order-2 stability analysis of particle swarm 算机仿真,2009,26(6):212-215. optimization[J].Evolutionary computation,2014,23: DUAN Yuhong.GAO Yuelin.A particle swarm optimization 187-216. algorithm based on differential evolution [J].Computer [24]PAN F,LI X T,ZHOU Q,et al.Analysis of standard simulation,2009,26(6):212-215. particle swarm optimization algorithm based on Markov [15]王丽芳,曾建潮.基于微粒群算法与模拟退火算法的协 chain[J ]Acta automatica sinica,2013,39(4):81 同进化方法[J].自动化学报,2006,32(4):630-635. -289. WANG Lifang,ZENG JianChao.A cooperative evolutionary [25]戴月明,朱达祥,吴定会.核矩阵协同进化的震荡搜索 algorithm based on particle swarm optimization and simulated 粒子群优化算法[J].重庆邮电大学学报:自然科学版, annealing algorithm[J].Acta automatica sinica,2006,32 2016,28(2):247-253. (4):630-635. DAI Yueming,ZHU Daxiang,WU Dinghui.Shock search [16]艾兵,董明刚.基于高斯扰动和自然选择的改进粒子群 particle swarm optimization algorithm based on kernel 优化算法[J].计算机应用,2016,36(3):687-691. matrix synergistic evolution J].Journal of chongqing AI Bing,DONG Minggang.Improved particle swarm university of posts and telecommunications:natural science optimization algorithm based on Gaussian disturbance and edition,2016,28(2):247-253. natural selection[J].Journal of computer applications, [26]YAO X,LIU Y,LIN G.Evolutionary programming made 2016,36(3):687-691. faster[].IEEE transactions on evolutionary computation, [17]刘宏达,马忠丽.均匀粒子群算法[J].智能系统学报, 1999,3(2):81-102. 2010,5(4):336-341. 作者简介: LIU Hongda,MA Zhongli.A particle swarm optimization 钱伟懿,男,1963年生,教授,博士, algorithm based on uniform design[].CAAI transactions 主要研究方向为智能计算、优化理论与 on intelligent systems,2010,5(4):336-341. 方法,主持国家自然科学基金项目1 [18]PEHLIVANOGLU Y V.A new particle swarm optimization 项。发表学术论文60余篇,出版专著 method enhanced with a periodic mutation strategy and 3部。 neural networks[]].IEEE transactions on evolutionary computation,2013,17:436-452. [19]LIM W H,MATISA N A.An adaptive two-layer particle 李明,男,1991年生,硕士研究生 swarm optimization with elitist learning strategy [J]. 主要研究方向为智能计算。 Information sciences,2014,273:49-72. [20]WU G,QIU D,YU Y,et al.Superior solution guided particle swarm optimization combined with local search techniques[J].Expert systems with applications,2014, 41:7536-7548

算法研究[ J]. 计算机工程与应用, 2006, 42 ( 26): 1-3. XIONG Weili, XU Baoguo, WU Xiaopeng, et al.Study on the particle swarm optimization with mutation operator [J]. Computer engineering and applications, 2007, 55 ( 3 ): 781-785. [14]段玉红,高岳林. 基于差分演化的粒子群算法 [ J]. 计 算机仿真, 2009, 26(6): 212-215. DUAN Yuhong, GAO Yuelin. A particle swarm optimization algorithm based on differential evolution [ J ]. Computer simulation, 2009, 26(6): 212-215. [15]王丽芳,曾建潮. 基于微粒群算法与模拟退火算法的协 同进化方法 [J]. 自动化学报, 2006, 32(4): 630-635. WANG Lifang, ZENG JianChao. A cooperative evolutionary algorithm based on particle swarm optimization and simulated annealing algorithm[J]. Acta automatica sinica, 2006, 32 (4): 630-635. [16]艾兵,董明刚. 基于高斯扰动和自然选择的改进粒子群 优化算法[J]. 计算机应用, 2016, 36(3): 687-691. AI Bing, DONG Minggang. Improved particle swarm optimization algorithm based on Gaussian disturbance and natural selection [ J ]. Journal of computer applications, 2016, 36(3): 687-691. [17]刘宏达,马忠丽. 均匀粒子群算法 [ J]. 智能系统学报, 2010, 5(4): 336-341. LIU Hongda, MA Zhongli. A particle swarm optimization algorithm based on uniform design[ J]. CAAI transactions on intelligent systems, 2010, 5(4): 336-341. [18]PEHLIVANOGLU Y V. A new particle swarm optimization method enhanced with a periodic mutation strategy and neural networks[J]. IEEE transactions on evolutionary computation, 2013, 17: 436-452. [19]LIM W H, MATISA N A. An adaptive two⁃layer particle swarm optimization with elitist learning strategy [ J ]. Information sciences, 2014, 273: 49-72. [20] WU G, QIU D, YU Y, et al. Superior solution guided particle swarm optimization combined with local search techniques[ J]. Expert systems with applications, 2014, 41: 7536-7548. [21] WANG H, SUN H, LI C, et al. Diversity enhanced particle swarm optimization with neighborhood search[ J]. Information sciences, 2013, 223: 119-135. [22] TIAN D P. A review of convergence analysis of particle swarm optimization [ J]. international journal of grid and distributed computing, 2013, 6: 117-128. [ 23 ] LIU Q. Order⁃2 stability analysis of particle swarm optimization [ J ]. Evolutionary computation, 2014, 23: 187-216. [24] PAN F, LI X T, ZHOU Q, et al. Analysis of standard particle swarm optimization algorithm based on Markov chain[ J]. Acta automatica sinica, 2013, 39 ( 4 ): 81 -289. [25]戴月明,朱达祥,吴定会. 核矩阵协同进化的震荡搜索 粒子群优化算法[J]. 重庆邮电大学学报:自然科学版, 2016, 28(2): 247-253. DAI Yueming, ZHU Daxiang, WU Dinghui. Shock search particle swarm optimization algorithm based on kernel matrix synergistic evolution [ J ]. Journal of chongqing university of posts and telecommunications: natural science edition, 2016, 28(2): 247-253. [26]YAO X , LIU Y, LIN G. Evolutionary programming made faster[J]. IEEE transactions on evolutionary computation, 1999, 3(2): 81-102. 作者简介: 钱伟懿,男,1963 年生,教授,博士, 主要研究方向为智能计算、优化理论与 方法,主持国家自然科学基金项目 1 项。 发表学术论文 60 余篇,出版专著 3 部。 李明,男,1991 年生,硕士研究生, 主要研究方向为智能计算。 ·518· 智 能 系 统 学 报 第 12 卷

点击下载完整版文档(PDF)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
已到末页,全文结束
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有