正在加载图片...
第1期 夏小云,等:蚁群优化算法的理论研究进展 ·31· P(吧,)=Pm≥α(t=1,2,….)。给定任意初始解s, 之后与目标最优解距离小于1的概率至少为1/2。 算法通过执行操作叩,∈Op,一步一步逐渐到达最优 假设函数适应值均为正整数,则算法获得最优解 解5。不失一般性,考虑最小化问题。定义优化问 (离目标最优解距离为0)的概率至少为1/2。因 题的适应值函数f(s,)(t=1,2,…),d(s,)=f八s)- 此,算法最终到达目标找到最优解的期望时间上界 f(sp)为第1代时的解s,与目标最优解sm相差的适 为2T=0(r·logD)。 应值距离。根据随机启发式算法的特点,给定不同 2.3尾概率不等式 的初始解,其求解问题的迭代次数也不一样,因此考 偏差不等式广泛应用于随机算法的分析中。在 虑的是期望迭代次数。算法找到可接受的操作,使 许多启发式搜索算法的例子中,对于分析启发式的 得s1优于s,。假定算法通过执行给定的操作使得 典型行为是非常有用的。其通常用于估计随机变量 减少的期望距离至少为 偏离期望值的概率。 d()-d(s)≥s)-fs) 2.3.1 Markov不等式 (2) 马尔可夫不等式(Markov's inequality)适用于 由(2)得 非负随机变量。对一非负的随机变量X:2→R,对 d(s)≤(1-)fs,)-fsm)) (3) 于t∈R,有P(X)sE( 当前解离目标最优解距离减少由两部分产生: 2.3.2 Chebyshev不等式 可接受的操作和不接受的操作,而不接受的操作距 切比雪夫不等式(Chebyshev's inequality)适用 离减少的贡献为0。 于任何的(可正可负)随机变量,有两种形式: 因此,如果d(s,)>0,有 1)令X为一随机变量,其中E(X)=, E[d(s)I d(s,)]=pd(s)+(1-p)d(s,) Var(X)=σ2。对于k>0, p.(1-)-》+ P(IX-l>k)=P(X)E(IX)_o (1-Pm)(f八s,)-f(s))= 2)X.~iid(independent and identically distrib- (1-P)ds,) uted),独立同分布,期望E(X)=u且Var(X)=σ2, (4) X为u的估计,则 令Y,=d(s,),有 E[Y,Iopo,0p1,…,叩-1]≤ P(Ii-u≥k)≤Var(- k2n·k2 (1-)[19,m,m1≤ 2.3.3 Chernoff界 切尔诺夫界(Chernoff bounds):X:∈{0,l}(1≤ (1-P)2E[Y,-i1opo,0p1,…,0p-3] i≤)为独立泊松分布事件,令X=三 …≤ (1-P=)'E[Y]= P(X=1)=n,u=E(X)=2P,0<n,<1 则对于6>0,P[X≥(1+8)]≤ (1-P=)'Efs)-f50)]△1 (1+8)1+6) ;对于0<8<1,P[X≤(1-6)u]≤ 考虑搜索空间中离最优搜索点s距离最远的情 e 况。如图2所示,令该最远距离D=f(s)-f(s)≤ (1-6)(1- :对于0<xl,P[X≥(1+δ)u]≤e号: dx,则有1≤(1-&)D,a为常数,且0<a<1。 对于0<8<1,P[X≤(1-6)u]≤e号:对于0<8<1, 令T=0(r·logD),当t≥T,有E[Y,Ipo,p1, P(1K-u)≥]≤2e号。 ,9m-]≤(1-号)D≤分。根据Mkom不等式算 3一些理论研究结果及问题讨论 法执行T步之后,离最优解距离至少为1的概率P 3.1参数p、a、B对算法性能影响 (≥)≤,因此P(y<)≥7。也就是说T步 到目前为止,蚁群算法中挥发因子、信息素值控 制参数、启发式信息(能见度)控制参数的设置,对P(opt)= pm≥α( t = 1,2,….)。 给定任意初始解 s, 算法通过执行操作 opt∈Op,一步一步逐渐到达最优 解 sopt。 不失一般性,考虑最小化问题。 定义优化问 题的适应值函数 f( st ) ( t = 1,2,...),d( st ) = f(st)- f(sopt)为第 t 代时的解 st 与目标最优解 sopt相差的适 应值距离。 根据随机启发式算法的特点,给定不同 的初始解,其求解问题的迭代次数也不一样,因此考 虑的是期望迭代次数。 算法找到可接受的操作,使 得 st+1优于 st。 假定算法通过执行给定的操作使得 减少的期望距离至少为 d(st) - d(st+1 ) ≥ f(st) - f(sopt) r (2) 由(2)得 d(st+1 ) ≤ (1 - 1 r )(f(st) - f(sopt)) (3) 当前解离目标最优解距离减少由两部分产生: 可接受的操作和不接受的操作,而不接受的操作距 离减少的贡献为 0。 因此,如果 d(st)>0,有 E[d(st+1 ) | d(st)] = pm d(st+1 ) + (1 - pm )d(st) ≤ pm(1 - 1 r )(f(st) - f(sopt)) + (1 - pm )(f(st) - f(sopt)) = (1 - pm r )d(st) (4) 令 Yt = d(st),有 E[Yt | op0 ,op1 ,…,opt-1 ] ≤ (1 - pm r )E[Yt-1 | op0 ,op1 ,…,opt-2 ] ≤ (1 - pm r ) 2E[Yt-1 | op0 ,op1 ,…,opt-3 ] … ≤ (1 - pm r ) tE[Y0 ] = (1 - pm r ) tE[f(s) - f(sopt)] 􀰛 I 考虑搜索空间中离最优搜索点 sopt距离最远的情 况。 如图 2 所示,令该最远距离 D = f(s) -f(sopt )≤ dmax,则有 I≤(1- α r ) tD,α 为常数,且0<α<1。 令 T =O(r·logD),当 t≥T,有 E[ Yt | op0 ,op1 , …,opt-1 ]≤(1- α r ) tD≤ 1 2 。 根据 Markov 不等式,算 法执行 T 步之后,离最优解距离至少为 1 的概率 P (Yt≥1)≤ 1 2 ,因此 P(Yt <1)≥ 1 2 。 也就是说 T 步 之后与目标最优解距离小于 1 的概率至少为 1 / 2。 假设函数适应值均为正整数,则算法获得最优解 (离目标最优解距离为 0) 的概率至少为 1 / 2。 因 此,算法最终到达目标找到最优解的期望时间上界 为2T =O(r·logD)。 2.3 尾概率不等式 偏差不等式广泛应用于随机算法的分析中。 在 许多启发式搜索算法的例子中,对于分析启发式的 典型行为是非常有用的。 其通常用于估计随机变量 偏离期望值的概率。 2.3.1 Markov 不等式 马尔可夫不等式(Markov’ s inequality) 适用于 非负随机变量。 对一非负的随机变量 X:Ω→R + ,对 于 t∈R + ,有 P(X>t)≤ E(X) t 。 2.3.2 Chebyshev 不等式 切比雪夫不等式 (Chebyshev􀆳s inequality) 适用 于任何的(可正可负)随机变量,有两种形式: 1) 令 X 为 一 随 机 变 量, 其 中 E ( X ) = μ, Var(X)= σ 2 。 对于 k>0, P( |X-μ| >k)= P( |X-μ| 2 >k 2 )≤ E( |X-μ| 2 ) k 2 = σ 2 k 2 。 2)令 Xi ~ iid(independent and identically distrib⁃ uted),独立同分布,期望 E(Xi)= μ 且 Var(Xi)= σ 2 , X - 为 μ 的估计,则 P( X - - μ ≥ k) ≤ Var(X - ) k 2 = σ 2 n·k 2 。 2.3.3 Chernoff 界 切尔诺夫界(Chernoff bounds): Xi ∈ {0,1}(1 ≤ i ≤ n) 为 独 立 泊 松 分 布 事 件, 令 X = ∑ n i = 1 Xi, P(Xi = 1) = pi, μ = E(X) = ∑ n i = 1 pi,0 < pi < 1。 则 对 于 δ > 0,P[X ≥ (1 + δ)μ] ≤ e δ (1 + δ) (1+δ) æ è ç ö ø ÷ μ ; 对于 0 <δ < 1,P[X≤(1 -δ) μ] ≤ e -δ (1-δ) (1-δ) æ è ç ö ø ÷ μ ;对于 0<δ<1,P[X≥(1+δ)μ]≤e - μδ 2 3 ; 对于 0<δ<1,P[X≤(1-δ) μ] ≤e - μδ 2 2 ;对于 0<δ<1, P( X-μ )≥δμ]≤2e - uδ 2 3 。 3 一些理论研究结果及问题讨论 3.1 参数 ρ、α、β 对算法性能影响 到目前为止,蚁群算法中挥发因子、信息素值控 制参数、启发式信息(能见度)控制参数的设置,对 第 1 期 夏小云,等:蚁群优化算法的理论研究进展 ·31·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有