正在加载图片...
·604. 智能系统学报 第9卷 (X+X)/2,这样计算的好处是每个个体X,在教 Select 2 individuals at random XX,,from the 学过程中Mean值都不同,从而保证种群的多样性, current population 避免算法过早收敛,具体如下: Iff(X,)<f(X) TF round [1 rand(1,d)] X,=2×X,-X2 Else X=X;rand(1,d).* (Xom+X:) X,=2×X2-X Te.* End 2 (i=1,2,…,d) X..=X,rand(1,d).x (X,-X) End (开始 rand(1,d)表示在[0,1]区间随机生成一个d 参数初始化 维的行向量。 3.3“自我”学习(self-learning)阶段 随机初始化种群 本文算法提出一种类似于和声搜索算法的自我 i=1 学习策略。每个个体通过自我调整进行优化学习。 X..=Yu+difference 由于每个学员可能同时学习多门课程(多个决策变 “教” 量),在进行“自我”学习时只是对部分科目进行调 KXKKX 食 整学习,保持优势学科,增强劣势科目。采用3种自 我调整策略进行学习: X:-=Xnguu 1)向“某一科”较为优秀的同学学习,增强单科 从种群中随机挑取X(化) 水平。学习概率为LoP。 2)自我调整,以概率SRP进行科目调整,调整 N AXAX) 步长为Stepo 3)以概率LP进行创新学习。 学” X.w=Y+r (YX) Xm=r4tr,(X-X) 阶 “自我”学习阶段的具体算法如下: For i=1 to NP KXKX Xnew =Xi Y Forj=1 to d X=X If rand()<LoP X)=X0),a∈U以1,2,…,NP);/策略(1) Elself rand()<SRP Y <i≤NP> X.n)=X.)±rand(0,1)×Step()/策略(2) IN Elseif rand()<ILP 是否满足结束条件 X(0)=x()+and×(x'(G)-xt()):/第略3) Y End 结束 End 图1TLBO算法流程图 End Fig.1 Flow chart of TLBO algorithm 其中, 3.2“学习”(Learning)阶段的改进 Step minStep (maxStep TLB0算法在相互“学习”阶段,每个学员X(i= 1,2,…,N)每次学习时随机选取一个学习对象 minStep) Xj=1,2,…,N,j≠i)进行学习,学习较为单一。 maxStep =(x-x)/50 本文算法要求每个学员在进行“相互学习”是,每次 minStep =(x)/3 000 从班级中随机选取2个学习对象X,和X2(1=1, t是当且迭代次数,T是允许最大迭代次数。 2,…,N;2=1,2,…,N;1≠2)进行学习,学习过 4. MTBO算法主动悬架LQR控制器优化 程伪代码如下: 4.1车辆主动悬架LQR控制器模型 For i=1:NP 本文以单轮车辆模型作为研究对象,如图2。(Xworst + Xi) / 2,这样计算的好处是每个个体 Xi 在教 学过程中 Mean 值都不同,从而保证种群的多样性, 避免算法过早收敛,具体如下: TF = round [1 + rand(1,d) ] Xnew = Xi + rand(1,d) .∗ Xteacher - TF .∗ Xworst + Xi ( ) 2 é ë ê ê êê ù û ú ú úú (i = 1,2,…,d) 图 1 TLBO 算法流程图 Fig.1 Flow chart of TLBO algorithm 3.2 “学习”(Learning)阶段的改进 TLBO 算法在相互“学习”阶段,每个学员 Xi(i = 1,2,…,N) 每次学习时随机选取一个学习对象 Xj(j =1,2,…,N,j ≠ i) 进行学习,学习较为单一。 本文算法要求每个学员在进行“相互学习”是,每次 从班级中随机选取 2 个学习对象 Xr1 和 Xr2 (r1 = 1, 2,…,N;r2 = 1,2,…,N;r1 ≠ r2 ) 进行学习,学习过 程伪代码如下: For i = 1:NP Select 2 individuals at random Xr1 ≠ Xr2 from the current population If f Xr1 ( ) < f Xr2 ( ) Xr = 2 × Xr1 - Xr2 ; Else Xr = 2 × Xr2 - Xr1 ; End Xnew = Xi + rand(1,d) . × Xr - Xi ( ) ; End rand(1, d )表示在[0,1]区间随机生成一个 d 维的行向量。 3.3“自我”学习(self⁃learning)阶段 本文算法提出一种类似于和声搜索算法的自我 学习策略。 每个个体通过自我调整进行优化学习。 由于每个学员可能同时学习多门课程(多个决策变 量),在进行“自我”学习时只是对部分科目进行调 整学习,保持优势学科,增强劣势科目。 采用 3 种自 我调整策略进行学习: 1)向“某一科”较为优秀的同学学习,增强单科 水平。 学习概率为 LoP。 2)自我调整,以概率 SRP 进行科目调整,调整 步长为 Step 。 3)以概率 ILP 进行创新学习。 “自我”学习阶段的具体算法如下: For i = 1 to NP Xnew = Xi For j = 1 to d If rand()<LoP Xnew (j) = Xa (j) ,a ∈U{1,2,…,NP} ; / / 策略(1) ElseIf rand()<SRP Xnew (j) = Xnew (j) ±rand(0,1) × Step(j) / / 策略(2) Elseif rand()<ILP Xnew (j) = x L (j) +rand × x U (j) -x L ( (j) ) ; / / 策略(3) End End End 其中, Step = minStep + (maxStep - minStep) 1 - t T æ è ç ö ø ÷ maxStep = (x U - x L ) / 50 minStep = (x U - x L ) / 3 000 t 是当且迭代次数, T 是允许最大迭代次数。 4 MTLBO 算法主动悬架LQR 控制器优化 4.1 车辆主动悬架 LQR 控制器模型 本文以单轮车辆模型作为研究对象,如图 2。 ·604· 智 能 系 统 学 报 第 9 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有