第16卷第2期 智能系统学报 Vol.16 No.2 2021年3月 CAAI Transactions on Intelligent Systems Mar.2021 D0:10.11992tis.201910045 网络出版地址:https:/ns.cnki.net/kcms/detail/23.1538.TP.20200721.1319.004html 随机交叉-自学策略改进的教与学优化算法 黎延海,雍龙泉2,拓守恒 (1.陕西理工大学数学与计算机科学学院,陕西汉中723001;2.陕西省工业自动化重点实验室,陕西汉中 723001:3.西安邮电大学计算机学院,陕西西安710121) 摘要:针对非原点最优的复杂优化问题(最优解不在坐标原点),提出了一种基于随机交叉-自学策略的教与学 优化算法((teaching and learning optimization algorithm based on random crossover--self-study strategy,CSTLBO)。对标 准教与学优化算法的“教阶段”和“学阶段”的空间扰动进行了几何解释,改进了原有的“教阶段”和“学阶段”,并 引入随机交叉策略和“自学"策略来提高算法的全局寻优能力。通过使用20个Benchmark函数进行仿真,并与 6种改进的教与学优化算法进行结果比较及Wilcoxon秩和检验分析,结果表明CSTLBO算法能有效避免陷入 局部最优,具有良好的全局搜索能力,求解精度高,稳定性好。 关键词:群体智能:教与学优化;随机交叉;“自学”策略;Benchmark函数;非原点最优;多样性分析 中图分类号:TP391文献标志码:A文章编号:1673-4785(2021)02-0313-10 中文引用格式:黎延海,雍龙泉,拓守恒.随机交叉-自学策略改进的教与学优化算法J.智能系统学报,2021,16(2): 313-322. 英文引用格式:LI Yanhai,YONG Longquan,TUO Shouheng.Teaching--learning-based optimization algorithm based on random crossover-self-learning strategy[Jl.CAAI transactions on intelligent systems,2021,16(2):313-322. Teaching-learning-based optimization algorithm based on random crossover-self-learning strategy LI Yanhai',YONG Longquan,TUO Shouheng' (1.School of Mathematics and Computer Science,Shaanxi University of Technology,Hanzhong 723001,China;2.Shaanxi Key Laboratory of Industrial Automation,Hanzhong 723001,China;3.School of Computer Science and Technology,Xi'an University of Posts and Telecommunications,Xi'an 710121,China) Abstract:This paper presents a teaching-learning-based optimization algorithm based on a random crossover-self- learning strategy(CSTLBO)for solving non-origin-optimal complex optimization problems in circumstances in which the optimum solution is outside the origin of the coordinates.First,the spatial perturbation in the "teaching"and"learn- ing"stages of the standard TLBO algorithm is interpreted geometrically,and the original "teaching"and "learning" stages are improved.Then,random crossover and"self-learning"strategies are introduced to improve the global optim- ization ability of the algorithm.To assess the performance of the CSTLBO algorithm,20 Benchmark functions were tested,and Wilcoxon rank sum tests were applied to the experimental results of six improved TLBO algorithms.The ex- perimental results indicate that the CSTLBO algorithm is able to avoid premature convergence,and has the advantages in global exploration,solution quality,and stability. Keywords:swarm Intelligence;teaching-learning-based optimization;random crossover;"self-learning" strategy;Benchmark function;non-origin-optimal;diversity analysis 教与学优化算法(teaching-learning-based op- 种模拟教师教学和学生相互学习的群体智能优化 timization,TLBO)是Rao等u于2011年提出的一 算法。该算法因参数设置少、容易实现、寻优性 收稿日期:2019-10-31.网络出版日期:2020-07-21. 能好,受到了众多研究者的关注,在函数优化 基金项目:国家自然科学基金项目(11502132):陕西省教育厅 工程参数优化可、投资组合优化用和多目标优化 重点科研计划项目(20JS021):陕西理工大学校级科 研项目(SLG1913). 等问题上得到了广泛的应用。 通信作者:黎延海.E-mail:liyanhai@snut.edu.cn TLBO算法作为一种群智能优化算法,在求
DOI: 10.11992/tis.201910045 网络出版地址: https://kns.cnki.net/kcms/detail/23.1538.TP.20200721.1319.004.html 随机交叉−自学策略改进的教与学优化算法 黎延海1 ,雍龙泉1,2,拓守恒3 (1. 陕西理工大学 数学与计算机科学学院,陕西 汉中 723001; 2. 陕西省工业自动化重点实验室,陕西 汉中 723001; 3. 西安邮电大学 计算机学院,陕西 西安 710121) 摘 要:针对非原点最优的复杂优化问题 (最优解不在坐标原点),提出了一种基于随机交叉-自学策略的教与学 优化算法 (teaching and learning optimization algorithm based on random crossover-self-study strategy, CSTLBO)。对标 准教与学优化算法的“教阶段”和“学阶段”的空间扰动进行了几何解释,改进了原有的“教阶段”和“学阶段”,并 引入随机交叉策略和“自学”策略来提高算法的全局寻优能力。通过使用 20 个 Benchmark 函数进行仿真,并与 6 种改进的教与学优化算法进行结果比较及 Wilcoxon 秩和检验分析,结果表明 CSTLBO 算法能有效避免陷入 局部最优,具有良好的全局搜索能力,求解精度高,稳定性好。 关键词:群体智能;教与学优化;随机交叉;“自学”策略;Benchmark 函数;非原点最优;多样性分析 中图分类号:TP391 文献标志码:A 文章编号:1673−4785(2021)02−0313−10 中文引用格式:黎延海, 雍龙泉, 拓守恒. 随机交叉−自学策略改进的教与学优化算法 [J]. 智能系统学报, 2021, 16(2): 313–322. 英文引用格式:LI Yanhai, YONG Longquan, TUO Shouheng. Teaching-learning-based optimization algorithm based on random crossover-self-learning strategy[J]. CAAI transactions on intelligent systems, 2021, 16(2): 313–322. Teaching-learning-based optimization algorithm based on random crossover-self-learning strategy LI Yanhai1 ,YONG Longquan1,2 ,TUO Shouheng3 (1. School of Mathematics and Computer Science, Shaanxi University of Technology, Hanzhong 723001, China; 2. Shaanxi Key Laboratory of Industrial Automation, Hanzhong 723001, China; 3. School of Computer Science and Technology, Xi’an University of Posts and Telecommunications, Xi’an 710121, China) Abstract: This paper presents a teaching-learning-based optimization algorithm based on a random crossover –selflearning strategy (CSTLBO) for solving non-origin-optimal complex optimization problems in circumstances in which the optimum solution is outside the origin of the coordinates. First, the spatial perturbation in the “teaching” and “learning” stages of the standard TLBO algorithm is interpreted geometrically, and the original “teaching” and “learning” stages are improved. Then, random crossover and “self-learning” strategies are introduced to improve the global optimization ability of the algorithm. To assess the performance of the CSTLBO algorithm, 20 Benchmark functions were tested, and Wilcoxon rank sum tests were applied to the experimental results of six improved TLBO algorithms. The experimental results indicate that the CSTLBO algorithm is able to avoid premature convergence, and has the advantages in global exploration, solution quality, and stability. Keywords: swarm Intelligence; teaching-learning-based optimization; random crossover; “self-learning” strategy; Benchmark function; non-origin-optimal; diversity analysis 教与学优化算法 (teaching-learning-based optimization,TLBO) 是 Rao 等 [1] 于 2011 年提出的一 种模拟教师教学和学生相互学习的群体智能优化 算法。该算法因参数设置少、容易实现、寻优性 能好,受到了众多研究者的关注,在函数优化[2] 、 工程参数优化[3] 、投资组合优化[4] 和多目标优化[5-6] 等问题上得到了广泛的应用。 TLBO 算法作为一种群智能优化算法,在求 收稿日期:2019−10−31. 网络出版日期:2020−07−21. 基金项目:国家自然科学基金项目 (11502132);陕西省教育厅 重点科研计划项目 (20JS021);陕西理工大学校级科 研项目 (SLG1913). 通信作者:黎延海. E-mail:liyanhai@snut.edu.cn. 第 16 卷第 2 期 智 能 系 统 学 报 Vol.16 No.2 2021 年 3 月 CAAI Transactions on Intelligent Systems Mar. 2021
·314· 智能系统学报 第16卷 解高维多模态复杂优化问题时也容易陷入局部最 有的起源偏倚,对原点最优问题(以坐标原点为 优,算法的收敛速度和精度都不够理想,为此,许 最优解的问题)有着原始的偏好,但对非原点最 多研究者在近几年相继提出了一些改进的 优问题(最优解不在坐标原点的问题)的优化效 TLBO算法。Ouyang等m为平衡全局与局部搜索 果则不太理想,现有的改进TLBO算法也没能很 效率,在“学阶段”增加了全局交叉策略,提出了 好地解决这类问题。 全局交叉的TLBO算法(teaching-learning-based 为此,本文在对标准TLBO算法的“教阶段” optimizatio with global crossover,TLBO-GC); 和“学阶段”的空间扰动进行几何分析解释的基础 Chen等8I设计了局部学习和自学习方法来提高 上,提出了一种基于随机交叉-自学策略的教与 TLBO的搜索能力,提出了一种改进的TLBO算 学优化算法(teaching and learning optimization al- (improved teaching-learning-based optimization, gorithm based on random crossover-self-study TLBO):Zou等9利用其他同学的学习经验,使用 strategy,CSTLBO)。算法使用各分量取值[-l,l] 两种随机概率来确定学习者在不同阶段的学习方 的随机向量替换了标准TLBO算法中各分量取值 法,提出了一种改进的TLBO算法(improved [0,刂的随机向量,通过引入随机交叉策略和“自 teaching-learning-based optimization with learning ex- 学”策略,增加种群的多样性,提高算法的全局搜 perience,LETLBO);王培崇等o采用小世界网络 索能力。使用了20个Benchmark测试函数进行 作为种群的空间结构关系,提出了具有小世界领 仿真实验,并与6种TLBO的改进算法(TLBO-GC、 域结构的TLBO算法(small world neighborhood ITLBO、DSTLBO、ATLS4I、NTLBOlS、TLBO- TLBO,S-TLBO);毕晓君等在“学阶段”融合差 CSWLI进行了比较,检验了所提算法的性能。 分进化算法变异策略,提出了基于混合学习策略 的教与学优化算法(TLBO based on hybrid learning 1教与学优化算法 strategies and disturbance,.DSTLBO);Ji等a受历史 1.1 优化问题的模型 种群概念的启发,在标准TLBO算法中引入了自 本文研究的优化问题的具体模型为: 反馈学习阶段和变异交叉阶段,提出了一种 minmize f(X) TLBO算法的变体(improved version of TLBO,I- TLBO):Yu等1将精英学习策略和多样性学习方 st.X=(x1,x2,…,xD)∈S 法引入到教师阶段和学习者阶段,学习者可以根 xe[xli=1,2…,D 据自身的特点自适应地选择不同的学习阶段,提 式中:X为决策向量;S表示搜索空间;和x分 出了一种自适应的TLBO算法(self-adaptive 别表示第i个决策变量:在搜索空间的上界和下 TLBO,SATLBO);Niu等对种群中每个个体采 界;D是搜索空间的维数;f为目标函数。 用不同的更新机制,提出了一种修正的TLBO算 1.2标准的教与学优化算法 (actual teaching learning situation TLBO,ATLS); 标准TLBO算法是一种模仿整个课堂教学过 SHUKLA等1在标准TLBO算法中引入邻近学 程的高效优化方法,通过模拟老师给班级学生的 习和差分突变策略,提出了邻近学习策略的TLBO 教学过程及班级中学员之间的交流学习过程,来 算法(eighbor based TLBO,NTLBO):柳缔西子等u 提高整个班级的成绩。主要包括两个阶段:“教阶 利用权重学习得到的个体来指引种群的进化,使 段”和“学阶段”,其基本步骤如下: 用Logistics混沌搜索策略来提高其全局搜索能 1)初始化。随机初始化NP位学员(即个 力,提出了基于混沌搜索和权重学习的教与学优 体)X=(,x,…,xo),j=1,2,…,NP。其中,NP表 化算法(TLBO based on chaotic search and weighted 示班级中的学员数(即种群的规模),D表示学习 learning,TLBO-CSWL):何杰光等m在原有的个体 的科目数(即待优化问题的维数)。 更新公式上加入更新个体局部维度的操作,提出 2)“教阶段”。选取班级中成绩最优(即适应 了基于个体局部维度改进的教与学优化算法(Io℃ 度值最小)的学员作为老师,记做teacher,每个学 al-dimension-improved TLBO,LdimTLBO); 员根据教师和全体学员平均水平的差异性(difference) Tsai1将交叉频率引入TLBO中,以防止算法过 来进行学习,具体如下: 早收敛,提出了受限的教与学优化算法(confined Xiw =Xou+difference (1) TLBO with variable search strategies,CTLBO)o difference=r⑧(Yeacher-Tp·mean) (2) 些TLBO的改进算法在一定程度上提高了算法的 式中:、w分别表示第j位学员X在教学 优化性能,降低了算法陷入局部最优的可能,但 前、后的知识水平;r=(,2,…,ro)表示学习步 文献[19]揭示标准TLBO算法在“教”阶段存在固 长,为0,1)间的随机数;符号⑧表示直积运算;
解高维多模态复杂优化问题时也容易陷入局部最 优,算法的收敛速度和精度都不够理想,为此,许 多研究者在近几年相继提出了一些改进 的 TLBO 算法。Ouyang 等 [7] 为平衡全局与局部搜索 效率,在“学阶段”增加了全局交叉策略,提出了 全局交叉的 TLBO 算法 (teaching-learning-based optimizatio with global crossover,TLBO-GC); Chen 等 [8] 设计了局部学习和自学习方法来提高 TLBO 的搜索能力,提出了一种改进的 TLBO 算 法 (improved teaching-learning-based optimization, ITLBO);Zou 等 [9] 利用其他同学的学习经验,使用 两种随机概率来确定学习者在不同阶段的学习方 法,提出了一种改进的 TLBO 算法 (improved teaching-learning-based optimization with learning experience, LETLBO);王培崇等[10] 采用小世界网络 作为种群的空间结构关系,提出了具有小世界领 域结构的 TLBO 算法 (small world neighborhood TLBO, S-TLBO);毕晓君等[11] 在“学阶段”融合差 分进化算法变异策略,提出了基于混合学习策略 的教与学优化算法 (TLBO based on hybrid learning strategies and disturbance, DSTLBO);Ji 等 [12] 受历史 种群概念的启发,在标准 TLBO 算法中引入了自 反馈学习阶段和变异交叉阶段,提出了一 种 TLBO 算法的变体 (improved version of TLBO, ITLBO);Yu 等 [13] 将精英学习策略和多样性学习方 法引入到教师阶段和学习者阶段,学习者可以根 据自身的特点自适应地选择不同的学习阶段,提 出了一种自适应的 TLBO 算法 (self-adaptive TLBO, SATLBO);Niu 等 [14] 对种群中每个个体采 用不同的更新机制,提出了一种修正的 TLBO 算 法 (actual teaching learning situation TLBO, ATLS); SHUKLA 等 [15] 在标准 TLBO 算法中引入邻近学 习和差分突变策略,提出了邻近学习策略的 TLBO 算法 (neighbor based TLBO, NTLBO);柳缔西子等[16] 利用权重学习得到的个体来指引种群的进化,使 用 Logistics 混沌搜索策略来提高其全局搜索能 力,提出了基于混沌搜索和权重学习的教与学优 化算法 (TLBO based on chaotic search and weighted learning,TLBO-CSWL);何杰光等[17] 在原有的个体 更新公式上加入更新个体局部维度的操作,提出 了基于个体局部维度改进的教与学优化算法 (local-dimension-improved TLBO, LdimTLBO); Tsai[18] 将交叉频率引入 TLBO 中,以防止算法过 早收敛,提出了受限的教与学优化算法 (confined TLBO with variable search strategies, CTLBO)。这 些 TLBO 的改进算法在一定程度上提高了算法的 优化性能,降低了算法陷入局部最优的可能,但 文献 [19] 揭示标准 TLBO 算法在“教”阶段存在固 有的起源偏倚,对原点最优问题 (以坐标原点为 最优解的问题) 有着原始的偏好,但对非原点最 优问题 (最优解不在坐标原点的问题) 的优化效 果则不太理想,现有的改进 TLBO 算法也没能很 好地解决这类问题。 [−1,1] [0,1] 为此,本文在对标准 TLBO 算法的“教阶段” 和“学阶段”的空间扰动进行几何分析解释的基础 上,提出了一种基于随机交叉−自学策略的教与 学优化算法 (teaching and learning optimization algorithm based on random crossover-self-study strategy, CSTLBO)。算法使用各分量取值 的随机向量替换了标准 TLBO 算法中各分量取值 的随机向量,通过引入随机交叉策略和“自 学”策略,增加种群的多样性,提高算法的全局搜 索能力。使用了 20 个 Benchmark 测试函数进行 仿真实验,并与 6 种 TLBO 的改进算法 (TLBO-GC[7] 、 ITLBO[8] 、DSTLBO[11] 、ATLS[14] 、NTLBO[15] 、TLBOCSWL[16] ) 进行了比较,检验了所提算法的性能。 1 教与学优化算法 1.1 优化问题的模型 本文研究的优化问题的具体模型为: minmize X f (X) s.t.X = (x1, x2,··· , xD) ∈ S, xi ∈ [ x L i , x U i ] ,i = 1,2,··· ,D X S x L i x U i i xi D f 式中: 为决策向量; 表示搜索空间; 和 分 别表示第 个决策变量 在搜索空间的上界和下 界; 是搜索空间的维数; 为目标函数。 1.2 标准的教与学优化算法 标准 TLBO 算法是一种模仿整个课堂教学过 程的高效优化方法,通过模拟老师给班级学生的 教学过程及班级中学员之间的交流学习过程,来 提高整个班级的成绩。主要包括两个阶段:“教阶 段”和“学阶段”,其基本步骤如下: NP X j = (x j 1 , x j 2 ,··· , x j D ) j = 1,2,··· ,NP NP D 1) 初始化。随机初始化 位学员 (即个 体) , 。其中, 表 示班级中的学员数 (即种群的规模), 表示学习 的科目数 (即待优化问题的维数)。 X teacherdifference 2)“教阶段”。选取班级中成绩最优 (即适应 度值最小) 的学员作为老师,记做 ,每个学 员根据教师和全体学员平均水平的差异性 ( ) 来进行学习,具体如下: X j new = X j old +difference (1) difference = r⊗ ( X teacher −TF · X mean) (2) X j old X j new j X j r = (r1,r2,··· ,rD) ri [0,1] ⊗ 式中: 、 分别表示第 位学员 在教学 前、后的知识水平; 表示学习步 长, 为 间的随机数;符号 表示直积运算; ·314· 智 能 系 统 学 报 第 16 卷
第2期 黎延海,等:随机交叉-自学策略改进的教与学优化算法 ·315· Tr=round[1+rand(0,1)】表示教学因子,取值为 2教与学优化算法的空间扰动分析 1或2;Ymean= ∑x!表示班级全体学员的平均 1 =1 2.1标准TLB0算法的几何解释 知识水平。 为了更好地理解TLBO的工作原理,以二维 “教阶段”完成后,评估学员的学习成绩 空间为例,采用几何分析的方法来解释算法在“教 (即适应度值fX),如果fXw)<fX),则进行 阶段”和“学阶段”的空间扰动状况。 更新,即X=Xw,否则不更新。 文献[19]指出式(2)和(3)中的r本质上是一 3)“学阶段”。学员之间进行相互交流,通过 个各分量都取值于[0,1]的D维随机向量,考虑到 向其他同学学习,来提升自身的水平。从班级中 由随机参数所引起的扰动的极限情形,容易观察 随机抽取一个学员K,k是[1,NP]中的一个随机 出“教阶段”和“学阶段”的空间扰动情形。由于 整数,+,学员与其进行交流学习,具体如下: r中的每个元素都是取值于[0,1]的随机数,所以 X+r®(X-X),i证f(x)<f(K) (3) r对difference的影响实际是一个尺度上的缩放, X+r⑧(W-X),其他 即difference可以为图l(b)、(c)方框内的任意向 学习完成后,如果f(X)<f(X),则更新个 量。图l(a)给出了T(取1或2)的两种情况下dif 体,即=w,否则不更新。 ference的向量表示;图l(b)描述了“教阶段”,应 4)如果满足终止条件(达到最大评估次数或 用于X的两个可能的扰动框,从概率角度描述了 最大迭代次数),则优化结束并输出最优个体 应用于X每一个可能的扰动;图1(c)描述了“学 X,否则转至2)继续。 阶段”,应用于X的两种可能的扰动框。 2*X 7 扰动 Br-Xc 范围 一扰动 范围 0 (a)differencel的向量表示 (b)“教阶段”的扰动 (c)“学阶段”的扰动 图1扰动分析的几何解释 Fig.1 Geometric interpretation of disturbance analysis 2.2随机向量的扰动分析 倍,这样能增大算法跳出局部最优的概率,在一 类似于2.1节的分析,如果将式(2)和式(3)中 定程度上改善算法“早熟”收敛的状况,提高全局 各分量取值于[0,1]的随机向量替换为各分量取 搜索能力。 值于[-1,1]的随机向量,则应用于X的扰动范围 图2(a)、(b)分别描述了在“教阶段”和“学阶 将会扩大,“教阶段”的搜索扰动范围会变为原来 段”,使用各分量取值于[一1,1]的随机向量后,应 的4倍,而“学阶段”的扰动范围将变为原来的两 用于X的可能的扰动范围。 扰动范围 扰动 范围 0 0 (a)“教阶段”的扰动 b)“学阶段”的扰动 图2 扰动分析的几何解释(C,∈【-1,1) Fig.2 Geometric interpretation of disturbance analysis(r E[-1,1])
TF = round[1+rand(0,1)] X mean = 1 NP ∑NP j=1 X j 表示教学因子,取值 为 1 或 2; 表示班级全体学员的平均 知识水平。 X j f(X j ) f(X j new) < f(X j old) X j = X j new “教阶段”完成后,评估学员 的学习成绩 (即适应度值 ),如果 ,则进行 更新,即 ,否则不更新。 k , j X j 3)“学阶段”。学员之间进行相互交流,通过 向其他同学学习,来提升自身的水平。从班级中 随机抽取一个学员 K k ,k 是 [1,NP] 中的一个随机 整数, ,学员 与其进行交流学习,具体如下: X j new = X j old +r ⊗ ( X k − X j ) , if f ( X k ) < f ( X j ) X j old +r ⊗ ( X j − X k ) , 其他 (3) f ( X k ) < f ( X j ) X j = X j new 学习完成后,如果 ,则更新个 体,即 ,否则不更新。 4) 如果满足终止条件 (达到最大评估次数或 最大迭代次数),则优化结束并输出最优个体 Xbest,否则转至 2) 继续。 2 教与学优化算法的空间扰动分析 2.1 标准 TLBO 算法的几何解释 为了更好地理解 TLBO 的工作原理,以二维 空间为例,采用几何分析的方法来解释算法在“教 阶段”和“学阶段”的空间扰动状况。 文献 [19] 指出式 (2) 和 (3) 中的 r 本质上是一 个各分量都取值于 [0,1] 的 D 维随机向量,考虑到 由随机参数所引起的扰动的极限情形,容易观察 出“教阶段”和“学阶段”的空间扰动情形。由于 r 中的每个元素都是取值于 [0,1] 的随机数,所以 r 对 difference 的影响实际是一个尺度上的缩放, 即 difference 可以为图 1(b)、(c) 方框内的任意向 量。图 1(a) 给出了 TF(取 1 或 2) 的两种情况下 difference 的向量表示;图 1(b) 描述了“教阶段”,应 用于 X j 的两个可能的扰动框,从概率角度描述了 应用于 X j 每一个可能的扰动;图 1(c) 描述了“学 阶段”,应用于 X j 的两种可能的扰动框。 2*Xmean X j Xmean Xteacher 扰动 范围 X j X r 扰动 范围 (a) difference的向量表示 (b) “教阶段”的扰动 (c) “学阶段”的扰动 x2 O x1 x2 O x1 x2 O x1 图 1 扰动分析的几何解释 Fig. 1 Geometric interpretation of disturbance analysis 2.2 随机向量的扰动分析 类似于 2.1 节的分析,如果将式 (2) 和式 (3) 中 各分量取值于 [0,1] 的随机向量替换为各分量取 值于 [−1,1] 的随机向量,则应用于 X j 的扰动范围 将会扩大,“教阶段”的搜索扰动范围会变为原来 的 4 倍,而“学阶段”的扰动范围将变为原来的两 倍,这样能增大算法跳出局部最优的概率,在一 定程度上改善算法“早熟”收敛的状况,提高全局 搜索能力。 图 2(a)、(b) 分别描述了在“教阶段”和“学阶 段”,使用各分量取值于 [−1,1] 的随机向量后,应 用于 X j 的可能的扰动范围。 X j X j X r 扰动 范围 扰动范围 (a) “教阶段”的扰动 (b) “学阶段”的扰动 x2 O x1 x2 O x1 图 2 扰动分析的几何解释 (ri∈[−1,1]) Fig. 2 Geometric interpretation of disturbance analysis(ri∈[−1,1]) 第 2 期 黎延海,等:随机交叉−自学策略改进的教与学优化算法 ·315·
·316· 智能系统学报 第16卷 2.3随机扰动的实验分析 典型的原点最优的多峰问题,~6是对它们进行 为检验上述对使用不同取值范围的随机数所 了Shift操作(非原点最优)。设置维度D=30,种 产生的扰动状况的分析,将标准TLBO算法和 群大小NP=10,评价次数为150000次。表1统 TLBO(r为各分量取值于[-1,1)的随机向量)在 计了30次独立运行得到的最优目标值的平均值、 6个标准测试函数上进行仿真测试,其中~5是 标准差及运行时间,图3给出6个函数的收敛曲线。 表130次实验统计结果 Table 1 Thirty times optimization statistical results 函数 算法 平均值±标准差 时间/s TLBO 5.32×1015±1.58×1015 1.22 f:Ackley Function TLBO, 7.99×1015±0.00 1.16 TLBO 0.00±0.00 1.22 Griewank Function TLBO, 1.48×100±3.69×100 1.33 TLBO 1.97×1001±1.30x1001 1.04 Rastrigin Function TLBO 5.76×1001±2.98×1001 1.05 TLBO 1.82×100±1.04 4.31 Ackley Shift Function TLBO, 7.64×1015±2.09×1015 4.14 TLBO 2.29±4.47 4.33 s:Griewank Shift Function TLBO 8.63×1004±2.69x100 4.12 TLBO 2.05×102±2.82×1001 3.11 Rastrigin Shift Function TLBO, 4.67×1001±2.68×1001 2.99 10 心 109 有的原点偏倚,允许收敛的种群继续沿着原点的 10 10 方向搜索更好的解决方案,从而对原点最优问题 TLBO 10 10 100 TLBO, 能取得更好的优化效果。对非原点最优问题,标 100 10- 准TLBO算法在种群收敛到局部最优时,要么继 10- 10-2 续利用局部最优信息,要么沿着原,点方向继续探 10 15 0 2 34 评价次数/10 评价次数/10 索,由于最优解在原点以外的点上,沿原点方向 (a)Ackley function (b)Ackley shift function 的搜索几乎毫无意义,所以无法进一步获得高精 103 10 02 TLBO -TLBO 度的解;而采用各分量取值于[-1,)的随机向量, 10 -TLBO 4 00 TLBO1 使得搜索范围成倍扩大,算法跳出局部最优的能 力得到提高,获得最优解的概率变大,随着迭代 10- 10 10-2 10-2 0-3 的进行,能取得更好的优化效果。 10- 10 0 5 10 15 0 10 评价次数/10的 评价次数/10 3基于随机交叉一自学策略的教与学 (c)Griewank function (d)Griewank shift function 优化算法 10 TLBO 103 TLBO ÷TLBO TLBO, 标准TLBO算法中,由于教师和学习对象都属 102 102 于现有种群,所以无论是“教阶段”还是“学阶段”的 操作都是在当前位置的有限范围内进行搜索,学习 10 10 者都依据现有种群的经验来提高自己的成绩,使得 0 10 0 10 15 评价次数/10 评价次数/10 算法具有良好的开发性能,而跳出局部最优的能力 (e)Rast function (f)Rastrigin shift function 不足。为增强算法的全局搜索能力,使迭代过程中 图3测试函数了的收敛曲线图 算法的探索与开发过程得到平衡,对“教”和“学”阶 Fig.3 Convergence plot of benchmark functionf 段进行改进,并使用随机交叉策略和“自学”策略, 从表1和图3可以看出,对原点最优问题,标 来提高算法对复杂多模态问题的优化性能。 准TLBO算法所得解的精度更高,时间更短,但对 3.1“教阶段”的改进 非原点最优问题,TLBO,算法的求解精度和时间 当班级中学生成绩差异较大时,最差成绩往 则更优。由于标准TLBO算法的“教”阶段存在固 往会拉低班级的平均水平,如果教学过程中重点
2.3 随机扰动的实验分析 r [−1,1] 为检验上述对使用不同取值范围的随机数所 产生的扰动状况的分析,将标准 TLBO 算法和 TLBO1 ( 为各分量取值于 的随机向量) 在 6 个标准测试函数上进行仿真测试,其中 f1~f3 是 D = 30 NP = 10 典型的原点最优的多峰问题,f4~f6 是对它们进行 了 Shift 操作 (非原点最优)。设置维度 ,种 群大小 ,评价次数为 150 000 次。表 1 统 计了 30 次独立运行得到的最优目标值的平均值、 标准差及运行时间,图 3 给出 6 个函数的收敛曲线。 表 1 30 次实验统计结果 Table 1 Thirty times optimization statistical results 函数 算法 平均值±标准差 时间/s f1 : Ackley Function TLBO 5.32×10−15±1.58×10−15 1.22 TLBO1 7.99×10−15±0.00 1.16 f2 : Griewank Function TLBO 0.00±0.00 1.22 TLBO1 1.48×10−03±3.69×10−03 1.33 f3 : Rastrigin Function TLBO 1.97×10+01±1.30×10+01 1.04 TLBO1 5.76×10+01±2.98×10+01 1.05 f4 :Ackley Shift Function TLBO 1.82×10+01±1.04 4.31 TLBO1 7.64×10−15±2.09×10−15 4.14 f5 :Griewank Shift Function TLBO 2.29±4.47 4.33 TLBO1 8.63×10−04±2.69×10−03 4.12 f6 : Rastrigin Shift Function TLBO 2.05×10+02±2.82×10+01 3.11 TLBO1 4.67×10+01±2.68×10+01 2.99 (b) Ackley shift function 评价次数/104 0 1 3 4 2 5 100 10−5 10−10 10−20 10−15 平均最好适应值 (a) Ackley function 评价次数/104 0 5 10 TLBO TLBO1 TLBO TLBO1 TLBO TLBO1 TLBO TLBO1 TLBO TLBO1 TLBO TLBO1 15 100 10−5 10−10 10 平均最好适应值 −15 104 103 (d) Griewank shift function 评价次数/104 0 5 10 15 102 101 100 10−1 10−2 10−3 10 平均最好适应值 −4 103 102 (c) Griewank function 评价次数/104 0 5 10 15 101 100 10−1 10−2 10 平均最好适应值 −3 (f) Rastrigin shift function 评价次数/104 0 5 10 15 平均最好适应值 103 (e) Rast function 评价次数/104 0 5 10 15 102 101 103 102 10 平均最好适应值 1 图 3 测试函数 f1~f6 的收敛曲线图 Fig. 3 Convergence plot of benchmark function f1~f6 从表 1 和图 3 可以看出,对原点最优问题,标 准 TLBO 算法所得解的精度更高,时间更短,但对 非原点最优问题,TLBO1 算法的求解精度和时间 则更优。由于标准 TLBO 算法的“教”阶段存在固 [−1,1] 有的原点偏倚,允许收敛的种群继续沿着原点的 方向搜索更好的解决方案,从而对原点最优问题 能取得更好的优化效果。对非原点最优问题,标 准 TLBO 算法在种群收敛到局部最优时,要么继 续利用局部最优信息,要么沿着原点方向继续探 索,由于最优解在原点以外的点上,沿原点方向 的搜索几乎毫无意义,所以无法进一步获得高精 度的解;而采用各分量取值于 的随机向量, 使得搜索范围成倍扩大,算法跳出局部最优的能 力得到提高,获得最优解的概率变大,随着迭代 的进行,能取得更好的优化效果。 3 基于随机交叉−自学策略的教与学 优化算法 标准 TLBO 算法中,由于教师和学习对象都属 于现有种群,所以无论是“教阶段”还是“学阶段”的 操作都是在当前位置的有限范围内进行搜索,学习 者都依据现有种群的经验来提高自己的成绩,使得 算法具有良好的开发性能,而跳出局部最优的能力 不足。为增强算法的全局搜索能力,使迭代过程中 算法的探索与开发过程得到平衡,对“教”和“学”阶 段进行改进,并使用随机交叉策略和“自学”策略, 来提高算法对复杂多模态问题的优化性能。 3.1 “教阶段”的改进 当班级中学生成绩差异较大时,最差成绩往 往会拉低班级的平均水平,如果教学过程中重点 ·316· 智 能 系 统 学 报 第 16 卷
第2期 黎延海,等:随机交叉-自学策略改进的教与学优化算法 ·317· 加强对最差生的关注,使其成绩得到大幅度提 式中r为各分量取值于[-1,的随机向量。 高,缩小与班级其他同学间的差距,则可以加快 3.2“学阶段”的改进 班级整体水平的提升。故用班级中的成绩最差者 学生学习时,不仅会在同学间进行相互交流, or替换班级平均水平mean,即 也会向老师请教。在迭代的前期,同学间的信息 交流较多,但随着迭代的进行,学生会更多地向 difference=r1⑧(-Te·X"o) (4) 老师请教.故对学习方式做如下改进: X+r2⑧ f(X)<f(X (5) X+r2⑧ + 其他 其中,2为各分量取值于[-1,1)的随机向量,k是 随机进行自我调整,提高学习效率,自学步长随迭 [1,NP]中的一个随机整数,k≠j,t为当前迭代次 代的进行由ms逐步动态缩小为dn。搜索前期, 数,Tmx为最大迭代次数。在迭代初期,t较小, 步长值较大,算法具有强的空间扰动能力,有助于 (1-t/Tmx)的值较大,学生间的相互讨论更多,算法 探索新的未知区域;随着迭代的进行,步长值逐渐 更加注重随机性学习,能够维持种群多样性,增大 缩小,使得对当前解的扰动幅度变小,有利于提高 有效搜索范围;随着迭代的进行,1逐渐增大, 解的精度,这样一种动态调整过程能有效平衡算法 (t/Tmx)越来越大,学生会更多地向老师求教,逐渐 在搜索过程中的空间扰动能力和局部寻优能力。 侧重于有向性学习,使算法的局部搜索能力增强。 同时,以概率SDR在搜索空间进行随机搜寻,进行 33随机交叉-自学策略 自我拓展学习,可以增加算法的全局搜索能力。大 3.3.1随机交叉策略 量数值实验测试表明,自我拓展率取值不宜过大, 学生经过“教”阶段后,各自的成绩会得到一 当SDR∈0.01,0.1]时,算法会有较好的性能。 定程度的提升,但彼此间的差距也会缩小,即种 3.4 CSTLBO算法的流程 群的多样性降低,而通过集体讨论交流,每位学 CSTLBO算法的具体流程如图4所示。 生都可以在不同科目上随机地向班级中不同的同 开始 学求教,并达到该同学在此科目上的水平,这实 际上就是种群间的一种随机交叉过程,具体为 参数设置和种群初始化 k右a,rand<rand ={其他 (6) 仁l i=1,2,…,D,j=1,2.…,NP,k是[1,NP]中的个 不同于j的随机整数,rand为0,1]间的随机数。这 “教阶段”,按式(1)、(4)更 里使用一种随机概率来确定学习者与不同学习对象 新所有个体,保留更优的个体。 间的交流程度,通过进行种群间的随机交叉,能够 =1+1 k=1 维持种群的多样性,提高算法跳出局部最优的能力。 3.3.2“自学”策略 <NP 实际学习过程中,部分学生在学习之余,也会 Y 根据自己当前的学习状况,挑选部分课程进行“自 N rand<SP 学”,发掘新的知识,从而提升自己的学业水平。 Y 采用式(6)进行随 具体如下:对第i门课程,产生一个0,1)间的随 机交叉 机数rand,来用于选择不同的“自学”方式。 “学阶段,按式 (⑤)更新个体 “自学阶段,按式 old +2.(rand-0.5).rand rand (7)、(8)更新 +rand.(x). rand SDR (7) 其他 =k+1 old.i Amin (益)月 (8) N 入n tTs i=1,2,…,D,j=1,2,…,NP。其中,SDR(self development rate,SDR)为自我拓展率,A表示自学 结束 步长,s、mm分别为最大、最小步长。 图4 CSTLBO算法流程 对每一科目,学生会根据自己当前的知识水平 Fig.4 Flow chart of CSTLBO algorithm
X worst X mean 加强对最差生的关注,使其成绩得到大幅度提 高,缩小与班级其他同学间的差距,则可以加快 班级整体水平的提升。故用班级中的成绩最差者 替换班级平均水平 ,即 difference = r1 ⊗ ( X teacher −TF · X worst) (4) 式中 r1 为各分量取值于 [−1,1] 的随机向量。 3.2 “学阶段”的改进 学生学习时,不仅会在同学间进行相互交流, 也会向老师请教。在迭代的前期,同学间的信息 交流较多,但随着迭代的进行,学生会更多地向 老师请教,故对学习方式做如下改进: X j new = X j old + r2 ⊗ [(1− t Tmax ) · X k old + ( t Tmax ) · X teacher − X j old] , if f(X k ) < f(X j ) X j old + r2 ⊗ [(1− t Tmax ) · X j old + ( t Tmax ) · X teacher − X k old] , 其他 (5) r2 [−1,1] k [1,NP] k , j t Tmax t (1−t/Tmax) t (t/Tmax) 其中, 为各分量取值于 的随机向量, 是 中的一个随机整数, , 为当前迭代次 数 , 为最大迭代次数。在迭代初期, 较小, 的值较大,学生间的相互讨论更多,算法 更加注重随机性学习,能够维持种群多样性,增大 有效搜索范围;随着迭代的进行, 逐渐增大, 越来越大,学生会更多地向老师求教,逐渐 侧重于有向性学习,使算法的局部搜索能力增强。 3.3 随机交叉−自学策略 3.3.1 随机交叉策略 学生经过“教”阶段后,各自的成绩会得到一 定程度的提升,但彼此间的差距也会缩小,即种 群的多样性降低,而通过集体讨论交流,每位学 生都可以在不同科目上随机地向班级中不同的同 学求教,并达到该同学在此科目上的水平,这实 际上就是种群间的一种随机交叉过程,具体为 x j new,i = { x k old,i , rand < rand x j old,i , 其他 (6) i = 1,2,··· ,D, j = 1,2,··· ,NP k [1,NP] j rand [0,1] , 是 中的一个 不同于 的随机整数, 为 间的随机数。这 里使用一种随机概率来确定学习者与不同学习对象 间的交流程度,通过进行种群间的随机交叉,能够 维持种群的多样性,提高算法跳出局部最优的能力。 3.3.2 “自学”策略 i [0,1] rand 实际学习过程中,部分学生在学习之余,也会 根据自己当前的学习状况,挑选部分课程进行“自 学”,发掘新的知识,从而提升自己的学业水平。 具体如下:对第 门课程,产生一个 间的随 机数 ,来用于选择不同的“自学”方式。 x j new,i = x j old,i+2 ·(rand−0.5)· λ, rand < rand x L i +rand · ( x U i − x L i ) , rand < SDR x j old,i , 其他 (7) λ = λmax × ( λmin λmax )( t Tmax ) 2 (8) i = 1,2,··· ,D, j = 1,2,··· ,NP SDR λ λmax λmin 。其中, (selfdevelopment rate, SDR) 为自我拓展率, 表示自学 步长, 、 分别为最大、最小步长。 对每一科目,学生会根据自己当前的知识水平 λmax λmin SDR SDR ∈ [0.01,0.1] 随机进行自我调整,提高学习效率,自学步长随迭 代的进行由 逐步动态缩小为 。搜索前期, 步长值较大,算法具有强的空间扰动能力,有助于 探索新的未知区域;随着迭代的进行,步长值逐渐 缩小,使得对当前解的扰动幅度变小,有利于提高 解的精度,这样一种动态调整过程能有效平衡算法 在搜索过程中的空间扰动能力和局部寻优能力。 同时,以概率 在搜索空间进行随机搜寻,进行 自我拓展学习,可以增加算法的全局搜索能力。大 量数值实验测试表明,自我拓展率取值不宜过大, 当 时,算法会有较好的性能。 3.4 CSTLBO 算法的流程 CSTLBO 算法的具体流程如图 4 所示。 参数设置和种群初始化 t=1 k<NP “学”阶段,按式 (5)更新个体 t=t+1 开始 Y “教阶段”,按式 (1)、(4)更 新所有个体,保留更优的个体。 rand<SP 采用式(6)进行随 机交叉 “自学”阶段,按式 (7)、(8)更新 t≤Tmax 结束 k=1 k=k+1 N Y Y N N 图 4 CSTLBO 算法流程 Fig. 4 Flow chart of CSTLBO algorithm 第 2 期 黎延海,等:随机交叉−自学策略改进的教与学优化算法 ·317·
·318 智能系统学报 第16卷 每次迭代过程中,对每位学生而言,依据选择 tion;Fig为Schaffer Shift Function;Fi4为Bo- 概率SP来选择“学”和“自学”两种学习方式中的一 hachevsky Shift Function;Fis Shifted and Ro- 种执行,具体如下: tated Rastrigin's Function;Fis Shifted and Ro- SP=SPmax- SPmas-SPainX Tas 9) tated Expanded Scaffer's F Function;F Shif- ted and Rotated Lunacek Bi_Rastrigin Function; 随迭代的进行,SP的值从SPx逐渐减小到 Fis Shifted and Rotated Non-Continuous SPm,表明在迭代初期,同学之间的信息交流比较 Rastrigin's Function;F Shifted and Rotated 多,随着学习的深入,当学生的水平都得到较大 Levy Function;F2o Shifted and Rotated Schwefel's 提升后,会更多地倾向于进行自我探索学习。 Function. 4实验仿真测试 本文测试的环境为:戴尔PC机Intel Core (TM)i7-47903.6 GHz CPU,8GB内存; 4.1测试函数与参数设置 Window10操作系统;MATLAB R2014b软件。为 为检验CSTLBO算法在连续优化问题中的性 保证测试的公平,各种算法采用相同的适应度函 能,将其与6种TLBO的改进算法(ATLS、 数评价次数:对F,~F4,评价次数MaxFEs=-5000× NTLBO、TLBO-GC、ITLBO、TLBO-CSWL、 D;对F1s~F2o,MaxFEs-=10000×D,其中D为维 DSTLBO)在20个复杂Benchmark函数上进行测 数。比较算法的参数设置均参考于原文献,本文 试比较。将函数F,,F;~F4称为原点最优问题 算法的参数设置为:NP=20,SPmx=0.6,SPm=0.2, (它们在原点处得到了最优值),其余的函数称为 SDR=0.02,x=(xU-xL)/10,mn=(xU-xL)/1015)o 非原点最优问题,其中一些是通过对原点最优问 4.2实验结果与分析 题进行移位和旋转得到的,移位函数取自CEC 为避免偶然因素的影响.所有算法在D=100 2008,移位和旋转函数取自CEC2017。 时都独立运行了30次,表2记录了各种算法在 F,为Ackley Function;F2为Michalewics Func- 20个测试函数上30次独立实验的统计结果,对 tion;F Rastrigin Function;F Griewank Func- F~F4,记录了最优目标值的平均值和标准差,对 tion;Fs Schwefel 2.26 Function;F Weierstrass Fs~Fo,记录了最优误差的平均值和标准差。为 Function;F,为FastFractal‘DoubleDip'Func- 检验本文算法与比较算法之间的差异性,进行了 tion;Fs Sphere Shift Function;F Ackley Shift 显著性水平为0.05的Wilcoxon秩和检验,“+” Function;Fio为Griewank Shift Function;F,为 “_”、“≈”分别表示比较算法与本文算法的成绩相 Rastrigin Shift Function;F2 Rosebrock shift Func- 比是好、差和相当。 表2算法30次独立测试结果(D-100) Table 2 Thirty times optimization results of the algorithm(D=100) ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO 平均值 8.88×10-16 3.20x105 7.99x1015 6.57x105 1.95×1015 7.46×105 5.93x1015 F,标准美 1.74x1015 + + 0.00 0.00 1.79x105 1.67x1015 1.30x1015 3.28×104 平均值 -2.15×10 -7.96×10 -7.89×10 -7.69×10 -3.48×10 -8.90×101 -9.93×10 F2 标准差 1.37 531 3.63 3.13 2.04 2.97 6.19x102 平均值 0.00 0.00 1.63×10 0.00 0.00 4.63 5.68×1015 F3 标准差 0.00 0.00 4.45×10 0.00 0.00 1.42×10 2.54×1014 平均值 0.00 0.00 0.00 0.00 0.00 0.00 0.00 F,标准差 0.00 0.00 0.00 0.00 0.00 0.00 0.00 平均值 3.76×10 1.68×10 1.24×10 1.65×10 1.14×10 9.67×10 1.31x1010 Fs 标准差 1.04×103 2.50×10 1.27×103 2.27×103 5.05×10 1.10×103 0.00 平均值 1.84×101 1.52×10 8.88×10 1.19×10 1.47×10 9.71×10 1.75x1010 标准差 3.56 4.76 3.71 7.57 3.06 1.13×10 4.55×101 平均值-7.64×10 -1.15×10 -1.30×10 -1.26×10 -8.96×101 -1.20×10 -1.54×10 F 标准差3.04×10 3.59×10 3.35×10 4.27×101 2.61×10 2.90x10 4.14
SP 每次迭代过程中,对每位学生而言,依据选择 概率 来选择“学”和“自学”两种学习方式中的一 种执行,具体如下: SP = SPmax − ( SPmax −SPmin) × ( t Tmax )(1/2) (9) SP SPmax SPmin 随迭代的进行, 的值从 逐渐减小到 ,表明在迭代初期,同学之间的信息交流比较 多,随着学习的深入,当学生的水平都得到较大 提升后,会更多地倾向于进行自我探索学习。 4 实验仿真测试 4.1 测试函数与参数设置 为检验 CSTLBO 算法在连续优化问题中的性 能,将其 与 6 种 TLB O 的改进算 法 (ATLS 、 NTLBO、 TLBO-GC、 ITLBO、 TLBO-CSWL、 DSTLBO) 在 20 个复杂 Benchmark 函数上进行测 试比较。将函数 F1 ,F3 ~F4 称为原点最优问题 (它们在原点处得到了最优值),其余的函数称为 非原点最优问题,其中一些是通过对原点最优问 题进行移位和旋转得到的,移位函数取自 CEC 2008,移位和旋转函数取自 CEC 2017。 F1 为 Ackley Function;F2 为 Michalewics Function;F3 为 Rastrigin Function;F4 为 Griewank Function;F5 为 Schwefel 2.26 Function;F6 为 Weierstrass Function;F7 为 FastFractal ‘DoubleDip’ Function;F8 为 Sphere Shift Function;F9 为 Ackley Shift Function;F10 为 Griewank Shift Function;F11 为 Rastrigin Shift Function;F12 为 Rosebrock shift Function;F1 3 为 Schaffer Shift Function;F1 4 为 Bohachevsky Shift Function;F15 为 Shifted and Rotated Rastrigin’s Function;F16 为 Shifted and Rotated Expanded Scaffer’s F6 Function;F17 为 Shifted and Rotated Lunacek Bi_Rastrigin Function; F1 8 为 Shifted and Rotated Non-Continuous Rastrigin’s Function;F19 为 Shifted and Rotated Levy Function;F20 为 Shifted and Rotated Schwefel’s Function. D D D NP = 20 SPmax = 0.6 SPmin = 0.2 SDR = 0.02 λmax =(xU − xL)/10 λmin =(xU − xL)/(1015) 本文测试的环境为:戴尔 PC 机 Intel Core (TM)i7-4790 3.6 GHz CPU , 8 G B 内存; Window10 操作系统;MATLAB R2014b 软件。为 保证测试的公平,各种算法采用相同的适应度函 数评价次数:对 F1~F14,评价次数 MaxFEs=5 000× ;对 F15~F20,MaxFEs=10 000× ,其中 为维 数。比较算法的参数设置均参考于原文献,本文 算法的参数设置为: , , , , , 。 4.2 实验结果与分析 为避免偶然因素的影响,所有算法在 D =100 时都独立运行了 30 次 ,表 2 记录了各种算法在 20 个测试函数上 30 次独立实验的统计结果,对 F1~F14,记录了最优目标值的平均值和标准差,对 F15~F20,记录了最优误差的平均值和标准差。为 检验本文算法与比较算法之间的差异性,进行了 显著性水平为 0.05 的 Wilcoxon 秩和检验,“+”、 “−”、“≈”分别表示比较算法与本文算法的成绩相 比是好、差和相当。 表 2 算法 30 次独立测试结果 (D=100) Table 2 Thirty times optimization results of the algorithm(D=100) ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO F1 平均值 8.88×10−16 + 3.20×10−15 + 7.99×10−15 + 6.57×10−15 + 1.95×10−15 + 7.46×10−15 + 5.93×10−13 标准差 0.00 1.74×10−15 0.00 1.79×10−15 1.67×10−15 1.30×10−15 3.28×10−14 F2 平均值 −2.15×101 − −7.96×101 − −7.89×101 − −7.69×101 − −3.48×101 − −8.90×101 − −9.93×101 标准差 1.37 5.31 3.63 3.13 2.04 2.97 6.19×10−2 F3 平均值 0.00 + 0.00 + 1.63×102 − 0.00 + 0.00 + 4.63 − 5.68×10−15 标准差 0.00 0.00 4.45×101 0.00 0.00 1.42×101 2.54×10−14 F4 平均值 0.00 ≈ 0.00 ≈ 0.00 ≈ 0.00 ≈ 0.00 ≈ 0.00 ≈ 0.00 标准差 0.00 0.00 0.00 0.00 0.00 0.00 0.00 F5 平均值 3.76×104 − 1.68×104 − 1.24×104 − 1.65×104 − 1.14×104 − 9.67×103 − 1.31×10−10 标准差 1.04×103 2.50×103 1.27×103 2.27×103 5.05×101 1.10×103 0.00 F6 平均值 1.84×102 − 1.52×102 − 8.88×101 − 1.19×102 − 1.47×102 − 9.71×101 − 1.75×10−11 标准差 3.56 4.76 3.71 7.57 3.06 1.13×101 4.55×10−11 F7 平均值 −7.64×102 − −1.15×103 − −1.30×103 − −1.26×103 − −8.96×102 − −1.20×103 − −1.54×103 标准差 3.04×101 3.59×101 3.35×101 4.27×101 2.61×101 2.90×101 4.14 ·318· 智 能 系 统 学 报 第 16 卷
第2期 黎延海,等:随机交叉-自学策略改进的教与学优化算法 ·319· 续表2 ATLS NTLBO TLBO-GO ITLBO TLBO-CSWL DSTLBO CSTLBO 平均值 3.47×101 4.35×10 8.91×103 2.20×103 3.04×10i 2.36×109 2.28×1023 标准差 5.98×103 1.38×10 4.21×103 7.81×103 1.59×10 1.05×108 2.22×1024 平均值 2.09×10 1.93×10 1.80×10 1.86×10 2.06×10 1.71×10 6.19x108 标准差 4.44×102 7.41x102 6.07x10 2.75x101 7.70x102 6.68×10 2.81×1014 平均值 2.76×10 3.63 8.61×10 1.29×10 2.35×10 1.50 1.11x1017 F0标准差550x10 5.36 5.33×10 1.64×10 1.93×101 3.80 3.42x101 平均值 1.85×10 9.32×101 5.96×10 7.32×101 1.60×10 6.82×10 7.50x1014 标准差 6.45×10 4.98×10 8.11×10 5.52×10 5.39×10 5.71×10 1.04×10-13 平均值9.37×100 2.35×10 1.15×109 4.69×10 7.91×1010 3.51×10 2.47×102 F12 标准差6.70×10 5.93×10 1.14×10 4.89×102 4.17×109 3.61×102 1.20×102 平均值 8.63×102 6.29×10 4.99×102 5.54×102 7.97×102 5.00x102 2.54x10J FB标准差 1.49×10 1.34×10 3.33×10 2.67×10 1.60×10 2.64×10 1.86×101 平均值 4.87×10 5.61×10 1.74×102 3.65×10 4.38×10 3.84×10 0.00 F14 标准差 1.23×10 9.44 8.26×10 7.58 3.13×102 5.55 0.00 平均值 1.76×10 8.61×10 8.90x102 6.22×10 1.49×10 5.78×102 3.16×102 F15 标准差6.44×10 5.44×10 5.92×10 7.33×10 5.22×10 4.21×10 4.10×103 平均值 1.23×102 6.39×10 5.34×10 4.83×10 1.02×10 3.98×10 2.27x×1013 F6标准差 一 4.40 2.22 5.80 3.56 5.17 5.44 0.00 平均值 3.48×10 2.53×10 1.80×103 1.72×10 3.16×10 1.36×10 4.40×102 Fn标准差 1.20×102 7.10x10 1.90×102 1.57×102 8.93×10 2.16×102 4.97×103 平均值 1.94×10 1.03×10 9.42×102 7.17×10 1.66×10 6.01x10 2.87×10 Fs标准差 5.29×10 6.47x10 6.57×10 8.63×10 7.26×10 5.73×10 3.26×10 平均值 9.89×101 2.24×10 2.24×10 1.58×10 6.86×10 1.18×10 3.48×102 F19 标准差7.07×10 1.09x103 3.04×10 1.85x103 4.61×103 1.97x103 1.56×101 平均值3.40×10 1.65×10 1.97×10 1.36×10 2.91×10 1.46x10 2.29×104 F20 标准差8.27×10 1.69x10 1.14×103 1.41×10 8.03×102 1.30×103 1.09×103 合 2 3 1 3 2 2 17 16 17 16 17 计 6 1 2 1 1 从表2可以看出,所有比较算法在F,这个原 点最优问题上的收敛精度优于本文算法,在F,上 10 所有算法都能达到理论最优值,除F。外,本文算 法在余下的17个测试函数上的平均值和方差都 109 优于比较算法,说明所提算法对非原点最优问题 ATLS 的优化能力较强,效果良好。从Wilcoxon符号秩 10s NTLBO TLBO-GC 检验的结果来看,比较算法最多在4个问题上优 ¥-ITLBO -F-TLBO-CSWL 于或相当于本文算法,而在其余测试问题上都明 -DSTLBO 显差于本文算法。 CSTLBO 101 为进一步分析实验结果,图5~6给出了30次 00.51.01.52.02.53.03.54.04.55.0 评价次数 ×10 独立运行的平均最优目标值收敛曲线(D=100 维),图7~8给出了30次独立运行的最优目标值 图5测试函数F,的收敛性曲线 分布盒图(D=100维)。 Fig.5 Convergence plot of benchmark funetion F
从表 2 可以看出,所有比较算法在 F1 这个原 点最优问题上的收敛精度优于本文算法,在 F4 上 所有算法都能达到理论最优值,除 F20 外,本文算 法在余下的 17 个测试函数上的平均值和方差都 优于比较算法,说明所提算法对非原点最优问题 的优化能力较强,效果良好。从 Wilcoxon 符号秩 检验的结果来看,比较算法最多在 4 个问题上优 于或相当于本文算法,而在其余测试问题上都明 显差于本文算法。 为进一步分析实验结果,图 5~6 给出了 30 次 独立运行的平均最优目标值收敛曲线 (D=100 维),图 7~8 给出了 30 次独立运行的最优目标值 分布盒图 (D=100 维)。 ×10 评价次数 5 0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO 5.0 100 10−5 10−10 10−15 平均最优适应值 图 5 测试函数 F11 的收敛性曲线 Fig. 5 Convergence plot of benchmark function F11 续表 2 ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO F8 平均值 3.47×105 − 4.35×102 − 8.91×103 − 2.20×10−3 − 3.04×105 − 2.36×10−9 − 2.28×10−23 标准差 5.98×103 1.38×103 4.21×103 7.81×10−3 1.59×104 1.05×10−8 2.22×10−24 F9 平均值 2.09×101 − 1.93×101 − 1.80×101 − 1.86×101 − 2.06×101 − 1.71×101 − 6.19×10−13 标准差 4.44×10−2 7.41×10−2 6.07×10−1 2.75×10−1 7.70×10−2 6.68×10−1 2.81×10−14 F10 平均值 2.76×103 − 3.63 − 8.61×101 − 1.29×10−1 − 2.35×103 − 1.50 − 1.11×10−17 标准差 5.50×101 5.36 5.33×101 1.64×10−1 1.93×102 3.80 3.42×10−17 F11 平均值 1.85×103 − 9.32×102 − 5.96×102 − 7.32×102 − 1.60×103 − 6.82×102 − 7.50×10−14 标准差 6.45×101 4.98×101 8.11×101 5.52×101 5.39×101 5.71×101 1.04×10−13 F12 平均值 9.37×1010 − 2.35×107 − 1.15×109 − 4.69×102 − 7.91×1010 − 3.51×102 − 2.47×102 标准差 6.70×109 5.93×107 1.14×109 4.89×102 4.17×109 3.61×102 1.20×102 F13 平均值 8.63×102 − 6.29×102 − 4.99×102 − 5.54×102 − 7.97×102 − 5.00×102 − 2.54×10−1 标准差 1.49×101 1.34×101 3.33×101 2.67×101 1.60×101 2.64×101 1.86×10−1 F14 平均值 4.87×103 − 5.61×101 − 1.74×102 − 3.65×101 − 4.38×103 − 3.84×101 − 0.00 标准差 1.23×102 9.44 8.26×101 7.58 3.13×102 5.55 0.00 F15 平均值 1.76×103 − 8.61×102 − 8.90×102 − 6.22×102 − 1.49×103 − 5.78×102 − 3.16×102 标准差 6.44×101 5.44×101 5.92×101 7.33×101 5.22×101 4.21×101 4.10×101 F16 平均值 1.23×102 − 6.39×101 − 5.34×101 − 4.83×101 − 1.02×102 − 3.98×101 − 2.27×10−13 标准差 4.40 2.22 5.80 3.56 5.17 5.44 0.00 F17 平均值 3.48×103 − 2.53×103 − 1.80×103 − 1.72×103 − 3.16×103 − 1.36×103 − 4.40×102 标准差 1.20×102 7.10×101 1.90×102 1.57×102 8.93×101 2.16×102 4.97×101 F18 平均值 1.94×103 − 1.03×103 − 9.42×102 − 7.17×102 − 1.66×103 − 6.01×102 − 2.87×102 标准差 5.29×101 6.47×101 6.57×101 8.63×101 7.26×101 5.73×101 3.26×101 F19 平均值 9.89×104 − 2.24×104 − 2.24×104 − 1.58×104 − 6.86×104 − 1.18×104 − 3.48×10−2 标准差 7.07×103 1.09×103 3.04×103 1.85×103 4.61×103 1.97×103 1.56×10−1 F20 平均值 3.40×104 − 1.65×104 + 1.97×104 ≈ 1.36×104 + 2.91×104 ≈ 1.46×104 + 2.29×104 标准差 8.27×102 1.69×103 1.14×103 1.41×103 8.03×102 1.30×103 1.09×103 合 计 + 2 3 1 3 2 2 − 17 16 17 16 16 17 ≈ 1 1 2 1 2 1 第 2 期 黎延海,等:随机交叉−自学策略改进的教与学优化算法 ·319·
·320· 智能系 统学报 第16卷 10r 4.3随机交叉策略的有效性分析 10 为检验本文所使用的随机交叉策略的有效 10 性,选取了复杂的非原点最优问题Weierstrass NTLBO 10 4TLBO-GO Function进行了测试,函数Weierstrass Function具 ◆-ITLBO 10 TLBO-CSWL 有多个极小值点,算法很容易陷人局部最优的状 10 DSTLBO 况。设置维数D=30,种群大小NP=20,最大评 CSTLBO 10 价次数MaxFEs-=150000,对搜索过程中产生的所 10r 01 45678910 有搜索点和每代的最优搜索点进行了跟踪记录, 3 评价次数 ×109 用于观察算法的搜索过程。图9描绘了搜索点 图6测试函数F的收敛性曲线 (取30维中的2维绘制)的分布图。 Fig.6 Convergence plot of benchmark function F1 0.5 0.4 2000 0.3 十 1800 0.2 1600 五 0.1 1400 0 1200 1000 -0.1 800 -0.2 600 空 0.3 400 -0.4 200 -0. 0.5-0.4-0.3-02-0100.1020.30.403 0 ATLS NTLBO TLBO-GC DSTLBO TLBO-CSWL ITLBO CSTLBO (a)随机交叉策略使用前 0.5r 0.4 图7测试函数F,的最优目标值分布盒图 0.3 4w 4 Fig.7 Boxplot of the optimal value distribution of bench- × 0.2 mark function Fu 0.1 0 ×10 -0.1 6r -0.2 -0.3 -0.4 0.5 05-0.4-0.3-020.100.1020.30.405 3 (b)随机交叉策略使用后 图9搜索点分布 空 Fig.9 Search point distribution 0 从图9可以看出,未使用随机交叉策略的搜 NTLBO ATLS TLBO-GC TLBO-CSWL ITLBO DSTLBO CSTLBO 索过程中,种群在多个局部极值处都有聚集,使 得在相同评价次数下,无法进行有效的开发,所 得解的精度不高;而使用了随机交叉策略的搜索 图8测试函数F1。的最优目标值分布盒图 Fig.8 Boxplot of the optimal value distribution of bench- 种群的分布很均匀,没有发生陷入局部最优的现 mark function Fi9 象,大多数搜索点都聚集于最优解附近,更多地 从收敛曲线图不难看出,本文算法对两个复 来进行局部开发,说明随机交叉策略能使算法有 杂优化函数(Rastrigin Shift Function、Shifted and 效地跳出局部最优,增强算法的全局搜索能力。 Rotated Levy Function)的收敛曲线呈逐渐下降趋 4.4 CSTLBO算法的种群多样性分析 势,收敛效果明显优于其他比较算法,说明本文 为进一步研究CSTLBO算法的收敛过程,以 算法的全局搜索能力较强,不易陷入局部最优。 4个复杂非原点最优测试函数(Schwefel2.26 从统计盒图可以看出,本文算法30次独立实 Function,Ackley Shift Function,Griewank Shift 验所得的最优值的分布基本呈一条直线,差距很 Function、Rastrigin Shift Function)为例进行实验 小,说明本文算法具有良好的稳定性。 (取维数D=100),在搜索过程中跟踪记录了算法
×105 105 评价次数 0 1 2 3 4 5 6 7 8 9 ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO 10 104 103 102 100 101 10−1 10−2 平均最优误差 图 6 测试函数 F19 的收敛性曲线 Fig. 6 Convergence plot of benchmark function F19 2 000 1 800 ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO 1 600 1 400 1 200 600 1 000 200 0 800 400 最优适应值 图 7 测试函数 F11 的最优目标值分布盒图 Fig. 7 Boxplot of the optimal value distribution of benchmark function F11 6 5 ATLS NTLBO TLBO-GC ITLBO TLBO-CSWL DSTLBO CSTLBO 4 3 2 1 0 最优适应值 图 8 测试函数 F19 的最优目标值分布盒图 Fig. 8 Boxplot of the optimal value distribution of benchmark function F19 从收敛曲线图不难看出,本文算法对两个复 杂优化函数 (Rastrigin Shift Function、Shifted and Rotated Levy Function) 的收敛曲线呈逐渐下降趋 势,收敛效果明显优于其他比较算法,说明本文 算法的全局搜索能力较强,不易陷入局部最优。 从统计盒图可以看出,本文算法 30 次独立实 验所得的最优值的分布基本呈一条直线,差距很 小,说明本文算法具有良好的稳定性。 4.3 随机交叉策略的有效性分析 D = 30 NP = 20 为检验本文所使用的随机交叉策略的有效 性,选取了复杂的非原点最优问题 Weierstrass Function 进行了测试,函数 Weierstrass Function 具 有多个极小值点,算法很容易陷入局部最优的状 况。设置维数 , 种群大小 , 最大评 价次数 MaxFEs=150 000,对搜索过程中产生的所 有搜索点和每代的最优搜索点进行了跟踪记录, 用于观察算法的搜索过程。图 9 描绘了搜索点 (取 30 维中的 2 维绘制) 的分布图。 0.5 0.4 0.3 0.2 0 −0.2 −0.4 −0.5 0.1 −0.1 −0.3 −0.5−0.4−0.3−0.2−0.1 0 0.1 0.2 0.3 0.4 0.5 (a) 随机交叉策略使用前 X Y 0.5 0.4 Y X (b) 随机交叉策略使用后 0.3 0.2 0 −0.2 −0.4 −0.5 0.1 −0.1 −0.3 −0.5−0.4−0.3−0.2−0.1 0 0.1 0.2 0.3 0.4 0.5 图 9 搜索点分布 Fig. 9 Search point distribution 从图 9 可以看出,未使用随机交叉策略的搜 索过程中,种群在多个局部极值处都有聚集,使 得在相同评价次数下,无法进行有效的开发,所 得解的精度不高;而使用了随机交叉策略的搜索 种群的分布很均匀,没有发生陷入局部最优的现 象,大多数搜索点都聚集于最优解附近,更多地 来进行局部开发,说明随机交叉策略能使算法有 效地跳出局部最优,增强算法的全局搜索能力。 4.4 CSTLBO 算法的种群多样性分析 D = 100 为进一步研究 CSTLBO 算法的收敛过程,以 4 个复杂非原点最优测试函数 (Schwefel 2.26 Function、Ackley Shift Function、Griewank Shift Function、Rastrigin Shift Function) 为例进行实验 (取维数 ),在搜索过程中跟踪记录了算法 ·320· 智 能 系 统 学 报 第 16 卷
第2期 黎延海,等:随机交叉-自学策略改进的教与学优化算法 ·321· 种群多样性的变化,如图10所示。种群多样性2 时也可以将该算法应用到实际的工程优化问题, 定义如下: 检验其具体实用性。 D 1 NP Diversity (- (10) 参考文献: NP [1]RAO R V.SAVSANI V J,VAKHARIA D P.Teaching- 式中无表示种群中第i个决策变量的均值。 learning-based optimization:a novel method for con- 10° 102 strained mechanical design optimization problems[J]. TLBO 10° TLBO 10 CSTLBO 型10 -CSTLBO Computer-aided design,2011,43(3):303-315. ° 10 [2]RAO R V.SAVSANI V J,VAKHARIA D P.Teaching- 10 1 10 1 Learning-Based Optimization:an optimization method for 10 壬1010 10-12 continuous non-linear large scale problems[J].Information 10- 10-4 200060001000014000 200060001000014000 sciences,.2012,183(1):1-15. 评价次数/10的 评价次数/10 (a)Schwefwl 2.26 Function (b)Ackley Shift Function [3]RAO R V,PATEL V.Multi-objective optimization of two stage thermoelectric cooler using a modified 10r BO 03 LBO 0 -CSTLBO 10 -CSTLBO teaching-learning-based optimization algorithm[J].Engin- 划 10° 102 eering applications of artificial intelligence,2013,26(1): 10 10 10 10- 430-445 10 10- [4]TUO Shouheng,HE Hong.Solving complex cardinality 10- 200060001000014000 10-0 200060001000014000 constrained mean-variance portfolio optimization prob- 评价次数10 评价次数/10 lems using hybrid HS and TLBO algorithm[J].Economic (c)Griewank Shift Function (d)Rastrigin Shift Function Computation and Economic Cybernetics Studies and Re- 图104个复杂非原点最优测试函数的种群多样性曲线 search2018,52(3):231-248. Fig.10 Population diversity curves of four complex non- [5]CHINTA S,KOMMADATH R,KOTECHA P.A note on origin optimal benchmark function multi-objective improved teaching-learning based optimiz- 从图I0可以看出,标准TLBO算法在搜索初 ation algorithm (MO-ITLBO)[J].Information sciences, 期多样性明显快速下降,然后在小范围内波动, 2016.373:337-350. 前后期变化不是特别明显,使得种群个体难以聚 [6]YU Dong,HONG Jun,ZHANG Jinhua,et al.Multi-object- 集到全局最优解,因此求解精度不高:CSTLBO算 ive individualized-instruction teaching-learning-based op- 法在迭代初期,具有较高的种群多样性,有利于 timization algorithm[J].Applied soft computing,2018,62: 288-314. 进行全局探索,随着迭代的进行,种群多样性保 [7]OUYANG Haibin,GAO Liqun,KONG Xiangyong,et al 持着持续下降的趋势,种群逐渐向全局最优解聚 Teaching-learning based optimization with global crossov- 集,有利于进行局部开发,从而能获得高精度的 er for global optimization problems[J.Applied mathemat- 全局解。 ics and computation,2015,265:533-556. 5结束语 [8]CHEN Debao,ZOU Feng,LI Zheng,et al.An improved teaching-learning-based optimization algorithm for solv- 为提高对非原点最优问题的优化能力,本文 ing global optimization problem[J].Information sciences. 提出了一种基于随机交叉-自学策略的教与学优 2015,297:171-190. 化算法一CSTLBO。算法使用几何方法分析了 [9]ZOU Feng,WANG Lei,HEI Xinhong,et al.Teaching- 标准TLBO算法在“教”和“学”阶段的扰动状况, learning-based optimization with learning experience of 改进了“教”和“学”阶段,并引入了随机交叉策略 other learners and its application[J].Applied soft comput- ing,2015,37:725-736. 和“自学”策略来提高算法的全局搜索能力。仿真 [10]王培崇,马玥,耿明月,等.具有小世界邻域结构的教与 测试的统计结果表明,所提算法求解精度高,稳 学优化算法[J].计算机科学与探索,2016,10(9) 定性好,能对较多的非原点最优问题取得良好的 1341-1350 优化效果,尤其是对进行了移位操作的复杂问 WANG Peichong,MA Yue,GENG Mingyue,et al.New 题。但对同时进行了移位和旋转操作的问题,优 teaching-learning-based optimization with neighborhood 化结果虽优于比较算法,但在求解精度上仍有提 structure based on small world[J].Journal of frontiers of 升空间,在后续研究中,可以进一步研究改进,同 computer science and technology,2016,10(9):
种群多样性的变化,如图 10 所示。种群多样性[20] 定义如下: Diversity = 1 D ∑D i=1 vut 1 NP ∑NP j=1 (x j i − xi) 2 (10) xi 式中 表示种群中第 i 个决策变量的均值。 (b) Ackley Shift Function 评价次数/103 种群多样性 102 (a) Schwefwl 2.26 Function 评价次数/103 2 000 6 000 10 000 TLBO CSTLBO TLBO CSTLBO TLBO CSTLBO TLBO CSTLBO 14 000 2 000 6 000 10 000 14 000 100 10−2 10−6 10−4 10−8 10−14 100 10−2 10−6 10−4 10−8 10−10 10 种群多样性 −12 (d) Rastrigin Shift Function 评价次数/103 种群多样性 104 102 (c) Griewank Shift Function 评价次数/103 2 000 6 000 10 000 14 000 2 000 6 000 10 000 14 000 100 10−2 10−6 10−4 10−8 102 10−10 100 10−2 10−6 10−4 10 种群多样性 −8 图 10 4 个复杂非原点最优测试函数的种群多样性曲线 Fig. 10 Population diversity curves of four complex nonorigin optimal benchmark function 从图 10 可以看出,标准 TLBO 算法在搜索初 期多样性明显快速下降,然后在小范围内波动, 前后期变化不是特别明显,使得种群个体难以聚 集到全局最优解,因此求解精度不高;CSTLBO 算 法在迭代初期,具有较高的种群多样性,有利于 进行全局探索,随着迭代的进行,种群多样性保 持着持续下降的趋势,种群逐渐向全局最优解聚 集,有利于进行局部开发,从而能获得高精度的 全局解。 5 结束语 为提高对非原点最优问题的优化能力,本文 提出了一种基于随机交叉−自学策略的教与学优 化算法—CSTLBO。算法使用几何方法分析了 标准 TLBO 算法在“教”和“学”阶段的扰动状况, 改进了 “教”和“学”阶段,并引入了随机交叉策略 和“自学”策略来提高算法的全局搜索能力。仿真 测试的统计结果表明,所提算法求解精度高,稳 定性好,能对较多的非原点最优问题取得良好的 优化效果,尤其是对进行了移位操作的复杂问 题。但对同时进行了移位和旋转操作的问题,优 化结果虽优于比较算法,但在求解精度上仍有提 升空间,在后续研究中,可以进一步研究改进,同 时也可以将该算法应用到实际的工程优化问题, 检验其具体实用性。 参考文献: RAO R V, SAVSANI V J, VAKHARIA D P. Teachinglearning-based optimization: a novel method for constrained mechanical design optimization problems[J]. Computer-aided design, 2011, 43(3): 303–315. [1] RAO R V, SAVSANI V J, VAKHARIA D P. TeachingLearning-Based Optimization: an optimization method for continuous non-linear large scale problems[J]. Information sciences, 2012, 183(1): 1–15. [2] RAO R V, PATEL V. Multi-objective optimization of two stage thermoelectric cooler using a modified teaching–learning-based optimization algorithm[J]. Engineering applications of artificial intelligence, 2013, 26(1): 430–445. [3] TUO Shouheng, HE Hong. Solving complex cardinality constrained mean-variance portfolio optimization problems using hybrid HS and TLBO algorithm[J]. Economic Computation and Economic Cybernetics Studies and Research, 2018, 52(3): 231–248. [4] CHINTA S, KOMMADATH R, KOTECHA P. A note on multi-objective improved teaching–learning based optimization algorithm (MO-ITLBO)[J]. Information sciences, 2016, 373: 337–350. [5] YU Dong, HONG Jun, ZHANG Jinhua, et al. Multi-objective individualized-instruction teaching-learning-based optimization algorithm[J]. Applied soft computing, 2018, 62: 288–314. [6] OUYANG Haibin, GAO Liqun, KONG Xiangyong, et al. Teaching-learning based optimization with global crossover for global optimization problems[J]. Applied mathematics and computation, 2015, 265: 533–556. [7] CHEN Debao, ZOU Feng, LI Zheng, et al. An improved teaching–learning-based optimization algorithm for solving global optimization problem[J]. Information sciences, 2015, 297: 171–190. [8] ZOU Feng, WANG Lei, HEI Xinhong, et al. Teachinglearning-based optimization with learning experience of other learners and its application[J]. Applied soft computing, 2015, 37: 725–736. [9] 王培崇, 马玥, 耿明月, 等. 具有小世界邻域结构的教与 学优化算法 [J]. 计算机科学与探索, 2016, 10(9): 1341–1350. WANG Peichong, MA Yue, GENG Mingyue, et al. New teaching-learning-based optimization with neighborhood structure based on small world[J]. Journal of frontiers of computer science and technology, 2016, 10(9): [10] 第 2 期 黎延海,等:随机交叉−自学策略改进的教与学优化算法 ·321·
·322· 智能系统学报 第16卷 1341-1350 ing-learning-based optimization algorithm with local di- [11]毕晓君,王佳荟.基于混合学习策略的教与学优化算 mension improvement[J].Journal of Zhejiang University 法.浙江大学学报(工学版),2017,51(5):1024-1031 (Engineering Science),2018,52(11):2159-2170. BI Xiaojun.WANG Jiahui.Teaching-learning-based op- [18]TSAI H C.Confined teaching-learning-based optimiza- timization algorithm with hybrid learning strategy[J]. tion with variable search strategies for continuous optim- Journal of Zhejiang University (Engineering Science). ization[J].Information sciences,2019,500:34-47. 2017,51(5)10241031. [19]PICKARD J K,CARRETERO J A,BHAVSAR V C.On [12]JI Xiaoyuan,YE Hu,ZHOU Jianxin,et al.An improved the convergence and origin bias of the Teaching-Learn- teaching-learning-based optimization algorithm and its ing-Based-Optimization algorithm[J.Applied soft com- application to a combinatorial optimization problem in puting,2016,46:115-127 foundry industry[J].Applied soft computing,2017,57: 504516. [20]TUO Shouheng,ZHANG Junying,YONG Longquan,et al.A harmony search algorithm for high-dimensional [13]YU Kunjie,CHEN Xu,WANG Xin,et al.Parameters identification of photovoltaic models using self-adaptive multimodal optimization problems[J].Digital signal pro- teaching-learning-based optimization[J].Energy conver- cessing,2015,46:151-163. sion and management,2017,145:233-246. 作者简介: [14]NIU Peifeng,MA Yunpeng,YAN Shanshan.A modified 黎延海,讲师,主要研究方向为智 teaching-learning-based optimization algorithm for nu- 能优化算法及应用。 merical function optimization[J].International journal of machine learning and cybernetics,2019,10(6): 1357-1371. [15]SHUKLA A K,SINGH P,VARDHAN M.Neighbour teaching learning based optimization for global optimiza- tion problems[J].Journal of intelligent fuzzy systems, 雍龙泉,教授,博士,主要研究方 2018,34(3)1583-1594. 向为优化理论与算法设计、智能优化 [16]柳缔西子,范勤勤,胡志华基于混沌搜索和权重学习 算法。 的教与学优化算法及其应用[智能系统学报,2018, 135:818-828. LIU Dixizi,FAN Qinqin,HU Zhihua.Teaching-learning- based optimization algorithm based on chaotic search and weighted learning and its application[J].CAAI transac- 拓守恒,副教授,博士,CCF会 员,主要研究方向为智能优化算法、生 tions on intelligent systems,2018,13(5):818-828 物信息分析与处理。发表学术论文 [17刀何杰光,彭志平,崔得龙,等.局部维度改进的教与学优 40余篇。 化算法[.浙江大学学报(工学版),2018,52(11): 2159-2170 HE Jieguang,PENG Zhiping,CUI Delong,et al.Teach-
1341–1350. 毕晓君, 王佳荟. 基于混合学习策略的教与学优化算 法 [J]. 浙江大学学报 (工学版), 2017, 51(5): 1024–1031. BI Xiaojun, WANG Jiahui. Teaching-learning-based optimization algorithm with hybrid learning strategy[J]. Journal of Zhejiang University (Engineering Science), 2017, 51(5): 1024–1031. [11] JI Xiaoyuan, YE Hu, ZHOU Jianxin, et al. An improved teaching-learning-based optimization algorithm and its application to a combinatorial optimization problem in foundry industry[J]. Applied soft computing, 2017, 57: 504–516. [12] YU Kunjie, CHEN Xu, WANG Xin, et al. Parameters identification of photovoltaic models using self-adaptive teaching-learning-based optimization[J]. Energy conversion and management, 2017, 145: 233–246. [13] NIU Peifeng, MA Yunpeng, YAN Shanshan. A modified teaching–learning-based optimization algorithm for numerical function optimization[J]. International journal of machine learning and cybernetics, 2019, 10(6): 1357–1371. [14] SHUKLA A K, SINGH P, VARDHAN M. Neighbour teaching learning based optimization for global optimization problems[J]. Journal of intelligent & fuzzy systems, 2018, 34(3): 1583–1594. [15] 柳缔西子, 范勤勤, 胡志华. 基于混沌搜索和权重学习 的教与学优化算法及其应用 [J]. 智能系统学报, 2018, 13(5): 818–828. LIU Dixizi, FAN Qinqin, HU Zhihua. Teaching-learningbased optimization algorithm based on chaotic search and weighted learning and its application[J]. CAAI transactions on intelligent systems, 2018, 13(5): 818–828. [16] 何杰光, 彭志平, 崔得龙, 等. 局部维度改进的教与学优 化算法 [J]. 浙江大学学报 (工学版), 2018, 52(11): 2159–2170. HE Jieguang, PENG Zhiping, CUI Delong, et al. Teach- [17] ing-learning-based optimization algorithm with local dimension improvement[J]. Journal of Zhejiang University (Engineering Science), 2018, 52(11): 2159–2170. TSAI H C. Confined teaching-learning-based optimization with variable search strategies for continuous optimization[J]. Information sciences, 2019, 500: 34–47. [18] PICKARD J K, CARRETERO J A, BHAVSAR V C. On the convergence and origin bias of the Teaching-Learning-Based-Optimization algorithm[J]. Applied soft computing, 2016, 46: 115–127. [19] TUO Shouheng, ZHANG Junying, YONG Longquan, et al. A harmony search algorithm for high-dimensional multimodal optimization problems[J]. Digital signal processing, 2015, 46: 151–163. [20] 作者简介: 黎延海,讲师,主要研究方向为智 能优化算法及应用。 雍龙泉,教授,博士,主要研究方 向为优化理论与算法设计、智能优化 算法。 拓守恒,副教授,博士,CCF 会 员,主要研究方向为智能优化算法、生 物信息分析与处理。发表学术论文 40 余篇。 ·322· 智 能 系 统 学 报 第 16 卷