冯茜等:多目标粒子群优化算法研究综述 747… 的影响,由于收敛过快而导致“早熟”,如何引导粒 粒子的选择.比较典型的评价指标有:超体积指 子“跳出”局部最优,即多样性保持机制; 标2o,R2指标.Wu等2四基于虚拟帕累托前沿对 (3)外部存储集中非支配解的数量的急剧增 粒子进行评估.Li等2]基于R2指标进行外部存 加,如何引导种群在保障多样性的前提下,进一步 储的维护以及最优粒子的选择 提高搜索效率,以强化算法在收敛速度方面的优 基于Pareto排序的方法也是一类较为常用的 势,即收敛性提高手段; 优化方法.小生境方法4是一种行之有效的多目 (4)如何在优化过程的不同阶段,动态协调整 标优化方法.Qu等2将物种形成策略融入粒 体开发和局部搜索之间的关系,以获得最佳优化 子群优化算法,所提出物种形成机制根据邻域结 结果,即多样性和收敛性的平衡方法: 构生成多个小生境,采用并行方式搜索帕累托最 (5)为了提升算法性能而进行的迭代公式的改 优解.自组织策略能够在加速小生境形成的同时 进、重要参数的动态整定以及粒子间信息交互方式 避免子群之间的交叉.仿真实验结果表明,该算法 的调整,即迭代公式、参数、拓扑结构的改进方案. 能够保持决策空间和目标空间中解的多样性,使 下面将从以上5个方面对近年来多目标粒子 得解分布更加均匀.文献[27刀基于密度聚类的思 群优化算法的改进措施进行较为详细的介绍 想进行领导粒子选择.文献[28]将代理辅助策略 与标准粒子群算法以及社会学习粒子群算法相结 3多目标粒子群算法改进措施 合,利用改进的帕累托存档学习方法来提高外部 3.1最优粒子选择策略 存储集当中候选解的质量,辅助最优粒子的选择, 采用粒子群算法进行优化时,每次迭代都需 从而加速收敛.文献29]将代理辅助策略融入帕 要进行全局最优粒子(Global best particle,gbest)和 累托主动学习方法,以粒子群算法为数据知识库 个体最优粒子(Personal best particle,pbest)的选择 生成机制,构建虚拟空间中的代理模型代替适应 gbest作为整个种群的核心“领导者”,对整个优化 度函数,根据改进的帕累托主动学习策略预先将 过程的收敛速度、搜索效率以及“最优”结果会产 粒子分类.该方法基于解的预判断辅助优化,有利 生极大的影响;而每个粒子到目前为止自身的“最 于节约计算成本,提高效率 优”状态,对避免陷入局部最优,保持种群多样性 一些研究人员采用两种方式相结合的策略, 并获得最好的优化结果起到重要作用.因此,合理 共同进行最优粒子的选择.Lu等0融合了R2指标 和有效的“最优”粒子选择机制具有重要意义.单 与分解的思想,Li等☑提出将基于R2指标B和 目标优化时,“最优”个体是唯一的,而多目标优化 L2范数的分层R2排序算法和有利权重的切比雪 时,每次更新都可能产生“当前”最优解集,存储于 夫聚集值相结合的外部档案更新策略.李飞等 外部存储集中.随着优化进程的不断深入,最优解 以2指标和目标空间分解两种策略为衡量标准 集的数量会急剧增加,这将会导致巨大的选择压 提出双层档案维护策略.文献[33]基于解分布指 力,而这一困难在处理高维度优化问题时会显得 标和超体积指标,将多目标优化问题转化为二目 愈发突出 标问题,设计了将解集和解集中的解分层处理的 为了能够高效带领种群收敛到真正的帕累托 粒子群算子.实验结果表明,该方法能够获得良好 最优前沿又不失多样性,有些学者基于分解思想 的分布性和收敛性.Moubayed等B将分解与支配 设计最优粒子选择策略.Zhu等6设计了一种基 关系相结合,根据偏好进行排序,用分解方式将多 于外部存储集引导的择优策略,分配粒子对分解 目标问题转化为聚合问题,利用非支配关系进行 产生的子问题进行优化,有效提高了收敛速度 外部存储集中最优粒子的选择 Li等7提出基于增强选择策略的更新机制.通过 有些文献通过改进排序方法来提高精英库中 切比雪夫聚集函数值、有利权重的切比雪夫值和 备选粒子的质量.Li等B提出了一种将综合排序 随机选择三种方式,自适应切换聚集函数值,加强 策略与目标空间中基于切比雪夫距离的粒子密度 局部搜索.AIi与Khan!8提出了基于综合学习策 信息相结合的最优粒子选择机制.Tang等B将非 略的方法.Cheng等l基于动态加权聚合函数进 支配解存储后,将精英保留与循环排序方法相结 行最优粒子的动态选择 合,以获得高质量的帕累托前沿 有些方法不是以适应度函数为粒子优先权的 3.2多样性保持机制 评估机制,而是基于指标衡量解的价值,进行最优 粒子群算法在追求收敛速度快、搜索效率高的影响,由于收敛过快而导致“早熟”,如何引导粒 子“跳出”局部最优,即多样性保持机制; (3)外部存储集中非支配解的数量的急剧增 加,如何引导种群在保障多样性的前提下,进一步 提高搜索效率,以强化算法在收敛速度方面的优 势,即收敛性提高手段; (4)如何在优化过程的不同阶段,动态协调整 体开发和局部搜索之间的关系,以获得最佳优化 结果,即多样性和收敛性的平衡方法; (5)为了提升算法性能而进行的迭代公式的改 进、重要参数的动态整定以及粒子间信息交互方式 的调整,即迭代公式、参数、拓扑结构的改进方案. 下面将从以上 5 个方面对近年来多目标粒子 群优化算法的改进措施进行较为详细的介绍. 3 多目标粒子群算法改进措施 3.1 最优粒子选择策略 采用粒子群算法进行优化时,每次迭代都需 要进行全局最优粒子(Global best particle, gbest)和 个体最优粒子(Personal best particle, pbest)的选择. gbest 作为整个种群的核心“领导者”,对整个优化 过程的收敛速度、搜索效率以及“最优”结果会产 生极大的影响;而每个粒子到目前为止自身的“最 优”状态,对避免陷入局部最优,保持种群多样性 并获得最好的优化结果起到重要作用. 因此,合理 和有效的“最优”粒子选择机制具有重要意义. 单 目标优化时,“最优”个体是唯一的,而多目标优化 时,每次更新都可能产生“当前”最优解集,存储于 外部存储集中. 随着优化进程的不断深入,最优解 集的数量会急剧增加,这将会导致巨大的选择压 力,而这一困难在处理高维度优化问题时会显得 愈发突出. 为了能够高效带领种群收敛到真正的帕累托 最优前沿又不失多样性,有些学者基于分解思想 设计最优粒子选择策略. Zhu 等[16] 设计了一种基 于外部存储集引导的择优策略,分配粒子对分解 产生的子问题进行优化,有效提高了收敛速度. Li 等[17] 提出基于增强选择策略的更新机制. 通过 切比雪夫聚集函数值、有利权重的切比雪夫值和 随机选择三种方式,自适应切换聚集函数值,加强 局部搜索. Ali 与 Khan[18] 提出了基于综合学习策 略的方法. Cheng 等[19] 基于动态加权聚合函数进 行最优粒子的动态选择. 有些方法不是以适应度函数为粒子优先权的 评估机制,而是基于指标衡量解的价值,进行最优 粒子的选择. 比较典型的评价指标有:超体积指 标[20] ,R2 指标[21] . Wu 等[22] 基于虚拟帕累托前沿对 粒子进行评估. Li 等[23] 基于 R2 指标进行外部存 储的维护以及最优粒子的选择. 基于 Pareto 排序的方法也是一类较为常用的 优化方法. 小生境方法[24] 是一种行之有效的多目 标优化方法. Qu 等[25] 将物种形成策略[26] 融入粒 子群优化算法,所提出物种形成机制根据邻域结 构生成多个小生境,采用并行方式搜索帕累托最 优解. 自组织策略能够在加速小生境形成的同时 避免子群之间的交叉. 仿真实验结果表明,该算法 能够保持决策空间和目标空间中解的多样性,使 得解分布更加均匀. 文献 [27] 基于密度聚类的思 想进行领导粒子选择. 文献 [28] 将代理辅助策略 与标准粒子群算法以及社会学习粒子群算法相结 合,利用改进的帕累托存档学习方法来提高外部 存储集当中候选解的质量,辅助最优粒子的选择, 从而加速收敛. 文献 [29] 将代理辅助策略融入帕 累托主动学习方法,以粒子群算法为数据知识库 生成机制,构建虚拟空间中的代理模型代替适应 度函数,根据改进的帕累托主动学习策略预先将 粒子分类. 该方法基于解的预判断辅助优化,有利 于节约计算成本,提高效率. 一些研究人员采用两种方式相结合的策略, 共同进行最优粒子的选择. Liu 等[30] 融合了 R2 指标 与分解的思想,Li 等[17] 提出将基于 R2 指标[31] 和 L2 范数的分层 R2 排序算法和有利权重的切比雪 夫聚集值相结合的外部档案更新策略. 李飞等[32] 以 R2 指标和目标空间分解两种策略为衡量标准 提出双层档案维护策略. 文献 [33] 基于解分布指 标和超体积指标,将多目标优化问题转化为二目 标问题,设计了将解集和解集中的解分层处理的 粒子群算子. 实验结果表明,该方法能够获得良好 的分布性和收敛性. Moubayed 等[34] 将分解与支配 关系相结合,根据偏好进行排序,用分解方式将多 目标问题转化为聚合问题,利用非支配关系进行 外部存储集中最优粒子的选择. 有些文献通过改进排序方法来提高精英库中 备选粒子的质量. Li 等[35] 提出了一种将综合排序 策略与目标空间中基于切比雪夫距离的粒子密度 信息相结合的最优粒子选择机制. Tang 等[36] 将非 支配解存储后,将精英保留与循环排序方法相结 合,以获得高质量的帕累托前沿. 3.2 多样性保持机制 粒子群算法在追求收敛速度快、搜索效率高 冯 茜等: 多目标粒子群优化算法研究综述 · 747 ·