正在加载图片...
张海刚等:基于全局优化支持向量机的多类别高炉故障诊断 ·43· floating forward selection,SFFS).这种方法以空的类集 产的需求.在此我们采用粒子群算法(particle swarm 合X。开始并在新集合的判别率增加时被逐渐填充. optimization,PSO)对于最小二乘支持向量机分类器的 在填充阶段,对于类集合X.最有意义的类被纳入进 学习参数进行优化.粒子群算法起源于对鸟群寻找食 来.在条件排除步骤,如果判别率继续增长则最差的类 物行为的模仿].标准粒子群优化算法主要针对连 被移除 续参数进行搜索运算,但高炉全局参数优化是离散的 表2顺序前向浮动搜索法 组合优化问题,为此需采用离散粒子群优化算法 Table 2 SFFS method 假设一个由m个粒子组成的群体在D维的搜索 SFFS算法 空间以一定的速度飞行,粒子i在第:次迭代中的状态 输人: Y={y少j=1,2,…,D/能够使用的类集合/ 属性设置如下:x=(xa,xa,…,xn),xa∈[L4,Ua]为 输出: X4={xj=1,2,…,IYI,x∈Y 第i个粒子(i=1,2,…,m,d=1,2,…,D)的维位置矢 初始化: X。=☑:k=0 量,L4和U,分别为搜索空间的下限和上限,根据适应 终止条件: 当判别率不再增长J(X2)≈J(X-1) 度函数计算x:当前的适应值,即可衡量粒子位置的优 第一步(填充) x`=吗XU) 劣;y,=(a,a,…,n),a∈[Dn,ax]为i粒子的的 Xi,1=XUx',k=k+1 飞行速度,即粒子移动的距离,和分别为最小和 第二步(排除) x”=arg maxJ(X-x) 最大速度;P.=(PaPa,Pn)为粒子自身迄今为止搜 如果(X-x“)>J八X-1)那么 素到的最优位置;P,=(P,…PD)为整个粒子群迄今 X+1=X-x“,k=k+1 为止搜索到的最优位置.对于离散组合优化问题,粒 返回第二步,否则返回第一步 子在每一个维度均被限定为0或1,更新粒子的位置 意味着改变某一位的状态为0或1,对于速度矢量,其 为了避免高维空间庞大的计算量,选择Fisher线 相应位表示的是x取0或1的概率,在每次迭代中,粒 性判别率作为分割类集合的标准.假设C,和C2是二 子根据以下等式更新速度和位置: 分类问题的两个类.定义Fisher线性判别率为 v(1+1)=wv(t)+cr(Pia-xa())+ J(w)=- m1-m212 (16) (12) c2'2(Pm-xu(t)). s+5号 (1,p<sigmoid(v(t+1)); 式中m,和m2是样本的均值,s,和s2是C,和C2各 xa(t+1)= (0,p=sigmoid(v(t+1)). (17) 自的方差.定义类内散射矩阵S。和类间散射矩阵 式中:是迭代次数;r2和p为[0,1]之间的随机数, S。为: 用于保持群体的多样性;C1和c2为学习因子,使粒子 S=是x-m,)x-m'+王(x-m)x-m)八, 具有自我总结和向群体中优秀个体学习的能力,从而 S.=(m1-m2)(m1-m2). 向自己的历史最优点以及群体内历史最优点靠近,通 (13) 常取c1=c2=2;0为惯性权重,其大小决定了粒子对 根据上面的结果,J(w)可以被写成 当前速度继承的多少,选择一个合适的有助于粒子 wS w 群算法均衡它的探索能力与开发能力:sigmoid数是常 J(w)= wSw (14) 用的一种模糊函数,其表达式为 类间散射矩阵S,可以被看作是一个类的密度指标. 1 并且,类间散射矩阵S。可以被看作是一个类的位置指 S(t)=sigmoid(())=1+exp( 标因此,可以定义判别率 (18) 在离散粒子群优化方法(discrete particle swarm 15) optimization,DSP0)中,每个粒子平等的更新,忽视了 1.3变尺度离散粒子群 最优粒子的优势.在现实世界中,大多数社会性动物 高炉生产环境复杂,生产数据往往遭到工业噪声 都存在等级现象,最好的个体往往享受着某些特权 的干扰,这对于故障识别算法有强鲁棒性的要求.另 因此根据粒子的表现好坏,应采用不同的进化策略. 外,高炉运行状态繁多,各种炉况之间相互转化,设计 首先,运用式(18)计算概率向量,即prob=Sa 稳定可靠的故障分类器至关重要.最小二乘支持向量 然后,根据如下原则更新粒子的概率向量,位置矢量和 机分类算法中学习参数的选择,对于故障分类精度影 速度矢量:(1)对于获胜的粒子,根据式(16)和式(17) 响严重.合适的学习参数不仅能够提高分类器的故障 分别更新其概率向量,位置矢量和速度矢量:(2)对于 识别精度,而且能够保证分类器稳定运行,满足高炉生 失败粒子,速度矢量和位置矢量按如下等式更新.张海刚等: 基于全局优化支持向量机的多类别高炉故障诊断 floating forward selection, SFFS). 这种方法以空的类集 合 X0 开始并在新集合的判别率增加时被逐渐填充. 在填充阶段,对于类集合 Xk 最有意义的类被纳入进 来. 在条件排除步骤,如果判别率继续增长则最差的类 被移除. 表 2 顺序前向浮动搜索法 Table 2 SFFS method SFFS 算法 输入: Y = {yj | j = 1,2,…,D} / / 能够使用的类集合/ / 输出: Xk = {xj | j = 1,2,…, | Y | ,xj沂Y} 初始化: X0 = 芰;k = 0 终止条件: 当判别率不再增长 J(Xk)抑J(Xk - 1 ) 第一步(填充) x + = arg max x沂Y - Xk J(Xk胰x) Xk + 1 = Xk胰x + ,k = k + 1 第二步(排除) x - = arg max x沂Xk J(Xk - x) 如果 J(Xk - x - ) > J(Xk - 1 )那么 Xk + 1 = Xk - x - ,k = k + 1 返回第二步,否则返回第一步 为了避免高维空间庞大的计算量,选择 Fisher 线 性判别率作为分割类集合的标准. 假设 C1 和 C2 是二 分类问题的两个类. 定义 Fisher 线性判别率为 J(棕) = | m1 - m2 | 2 s 2 1 + s 2 2 . (12) 式中 m1 和 m2 是样本的均值,s1 和 s2 是 C1 和 C2 各 自的方差. 定义类内散射矩阵 S棕 和类间散射矩阵 Sb 为: S棕 =移x沂C1 (x - m1) (x - m1) T +移x沂C2 (x - m2) (x - m2) T , Sb = (m1 - m2) (m1 - m2) T { . (13) 根据上面的结果,J(棕)可以被写成 J(棕) = 棕 T Sb棕 棕 T S棕棕 . (14) 类间散射矩阵 S棕 可以被看作是一个类的密度指标. 并且,类间散射矩阵 Sb 可以被看作是一个类的位置指 标. 因此,可以定义判别率 J忆 = trSb trS棕 . (15) 1郾 3 变尺度离散粒子群 高炉生产环境复杂,生产数据往往遭到工业噪声 的干扰,这对于故障识别算法有强鲁棒性的要求. 另 外,高炉运行状态繁多,各种炉况之间相互转化,设计 稳定可靠的故障分类器至关重要. 最小二乘支持向量 机分类算法中学习参数的选择,对于故障分类精度影 响严重. 合适的学习参数不仅能够提高分类器的故障 识别精度,而且能够保证分类器稳定运行,满足高炉生 产的需求. 在此我们采用粒子群算法( particle swarm optimization, PSO)对于最小二乘支持向量机分类器的 学习参数进行优化. 粒子群算法起源于对鸟群寻找食 物行为的模仿[15] . 标准粒子群优化算法主要针对连 续参数进行搜索运算,但高炉全局参数优化是离散的 组合优化问题,为此需采用离散粒子群优化算法. 假设一个由 m 个粒子组成的群体在 D 维的搜索 空间以一定的速度飞行,粒子 i 在第 t 次迭代中的状态 属性设置如下:xi = ( xi1 ,xi2 ,…,xiD ),xid沂[ Ld ,Ud ] 为 第 i 个粒子(i = 1,2,…,m,d = 1,2,…,D)的维位置矢 量,Ld 和 Ud 分别为搜索空间的下限和上限,根据适应 度函数计算 xi 当前的适应值,即可衡量粒子位置的优 劣;vi = ( vi1 ,vi2 ,…,viD ),vid沂[ vmin ,vmax ]为 i 粒子的的 飞行速度,即粒子移动的距离,vmin和 vmax分别为最小和 最大速度;pi = (pi1 ,pi2 ,…,piD )为粒子自身迄今为止搜 索到的最优位置;pg = (pg1 ,…,pgD )为整个粒子群迄今 为止搜索到的最优位置. 对于离散组合优化问题,粒 子在每一个维度均被限定为 0 或 1,更新粒子的位置 意味着改变某一位的状态为 0 或 1,对于速度矢量,其 相应位表示的是 xid取0 或1 的概率,在每次迭代中,粒 子根据以下等式更新速度和位置: vid (t + 1) = wvid (t) + c1 r1 (pid - xid (t)) + c2 r2 (pgd - xid (t)). (16) xid (t + 1) = 1, 籽 < sigmoid(vid (t + 1)); 0, 籽逸sigmoid(v { id (t + 1)). (17) 式中:t 是迭代次数;r1 、r2 和 籽 为[0,1]之间的随机数, 用于保持群体的多样性;c1 和 c2 为学习因子,使粒子 具有自我总结和向群体中优秀个体学习的能力,从而 向自己的历史最优点以及群体内历史最优点靠近,通 常取 c1 = c2 = 2;w 为惯性权重,其大小决定了粒子对 当前速度继承的多少,选择一个合适的 w 有助于粒子 群算法均衡它的探索能力与开发能力;sigmoid 数是常 用的一种模糊函数,其表达式为 Sid (t) = sigmoid(vid (t)) = 1 1 + exp( - vid (t)) . (18) 在离散粒子群优化方法 ( discrete particle swarm optimization, DSPO)中,每个粒子平等的更新,忽视了 最优粒子的优势. 在现实世界中,大多数社会性动物 都存在等级现象,最好的个体往往享受着某些特权. 因此根据粒子的表现好坏,应采用不同的进化策略. 首先,运用式(18) 计算概率向量,即 probid = Sid . 然后,根据如下原则更新粒子的概率向量,位置矢量和 速度矢量:(1)对于获胜的粒子,根据式(16)和式(17) 分别更新其概率向量,位置矢量和速度矢量;(2)对于 失败粒子,速度矢量和位置矢量按如下等式更新. ·43·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有