正在加载图片...
366 北京科技大学学报 2002年第3期 STEP11如果样本已全部输人,进行下一步; 否则转STEP9. STEP12计算误差E-max(0.5×‖W.(t什1)- W(t)),若E小于给定的误差限ε,结束;否则转 W STEP9. STEP1-STEP7为学习的第1阶段,类似于 ART算法.属于无监督学习,但没有噪声抑制过 -1 图5状态识别用神经网络结构图 程.这几步对输人数据进行预处理(归一化),把 Fig.5 Structure of neural networks for state recognition 各类数据进一步划分为子类.由于各子类的数 据与其中心点向量间的距离d=mind且d≤p, STEP1确定各类数据可分子类数的范围 所以保证了各子类的数据符合子类间距离较 [Ss,Sa],设置距离警戒参数p的范围[Pp].把输入 大、子类内距离较小这个前提条件,从而解决了 向量的各个分量归一化.总的类数记为C 第2节中提出的第(1)个问题.顺便提一下,距离 STEP2令K=1(K为类序号). 警戒参数是自适应变化的,它可以不断调整, STEP3新类序号记作L,L=ΣS(S,表示第类 直到每1类数据所分出的子类数满足要求为止, 分出的子类数,规定Sx=1).W=XO),XO)为第K 即保证Sx∈[Ss,Sl. 类对应的第1个输入向量, STEP8-STEP12为学习的第2阶段,实施的 STEP4对于第K类的每1个输入模式X,做 是有监督的学习,主要用来调节各连接权向量, 以下几步:①活动.计算X和该类各连接权向量 使其收敛到各新类数据的中心点,同时用来纠 !之间的距离d"dXW)x-w.②竞 正第1阶段的个别分类错误.可以看到,学习的 第2阶段计及了分类的正确与否.如果本次输 争.确定d=mind(Y,W)对应的权向量W.如果有 入向量的分类结果是正确的,则系数按正常学 多个这样的权向量,随机地从中选1个.③共振. 习来调整,保证连接权向量收敛到各新类数据 如果d>p,则在输出层增加1个节点,并赋予该 的中心点.所以,各新类数据的中心点向量就是 节点新的类序号L,且W=X,同时Sx=Sx+1,L=L+1, 对应于该新类的连接权向量,从而解决了第2 转到STEP5.④学习.如果d≤p,则W=+ 节中提出的第(2)个问题.如果分类结果是错误 X-),其中B为学习率. 的,则纠正错误,进行反向调整.其中(t)是1个 STEP5如果第K类样本已全部输人,转 随学习步数的增加而下降的步幅函数,用于压 STEP6;否则转STEP4. 制随机干扰,保证神经网络收敛到均方意义下 STEP6如果Sx∈[S,Sa]则进行下一步;否则 的局部最小值.()应同时满足下列约束: 更新警戒参数p,转STEP3 a(t)-o0 STEP7如果K<C,则K=K+1转STEP3. (3) STEP8根据新的类序号初始化权向量: a200 0 W(0)=W,L=1,2,…,n.其中n=∑S表示新类的总 如a(t)-a(1-t/T)就满足这个要求.其中a是1个 类数. 不大于1的正实数;t代表学习步数;T是1个常 STEP9随机地选择一个输入样本X),求出 量,它可以根据实际情况由用户确定 )与W()之间的距离.如果d,=mind(X), 4 W(),则X)应归为编号为r的新类.已知X)所 改进的最小距离法在加热炉状态 属类别为K,而根据新类号所确定的类别为 识别过程中的应用 SETP10更新权向量.其公式如下: W(t+1)=W"(t)+a(t)(X(t)-W(t))K=K' 经过特征提取,选出均热段炉温、加热[段 W(t+1)=W()-a){X)-W,(t)}K≠K'(2) 炉温、加热Ⅱ段炉温、炉压4个主要特征组成特 W(t+1)=W(t)) L丰r 征空间,所以神经网络有4个输人节点,它们依 其中a(t)为步幅函数. 次代表以上4个主要特征.一 3 6 6 - 北 京 科 技 W 月 州一 1 图 5 状态识 别用 神经 网络 结构 图 F ig . 5 S t r u e t u r e o f n e u r a l n e wt o r kS fo r s t a t e r e e o gn iit o n s T E PI 确 定各 类 数 据 可 分 子类 数 的范 围 sS[ ,凡 ] ,设置距离警戒参数户的范围叭八」 . 把输人 向量 的各个 分量归一化 总的类数记 为 C s T E ZP 令 K 二 1 (K 为类序 号 ) . S T E P 3 新类 序号记 作L 声二 艺及(S, 表示第 i类 分 出的子类 数 , 规定及一 1) . 叭气双0) 爪0) 为第K 类对应 的第 1 个 输人 向量 . s T E 4P 对 于第 K 类 的每 1 个输人模式X , 做 以 下几步 : ① 活动 . 计算尤和 该类各 连接权 向量 砰几之 间 的 距 离 d =, d( 尤肥):[ 艺 x(, 一 w 守 1 ’ 口 . ② 竞 争 . 确定试二in d( 尤肥 )对应 的权 向量 肥 . 如果有 多个这样 的权向量 , 随机地从 中选 1个 . ③共振 . 如果 d知 , 则在输 出层增 加 1 个 节点 , 并 赋予该 节点新 的类序号L, 且 叭只 Y , 同时又= 又+1 声=L +l , 转到 S T E SP . ④学 习 . 如果磷` p , 则 砰片肥 + 刀伏二 肥) , 其 中刀为学习 率 . s T E PS 如 果 第 K 类 样 本 已 全 部 输 人 , 转 S T E P 6 : 否则 转 S T E P4 . S T E P 6 如果又 E 【sS 凡」则进行下一 步 ; 否则 更新 警戒参数户 , 转 S T E 3P . S T E P 7 如果犬丈C , 则犬二犬汗 1转 S T E P 3 . S T E P S 根 据 新 的 类 序 号 初 始 化 权 向 量 : 砰飞(0 ) 一 砰飞 , L =l , 2 , … , n . 其 中二艺及表示新 类的总 类数 . sT E gP 随机地选择一个输人样本双t) , 求 出 双)t 与 砰议)t 之 间 的距 离 . 如 果 ’dr = m 1 n d( 溉)t, 砰议)t , 则双t) 应 归为编号为 r 的新类 . 已知城t) 所 属 类别 为K , 而根据新类 号所确定 的类 别为r . S E T P 10 更新 权 向量 . 其公 式如下 : {附仁(+t 1) = 附仁(t) 十a (日褚效 价一 砰几(价飞 犬毕尤 ` 弓砰牛(+t l ) = 砰仁( r ) 一 a ( t ) {石t) 一 砰仁(t) } K 羊 K ` ( 2、 {甲飞(+t l) = 牙飞( t) L 羊 r 其 中a( t) 为步 幅函 数 . 大 学 学 报 2 0 02 年 第 3 期 sT EP 1 1如果样本 已全部输人 , 进行下一步 ; 否则转 S T E P.g S T E p 12 计 算 误 差 E =切 ax ( 0 . 5 x }}砰飞(+t l卜 叭(t) }! 2 ) , 若 E小 于给定 的误差 限。 , 结 束 ; 否 则转 S T E Pg . S T E P I一 S T E P 7 为学 习 的第 1 阶段 , 类 似于 A RT 算法 . 属于无监督学习 , 但没有噪声抑制过 程 . 这几步对输人数据进行 预处理 ( 归一化 ) , 把 各类数据进一 步划分为子类 . 由于 各子类 的数 据与 其 中心 点 向量 间 的距 离d 片m in ’d, 且试` p , 所 以 保证 了各 子 类 的数据 符合 子类 间距 离 较 大 、 子类 内距离较小这个前提条件 ,从 而解决了 第 2 节中提出的第 ( l) 个问题 . 顺便提一下 , 距离 警戒参数p 是 自适应 变化 的 , 它可 以不 断调整 , 直到每 1类数据所分 出的子类数满足 要求为止 , 即 保证凡 e[ sS , s ] . S T E P S一 S T E P 12 为学 习 的第 2 阶段 , 实施 的 是有监督 的学 习 . 主 要用来调节各连 接权 向量 , 使 其收敛到各新类 数据 的 中心点 , 同时用 来 纠 正第 l 阶段的个别分类错误 . 可 以看到 , 学习 的 第 2 阶段 计及 了分类 的 正确与否 . 如果本 次输 人 向量 的分类结果 是正确 的 , 则系数按正 常学 习 来调 整 , 保 证连接权 向量 收敛到各新类数 据 的中心 点 所以 , 各新类数据 的中心 点 向量就是 对应 于该新类 的连 接权 向量 , 从而解决 了 第 2 节 中提 出的第 (2) 个 问题 . 如果 分类结果是错误 的 , 则 纠正错误 , 进行反 向调整 . 其 中a( )t 是 1个 随学 习 步数 的增加 而下降 的步 幅函 数 , 用 于压 制 随机干扰 , 保 证神经 网络 收敛到均方意义下 的局 部最小值 . a( t) 应 同时满足下列约束 : } 艺a ( t) = 二 ( 3 ) 艺a Z (t) < 二 如 a( t) = a0 ( 1一 t/ 乃就满 足这个要求 . 其 中a0 是 1 个 不 大于 1 的正实数 ; t代表 学习 步数 汀是 1 个 常 量 , 它 可 以 根据实际情况 由用户确定 . 4 改进的最小距离法在加热炉状态 识别过 程中的应 用 经过特征提取 , 选 出均热段炉 温 、 加热 I段 炉温 、 加热 n 段炉温 、 炉压 4 个 主要特征组成特 征空 间 , 所 以 神经网 络有 4 个输人节 点 , 它们依 次代表 以上 4 个 主要特征
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有