正在加载图片...
Vol.22 No.4 张大志等:基于遗传神经网络的冷连轧机轧制压力模型 ◆385· 可以提供有效的数值计算.BP网络学习过程为: 的算法参数:包括群体规模N,交叉概率Pc和 网络输入值由输入层经加权处理传向隐含层, 变异概率Pm;2)编码(encode)):选择合适的编码 经隐含层活化函数运算后得到隐含层输出值: 方案,把变量转换为字符串;3)随机产生含有N 隐含层输出值经加权处理后传向输出层,经输 个个体的初始群体:4)计算每个个体的适应值 出层活化函数运算后得到网络输出值,输出值 F,适应值函数Fx)可描述为: 与期望值比较得到误差:将误差反向传播,并逐 F(x)=glf(x)] (8) 层修正网络各层间的连接权值,使误差不断减 其中x)为目标函数,F(x)为非负值.函数g通 小:重复进行训练,直到误差满足精度要求, 常取为线性函数,比如: 活化函数一般采用S(Sigmoid)型函数: F(x)=af(x)+b (9) 1 f(x)=I+e (2) 当求fx)的极大值时,a取正值;当求fx)的极 小值时,a取负值.b是为了保证Fx)为非负值 假设有p组训练样本,以p组训练样本输 入的所有输出节点的误差平方和作为更新权值 而迁取的常数;5)进行遗传操作:包括选择、交 的指标,则有: 叉和变异操作:6)终止条件判断. Ed()- 2)遗传算法的改进.遗传算法全局收敛主 (3) 要是根据Holland的模式定理的定性分析,近几 式中,m一输出层节点数;d()一期望输出值; 年来,在遗传算法全局收敛性的分析方面取得 y)一网络输出值. 了突破.Goldberg和Segrest首先使用马尔科夫 权值W的调整采用梯度下降法,其调整量 链分析了遗传算法,Eiben等用马尔科夫链证明 为: 了保留最优个体(Elitist)的GA的概率性全局收 ∂E △W两=一IOW (4) 敛:Rudolph用马尔科夫链证明了带有复制、交 通过计算可求得权值更新式: 叉和变异操作的简单遗传算法收敛不到全局最 W(k+1)=Wg()+n6,(Ky.() (5) 优解.因此对简单遗传算法进行改进是十分必 式中,一学习速率:δ,()一误差项,为加快训 要的.本文主要作了如下几方面的改进:1)采用 练速度,通常加入动量项,权值更新式变为: 具有两级算法结构遗传算法:2)利用亚级遗传 W(k+1)=W(k+n6,(ky.(k+a[Wx()-Wm(k-1)] 算法在性能参数空间中对一级算法的群体规 (6) 模、交叉概率和变异概率进行优化选取:3)采用 或表示为: 确定性选择方法和最优个体保留法进行复制操 Wg(k)=no,(k)y (k)tanw(k-1) (7) 作:4)采用两点交叉法进行交叉操作:5)采用十 式中,a一动量因子. 进制编码方案,避免了有些优化变量难以进行 2.2改进的遗传算法 二进制编码的困难,避免了在二进制编码条件 自然界早已显示出了基因的强大威力,通 下所必须的译码过程,提高了算法的速度,在数 过这种机制,一系列的具有智能化、自组织、自 字串长度不变的情况下计算精度可以大大提 适应的器官产生了.人们要在科学研究中仿效 高 这些生物器官,就必须了解基因、进化的概念, 2.3遗传神经网络 遗传算法就是这样一种利用自然选择和进化思 虽然BP网络在函数逼近方面有很大优点, 想在高维空间中寻优的方法.GA寻优过程的一 但是也存在突出的弱点,如收敛速度慢、可能收 个重要特点是它始终保持整个群体的进化,这 敛到局部极值点以及难以确定最优的结构参数 样即使某个体在某时刻丧失了有用的特征,这 和性能参数(学习速率、动量因子).这是由于 种特征也会被其他个体所保留并延续发展下 BP算法本质上是一种梯度寻优算法,网络权值 去.由于GA仅需要知道目标函数的信息,而不 依赖于目标函数的一阶导数信息进行修正:而 需要知道其连续可微等要求,因而具有更广泛 实际问题的求解空间多是复杂的超曲面且存在 的适应性,同时它又是一种采用启发性知识的 多个局部极值点,一旦随机产生的网络初始权 智能搜索算法,所以往往能在搜索空间高度复 值不合适,便会陷入局部收敛而无法逸出.由 杂的问题上取得比以往算法更好的效果. 于遗传优化算法具有搜索效率高、不需要目标 (1)简单遗传算法的实现步骤.1)选择合适 函数的微分值,具有很强的全局搜索能力等突V b L2 2 N 0 . 4 张大志 等 : 基 于遗传 神经 网 络 的冷 连轧 机轧制 压力模 型 一 385 · 可 以提供有效的数值计算 . B P网络 学习过程为 : 网 络输入 值 由输入 层 经 加 权 处 理 传 向 隐含 层 , 经 隐含层活 化 函数 运算后得 到隐含层 输 出值 ; 隐含 层 输出值 经 加 权处 理后 传 向输出 层 , 经输 出层 活化 函 数运算后 得到 网络输 出 值 , 输 出值 与期望值 比较得 到误差 ; 将 误差 反向传播 , 并逐 层 修 正 网 络各层 间 的连接权值 , 使误差 不 断 减 小 ; 重 复进行 训 练 , 直到 误 差 满足精度 要 求 . 活化 函数 一 般采用 S ( is gm of d) 型 函数 : xr( 卜 共二 ( 2 ) J v 一了 1+ e 一 J 、 一 假设 有 P 组 训 练样本 , 以 P 组 训 练样本输 入 的所 有输出 节点 的误差 平方和 作 为 更 新权值 的指标 , 则有 : E 一 粤至自以k) 一以k)z] ( 3) ` k J 式 中 , m 一输 出层节 点数 ; 踌(k) 一期望输 出 值 ; 以无卜一 网络 输 出 值 . 权值 叽 的调 整 采用 梯度下 降法 , 其调 整量 为 : ` _ , a E △叽 一 冲不丐 ( 4 ) 通过计算可求得 权值 更 新式 : 叽(+k l ) = 呱(k) + 粉氏(无玩(k) ( 5 ) 式 中 , 粉一学 习 速率 ; 氏( k) 一误 差 项 . 为 加快 训 练速度 , 通常加 入动量项 , 权值更新式变为 : 呱 (+k 1) 二 呱 (k) 十粉氏(无玩 (无) + a[ 叽 (k) 一 呱k( 一 1) 〕 ( 6 ) 或 表示 为 : 呱( k) = 叮氏(无玩(k) + a △呱(k 一 l ) ( 7 ) 式 中 , ~ 动量 因子 . 2 . 2 改进的遗传算法 自然 界早 已 显示 出 了基 因 的强 大威 力 , 通 过这种机 制 , 一 系列 的具 有 智能 化 、 自组 织 、 自 适应 的 器官产生 了 . 人们 要 在科学 研 究 中仿效 这些生 物器官 , 就必 须 了解 基因 、 进化 的概念 . 遗传算法就 是 这样一种利用 自然选择和进化思 想 在 高维空 间 中寻 优的 方法 . G A 寻 优过程 的一 个重要特点是 它 始终保 持整 个群体的 进化 , 这 样 即使某个体在某 时刻 丧 失 了有用 的 特征 , 这 种特 征也 会被 其他 个体 所保 留并 延 续 发展 下 去 . 由于 G A 仅需要 知 道 目标 函数 的信 息 , 而 不 需要知 道其连续可 微等要求 , 因而 具 有 更广泛 的适应性 , 同时它又是 一 种采用 启发性 知 识 的 智 能 搜索 算法 , 所 以往往 能在 搜 索 空 间 高 度 复 杂 的问题上取得 比 以往算法更好 的效果 . ( l) 简单遗传算法 的实现步骤 . 1) 选择合适 的算法参数 : 包括群体规 模 N , 交叉概 率 P 。 和 变 异概 率 mP ; 2) 编码e( cn o de ) : 选择合 适 的编 码 方案 , 把变量 转换 为字符 串 ; 3) 随机 产 生含有 N 个 个体的初始群体 ; 4) 计算 每个个体 的适应值 只 , 适应 值函 数 月大) 可 描 述 为 : 月 戈 ) = g 叭才)」 ( 8 ) 其 中刀 义 ) 为 目标函 数 , 月工 )为 非 负值 . 函 数 g 通 常取 为线性 函 数 , 比如 : 月才) = 叮认) + b ( 9 ) 当 求fx( ) 的 极大值 时 , a 取正 值 ; 当求厂以) 的极 小值 时 , a 取 负值 . b 是 为 了保 证 月习 为非 负值 而 迁取 的常数; 5) 进行遗传操作 : 包 括选 择 、 交 叉和 变 异操 作 ; 6) 终止 条件判断 . (2 )遗 传算法的改进 . 遗传算法全 局 收敛 主 要 是根据 H ol l a n d 的模式定理 的定 性分 析 . 近几 年 来 , 在遗传算法全局 收敛性 的分析方面取 得 了 突破 . G ol db e gr 和 se ger st 首先 使用马 尔科夫 链 分析 了遗传算法 , iE be n 等用 马尔 科夫链证 明 了保 留最 优个体 ( lE it st ) 的 G A 的概率性全局 收 敛 ; uR do lP h 用 马尔 科夫 链证 明 了带 有 复 制 、 交 叉和 变异操作的简单遗传算法收敛 不 到全局 最 优解 “ , . 因此对简单遗传算法进行改进是十 分 必 要的 . 本文 主要作 了如下 几方面 的改进 : l) 采用 具 有两 级算法结构遗传算法 ; 2) 利用 亚 级 遗传 算法在 性 能参数 空 间中对 一 级 算法 的群 体规 模 、 交叉 概率和 变异概率进行优化选取 ; 3) 采用 确定性选择方法和最优个体保留法进行 复制操 作 ; 4) 采用 两 点交叉法进行交 叉 操作 ; 5) 采用 十 进制编码方案 , 避免 了有些优 化变量难 以进行 二 进制编码的 困难 , 避 免了在 二 进制编码条件 下 所必须 的译码过程 , 提高了算法 的速度 , 在数 字 串长 度 不 变 的情况 下 计 算精 度可 以大 大提 局 . 2 . 3 遗传神经 网络 虽 然 B P 网 络 在函 数逼近 方 面 有很 大 优点 , 但是 也 存在突 出的 弱点 , 如 收敛速 度慢 、 可 能 收 敛到 局 部 极值点 以及难 以确 定最 优 的结 构参数 和 性 能参数 ( 学 习速率 、 动 量 因 子 ) . 这 是 由于 B P 算法本质上是 一 种梯度寻 优算法 , 网 络权值 依赖 于 目标 函数 的 一 阶 导 数信息进行修正 ; 而 实际 问题的 求解空 间多是 复杂的超 曲面且 存在 多个局 部极值点 , 一 旦 随机产 生 的网 络初始权 值不 合适 , 便会 陷入局 部收敛而 无法逸 出 . 由 于 遗传优化算法具 有 搜索效率高 、 不 需要 目标 函 数的微分值 , 具有很强 的全局 搜 索能力等突
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有