正在加载图片...
D0I:10.13374/j.issn1001-053x.1999.03.017 第21卷第3期 北京科技大学学报 Vol.21 No.3 1999年6月 Journal of University of Science and Technology Beijing June 1999 基于人工神经网络的扁钢轧制力模型 赵伦” 王邦文) 韩素梅) 1)北京科技大学机械工程学院,北京1000832)北京市机械工业学校,北京100045 摘要根据BP人工神经网络算法原理,结合某厂型钢轧机轧制扁钢时的轧制力实测数据, 对扁钢轧制力进行建模.结果表明,神经网络用于轧制力建模是可行的,所建模型系统误差<1%, 模型计算值与实测值的偏差<4%,较好地反映了实际轧制过程的特征. 关键词系统建模:神经网络:轧制力模型 分类号TG335;TG335.5:Q954.52 目前的轧制力模型一般是在一定的假设条 样本模式对,上标k表示训练对的序号.对每一 件下,基于经典轧制理论而建立起来的数学模 个样本模式对进行如下的正向传播和反向传播 型,这种模型与复杂的真实轧制过程有时相差 处理 甚远,模型精度受到轧制条件的限制,而且建模 (1)正向前馈计算. 过程复杂,工作量大,而基于神经网络进行的系 当输入第k个数据x)时,隐含层结点h的 统建模可以弥补这一本质上的不足四.由于后者 总输入(加权和)为: 建模时无须对研究对象作任何假设,模型能够 S()=∑x()·W (1) 以其良好的映射逼近能力更逼近真实的轧制过 采用S型作用函数处理输入与输出的关系,隐 程.本文利用川威厂的实际轧制数据,根据BP 含层结点h的输出为: 算法原理,建立轧制扁钢时的轧制力模型. y(k)=1+e (2) 1BP神经网络的算法原理 相应地,输出层结点j的输出为: 1.1神经网络的BP算法 y)=1+e四W (3) BP网络模型的学习过程由正向传播和反 如果用k个输入的所有输出结点的误差平 向传播组成.在正向传播中,输入信息由输入层 方总和作为网络训练指标,则有: 经过隐含层并传向输出层,如果在输出层得不 网-=2d因-r (4) 到理想(期望)的输出值,则转向误差反向传播 由于转移函数(S型函数)是连续可微的,很显 过程,计算输出层和隐含层各单元的输出误差, 然,()也是每个权值的连续可微函数. 并据此反向依次修正各层神经元的连接权值, (2)误差反向传播修正各层权值, 最终实现输出误差最小 采用梯度规则,由J对各个W求导,可以求 假设网络结构有3层:在输入层有n个输 得使J最小的梯度,作为调整权值的反向, 入向量:1个隐含层:在输出层有m个输出向量. ①由隐含层到输出层的权值W的调整: 输入层结点、隐含层结点和输出层结点分别用 Aw,=-72-z6因y因 (5) 下标i,h,j表示;由输入结点x到隐含层的h结 6k)=[d()-yk)]f'(S(k) (6) 点的权值用W表示:由隐含层结点h到输出层 ②由输入层到隐含层的权值的调整: 结点j的权值用W表示, 对于输入数据x,设其目标输出为d,而实 naJ2=nΣ6.x因 △Wa=一W (7) 际输出为y.为了训练网络,由[,y]组成训练 (k)=ΣWw·δ()·f'(S(k) (8) 在实际应用时,常用当前误差对权值进行 1998-09-05收稿赵伦男,28岁,硕士生 调整,这样,式(5)和式(7)中对k的求和项就可1 2 第 卷 第 期 3 l , 9 9 年 6 月 北 京 科 技 大 学 学 报 OJ u r n a l o f U n i v e sr iyt o f S e i e n e e a o d eT c h n o l o gy B e小 n g V 6 1 . 2 1 J U n e N 0 . 3 1 9 9 9 基 于 人 工神 经 网络 的扁 钢 轧 制 力模 型 赵 伦 ” 王 邦文 ” 韩素梅 ” l) 北京科 技大 学机械工 程学 院 , 北京 10 0 83 2) 北京市机 械 工业学校 , 北 京 10 0 0 45 摘 要 根据 B P 人 工神经 网络 算法 原理 , 结合 某厂 型钢轧 机轧 制扁钢 时 的轧制 力实 测数据 , 对扁钢 轧制 力进行建模 . 结果表 明 , 神经 网络用于轧制 力建模是可行 的 ,所建模型 系统误差 < 1% , 模 型计算 值与 实测值 的偏 差 < 4% , 较好地 反映 了实际 轧制 过程 的特征 . 关键 词 系 统建 模 : 神经 网络 ; 轧 制力模 型 分类 号 T G 3 3 5 ; T G 3 3 5 . 5: Q 95 4 . 5 2 目前 的轧制力模 型一般 是在一 定的假设条 件下 , 基于经 典轧制理论而 建立起 来 的数学模 型 . 这种模 型与复杂 的真 实轧制过程有时相差 甚远 , 模型精度受到轧制条件 的限制 , 而且建模 过程复杂 , 工作量大 , 而基于神经网 络进行 的系 统建模可 以弥补这一本质上的不足 `1] . 由于后者 建模 时无须对研究对象作任何 假设 , 模型 能够 以其 良好 的映射逼近 能力 更 逼近真 实的轧制过 程 . 本文 利用 川威厂的实际 轧制数据 , 根据 B P 算法 原理 , 建立轧制 扁钢 时 的轧制力模型 . 样 本模式对 , 上标 k 表示 训 练对 的序 号 . 对每一 个 样本模式对进行如下的正 向传播和反向传播 处理 . ( l) 正 向前馈计算 . 当输入第 k 个 数据 式k) 时 , 隐含层结 点 h 的 总输入 ( 加权和 ) 为 : hS (k) 二 艺姜(k) · 叽 ( l) 采用 S 型 作用 函 数处 理输入 与 输 出 的关系 , 隐 含层 结 点 h 的输 出 为 : 凡 (k) 1 + e 一 公 { k) 矶 ( 2 ) 1 B P 神 经 网 络 的算法原 理 1 . 1 神经 网络 的 B P 算法 B P 网络 模 型 的 学 习 过 程 由正 向传播和 反 向传播组 成 . 在正 向传播 中 , 输入信息 由输入层 经 过隐 含层 并传 向输 出 层 , 如 果 在输 出层 得 不 到 理想 ( 期望 ) 的输 出值 , 则 转 向误差 反 向传播 过程 , 计算输 出层和 隐含层 各单元的输 出误 差 , 并据此反 向依次修 正 各层 神经元 的连接权值 , 最 终实现输 出误差 最 小 `2] . 假设 网络 结构有 3 层 : 在输 入层有 n 个输 入 向量 ; 1个 隐含层 ; 在输 出层有 m 个输 出 向量 . 输入层结 点 、 隐含层 结点和 输 出层 结点分别用 下标 i , h , j 表示 ; 由输 入结点 x ` 到隐含层 的 h 结 点 的权值用 叽 表示 ; 由隐 含层 结 点 h 到 输 出层 结点 j 的权值用 hWj 表示 . 对于 输入 数据 x , 设其 目标 输 出为 d , 而 实 际输 出为 y . 为了 训练 网 络 , 由〔犷 ,犷]组 成训 练 相应地 , 输 出层 结点j 的输 出 为: 以k) = 一奥丽不 (3) z 了 、 一 / l + e 一 份少“ 叼 爪 、 一 产 如果 用 k 个输入 的所有输 出 结点的误差 平 方总 和 作 为网 络 训 练指标 , 则 有 : (J 。 一 告千于〔铸(劝 一 、 (k) 〕 ’ (4 , 由于 转移 函数 s( 型 函 数 ) 是 连续可 微 的 , 很 显 然 , (J 哟 也 是 每个权值 的连续可 微 函 数 . (2 ) 误 差 反 向传播修正 各层权 值 . 采用梯度规则 , 由 J 对 各 个 不求 导 , 可 以求 得 使 J 最 小的梯度 , 作 为调整权值 的反 向 . ① 由隐含层 到输 出层 的权 值 叽 的 调整 : △、 一樱 一 咧 劝 、 (5) 以k) =[ 以k) 一 以k)] .f ` (以k) (6) ② 由输入 层到 隐含层 的权 值 的调 整 : △。 一樱 一 琳.kx() ,k() (7) 民 (k) = 艺叽 · 氏 (k) · f ` (冬 (k) ) (8 ) 19 9 8 一 09 一 0 5 收稿 赵 伦 男 , 28 岁 , 硕 士生 在 实际 应用时 , 常用 当前误 差 对权值进行 调整 , 这 样 , 式 (5 ) 和 式 ( 7) 中对 k 的求和 项 就可 DOI: 10. 13374 /j . issn1001 -053x. 1999. 03. 017
向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有