正在加载图片...
260 北京科技大学学报 第32卷 际厚度值误差小,误差波动范围小,图10所示 10 (a) 10 10 10 I0 10 10 ) 10 10 (e) 10 30 的 10 0 100200300400500600700 10 训练次数 107 5001000150020002500300 图5贝叶斯神经网络训练曲线:(a)误差平方和,收敛值为 圳练次数 0.00031094:(b)权值平方和,收敛值为4.13001:(c)网络有 效参数个数,收敛值为20.1246 图7多样本下传统BP神经网络训练曲线 Fg 5 Tmainng curves of the Bayesian neural neborks (a)square Fig 7 Traning curve of the tmaditional BP neural networks with sm of eror the constringency is 0.00031094:(b)square sum of enough samples weight the constringency is 4.13001:(c)nework effective number of parmeters the constringency is 20.1246 1.29 一实际值 (a) 一预测值 1.27 1.27 1.25 125 0 且1.23 12 一实际厚度值 1.21 10 一传统神经网络预测值 贝叶斯神经网络预测值 1196 4008001200 150 4008001200 1.19 样本点数 样本点数 图8传统BP神经网络预测厚度(a)和误差曲线(b) 20 40 6080 100120 Fig 8 Thickness prediction (a)and ermor curve (b)by the tmadi 样本点数 tional BP neural networks 图6传统BP神经网络与贝叶斯神经网络厚度预测对比 Fg6 Canparison of thickness forecasts between the traditional BP 1 neural neworks and Bayesian neural networks 器10 表2性能数据比较 10 Table 2 Camparison of perfomance data 10 均方误差/ 10 训练 误差平方和/ 神经网络 10 次数 10-6 10-4 50 ⊙ 传统BP网络 3000 1.1179 1.0509 立 贝叶斯神经网络 788 3.3079 3.1094 10/ 0 400 800120016002000 训练次数 样本Ⅱ在ba analyzer数据时间间隔达到0.2s 时,数据样本点达到300个足以实时反应带钢轧制 图9多样本下贝叶斯神经网络训练曲线.()误差平方和,收 过程每个状态,通过传统神经网络和贝叶斯神经网 敛值为0.000545944(b)权值平方和,收敛值为5.08712 (c)网络有效参数个数,收敛值为27.4419 络得到训练模型并分别预测厚度,网络泛化能力都 Fig9 Training curves of the Bayesian neural networks w ith enough 得到增强.,训练过程表现为传统神经网络训练次数 smples (a)squaw sim of eror the constringency is 0.000545944: 超过3000次,如图7所示,而预测厚度与实际厚度 (b)squar sim of weight the constringency is 5.087 12: 误差大,波动范围广,如图8所示:贝叶斯神经网络 (c)netork effective number of panmeters the constringency is 训练只要1923次,如图9所示,而预测厚度值与实 27.4419北 京 科 技 大 学 学 报 第 32卷 图 5 贝叶斯神经网络训练曲线: (a) 误差平方和‚收敛值为 0∙00031094;(b) 权值平方和‚收敛值为 4∙13001;(c) 网络有 效参数个数‚收敛值为 20∙1246 Fig.5 TrainingcurvesoftheBayesianneuralnetworks:(a) square sumoferror‚theconstringencyis0∙00031094;(b) squaresumof weight‚theconstringencyis4∙13001;(c) networkeffectivenumber ofparameters‚theconstringencyis20∙1246 图 6 传统 BP神经网络与贝叶斯神经网络厚度预测对比 Fig.6 ComparisonofthicknessforecastsbetweenthetraditionalBP neuralnetworksandBayesianneuralnetworks 表 2 性能数据比较 Table2 Comparisonofperformancedata 神经网络 训练 次数 均方误差/ 10—6 误差平方和/ 10—4 传统 BP网络 3000 1∙1179 1∙0509 贝叶斯神经网络 788 3∙3079 3∙1094 样本Ⅱ在 Ibaanalyzer数据时间间隔达到 0∙2s 时‚数据样本点达到 300个足以实时反应带钢轧制 过程每个状态‚通过传统神经网络和贝叶斯神经网 络得到训练模型并分别预测厚度‚网络泛化能力都 得到增强.训练过程表现为传统神经网络训练次数 超过 3000次‚如图 7所示‚而预测厚度与实际厚度 误差大‚波动范围广‚如图 8所示;贝叶斯神经网络 训练只要 1923次‚如图 9所示‚而预测厚度值与实 际厚度值误差小‚误差波动范围小‚图 10所示. 图 7 多样本下传统 BP神经网络训练曲线 Fig.7 TrainingcurveofthetraditionalBPneuralnetworkswith enoughsamples 图 8 传统 BP神经网络预测厚度 (a)和误差曲线 (b) Fig.8 Thicknessprediction(a) anderrorcurve(b) bythetradi- tionalBPneuralnetworks 图 9 多样本下贝叶斯神经网络训练曲线.(a) 误差平方和‚收 敛值为 0∙000545944; (b) 权值平方和‚收敛值为 5∙08712; (c) 网络有效参数个数‚收敛值为 27∙4419 Fig.9 TrainingcurvesoftheBayesianneuralnetworkswithenough samples:(a) squaresumoferror‚theconstringencyis0∙000545944; (b) square sum ofweight‚ the constringency is5∙08712; (c) networkeffectivenumberofparameters‚theconstringencyis 27∙4419 ·260·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有