正在加载图片...
54) (53)式称为W一H学习规则,又叫δ规则,或为最小均方差算法(LMS)。 W-H学习规则的权值变化量正比于网络的输出误差及网络的输入矢量。它不需 求导数,所以算法简单,又具有收敛速度快和精度髙的优点 (5.3)式中的η为学习速率。在一般的实际运用中,实践表明,η通常取一 接近1的数,或取值为 门=0.99* max[det(P*P 这样的选择可以达到既快速又正确的结果。 学习速率的这一取法在神经网络工具箱中用函数 maxlinIrm来实现。(5.5) 式可实现为: Ir=0.99*maxlinlr(P, 1); 其中lr为学习速率 W-H学习规则的函数为: learnwh n来实现,另外,加上线性自适应网络 输出函数 purelin.m,可以写出W-H学习规则的计算公式为 pu E=T—A; Idw, dB]=learnwh(P, E, h); W=W十dW B=B十dB 采用W一H规则训练自适应线性元件使其能够得以收敛的必要条件是被训 练的输入矢量必须是线性独立的,且应适当地选择学习速率以防止产生振荡现 象 5.3网络训练 自适应线性元件的网络训练过程可以归纳为以下三个步骤:3 (5.4) (5.3)式称为 W—H 学习规则,又叫δ规则,或为最小均方差算法(LMS)。 W—H 学习规则的权值变化量正比于网络的输出误差及网络的输入矢量。它不需 求导数,所以算法简单,又具有收敛速度快和精度高的优点。 (5.3)式中的η为学习速率。在一般的实际运用中,实践表明,η通常取一 接近 1 的数,或取值为: (5.5) 这样的选择可以达到既快速又正确的结果。 学习速率的这一取法在神经网络工具箱中用函数 maxlinlr.m 来实现。(5.5) 式可实现为: 其中 lr 为学习速率。 W—H 学习规则的函数为:learnwh.m 来实现,另外,加上线性自适应网络 输出函数 purelin.m,可以写出 W—H 学习规则的计算公式为: A=purelin(W*P); E=T—A; [dW,dB]=learnwh(P,E,h); W=W 十 dW; B=B 十 dB; 采用 W—H 规则训练自适应线性元件使其能够得以收敛的必要条件是被训 练的输入矢量必须是线性独立的,且应适当地选择学习速率以防止产生振荡现 象。 5.3 网络训练 自适应线性元件的网络训练过程可以归纳为以下三个步骤:
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有