正在加载图片...
输入与输出的关系:XW=b 权矩阵可以按下式求解:W=(XTX)xb 学习规则:Wk+1=Wk+n(bk-WkXk)Xk 或△Wk=705kXk 6k=(bk-Wkⅹk)代表输入与输出的差别。 是学习因子 这学习规则即是著名的器习规则 随着学习迭代次数k的增加k→保证网络的收敛 ●反传(BP)网络误差反传(学习算法) (BP)网络与感知器的主要差别在于:(BP)网络的节点 是非线性的。 采用广义习规则XW = b W X X X b T 1 T ( ) − = k k k k k T k k k k W X W W b W X X     = + = + − ( ) 1 或 ( ) k T  k = bk −Wk X    k →0 输入与输出的关系: 权矩阵可以按下式求解: 学习规则: 代表输入与输出的差别。 是学习因子 这学习规则即是著名的 学习规则。 随着学习迭代次数k的增加, 保证网络的收敛。 ● 反传(BP)网络 误差反传(学习算法) (BP)网络与感知器的主要差别在于:(BP)网络的节点 是非线性的。 采用广义 学习规则。 
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有