正在加载图片...
W=a∑[()TⅠ] k=1 (7.5) 当a=1时有 W=∑Tk(Tk)r k=1 (7.6) 其中,I为单位对角矩阵 由(7.5)和(7.6)式所形成的网络权值矩阵为零对角阵 采用海布学习规则来设计记忆权值,是因为设计简单,并可以满足w=w的对称条件。 从而可以保证网络在异步工作时收敛。在同步工作时,网络或收敛或出现极限环为2。在设 计网络权值时,与前向网络不同的是令初始权值w=0,每当一个样本出现时,都在原权值 上加上一个修正量,即w=w+,对于第k个样本,当第i个神经元输出与第j个神经 元输入同时兴奋或同时抑制时,tt>0;当tt中一个兴奋一个抑制时,t<0。这就和 海布提出的生物神经细胞之间的作用规律相同。 在神经网络工具箱中有关采用海布公式求解网络权矩阵变化的函数为 learnh.和 learnhd. m,后者为带有衰减学习速率的函数 dw=learnh(P, A, Ir): ex dw=learnhd(W, P, A, Ir, dr); 对于简单的情况,Ir可以选择1:对于复杂的应用,可取lr=0.1~0.5,dr=lr/3 7.3.4影响记忆容量的因素 设计DHNN网络的目的,是希望通过所设计的权值矩阵W储存多个期望模式。从海布 学习公式的推导过程中可以看出:当网络只记忆一个稳定模式时,该模式肯定被网络准确无 误地记忆住,即所设计的W值一定能够满足正比于输入和输出矢量的乘积关系。但当需要 记忆的模式增多时,情况则发生了变化,主要表现在下面两点上: (1)权值移动 在网络的学习过程中,网络对记忆样本输入T,T2…,T的权值学习记忆实际上是逐10 (7.5) 当α=1 时有 (7.6) 其中,I 为单位对角矩阵。 由(7.5)和(7.6)式所形成的网络权值矩阵为零对角阵。 采用海布学习规则来设计记忆权值,是因为设计简单,并可以满足 wij=wji 的对称条件。 从而可以保证网络在异步工作时收敛。在同步工作时,网络或收敛或出现极限环为 2。在设 计网络权值时,与前向网络不同的是令初始权值 wij=0,每当一个样本出现时,都在原权值 上加上一个修正量,即 wij=wij+tj k ti k,对于第 k 个样本,当第 i 个神经元输出与第 j 个神经 元输入同时兴奋或同时抑制时,tj k ti k>o;当 tj k ti k 中一个兴奋一个抑制时,tj k ti k<0。这就和 海布提出的生物神经细胞之间的作用规律相同。 在神经网络工具箱中有关采用海布公式求解网络权矩阵变化的函数为 learnh.m 和 learnhd.m,后者为带有衰减学习速率的函数: dW=1earnh(P,A,lr); 或 dW=learnhd(W,P,A,lr,dr); 对于简单的情况,lr 可以选择 1;对于复杂的应用,可取 lr=0.1~0.5,dr=lr/3。 7.3.4 影响记忆容量的因素 设计 DHNN 网络的目的,是希望通过所设计的权值矩阵 W 储存多个期望模式。从海布 学习公式的推导过程中可以看出:当网络只记忆一个稳定模式时,该模式肯定被网络准确无 误地记忆住,即所设计的 W 值一定能够满足正比于输入和输出矢量的乘积关系。但当需要 记忆的模式增多时,情况则发生了变化,主要表现在下面两点上: (1)权值移动 在网络的学习过程中,网络对记忆样本输入 T 1,T 2…,T q 的权值学习记忆实际上是逐
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有