正在加载图片...
8 北京科技大学学报 第34卷 单位矩阵,N是网络隐层神经元个数 式中,r为时间常数,这里取r=2s.设定输出序列 (2)对输入序列u(1),u(2),…,u(k),…, y:是幅度为gm=1.2的正弦信号序列,即 u(n)的每一步值,计算网络输出y()与教师序列 0, t哇2,t2+r]: yteacher(k)的误差, ya(t)= (5) e(k)=ych(k)-y(k) ,t∈2,t2+r]. (3)使用P和e更新网络输出连接权矩阵, 实验中定义四组输入输出序列对如表1所示 W(k)=Wm(k-1)+e(k)·r(k)·c, 其中M1和M2是结果为匹配的序列对,NM1和 r(k)=f(x()),λ=P(k-1)·r(k), NM2是结果为不匹配的序列对. 1 c=1+r()入 表1四组输入输出序列对 Table 1 Four pairs of input/output sequences (4)更新P的值, P(k)=P(k-1)-A.Ac. 序列对 输入 输出 M (5)重复步骤(2)、(3)和(4),直到k=n. 1=+2’4=0 叫1=0,2=山1+“2 Ytescher=ya(t) M2 2实验结果与分析 NMI 41=1·2=2 Yteacher=-ya(t) 2.1构建训练集与测试集 NM2 1=,2=u 实验中设定训练和测试用的时间序列长度T= 本文使用这四组序列对构造实验中使用的训练 6s,离散化采样间隔△t=0.08s.构造两个长度为t 集和测试集,如表2所示,其中定义发放间隔 的序列4,和u,其发放时间分别为t1=1s和t2= delay=t2-t,=2s.Datasetl是训练集,每次从其中 3s,发放幅度g。=0.675,发放时长入=1s,即 四种序列对中随机抽取一对训练.Dataset2~ r0, t任1,t1+入]: 4,()= Dataset4是测试集,分别代表三种不同类型的测试序 gmpe",tE+]. 列:(1)首次发放时间不变,发放间隔不同:(2)发放 r0, t生2t2+入]: 间隔不变,发放时间发生变化:(3)发放时间和间隔 3(t)= (4) ,te2,l2+]. 都发生变化. 表2实验中数据集的定义 Table 2 Datasets defined in the experiment 类型 数据集 包含的序列对 参数 训练集 Datasetl MI,M2,NMI,NM2 t=Is,delay =2s 测试集 Dataset2 MI,M2.NMI,NM2 t1=1s,delay=0.5~3.0s 测试集 Dataset3 MI,M2,NMI,NM2 t =0.5 ~4.0s,delay =2s 测试集 Dataset4 MI,M2,NMI,NM2 41=0.5-3.0s,delay=0.5~3.0s 网络测试的输出结果使用最大相关系数0来 2.2实验结果及分析 衡量,如下式所示: 实验中使用的网络隐层神经元个数N=5000, 0m=max(corrcoef(y,y))= α=δ=1.经过100次训练之后,输出连接权矩阵的 12=1 均值如图3(a)所示.从图3(a)可以看出:网络在经 过60次训练之后,输出连接权的均值变化趋于平 6 (y()-习∑(y,()-,) =0 max- (6) 缓:当训练次数达到100次时,其输出连接权均值逐 经=1 (y()-习2∑(,()-,)2 渐向某个常量无限接近.图3(b)则显示了网络输 出连接权的标准差随着训练步数的增加而变化的曲 当网络输出与匹配决策期望输出序列的匹配最 线,可以看出当训练步数达到60步之后,网络输出 大相关系数0s>0.9且与非匹配决策的期望输出 连接权标准差已经趋近于零,意味着网络的输出连 序列的非匹配最大相关系数阈值0s<0.5时,认为 接权不再发生明显的变化,说明网络训练确实收敛 匹配:反之则认为非匹配 与此同时,测得训练均方误差(MSE)均小于0.01,北 京 科 技 大 学 学 报 第 34 卷 单位矩阵,N 是网络隐层神经元个数. ( 2) 对输入序列 u( 1) ,u( 2) ,…,u( k) ,…, u( n) 的每一步值,计算网络输出 y( k) 与教师序列 yteacher( k) 的误差, e( k) = yteacher( k) - y( k) . ( 3) 使用 P 和 e 更新网络输出连接权矩阵, Wout ( k) = Wout ( k - 1) + e( k)·r( k)·c, r( k) = f( x( k) ) ,λ = P( k - 1)·r( k) , c = 1 1 + r( k) 'λ . ( 4) 更新 P 的值, P( k) = P( k - 1) - λ·λ'·c. ( 5) 重复步骤( 2) 、( 3) 和( 4) ,直到 k = n. 2 实验结果与分析 2. 1 构建训练集与测试集 实验中设定训练和测试用的时间序列长度Tf = 6 s,离散化采样间隔 Δt = 0. 08 s. 构造两个长度为 t 的序列 ut1和 ut2 ,其发放时间分别为 t1 = 1 s 和t2 = 3 s,发放幅度 gin = 0. 675,发放时长 λ = 1 s,即 ut1 ( t) = 0, t[t1,t1 + λ]; ginpute - τt , t∈[t1,t { 1 + λ]. ut2 ( t) = 0, t[t2,t2 + λ]; ginpute - τt , t∈[t2,t { 2 + λ]. ( 4) 式中,τ 为时间常数,这里取 τ = 2 s. 设定输出序列 yd是幅度为 gout = 1. 2 的正弦信号序列,即 yd ( t) = 0, t[t2,t2 + τ]; goutput ( sin π τ ) t , t∈[t2,t { 2 + τ]. ( 5) 实验中定义四组输入输出序列对如表 1 所示. 其中 M1 和 M2 是结果为匹配的序列对,NM1 和 NM2 是结果为不匹配的序列对. 表 1 四组输入输出序列对 Table 1 Four pairs of input /output sequences 序列对 输入 输出 M1 u1 = ut1 + ut2,u2 = 0 yteacher = yd ( t) M2 u1 = 0,u2 = ut1 + ut2 NM1 u1 = ut 1,u2 = ut2 yteacher = - yd ( t) NM2 u1 = ut 2,u2 = ut 1 本文使用这四组序列对构造实验中使用的训练 集和 测 试 集,如 表 2 所 示,其 中 定 义 发 放 间 隔 delay = t2 - t1 = 2 s. Dataset1 是训练集,每次从其中 四种序列对中随机抽取一对训练. Dataset2 ~ Dataset4是测试集,分别代表三种不同类型的测试序 列: ( 1) 首次发放时间不变,发放间隔不同; ( 2) 发放 间隔不变,发放时间发生变化; ( 3) 发放时间和间隔 都发生变化. 表 2 实验中数据集的定义 Table 2 Datasets defined in the experiment 类型 数据集 包含的序列对 参数 训练集 Dataset1 M1,M2,NM1,NM2 t1 = 1 s,delay = 2 s 测试集 Dataset2 M1,M2,NM1,NM2 t1 = 1 s,delay = 0. 5 ~ 3. 0 s 测试集 Dataset3 M1,M2,NM1,NM2 t1 = 0. 5 ~ 4. 0 s,delay = 2 s 测试集 Dataset4 M1,M2,NM1,NM2 t1 = 0. 5 ~ 3. 0 s,delay = 0. 5 ~ 3. 0 s 网络测试的输出结果使用最大相关系数 θmax来 衡量,如下式所示: θmax = max 6 t2 = 1 ( corrcoef( y,yt2 ) ) = max 6 t2 = 1 ∑ l i = 0 ( y( i) - y) ∑( yt2 ( i) - yt2 ) ∑ l i = 0 ( y( i) - y) 2 ∑( yt2 ( i) - yt2 ) 槡 2 . ( 6) 当网络输出与匹配决策期望输出序列的匹配最 大相关系数 θmax > 0. 9 且与非匹配决策的期望输出 序列的非匹配最大相关系数阈值 θmax < 0. 5 时,认为 匹配; 反之则认为非匹配. 2. 2 实验结果及分析 实验中使用的网络隐层神经元个数 N = 5 000, α = δ = 1. 经过 100 次训练之后,输出连接权矩阵的 均值如图 3( a) 所示. 从图 3( a) 可以看出: 网络在经 过 60 次训练之后,输出连接权的均值变化趋于平 缓; 当训练次数达到 100 次时,其输出连接权均值逐 渐向某个常量无限接近. 图 3( b) 则显示了网络输 出连接权的标准差随着训练步数的增加而变化的曲 线,可以看出当训练步数达到 60 步之后,网络输出 连接权标准差已经趋近于零,意味着网络的输出连 接权不再发生明显的变化,说明网络训练确实收敛. 与此同时,测得训练均方误差( MSE) 均小于 0. 01, ·8·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有