第06讲反向传播网络 zoujiang(@public.wh.hb.cn 邹江
第06讲 反向传播网络 zoujiang@public.wh.hb.cn 邹江
反向传播网络(Back- Propagation Network,简称 BP网络)是将WH学习规则一般化,对非线性 可微分函数进行权值训练的多层网络。 BP网络是一种多层前向反馈神经网络,其神经元 的变换函数是S型函数,因此输出量为0到1之 间的连续量,它可以实现从输入到输出的任意 的非线性映射 由于其权值的调整采用反向传播 ( Backpropagation)的学习算法,因此被称为 BP网络
反向传播网络(Back—Propagation Network,简称 BP网络)是将W—H学习规则一般化,对非线性 可微分函数进行权值训练的多层网络。 BP网络是一种多层前向反馈神经网络,其神经元 的变换函数是S型函数,因此输出量为0到1之 间的连续量,它可以实现从输入到输出的任意 的非线性映射。 由于其权值的调整采用反向传播 (Backpropagation)的学习算法,因此被称为 BP网络
BP网络主要用于: 1)函数逼近:用输入矢量和相应的输出矢量训练 个网络逼近一个函数; 2)模式识别:用一个特定的输出矢量将它与输入 矢量联系起来 3)分类:把输入矢量以所定义的合适方式进行分 类 4)数据压缩:减少输出矢量维数以便于传输或 存储
BP网络主要用于: 1)函数逼近:用输入矢量和相应的输出矢量训练 一个网络逼近—个函数; 2)模式识别:用一个特定的输出矢量将它与输入 矢量联系起来; 3)分类:把输入矢量以所定义的合适方式进行分 类; 4)数据压缩:减少输出矢量维数以便于传输或 存储
6.1BP网络模型与结构 slur 网 Al sers rq ,网 k BI HF2 sixl 1。B2 six six S k=I S∠; 个具有r个输入和一个隐含层的神经网络模型结构
6.1 BP网络模型与结构 一个具有r个输入和一个隐含层的神经网络模型结构
感知器和自适应线性元件的主要差别在激活函数 上:前者是二值型的,后者是线性的。 BP网络具有一层或多层隐含层,除了在多层网络 上与前面已介绍过的模型有不同外,其主要差 别也表现在激活函数上。 BP网络的激活函数必须是处处可微的,所以它就 不能采用二值型的阀值函数{0,1}或符号函数 —-1,1},BP网络经常使用的是S型的对数或 正切激活函数和线性函数
感知器和自适应线性元件的主要差别在激活函数 上:前者是二值型的,后者是线性的。 BP网络具有一层或多层隐含层,除了在多层网络 上与前面已介绍过的模型有不同外,其主要差 别也表现在激活函数上。 BP网络的激活函数必须是处处可微的,所以它就 不能采用二值型的阀值函数{0,1}或符号函数 {—1,1},BP网络经常使用的是S型的对数或 正切激活函数和线性函数
图6.2BP网络S型激活函数 因为S型函数具有非线性放大系数功能,它可以把输入 从负无穷大到正无穷大的信号,变换成-1到1之间输出, 对较大的输入信号,放大系数较小;而对较小的输入 信号,放大系数则较大,所以采用S型激活函数可以去 处理和逼近非线性的输入/输出关系
图6. 2 BP网络S型激活函数 因为S型函数具有非线性放大系数功能,它可以把输入 从负无穷大到正无穷大的信号,变换成-1到l之间输出, 对较大的输入信号,放大系数较小;而对较小的输入 信号,放大系数则较大,所以采用S型激活函数可以去 处理和逼近非线性的输入/输出关系
只有当希望对网络的输出进行限制,如限制在0 和1之间,那么在输出层应当包含S型激活函 数,在一般情况下,均是在隐含层采用S型激 活函数,而输出层采用线性激活函数。 BP网络的特点: 1、输入和输出是并行的模拟量; 2、网络的输入输出关系是各层连接的权因子决 定,没有固定的算法; 3、权因子是通过学习信号调节的,这样学习越 多,网络越聪明; 4、隐含层越多,网络输出精度越高,且个别权 因子的损坏不会对网络输出产生大的影响
只有当希望对网络的输出进行限制,如限制在0 和1之间,那么在输出层应当包含S型激活函 数,在一般情况下,均是在隐含层采用S型激 活函数,而输出层采用线性激活函数。 BP网络的特点: 1、输入和输出是并行的模拟量; 2、网络的输入输出关系是各层连接的权因子决 定,没有固定的算法; 3、权因子是通过学习信号调节的,这样学习越 多,网络越聪明; 4、隐含层越多,网络输出精度越高,且个别权 因子的损坏不会对网络输出产生大的影响
Q6.2BP学习规则 BP算法属于δ算法,是一种监督式的学习算法。 其主要思想为:对于q个输入学习样本:P, 2 Pq,已知与其对应的输出样本为:Tl, T2 Tq 学习的目的是用网络的实际输出A,A2, Aq 与目标矢量T,T2,…Tq,之间的误差来修 改其权值,使A,(1=1,2.,q)与期望的T尽 可能地接近;即:使网络输出层的误差平方和 达到最小
6.2 BP学习规则 BP算法属于δ算法,是一种监督式的学习算法。 其主要思想为:对于q个输入学习样本:P 1 , P 2 ,……Pq,已知与其对应的输出样本为:T1 , T2 ,……Tq。 学习的目的是用网络的实际输出A1 ,A2 ,……Aq, 与目标矢量T1 ,T2 ,……Tq,之间的误差来修 改其权值,使Al ,(l=l,2…,q)与期望的Tl尽 可能地接近;即:使网络输出层的误差平方和 达到最小
BP算法是由两部分组成:信息的正向传递与误差 的反向传播。 在正向传播过程中,输入信息从输入经隐含层逐 层计算传向输出层,每一层神经元的状态只影 响下一层神经元的状态 如果在输出层没有得到期望的输出,则计算输出 层的误差变化值,然后转向反向传播,通过网 络将误差信号沿原来的连接通路反传回来修改 各层神经元的权值直至达到期望目标
BP算法是由两部分组成:信息的正向传递与误差 的反向传播。 在正向传播过程中,输入信息从输入经隐含层逐 层计算传向输出层,每一层神经元的状态只影 响下一层神经元的状态。 如果在输出层没有得到期望的输出,则计算输出 层的误差变化值,然后转向反向传播,通过网 络将误差信号沿原来的连接通路反传回来修改 各层神经元的权值直至达到期望目标
∫)W ki k p az k k=1,2,,s2;i=1,2,…,Sl, 7 图6.3具有一个隐含层的简化网络图 设输入为P,输入神经元有r个,隐含层内有s1个神经元, 激活函数为F1,输出层内有s2个神经元,对应的激活函 数为F2,输出为A,目标矢量为T
图6.3 具有一个隐含层的简化网络图 设输入为P,输入神经元有r个,隐含层内有s1个神经元, 激活函数为F1,输出层内有s2个神经元,对应的激活函 数为F2,输出为A,目标矢量为T