当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

西安电子科技大学:《神经网络与模糊系统 Neural Networks and Fuzzy Systems》课程PPT课件讲稿(2006)Chapter 05-2 Backpropagation Algorithm

资源类别:文库,文档格式:PPT,文档页数:16,文件大小:150KB,团购合买
点击下载完整版文档(PPT)

Backpropagation Algorithm 郝红侠 2006.11.13 2023/7/9

2023/7/9 1 Backpropagation Algorithm 郝红侠 2006.11.13

Perceptron Single Layer Feed- forward Rosenblatt's Perceptron:a network of processing elements (PE): Input layer of Output layer source nodes of neurons 2023/7/9 2

2023/7/9 2 Perceptron : Single Layer Feed￾forward Input layer of source nodes Output layer of neurons Rosenblatt’s Perceptron: a network of processing elements (PE):

XOR问题 任何一个逻辑电路都可以只用XOR门来实现, XOR是通用门(universal logic gate) 感知器不能解决XOR问题 两层感知器可以解决XOR问题 异或问题的二层感知器 2023/7/9 3

2023/7/9 3 XOR问题 ⚫ 任何一个逻辑电路都可以只用XOR门来实现, XOR是通用门 (universal logic gate) ⚫ 感知器不能解决XOR问题 ⚫ 两层感知器可以解决XOR问题 异或问题的二层感知器

Perceptron Multi Layer Feed- forward Input Output layer layer Hidden Layer 2023/7/9 4

2023/7/9 4 Perceptron : Multi Layer Feed￾forward Input layer Output layer Hidden Layer •••• •••• •••• ••••

MLP的特性 。除了输入输出,MLP含有一层或多层隐单元,隐单元 从输入模式中提取更多有用的信息,使网络完成更复 杂的任务。 。MLP神经元的激励函数一般采用Sigmoid函数,即 1 a121 +exp(-n,) 式中n:是第i个神经元的输入信号,a:是该神经元 的输出信号。 2023/7/9 5

2023/7/9 5 MLP的特性 ⚫ 除了输入输出,MLP含有一层或多层隐单元,隐单元 从输入模式中提取更多有用的信息,使网络完成更复 杂的任务。 ⚫ MLP神经元的激励函数一般采用Sigmoid函数,即 1 1 exp( ) i i a n = + − 式中ni是第i个神经元的输入信号,ai是该神经元 的输出信号

·当隐层神经元足够多时,Sigmoid?结构原 则上可以以任意精度逼近的多元非线性函 数 MLP的适用范围大大超过单程网络 ·为了提高神经网络的分类能力,必须采用 MLP,但当要精确逼近复杂问题时,隐层 神经元和连接突触可能会达到“爆炸”量。 2023/7/9 6

2023/7/9 6 ⚫ 当隐层神经元足够多时,Sigmoid结构原 则上可以以任意精度逼近的多元非线性函 数 ⚫ MLP的适用范围大大超过单程网络 ⚫ 为了提高神经网络的分类能力,必须采用 MLP,但当要精确逼近复杂问题时,隐层 神经元和连接突触可能会达到“爆炸”量

Backpropagation Algorithm 它之所以是一种学习方法,就是因为用它可以对组成 前店 断修 改 Why a Backpropagation 成所 皇 learning method? 而网 络中 那 么这种学习算法就是要求得这些参数。 之所以将其称作为反向学习算法,是因为在修改各人工 神经元的连接权值时,所依据的是该网络的实际输出与期 望的输出之差。将这一差值反向一层一层的向回传播,来 决定连接权值的修改。 2023/7/9 7

2023/7/9 7 Backpropagation Algorithm ⚫ Late 1980’s - NN re-emerge with Rumelhart and McClelland (Rumelhart, D., McClelland, J., Parallel and Distributed Processing, MIT Press, Cambridge, 1986.) Why BP is a learning method? 它之所以是一种学习方法,就是因为用它可以对组成 前向多层网络的各人工神经元之间的连接权值进行不断修 改,从而使该前向多层网络能够将输入它的信息变换成所 期望的输出信息。如果将该多层网络看成一个变换,而网 络中各人工神经元之间的连接权值看成变换中的参数,那 么这种学习算法就是要求得这些参数。 Why a Backpropagation learning method? 之所以将其称作为反向学习算法,是因为在修改各人工 神经元的连接权值时,所依据的是该网络的实际输出与期 望的输出之差。将这一差值反向一层一层的向回传播,来 决定连接权值的修改

Learning Rule ●Measure error Reduce that error By appropriately adjusting each of the weights in the network 2023/7/9 8

2023/7/9 8 Learning Rule ⚫ Measure error ⚫ Reduce that error ⚫ By appropriately adjusting each of the weights in the network

BP Network Details 。Forward Pass: Error is calculated from outputs Used to update output weights ●Backward Pass: Error at hidden nodes is calculated by back propagating the error at the outputs through the new weights Hidden weights updated 2023/7/9

2023/7/9 9 BP Network Details ⚫ Forward Pass: ⚫ Error is calculated from outputs ⚫ Used to update output weights ⚫ Backward Pass: ⚫ Error at hidden nodes is calculated by back propagating the error at the outputs through the new weights ⚫ Hidden weights updated

BP Algorithm ·正向过程:=wa-》=∑w4 a)f(n)) 输出层所有神经元的误差能量总和sum squared error,SSE J-se-2∑4,-a,) 。权值修正:delta学习规侧则 △w,=-n0w) onL=-n on aJ =-n an;owj a(k-1) 2023/7/9 10

2023/7/9 10 BP Algorithm ⚫ 正向过程: ( ) ( ) ( 1) ( ) ( 1) k k k k k j j ij i i n w a − − = = w a  ( ) ( ) ( ) k k a f n j j = ⚫ 输出层所有神经元的误差能量总和 sum squared error, SSE 1 2 sse ( ) 2 j j j J t a = = −  ⚫ 权值修正: delta学习规则 j ( 1) k j j j j j J J J n n n    −      = − = − = −     w a w w

点击下载完整版文档(PPT)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
共16页,试读已结束,阅读完整版请下载
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有