正在加载图片...
时,g取值1对应于神经元处于激发状态,取值0就表示处于抑制状态.在g为S形函数 时,对应神经单元取连续的状态值,这种假定有利于在一些近似运算中求导数.此外即使在 神经元只取抑制和激发两种状态时,也可以设置抑制和激发以外的一些缓冲状态 前传神经网络是一种最简单的非线性处理器,即一种分片线性处理器,其输入是输出的 分片线性函数也就是由样品确定参数的分片线性近似器(把它与用样条函数( Spline)近似 作比较,前传神经网络除了有输出对输入并不可微的缺点外,操作与运行都远为简单) 2.前传人工神经网络的建模与应用 神经网络主要用在建模,模式识别,图像处理,基因表达等领域.多层前传网络的使用 可以分为两个相位:训练学习相位与运转相位(操作相位) 学习相位就是通过对样品的加工计算,得到权重常数w2),g2和门限0,0,等参 数的估计值,使得在这组参数估计值下,该神经网络能相对最好地执行我们冀望它完成的任 务 神经网络的学习方法分为有监督的学习与无监督的学习.多层前传网络大多采用有监 督的学习.其中最广为应用的是误差后传法.有监督的学习是指我们可以得到一组给定输出 的输入样品.在学习时可利用已知的输出参照比较.学习的目的就是找出最佳未知参数,使 得当将样品的输入部分输进这组参数下的网络时,能使输出最接近样品相应的输出.其要点 就是根据已知的典型输入和输出,来估计连接系数2),v3),而其实质是灵活地运用最 小二乘法 误差后传法的主要步骤是 (1).设定参数的初始值 2).逐个或按随机顺序将样品的输入,输进初始参数所对应的网络,得到输出,并 将其与该样品应有的已知输出进行比较 3).校正最后一层(设为第n层)的网络参数,得到使得输出最接近于应有输出的 最后一层参数,并解出使得误差最小的第n-1层输出 (4).将第n-1层当作第n层,重复(3),校正第n-1层的参数,并求出第n-2层 输出,使得第n-1层的输出误差最小 (5).重复(4),向前面各层推进,直到求出所有各层的参数 (6).重复步骤(2)至(5),直到看起来稳定 这个算法是在未知状态(各个神经元的状态)的情况下估计参数,这也是缺失数据的 种参数估计.在估计参数的优化过程中,由于目标函数是非线性的,且变量数又十分大,计 算往往会陷于局部极值,因此,也可考虑应用模拟退火等整体优化方法. 另一个相位是运转相位.它是在学习相位的基础上(就是在确定参数以后),神经网络中 各结点(即神经元)的状态按规定的方式运行(即进行运算),以执行希望达到的任务,如预测 识别,分类等目的 前传网络在计算机科学,人工智能等领域中有广泛的应用,它是一种比较好的另类回归 模型 般的决定性的人工神经网络模型(神经元未必只取1或0) 在一般的情形,神经网络对神经元x的总相互作用可以表示为 h(x)=8(> w(x,y)n(y)-e(r) (15.13) 其中w(x,y)是神经元y对神经元x的相互作用势,h(y)是神经元y所处的状态,而426 时, g 取值 1 对应于神经元处于激发状态, 取值 0 就表示处于抑制状态. 在g 为 S 形函数 时, 对应神经单元取连续的状态值, 这种假定有利于在一些近似运算中求导数. 此外即使在 神经元只取抑制和激发两种状态时, 也可以设置抑制和激发以外的一些缓冲状态. 前传神经网络是一种最简单的非线性处理器,即一种分片线性处理器, 其输入是输出的 分片线性函数. 也就是由样品确定参数的分片线性近似器 (把它与用样条函数(Spline)近似 作比较, 前传神经网络除了有输出对输入并不可微的缺点外, 操作与运行都远为简单). 2. 前传人工神经网络的建模与应用 神经网络主要用在建模, 模式识别, 图像处理, 基因表达等领域. 多层前传网络的使用 可以分为两个相位: 训练学习相位与运转相位(操作相位). 学习相位就是通过对样品的加工计算,得到权重常数 (1,2 ) (2,3) , wik wkj 和 门限 , ' qk q j 等参 数的估计值, 使得在这组参数估计值下, 该神经网络能相对最好地执行我们冀望它完成的任 务. 神经网络的学习方法分为有监督的学习与无监督的学习. 多层前传网络大多采用有监 督的学习. 其中最广为应用的是误差后传法. 有监督的学习是指我们可以得到一组给定输出 的输入样品. 在学习时可利用已知的输出参照比较. 学习的目的就是找出最佳未知参数, 使 得当将样品的输入部分输进这组参数下的网络时, 能使输出最接近样品相应的输出. 其要点 就是根据已知的典型输入和输出, 来估计连接系数 (1,2 ) (2,3) , wik wkl , 而其实质是灵活地运用最 小二乘法. 误差后传法的主要步骤是: (1). 设定参数的初始值; (2). 逐个或按随机顺序将样品的输入, 输进初始参数所对应的网络, 得到输出, 并 将其与该样品应有的已知输出进行比较; (3). 校正最后一层(设为第 n 层)的网络参数, 得到使得输出最接近于应有输出的 最后一层参数, 并解出使得误差最小的第n -1层输出; (4). 将第n -1层当作第n 层, 重复(3), 校正第 n-1 层的参数, 并求出第n - 2层 输 出, 使得第n -1层的输出误差最小; (5). 重复(4), 向前面各层推进,直到求出所有各层的参数; (6). 重复步骤(2)至(5), 直到看起来稳定. 这个算法是在未知状态(各个神经元的状态)的情况下估计参数, 这也是缺失数据的一 种参数估计. 在估计参数的优化过程中, 由于目标函数是非线性的, 且变量数又十分大, 计 算往往会陷于局部极值, 因此, 也可考虑应用模拟退火等整体优化方法. 另一个相位是运转相位. 它是在学习相位的基础上(就是在确定参数以后), 神经网络中 各结点(即神经元)的状态按规定的方式运行(即进行运算), 以执行希望达到的任务, 如预测, 识别, 分类等目的. 前传网络在计算机科学,人工智能等领域中有广泛的应用,它是一种比较好的另类回归 模型. 3.2.2 一般的决定性的人工神经网络模型(神经元未必只取 1 或 0) 在一般的情形, 神经网络对神经元 x 的总相互作用可以表示为 ( ) = (å ( , ) ( ) - ( )) y h x g w x y h y q x , (15. 13) 其中 w( x, y) 是神经元 y 对神经元 x 的相互作用势, h( y) 是神经元 y 所处的状态, 而
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有