正在加载图片...
如果在r种状态下循环变化,称其极限环为rs 7.2.3混沌现象 如果状态N(t)的轨迹在某个确定的范围内运动,但既不重复,又不能停下来,状态变化 为无穷多个,而轨迹也不能发散到无穷远,这种现象称为混沌( chaos)。在出现混沌的情况下, 系统输出变化为无穷多个,并且随时间推移不能趋向稳定,但又不发散。这种现象越来越引 起人们的重视,因为在脑电波的测试中已发现这种现象,而在真正的神经网络中存在这种现 象,也应在人工神经网络中加以考虑。 7.2.4状态轨迹发散 如果状态N(t)的轨迹随时间一直延伸到无穷远,此时状态发散,系统的输出也发散。在 人工神经网络中,由于输入、输出激活函数上一个有界函数,虽然状态N(t)是发散的,但其 输出A(t)还是稳定的,而A(t)的稳定反过来又限制了状态的发散。一般非线性人工神经 网络中发散现象是不会发生的,除非神经元的输入输出激活函数是线性的。 对于一个由r个神经元组成的反馈系统,它的行为就是由这些状态轨迹的情况来决定 的。目前的人工神经网络是利用第一种情况即稳定的专门轨迹来解决某些问题的。如果把系 统的稳定点视做一个记忆的话,那么从初始状态朝这个稳定点移动的过程就是寻找该记忆的 过程。状态的初始值可以认为是给定的有关该记忆的部分信息,状态N(t)移动的过程,是从 部分信息去寻找全部信息,这就是联想记忆的过程。如果把系统的稳定点考虑为一个能量函 数的极小点,在状态空间中,从初始状态N(to)=N(to+t,最后到达N。若N为稳定点,则 可以看作是N把N(t0)吸引了过去,在N(t)时能量比较大,而吸引到N"时能量已为极小了。 根据这个道理,可以把这个能量的极小点作为一个优化目标函数的极小点,把状态变化的过 程看成是优化某一个目标函数的过程。因此反馈网络的状态移动的过程实际上是一种计算联 想记忆或优化的过程。它的解并不需要真的去计算,只需要去形成一类反馈神经网络,适当 地讨论其权重值w,使其初始输入A(to)向稳定吸引子状态的移动就可以达到这个目的 霍普菲尔德网络是利用稳定吸引子来对信息进行储存的,利用从初始状态到稳定吸引子 的运行过程来实现对信息的联想存取的。通过对神经元之间的权和阈值的设计,要求单层的 反馈网络达到下列目标 (1)网络系统能够达到稳定收敛5 如果在 r 种状态下循环变化,称其极限环为 r。 7.2.3 混沌现象 如果状态 N(t)的轨迹在某个确定的范围内运动,但既不重复,又不能停下来,状态变化 为无穷多个,而轨迹也不能发散到无穷远,这种现象称为混沌(chaos)。在出现混沌的情况下, 系统输出变化为无穷多个,并且随时间推移不能趋向稳定,但又不发散。这种现象越来越引 起人们的重视,因为在脑电波的测试中已发现这种现象,而在真正的神经网络中存在这种现 象,也应在人工神经网络中加以考虑。 7.2.4 状态轨迹发散 如果状态 N(t)的轨迹随时间一直延伸到无穷远,此时状态发散,系统的输出也发散。在 人工神经网络中,由于输入、输出激活函数上一个有界函数,虽然状态 N(t)是发散的,但其 输出 A(t)还是稳定的,而 A(t)的稳定反过来又限制了状态的发散。一般非线性人工神经 网络中发散现象是不会发生的,除非神经元的输入输出激活函数是线性的。 对于一个由 r 个神经元组成的反馈系统,它的行为就是由这些状态轨迹的情况来决定 的。目前的人工神经网络是利用第一种情况即稳定的专门轨迹来解决某些问题的。如果把系 统的稳定点视做一个记忆的话,那么从初始状态朝这个稳定点移动的过程就是寻找该记忆的 过程。状态的初始值可以认为是给定的有关该记忆的部分信息,状态 N(t)移动的过程,是从 部分信息去寻找全部信息,这就是联想记忆的过程。如果把系统的稳定点考虑为一个能量函 数的极小点,在状态空间中,从初始状态 N(t0)=N(t0+t),最后到达 N*。若 N*为稳定点,则 可以看作是 N*把 N(t0)吸引了过去,在 N(t0)时能量比较大,而吸引到 N*时能量已为极小了。 根据这个道理,可以把这个能量的极小点作为一个优化目标函数的极小点,把状态变化的过 程看成是优化某一个目标函数的过程。因此反馈网络的状态移动的过程实际上是一种计算联 想记忆或优化的过程。它的解并不需要真的去计算,只需要去形成一类反馈神经网络,适当 地讨论其权重值 wij,使其初始输入 A(t0)向稳定吸引子状态的移动就可以达到这个目的。 霍普菲尔德网络是利用稳定吸引子来对信息进行储存的,利用从初始状态到稳定吸引子 的运行过程来实现对信息的联想存取的。通过对神经元之间的权和阈值的设计,要求单层的 反馈网络达到下列目标: (1)网络系统能够达到稳定收敛
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有