当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

西安交通大学:《智能控制理论与方法》课程教学资源(PPT课件讲稿)模糊神经网络

资源类别:文库,文档格式:PPT,文档页数:43,文件大小:1.41MB,团购合买
相同之处 ( 1) 都是非数值型的非线性函数的逼近器、估计器、和动态系统; (2) 不需要数学模型进行描述,但都可用 数学工具进行处理; (3)都适合于VLSI、光电器件等硬件实现。
点击下载完整版文档(PPT)

模糊神经网络 ANN Artificial Neural Network )FA FLS( Fuzzy Logical Network)的比较: 相同之处1)都是非数值型的非线性函数的逼近器、 估计器、和动态系统; 2)不需要数学模型进行描述,但都可用 数学工具进行处理; 3)都适合于VLSI、光电器件等硬件实现。 不同之处:()工作机制方面 ANN—大量、高度连接,按样板进行学习 FLS—按语言变量、通过隐含、推理和去 模糊获得结果

模糊神经网络 ANN(Artificial Neural Network)和 FLS(Fuzzy Logical Network)的比较: 相同之处 1) 都是非数值型的非线性函数的逼近器、 估计器、和动态系统; 2) 不需要数学模型进行描述,但都可用 数学工具进行处理; 3)都适合于VLSI、光电器件等硬件实现。 不同之处:㈠ 工作机制方面: ANN——大量、高度连接,按样板进行学习 FLS—— 按语言变量、通过隐含、推理和去 模糊获得结果

(信息处理基本单元方面: ANN数值点样本,Xy FLN模糊集合(A;,B;) 闫运行模式方面 ANN学习过程透明,不对结构知识编码 FLN不透明,对结构知识进行编码,推理过程外界 四应用上勺幻 ANN偏重于模式识别,分类 N——偏重于控制 神经模糊网络把ANN的学习机制和FN的人类思维 和推理结合起来

㈣ 应用上: ANN——偏重于模式识别,分类 FLN —— 偏重于控制 神经模糊网络——把ANN的学习机制和FLN的人类思维 和推理结合起来。 ㈡ 信息处理基本单元方面: ANN——数值点样本,xi yi FLN——模糊集合(Ai,Bi) ㈢ 运行模式方面: ANN——学习过程透明,不对结构知识编码 FLN——不透明,对结构知识进行编码,推理过程外界 可知

结合方式有3种: 1)神经模糊系统用神经元网络来实现模糊隶属函数、 模糊推理,基本上(本质上)还是FLN 2)模糊神经系统—神经网络模糊化,本质上还是ANN 3)模糊-神经混合系统—二者有机结合。 ●基于神经网络的模糊逻辑运算 ①用神经网络实现隶属函数 ②神经网络驱动模糊推理 ③神经网络的模糊建模 ●用神经网络实现隶属函数 y1=/(x)= (1+exp[-wg(x+wc)l

结合方式有3种: 1)神经模糊系统——用神经元网络来实现模糊隶属函数、 模糊推理,基本上(本质上)还是FLN。 2)模糊神经系统——神经网络模糊化,本质上还是ANN。 3)模糊-神经混合系统——二者有机结合。 ●基于神经网络的模糊逻辑运算 ①用神经网络实现隶属函数 ②神经网络驱动模糊推理 ③神经网络的模糊建模 ●用神经网络实现隶属函数 {1 exp[ ( )]} 1 ( ) 1 g c s w x w y x + − + =  =

a uMX a a是非线性函数,生成 sigmoid函数 w。和w2分别确定 Sigmoid函数的中心和宽度us(x),Mx)(x) 组成大、中、小三个论域的隶属函数 逻辑“与”可以用 Softmin来实现: be kb (a入b)= softmin(a,b) ae ka k kb 当k→∞时, Softmin(a,b)->Min(a,b)

wc 和 wg 分别确定Sigmoid函数的中心和宽度,S (x),M(x),L (x) 组成大、中、小三个论域的隶属函数。 逻辑“与”可以用Softmin 来实现: ka kb ka kb e e a e b e a b a b − − − − + + (  ) = softmin( , ) = 当k → 时,Softmin(a, b) → Min(a, b) a是非线性函数,生成sigmoid函数

神经网络驱动模糊推理(NDF) R:∥X是4和Y是B1,7henz是f(x,y) 解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数; ②缺乏学习功能校正推理规则。 用神经网络实现I-S模型,称为神经网络驱动模糊推理(NDF 网络由二部分组成 R: ff X=(x,x2 n)EAs, Then ys= Ns(x1,x2,,xn) r汋规则数,A是前提的模糊集合NN是模型的函数结构 由BP网络实现 训练数据 1 R 2 R 校验数据 men

●神经网络驱动模糊推理(NDF) R : If X A Y B ,Then z f x, y) i i i i 是 和 是 是 ( s r R If X x x x A Then y NN x x x n s s s n s 1,2,..., : ( , ,..., ) , ( , ,..., ) 1 2 1 2 = = 是 = 解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数; ②缺乏学习功能校正推理规则。 用神经网络实现T—S模型,称为神经网络驱动模糊推理(NDF). 网络由二部分组成: r为规则数, As是前提的模糊集合.NNs是模型的函数结构, 由BP网络实现

学习的网络和训练的步驟 1)选择输入-输出变量和训练数据 y为输出变量; 输入输出数据分成训练数据(RD) x=1,2,…,m是输入变量 估计 和校验数据(CHD 结论部分 (x;) °(x1) 前提部分8 输入变量X1

学习的网络和训练的步骤 8

2)将数据聚类分成类即有r条规则TRD的数据有N1个 3)训练规则的前提部分网络NNmn。 ①对每个TRD输入向量x,定义一个向量: (m2,m12,mn)使m}=1,m4=0,≠k ②对数据对(x;m1),=12…,N1进行训练, ③推断校验数据(CHD)x;对R的隶属度m6 1.2.N F 4)训练对应于规则R的后件部分(Then部分)MN NN输入(TDR):xi,x2,…,x NN输出(TDR):yi 训练以后,将校验数据(CH)x-2,…,m1=12,…,N 送到NNs,计算误差:

2) 将数据聚类.分成r 类.即有r 条规则.TRD的数据有N t 个. 3) 训练规则的前提部分网络NNm.。 4)训练对应于规则R s的后件部分(Then部分)NN s 6 6

E=2 ViAs(i/ a(r,)32 或 i=1 ∑AA(x)y-(x)HA4()2(加权)□6 5)简化后件部分 在N的输入端,任意消去ⅹ,比较误差 N Em=∑{y;-4,(x;)4A.(x;)} 消去前误差 i=1 Em1=∑{y1-2(x1)A(x1)}2消去后误差 如果Em>Em-1,则xp可以消去,否则另选变量 6)最终输出 A.(x;)(x;) S=1

(加权) 或 ( ){ ( ) ( )} { ( ) ( )} 2 1 2 1 s i A i N i A i i s m s i A i N i i s m E x y x x E y x x s c s s c      = − = −   = = 5)简化后件部分 在NN S的输入端,任意消去x p ,比较误差: 6)最终输出 6

●神经网络的模糊建模 有三种模型: (1)后件为恒值: R:fx1是41和x2是A,2, Then y=f1(i=1,2,,n) y=∑∑始=∑A12=12,3 A(x)=(x)24(x) (2)后件为一阶线性方程 R:Jx是41和x2是4,2, Then y=f(x1,x2) i=1.2 =∑112)/∑=∑A1(1n f(x1,x2)=410+a1+a12x2=02)是常数

●神经网络的模糊建模 有三种模型: ⑴ 后件为恒值: i n i i n i i i n i i i i i i f f R If x A x A Then y f i n    = = = = = = = 1 1 1 * 1 1 2 2 y / ˆ : , ( 1,2,..., ) 1 2    是 和 是 i 1 ,i 2 =1,2,3 ⑵ 后件为一阶线性方程 ( , ) (j 0,1,2) ( , ) ˆ ( , ) 1,2,..., : , ( , ) 1 2 0 1 1 2 2 1 2 1 1 1 2 1 * 1 1 1 2 2 2 1 2 是常数 是 和 是 = + + = = = = =    = = = i i i i ij n i i i n i i n i i i i i i i f x x a a x a x a y f x x f x x i n R If x A x A Then y f x x     = = n i i i i i i i x x x 1 ˆ ( )  ( )/  ( )

0 前提 结论

点击下载完整版文档(PPT)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
共43页,可试读15页,点击继续阅读 ↓↓
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有