当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

《智能控制理论与方法》教学资源(PPT讲义课件)模糊神经网络

资源类别:文库,文档格式:PPT,文档页数:43,文件大小:1.41MB,团购合买
( 1) 都是非数值型的非线性函数的逼近器、估计器、和动态系统; (2) 不需要数学模型进行描述,但都可用数学工具进行处理; (3)都适合于VLSI、光电器件等硬件实现。
点击下载完整版文档(PPT)

模糊神经网络 ANN( Artificial Neural Network )A FLS( Fuzzy Logical Network)的比较: 相同之处1)都是非数值型的非线性函数的逼近器 估计器、和动态系统; 2)不需要数学模型进行描述,但都可用 数学工具进行处理; 3)都适合于ⅥLSI、光电器件等硬件实现。 不同之处:()工作机制方面: ANN—大量、高度连接,按样板进行学习 FLS—按语言变量、通过隐含、推理和去 模糊获得结果

模糊神经网络 ANN(Artificial Neural Network)和 FLS(Fuzzy Logical Network)的比较: 相同之处 1) 都是非数值型的非线性函数的逼近器、 估计器、和动态系统; 2) 不需要数学模型进行描述,但都可用 数学工具进行处理; 3)都适合于VLSI、光电器件等硬件实现。 不同之处:㈠ 工作机制方面: ANN——大量、高度连接,按样板进行学习 FLS—— 按语言变量、通过隐含、推理和去 模糊获得结果

(信息处理基本单元方面 ANN数值点样本,Xyi FLN模糊集合(A;,B;) 目运行模式方面 ANN学习过程透明,不对结构知识编码 FLN不透明,对结构知识进行编码,推理过程外界 四应用上 ANN偏重于模式识别,分类 FLN—偏重于控制 神经模糊网络—把ANN的学习机制和FN的人类思维 和推理结合起来

㈣ 应用上: ANN——偏重于模式识别,分类 FLN —— 偏重于控制 神经模糊网络——把ANN的学习机制和FLN的人类思维 和推理结合起来。 ㈡ 信息处理基本单元方面: ANN——数值点样本,xi yi FLN——模糊集合(Ai,Bi) ㈢ 运行模式方面: ANN——学习过程透明,不对结构知识编码 FLN——不透明,对结构知识进行编码,推理过程外界 可知

结合方式有3种: 1)神经模糊系统—用神经元网络来实现模糊隶属函数、 模糊推理,基本上(本质上)还是FLN。 2)模糊神经系统—神经网络模糊化,本质上还是ANN。 3)模糊神经混台系统—二者有机结合。 ●基于神经网络的模糊逻辑运算 ①用神经网络实现隶属函数 ②神经网络驱动模糊推理 ③神经网络的模糊建模 ●用神经网络实现隶属函数 y=3(x)= 1+ep[-g(x+c)}

结合方式有3种: 1)神经模糊系统——用神经元网络来实现模糊隶属函数、 模糊推理,基本上(本质上)还是FLN。 2)模糊神经系统——神经网络模糊化,本质上还是ANN。 3)模糊-神经混合系统——二者有机结合。 ●基于神经网络的模糊逻辑运算 ①用神经网络实现隶属函数 ②神经网络驱动模糊推理 ③神经网络的模糊建模 ●用神经网络实现隶属函数 {1 exp[ ( )]} 1 ( ) 1 g c s w x w y x + − + =  =

④a X MMx) a是非线性函数,生成 Sigmoid函数 w和w2分别确定 Sigmoid函数的中心和宽度μs(x)Mx)1(x) 组成大、中、小三个论域的隶属函数 逻辑“与”可以用 Softmin来实现: ae-ka t be-kb (a入b)= softmin(a,b) ka kb 当k→>∞时, Softing(a,b)→>Min(a,b)

wc 和 wg 分别确定Sigmoid函数的中心和宽度,S (x),M(x),L (x) 组成大、中、小三个论域的隶属函数。 逻辑“与”可以用Softmin 来实现: ka kb ka kb e e a e b e a b a b − − − − + + (  ) = softmin( , ) = 当k → 时,Softmin(a, b) → Min(a, b) a是非线性函数,生成sigmoid函数

●神经网络驱动模糊推理(NDF R:是4和Y是B1, Then z是/(x,y) 解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数 ②缺乏学习功能校正推理规则。 用神经网络实现T_S模型,称为神经网络驱动模糊推理(NDF) 网络由二部分组成 R3:X=(x1,x2yxn)是A Then ys MN(x1,x2…,xn) S r为规则数A是前提的模糊集合M是模型的函数结构, 由BP网络实现 训练数据 RRR 123 校验数据 NN men

●神经网络驱动模糊推理(NDF) R : If X A Y B ,Then z f x, y) i i i i 是 和 是 是 ( s r R If X x x x A Then y NN x x x n s s s n s 1,2,..., : ( , ,..., ) , ( , ,..., ) 1 2 1 2 = = 是 = 解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数; ②缺乏学习功能校正推理规则。 用神经网络实现T—S模型,称为神经网络驱动模糊推理(NDF). 网络由二部分组成: r为规则数, As是前提的模糊集合.NNs是模型的函数结构, 由BP网络实现

学习的网络和训练的步骤 1)选择输入-输出变量和训练数据 y为输出变量; 1,2,…,m是输入变量: 输入-输出数据分成训练数据(TRD) 估计 和校验数据(CHD) y 2 )结论部分 n x x m 2 NN r 前提部分88 输入变量x1 2

学习的网络和训练的步骤 8

2)将数据聚类分成r类即有r条规则TRD的数据有N2个 3)训练规则的前提部分网络NNn ①对每个TRD输入向量x1定义一个向量: ,1)使m}=1,m=0,S≠k ②对数据对(x;,m1),=1,2,N进行训练, ③推断校验数据(CHD)x;对RS的隶属度m; 阳HA(x;)=m;,i=1,2灬…,Na,S=1,2…,r 4)训陈练对应于规则R的后件部分(Then部分)NN M输入(DR端,x…,1=12N NN输出(TDR:y 训练以后,将校验数据(CHD)x,x2,…m1=12,…N 送到MN计算误差:

2) 将数据聚类.分成r 类.即有r 条规则.TRD的数据有N t 个. 3) 训练规则的前提部分网络NNm.。 4)训练对应于规则R s的后件部分(Then部分)NN s 6 6

∑1-4(x)A1(x)2或 =(-()4C)y2(加权)6 5)简化后件部分 在M的输入端,任意消去xp,比较误差 N Em=∑{y;-42(x;)A(x1)}2 消去前误差 i=1 N Em1=∑{1-42(x1)A.(x1)2消去后误差 如果Em>Em-1,则x可以消去,否则另选变量 6)最终输出 Y=)A、(x1;)(x;)A.(x;) S S=1

(加权) 或 ( ){ ( ) ( )} { ( ) ( )} 2 1 2 1 s i A i N i A i i s m s i A i N i i s m E x y x x E y x x s c s s c      = − = −   = = 5)简化后件部分 在NN S的输入端,任意消去x p ,比较误差: 6)最终输出 6

神经网络的模糊建模 有三种模型 (1)后件为恒值: R:矿x是A1和x2是412, Then y=f1(=1,2,,m) y=∑H∑=∑,12=12,3 1(x)=1(x1)A(x) (2)后件为一阶线性方程 R:x是41和x2是A2, Then y=f(x1,x2) ∑A1(x12)∑=∑A f(x1,x2)=a0+a1+a12xa=0,2)是常数

●神经网络的模糊建模 有三种模型: ⑴ 后件为恒值: i n i i n i i i n i i i i i i f f R If x A x A Then y f i n    = = = = = = = 1 1 1 * 1 1 2 2 y / ˆ : , ( 1,2,..., ) 1 2    是 和 是 i 1 ,i 2 =1,2,3 ⑵ 后件为一阶线性方程 ( , ) (j 0,1,2) ( , ) ˆ ( , ) 1,2,..., : , ( , ) 1 2 0 1 1 2 2 1 2 1 1 1 2 1 * 1 1 1 2 2 2 1 2 是常数 是 和 是 = + + = = = = =    = = = i i i i ij n i i i n i i n i i i i i i i f x x a a x a x a y f x x f x x i n R If x A x A Then y f x x     = = n i i i i i i i x x x 1 ˆ ( )  ( )/  ( )

D③O1 ABC E F 前提 结论

点击下载完整版文档(PPT)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
共43页,可试读15页,点击继续阅读 ↓↓
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有