正在加载图片...
第1期 苏海滨等:基于模糊神经网络的地图匹配算法 ·45 D和△0',这一层上每一个节点输入和输出表示 种控制规则,具有两个语言输入变量形成25个规则 如下: 库,每一个规则节点有两个固定的来自于术语节点 net=,Y=f (net)=net:,i=1,2.(3) 输入,第k个节点输入/输出表示为 式中,X=D、X=△0表示第i个节点的输入,1为 net=ΠXw,y2=f元(net)=neti,k=l,2,…,l. 层数. (7) 2.1.2第2层:隶属函数层 式中,X为第j个输入,0为输入权值取1. 在这一层里,每一节点都是术语节点,用以表示 2.1.4第4层:输出层 输入/输出模糊语言变量,隶属函数用高斯函数表 图3中虚线包围部分是第4层输入,链的权值 示,对于第j个节点输入输出表示如下: 代表第k个规则控制作用,第4层节点输出就是解 net=-(X-cg)2/2(og)2, j=1,2,…,n. 模糊,只有一个节点,用符号∑进行标记,表示对 =f (net)=exp(net), 所有输入信号进行求和,以获得最终推理结果 (4) netd=∑wiXt,。=f(netd)=netd,o=l.(8) 式中,c,和σ,分别表示高斯函数平均值和标准方 式中,w。为第k个规则作用强度,X为第k个输入, 差,也就是隶属函数的中心和宽度.输入到隶属函 :为路段估计值(匹配度) 数层的权重设定为1,输入输出变量模糊集为“很 好”(表示D和△θ很小)、“好《表示D和△9小)、 2.2地图匹配学习规则 “中等”(表示D和△0中等、“差《表示D和△0 采用梯度下降法作为模糊神经网络的学习算 大)和“很差”(表示D和△0很大).在第2层和第 法,能量函数E定义如下: E,=y:-Y(X)]2/2=e/2 (9) 3层上分别布置了10个节点,分别表示输入/输出 式中,Y(X)为候选路段实际匹配度,Y,为期望的 语言变量 模糊神经网络输出匹配度,©,为实际值与估计值之 对于第2层高斯隶属函数中参数c,和σ:采用 “均值聚类算法”确定,这是一种性能良好的无监 间的差值.基于反向传播学习算法描述如下 督学习算法.算法原理步骤如下: 在第4层上,反向传播误差由下式表示: 8=-aE,/anet。=eyr (10) 步骤1选择k个初始化聚类中心点cj=1, 权值增量由下式给出: 2,…,k: (11) 步骤2将所有的数据集合按最近聚类中心分 Awi =-n aE /awi =nosxi. 组,如果‖x-C‖偏差最小,则将x:分配给N,N 其中,)是模糊神经网络连接权重的学习速率参数 输出层连接权重用下述公式进行更新: 表示聚集在聚类中心℃:周围的训练数据集合: (12) 步骤3重新计算聚类中心 wn(N+1)=en(N)+△wo. 式(12)学习规则与输出的误差e,有关,因此为 (5) 了使用式(12),需要一个参考模型或一个真实输出 式中M为N中元素个数; 值用于计算误差e,然而地图匹配算法中即没有参 步骤4重复步骤2和步骤3直到聚类中心C 考模型也没有真实值,式(12)不能使用,为了满足 不再变化为止 地图匹配算法需要,推出另一学习算法,该学习算法 聚类算法完成后,可以直接确定参数σ,它表 不需要输出精确误差,学习目的是找到车辆最有可 示和每个中心相联系的数据分布的一种测度,可以 能的行驶路段,使用下列评判标准:(1)真实路段 用很多方法确定,本文中取聚类中心和训练数据之 是所有候选路段中最大者:(2)真实路段。要大于 间距离之和的平均值: 真实路段的阈值T。·学习过程连续进行直到上述 (1)和(2)满足.要直接得到T.也是很困难的,但 =7∑x-c)'(-c). (6) 通过计算机仿真就很容易得到,通过不断评估仿真 隶属函数参数确定后,输出层学习可用简单学 中不同阈值,就会得到一个合适的阈值 习算法来完成 2.3改进的地图匹配学习规则 2.1.3第3层:规则层 导航系统中实际地图匹配不需要精确期望值, 这一层上每个节点对输入信号逻辑相乘,乘积 只需要一个可信的范围值,因此期望值定义如下: 作为输出结果,因此每个节点都是规则节点代表一 Y.=Tm+y×rand(1) (13)第 1 期 苏海滨等: 基于模糊神经网络的地图匹配算法 D 和 Δθ',这一层上每一个节点输入和输出表示 如下: net 1 i = X1 i ,Y1 i = f 1 i ( net 1 i ) = net 1 i ,i = 1,2. ( 3) 式中,X1 1 = D、X1 2 = Δθ'表示第 i 个节点的输入,1 为 层数. 2. 1. 2 第 2 层: 隶属函数层 在这一层里,每一节点都是术语节点,用以表示 输入/输出模糊语言变量,隶属函数用高斯函数表 示,对于第 j 个节点输入输出表示如下: net 2 j = - ( X2 i - cij ) 2 /2( σij ) 2 , y 2 j = f 2 j ( net 2 j ) = exp( net 2 j { ) , j = 1,2,…,n. ( 4) 式中,cij 和 σij 分别表示高斯函数平均值和标准方 差,也就是隶属函数的中心和宽度. 输入到隶属函 数层的权重设定为 1,输入输出变量模糊集为“很 好”( 表示 D 和 Δθ'很小) 、“好“( 表示 D 和 Δθ'小) 、 “中等”( 表示 D 和 Δθ'中等) 、“差“( 表示 D 和 Δθ' 大) 和“很差”( 表示 D 和 Δθ'很大) . 在第 2 层和第 3 层上分别布置了 10 个节点,分别表示输入/输出 语言变量. 对于第 2 层高斯隶属函数中参数 cij和 σij采用 “k-均值聚类算法”确定,这是一种性能良好的无监 督学习算法. 算法原理步骤如下: 步骤 1 选择 k 个初始化聚类中心点 cj ,j = 1, 2,…,k; 步骤 2 将所有的数据集合按最近聚类中心分 组,如果‖xj - cj‖偏差最小,则将 xi 分配给 Nj ,Nj 表示聚集在聚类中心 cj 周围的训练数据集合; 步骤 3 重新计算聚类中心 cj = 1 Mj ∑ Mj i = 1 xi, ( 5) 式中 Mj 为 Nj 中元素个数; 步骤 4 重复步骤 2 和步骤 3 直到聚类中心 cj 不再变化为止. 聚类算法完成后,可以直接确定参数 σ2 j ,它表 示和每个中心相联系的数据分布的一种测度,可以 用很多方法确定,本文中取聚类中心和训练数据之 间距离之和的平均值: σ2 j = 1 Mj ∑ ( x - cj ) T ( x - cj ) . ( 6) 隶属函数参数确定后,输出层学习可用简单学 习算法来完成. 2. 1. 3 第 3 层: 规则层 这一层上每个节点对输入信号逻辑相乘,乘积 作为输出结果,因此每个节点都是规则节点代表一 种控制规则,具有两个语言输入变量形成 25 个规则 库,每一个规则节点有两个固定的来自于术语节点 输入,第 k 个节点输入/输出表示为 net 3 k = Πj Xj w3 jk,Y3 k = f 3 k ( net 3 k ) = net 3 k,k = 1,2,…,l. ( 7) 式中,Xj 为第 j 个输入,wjk为输入权值取 1. 2. 1. 4 第 4 层: 输出层 图 3 中虚线包围部分是第 4 层输入,链的权值 代表第 k 个规则控制作用,第 4 层节点输出就是解 模糊,只有一个节点,用符号 ∑ 进行标记,表示对 所有输入信号进行求和,以获得最终推理结果. net 4 o = ∑ w4 koX4 k,Y4 o = f 4 o ( net 4 o ) = net 4 o,o = 1. ( 8) 式中,w4 ko为第 k 个规则作用强度,X4 ko为第 k 个输入, Y4 o 为路段估计值( 匹配度) . 2. 2 地图匹配学习规则 采用梯度下降法作为模糊神经网络的学习算 法,能量函数 E 定义如下: EJ =[Yi - Y( Xi ) ]2 /2 = e 2 J /2. ( 9) 式中,Y( Xi ) 为候选路段实际匹配度,Yi 为期望的 模糊神经网络输出匹配度,eJ 为实际值与估计值之 间的差值. 基于反向传播学习算法描述如下. 在第 4 层上,反向传播误差由下式表示: δ 4 o = - EJ / net 4 o = eJ . ( 10) 权值增量由下式给出: Δw4 ko = - η EJ / w4 ko = ηδ4 o x 4 k . ( 11) 其中,η 是模糊神经网络连接权重的学习速率参数. 输出层连接权重用下述公式进行更新: w4 ko ( N + 1) = w4 ko ( N) + Δw4 ko . ( 12) 式( 12) 学习规则与输出的误差 eJ 有关,因此为 了使用式( 12) ,需要一个参考模型或一个真实输出 值用于计算误差 eJ,然而地图匹配算法中即没有参 考模型也没有真实值,式( 12) 不能使用,为了满足 地图匹配算法需要,推出另一学习算法,该学习算法 不需要输出精确误差,学习目的是找到车辆最有可 能的行驶路段,使用下列评判标准: ( 1) 真实路段 Y4 o 是所有候选路段中最大者; ( 2) 真实路段 Y4 o 要大于 真实路段的阈值 Tm. 学习过程连续进行直到上述 ( 1) 和( 2) 满足. 要直接得到 Tm 也是很困难的,但 通过计算机仿真就很容易得到,通过不断评估仿真 中不同阈值,就会得到一个合适的阈值. 2. 3 改进的地图匹配学习规则 导航系统中实际地图匹配不需要精确期望值, 只需要一个可信的范围值,因此期望值定义如下: Yo = Tm + γ × rand( 1) . ( 13) ·45·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有