D0I:10.13374/i.issnl00113.2007.0L.022 第29卷第1期 北京科技大学学报 Vol.29 No.1 2007年1月 Journal of University of Science and Technology Beijing Jan.2007 一种用于模拟汉字认知过程的多层自组织神经网络 杜大鹏穆志纯陈静方新 北京科技大学信息工程学院,北京100083 摘要为了模拟汉语初学者的汉字认知过程,在Kohonen神经网络的基础上,改进了其网络结构和算法,并且将改进后的 网络输出层根据Hebbian学习规则连接,构建了一个多Kohonen网络协同工作的汉字认知自组织神经网络模型.模拟研究结 果表明,模型能够成功地学习到汉字的结构类型,且能有效识别出汉字的部件,在一定程度上模拟了汉字认知的部分过程,说 明该模型用于汉字认知乃至汉语言习得的可行性 关键词自组织神经网络;多层:汉字学习:汉字结构类型:汉字部件 分类号TP391.12 依据大脑对信号处理的特点,芬兰学者Koho- 学习的网络(图1),由输入层和输出层组成,其中输 nen于l982年提出了著名的自组织特征映射网络 入层又称为匹配层,计算输入模式向量与权值向量 一SOFM山,该网络利用其自组织特性来实现聚 之间的距离,即匹配程度;输出层又称为竞争层,层 类、识别、排序以及拓扑不变性映射等功能.语言研 上各神经元以匹配程度为依据进行竞争,确定获胜 究则是自组织网络的一个重要应用,在一定程度上 神经元,同时获胜神经元及其邻域内神经元的权值 能够模拟人类的学习过程,最早采用自组织网络研 向量向模式矢量方向更新.竞争和学习的过程不断 究语言的是Ritter和Kohonen关于野生肉食动物和 重复,直到神经元学会所有输入模式,并且以权值向 鸟类的自组织分类,他们将野生肉食动物(如老 量的方式存储在网络中,这一过程就是网络的自组 虎、狮子和狼等)和鸟类(如鹰、猫头鹰等)通过自组 织学习过程 织学习划分到映射图上不同的区域,在同一区域内, Kohonen层 ●获胜神经元 相似的动物则更加靠近.在以后的研究中,Mkku ●邻蚊抑经元 laine根据Hebbian连接规则将不同信息层次中协同 工作的多个SOFM互相连接,建立了一个关于记忆 和自然语言处理的综合模型[③]. 汉语的认知研究相对于英语来说起步较晚,而 输人层○O○○○ 且作为汉语的书写符号系统汉字具有不同于拼音文 ↑↑↑↑ 字的特点,导致汉字的信息加工在某些方面和拼音 输人模式量 文字有所区别,而利用神经网络对汉语认知过程进 行的研究也较少,本文是在北京语言大学提供的汉 图1 Kohonen神经网络结构 字及其部件编码库的基础上,采用多层协同工作的 Fig-1 Structure of the Kohonen neural network 改进Kohonen神经网络对汉语言初学者的汉字认 1.1 Kohonen神经网络算法描述 知过程进行模拟研究,模拟内容主要包括对汉字结 Kohonen神经网络的算法步骤如下. 构类型的学习过程和汉字部件的识别过程两个主要 (1)初始化网络权值向量Wo∈RcM,学习率 方面, a(to)∈(0,1),邻域大小N(to),允许误差精度e, 1 Kohonen神经网络及其改进 e是大于0的小常数,令迭代计数器t=1. (2)计算输入模式向量X,∈Rm与所有输出神 Kohonen提出的SOFM是一种前馈式无监督 经元向量的欧氏距离: 收稿日期:2005-11-06修回日期:2006-09-06 作者简介:杜大鹏(1980一),男,硕士研究生:穆志纯(1952一)男, ‖X-W‖= (X:-W)2 (1) =1 教授,博士生导师 (3)选择具有最小距离神经元作为获胜神
一种用于模拟汉字认知过程的多层自组织神经网络 杜大鹏 穆志纯 陈 静 方 新 北京科技大学信息工程学院北京100083 摘 要 为了模拟汉语初学者的汉字认知过程在 Kohonen 神经网络的基础上改进了其网络结构和算法并且将改进后的 网络输出层根据 Hebbian 学习规则连接构建了一个多 Kohonen 网络协同工作的汉字认知自组织神经网络模型.模拟研究结 果表明模型能够成功地学习到汉字的结构类型且能有效识别出汉字的部件在一定程度上模拟了汉字认知的部分过程说 明该模型用于汉字认知乃至汉语言习得的可行性. 关键词 自组织神经网络;多层;汉字学习;汉字结构类型;汉字部件 分类号 TP391∙12 收稿日期:20051106 修回日期:20060906 作者简介:杜大鹏(1980—)男硕士研究生;穆志纯(1952—)男 教授博士生导师 依据大脑对信号处理的特点芬兰学者 Kohonen 于1982年提出了著名的自组织特征映射网络 ———SOFM [1]该网络利用其自组织特性来实现聚 类、识别、排序以及拓扑不变性映射等功能.语言研 究则是自组织网络的一个重要应用在一定程度上 能够模拟人类的学习过程.最早采用自组织网络研 究语言的是 Ritter 和 Kohonen 关于野生肉食动物和 鸟类的自组织分类[2]他们将野生肉食动物(如老 虎、狮子和狼等)和鸟类(如鹰、猫头鹰等)通过自组 织学习划分到映射图上不同的区域在同一区域内 相似的动物则更加靠近.在以后的研究中Miikkulaine 根据 Hebbian 连接规则将不同信息层次中协同 工作的多个 SOFM 互相连接建立了一个关于记忆 和自然语言处理的综合模型[3]. 汉语的认知研究相对于英语来说起步较晚而 且作为汉语的书写符号系统汉字具有不同于拼音文 字的特点导致汉字的信息加工在某些方面和拼音 文字有所区别而利用神经网络对汉语认知过程进 行的研究也较少.本文是在北京语言大学提供的汉 字及其部件编码库的基础上采用多层协同工作的 改进 Kohonen 神经网络对汉语言初学者的汉字认 知过程进行模拟研究模拟内容主要包括对汉字结 构类型的学习过程和汉字部件的识别过程两个主要 方面. 1 Kohonen 神经网络及其改进 Kohonen 提出的 SOFM 是一种前馈式无监督 学习的网络(图1)由输入层和输出层组成.其中输 入层又称为匹配层计算输入模式向量与权值向量 之间的距离即匹配程度;输出层又称为竞争层层 上各神经元以匹配程度为依据进行竞争确定获胜 神经元同时获胜神经元及其邻域内神经元的权值 向量向模式矢量方向更新.竞争和学习的过程不断 重复直到神经元学会所有输入模式并且以权值向 量的方式存储在网络中.这一过程就是网络的自组 织学习过程. 图1 Kohonen 神经网络结构 Fig.1 Structure of the Kohonen neural network 1∙1 Kohonen 神经网络算法描述 Kohonen 神经网络的算法步骤如下. (1) 初始化网络权值向量 W0∈R CM学习率 α( t0)∈(01)邻域大小 Nc( t0)允许误差精度 ε ε是大于0的小常数令迭代计数器 t=1. (2) 计算输入模式向量 Xk∈Rm 与所有输出神 经元向量的欧氏距离: ‖X— Wj‖= ∑ n i=1 ( Xi - Wij) 2 (1) (3) 选择具有最小距离神经元作为获胜神 第29卷 第1期 2007年 1月 北 京 科 技 大 学 学 报 Journal of University of Science and Technology Beijing Vol.29No.1 Jan.2007 DOI:10.13374/j.issn1001-053x.2007.01.022
第1期 杜大鹏等:一种用于模拟汉字认知过程的多层自组织神经网络 103 经元: ‖X-w.‖=m‖X-w,‖ H (2) (4)更新获胜神经元c及其邻域N(t一1)内神 E 经元的联结权值: G W.=W,-1十a(t-1)(Xk一W,-1) B B B j∈N(t-1) (3) (5)对所有输入模式执行步骤(2)~(4)· 图2网络在邻域上的拓展 (6)计算网络误差率: Fig.2 Extension of the neighborhoods E,=‖w,-W-1‖= (2)为了削弱输入顺序对网络分类结果产生的 影响,在每一个迭代周期开始前,将样本顺序随机打 (4) 乱,重新输入网络 (7)若E,<e则停止,否则t=t十1,更新学习 (③)网络学习率的调整,网络的学习率的调整 率a(t)以及邻域大小N(t),转步骤(2)进入下一 策略采取误差控制的方式,定义邻域误差率e,m 次选代 为邻域内神经元个数,则: 1.2 Kohonen神经网络算法分析 从Kohonen神经网络的学习算法中,可以看 ∑IW,-w-l =1 到: m m==1 (1)权值矢量的更新策略使得分类结果常依赖 Wa,-1),j∈Ne(t-1) (5) 于样本的输入顺序,这是迭代算法所不希望的 在t时的学习率为: (2)选择初始邻域的大小、学习率和它们的演 a=4-1e/e-1 (6) 化策略对Kohonen网络来说很关键,不同的参数集 为了防止误差的抖动,使得e,/e-1大于1,规定 合会产生不同的结果,而且参数的选择直接影响到 在/e4-1≥1时,学习率不变 网络的性能,学习率α过大,网络不稳定,容易使训 (4)网络输出的修正,网络的输出响应在基本 练产生抖动;学习率α过小,网络收敛慢,邻域 的Kohonen网络中,定义为:在N。邻域之内,所有 N(t)选择不好,则网络不能够很好地体现出拓扑 神经元的输出为1;在V。邻域之外,所有输出神经 不变性映射, 元的输出为0. (③)一个竞争层预先固定有多少个神经元,就 jE Ne Y:(t)= (7) 最多能够有多少个类,这对于某些应用,尤其是事先 0jNe 不知道有多少个类别数时,有一定的困难 但是,为了网络的可扩展性,使其可以进一步与 (4)和ART网络不同,S0M网络在没有经过 其他Kohonen网连接,达到协同工作的目的,神经 完整的重新学习之前,不能加入新的类别 元的输出适当修正为: l.3 Kohonen神经网络算法改进 1- ‖X-w;‖-dmio 针对网络的输入样本特点,对Kohonen网络做 Y(t)= dmax一dmin j∈Ne (8) 出了如下改进, 0 j足N (l)网络结构的改进,基本二维Kohonen模型 这样修正后可以突出获胜神经元及其邻域范围神经 由于其输出面有界,因而存在边界效应).为了抑 元的激活强度的差异,越靠近邻域中心则其激活度 制这种边界效应,本文借鉴了文献[8]提出的推广模 越大,与其他SOM网连接时对应的连接强度越大, 型,把基本模型的输出平面改进成为一个空间封闭 1.4多层Kohonen神经网络 的球面,使网络输出平面本身不再存在边界,这样每 两层或者多层Kohonen神经网络组成的网络 个单元在邻域意义上是等价的,这种改进将有利于 模型中,每一层Kohonen网络可以处理各自不同的 各单元平等地竞争学习,同时也有利于拓扑特征性 信息;与此同时,不同信息之间的某些特定关系,则 质的保持,图2可以看出,所做改进的实现就是将 可以通过网络之间的连接关系来映射 原网络边缘神经元与其相对的边缘神经元设置为邻 多层Kohonen网络与单层Kohonen网的不同, 域关系 除了体现在网层的增加,更重要的是在网层之间的
经元: ‖X— Wc‖=min P j=1 ‖X— Wj‖ (2) (4) 更新获胜神经元 c 及其邻域Nc( t—1)内神 经元的联结权值: Wjt= Wjt—1+α( t—1)( Xk— Wjt—1) j∈ Nc( t—1) (3) (5) 对所有输入模式执行步骤(2)~(4). (6) 计算网络误差率: Et=‖ Wt— Wt—1‖= ∑ n i=1 ( Wnt— Wnt—1) (4) (7) 若 Et<ε则停止否则 t= t+1更新学习 率α( t)以及邻域大小 Nc( t)转步骤(2)进入下一 次迭代. 1∙2 Kohonen 神经网络算法分析 从 Kohonen 神经网络的学习算法中可以看 到: (1) 权值矢量的更新策略使得分类结果常依赖 于样本的输入顺序这是迭代算法所不希望的. (2) 选择初始邻域的大小、学习率和它们的演 化策略对 Kohonen 网络来说很关键不同的参数集 合会产生不同的结果而且参数的选择直接影响到 网络的性能.学习率 α过大网络不稳定容易使训 练产生抖动;学习率 α过小网络收敛慢.邻域 Nc( t)选择不好则网络不能够很好地体现出拓扑 不变性映射. (3) 一个竞争层预先固定有多少个神经元就 最多能够有多少个类这对于某些应用尤其是事先 不知道有多少个类别数时有一定的困难. (4) 和 ART 网络不同SOM 网络在没有经过 完整的重新学习之前不能加入新的类别. 1∙3 Kohonen 神经网络算法改进 针对网络的输入样本特点对 Kohonen 网络做 出了如下改进. (1) 网络结构的改进.基本二维 Kohonen 模型 由于其输出面有界因而存在边界效应[2].为了抑 制这种边界效应本文借鉴了文献[8]提出的推广模 型把基本模型的输出平面改进成为一个空间封闭 的球面使网络输出平面本身不再存在边界这样每 个单元在邻域意义上是等价的这种改进将有利于 各单元平等地竞争学习同时也有利于拓扑特征性 质的保持.图2可以看出所做改进的实现就是将 原网络边缘神经元与其相对的边缘神经元设置为邻 域关系. A B C D E F G H I E F D E F D E H I G H I G H B C A B C A B E F D E F D E H I G H I G H B C A B C A B E F D E F D E 图2 网络在邻域上的拓展 Fig.2 Extension of the neighborhoods (2) 为了削弱输入顺序对网络分类结果产生的 影响在每一个迭代周期开始前将样本顺序随机打 乱重新输入网络. (3) 网络学习率的调整.网络的学习率的调整 策略采取误差控制的方式.定义邻域误差率 etm 为邻域内神经元个数则: et= ∑m ‖ Wt - Wt-1‖ m = 1 m ∑ m j=1 ∑ n i=1 ( Wnt— Wnt—1) j∈ Nc( t—1) (5) 在 t 时的学习率为: αt=αt—1et/et—1 (6) 为了防止误差的抖动使得 et/et—1大于1规定 在 et/et—1≥1时学习率不变. (4) 网络输出的修正.网络的输出响应在基本 的 Kohonen 网络中定义为:在 Nc 邻域之内所有 神经元的输出为1;在 Nc 邻域之外所有输出神经 元的输出为0. Y t( t)= 1 j∈ Nc 0 j∈/Nc (7) 但是为了网络的可扩展性使其可以进一步与 其他 Kohonen 网连接达到协同工作的目的神经 元的输出适当修正为: Y t( t)= 1— ‖Xk— Wj‖— dmin dmax— dmin j∈ Nc 0 j∈/Nc (8) 这样修正后可以突出获胜神经元及其邻域范围神经 元的激活强度的差异越靠近邻域中心则其激活度 越大与其他 SOM 网连接时对应的连接强度越大. 1∙4 多层 Kohonen 神经网络 两层或者多层 Kohonen 神经网络组成的网络 模型中每一层 Kohonen 网络可以处理各自不同的 信息;与此同时不同信息之间的某些特定关系则 可以通过网络之间的连接关系来映射. 多层 Kohonen 网络与单层 Kohonen 网的不同 除了体现在网层的增加更重要的是在网层之间的 第1期 杜大鹏等: 一种用于模拟汉字认知过程的多层自组织神经网络 ·103·
.104 北京科技大学学报 第29卷 连接上,假设一个两层Kohonen网络,两个网层分 第二层网络的输入矢量依次输入,网络测试时,只 别为Kohonen I和KohonenⅡ,每一层网络都有其 需第一层网络的输入矢量,之后根据学习的知识,第 各自的输入神经元,而网层之间实现全连接,即 一层网络会对输入矢量划分类别,同时第二层网络 Kohonen I的每个输出神经元与KohonenⅡ的所 则会根据网层间连接权值激活相对应的部件神 有输出神经元都有连接关系,同样用连接权值来 经元 表示, 网层间连接权值的训练规则采用Hebbian学习 规则: Kohonen △Du=3YYR ●获胜神经元 (9) ●邻域神经元 其中,阝是网层间连接权值的学习率,Y是源网层 第k个神经元的输出,YP是目的网层第1个神经元 Kohonen 的输出,△心u代表两个神经元之间的连接权值变 化量, 图3两层Kohonen网图间的连接 权值改变完成之后,需要对源网层的所有激活 Fig.3 Connections between two Kohonen maps 神经元的网层间连接权值正规化: DH(t+1)= DH(t)十△wL (10) 3实验结果及分析 [wH(t)+△a] 在第一层网图(图4)的输出界面上,可以看到 2模拟研究 网络将隶属于不同结构类型的汉字划分在网图不同 区域内,在同一结构类型区域内,具有相同或者相似 2.1网络的输入样本 部件的汉字在网图上的位置较近 选取了100个汉字及其对应的部件拆分序列作 为输入样本,汉字样本的维度为309维,部件维度为 47维,样本是从3500常用汉字库中抽取的,在抽 取时考虑了汉字的结构类型分布密度以及使用频次 等因素, 在汉字编码过程中,考虑了汉字的综合信息,包 括汉字的结构信息以及该汉字组字部件的信息,其 中汉字部件的编码可以作为独立的网络输入,同时 也作为汉字编码的一部分,汉字编码包括以下 10个部分:汉字结构表征、汉字部件数量、部件局部 结构、部件笔画关系、非成字部件位置、部件视觉特 征、部件笔形、部件笔画数、成字部件位置以及部件 排列顺序 图4网络对汉字结构的分类结果 2.2网络模型的构建 Fig.4 Classified results of character architecture 本研究采用两层改进的Kohonen网络构建模 在网图上还存在个别汉字类型归属不正确.值 型,第一层网络的输入为汉字的表征值,第二层网络 得注意的是,这样的汉字多存在于不同区域的交界 的输入为部件的表征值,两层网络之间通过Hb~ 处,而且结构类型区域的划定是人为的,没有办法严 bian学习规则连接(图3). 格界定.总体来说,网络对输入汉字样本结构类型 2.3网络的训练 的学习是成功的 网络训练时,汉字及其部件序列是配对输入· 第二层网络除了本身所具有的对部件的聚类功 所谓配对输入,就是指汉字需要和它的部件序列同 能之外,还响应第一层网络的激活神经元.这种响 时作为不同网层的输入矢量输入网络,举例来说, 应体现在当汉字层某一神经元被激活时,部件层会 当汉字“柴”的表征值作为第一层网络的输入矢量 有一到多个神经元同时被激活,这种工作机制反映 时,它所对应的部件序列“止”、“匕”和“木”分别作为 了网络将所学习到的汉字拆分为部件的能力,部分
连接上.假设一个两层 Kohonen 网络两个网层分 别为 Kohonen Ⅰ和 Kohonen Ⅱ每一层网络都有其 各自的输入神经元而网层之间实现全连接即 Kohonen Ⅰ的每个输出神经元与 Kohonen Ⅱ的所 有输出神经元都有连接关系同样用连接权值来 表示. 网层间连接权值的训练规则采用 Hebbian 学习 规则: Δwkl=βY S kY D l (9) 其中β是网层间连接权值的学习率Y S k 是源网层 第 k 个神经元的输出Y D l 是目的网层第 l 个神经元 的输出Δwkl 代表两个神经元之间的连接权值变 化量. 权值改变完成之后需要对源网层的所有激活 神经元的网层间连接权值正规化: wkl( t+1)= wkl( t)+Δwkl ∑l [ wkl( t)+Δwkl] 2 (10) 2 模拟研究 2∙1 网络的输入样本 选取了100个汉字及其对应的部件拆分序列作 为输入样本汉字样本的维度为309维部件维度为 47维.样本是从3500常用汉字库中抽取的在抽 取时考虑了汉字的结构类型分布密度以及使用频次 等因素. 在汉字编码过程中考虑了汉字的综合信息包 括汉字的结构信息以及该汉字组字部件的信息.其 中汉字部件的编码可以作为独立的网络输入同时 也作为汉字编码的一部分.汉字编码包括以下 10个部分:汉字结构表征、汉字部件数量、部件局部 结构、部件笔画关系、非成字部件位置、部件视觉特 征、部件笔形、部件笔画数、成字部件位置以及部件 排列顺序. 2∙2 网络模型的构建 本研究采用两层改进的 Kohonen 网络构建模 型第一层网络的输入为汉字的表征值第二层网络 的输入为部件的表征值两层网络之间通过 Hebbian 学习规则连接(图3). 2∙3 网络的训练 网络训练时汉字及其部件序列是配对输入. 所谓配对输入就是指汉字需要和它的部件序列同 时作为不同网层的输入矢量输入网络.举例来说 当汉字“柴”的表征值作为第一层网络的输入矢量 时它所对应的部件序列“止”、“匕”和“木”分别作为 第二层网络的输入矢量依次输入.网络测试时只 需第一层网络的输入矢量之后根据学习的知识第 一层网络会对输入矢量划分类别同时第二层网络 则会根据网层间连接权值激活相对应的部件神 经元. 图3 两层 Kohonen 网图间的连接 Fig.3 Connections between two Kohonen maps 3 实验结果及分析 在第一层网图(图4)的输出界面上可以看到 网络将隶属于不同结构类型的汉字划分在网图不同 区域内在同一结构类型区域内具有相同或者相似 部件的汉字在网图上的位置较近. 图4 网络对汉字结构的分类结果 Fig.4 Classified results of character architecture 在网图上还存在个别汉字类型归属不正确.值 得注意的是这样的汉字多存在于不同区域的交界 处而且结构类型区域的划定是人为的没有办法严 格界定.总体来说网络对输入汉字样本结构类型 的学习是成功的. 第二层网络除了本身所具有的对部件的聚类功 能之外还响应第一层网络的激活神经元.这种响 应体现在当汉字层某一神经元被激活时部件层会 有一到多个神经元同时被激活这种工作机制反映 了网络将所学习到的汉字拆分为部件的能力.部分 ·104· 北 京 科 技 大 学 学 报 第29卷
第1期 杜大鹏等:一种用于模拟汉字认知过程的多层自组织神经网络 ,105 汉字的部件序列与网络拆分结果对比结果如表1 初学者对汉字的部分认知过程,主要包括汉字结构 所示 类型的学习和汉字部件的识别两个主要方面,模拟 表1汉字部件识别的结果 研究在一定程度上是成功的,但是模型仍然不够完 Table 1 Results of the components recognition 善,未能将学习者的知识背景对认知过程的影响考 牧字 正确部件序列 网辂学习结果 虑在内,如母语为汉语的小学生和母语为拼音文字 柴 止b1匕b2木b7 止b1匕b2木b7匕15 的留学生,他们的汉字认知过程受其母语和知识结 衣 衣m4 衣m4衣k4 构的影响,必然有所差异,总之,本文所作的模拟研 和 禾al口a7 禾al口a7 究在利用神经网络研究语言习得问题方面具有参考 闻 门f1耳f7 门f1耳7 和借鉴价值,并且在研究基础上,可以利用模型进一 袍 tal勹a6巳a7 11礻al勹6勹b6 步研究汉字发音、构词、字义等语言习得方面的认知 妙 女a1小a6a7 女al小6乙a7 过程 吻 口a1勹a6a7 口1勹6少7 参考文献 唤 口al7b1冂a5大a7 日al人a516大a7 [1]KohonenT.Self-organized formation of topologically correct fea 相同形体的部件位于不同结构类型汉字的不同 ture maps.Biol Cybern.1982 (43):59 位置时,则被认为是不同的部件,区分方式则是在基 [2]Ritter H.Kohonen T.Self-organizing semantic maps.Biol Cy- berm,1989,61:241 本部件之后追加英文和数字.所以上表中“衣m4” [3]Mikkulainen R.Dyslexic and category"specific aphasic impair 和“衣k4”代表不同的部件 ments in a self-organizing feature map model of the lexicon.Brain 从表1的结果中,可以归纳出两种情况: Language,1997(59):334 (1)网络对汉字的学习是成功的,也就是学习 [4]Farkas I.Li P.DEVLEX:a self-organizing neural network mod- el of the development of lexicon//Proceedings of the 9th Interna- 结果是完全正确的.如表中的“和”、“闻”和“吻”字, tional Conference on Neural Information Processing (ICONIP 部件层的激活神经元所代表的部件与汉字的实际部 02),2002:2546 件拆分结果相吻合 [5]Li P.Farkas I,MacWhinney B.Early lexical development in a (2)网络对汉字的学习是不完全成功的.在这 selforganizing neural network.Neural Networks.2004 (17): 1345 种情况下,又分为部件混淆和部件冗余两种出错类 [6]彭聃龄,刘颖,陈鹰.汉字识别的计算机模拟·应用心理学, 型.部件混淆是指部件层激活的部件序列中,部件 1996,2(1):9 数目与实际相符,但是存在一个或几个部件与相应 [7]刘颖,彭聃龄。基于语义的词汇判断的计算机模型.心理学 的实际部件不符.如“换”字的激活部件中的“夕b1” 报,1995,27(3):254 和“门a5”,在实际序列中找不到完全吻合的部件, [8]刘政凯,李葆馨.Kohonen自组织特征映射模型的推广.自动 但是可以找到与之形似的部件“入a5"和“1a6”. 化学报,1994,20(3):338 [9]李平.语言习得的联结主义模式·当代语言学,2002,4(3):8 部件冗余则是指激活的部件多于实际部件数目,如 [10]王建勤.外国学生汉字构形意识发展的模拟研究[学位论 “柴”字,在学习结果中,除了正确激活的“匕b2”外, 文],北京:北京语言大学,2005 还多出了“匕15”这个部件.但是多出来的部件并不 [11]苑春法,李莼,崔永华,等.基与遗传算法的汉语构词研究 是同相应的汉字完全无关,它们总是与实际的部件 清华大学学报:自然科学版,2001,41(4/5).222 [12]李娟,傅小兰,林仲贤。学龄儿童汉语正字法意识发展的研 有很大的相似度 究.心理学报,2000,32(2):121 4结论 [13]鹿士义.母语为拼音文字的学习者汉字正字法意识发展的研 究.语言教学与研究,2002(3).55 本文利用多层自组织神经网络模型模拟了汉语
汉字的部件序列与网络拆分结果对比结果如表1 所示. 4 结论 本文利用多层自组织神经网络模型模拟了汉语 初学者对汉字的部分认知过程主要包括汉字结构 类型的学习和汉字部件的识别两个主要方面.模拟 研究在一定程度上是成功的但是模型仍然不够完 善未能将学习者的知识背景对认知过程的影响考 虑在内如母语为汉语的小学生和母语为拼音文字 的留学生他们的汉字认知过程受其母语和知识结 构的影响必然有所差异.总之本文所作的模拟研 究在利用神经网络研究语言习得问题方面具有参考 和借鉴价值并且在研究基础上可以利用模型进一 步研究汉字发音、构词、字义等语言习得方面的认知 过程. 参 考 文 献 [1] Kohonen T.Self-organized formation of topologically correct feature maps.Biol Cybern1982(43):59 [2] Ritter HKohonen T.Self-organizing semantic maps.Biol Cybern198961:241 [3] Miikkulainen R.Dyslexic and category-specific aphasic impairments in a self-organizing feature map model of the lexicon.Brain Language1997(59) :334 [4] Farkas ILi P.DEVLEX:a self-organizing neural network model of the development of lexicon∥Proceedings of the9th International Conference on Neural Information Processing (ICONIP’ 02)2002:2546 [5] Li PFarkas IMacWhinney B.Early lexical development in a sel-f organizing neural network.Neural Networks2004 (17): 1345 [6] 彭聃龄刘颖陈鹰.汉字识别的计算机模拟.应用心理学 19962(1):9 [7] 刘颖彭聃龄.基于语义的词汇判断的计算机模型.心理学 报199527(3) :254 [8] 刘政凯李葆馨.Kohonen 自组织特征映射模型的推广.自动 化学报199420(3) :338 [9] 李平.语言习得的联结主义模式.当代语言学20024(3):8 [10] 王建勤.外国学生汉字构形意识发展的模拟研究 [学位论 文].北京:北京语言大学2005 [11] 苑春法李莼崔永华等.基与遗传算法的汉语构词研究. 清华大学学报:自然科学版200141(4/5):222 [12] 李娟傅小兰林仲贤.学龄儿童汉语正字法意识发展的研 究.心理学报200032(2) :121 [13] 鹿士义.母语为拼音文字的学习者汉字正字法意识发展的研 究.语言教学与研究2002(3):55 第1期 杜大鹏等: 一种用于模拟汉字认知过程的多层自组织神经网络 ·105·
.106, 北京科技大学学报 第29卷 Simulation of Chinese characters learning with improved multi SOM net work DU Dapeng,MU Zhichun,CHEN Jing,FANG Xin Information Engineering School.University of Science and Technology Beijing.Beijing 100083.China ABSTRACI In order to simulate the Chinese character acquisition process,this paper set up a multilayer self- organizing maps(SOM)network model based on improved Kohonen network.The model's output maps, w hich adapt modified algorithm and expand neuron's neighborhood,were connected via associative links updated by Hebbian learning.After training the model could learn Chinese character architecture successfully and also do well in Chinese character component recognition.The simulation results demonstrated that the feasibility of fur- ther research in Chinese character acquisition and even Chinese language learning with this model was possible. KEY WORDS SOM network;multilayer;Chinese character learning;Chinese character architecture;Chinese character components (上接第89页) Torque ripple minimization in direct torque control of a permanent magnet syn chronous motor ZHA NG Chunmei,LIU Heping,MA Baozhu,CHEN Shujin,WANG Fangjun Information Engineering School.University of Science and Technology Beijing.Beijing 100083.China ABSTRACT The basic theory of direct torque control (DTC)for interior permanent magnet synchronous mo- tors (IPMSM)was studied.A new approach to direct torque control of an interior permanent magnet syn- chronous motor was presented to decrease torque ripple.In order to improve the static and dynamic performance of the system,a fuzzy logic idea was introduced into the system.In the fuzzy direct torque control system,the flux error and the flux error change were both properly divided into several fuzzy subsets.The acting time of the selected voltage vector and reverse voltage vector were modulated based on fuzzy inference.A speed estimation scheme was integrated with the proposed DTC scheme in order to achieve a fully sensorless high performance IPMSM drive.The scheme not only maintains constant switching frequency,but also reduces torque ripple, particularly at low speed.Simulation illustrates the operation and performance of the proposed fuzzy-logic-based controller. KEY WORDS permanent magnet synchronous motor:fuzzy logic;direct torque control;torque ripple
Simulation of Chinese characters learning with improved mult-i SOM network DU DapengMU ZhichunCHEN JingFA NG Xin Information Engineering SchoolUniversity of Science and Technology BeijingBeijing100083China ABSTRACT In order to simulate the Chinese character acquisition processthis paper set up a multilayer selforganizing maps (SOM) network model based on improved Kohonen network.The model’s output maps which adapt modified algorithm and expand neuron’s neighborhoodwere connected via associative links updated by Hebbian learning.After training the model could learn Chinese character architecture successfully and also do well in Chinese character component recognition.The simulation results demonstrated that the feasibility of further research in Chinese character acquisition and even Chinese language learning with this model was possible. KEY WORDS SOM network;multilayer;Chinese character learning;Chinese character architecture;Chinese character components (上接第89页) Torque ripple minimization in direct torque control of a permanent magnet synchronous motor ZHA NG ChunmeiLIU HepingMA Baoz huCHEN ShujinWA NG Fangjun Information Engineering SchoolUniversity of Science and Technology BeijingBeijing100083China ABSTRACT The basic theory of direct torque control (DTC) for interior permanent magnet synchronous motors (IPMSM) was studied.A new approach to direct torque control of an interior permanent magnet synchronous motor was presented to decrease torque ripple.In order to improve the static and dynamic performance of the systema fuzzy logic idea was introduced into the system.In the fuzzy direct torque control systemthe flux error and the flux error change were both properly divided into several fuzzy subsets.The acting time of the selected voltage vector and reverse voltage vector were modulated based on fuzzy inference.A speed estimation scheme was integrated with the proposed DTC scheme in order to achieve a fully sensorless high-performance IPMSM drive.The scheme not only maintains constant switching frequencybut also reduces torque ripple particularly at low speed.Simulation illustrates the operation and performance of the proposed fuzzy-logic-based controller. KEY WORDS permanent magnet synchronous motor;fuzzy logic;direct torque control;torque ripple ·106· 北 京 科 技 大 学 学 报 第29卷