第8卷第6期 智能系统学报 Vol.8 No.6 2013年12月 CAAI Transactions on Intelligent Systems Dee.2013 D0:10.3969/j.issn.1673-4785.201212003 网络出版地址:htp:/www.cmki.net/kcms/detail/23.1538.TP.20131012.1814.004.html 量子衍生神经网络模型及其在图像恢复中的应用 肖红,李盼池 (东北石油大学计算机与信息技术学院,黑龙江大庆163318) 摘要:为提高图像恢复质量,提出一种量子衍生神经网络模型及算法该模型为3层结构,隐层为量子神经元,输出 层为普通神经元量子神经元由量子旋转门和多位受控非门组成,利用多位受控非门中目标量子位的输出向输入端 的反馈,实现对输人序列的整体记忆,利用受控非门输出中多位量子比特的纠缠,获得量子神经元的输出.基于量子 计算理论设计了该模型的学习算法,该模型可从宽度和深度两方面获取输入序列的特征仿真结果表明,该模型的图 像恢复效果明显优于普通神经网络. 关键词:量子计算:量子旋转门:多位受控非门:量子神经元:量子神经网络:图像恢复:学习算法;神经网络模型 中图分类号:TP18文献标志码:A文章编号:1673-4785(2013)06-0537-06 中文引用格式:肖红,李盼池.量子衍生神经网络模型及其在图像恢复中的应用[J].智能系统学报,2013,8(6):537-542. 英文引用格式:XIAO Hong,LI Panchi.Quantum-derived nerve network model and its application for image restoration[J].CAAl Transactions on Intelligent Systems,2013,8(6):537-542. Quantum-derived neural network model and its application to image restoration XIAO Hong,LI Panchi (School of Computer Information Technology,Northeast Petroleum University,Daqing 163318,China) Abstract:In order to improve the quality of image restoration,a kind of quantum-derived neural network model and algorithm are proposed.The model is composed of three layers of structure,in which,the hidden layer is made up of quantum neurons,and the output layer is made up of common neurons.The quantum neuron consists of a quan- tum rotation gate and a multi-qubit controlled not-gate.By using the information feedback of the target qubit from the output to the input end in the multi-qubit controlled not-gate,the integral memory of input sequences is real- ized.The output of the quantum neuron is obtained by the entanglement of the multi-qubit in the output of the con- trolled not-gates.On the basis of the theory on quantum computation,the learning algorithm for the model is de- signed.Through the model,the characteristics of the input sequence may be effectively obtained from two aspects including "width"and "depth".The simulation results show that the quality of image restoration of the model is ob- viously superior to that of the common neural network. Keywords:quantum computation;quantum rotation gate;multi-qubit controlled not-gate;quantum neuron;quan- tum neural network;image restoration;learning algorithm;neural network model 在实际生物神经系统的信息处理过程中,记忆 经网络(artificial neural networks,ANN)缺乏对时间 和输出不仅依赖于每种输入信息的空间聚合,而且 延迟以及时间累积效果的描述反映在实际应用中, 也依赖于输入在时间上的累积效果).传统人工神 ANN一次只能接收一个几何点式的向量输入,而对 于一个体现时间累积效果的矩阵式样本,ANN通常 收稿日期:2012-12-03.网络出版日期:2013-10-12 基金项目:国家自然科学基金资助项目(61170132) 将其中每个列向量视为单个样本,分多次接收.量子 通信作者:李盼池.E-mail:lipanchi@vip.sina.com. 神经网络诞生于20世纪90年代,为智能计算领域
第 8 卷第 6 期 智 能 系 统 学 报 Vol.8 №.6 2013 年 12 月 CAAI Transactions on Intelligent Systems Dec. 2013 DOI:10.3969 / j.issn.1673⁃4785.201212003 网络出版地址:http: / / www.cnki.net / kcms/ detail / 23.1538.TP.20131012.1814.004.html 量子衍生神经网络模型及其在图像恢复中的应用 肖红,李盼池 (东北石油大学 计算机与信息技术学院,黑龙江 大庆 163318) 摘 要:为提高图像恢复质量,提出一种量子衍生神经网络模型及算法.该模型为 3 层结构,隐层为量子神经元,输出 层为普通神经元.量子神经元由量子旋转门和多位受控非门组成,利用多位受控非门中目标量子位的输出向输入端 的反馈,实现对输入序列的整体记忆,利用受控非门输出中多位量子比特的纠缠,获得量子神经元的输出.基于量子 计算理论设计了该模型的学习算法,该模型可从宽度和深度两方面获取输入序列的特征.仿真结果表明,该模型的图 像恢复效果明显优于普通神经网络. 关键词:量子计算;量子旋转门;多位受控非门;量子神经元;量子神经网络;图像恢复;学习算法; 神经网络模型 中图分类号: TP18 文献标志码:A 文章编号:1673⁃4785(2013)06⁃0537⁃06 中文引用格式:肖红,李盼池. 量子衍生神经网络模型及其在图像恢复中的应用[J]. 智能系统学报, 2013, 8(6): 537⁃542. 英文引用格式:XIAO Hong, LI Panchi. Quantum⁃derived nerve network model and its application for image restoration[J]. CAAI Transactions on Intelligent Systems, 2013, 8(6): 537⁃542. Quantum⁃derived neural network model and its application to image restoration XIAO Hong, LI Panchi (School of Computer & Information Technology, Northeast Petroleum University, Daqing 163318, China) Abstract:In order to improve the quality of image restoration, a kind of quantum⁃derived neural network model and algorithm are proposed. The model is composed of three layers of structure, in which, the hidden layer is made up of quantum neurons, and the output layer is made up of common neurons. The quantum neuron consists of a quan⁃ tum rotation gate and a multi⁃qubit controlled not⁃gate. By using the information feedback of the target qubit from the output to the input end in the multi⁃qubit controlled not⁃gate, the integral memory of input sequences is real⁃ ized. The output of the quantum neuron is obtained by the entanglement of the multi⁃qubit in the output of the con⁃ trolled not⁃gates. On the basis of the theory on quantum computation, the learning algorithm for the model is de⁃ signed. Through the model, the characteristics of the input sequence may be effectively obtained from two aspects including " width" and " depth" . The simulation results show that the quality of image restoration of the model is ob⁃ viously superior to that of the common neural network. Keywords:quantum computation; quantum rotation gate; multi⁃qubit controlled not⁃gate; quantum neuron; quan⁃ tum neural network; image restoration; learning algorithm; neural network model 收稿日期:2012⁃12⁃03. 网络出版日期:2013⁃10⁃12. 基金项目:国家自然科学基金资助项目(61170132). 通信作者:李盼池. E⁃mail:lipanchi@ vip.sina.com. 在实际生物神经系统的信息处理过程中,记忆 和输出不仅依赖于每种输入信息的空间聚合,而且 也依赖于输入在时间上的累积效果[1] .传统人工神 经网络(artificial neural networks, ANN)缺乏对时间 延迟以及时间累积效果的描述.反映在实际应用中, ANN 一次只能接收一个几何点式的向量输入,而对 于一个体现时间累积效果的矩阵式样本,ANN 通常 将其中每个列向量视为单个样本,分多次接收.量子 神经网络诞生于 20 世纪 90 年代,为智能计算领域
·538· 智能系统学报 第8卷 注入了新的活力2).在量子神经网络的理论研究方 1〉=1-P10〉+√p11). 面,解光军博士做了开创性的工作68】.日本学者 Matsui等[9]根据量子线路结构提出了一种求解异或 2量子衍生神经网络模型 问题的量子神经元学习算法.在量子计算和神经网 2.1序列量子神经元模型 络的融合方面,作者先后提出了几种模型和算 该模型由量子旋转门和多位受控非门组成,如图1 法[0.然而,以上这些模型,也缺乏对时间累积效 所示.其输入为时域[0,T]上的量子比特序列 果的描述.为了充分模拟生物神经元的时间累积效 {1x:(t,))},其中t,∈[0,T]:输出为在[0,T]上的聚 果,以便提高传统神经网络的逼近能力,本文提出一 种基于序列输入的量子衍生神经网络模型(quan- 合结果:控制参数为量子旋转门的旋转角度9(1,), tum-inspired neural networks,QINN),该模型的每个 i=1,2,…,n,r=1,2,…,9,n为输入空间的维数,9 输入样本均为多维离散序列,可表述为一个矩阵基 为序列长度 于量子计算原理设计了该模型的学习算法.利用该 x,(t》 8(t) 模型对模糊图像进行恢复,其恢复图像在视觉上和 {x,(t》} 02(1,) 定量分析上都优于BP神经网络. {x(t,》 0.(1) 1量子比特和量子门 1.1量子比特 0(1,)》 {e(t,月 在量子计算中,量子比特有2个可能的状态 图1序列量子神经元模型 10〉和I1〉,不同于经典比特,其状态可以落在10》 Fig.1 Sequence-base quantum on model 和11)之外,即可以是状态的线性叠加态,如式(1) 令输入为1x(t,)》=cos0.(t,)10)+sin.(,)11) 所示. 1(t)〉=0〉,由量子旋转门和多位受控非门的定 Ip〉=aI0〉+B11〉 (1) 式中:、B是一对复数,称量子比特的概率幅) 义,1p'(t)》可写为 1.2量子旋转门 Ip'(t1)〉=cosp(t)10〉+sinp(t1)11〉. 量子门是物理实现量子计算的基础.它包含了 式中:p()=arcsin(Π,sin(0,,)+a)). 量子计算的特点.量子旋转门定义式为 记t=t,r=2,3,…,9,由1p(,))=lp'(t-1)》得 cos 0 sin 07 R(8)= 1p'(t,)〉=cosp(t,)10〉+sinp(t,)11〉 sin 0 cos 0 式中:p(t,)=arcsin(√S,cos2p(t,-1)+sinp(t,-1)), cos 0o cos(8+0)7 令Ip〉= ,由R(8)Ip〉= 知, sin 0o sin(0 +00) S,=Πi,sin(a.(,)+a.(t,). R()实现了对Ip〉的相位旋转, 序列量子神经元在[0,T]的聚合结果最终可 1.3多位受控非门 写为 设有n+1位量子比特,lx,),1x〉,…,lx)是控 Iy〉=1p'(t)》=cosp(t)l0)+sinp(tn)I1). 制比特,I〉是目标比特,X是单比特量子非门.多位 式中: 受控非门的运算式C(X)定义为 (t)=aresin (vS cos 20(t1)+sin'(t1)), C(X)1xx2x〉1p〉=x12…x〉X1p〉. s=Πi,sin2(.(g)+a.(,). (2) 定义量子衍生神经元的输出为目标位处于状态 即若前n个量子比特全为1,则非门X作用到1p)》 11〉的概率幅,因此输入输出关系可描述为 使其翻转,否则Ip〉状态不变设1x:〉=a,I0》+b,11)为控 制位,Ip〉=c0〉+d11)为目标位,根据式(2),C(X)的 y=vS,cos 20(t1)sin'(t1). 2.2量子衍生神经网络模型 输出为n+1个量子比特的纠缠态,且目标位Iφ〉处于 量子衍生神经网络由3层组成,隐层为序列量 状态11)的概率为 P=(bb2bn)2(c2-d)+. 子神经元,输出层为普通神经元,如图2所示.输出 此时,目标比特的输出可写为 层采用Sigmoid函数
注入了新的活力[2⁃5] .在量子神经网络的理论研究方 面,解光军博士做了开创性的工作[6⁃8 ] . 日本学者 Matsui 等[9]根据量子线路结构提出了一种求解异或 问题的量子神经元学习算法.在量子计算和神经网 络的融 合 方 面, 作 者 先 后 提 出 了 几 种 模 型 和 算 法[10⁃12] .然而,以上这些模型,也缺乏对时间累积效 果的描述.为了充分模拟生物神经元的时间累积效 果,以便提高传统神经网络的逼近能力,本文提出一 种基于序列输入的量子衍生神经网络模型( quan⁃ tum⁃inspired neural networks, QINN),该模型的每个 输入样本均为多维离散序列,可表述为一个矩阵.基 于量子计算原理设计了该模型的学习算法.利用该 模型对模糊图像进行恢复,其恢复图像在视觉上和 定量分析上都优于 BP 神经网络. 1 量子比特和量子门 1.1 量子比特 在量子计算中,量子比特有 2 个可能的状态 | 0〉 和 | 1〉 ,不同于经典比特,其状态可以落在 | 0〉 和 | 1〉 之外,即可以是状态的线性叠加态,如式(1) 所示. | φ〉 = α | 0〉 + β | 1〉. (1) 式中: α 、 β 是一对复数,称量子比特的概率幅[12] . 1.2 量子旋转门 量子门是物理实现量子计算的基础.它包含了 量子计算的特点.量子旋转门定义式为 R(θ) = cos θ - sin θ sin θ cos θ é ë ê ê ù û ú ú . 令〡φ〉 = cos θ0 sin θ0 é ë ê ê ù û ú ú ,由R(θ) | φ〉 = cos(θ + θ0) sin(θ + θ0) é ë ê ê ù û ú ú 知, R(θ) 实现了对 |φ〉 的相位旋转. 1.3 多位受控非门 设有 n+1 位量子比特, | x1 〉, | x2 〉,…, | xn 〉是控 制比特, | φ〉是目标比特,X 是单比特量子非门.多位 受控非门的运算式 C n (X)定义为 C n (X) | x1 x2…xn 〉 | φ〉 =| x1 x2…xn 〉X x1 x2…xn | φ〉. (2) 即若前 n 个量子比特全为 1,则非门 X 作用到|φ〉 使其翻转,否则|φ〉状态不变.设| xi〉 =ai |0〉+bi |1〉为控 制位,|φ〉 =c|0〉+d |1〉为目标位,根据式(2),C n (X)的 输出为 n+1 个量子比特的纠缠态,且目标位| φ′〉处于 状态|1〉的概率为 P = (b1 b2…bn ) 2 (c 2 - d 2 ) + d 2 . 此时,目标比特的输出可写为 | φ′〉 = 1 - P | 0〉 + P | 1〉. 2 量子衍生神经网络模型 2.1 序列量子神经元模型 该模型由量子旋转门和多位受控非门组成,如图 1 所示. 其 输 入 为 时 域 [ 0, T ] 上 的 量 子 比 特 序 列 {| xi(t r)〉} ,其中 t r ∈[0,T] ;输出为在[0, T ]上的聚 合结果;控制参数为量子旋转门的旋转角度 θ - i(t r) , i = 1,2,…,n , r = 1,2,…,q , n 为输入空间的维数, q 为序列长度. 图 1 序列量子神经元模型 Fig.1 Sequence⁃base quantum on model 令输入为| xi(t r)〉 = cos θi(t r) | 0〉 + sin θi(t r) | 1〉, | φ(t 1 )〉 =| 0〉 ,由量子旋转门和多位受控非门的定 义, | φ′(t 1 )〉 可写为 | φ′(t 1 )〉 = cos φ(t 1 ) | 0〉 + sin φ(t 1 ) | 1〉 . 式中: φ(t 1) = arcsin (∏ n i = 1 sin (θi(t 1) + θ - i(t 1))) . 记 t =t r,r = 2,3,…,q,由|φ(t r)〉 = |φ′(t r-1 )〉得 | φ′(t r)〉 = cos φ(t r) | 0〉 + sin φ(t r) | 1〉. 式中: φ(t r) = arcsin ( Sr cos 2φ(t r-1) + sin 2 φ(t r-1)) , Sr = ∏ n i = 1 sin 2 (θi(t r) + θ - i(t r)) . 序列量子神经元在[0, T ] 的聚合结果最终可 写为 | y〉 = | φ′(t q)〉 = cos φ(t q) | 0〉 + sin φ(t q) | 1〉 . 式中: φ(t q) = arcsin ( Sq cos 2φ(t q-1 ) + sin 2 φ(t q-1 ) ) , Sq = ∏ n i = 1 sin 2 (θi(t q) + θ - i(t q)) . 定义量子衍生神经元的输出为目标位处于状态 | 1〉 的概率幅,因此输入输出关系可描述为 y = Sq cos 2φ(t q-1 ) + sin 2 φ(t q-1 ) . 2.2 量子衍生神经网络模型 量子衍生神经网络由 3 层组成,隐层为序列量 子神经元,输出层为普通神经元,如图 2 所示.输出 层采用 Sigmoid 函数. ·538· 智 能 系 统 学 报 第 8 卷
第6期 肖红,等:量子衍生神经网络模型及其在图像恢复中的应用 ·539 x,,)》;-8, 0,(1, 0n1(1,) x,(,》}0() 022(1,) 0n2(1,) {x,(u,》}0(t) 6(t,) 0.(1,) lp'()》 {9,()》3 19'(1)》 h {p(,)》} {lp(,)》} 19'()h) 图2量子衍生神经网络模型 Fig.2 quantum-inspired neural network model 在普通神经网络中,每个样本用一个向量表示, 3.2QINN学习算法 而在本文提出的量子衍生神经网络中,每个样本用 设归一化后的期望输出为少1,2,…,少,误差函 一个矩阵表示,例如第i个样本为 数定义为ek=(少-y),记 {x(,)} 「xi)x(2) x(t,) {x2(t,)} x(t)x(t2)… (t) ,=1sin(0.(,)+0,(6,), b,(t)=1,S,=1-2h(t-1). {x(t,)} x(t)x(2)…x(tn)」 根据梯度下降法,隐层旋转角梯度计算式为 令19g(t1))=0〉,j=1,2,…,p,0=t1<t2< …<.=T.记,=Πsin(,(,)+8,,).根据 a0;(1,) 序列量子神经元的输入输出关系,在时域[0,4,] 上,隐层第广个序列量子神经元的阶段输出为 含-onm直1-2喝4u店 h,(t)=h, (1-2h(,-)cot(0.(,)+9,(,)/Πh,(,) 输出层连接权梯度为 h,(t,)=√h(1-2h(t,-1))+h(t,-1). 该量子神经元的最终输出([0,T]上的聚合结 ae=-y.(1-y)h,) 果)为 o 记x表示参数向量,”表示误差向量,J表示雅 h=h(t). 输出层第k个普通神经元的输出为 克比矩阵,x、yJ分别为: 4=1/(1+e). x=[0(1)…0p(tg)w1… "m]T, 式中:k=1,2,…,m. vr=[e1e2…eJ, de de de de 3量子衍生神经网络算法 a0(t1) a0(t,) a1e11 310 pm 3.1样本量子态描述 de2 dez de2 de2 令n维欧氏空间中的离散序列样本{X,(t,)}= J(x)= 80u(t1) a0p(tg) a011 dWpm [{(,)}{2(,)}…1元(,)}],记 dem ae dem max:=max((t1),x:(2),…,元(t,), a01u(t1) a0m(t,) ow ow pm min;min(()(t),(t)). 根据Levenberg-.Marquardt算法,QINN参数调 x(t,)-min:T 整的迭代方程为 0= max;min 2. (x)v(x,) 这些样本可用量子态形式描述为 x=,(x,)J(x)+ {IX(t,)〉}= 式中:1为迭代步数,I为单位矩阵,4,为一小正数,使 [{1x(,)}12(,))}…1x(,)}] J(x)J(x,)+u,1可逆 式中:1x,(t,)〉=cos(0.)10〉+sin(9n)11). 记限定误差为e,限定步数为max_N,当前误 差E=max(I-y),当前步数为t.若E≤s或
图 2 量子衍生神经网络模型 Fig.2 quantum⁃inspired neural network model 在普通神经网络中,每个样本用一个向量表示, 而在本文提出的量子衍生神经网络中,每个样本用 一个矩阵表示,例如第 i 个样本为 {x i 1(t r)} {x i 2(t r)} ︙ {x i n(t r)} é ë ê ê ê ê ê ù û ú ú ú ú ú = x i 1(t 1) x i 1(t 2) … x i 1(t q) x i 2(t 1) x i 2(t 2) … x i 2(t q) ︙ ︙ ︙ x i n(t 1) x i n(t 2) … x i n(t q) é ë ê ê ê ê ê ù û ú ú ú ú ú . 令 | φj(t 1 )〉 =| 0〉 , j = 1,2,…,p , 0 = t 1 < t 2 < … < t a = T .记 h - jr =∏ n i = 1 sin(θi(t r) + θij(t r)) .根据 序列量子神经元的输入输出关系,在时域 [0,t r] 上,隐层第 j 个序列量子神经元的阶段输出为 hj(t 1 ) = h - j1 , hj(t r) = h 2 jr(1 - 2h 2 j (t r-1 )) + h 2 j (t r-1 ) . { 该量子神经元的最终输出([0, T ]上的聚合结 果)为 hj = hj(t q) . 输出层第 k 个普通神经元的输出为 yk = 1 / (1 + e -∑p j = 1 wjk hj) . 式中: k = 1,2,…,m. 3 量子衍生神经网络算法 3.1 样本量子态描述 令 n 维欧氏空间中的离散序列样本 {Xi - (t r)} = {x - 1(t r)} {x - 2(t r)} … {x - n(t [ r)} ] T , 记 maxi = max(x - i(t 1 ),x - i(t 2 ),…,x - i(t q)), mini = min(x - i(t 1 ),x - i(t 2 ),…,x - i(t { q)). θir = x - i(t r) - mini maxi - mini · π 2 . 这些样本可用量子态形式描述为 {| X(t r)〉} = {| x1(t r)〉} {| x2(t r)〉} … {| xn(t [ r)〉} ] T . 式中: | xi(t r)〉 = cos (θir) | 0〉 + sin (θir) | 1〉. 3.2 QINN 学习算法 设归一化后的期望输出为 y - 1 ,y - 2 ,…,y - m ,误差函 数定义为 ek = (y - k - yk),记 h - jr = ∏ n i = 1 sin(θi(t r) + θij(t r)), hj(t 1 ) = h - j1 ,Sjr = h - 2 jr(1 - 2h 2 j (t r-1 )). ì î í ï ï ï ï 根据梯度下降法,隐层旋转角梯度计算式为 ∂ek ∂θij(t r) = - ∑ m k = 1 yk(1 - yk)wjk∏ q s = r+1 (1 - 2h - 2 js)hj(t s-1 )h - 2 jr· (1 - 2h 2 j (t r-1 ))cot (θi(t r) + θij(t r)) /∏ q s = r hj(t s). 输出层连接权梯度为 ∂ek ∂wjk = -yk(1-yk)hj(t q) . 记 x 表示参数向量,v 表示误差向量,J 表示雅 克比矩阵,x、v、J 分别为: x = θ 11(t 1 ) … θ np(t [ q) w11 … wpm ] T , v T = e1 e2 … e [ m ] , J(x) = ∂e1 ∂θ 11(t 1 ) … ∂e1 ∂θ np(t q) ∂e1 ∂w11 … ∂e1 ∂wpm ∂e2 ∂θ 11(t 1 ) … ∂e2 ∂θ np(t q) ∂e2 ∂w11 … ∂e2 ∂wpm ︙ ︙ ︙ ︙ ∂em ∂θ 11(t 1 ) … ∂em ∂θ np(t q) ∂em ∂w11 … ∂em ∂wpm é ë ê ê ê ê ê ê ê ê ê ê ù û ú ú ú ú ú ú ú ú ú ú . 根据 Levenberg⁃Marquardt 算法,QINN 参数调 整的迭代方程为 xt+1 = xt - J T (xt)v(xt) J T (xt)J(xt) + μt I . 式中:t为迭代步数,I为单位矩阵,μt 为一小正数,使 J T (xt)J(xt) + μt I 可逆. 记限定误差为 ε ,限定步数为 max_N,当前误 差 E = max 1≤k≤m (| y - k - yk | ) ,当前步数为 t .若 E ≤ ε 或 第 6 期 肖红,等:量子衍生神经网络模型及其在图像恢复中的应用 ·539·
·540. 智能系统学报 第8卷 t≥maxN,算法终止, ma1-y()1. 4 基于QINN的图像恢复 误差方差:设和y(t)分别表示第l个样本的 4.1 图像恢复基本原理 期望输出和第t次仿真的实际输出.第t次仿真的误 二维图像离散卷积退化模型]为 差方差定义为 gi=f☒hg+ng (3) E(t)= 式中:⑧表示卷积运算符:g∫、写分别是二维 退化图像、原始图像,加性噪声;,是系统点扩散函 以-e1-2Σ= 数PSF(point spread function).式(3)的矩阵形式为 平均方差定义为 g=Hf+n. 式中:g∫、n分别是由gn,形成的MxN维列向 N=1 量,H是M×N维的块循环方阵.图像恢复就是根据 平均步数:设S,S2,…,Sw分别为N次仿真的 式(3)退化模型,从给定的退化图像g得到恢复估 迭代步数,平均步数定义为 计图像了由于系统点扩散函数h:和加性噪声n:均 不易获得精确解析式,因此恢复效果不够理想事实 1∑s 上,在了和g之间隐含着某种未知的映射关系方= 4.4训练结果对比 P(g),神经网络具有非线性映射能力,但BP网络 本仿真将QINN与基于L-M算法的BPNN以及 存在收敛速度慢和逼近能力差的缺点,因此,本文提 Wiener滤波方法对比.训练图像采用256×256大小 出基于量子衍生神经网络的恢复方法, 的Lenna图像,图中高斯噪声的均值均为0,方差分 4.2训练样本构造 别为0.08和0.09. 在退化过程中某点的灰度值与其周围点的距离 (即邻域)密切相关.为了充分考虑邻域影响,采用滑 动窗口提取图像特征.实验表明,3×3的滑动窗口一 般可以得到较好效果,此时g4即为退化图像中某点 的九邻域,可描述为第k个3×3矩阵式输入样本,f 为原始图像中的对应像素点的灰度值,可视为第k (a)原始图像(b)退化仿真图像(c)退化仿真图像 个期望输出样本.上述过程依k值循环即可完成训 图3原始图像和退化仿真图像 练样本的构造, Fig.3 Original image and simulated degraded image 4.3定义评价指标 以图3(a)和图3(b)所示的256×256点阵灰度 设N为仿真次数,L为样本个数,m为输出维 图像,应用3×3滑动窗口可构造254×254个训练样 数.评价指标定义如下 本.根据样本特征,QNN输入节点和序列长度均为 逼近误差:设,2…,和(t),y(),… 3个,输出节点为1个为使对比充分,采用改变隐层 y(t)分别表示第I个样本的期望输出和第t次仿真 节点数的方法,2种网络的隐层分别取30、35、40 的实际输出.最大误差定义为 45、50个节点.限定误差6=0.05,限定步数maxN= 含器照1-水01 1000.L-M算法参数4,=0.01.为增强对比的客观 性,对于隐层节点的每种取值,QINN和BPNN分别 平均误差定义为 训练10次.训练结果对比如表1所示. 表1QNN和BPNN的训练结果对比 Table 1 The comparison of training between QINN and BPNN 隐层 Ena Evt 收敛次数 节点数QINN BPNN QINN BPNN QINN BPNN QINN BPNN QINN BPNN 30 8.336920.07970.90482.81321.48419.5025409 1000 10 0 358.140518.34830.84212.69251.31678.9608 319 1000 10 0 40 8.111018.47610.88592.53121.38568.5315 230 1000 10 0 45 8.000116.76500.79422.19891.30177.5007 218 1000 10 0 507.988917.39450.86122.33011.38247.6668 192 1000 10 0
t≥max_N,算法终止. 4 基于 QINN 的图像恢复 4.1 图像恢复基本原理 二维图像离散卷积退化模型[13]为 gij = f ij hij + nij . (3) 式中: 表示卷积运算符; gij 、 f ij 、 nij 分别是二维 退化图像、原始图像、加性噪声; hij 是系统点扩散函 数 PSF(point spread function).式(3)的矩阵形式为 g =Hf+n. 式中:g、f、n 分别是由 gij、f ij、nij形成的 M×N 维列向 量,H 是 M×N 维的块循环方阵.图像恢复就是根据 式(3)退化模型,从给定的退化图像 g 得到恢复估 计图像 f ^ .由于系统点扩散函数 hij和加性噪声 nij均 不易获得精确解析式,因此恢复效果不够理想.事实 上,在 f ^ 和 g 之间隐含着某种未知的映射关系 f ^ k = φ(gk),神经网络具有非线性映射能力,但 BP 网络 存在收敛速度慢和逼近能力差的缺点,因此,本文提 出基于量子衍生神经网络的恢复方法. 4.2 训练样本构造 在退化过程中某点的灰度值与其周围点的距离 (即邻域)密切相关.为了充分考虑邻域影响,采用滑 动窗口提取图像特征.实验表明,3×3 的滑动窗口一 般可以得到较好效果,此时 gk 即为退化图像中某点 的九邻域,可描述为第 k 个 3×3 矩阵式输入样本,f k 为原始图像中的对应像素点的灰度值,可视为第 k 个期望输出样本.上述过程依 k 值循环即可完成训 练样本的构造. 4.3 定义评价指标 设 N 为仿真次数, L 为样本个数, m 为输出维 数.评价指标定义如下. 逼近误差:设 y - l 1 ,y - l 2 ,…,y - l m 和 y l 1(t),y l 2(t),…, y l m(t) 分别表示第 l 个样本的期望输出和第 t 次仿真 的实际输出.最大误差定义为 Emax = 1 N∑ N t = 1 max 1≤l≤L max 1≤k≤m | y - l k - y l k(t) | . 平均误差定义为 Eavg = 1 N∑ N t = 1 1 L ∑ L l = 1 max 1≤k≤m | y - l k - y l k(t) | . 误差方差:设 y - l 和 y l (t) 分别表示第 l 个样本的 期望输出和第 t 次仿真的实际输出.第 t 次仿真的误 差方差定义为 Evar(t)= 1 L-1 ∑ N t = 1 | y - l k -y l k(t) | - 1 L ∑ L l = 1 | y - l k -y l æ k(t) | è ç ö ø ÷ 2 . 平均方差定义为 Evar = 1 N∑ N t = 1 Evar(t) . 平均步数:设 S1 ,S2 ,…,SN 分别为 N 次仿真的 迭代步数,平均步数定义为 Savg = 1 N∑ N t = 1 St . 4.4 训练结果对比 本仿真将 QINN 与基于 L⁃M 算法的 BPNN 以及 Wiener 滤波方法对比.训练图像采用 256×256 大小 的 Lenna 图像,图中高斯噪声的均值均为 0,方差分 别为 0.08 和 0.09. (a) 原始图像 (b)退化仿真图像(c)退化仿真图像 图 3 原始图像和退化仿真图像 Fig.3 Original image and simulated degraded image 以图 3(a)和图 3(b)所示的 256×256 点阵灰度 图像,应用 3×3 滑动窗口可构造 254×254 个训练样 本.根据样本特征,QINN 输入节点和序列长度均为 3 个,输出节点为 1 个.为使对比充分,采用改变隐层 节点数的方法,2 种网络的隐层分别取 30、35、40、 45、50 个节点.限定误差 ε = 0.05,限定步数 max_N = 1 000.L⁃M 算法参数 μt = 0.01.为增强对比的客观 性,对于隐层节点的每种取值,QINN 和 BPNN 分别 训练 10 次.训练结果对比如表 1 所示. 表 1 QINN 和 BPNN 的训练结果对比 Table 1 The comparison of training between QINN and BPNN 隐层 节点数 Emax QINN BPNN Eavg QINN BPNN Evar QINN BPNN Savg QINN BPNN 收敛次数 QINN BPNN 30 8.336 9 20.079 7 0.904 8 2.813 2 1.484 1 9.502 5 409 100 0 10 0 35 8.140 5 18.348 3 0.842 1 2.692 5 1.316 7 8.960 8 319 100 0 10 0 40 8.111 0 18.476 1 0.885 9 2.531 2 1.385 6 8.531 5 230 100 0 10 0 45 8.000 1 16.765 0 0.794 2 2.198 9 1.301 7 7.500 7 218 100 0 10 0 50 7.988 9 17.394 5 0.861 2 2.330 1 1.382 4 7.666 8 192 100 0 10 0 ·540· 智 能 系 统 学 报 第 8 卷
第6期 肖红,等:量子衍生神经网络模型及其在图像恢复中的应用 ·541. 训练结果表明,QNN的逼近能力明显优于 神经元.因此QNN在结构上等同于一种特殊形式的 BPNN.下面考察QNN和BPNN经训练后对模糊图 3层前馈神经网络」 像的恢复能力, 2)从学习算法看,当4,较大时,L-M算法接近于 4.5恢复结果对比 如下有小的学习速度的最速下降算法X,+1=X,- 以图3(c)为输入图像,首先用3×3活动窗口构 J(X,)V(X,)/u,=X,-7E(X,),,而当u,较小 造图3(c)的输入样本,然后分别用QINN、BPNN和 时,LM算法接近于高斯牛顿算法,该算法较标准牛 Wiener滤波方法实施图像恢复,其中QINN和BPNN 顿算法的优点是不需要计算二阶导数根据最优化理 隐层均取40个节点,恢复效果对比如图4所示.恢 论,最速下降法和牛顿法均可用于神经网络训练,实 复后图像与原始图像之间的均方误差和峰值信噪比 质上是误差反向传播算法中参数调整量2种具体的 对比如表2所示。 计算形式,区别在于牛顿法比最速下降法收敛速度 快,但梯度计算较为复杂.因此,L-M算法兼有最速下 降法和牛顿法的优点,从而采用L-M算法的QNN本 质上也是一种误差反向传播神经网络,但又比基于最 速下降法的BP网络有更快的收敛速度, 3)从信息处理方式看,QINN和BPNN对输入信 (a)QINN (b)BPNN (c)Wiener滤波 息采取了完全不同的处理方式.QNN直接接收离散 图4恢复效果对比 序列,利用量子信息处理机制,将输入序列中的数据 Fig.4 The comparison of recovery effect 循环地映射为隐层量子受控非门的输出,由于量子 受控非门的输出处于多量子比特的纠缠态,所以这 表23种方法的恢复指标对比 种映射具有高度的非线性.从QNN算法可以看出, Table 2 Restoration index comparison of three methods 输入节点可视为模式记忆的宽度,而离散序列长度 方法 均方误差 峰值信噪比 可以视为模式记忆的深度,当宽度和深度相等时, QINN 6.7760 91.6914 QNN可同时从宽度和深度两方面记忆模式信息,即 BPNN 9.0561 88.7909 QNN可以从多维度和对每一维实施强化记忆两方 Wiener 9.3456 88.4762 面高效地获取样本信息,又由于采用了高效的L-M 学习算法,从而使QNN具有强大的非线性映射能 从表2可以看出,与BPNN和Wiener比较, 力,并呈现出明显优于BPNN的性能.由于BPNN只 QNN具有更高的峰值信噪比和更小的均方误差,其 能接收几何点式的向量输入,即只能以宽度方式而 恢复效果更好。 不能以深度方式获取样本信息,因此在BPNN的信 关于QINN的优越性,给出如下理论分析. 息处理过程中,不可避免地存在样本信息的丢失,从 1)从网络模型及运算关系看,QNN隐层输出可 而使逼近能力受到影响 重写为 5结束语 与==层+1-2球G).(4 本文提出了一种量子衍生神经网络模型及算 由五n=Π-1sin(0(t,)+0m(t,))知,五n为旋转角 法.该模型可直接接收矩阵式的序列输入,并可从宽 度的正余弦函数;由式(4)知,h,(t,)为h,的复合函 度和深度两方面获取模式信息.图像恢复仿真结果 数;h:=h,(tn)为hn和h,(t,)的复合函数;因此h,= 揭示出量子受控非门的信息处理机制,可以有效提 h,(t,)也为旋转角度正余弦函数的复合函数,简记为 高网络的逼近能力及泛化能力.有关QINN的计算复 h,=f(·).由于正余弦函数及其复合函数均连续可 杂性是值得进一步深入研究的问题, 微,所以h=f(·)连续可微;由于h为目标比特处 参考文献: 于状态11〉的概率幅,所以-1≤h,≤1,即h=f(·)有 [1TSOI A C.Locally recurrent globally feed forward networks: 界.因此量子神经元可视为传统神经元在激励函数、 a critical review of architectures[J].IEEE Transactions on 聚合方式两方面的推广,即将传统的Sigmoid函数改 Neural Networks,1994,7(5):229-239. 为(·),而将对实值输入向量的加权聚合改为对输 [2]KAK S.On quantum neural computing[J].Information Sci- 入量子比特实施相位移动.QNN的输出层就是普通 ences,1995,83(3):143-160
训练结果表明, QINN 的逼近能力明显优于 BPNN.下面考察 QINN 和 BPNN 经训练后对模糊图 像的恢复能力. 4.5 恢复结果对比 以图 3(c)为输入图像,首先用 3×3 活动窗口构 造图 3(c)的输入样本,然后分别用 QINN、BPNN 和 Wiener 滤波方法实施图像恢复,其中 QINN 和 BPNN 隐层均取 40 个节点,恢复效果对比如图 4 所示.恢 复后图像与原始图像之间的均方误差和峰值信噪比 对比如表 2 所示. (a)QINN (b)BPNN (c)Wiener 滤波 图 4 恢复效果对比 Fig.4 The comparison of recovery effect 表 2 3 种方法的恢复指标对比 Table 2 Restoration index comparison of three methods 方法 均方误差 峰值信噪比 QINN 6.776 0 91.691 4 BPNN 9.056 1 88.790 9 Wiener 9.345 6 88.476 2 从表 2 可以看出, 与 BPNN 和 Wiener 比较, QINN 具有更高的峰值信噪比和更小的均方误差,其 恢复效果更好. 关于 QINN 的优越性,给出如下理论分析. 1)从网络模型及运算关系看,QINN 隐层输出可 重写为 hj = hj(t q) = h - 2 j1 + ∑ q-1 r = 1 h - 2 j,r+1(1 - 2h 2 j (t r)) . (4) 由 h - jr =∏n i = 1 sin(θi(t r) +θij( t r))知,h - jr为旋转角 度的正余弦函数;由式(4)知,hj( t r )为 h - jr的复合函 数;hj = hj( t q ) 为 h - jr 和 hj( t r ) 的复合函数;因此hj = hj(t q)也为旋转角度正余弦函数的复合函数,简记为 hj = f(·).由于正余弦函数及其复合函数均连续可 微,所以 hj = f(·)连续可微;由于 hj 为目标比特处 于状态| 1〉的概率幅,所以-1≤hj≤1,即hj = f(·)有 界.因此量子神经元可视为传统神经元在激励函数、 聚合方式两方面的推广,即将传统的 Sigmoid 函数改 为 f(·) ,而将对实值输入向量的加权聚合改为对输 入量子比特实施相位移动.QINN 的输出层就是普通 神经元.因此 QINN 在结构上等同于一种特殊形式的 3 层前馈神经网络. 2)从学习算法看,当 μt 较大时,L⁃M 算法接近于 如下有小的学习速度的最速下降算法 Xt+1 ≅ Xt - J T (Xt)V(Xt) / μt = Xt - ÑE(Xt) / μt ,而当 μt 较小 时,L⁃M 算法接近于高斯牛顿算法,该算法较标准牛 顿算法的优点是不需要计算二阶导数.根据最优化理 论,最速下降法和牛顿法均可用于神经网络训练,实 质上是误差反向传播算法中参数调整量 2 种具体的 计算形式,区别在于牛顿法比最速下降法收敛速度 快,但梯度计算较为复杂.因此,L⁃M 算法兼有最速下 降法和牛顿法的优点,从而采用 L⁃M 算法的 QINN 本 质上也是一种误差反向传播神经网络,但又比基于最 速下降法的 BP 网络有更快的收敛速度. 3)从信息处理方式看,QINN 和 BPNN 对输入信 息采取了完全不同的处理方式.QINN 直接接收离散 序列,利用量子信息处理机制,将输入序列中的数据 循环地映射为隐层量子受控非门的输出,由于量子 受控非门的输出处于多量子比特的纠缠态,所以这 种映射具有高度的非线性.从 QINN 算法可以看出, 输入节点可视为模式记忆的宽度,而离散序列长度 可以视为模式记忆的深度,当宽度和深度相等时, QINN 可同时从宽度和深度两方面记忆模式信息,即 QINN 可以从多维度和对每一维实施强化记忆两方 面高效地获取样本信息,又由于采用了高效的 L⁃M 学习算法,从而使 QINN 具有强大的非线性映射能 力,并呈现出明显优于 BPNN 的性能.由于 BPNN 只 能接收几何点式的向量输入,即只能以宽度方式而 不能以深度方式获取样本信息,因此在 BPNN 的信 息处理过程中,不可避免地存在样本信息的丢失,从 而使逼近能力受到影响. 5 结束语 本文提出了一种量子衍生神经网络模型及算 法.该模型可直接接收矩阵式的序列输入,并可从宽 度和深度两方面获取模式信息.图像恢复仿真结果 揭示出量子受控非门的信息处理机制,可以有效提 高网络的逼近能力及泛化能力.有关 QINN 的计算复 杂性是值得进一步深入研究的问题. 参考文献: [1]TSOI A C. Locally recurrent globally feed forward networks: a critical review of architectures[ J]. IEEE Transactions on Neural Networks, 1994, 7(5): 229⁃239. [2]KAK S. On quantum neural computing[ J]. Information Sci⁃ ences, 1995, 83(3): 143⁃160. 第 6 期 肖红,等:量子衍生神经网络模型及其在图像恢复中的应用 ·541·
.542. 智能系统学报 第8卷 [3 GOPATHY P,NICOLAOS B.Quantum neural networks [10]LI Panchi,LI Shiyong.Learning algorithm and application (QNNs)inherently fuzzy feed forward neural networks[J]. of quantum BP neural networks based on universal quantum IEEE Transactions on Neural Networks,1997,8(3):679- gates[J].Journal of Systems Engineering and Electronics, 693. 2008,19(1):167-174. [4]VENTURA D,TONY M.Quantum associative memory with [11]李盼池.一种量子神经网络模型学习算法及应用[J]. exponential capacity [C]//Proc of the International Joint 控制理论与应用,2009,26(5):531-534. Conference on Neural Networks.[S.1.]USA,1998:509- LI Panchi.Learning algorithm and applications of the quan- 513. tum neural networks model[J].Control Theory and Appli- [5]AJIT N,TAMMY M.Quantum artificial neural network ar- cations,2009,26(5):531-534. chitectures and components [J].Information Sciences, [12]李盼池,宋考平,杨二龙.基于量子门线路的量子神经 2000.128:231-255. 网络模型及算法[J].控制与决策,2012,27(1):143. [6]解光军,庄镇泉.量子神经网络[J].计算机科学,2001, 146. 28(7):1-6. LI Panchi,SONG Kaoping,YANG Erlong.Quantum neu- XIE Guangjun,ZHUANG Zhenquan.Quantum neural net- ral networks model and algorithm based on the quantum works [J].Computer Science,2001,28(7):1-6. gates circuit J].Control and Decision,2012,27(1): [7]解光军,范海秋,操礼程.一种量子神经计算网络模型 143-146. [J].复旦大学学报:自然科学版,2004,43(5):700- 作者简介: 703. 肖红,女,1979年生,副教授,主要 XIE Guangjun,FAN Haiqiu,CAO Licheng.A quantum 研究方向为神经网络和优化算法,发表 neural computational network model[J].Journal of Fudan 学术论文15篇,其中被E检索5篇. University:Natural Science,2004,43(5):700-703. [8]解光军,周典,范海秋.基于量子门组单元的神经网络 及其应用J].系统工程理论与实践,2005,25(5):113 117. 李盼池,男,1969年生,教授,主要 XIE Guangjun,ZHOU Dian,FAN Haiqiu.A neural network 研究方向为量子搜索、量子神经网络、 model based on quantum gates cell and its applications[J]. Systems Engineering-Theory and Practice,2005,25(5): 量子优化算法,发表学术论文60篇,其 中被SCI检索11篇,被EI检索23篇. 113-117. [9]MAEDA M,SUENAGA M,MIY AJIMA H.Qubit neuron ac- cording to quantum circuit for XOR problem[J].Applied Mathematics and Computation,2007,185(2):1015-1025
[3 ] GOPATHY P, NICOLAOS B. Quantum neural networks (QNNs) inherently fuzzy feed forward neural networks[ J]. IEEE Transactions on Neural Networks, 1997, 8(3): 679⁃ 693. [4]VENTURA D, TONY M. Quantum associative memory with exponential capacity [ C] / / Proc of the International Joint Conference on Neural Networks. [ S.l.], USA, 1998: 509⁃ 513. [5]AJIT N, TAMMY M. Quantum artificial neural network ar⁃ chitectures and components [ J ]. Information Sciences, 2000, 128: 231⁃255. [6]解光军, 庄镇泉. 量子神经网络[J]. 计算机科学, 2001, 28(7): 1⁃6. XIE Guangjun, ZHUANG Zhenquan. Quantum neural net⁃ works [J]. Computer Science, 2001, 28(7): 1⁃6. [7]解光军, 范海秋, 操礼程. 一种量子神经计算网络模型 [J]. 复旦大学学报:自然科学版, 2004, 43 ( 5): 700⁃ 703. XIE Guangjun, FAN Haiqiu, CAO Licheng. A quantum neural computational network model [ J]. Journal of Fudan University: Natural Science, 2004, 43(5): 700⁃703. [8]解光军, 周典, 范海秋. 基于量子门组单元的神经网络 及其应用[J]. 系统工程理论与实践, 2005, 25(5): 113⁃ 117. XIE Guangjun, ZHOU Dian, FAN Haiqiu. A neural network model based on quantum gates cell and its applications[ J]. Systems Engineering-Theory and Practice, 2005, 25( 5): 113⁃117. [9]MAEDA M, SUENAGA M, MIYAJIMA H. Qubit neuron ac⁃ cording to quantum circuit for XOR problem [ J]. Applied Mathematics and Computation, 2007, 185(2): 1015⁃1025. [10]LI Panchi, LI Shiyong. Learning algorithm and application of quantum BP neural networks based on universal quantum gates[J]. Journal of Systems Engineering and Electronics, 2008, 19(1): 167⁃174. [11]李盼池. 一种量子神经网络模型学习算法及应用[ J]. 控制理论与应用, 2009, 26(5): 531⁃534. LI Panchi. Learning algorithm and applications of the quan⁃ tum neural networks model[ J]. Control Theory and Appli⁃ cations, 2009, 26(5): 531⁃534. [12]李盼池, 宋考平, 杨二龙. 基于量子门线路的量子神经 网络模型及算法[ J].控制与决策, 2012, 27( 1): 143⁃ 146. LI Panchi, SONG Kaoping, YANG Erlong. Quantum neu⁃ ral networks model and algorithm based on the quantum gates circuit [ J]. Control and Decision, 2012, 27 ( 1): 143⁃146. 作者简介: 肖红,女,1979 年生,副教授,主要 研究方向为神经网络和优化算法,发表 学术论文 15 篇,其中被 EI 检索 5 篇. 李盼池,男,1969 年生,教授,主要 研究方向为量子搜索、量子神经网络、 量子优化算法,发表学术论文 60 篇,其 中被 SCI 检索 11 篇,被 EI 检索 23 篇. ·542· 智 能 系 统 学 报 第 8 卷