正在加载图片...
第2期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预 ·371· (P.D)minllX-DPX+f(D.P.X,Y) (3) 本;Px.和Px,是训练样本x和x,在分析字典P 式中:fD,P,X,Y)表示判别函数。D和P是一个 的投影,即分析编码系数。 字典对:分析字典P用于编码X,综合字典D用 在大多数图正则项,都是对数据集构建近邻 于重构X。学习一个结构综合字典D=[D 图,用图的边的权值表示数据之间的关联度。 D4…Dx]和结构分析字典P=[P…P…PJ,其 但是本文利用样本总数去平衡类内和类间的距 中{D,P}是第k类的子字典对。对于分析字典 离,已经证明能够提高在字典上的编码系数的判 P使其满足第i(i≠k)类样本在第k类的子字典 别能力),因此,本文中相似度矩阵S是依据x P上的投影系数为空,即PX:≈O,k≠i,也就是 和x,的标签保证相应系数之间的相似性。用 编码系数矩阵PX接近块正交。对于合成字典 训练集构建近邻图,用标签信息判读样本是否近 D,使其子字典D与投影编码矩阵PX能够很好 邻。如果x和x标签相同,则为近邻,相似度为 的重构样本X,要求字典对有最小的重构误差: Sw=l/m,;如果x和x,标签不同,则不近邻,相 似度为Sm=-1/n-n)。相似度矩阵S的第u行 吧∑X-DP (4) v列的元素为: k=1 因此,DPL模型的目标函数可以写为: Su= 1/no 1x)=1(x) -1/(n-nx).otherwise (7 B,D1=吧X-DPX形+PX (5) 式中:1(x)和(x)表示的是样本x和x,的类标 s.tld,l≤1 签;n)是训练样本中标签为1(x)的样本总数。 式中:x是X在整个训练集中的补集;是一个 矩阵L=C-S,其中C=diag{c1,c2,…,cn}是对角矩 标准常量;4,是合成字典的第i个原子。 阵,且cm=∑=imo 在DPL算法的基础上,构建近邻图保持原始 2图正则化字典对学习 图像间的近邻关系,由此提出了图正则化字典对 字典对学习只考虑图像的重构误差和不同类 学习(GDPL)算法。GDPL算法的目标函数可写为: 的分析字典和样本的投影系数尽可能的小,没有 考虑原始样本的近邻几何结构,引入图正则化, P,D1=ag吧∑X-DPX形+APX)+ k=1 使低维表示能够保留原始样本的近邻结构。 2.1图正则化字典对学习 22r- (8) 在流形学习中,假设两个高维空间的相邻的 式中:入和B是平衡因子,在公式(9)中的第1项 两点,在其对应的低维空间仍保持其在高维空间 是重构误差项,重构误差项尽可能的小,使重构 的几何近邻拓扑关系。为了使样本之间可区分, 出来的图像与原图像尽可能的接近。是X在 并同时保持原始图像的几何近邻结构,且使同类 整个训练样本上的补集,第2项是第K类以外的 样本在分析字典P上的投影系数之间距离小,不 训练样本,在第K类的分析字典上的编码系数尽 同类之间的距离大。对编码系数的图正则项约束 可能小,使编码系数尽可能的稀疏。第3项是图 表示为: 正则项,使图像在字典上的编码系数仍旧保持原 始图像的近邻关系。 (6) =1= 引入变量编码系数A,使A=PX,目标函数可 式中:n是所有样本总数;u和v是第u(w训练样 以写为下面式子: PD=gne∑dK.-DAf+rP,x-A斤+P,R)+I-ap之IPu-PxS =1y= g驴e2aX-nAe+nx-Ae+n+I-oe2(Pe广-2PP+Prs P.D 立a-nAie+nX-Ai+R+I-o2P-22PPs (9 字2a式-aA+P-Ae+4e-0-PXP-Pn8Px arg mina (IX:-D:Af+rlP-A+)+(1-a)Bur(PXLXT P) P.D{P, D} = min P,D ||X− DPX||2 F + f(D, P,X,Y) (3) f(D, P,X,Y) D = [D1 ··· Dk ··· DK] P = [P1 ··· Pk ··· PK] {Dk , Pk} i , k Pk PkXi ≈ 0,∀k , i Dk PkXk Xk 式中: 表示判别函数。D 和 P 是一个 字典对:分析字典 P 用于编码 X,综合字典 D 用 于重构 X。学习一个结构综合字典 和结构分析字典 ,其 中 是第 k 类的子字典对。对于分析字典 P 使其满足第 i ( ) 类样本在第 k 类的子字典 上的投影系数为空,即 ,也就是 编码系数矩阵 PX 接近块正交。对于合成字典 D,使其子字典 与投影编码矩阵 能够很好 的重构样本 ,要求字典对有最小的重构误差: min P,D ∑K k=1 ||Xk − DkPkXk ||2 F (4) 因此,DPL 模型的目标函数可以写为: {P, D} = min P,D ∑K k=1 ||Xk − DkPkXk ||2 F +λ||PkXk ||2 F s.t.||di ||2 2 ⩽ 1 (5) Xk Xk λ di i 式中: 是 在整个训练集中的补集; 是一个 标准常量; 是合成字典的第 个原子。 2 图正则化字典对学习 字典对学习只考虑图像的重构误差和不同类 的分析字典和样本的投影系数尽可能的小,没有 考虑原始样本的近邻几何结构,引入图正则化, 使低维表示能够保留原始样本的近邻结构。 2.1 图正则化字典对学习 在流形学习中,假设两个高维空间的相邻的 两点,在其对应的低维空间仍保持其在高维空间 的几何近邻拓扑关系。为了使样本之间可区分, 并同时保持原始图像的几何近邻结构,且使同类 样本在分析字典 P 上的投影系数之间距离小,不 同类之间的距离大。对编码系数的图正则项约束 表示为: f(X) = ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 2Suv (6) 式中:n 是所有样本总数;u 和 v 是第 u(v) 训练样 本; Pxu 和 Pxv 是训练样本 xu 和 xv 在分析字典 P 的投影,即分析编码系数。 xu xv xu xv Suv = 1/nl(xu) xu xv Suv = −1/(n−nl(xu )) u v 在大多数图正则项,都是对数据集构建近邻 图 [9] ,用图的边的权值表示数据之间的关联度。 但是本文利用样本总数去平衡类内和类间的距 离,已经证明能够提高在字典上的编码系数的判 别能力[12] ,因此,本文中相似度矩阵 S 是依据 和 的标签保证相应系数之间的相似性[12]。用 训练集构建近邻图,用标签信息判读样本是否近 邻。如果 和 标签相同,则为近邻,相似度为 ;如果 和 标签不同,则不近邻,相 似度为 。相似度矩阵 S 的第 行 列的元素为: Suv = { 1/nl(xu ) , l(xu) = l(xv) −1/(n−nl(xu)), otherwise (7) l(xu) l(xv) xu xv nl(xu) l(xu) L = C−S C = diag{c1, c2,··· , cn} cv = ∑ v=1 Suv 式中: 和 表示的是样本 和 的类标 签; 是训练样本中标签为 的样本总数。 矩阵 ,其中 是对角矩 阵,且 。 在 DPL 算法的基础上,构建近邻图保持原始 图像间的近邻关系,由此提出了图正则化字典对 学习 (GDPL) 算法。GDPL 算法的目标函数可写为: {P ∗ ,D ∗ } =argmin P,D ∑K k=1 (||Xk − DkPkXk ||2 F +λ||PkX¯ k ||2 F )+ β ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 2Suv (8) λ β X¯ k Xk 式中: 和 是平衡因子,在公式 (9) 中的第 1 项 是重构误差项,重构误差项尽可能的小,使重构 出来的图像与原图像尽可能的接近。 是 在 整个训练样本上的补集,第 2 项是第 K 类以外的 训练样本,在第 K 类的分析字典上的编码系数尽 可能小,使编码系数尽可能的稀疏。第 3 项是图 正则项,使图像在字典上的编码系数仍旧保持原 始图像的近邻关系。 引入变量编码系数 A ,使 A = PX ,目标函数可 以写为下面式子: {P ∗ ,D ∗ } = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 FSuv = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1   ∑n v=1 ( (Pxu) 2 −2PxuPxv +(Pxv) 2 ) Suv   = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1 cu(Pxu) 2 − ∑n u=1 ∑n v=1 PxuPxvSuv = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β(PX)C(PX) T −(PX)S(PX) T = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)βtr(PXLXT P T ) (9) 第 2 期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·371·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有