第14卷第2期 智能系统学报 Vol.14 No.2 2019年3月 CAAI Transactions on Intelligent Systems Mar.2019 D0:10.11992/tis.201709033 网络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.TP.20180418.0946.006.html 图正则测化字典对学习的轻度认知功能障碍预测 魏彩锋2,孙永聪2,曾宪华2 (1.重庆邮电大学计算机科学与技术学院,重庆400065,2.重庆邮电大学计算智能重庆市重点实验室,重庆 400065) 摘要:针对字典对学习(DPL方法只考虑了同类子字典的重构误差和不同类表示系数的稀疏性,没有考虑图 像间的几何近邻拓扑关系的问题。通过近邻保持使得在同类近邻投影系数之间的距离较小,而不同类投影系 数之间的距离大,能够有效提高字典对学习算法的分类性能,基于此提出了基于几何近邻拓扑关系的图正则化 的字典对学习(GDPL)算法。在ADNII数据集上对轻度认知功能障碍预测的实验表明,使用GDPL算法学习 的编码系数作为特征预测的准确率(ACC)和ROC曲线下的面积(AUC)比使用结合生物标志作为特征预测的 准确率提高了2%6%.使用GDPL算法比DPL算法的实验结果也有提高。 关键词:图正则化:字典对学习;几何近邻关系:图像分类;轻度认知功能障碍预测 中图分类号:TP391:R749 文献标志码:A文章编号:1673-4785(2019)02-0369-09 中文引用格式:魏彩锋,孙永聪,曾宪华.图正则化字典对学习的轻度认知功能障碍预测.智能系统学报,2019,14(2): 369-377. 英文引用格式:VEI Caifeng,SUN Yongcong,ZENG Xianhua..Dictionary pair learning with graph regularization for mild cognit- ive impairment prediction[J.CAAI transactions on intelligent systems,2019,14(2):369-377. Dictionary pair learning with graph regularization for mild cognitive impairment prediction WEI Caifeng,SUN Yongcong,ZENG Xianhua2 (1.College of Computer Science and Technology,Chongqing University of Posts and Telecommunication,Chongqing 400065, China;2.Chongqing Key Laboratory of Computation Intelligence,Chongqing University of Posts and Telecommunications, Chongqing 400065,China) Abstract:Aiming at dictionary pair learning(DPL)methods only consider the reconstruction error of a sub-dictionary from the same class and the sparseness of coefficients from different classes,and do not consider the geometric neigh- borhood topological relationships between images.To improve the classification ability of DPL algorithms,we propose a DPL with graph regularization(GDPL)algorithm based on geometric neighborhood topological relationships.This al- gorithm is based on the idea that keeping the neighborhood relationship makes the distance between the neighborhood projection coefficients of the same kind small,while the distance between projection coefficients of different kinds is large.Experiments on mild cognitive impairment prediction using the ADNII dataset show that the coding coefficient learned from the GDPL algorithm is 2%~6%higher than that which uses the combined biomarker as feature prediction. according to accuracy (ACC)and area under curve (AUC)metrics.Moreover,the experimental result obtained using GDPL is also better than that obtained using DPL algorithm. Keywords:graph regularization;dictionary pair learning;geometric neighborhood relationship;image classification; mild cognitive impairment prediction 目前,多媒体技术飞速发展,图像数量呈指数 级增长,图像分类技术也得到了飞速发展。图像 分类方法主要包括分类器的设计和特征提取两个 收稿日期:2017-09-16.网络出版日期:2018-04-18. 基金项目:国家自然科学基金项目(61672120):重庆市科委基 部分,目前对图像分类的研究主要集中在分类器 础学科和前沿技术研究一般项目(cstc2015 SjcyjA40036, 性能的改进和改善特征提取方法两方面。稀疏编 cstc2014jcyjA40049). 通信作者:曾宪华.E-mail:zengxh@cqupt.cdu.cn. 码(字典学习)0是图像分类的有效技术之一,用
DOI: 10.11992/tis.201709033 网络出版地址: http://kns.cnki.net/kcms/detail/23.1538.TP.20180418.0946.006.html 图正则化字典对学习的轻度认知功能障碍预测 魏彩锋1,2,孙永聪1,2,曾宪华1,2 (1. 重庆邮电大学 计算机科学与技术学院,重庆 400065; 2. 重庆邮电大学 计算智能重庆市重点实验室,重庆 400065) 摘 要:针对字典对学习 (DPL) 方法只考虑了同类子字典的重构误差和不同类表示系数的稀疏性,没有考虑图 像间的几何近邻拓扑关系的问题。通过近邻保持使得在同类近邻投影系数之间的距离较小,而不同类投影系 数之间的距离大,能够有效提高字典对学习算法的分类性能,基于此提出了基于几何近邻拓扑关系的图正则化 的字典对学习 (GDPL) 算法。在 ADNI1 数据集上对轻度认知功能障碍预测的实验表明,使用 GDPL 算法学习 的编码系数作为特征预测的准确率 (ACC) 和 ROC 曲线下的面积 (AUC) 比使用结合生物标志作为特征预测的 准确率提高了 2%~6%,使用 GDPL 算法比 DPL 算法的实验结果也有提高。 关键词:图正则化;字典对学习;几何近邻关系;图像分类;轻度认知功能障碍预测 中图分类号:TP391; R749 文献标志码:A 文章编号:1673−4785(2019)02−0369−09 中文引用格式:魏彩锋, 孙永聪, 曾宪华. 图正则化字典对学习的轻度认知功能障碍预测[J]. 智能系统学报, 2019, 14(2): 369–377. 英文引用格式:WEI Caifeng, SUN Yongcong, ZENG Xianhua. Dictionary pair learning with graph regularization for mild cognitive impairment prediction[J]. CAAI transactions on intelligent systems, 2019, 14(2): 369–377. Dictionary pair learning with graph regularization for mild cognitive impairment prediction WEI Caifeng1,2 ,SUN Yongcong1,2 ,ZENG Xianhua1,2 (1. College of Computer Science and Technology, Chongqing University of Posts and Telecommunication, Chongqing 400065, China; 2. Chongqing Key Laboratory of Computation Intelligence, Chongqing University of Posts and Telecommunications, Chongqing 400065, China) Abstract: Aiming at dictionary pair learning (DPL) methods only consider the reconstruction error of a sub-dictionary from the same class and the sparseness of coefficients from different classes, and do not consider the geometric neighborhood topological relationships between images. To improve the classification ability of DPL algorithms, we propose a DPL with graph regularization (GDPL) algorithm based on geometric neighborhood topological relationships. This algorithm is based on the idea that keeping the neighborhood relationship makes the distance between the neighborhood projection coefficients of the same kind small, while the distance between projection coefficients of different kinds is large. Experiments on mild cognitive impairment prediction using the ADNI1 dataset show that the coding coefficient learned from the GDPL algorithm is 2%~6% higher than that which uses the combined biomarker as feature prediction, according to accuracy (ACC) and area under curve (AUC) metrics. Moreover, the experimental result obtained using GDPL is also better than that obtained using DPL algorithm. Keywords: graph regularization; dictionary pair learning; geometric neighborhood relationship; image classification; mild cognitive impairment prediction 目前,多媒体技术飞速发展,图像数量呈指数 级增长,图像分类技术也得到了飞速发展。图像 分类方法主要包括分类器的设计和特征提取两个 部分,目前对图像分类的研究主要集中在分类器 性能的改进和改善特征提取方法两方面。稀疏编 码 (字典学习) [1-10]是图像分类的有效技术之一,用 收稿日期:2017−09−16. 网络出版日期:2018−04−18. 基金项目:国家自然科学基金项目 (61672120);重庆市科委基 础学科和前沿技术研究一般项目 (cstc2015jcyjA40036, cstc2014jcyjA40049). 通信作者:曾宪华. E-mail:zengxh@cqupt.edu.cn. 第 14 卷第 2 期 智 能 系 统 学 报 Vol.14 No.2 2019 年 3 月 CAAI Transactions on Intelligent Systems Mar. 2019
·370· 智能系统学报 第14卷 于图像分类的字典学习算法也可以分为2类:1)】 文提出的图正则化字典对学习算法用于轻度认知 学习字典把原始图像映射到有利于图像分类的空 功能障碍预测。 间上,用传统的分类器去分类;2)用稀疏系数所 表示出来的样本属性进行分类。 1相关工作 在用于图像分类的字典学习算法中,字典和 1.1字典学习 编码系数的设计从中起着关键作用。基于稀疏 表示的分类算法,将整个训练样本作为字典,利 设X=[X…X…Xx小∈R是一个K类p维的 用测试样本在字典上的重构误差分类。在字典中 训练样本,第k类样本X=[x……xm,X∈R0, 的每个原子都是一个样本,由于样本数量的限 k=1,2,…,K是第k类训练n样本,n=m+2+…+ 制,字典原子中有相同或相似的,还有一些则不 :+…+nx。字典学习模型的分类任务是通过利 包含在内造成分类错误。而Aharon M等提出的 用训练数据的类标签信息学习一个有效的数据表 KSVD算法学习的字典具有自适应性,能够更好 示模型去进行分类。在使用字典学习算法的图像 对信号进行稀疏表示。虽然,使用重构误差作为 分类研究中,如何设计对特征提取有效的字典和 损失函数,可以用于图像分类,但是还有许多因 编码系数是决定算法性能的关键因素四。对于字 素没有考虑到。Yang等提出Fisher字典学习在 典学习算法设计考虑的有三方面:1)稀疏表示残 自适应字典基础上,考虑到相同的样本之间的类 差(重构误差)小,使样本在稀疏表示时尽可能的 内散度较小,类间散度大,在目标函数上加入了 接近原始样本;2)对表示系数约束,使表示系数 识别系数项,提高分类能力。Jiang等提出的 稀疏;3)考虑能够更好提取更多的判别信息的判 LC-KVD算法,在KSVD算法基础上加入了标 别项。用于图像分类的判别字典学习模型672 签约束项。在文献[8]中,由于分别学习特征影射 可通常以表示为: 矩阵和字典,会影响特征影射矩阵的判别信息, minllX-DAl+g(A)+nf(D.A,Y) (1) 提出了同时学习投影矩阵和字典,为了能够提取 式中:、n是常量(平衡因子):Y是样本X的标签 更多的判别信息,加入图正则项。构建近邻图, 向量;D是学习的综合字典;A是X在综合字典D 近邻且同类相似度为1,近邻但不同类相似度为 上的编码系数矩阵。在训练模型时,数据保真项 -1,其他为0。在文献[9]中图正则化中的相似度 X-DA是为了保证字典D的表示能力,使训 矩阵定义为两近邻样本的相似度为两样本之间的 练数据的重构误差最小,重构出来的图像尽可能 欧氏距离,不近邻样本之间的相似度为0。使用 的接近原始样本。正则项用于约束编码系数的稀 不同的相似矩阵,分类效果也不同。另一方面, 由于字典学习大多是使用编码系数的0或1范 疏性,其通常应用范数表示为: 3(A)=IIAllp (2) 数作正则项,在训练和测试阶段效率较低,运行 时间长。2014年在NIPS上Gu等1提出了字典 式中:I•是编码系数A正则项的常用形式(p<2), 对学习,联合学习一个综合字典和分析字典,用 使编码系数A在重建误差满足要求的情况下尽 分析字典去分析编码,由于综合字典的重构效果 可能地稀疏。f(D,A,Y)是字典学习用于分类的判 比较好,使用综合字典去重构图像。它不仅减少 别函数项,保证D和A的判别能力。 了在训练和测试阶段的时间复杂度,也提高了模 1.2字典对学习 型的分类能力。但是,字典对学习模型没有考虑 在1.1中描述的判别式字典学习模型是学习 图像的几何近邻拓扑关系。为了提高模型的分类 一个共享字典,对系数的约束都是使用或者是 能力,基于同类样本的系数之间的距离小,不同 1,范数对编码系数进行系数正则化约束,使训练 类系数之间的距离大的思想,提出了基于图正则 模型在训练阶段和测试阶段效率降低。Gu等u 化字典对学习(GDPL)算法。 为了提高模型在训练阶段和测试阶段的效率和整 在最近的综合研究中,用十倍交叉验证的 体的识别能力,提出了联合学习一个综合字典和 方法评估轻度认知功能障碍(MC)到阿尔兹海默 分析字典的字典对学习(DPL),不使用或者是1 症(AD)的预测,只有4种方法的实验结果比随机 范数对编码系数进行稀疏正则化,而是找到一个 分类的结果好,因此,提出新的方法提高MCI- 分析字典P,使训练样本X在分析字典P上线性 AD的预测是十分必要的。在图像分类中,并不 投影得出编码系数A,即A=PX保持稀疏性,重 是所有的特征都与识别分类有关,其中有一些是 建误差与判别约束保证下使训练样本X的稀疏 无关特征,将这些特征用于分类会出现过拟合现 表示变的更加有效且解决了out-of-sample问题。 象。由于稀疏表示中表示系数具有稀疏性,将本 字典对模型描述表示如下:
于图像分类的字典学习算法也可以分为 2 类:1) 学习字典把原始图像映射到有利于图像分类的空 间上,用传统的分类器去分类;2) 用稀疏系数所 表示出来的样本属性进行分类。 在用于图像分类的字典学习算法中,字典和 编码系数的设计从中起着关键作用[3]。基于稀疏 表示的分类算法[4] ,将整个训练样本作为字典,利 用测试样本在字典上的重构误差分类。在字典中 的每个原子都是一个样本,由于样本数量的限 制,字典原子中有相同或相似的,还有一些则不 包含在内造成分类错误。而 Aharon M 等提出的 KSVD 算法[5]学习的字典具有自适应性,能够更好 对信号进行稀疏表示。虽然,使用重构误差作为 损失函数,可以用于图像分类,但是还有许多因 素没有考虑到。Yang 等 [6]提出 Fisher 字典学习在 自适应字典基础上,考虑到相同的样本之间的类 内散度较小,类间散度大,在目标函数上加入了 识别系数项,提高分类能力。Jiang 等 [7]提出的 LC-KVD 算法,在 KSVD 算法[5]基础上加入了标 签约束项。在文献[8]中,由于分别学习特征影射 矩阵和字典,会影响特征影射矩阵的判别信息, 提出了同时学习投影矩阵和字典,为了能够提取 更多的判别信息,加入图正则项。构建近邻图, 近邻且同类相似度为 1,近邻但不同类相似度为 −1,其他为 0。在文献[9]中图正则化中的相似度 矩阵定义为两近邻样本的相似度为两样本之间的 欧氏距离,不近邻样本之间的相似度为 0。使用 不同的相似矩阵,分类效果也不同。另一方面, 由于字典学习[3-9]大多是使用编码系数的 0 或 1 范 数作正则项,在训练和测试阶段效率较低,运行 时间长。2014 年在 NIPS 上 Gu 等 [10]提出了字典 对学习,联合学习一个综合字典和分析字典,用 分析字典去分析编码,由于综合字典的重构效果 比较好,使用综合字典去重构图像。它不仅减少 了在训练和测试阶段的时间复杂度,也提高了模 型的分类能力。但是,字典对学习模型没有考虑 图像的几何近邻拓扑关系。为了提高模型的分类 能力,基于同类样本的系数之间的距离小,不同 类系数之间的距离大的思想,提出了基于图正则 化字典对学习 (GDPL) 算法。 在最近的综合研究[11]中,用十倍交叉验证的 方法评估轻度认知功能障碍 (MCI) 到阿尔兹海默 症 (AD) 的预测,只有 4 种方法的实验结果比随机 分类的结果好,因此,提出新的方法提高 MCIAD 的预测是十分必要的。在图像分类中,并不 是所有的特征都与识别分类有关,其中有一些是 无关特征,将这些特征用于分类会出现过拟合现 象。由于稀疏表示中表示系数具有稀疏性,将本 文提出的图正则化字典对学习算法用于轻度认知 功能障碍预测。 1 相关工作 1.1 字典学习 X = [X1 ··· Xk ··· XK] ∈ R p×n Xk = [x1 ··· xi ··· xnk ] Xk ∈ R p×nk , k = 1,2,··· ,K nk n = n1 +n2 +···+ nk +···+nK 设 是一个 K 类 p 维的 训练样本,第 k类样本 , 是第 k 类训练 样本, 。字典学习模型的分类任务是通过利 用训练数据的类标签信息学习一个有效的数据表 示模型去进行分类。在使用字典学习算法的图像 分类研究中,如何设计对特征提取有效的字典和 编码系数是决定算法性能的关键因素[1]。对于字 典学习算法设计考虑的有三方面:1) 稀疏表示残 差 (重构误差) 小,使样本在稀疏表示时尽可能的 接近原始样本;2) 对表示系数约束,使表示系数 稀疏;3) 考虑能够更好提取更多的判别信息的判 别项。用于图像分类的判别字典学习模型[6-7, 12-13] 可通常以表示为: min D,A ||X− DA||2 F +λg(A)+η f(D, A,Y) (1) λ、η ||X− DA||2 F 式中: 是常量 (平衡因子);Y 是样本 X 的标签 向量;D 是学习的综合字典;A 是 X 在综合字典 D 上的编码系数矩阵。在训练模型时,数据保真项 是为了保证字典 D 的表示能力,使训 练数据的重构误差最小,重构出来的图像尽可能 的接近原始样本。正则项用于约束编码系数的稀 疏性,其通常应用范数表示为: g(A) = ||A||p (2) || • ||p p < 2 f(D, A,Y) 式中: 是编码系数 A 正则项的常用形式 ( ), 使编码系数 A 在重建误差满足要求的情况下尽 可能地稀疏。 是字典学习用于分类的判 别函数项,保证 D 和 A 的判别能力。 1.2 字典对学习 l0 l1 l0 l1 在 1.1 中描述的判别式字典学习模型是学习 一个共享字典,对系数的约束都是使用 或者是 范数对编码系数进行系数正则化约束,使训练 模型在训练阶段和测试阶段效率降低。Gu 等 [10] 为了提高模型在训练阶段和测试阶段的效率和整 体的识别能力,提出了联合学习一个综合字典和 分析字典的字典对学习 (DPL),不使用 或者是 范数对编码系数进行稀疏正则化,而是找到一个 分析字典 P,使训练样本 X 在分析字典 P 上线性 投影得出编码系数 A,即 A = PX 保持稀疏性,重 建误差与判别约束保证下使训练样本 X 的稀疏 表示变的更加有效且解决了 out-of-sample 问题。 字典对模型描述表示如下: ·370· 智 能 系 统 学 报 第 14 卷
第2期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预 ·371· (P.D)minllX-DPX+f(D.P.X,Y) (3) 本;Px.和Px,是训练样本x和x,在分析字典P 式中:fD,P,X,Y)表示判别函数。D和P是一个 的投影,即分析编码系数。 字典对:分析字典P用于编码X,综合字典D用 在大多数图正则项,都是对数据集构建近邻 于重构X。学习一个结构综合字典D=[D 图,用图的边的权值表示数据之间的关联度。 D4…Dx]和结构分析字典P=[P…P…PJ,其 但是本文利用样本总数去平衡类内和类间的距 中{D,P}是第k类的子字典对。对于分析字典 离,已经证明能够提高在字典上的编码系数的判 P使其满足第i(i≠k)类样本在第k类的子字典 别能力),因此,本文中相似度矩阵S是依据x P上的投影系数为空,即PX:≈O,k≠i,也就是 和x,的标签保证相应系数之间的相似性。用 编码系数矩阵PX接近块正交。对于合成字典 训练集构建近邻图,用标签信息判读样本是否近 D,使其子字典D与投影编码矩阵PX能够很好 邻。如果x和x标签相同,则为近邻,相似度为 的重构样本X,要求字典对有最小的重构误差: Sw=l/m,;如果x和x,标签不同,则不近邻,相 似度为Sm=-1/n-n)。相似度矩阵S的第u行 吧∑X-DP (4) v列的元素为: k=1 因此,DPL模型的目标函数可以写为: Su= 1/no 1x)=1(x) -1/(n-nx).otherwise (7 B,D1=吧X-DPX形+PX (5) 式中:1(x)和(x)表示的是样本x和x,的类标 s.tld,l≤1 签;n)是训练样本中标签为1(x)的样本总数。 式中:x是X在整个训练集中的补集;是一个 矩阵L=C-S,其中C=diag{c1,c2,…,cn}是对角矩 标准常量;4,是合成字典的第i个原子。 阵,且cm=∑=imo 在DPL算法的基础上,构建近邻图保持原始 2图正则化字典对学习 图像间的近邻关系,由此提出了图正则化字典对 字典对学习只考虑图像的重构误差和不同类 学习(GDPL)算法。GDPL算法的目标函数可写为: 的分析字典和样本的投影系数尽可能的小,没有 考虑原始样本的近邻几何结构,引入图正则化, P,D1=ag吧∑X-DPX形+APX)+ k=1 使低维表示能够保留原始样本的近邻结构。 2.1图正则化字典对学习 22r- (8) 在流形学习中,假设两个高维空间的相邻的 式中:入和B是平衡因子,在公式(9)中的第1项 两点,在其对应的低维空间仍保持其在高维空间 是重构误差项,重构误差项尽可能的小,使重构 的几何近邻拓扑关系。为了使样本之间可区分, 出来的图像与原图像尽可能的接近。是X在 并同时保持原始图像的几何近邻结构,且使同类 整个训练样本上的补集,第2项是第K类以外的 样本在分析字典P上的投影系数之间距离小,不 训练样本,在第K类的分析字典上的编码系数尽 同类之间的距离大。对编码系数的图正则项约束 可能小,使编码系数尽可能的稀疏。第3项是图 表示为: 正则项,使图像在字典上的编码系数仍旧保持原 始图像的近邻关系。 (6) =1= 引入变量编码系数A,使A=PX,目标函数可 式中:n是所有样本总数;u和v是第u(w训练样 以写为下面式子: PD=gne∑dK.-DAf+rP,x-A斤+P,R)+I-ap之IPu-PxS =1y= g驴e2aX-nAe+nx-Ae+n+I-oe2(Pe广-2PP+Prs P.D 立a-nAie+nX-Ai+R+I-o2P-22PPs (9 字2a式-aA+P-Ae+4e-0-PXP-Pn8Px arg mina (IX:-D:Af+rlP-A+)+(1-a)Bur(PXLXT P) P.D
{P, D} = min P,D ||X− DPX||2 F + f(D, P,X,Y) (3) f(D, P,X,Y) D = [D1 ··· Dk ··· DK] P = [P1 ··· Pk ··· PK] {Dk , Pk} i , k Pk PkXi ≈ 0,∀k , i Dk PkXk Xk 式中: 表示判别函数。D 和 P 是一个 字典对:分析字典 P 用于编码 X,综合字典 D 用 于重构 X。学习一个结构综合字典 和结构分析字典 ,其 中 是第 k 类的子字典对。对于分析字典 P 使其满足第 i ( ) 类样本在第 k 类的子字典 上的投影系数为空,即 ,也就是 编码系数矩阵 PX 接近块正交。对于合成字典 D,使其子字典 与投影编码矩阵 能够很好 的重构样本 ,要求字典对有最小的重构误差: min P,D ∑K k=1 ||Xk − DkPkXk ||2 F (4) 因此,DPL 模型的目标函数可以写为: {P, D} = min P,D ∑K k=1 ||Xk − DkPkXk ||2 F +λ||PkXk ||2 F s.t.||di ||2 2 ⩽ 1 (5) Xk Xk λ di i 式中: 是 在整个训练集中的补集; 是一个 标准常量; 是合成字典的第 个原子。 2 图正则化字典对学习 字典对学习只考虑图像的重构误差和不同类 的分析字典和样本的投影系数尽可能的小,没有 考虑原始样本的近邻几何结构,引入图正则化, 使低维表示能够保留原始样本的近邻结构。 2.1 图正则化字典对学习 在流形学习中,假设两个高维空间的相邻的 两点,在其对应的低维空间仍保持其在高维空间 的几何近邻拓扑关系。为了使样本之间可区分, 并同时保持原始图像的几何近邻结构,且使同类 样本在分析字典 P 上的投影系数之间距离小,不 同类之间的距离大。对编码系数的图正则项约束 表示为: f(X) = ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 2Suv (6) 式中:n 是所有样本总数;u 和 v 是第 u(v) 训练样 本; Pxu 和 Pxv 是训练样本 xu 和 xv 在分析字典 P 的投影,即分析编码系数。 xu xv xu xv Suv = 1/nl(xu) xu xv Suv = −1/(n−nl(xu )) u v 在大多数图正则项,都是对数据集构建近邻 图 [9] ,用图的边的权值表示数据之间的关联度。 但是本文利用样本总数去平衡类内和类间的距 离,已经证明能够提高在字典上的编码系数的判 别能力[12] ,因此,本文中相似度矩阵 S 是依据 和 的标签保证相应系数之间的相似性[12]。用 训练集构建近邻图,用标签信息判读样本是否近 邻。如果 和 标签相同,则为近邻,相似度为 ;如果 和 标签不同,则不近邻,相 似度为 。相似度矩阵 S 的第 行 列的元素为: Suv = { 1/nl(xu ) , l(xu) = l(xv) −1/(n−nl(xu)), otherwise (7) l(xu) l(xv) xu xv nl(xu) l(xu) L = C−S C = diag{c1, c2,··· , cn} cv = ∑ v=1 Suv 式中: 和 表示的是样本 和 的类标 签; 是训练样本中标签为 的样本总数。 矩阵 ,其中 是对角矩 阵,且 。 在 DPL 算法的基础上,构建近邻图保持原始 图像间的近邻关系,由此提出了图正则化字典对 学习 (GDPL) 算法。GDPL 算法的目标函数可写为: {P ∗ ,D ∗ } =argmin P,D ∑K k=1 (||Xk − DkPkXk ||2 F +λ||PkX¯ k ||2 F )+ β ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 2Suv (8) λ β X¯ k Xk 式中: 和 是平衡因子,在公式 (9) 中的第 1 项 是重构误差项,重构误差项尽可能的小,使重构 出来的图像与原图像尽可能的接近。 是 在 整个训练样本上的补集,第 2 项是第 K 类以外的 训练样本,在第 K 类的分析字典上的编码系数尽 可能小,使编码系数尽可能的稀疏。第 3 项是图 正则项,使图像在字典上的编码系数仍旧保持原 始图像的近邻关系。 引入变量编码系数 A ,使 A = PX ,目标函数可 以写为下面式子: {P ∗ ,D ∗ } = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1 ∑n v=1 ||Pxu − Pxv ||2 FSuv = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1 ∑n v=1 ( (Pxu) 2 −2PxuPxv +(Pxv) 2 ) Suv = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β ∑n u=1 cu(Pxu) 2 − ∑n u=1 ∑n v=1 PxuPxvSuv = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)β(PX)C(PX) T −(PX)S(PX) T = argmin P,D α ∑K k=1 (||Xk − DkAk ||2 F +τ||PkXk − Ak ||2 F +λ||PkX¯ k ||2 F )+(1−α)βtr(PXLXT P T ) (9) 第 2 期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·371·
·372· 智能系统学报 第14卷 式中:r()表示矩阵的迹。矩阵L=C-S,C= 对S求导: diag{c1,c2,…,cn}该对角矩阵的对角元素是S的行 0 =-2p(D+T)+2pSe (列)的元素之和。 aSk 2.2图正则化字典对学习 o =0得: OSk 在流形学习中,假设两个高维空间的相邻的 S&=DD+T (15) 两随机初始化分析字典P和综合字典D,之后, 2.3图正则化字典对学习训练算法 迭代更新编码系数A和{P,D。 由于算法中的图正则项,需要先用训练样本 1)固定综合字典D和分析字典P,更新编 构建近邻图,计算出相似矩阵S和拉普拉斯矩阵 码系数A,由于含有A:的式子前面有相同的系 L。利用目标函数优化过程进行迭代更新,学习 数α,在计算的过程中可以消去,所以可以利用 字典对P,D。图正则化字典对学习算法的训练 式(10)解出A: 过程在算法1中详细描述。 Ak=(DID:+D(DIX:+TPX) (10) 算法1GDPL训练算法 2)固定编码系数Ak,更新综合字典D和分 输入训练样本X=[X1X2…Xx],训练样本 析字典Po 标签信息Y=[YY2…Y,参数α,x,B,子字典原 子数m。最大迭代次数max。 =agma2PX-A+P,X眼 P 1)利用样本标签信息构建近邻图。根据样本 Bu(PXLXP!) (11) 标签信息判断样本是否为近邻点。若x和x,标 D,=argmina∑IX-DAf 签相同,则为近邻点,相似度S=1/m:若x和x k=1 标签不相同,则不是近邻点,相似度S=-1/n-n s.tld服≤1 对角矩阵C=diag{c,c2,…,cn},其中c,=∑=1Sw, 对P封闭求解,即 拉普拉斯矩阵L=C-S。 P.=argmgnaP 2)初始化:随机生成综合字典D。和分析字 k=1 典Po,迭代次数t=0。 (1-a)Btr(PXLXTPE) 3)For i=1:K 对P求导,得 While未收敛(具体的在收敛性分析中)执行 -2P.(rrX.Xj+alS8+ 下面步骤: aP (1-a)BXLXT +yD-2aTAXI 1)固定字典Dk和P,由目标函数中含有A 令品0科 的式子求解得出式(10),根据式(10),更新编码系 数A; Pi=QTA XI(QTX XI+a XX+ (12) 2)固定编码系数Ak,由式(11)中Dk使用 yI+(1-a)BXLXT)-1 ADMM算法得出式(I4)更新字典Dk;在ADMM 式中:y=10e-4,1是单位矩阵,在公式加人(一个 算法中D、Sk、T根据式(14)、(15)、(13)中最后一 极小的常数)是为了保证逆运算有解。 个式子更新直到达到ADMM算法的收敛条件 在公式(13)中用交替方向乘子算法(AMMD) 停止。 对D优化求解。具体的求解过程如下所示: 3)固定编码系数Ak,由式(11)中P解出式(12), 根据式(12)更新字典P: arg minDAD? End While End For S+=argmin∑plID-Se+T2Is.s服≤1 输出综合字典D,分析字典P。 TD)T+D(D-SD 2.4、分类方法 (13) 在图像分类中,并不是所有的特征都与识别 对D求导: 分类有关,其中有一些是无关特征,将这些特征 =2D.(4A+pD-2XAI+(S-T) 用于分类会出现过拟合现象。另一方面,稀疏表 令品=附: 示是在超完备字典中用尽可能少的原子去表示原 来的图像信号,其中的表示系数具有稀疏性。用 D:=(XxA+P(S:-T)(AAI+pD- (14) 表示系数作为特征去分类,可以减少无关特征的影
tr(•) L = C−S C = diag{c1, c2,··· , cn} 式中: 表示矩阵的迹。矩阵 , 该对角矩阵的对角元素是 S 的行 (列) 的元素之和。 2.2 图正则化字典对学习 {P, D} 在流形学习中,假设两个高维空间的相邻的 两随机初始化分析字典 P 和综合字典 D,之后, 迭代更新编码系数 A 和 。 Dk Pk Ak Ak α Ak 1) 固定综合字典 和分析字典 ,更新编 码系数 ,由于含有 的式子前面有相同的系 数 ,在计算的过程中可以消去,所以可以利用 式 (10) 解出 : Ak = (D T k Dk +τI) −1 (D T k Xk +τPkXk) (10) Ak Dk Pk 2) 固定编码系数 ,更新综合字典 和分 析字典 。 Pk = argmin Pk α ∑K k=1 τ||PkXk − Ak ||2 F +λ||PkXk ||2 F+ βtr(PkXLXT P T k ) Dk = argmin Dk α ∑K k=1 ||Xk − DkAk ||2 F s.t.||di ||2 2 ⩽ 1 (11) 对 Pk 封闭求解,即 Pk = argmin Pk α ∑K k=1 τ||PkXk − Ak ||2 F +λ||PkXk ||2 F+ (1−α)βtr(PkXLXT P T k ) 对 Pk求导,得 ∂ ∂Pk = 2Pk(ατXkX T k +αλX¯ kX¯ T k + (1−α)βXLXT +γI)−2ατAkX T k ∂ ∂Pk 令 = 0 ,得 P ∗ k = ατAkX T k (ατXkX T k +αλ3X¯ kX¯ T k + γI+(1−α)βXLXT ) −1 (12) γ = 10e−4 式中: ,I 是单位矩阵,在公式加入 (一个 极小的常数) 是为了保证逆运算有解。 在公式 (13) 中用交替方向乘子算法 (AMMD)[8] 对 D 优化求解。具体的求解过程如下所示: D (r+1) = argmin D ∑K k=1 ||Xk − DkAk ||2 F +ρ||Dk −S (r) k + K (r) k ||2 F S (r+1) = argmin S ∑K k=1 ρ||D (r+1) k −Sk +T (r) k ||2 F s.t.||si ||2 2 ⩽ 1 T (r+1) = T (r) + D (r+1) k −S (r+1) k (13) 对 Dk求导: ∂ ∂Dk = 2Dk(AkA T k +ρI)−2(XkA T k +ρ(S r k −T r k )) ∂ ∂Dk 令 = 0 得: Dk = (XkA T k +ρ(S r k −T r k ))(AkA T k +ρI) −1 (14) 对 Sk求导: ∂ ∂Sk = −2ρ(D (r+1) k +T (r) k )+2ρSk ∂ ∂Sk 令 = 0 得: Sk = D (r+1) k +T (r) k (15) 2.3 图正则化字典对学习训练算法 S L {P, D} 由于算法中的图正则项,需要先用训练样本 构建近邻图,计算出相似矩阵 和拉普拉斯矩阵 。利用目标函数优化过程进行迭代更新,学习 字典对 。图正则化字典对学习算法的训练 过程在算法 1 中详细描述。 算法 1 GDPL 训练算法 X = [X1 X2 ··· XK] Y = [Y1 Y2 ··· Yk] α,τ, λ, β m 输入 训练样本 ,训练样本 标签信息 ,参数 ,子字典原 子数 。最大迭代次数 max。 xu xv Suv = 1/nl(xu) xu xv Suv = −1/(n−nl(xu )) C = diag{c1, c2,··· , cn} cv = ∑ v=1 Suv L = C−S 1) 利用样本标签信息构建近邻图。根据样本 标签信息判断样本是否为近邻点。若 和 标 签相同,则为近邻点,相似度 ;若 和 标签不相同,则不是近邻点,相似度 。 对角矩阵 ,其中 , 拉普拉斯矩阵 。 D0 P0 t = 0 2) 初始化:随机生成综合字典 和分析字 典 ,迭代次数 。 3) For i = 1 : K While 未收敛 (具体的在收敛性分析中) 执行 下面步骤: Dk Pk Ak Ak 1) 固定字典 和 ,由目标函数中含有 的式子求解得出式 (10),根据式 (10),更新编码系 数 ; Ak Dk Dk Dk Sk Tk 2) 固定编码系数 ,由式 (11) 中 使用 ADMM 算法得出式 (14) 更新字典 ;在 ADMM 算法中 、 、 根据式 (14)、(15)、(13) 中最后一 个式子更新直到达到 ADMM 算法的收敛条件 停止。 Ak Pk Pk 3) 固定编码系数 ,由式 (11) 中 解出式 (12), 根据式 (12) 更新字典 ; End While End For 输出 综合字典 D,分析字典 P。 2.4 分类方法 在图像分类中,并不是所有的特征都与识别 分类有关,其中有一些是无关特征,将这些特征 用于分类会出现过拟合现象。另一方面,稀疏表 示是在超完备字典中用尽可能少的原子去表示原 来的图像信号,其中的表示系数具有稀疏性。用 表示系数作为特征去分类,可以减少无关特征的影 ·372· 智 能 系 统 学 报 第 14 卷
第2期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预 ·373· 响,提高模型的判别能力。用ADNI1数据集进行 3.2收敛性分析 验证,具体的实验结果在第4部分中,使用编码系数 在目标函数式(1)中对于{(D,P),(A)》的迭代 用分类器分类效果比直接使用分类器的效果好。 更新是一个双凸问题。在优化求解的过程中,固 在分类模型中,输入训练样本X使用算法1 定A对D和P求解是一个凸问题;固定D和P 训练出来的综合字典D和分析字典P,由A,计算 对A求解也是一个凸问题,因此目标函数是一个 出训练集在分析字典上的投影系数即稀疏表示中 双凸问题。根据文献[10]的补充材料,收敛时目 的编码系数Arm=PX,由测试样本Xe和分析字 标函数的能量值达到一个局部最小值。为了避免 典P,可以计算出测试集的编码系数Aet=PXe。 在更新过程中达到收敛条件,不同类之间单个样 将编码系数作为特征,用分类器对测试样本进行 本的能量不在同一个数量级上,所以,本文的收 分类。 敛条件是单个样本的能量到达某一局部最小。目 3算法分析 标函数中各项的曲线如图1所示。图1只是以 GDPL算法过程中使用其中一类迭代过程中的目 本节主要对提出的图正则化字典对算法 标函数值画出曲线为例。算法1中while后面的 (GDPL)进行时间复杂度分析和收敛性分析,该算 收敛条件为前后两次迭代的整个目标函数值之差 法通过联合学习一个综合字典和分析字典,将样 小于0,单个样本的重构误差的绝对值小于1,保 本在分析字典上的投影作为表示系数,减小了算 证目标函数值在每次迭代过程中逐渐减小,最大 法的时间复杂度。 迭代次数为50。 3.1时间复杂度分析 ×109 损失函数值 在GDPL算法中主要是计算训练阶段的时间 2 0 复杂度。在训练阶段Ak和{P,D}交替更新,每 -2 次更新过程相同,在此以一次更新为例。固定 -4 {P,D}由式(1O)更新Ak,Ak更新的时间复杂度 -6 -8 是一个逆矩阵和一个矩阵相乘的时间复杂度即 mXm的矩阵,{DDk+x的时间复杂度为O(m), -12 -14 在mXk的矩阵{rPX+DTX}中,PX的时间复 -16 杂度为O(mpm),DX的时间复杂度也是O(mpm), -18 10 2030405060 所以矩阵{rPXk+DX}的时间复杂度为Omp)。 迭代次数 矩阵(DD+tD'和(rPX+DX)相乘的时间复 图1目标函数值随迭代次数变化 杂度为O(m2),整个更新Ak的时间复杂度为 Fig.1 The value of the objective function varies with the Om3+mpm4+m2)。固定Ak,更新{P,D}。Pk由 number of iterations 式(12)进行更新,在式(14)中p×p的矩阵 图1中单个样本的整个目标函数值在开始到 (rXx+3+yl+BXLX的时间复杂度为 40次的变化趋势是平行趋于0,之后变成一个比 O(p2ne+p2(n-n)+pm2+p2n),但是在迭代过程中该 较大的负值,由于相似度矩阵不是半正定矩阵, 矩阵值不变,在初始化阶段提前计算出来,在迭 由此使图正则项的值变成负值,并引起其他项的 代过程中不需要重复计算,因此不影响更新P的 变化。并且由于图像的损失函数一般都不会小 时间复杂度。只需计算(πXX+3可+yl+BXLX 于0,所以,从图1可以看出算法在2~40次之间 逆矩阵的时间复杂度为O(p)。A?的时间复杂 是局部收敛的。所以,有的实验在第2次迭代就 度为O(mmp),两矩阵相乘的时间复杂度为 达到最优值。 Omp2),更新P.的时间复杂度为O(mmp+p23+mp2)。 4实验结果与分析 使用ADMM更新Dk,将ADMM算法中迭代更新 次数记为H,ADDM算法中,主要计算在式 为了验证图正则化字典对学习算法在图像分 (13)中D更新过程的时间复杂度。D根据式 类中的性能,本文在ADNI1数据集上进行验证。 (14)更新的,式(14)中XA、AkA、(AkA+pl)的 ADNI由国际老年研究所、生物医学成像和生物 逆矩阵、XAT(AAT+p)-1的时间复杂度分别为 工程研究所、美国食品和药物管理局、民营医药 O(pnm)、Om2n)、O(m3)、O(pm2),更新Dk整个过 企业和非营利组织在2003年启动,资金为60万 程的时间复杂度为O(H(pmm,+m2n:+m3+pm2)》。 美元。ADNI的主要目标是测试是否能通过组合
响,提高模型的判别能力。用 ADNI1 数据集进行 验证,具体的实验结果在第 4 部分中,使用编码系数 用分类器分类效果比直接使用分类器[14]的效果好。 Atrain = PX Xtest Atest = PXtest 在分类模型中,输入训练样本 X 使用算法 1 训练出来的综合字典 D 和分析字典 P,由 A,计算 出训练集在分析字典上的投影系数即稀疏表示中 的编码系数 ,由测试样本 和分析字 典 P,可以计算出测试集的编码系数 。 将编码系数作为特征,用分类器对测试样本进行 分类。 3 算法分析 本节主要对提出的图正则化字典对算 法 (GDPL) 进行时间复杂度分析和收敛性分析,该算 法通过联合学习一个综合字典和分析字典,将样 本在分析字典上的投影作为表示系数,减小了算 法的时间复杂度。 3.1 时间复杂度分析 Ak {Pk , Dk} {Pk , Dk} Ak Ak m×m {D T k Dk +τI} O(m 3 ) m×nk {τPkXk + D T k Xk} PkXk O(mpnk) D T k Xk O(mpnk) {τPkXk + D T k Xk} O(mpnk) (D T k Dk +τI) −1 (τPkXk + D T k Xk) O(m 2nk) Ak O(m 3 +mpnk +m 2nk) Ak {Pk , Dk} Pk p× p (τXkX T k +λ3X¯ kX¯ T k +γI+βXLXT ) O(p 2nk + p 2 (n−nk)+ pn2 + p 2n) Pk (τXkX T k +λ3X¯ kX¯ T k +γI+βXLXT ) O(p 3 ) AkX T k O(mnp) O(mp2 ) Pk O(mnk p+ p 3+mp2 ) Dk Dk XkA T k AkA T k (AkA T k +ρI) XkA T k (AkA T k +ρI) −1 O(pnkm) O(m 2nk) O(m 3 ) O(pm2 ) Dk O(H(pmnk +m 2nk +m 3 + pm2 )) 在 GDPL 算法中主要是计算训练阶段的时间 复杂度。在训练阶段 和 交替更新,每 次更新过程相同,在此以一次更新为例。固定 由式 (10) 更新 , 更新的时间复杂度 是一个逆矩阵和一个矩阵相乘的时间复杂度即 的矩阵, 的时间复杂度为 , 在 的矩阵 中, 的时间复 杂度为 , 的时间复杂度也是 , 所以矩阵 的时间复杂度为 。 矩阵 和 相乘的时间复 杂度为 ,整个更新 的时间复杂度为 。固定 ,更新 。 由 式 (12 ) 进行更新,在 式 (14 ) 中 的矩阵 的时间复杂度为 ,但是在迭代过程中该 矩阵值不变,在初始化阶段提前计算出来,在迭 代过程中不需要重复计算,因此不影响更新 的 时间复杂度。只需计算 逆矩阵的时间复杂度为 。 的时间复杂 度 为 ,两矩阵相乘的时间复杂度为 ,更新 的时间复杂度为 。 使用 ADMM 更新 ,将 ADMM 算法中迭代更新 次数记 为 H , ADD M 算法中,主要计算在 式 (13) 中 D 更新过程的时间复杂度。 根据式 (14) 更新的,式 (14) 中 、 、 的 逆矩阵、 的时间复杂度分别为 、 、 、 ,更新 整个过 程的时间复杂度为 。 3.2 收敛性分析 在目标函数式 (1) 中对于 {(D, P),(A)} 的迭代 更新是一个双凸问题。在优化求解的过程中,固 定 A 对 D 和 P 求解是一个凸问题;固定 D 和 P 对 A 求解也是一个凸问题,因此目标函数是一个 双凸问题。根据文献[10]的补充材料,收敛时目 标函数的能量值达到一个局部最小值。为了避免 在更新过程中达到收敛条件,不同类之间单个样 本的能量不在同一个数量级上,所以,本文的收 敛条件是单个样本的能量到达某一局部最小。目 标函数中各项的曲线如图 1 所示。图 1 只是以 GDPL 算法过程中使用其中一类迭代过程中的目 标函数值画出曲线为例。算法 1 中 while 后面的 收敛条件为前后两次迭代的整个目标函数值之差 小于 0,单个样本的重构误差的绝对值小于 1,保 证目标函数值在每次迭代过程中逐渐减小,最大 迭代次数为 50。 2 0 −2 −4 −6 −8 −10 −12 −14 −16 −18 0 10 20 30 40 50 60 迭代次数 损失函数值 目标函数值 ×109 图 1 目标函数值随迭代次数变化 Fig. 1 The value of the objective function varies with the number of iterations 图 1 中单个样本的整个目标函数值在开始到 40 次的变化趋势是平行趋于 0,之后变成一个比 较大的负值,由于相似度矩阵不是半正定矩阵, 由此使图正则项的值变成负值,并引起其他项的 变化。并且由于图像的损失函数一般都不会小 于 0,所以,从图 1 可以看出算法在 2~40 次之间 是局部收敛的。所以,有的实验在第 2 次迭代就 达到最优值。 4 实验结果与分析 为了验证图正则化字典对学习算法在图像分 类中的性能,本文在 ADNI1 数据集上进行验证。 ADNI 由国际老年研究所、生物医学成像和生物 工程研究所、美国食品和药物管理局、民营医药 企业和非营利组织在 2003 年启动,资金为 60 万 美元。ADNI 的主要目标是测试是否能通过组合 第 2 期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·373·
·374· 智能系统学报 第14卷 MRI、PET、其他生物标志物,以及临床和神经心 表2使用DPL稀疏系数作为特征的参数设置 理学评估来测定MCI和早期AD的进展。 Table 2 Parameter setting using DPL algorithm 在ADNI1中,根据MCI患者在36个月之 特征使用算法 DPL算法 后的状态,将36个月之后仍表现出MCI的状态, 分类方法 SVM LDA KNN 则记为SMCI;36个月后表现为AD的病况,记为 子字典原子数(m) 60 60 60 PMCL;没有36个月之后的信息的患者,记为uMCI。 0.01 0.05 0.473 0.007 0.5 0.003 实验中只利用表1中显示的有标签的164个 之 0.00010.001 0.0001 PMCI患者信息和100个SMCI患者信息,对 MCI进展进行识别,提前预测AD。 表3使用GDPL稀疏系数作为特征的参数设置 Table 3 Parameter setting of the GDPL algorithm 表1PMCI和SMCI相关信息 Table 1 PMCI and SMCI related information 特征使用算法 GDPL 分类方法 SVM LDA KNN Group(组别) PMCI SMCI 子字典原子数/m 60 60 60 Number(例数) 164 100 a 0.8 0.7 0.51 Age(年龄/岁) 74.5±7.0 74.6±7.5 0.01 0.05 0.8 0.007 0.5 0.001 MMSE(简易精神表/分) 27.6±1.7 27.6±1.7 0.0001 0.0015 0.001 CDR-SB(临床痴呆综合汇总评 1.88±0.97 1.34±0.65 0.01 2 0.1 定量表分) RAVLT(Rey听觉言语学习试验) 27.1±6.2 35.1+10.2 )为了验证在基于图正则化的字典对(GDPL) 算法学习的字典对上的系数作为特征效果比直接 FAQ(功能评估问卷/分) 5.61±5.11 2.03±3.08 用结合生物标志作为特征的实验效果好。本文使 ADAS-cog(阿尔茨海默病评定量 13.20±4.03 9.65±4.11 用准确率(ACC)和ROC曲线下的面积(AUC)作 表-认知量表/分) 为评价标准。 所有实验是使用中全局生物标志和表1中 从图2可以看出直接用结合生物标志作为特 显示的Age、MMSE、CDR-SB、RAVLT、FAQ、 征的准确率与使用字典对学习方法的准确率相差 ADAS-cog信息的结合生物标志作为特征表示样 较大,使用SVM和GDPL+SVM的实验结果相差 本,使用算法1中学习的字典对{D,P,计算出样 了2个百分点,K近邻(KNN)和GDPL+KNN相 本的编码系数作为特征。在实验中选择较常用的 差了6个百分点。用GDPL方法的准确率比DPL 分类器SVMl,141刀、LDA刃、KNN作为比较方 方法的准确率高。从图2整体上看使用GDPL 法。为了避免实验结果的随机性,运行100次 方法的实验效果比DPL方法和直接使用综合特 10倍交叉验证取最终的平均准确率(ACC)和平 征的效果好。图3从算法AUC性能评价,从中可 均ROC曲线下面的面积(AUC),对于分类器的性 以看出使用GDPL的稀疏系数作为特征的实验 能进行评价。 中,除了SVM外,其他的方法都比使用DPL的效 为了验证提出的基于图正则化的字典对学习 果好,其中KNN的AUC最高到达92.1%。从图 方法的实验效果比其他的实验效果好,直接使用 2、3中整体的结果可以看出GDPL方法的实验结 结合生物标志用SVM、LDA、KNN分类器分类, 果比DPL的实验结果好。 使用DPL方法训练出来的字典对上的稀疏系数 作为特征用分类器(SVM、LDA、KNN)做出的实 0.86 ■方法 口DPL+方法 验效果,和使用GDPL方法训练出来的字典对上 0.84 ■GDPL+方法 的稀疏系数作为特征用SVM、LDA、KNN分类的 实验结果。最终的实验结果是取100次10倍交 0.82 叉验证结果的平均值,对于具体实验数据的精确 0.80 度取小数点后3位。 078 在使用字典对算法训练字典的过程中,算法 0.76 中参数设置是选择一个参数变化,固定其他参 SVM LDA 数,进行遍历。选取3次十倍交叉验证平均准确 方法 率最好。经过遍历参数,算法中的参数设置如 图2不同方法上的准确率(ACC) 表2、3所示。 Fig.2 The accuracy of different methods
MRI、PET、其他生物标志物,以及临床和神经心 理学评估来测定 MCI 和早期 AD 的进展。 在 ADNI1[14]中,根据 MCI 患者在 36 个月之 后的状态,将 36 个月之后仍表现出 MCI 的状态, 则记为 SMCI;36 个月后表现为 AD 的病况,记为 PMCI;没有 36 个月之后的信息的患者,记为 uMCI。 实验中只利用 表 1 中显示的有标签 的 164 个 PMCI 患者信息和 100 个 SMCI 患者信息,对 MCI 进展进行识别,提前预测 AD。 表 1 PMCI 和 SMCI 相关信息 Table 1 PMCI and SMCI related information Group (组别) PMCI SMCI Number (例数) 164 100 Age (年龄/岁) 74.5±7.0 74.6±7.5 MMSE (简易精神表/分) 27.6±1.7 27.6±1.7 CDR-SB (临床痴呆综合汇总评 定量表/分) 1.88±0.97 1.34±0.65 RAVLT (Rey 听觉言语学习试验) 27.1±6.2 35.1+10.2 FAQ (功能评估问卷/分) 5.61±5.11 2.03±3.08 ADAS-cog (阿尔茨海默病评定量 表-认知量表/分) 13.20±4.03 9.65±4.11 {D, P} 所有实验是使用中全局生物标志[14]和表 1 中 显示的 Age、MMSE、CDR-SB、RAVLT、FAQ、 ADAS-cog 信息的结合生物标志作为特征表示样 本,使用算法 1 中学习的字典对 ,计算出样 本的编码系数作为特征。在实验中选择较常用的 分类器 SVM[11, 14-17] 、LDA[17] 、KNN 作为比较方 法。为了避免实验结果的随机性,运行 100 次 10 倍交叉验证取最终的平均准确率 (ACC) 和平 均 ROC 曲线下面的面积 (AUC),对于分类器的性 能进行评价。 为了验证提出的基于图正则化的字典对学习 方法的实验效果比其他的实验效果好,直接使用 结合生物标志用 SVM、LDA、KNN 分类器分类, 使用 DPL 方法训练出来的字典对上的稀疏系数 作为特征用分类器 (SVM、LDA、KNN) 做出的实 验效果,和使用 GDPL 方法训练出来的字典对上 的稀疏系数作为特征用 SVM、LDA、KNN 分类的 实验结果。最终的实验结果是取 100 次 10 倍交 叉验证结果的平均值,对于具体实验数据的精确 度取小数点后 3 位。 在使用字典对算法训练字典的过程中,算法 中参数设置是选择一个参数变化,固定其他参 数,进行遍历。选取 3 次十倍交叉验证平均准确 率最好。经过遍历参数,算法中的参数设置如 表 2、3 所示。 表 2 使用 DPL 稀疏系数作为特征的参数设置 Table 2 Parameter setting using DPL algorithm 特征使用算法 DPL 算法 分类方法 SVM LDA KNN 子字典原子数 (m) 60 60 60 τ 0.01 0.05 0.473 λ 0.007 0.5 0.003 η 0.000 1 0.001 0.000 1 表 3 使用 GDPL 稀疏系数作为特征的参数设置 Table 3 Parameter setting of the GDPL algorithm 特征使用算法 GDPL 分类方法 SVM LDA KNN 子字典原子数/m 60 60 60 α 0.8 0.7 0.51 τ 0.01 0.05 0.8 λ 0.007 0.5 0.001 η 0.000 1 0.001 5 0.001 β 0.01 2 0.1 1) 为了验证在基于图正则化的字典对 (GDPL) 算法学习的字典对上的系数作为特征效果比直接 用结合生物标志作为特征的实验效果好。本文使 用准确率 (ACC) 和 ROC 曲线下的面积 (AUC) 作 为评价标准。 从图 2 可以看出直接用结合生物标志作为特 征的准确率与使用字典对学习方法的准确率相差 较大,使用 SVM 和 GDPL+SVM 的实验结果相差 了 2 个百分点,K 近邻 (KNN) 和 GDPL+KNN 相 差了 6 个百分点。用 GDPL 方法的准确率比 DPL 方法的准确率高。从图 2 整体上看使用 GDPL 方法的实验效果比 DPL 方法和直接使用综合特 征的效果好。图 3 从算法 AUC 性能评价,从中可 以看出使用 GDPL 的稀疏系数作为特征的实验 中,除了 SVM 外,其他的方法都比使用 DPL 的效 果好,其中 KNN 的 AUC 最高到达 92.1%。从图 2、3 中整体的结果可以看出 GDPL 方法的实验结 果比 DPL 的实验结果好。 SVM LDA KNN 0.76 0.78 0.80 0.82 0.84 0.86 方法 准确率 方法 DPL+方法 GDPL+方法 图 2 不同方法上的准确率 (ACC) Fig. 2 The accuracy of different methods ·374· 智 能 系 统 学 报 第 14 卷
第2期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·375· 0.96 0.94 十倍交叉验证的结果(平均值)画出的盒形图。 使用准确率(ACC)、ROC曲线下面的面积(AUC) 0.90 0.88 对于分类器的性能进行评估,具体实验结果在 0.86 图4、5中显示。 从图4中整体上可以看出使用GDPL算法的 0.80 稀疏系数作为特征的平均准确率比DPL算法的 0.78 0.76 稍微好一点,比直接使用结合生物标志作为特征 SVM LDA KNN 方法 的平均准确率高,GDPL+KNN算法的平均准确率 最高达到了83.7%。图5显示ROC曲线下的面 图3不同方法上的ROC曲线下的面积(AUC) Fig.3 Area under ROC curve in different methods 积(AUC)最好的是GDPL+KNN算法,AUC达到 2)将结合生物标志直接作为特征用SVM、 92.1%。在图4、5,100次实验结果中GDPL+KNN LDA、KNN分类,使用DPL方法的稀疏系数作为 算法结果相对集中稳定。整体上看使用GDPL方 特征的分类方法记为DPL+SVM、DPL+LDA、 法训练出来的字典对上的稀疏系数作为特征的实 DPL+KNN,和使用GDPL方法的稀疏系数作为特 验结果比直接使用结合生物标志特征的结果好, 征的分类方法记为GDPL+SVM、GDPL+LDA、 GDPL+KNN实验结果最好,并且结果比较集中稳 GDPL+KNN,所用实验结果都是记录使用1O0次 定,每次实验的结果的变化不大。 0.86 ACC 0.84 0.82 0.80 白 0.78 0.76 0.74 SVM DPL+SVM GDPL+SVM LDA DPL+LDA GDPL+LDA KNN DPL+KNN GDPL+KNN 图4使用100次十倍交叉验证的ACC画出的箱型图 Fig.4 Box plot for the ACC of 100 times 10-fold cross-validation 0.94 AUC 0.92 0.90 0.88 0.86 0.82 0.80 之 0.78 0.76 白 0.74 SVM DPL+SVM GDPL+SVM LDA DPL+LDA GDPL+LDA KNN DPL+KNN GDPL+KNN 图5使用100次10倍交叉验证的AUC画出的箱型图 Fig.5 Box plot for the AUC of 100 times 10-fold cross-validation
SVM LDA KNN 0.76 0.78 0.80 0.82 0.84 0.86 0.88 0.90 0.92 0.94 0.96 方法 ROC 曲线下面积 图 3 不同方法上的 ROC 曲线下的面积 (AUC) Fig. 3 Area under ROC curve in different methods 2) 将结合生物标志直接作为特征用 SVM、 LDA、KNN 分类,使用 DPL 方法的稀疏系数作为 特征的分类方法记为 DPL+SVM、DPL+LDA、 DPL+KNN,和使用 GDPL 方法的稀疏系数作为特 征的分类方法记为 GDPL+SVM、GDPL+LDA、 GDPL+KNN,所用实验结果都是记录使用 100 次 十倍交叉验证的结果 (平均值) 画出的盒形图。 使用准确率 (ACC)、ROC 曲线下面的面积 (AUC) 对于分类器的性能进行评估,具体实验结果在 图 4、5 中显示。 从图 4 中整体上可以看出使用 GDPL 算法的 稀疏系数作为特征的平均准确率比 DPL 算法的 稍微好一点,比直接使用结合生物标志作为特征 的平均准确率高,GDPL+KNN 算法的平均准确率 最高达到了 83.7%。图 5 显示 ROC 曲线下的面 积 (AUC) 最好的是 GDPL+KNN 算法,AUC 达到 92.1%。在图 4、5,100 次实验结果中 GDPL+KNN 算法结果相对集中稳定。整体上看使用 GDPL 方 法训练出来的字典对上的稀疏系数作为特征的实 验结果比直接使用结合生物标志特征的结果好, GDPL+KNN 实验结果最好,并且结果比较集中稳 定,每次实验的结果的变化不大。 SVM DPL+SVM GDPL+SVM LDA DPL+LDA GDPL+LDA KNN DPL+KNN GDPL+KNN 0.74 0.76 0.78 0.80 0.82 0.84 0.86 ACC ACC 图 4 使用 100 次十倍交叉验证的 ACC 画出的箱型图 Fig. 4 Box plot for the ACC of 100 times 10-fold cross-validation SVM DPL+SVM GDPL+SVM LDA DPL+LDA GDPL+LDA KNN DPL+KNN GDPL+KNN 0.74 0.76 0.78 0.80 0.82 0.84 0.86 0.88 0.90 0.92 0.94 AUC AUC 图 5 使用 100 次 10 倍交叉验证的 AUC 画出的箱型图 Fig. 5 Box plot for the AUC of 100 times 10-fold cross-validation 第 2 期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·375·
·376· 智能系统学报 第14卷 5结束语 [7]JIANG Zhuolin,LIN Zhe,DAVIS L S.Label consistent K- SVD:learning a discriminative dictionary for recognition 本文实验结果表明在字典对学习算法中加入 [J].IEEE transactions on pattern analysis and machine in- 图正则项,可以提高字典对模型的识别能力,能 telligence.2013.35(11):2651-2664. 够更好地对图像进行分类。另一方面,使用在字 [8]LU Jiwen,WANG Gang,DENG Weihong,et al.Simultan- 典对上的稀疏系数作为特征对轻度认知功能障碍 eous feature and dictionary learning for image set based 预测可以取得更好的效果,并且在GDPL算法上 face recognition[C]//Proceedings of the 13th European Conference on Computer Vision.Zurich,Switzerland. 的稀疏系数作为特征的实验结果比DPL上的实 2014:265-280. 验结果好。随着科技的发展,图像资源越来越丰 [9]YANG Yang,HUANG Zi,YANG Yi,et al.Local image 富,用户想在大量的图像中找到需要的图像信息 tagging via graph regularized joint group sparsity[J].Pat- 比较困难。在现实生活中带标签的数据相对于不 tern recognition,2013,46(5):1358-1368. 带标签的数据少很多,获得带标签的图像比较困 [10]GU Shuhang,ZHANG Lei,ZUO Wangmeng,et al.Pro- 难。并且训练样本较少不能获得足够的特征去学 jective dictionary pair learning for pattern classification 习字典,下一步可以将无标签的样本用于实验 [C]//Proceedings of the 27th International Conference on 中,学习一个更完备的字典,提高模型的识别能 Neural Information Processing Systems.Montreal, Canada,2014:793-801. 力。可以进行半监督字典对学习,提高模型的判 [11]CUINGNET R.GERARDIN E.TESSIERAS J.et al. 别能力。 Automatic classification of patients with Alzheimer's dis- 参考文献: ease from structural MRI:a comparison of ten methods using the ADNI database[J].Neurolmage,2011,56(2): [1]邵冬华,施志刚.史军杰.二次近邻稀疏重构法及人脸识 766-781. 别[.重庆邮电大学学报(自然科学版),2017,29(6): [12]CHEN Yefei,SU Jianbo.Sparse embedded dictionary 844850 learning on face recognition[J].Pattern recognition,2017, SHAO Donghua,SHI Zhigang,SHI Junjie.Sparse recon- 64:51-59. struction algorithm based on secondary nearest neighbor [13]MAIRAL J,BACH F,PONCE J,et al.Supervised dic- and face recognition[J].Journal of Chongqing university of tionary learning[J].Paris:INRIA,2008:1-8. posts and telecommunications(natural science edition), [14]TONG Tong,GAO Qinquan,GUERRERO R,et al.A 2017,29(6):844-850. novel grading biomarker for the prediction of conversion [2]王佐成,杨娟,薛丽霞.基于二进神经网络的稀硫编码架 from mild cognitive impairment to Alzheimer's disease[J]. 构的图像无损压缩新方法).重庆邮电大学学报(自然 IEEE transactions on biomedical engineering,2017, 科学版),2017,293:371-376. 64(1:155-165. WANG Zuocheng,YANG Juan,XUE Lixia.A novel [15]WYMAN B T,HARVEY D J,CRAWFORD K,et al. lossless image compression scheme based on binary neur- Standardization of analysis sets for reporting results from al networks with sparse coding[J].Journal of Chongqing ADNI MRI data[J].Alzheimer's dementia,2013,9(3): University of Posts and Telecommunications (natural sci- 332-337. ence edition),2017,29(3):371-376. [16]MORADI E,PEPE A,GASER C,et al.Machine learning [3]WRIGHT J,MA Yi,MAIRAL J,et al.Sparse representa- framework for early MRI-based Alzheimer's conversion tion for computer vision and pattern recognition[J].Pro- prediction in MCI subjects[J].Neurolmage,2015,104: ceedings of the IEEE,2010,98(6):1031-1044. 398-412. [4]WRIGHT J,YANG A Y,GANESH A,et al.Robust face [17]JANOUSOVA E.VOUNOU M.WOLZ R.et al.Bio- recognition via sparse representation[J].IEEE transactions marker discovery for sparse classification of brain images on pattern analysis and machine intelligence,2009,31(2): in Alzheimer's disease[J].Annals of the BMVA,2012, 210-227. 2012(2):1-11 [5]AHARON M,ELAD M.BRUCKSTEIN A.rmK-SVD:an 作者简介: algorithm for designing overcomplete dictionaries for 魏彩锋,女,1989年生,硕士研究 sparse representation[J].IEEE transactions on signal pro- 生,主要研究方向为字典学习、图像 cessing,2006,54(11):4311-4322. 分类。 [6]YANG Meng,ZHANG Lei,FENG Xiangchu,et al.Fisher discrimination dictionary learning for sparse representa- tion[C]//Proceedings of 2011 International Conference on Computer Vision.Barcelona,Spain,2011:543-550
5 结束语 本文实验结果表明在字典对学习算法中加入 图正则项,可以提高字典对模型的识别能力,能 够更好地对图像进行分类。另一方面,使用在字 典对上的稀疏系数作为特征对轻度认知功能障碍 预测可以取得更好的效果,并且在 GDPL 算法上 的稀疏系数作为特征的实验结果比 DPL 上的实 验结果好。随着科技的发展,图像资源越来越丰 富,用户想在大量的图像中找到需要的图像信息 比较困难。在现实生活中带标签的数据相对于不 带标签的数据少很多,获得带标签的图像比较困 难。并且训练样本较少不能获得足够的特征去学 习字典,下一步可以将无标签的样本用于实验 中,学习一个更完备的字典,提高模型的识别能 力。可以进行半监督字典对学习,提高模型的判 别能力。 参考文献: 邵冬华, 施志刚, 史军杰. 二次近邻稀疏重构法及人脸识 别[J]. 重庆邮电大学学报 (自然科学版), 2017, 29(6): 844–850. SHAO Donghua, SHI Zhigang, SHI Junjie. Sparse reconstruction algorithm based on secondary nearest neighbor and face recognition[J]. Journal of Chongqing university of posts and telecommunications (natural science edition), 2017, 29(6): 844–850. [1] 王佐成, 杨娟, 薛丽霞. 基于二进神经网络的稀疏编码架 构的图像无损压缩新方法[J]. 重庆邮电大学学报 (自然 科学版), 2017, 29(3): 371–376. WANG Zuocheng, YANG Juan, XUE Lixia. A novel lossless image compression scheme based on binary neural networks with sparse coding[J]. Journal of Chongqing University of Posts and Telecommunications (natural science edition), 2017, 29(3): 371–376. [2] WRIGHT J, MA Yi, MAIRAL J, et al. Sparse representation for computer vision and pattern recognition[J]. Proceedings of the IEEE, 2010, 98(6): 1031–1044. [3] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE transactions on pattern analysis and machine intelligence, 2009, 31(2): 210–227. [4] AHARON M, ELAD M, BRUCKSTEIN A. rmK-SVD: an algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE transactions on signal processing, 2006, 54(11): 4311–4322. [5] YANG Meng, ZHANG Lei, FENG Xiangchu, et al. Fisher discrimination dictionary learning for sparse representation[C]//Proceedings of 2011 International Conference on Computer Vision. Barcelona, Spain, 2011: 543–550. [6] JIANG Zhuolin, LIN Zhe, DAVIS L S. Label consistent KSVD: learning a discriminative dictionary for recognition [J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(11): 2651–2664. [7] LU Jiwen, WANG Gang, DENG Weihong, et al. Simultaneous feature and dictionary learning for image set based face recognition[C]//Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland, 2014: 265–280. [8] YANG Yang, HUANG Zi, YANG Yi, et al. Local image tagging via graph regularized joint group sparsity[J]. Pattern recognition, 2013, 46(5): 1358–1368. [9] GU Shuhang, ZHANG Lei, ZUO Wangmeng, et al. Projective dictionary pair learning for pattern classification [C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada, 2014: 793–801. [10] CUINGNET R, GERARDIN E, TESSIERAS J, et al. Automatic classification of patients with Alzheimer's disease from structural MRI: a comparison of ten methods using the ADNI database[J]. NeuroImage, 2011, 56(2): 766–781. [11] CHEN Yefei, SU Jianbo. Sparse embedded dictionary learning on face recognition[J]. Pattern recognition, 2017, 64: 51–59. [12] MAIRAL J, BACH F, PONCE J, et al. Supervised dictionary learning[J]. Paris: INRIA, 2008: 1–8. [13] TONG Tong, GAO Qinquan, GUERRERO R, et al. A novel grading biomarker for the prediction of conversion from mild cognitive impairment to Alzheimer's disease[J]. IEEE transactions on biomedical engineering, 2017, 64(1): 155–165. [14] WYMAN B T, HARVEY D J, CRAWFORD K, et al. Standardization of analysis sets for reporting results from ADNI MRI data[J]. Alzheimer's & dementia, 2013, 9(3): 332–337. [15] MORADI E, PEPE A, GASER C, et al. Machine learning framework for early MRI-based Alzheimer's conversion prediction in MCI subjects[J]. NeuroImage, 2015, 104: 398–412. [16] JANOUŠOVÁ E, VOUNOU M, WOLZ R, et al. Biomarker discovery for sparse classification of brain images in Alzheimer's disease[J]. Annals of the BMVA, 2012, 2012(2): 1–11. [17] 作者简介: 魏彩锋,女,1989 年生,硕士研究 生,主要研究方向为字典学习、图像 分类。 ·376· 智 能 系 统 学 报 第 14 卷
第2期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·377· 孙永聪,男,1991年生,硕士研究 曾宪华,男,1973年生,教授,博 生,主要研究方向为稀疏编码、图像 士,中国计算机学会会员,主要研究方 检索。 向为流形学习、计算机视觉。主持国 家自然科学基金、重庆自然科学基金 等省级以上项目5项。发表学术论文 30余篇。 第十七届中国机器学习会议(CCML2019) 第十七届中国机器学习会议(CCML2019)由中国人工智能学会和中国计算机学会联合主办,中国人工 智能学会机器学习专业委员会和中国计算机学会人工智能与模式识别专业委员会协办,贵州大学承办。该 系列会议每两年举行一次,现已成为国内机器学习界最主要的学术活动。此次会议将为机器学习及相关研 究领域的学者交流最新研究成果、进行广泛的学术讨论提供便利,并且将邀请国内机器学习领域的著名学 者做精彩报告。 重要时间 会议举办时间:2019年7月23日一25日 会议投稿截止时间:2019年3月25日 会议录用通知时间:2019年5月10日 征稿范围 机器学习的新理论、新技术与新应用:特征选择;聚类;人类学习的计算模型:流形学习与降维;异常检 测:计算学习理论:信息检索:演化学习:监督学习:生物特征识别:符号学习:非监督学习:生物信息学;多 Aget学习;半监督学习;距离度量学习;机器学习应用;强化学习;基于案例的推理;主动学习;多示例学习; 增量学习与在线学习:多标记学习:神经网络:对复杂结构数据的学习:模式识别:集成学习:增强学习系统可 理解性;大数据学习;多任务学习;数据挖掘与知识发现 投稿要求 论文必须未公开发表过,一般不超过6000字;只接受中文稿: 论文应包括题目、作者姓名、作者单位、摘要、关键字、正文和参考文献:另附作者通讯: 地址、邮编、电话及E-mail地址; 学生(不包括博士后和在职博士生)第一作者的论文稿件请在首页脚注中注明,否则将不具有参选“优秀 学生论文”的资格。 论文出版 会议录用论文将被推荐到《中国科学》、《软件学报》、《计算机科学与探索》、《模式识别与人工智 能》、《智能系统学报》、《数据采集与处理》、《计算机科学》、《计算机应用》、《小型微型计算机系 统》、《计算机工程与应用》、《南京大学学报(自然科学版)》、《山东大学学报(工学版)》、《南京师范 大学学报》等期刊正刊发表。 投稿方式 本会议采用在线投稿方式,在线投稿网址为:htps://easychair..org/conferences/.?conf=ccml2019 咨询电话 16608512304(龙老师)、18586818471(徐老师) 会议邮箱:CCML2019@126.com 会议网址:htp:/diri.gZu.edu.cn/ccml2019
孙永聪,男,1991 年生,硕士研究 生,主要研究方向为稀疏编码、图像 检索。 曾宪华,男,1973 年生,教授,博 士,中国计算机学会会员,主要研究方 向为流形学习、计算机视觉。主持国 家自然科学基金、重庆自然科学基金 等省级以上项目 5 项。发表学术论文 30 余篇。 第十七届中国机器学习会议(CCML 2019) 第十七届中国机器学习会议 (CCML 2019) 由中国人工智能学会和中国计算机学会联合主办,中国人工 智能学会机器学习专业委员会和中国计算机学会人工智能与模式识别专业委员会协办,贵州大学承办。该 系列会议每两年举行一次,现已成为国内机器学习界最主要的学术活动。此次会议将为机器学习及相关研 究领域的学者交流最新研究成果、进行广泛的学术讨论提供便利,并且将邀请国内机器学习领域的著名学 者做精彩报告。 重要时间 会议举办时间:2019 年 7 月 23 日—25 日 会议投稿截止时间:2019 年 3 月 25 日 会议录用通知时间:2019 年 5 月 10 日 征稿范围 机器学习的新理论、新技术与新应用;特征选择;聚类;人类学习的计算模型;流形学习与降维;异常检 测;计算学习理论;信息检索;演化学习;监督学习;生物特征识别;符号学习;非监督学习;生物信息学;多 Agent 学习;半监督学习;距离度量学习;机器学习应用;强化学习;基于案例的推理;主动学习;多示例学习; 增量学习与在线学习;多标记学习;神经网络;对复杂结构数据的学习;模式识别;集成学习;增强学习系统可 理解性;大数据学习;多任务学习;数据挖掘与知识发现 投稿要求 论文必须未公开发表过,一般不超过 6 000 字;只接受中文稿; 论文应包括题目、作者姓名、作者单位、摘要、关键字、正文和参考文献;另附作者通讯; 地址、邮编、电话及 E-mail 地址; 学生 (不包括博士后和在职博士生) 第一作者的论文稿件请在首页脚注中注明,否则将不具有参选“优秀 学生论文”的资格。 论文出版 会议录用论文将被推荐到《中国科学》、《软件学报》、《计算机科学与探索》、《模式识别与人工智 能》、《智能系统学报》、《数据采集与处理》、《计算机科学》、《计算机应用》、《小型微型计算机系 统》、《计算机工程与应用》、《南京大学学报(自然科学版)》、《山东大学学报(工学版)》、《南京师范 大学学报》等期刊正刊发表。 投稿方式 本会议采用在线投稿方式,在线投稿网址为:https://easychair.org/conferences/?conf=ccml2019 咨询电话 16608512304(龙老师)、18586818471(徐老师) 会议邮箱:CCML2019@126.com 会议网址:http://bdiri.gzu.edu.cn/ccml2019 第 2 期 魏彩锋,等:图正则化字典对学习的轻度认知功能障碍预测 ·377·