正在加载图片...
第16卷 智能系统学报 ·106· 为了对比SSCLLE与其他方法的优劣,利用 表7配对样本相关性 SPSS工具对SSCLLE方法得到的聚类精度与其他 Table 7 Correlation of paired samples 方法得到的聚类精度做成对1检验,得到以下结 配对序号 方法 个案数相关性显著性 果如表68所示。 配对1 LLE SSCLLE 30 0.677 0.000 表6配对样本统计 配对2 SSLLE SSCLLE 30 0.542 0.002 Table 6 Paired sample statistics 配对3 SSLE SSCLLE 30 0.703 0.000 配对序号方法平均值个案数标准差标准误差平均值 配对4 CCDR SSCLLE 30 0.667 0.000 LLE0.8995300.09354 0.01708 配对1 SSCLLE0.9760300.01262 0.00230 6结束语 SSLLE0.9022300.13321 0.02432 配对2 SSCLLE 0.9760 30 0.01262 0.00230 本文在LLE基础上,提出了一种半监督类保 持局部线性嵌入方法(SSCLLE)。方法中不单考 SSLE0.9071300.08525 0.01556 配对3 虑了利用近邻伪标签赋予的标记信息对局部近邻 SSCLLE0.9760300.01262 0.00230 做调整,还对样本的全局距离做进一步约束,使 CCDR0.9368300.08690 0.01587 配对4 其达到既能保持数据的局部线性结构又能使类内 SSCLLE0.9760300.01262 0.00230 数据更紧密,类间数据进行分离,得到很好的特 征提取效果。在UCI数据集、实物数据集COL20 通过表8可以看到SSCLLE与其他4种方法 和手写数据集MNIST上对各方法进行实验对比, 的显著性均小于0.05,说明各对比组聚类精度有 得到SSCLLE方法在聚类精度以及可视化上的结 显著差异。再对比均值,可见本文S$CLLE方法 果均高于无监督学习LLE方法和半监督学习SSLLE、 相对其他方法能够有效地提高特征提取的效果。 SSLE、CCDR方法。 表8配对样本检验 Table 8 Paired sample test 配对差值 配对序号 方法 差值95%置信区间 自由度 平均值 标准差 标准误差平均值 下限 上限 配对1 LLE-SSCLLE -0.076460.08550 0.01561 -0.10839-0.04454-4.898 29 0.000 配对2 SSLLE-SSCLLE -0.07385 0.12681 0.02315 -0.12120 -0.02649 -3.190 29 0.003 配对3 SSLE-SSCLLE -0.068880.07689 0.01404 -0.09759 -0.04016 -4.906 29 0.000 配对4 CCDR-SSCLLE -0.039180.07904 0.01443 -0.06869-0.00967 -2.715 29 0.011 参考文献: vised local multi-manifold Isomap by linear embedding for feature extraction[J].Pattern recognition,2018,76: [1]LIU Feng,ZHANG Weijie,GU Suicheng.Local linear 622-678. laplacian eigenmaps:a direct extension of LLE[J].Pat- tern recognition letters,2016.75:30-35. [6]LIU Zhonghua,WANG Xiaohong,PU Jiexin,et a.Non- [2]JIANG Bo,DING C,LUO Bin.Robust data representa- negative low-rank representation based manifold embed- tion using locally linear embedding guided PCA[J] ding for semi-supervised learning[J].Knowledge-based Neurocomputing,2018,275:523-532. systems,2017,136:121-129. [3]WANG Qian,WANG Weiguo,NIAN Rui,et al.Mani- [7]CHEN Lin,YANG Meng.Semi-supervised dictionary fold learning in local tangent space via extreme learning learning with label propagation for image machine[J].Neurocomputing,2016,174:18-30. classification[J].Computational visual media,2017,3(1): [4]TANG Z,LAO H.Robust image hashing via DCT and 83-94. LLE[J].Computers and security,2016,62:133-148. [8] MIKALSEN K O.SOGUERO-RUIZ C,BIANCHI F M. [5]ZHANG Yan,ZHANG Zhao,QIN Jie,et al.Semi-super- et al.Noisy multi-label semi-supervised dimensionality为了对比 SSCLLE 与其他方法的优劣,利用 SPSS 工具对 SSCLLE 方法得到的聚类精度与其他 方法得到的聚类精度做成对 t 检验,得到以下结 果如表 6~8 所示。 表 6 配对样本统计 Table 6 Paired sample statistics 配对序号 方法 平均值 个案数 标准差 标准误差平均值 配对 1 LLE 0.899 5 30 0.093 54 0.017 08 SSCLLE 0.976 0 30 0.012 62 0.002 30 配对 2 SSLLE 0.902 2 30 0.133 21 0.024 32 SSCLLE 0.976 0 30 0.012 62 0.002 30 配对 3 SSLE 0.907 1 30 0.085 25 0.015 56 SSCLLE 0.976 0 30 0.012 62 0.002 30 配对 4 CCDR 0.936 8 30 0.086 90 0.015 87 SSCLLE 0.976 0 30 0.012 62 0.002 30 通过表 8 可以看到 SSCLLE 与其他 4 种方法 的显著性均小于 0.05,说明各对比组聚类精度有 显著差异。再对比均值,可见本文 SSCLLE 方法 相对其他方法能够有效地提高特征提取的效果。 表 7 配对样本相关性 Table 7 Correlation of paired samples 配对序号 方法 个案数 相关性 显著性 配对 1 LLE & SSCLLE 30 0.677 0.000 配对 2 SSLLE & SSCLLE 30 0.542 0.002 配对 3 SSLE & SSCLLE 30 0.703 0.000 配对 4 CCDR & SSCLLE 30 0.667 0.000 6 结束语 本文在 LLE 基础上,提出了一种半监督类保 持局部线性嵌入方法 (SSCLLE)。方法中不单考 虑了利用近邻伪标签赋予的标记信息对局部近邻 做调整,还对样本的全局距离做进一步约束,使 其达到既能保持数据的局部线性结构又能使类内 数据更紧密,类间数据进行分离,得到很好的特 征提取效果。在 UCI 数据集、实物数据集 COIL_20 和手写数据集 MNIST 上对各方法进行实验对比, 得到 SSCLLE 方法在聚类精度以及可视化上的结 果均高于无监督学习 LLE 方法和半监督学习 SSLLE、 SSLE、CCDR 方法。 表 8 配对样本检验 Table 8 Paired sample test 配对序号 方法 配对差值 t 自由度 平均值 标准差 标准误差平均值 差值 95% 置信区间 下限 上限 配对 1 LLE-SSCLLE −0.076 46 0.0855 0 0.0156 1 −0.1083 9 −0.044 54 −4.898 29 0.000 配对 2 SSLLE-SSCLLE −0.073 85 0.1268 1 0.0231 5 −0.1212 0 −0.026 49 −3.190 29 0.003 配对 3 SSLE-SSCLLE −0.068 88 0.0768 9 0.0140 4 −0.0975 9 −0.040 16 −4.906 29 0.000 配对 4 CCDR-SSCLLE −0.039 18 0.0790 4 0.0144 3 −0.0686 9 −0.009 67 −2.715 29 0.011 参考文献: LIU Feng, ZHANG Weijie, GU Suicheng. Local linear laplacian eigenmaps: a direct extension of LLE[J]. Pat￾tern recognition letters, 2016, 75: 30–35. [1] JIANG Bo, DING C, LUO Bin. Robust data representa￾tion using locally linear embedding guided PCA[J]. Neurocomputing, 2018, 275: 523–532. [2] WANG Qian, WANG Weiguo, NIAN Rui, et al. Mani￾fold learning in local tangent space via extreme learning machine[J]. Neurocomputing, 2016, 174: 18–30. [3] TANG Z, LAO H. Robust image hashing via DCT and LLE[J]. Computers and security, 2016, 62: 133–148. [4] [5] ZHANG Yan, ZHANG Zhao, QIN Jie, et al. Semi-super￾vised local multi-manifold Isomap by linear embedding for feature extraction[J]. Pattern recognition, 2018, 76: 622–678. LIU Zhonghua, WANG Xiaohong, PU Jiexin, et a. Non￾negative low-rank representation based manifold embed￾ding for semi-supervised learning[J]. Knowledge-based systems, 2017, 136: 121–129. [6] CHEN Lin, YANG Meng. Semi-supervised dictionary learning with label propagation for image classification[J]. Computational visual media, 2017, 3(1): 83–94. [7] MIKALSEN K O, SOGUERO-RUIZ C, BIANCHI F M, et al. Noisy multi-label semi-supervised dimensionality [8] 第 16 卷 智 能 系 统 学 报 ·106·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有