正在加载图片...
第2期 马容,等:结合地标点与自编码的快速多视图聚类网络 ·339· 中的最大值,分别在10 Oleaves、HW、Caltech10l-7、 为例,调整地标点个数m,图3给出了模型对地标 Caltechl01-20、NUS上超过了第二佳算法1.3%、 点个数的敏感性。可以看出,地标点个数m太少 1.27%、21.3%、4.0%、1.75%。而NM方面本文算 时难以完整代表原数据所有特征,而当地标点个 法同样可实现与其他多视图聚类算法相当甚至更 数m过多时会使其本身的代表性降低并引人额外 好的性能,这证明了本文算法的一致性与稳定 的错误从而导致性能变差。 性。可以得出,本文所提出的采用地标点的快速 0.9 多视图聚类算法在大幅度提升聚类速度的同时仍 0.8 能够保持较好的聚类精确度。 0.7 0.6 为了进一步研究改进,本文在Handwritten数 0.5 据集上使用t-SNE进行了二维可视化对比研究。 0.3 ·-100 leaves 图2(a)为本文算法的聚类结果视图,图2(b)为对 02 ·d-Handwritten -Caltech101-7 比的利用给定标签生成的可视化结果,其中: 0.1L 10 20 3040 50100 SNEI、t-SNE2代表分别采用经t-SNE方法降维 地标点的个数 后的二维数据的第1列和第2列数据作为可视化 图3地标点敏感实验结果 呈现的x轴和y轴。可以看出,虽然仍有少部分数 Fig.3 Results of landmark sensitive experiments 据点未进行正确的聚类划分,但总体上本文算法 可以良好地反映聚类结构,从而进一步证明本文 4 结束语 算法可以在提升大规模数据集算法效率的同时保 本文提出了一种结合地标表示和自编码器的 持较好的聚类精确度。 多视图快速聚类方法,在多视图的框架下利用了 80 加权PageRank方法选择地标点以减少存储开销, 60 通过所选择的地标点重构原始多视图数据直接得 2 到多视图共识相似度矩阵,在降低了计算复杂度 0 的同时充分利用了多个视图中具有互补性与一致 -20 -40 性的聚类有效信息,利用自编码器替代拉普拉斯 -60 矩阵特征分解,联合更新自编码器参数以及聚类 -80 中心,以保证聚类精度。在5个多视图数据集上 -60-40-20020406080100 t-SNE 1 的实验证明本文所提算法拥有良好的性能。但是 (a)本文算法实验结果的可视化 本文中多个视图的信息仅是通过简单的相加来融 80 合而并未进行视图差异区分,在未来,致力于进 S020 一步研究如何在保证计算速度的情况下更好将多 个视图的信息具有区分性地融合,以更好地提升 JNS-1 0 聚类性能。 -40 参考文献: -60 -80 [1]何清,李宁,罗文娟,等.大数据下的机器学习算法综述 -60-40-20020406080100 ).模式识别与人工智能,2014,274):327-336 t-SNE 1 b)利用给定标签生成的结果可视化 HE Qing,LI Ning,LUO Wenjuan,et al.A survey of ma- chine learning algorithms for big data[J].Pattern recogni- 图2 Handwritten数据集实验结果t-SNE可视化 tion and artificial intelligence,2014,27(4):327-336. Fig.2 Visualization of experimental results on the Hand- [2] KUMAR A,DAUME III H.A co-training approach for written dataset with t-SNE multi-view spectral clustering[Cl/Proceedings of the 28th 由于所提方法采用地标点进行原数据重建! International Conference on Machine Learning.Washing- 地标点个数m越少所提算法的运行时间就越短, ton,USA,2011:393-400. 但算法的精度却不一定和地标点个数m呈线性关 [3】何雪梅.多视图聚类算法综述.软件导刊,2019, 系。因此本文作了敏感分析实验,以l00 leaves、 18(4):79-81,86. Handwritten、Caltech10l-7等3个数据集的ACC HE Xuemei.A survey of multi-view clustering al-中的最大值,分别在 100leaves、HW、Caltech101-7、 Caltech101-20、NUS 上超过了第二佳算法 1.3%、 1.27%、21.3%、4.0%、1.75%。而 NMI 方面本文算 法同样可实现与其他多视图聚类算法相当甚至更 好的性能,这证明了本文算法的一致性与稳定 性。可以得出,本文所提出的采用地标点的快速 多视图聚类算法在大幅度提升聚类速度的同时仍 能够保持较好的聚类精确度。 x y 为了进一步研究改进,本文在 Handwritten 数 据集上使用 t-SNE 进行了二维可视化对比研究。 图 2(a) 为本文算法的聚类结果视图,图 2(b) 为对 比的利用给定标签生成的可视化结果,其中 t￾SNE_1、t-SNE_2 代表分别采用经 t-SNE 方法降维 后的二维数据的第 1 列和第 2 列数据作为可视化 呈现的 轴和 轴。可以看出,虽然仍有少部分数 据点未进行正确的聚类划分,但总体上本文算法 可以良好地反映聚类结构,从而进一步证明本文 算法可以在提升大规模数据集算法效率的同时保 持较好的聚类精确度。 (a) 本文算法实验结果的可视化 (b) 利用给定标签生成的结果可视化 60 80 60 80 80 100 100 40 40 20 20 0 0 −20 −20 −40 −40 −60 −60 −80 t-SNE_2 t-SNE_1 60 60 80 40 40 20 20 0 0 −20 −20 −40 −40 −60 −60 −80 t-SNE_2 t-SNE_1 图 2 Handwritten 数据集实验结果 t-SNE 可视化 Fig. 2 Visualization of experimental results on the Hand￾written dataset with t-SNE m m 由于所提方法采用地标点进行原数据重建, 地标点个数 越少所提算法的运行时间就越短, 但算法的精度却不一定和地标点个数 呈线性关 系。因此本文作了敏感分析实验,以 100leaves、 Handwritten、Caltech101-7 等 3 个数据集的 ACC m m m 为例,调整地标点个数 ,图 3 给出了模型对地标 点个数的敏感性。可以看出,地标点个数 太少 时难以完整代表原数据所有特征,而当地标点个 数 过多时会使其本身的代表性降低并引入额外 的错误从而导致性能变差。 100leaves Handwritten Caltech101-7 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 10 20 30 40 50 100 聚类准确率 地标点的个数 图 3 地标点敏感实验结果 Fig. 3 Results of landmark sensitive experiments 4 结束语 PageRank 本文提出了一种结合地标表示和自编码器的 多视图快速聚类方法,在多视图的框架下利用了 加权 方法选择地标点以减少存储开销, 通过所选择的地标点重构原始多视图数据直接得 到多视图共识相似度矩阵,在降低了计算复杂度 的同时充分利用了多个视图中具有互补性与一致 性的聚类有效信息,利用自编码器替代拉普拉斯 矩阵特征分解,联合更新自编码器参数以及聚类 中心,以保证聚类精度。在 5 个多视图数据集上 的实验证明本文所提算法拥有良好的性能。但是 本文中多个视图的信息仅是通过简单的相加来融 合而并未进行视图差异区分,在未来,致力于进 一步研究如何在保证计算速度的情况下更好将多 个视图的信息具有区分性地融合,以更好地提升 聚类性能。 参考文献: 何清, 李宁, 罗文娟, 等. 大数据下的机器学习算法综述 [J]. 模式识别与人工智能, 2014, 27(4): 327–336. HE Qing, LI Ning, LUO Wenjuan, et al. A survey of ma￾chine learning algorithms for big data[J]. Pattern recogni￾tion and artificial intelligence, 2014, 27(4): 327–336. [1] KUMAR A, DAUME III H. A co-training approach for multi-view spectral clustering[C]//Proceedings of the 28th International Conference on Machine Learning. Washing￾ton, USA, 2011: 393−400. [2] 何雪梅. 多视图聚类算法综述 [J]. 软件导刊, 2019, 18(4): 79–81,86. HE Xuemei. A survey of multi-view clustering al- [3] 第 2 期 马睿,等:结合地标点与自编码的快速多视图聚类网络 ·339·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有