正在加载图片...
第6期 杜航原,等:一种深度自监督聚类集成算法 ·1119· 动编码器中的信息传递和数据映射服从最终聚类 427-436 集成目标,从而使产生的低维嵌入有利于获得最 [5]FRIGUI H.KRISHNAPURAM R.A robust competitive 优的聚类集成结果。而HGPA、CSPA、MCLA方 clustering algorithm with applications in computer 法采用的图分割算法趋向于将图形划分为大小相 vision[J].IEEE transactions on pattern analysis and ma- 似的簇,对于真实分布大小不一的簇聚类结果较 chine intelligence,1999,21(5):450-465. 差;投票法只依赖基聚类的划分结果,没有充分 挖掘样本之间的相似性关系;谱聚类集成算法的 [6]FERN X Z,LIN Wei.Cluster ensemble selection[J].Stat- 聚类集成结果很大程度上受到相似度矩阵计算结 istical analysis and data mining,2008,1(3):128-141 果的影响。 [7]罗会兰.聚类集成关键技术研究[D].杭州:浙江大学, 2007 4结束语 LUO Huilan.Research on key technologies of clustering 本文针对聚类集成的一致性函数设计问题, ensemble[D].Hangzhou:Zhejiang University,2007. 提出了一种基于图神经网络的聚类集成算法,主 [8]FRED A L N.Finding consistent clusters in data 要工作包括: partitions[C]//Proceedings of the 2nd International Work- 1)根据基聚类划分结果计算样本之间的相似 shop on Multiple Classifier Systems.Cambridge,UK, 性,完整地反映了样本之间的一阶与二阶相似 2001:309-318 性,在此基础上,用相似度矩阵表示样本之间的 邻接关系,将基聚类在拓扑空间中的表示转化为 [9]STREHL A,GHOSH J.Cluster ensembles-a knowledge 图数据表示,通过图聚类获得聚类集成的最优解; reuse framework for combining multiple partitions[J]. 2)利用图神经网络模型构造自监督聚类集成 Journal of machine learning research,2003,3:583-617. 算法,图自动编码器在聚类集成结果中很好地保 [10]FRED A L N,JAIN A K.Data clustering using evidence 留了样本在空间中的结构,并且自监督优化模型 Accumulation[C]//Proceedings of the 16th International 使图自动编码器中的低维学习服从聚类集成的目 Conference on Pattern Recognition(ICPR'02).Quebec 标,从而得到最优的聚类集成结果; City,Canada,2002:276-280. 3)在数据集上进行了仿真实验,结果表明本 [11]WANG Xi,YANG Chunyu,ZHOU Jie.Clustering ag- 文算法提升了聚类集成结果的准确性。 然而,本文算法的空间复杂度较大,在未来的 gregation by probability accumulation[].Pattern recogni- 工作中,考虑如何降低算法的空间复杂度并且将 tion,2009.42(5:668-675. 算法应用于实际问题。 [12]杨草原,刘大有,杨博,等.聚类集成方法研究仞.计算 机科学,2011.38(2少:166-170 参考文献: YANG Caoyuan,LIU Dayou,YANG Bo,et al.Research [1]HAN Jiawei,KAMBER M,PEI Jian.Data mining:con- on cluster aggregation approaches[J].Computer science, cepts and techniques[M].3rd ed.Amsterdam:Elsevier, 2011,38(2):166-170. 2012:223-259. [13]ZHOU Zhihua,TANG Wei.Clusterer ensemble[J]. [2]孙吉贵,刘杰,赵连宇.聚类算法研究[.软件学报, Knowledge-based systems,2006,19(1):77-83. 2008,19(1):48-61 [14]SCARSELLI F,GORI M,TSOI A C,et al.The graph SUN Jigui,LIU Jie,ZHAO Lianyu.Clustering algorithms neural network model[J].IEEE Transactions on neural research[J].Journal of software,2008,19(1):48-61 networks.2009,20(161-80. [3]JUDD D.MCKINLEY P K,JAIN A K.Large-scale paral- [15]WU Z,PAN S,CHEN F.A comprehensive survey on lel data clustering[J].IEEE transactions on pattern analysis graph neural networks[J].IEEE transactions on neural and machine intelligence,1998,20(8):871-876. networks and learning systems,2019(02):4-24. [4]BHATIA S K,DEOGUN J S.Conceptual clustering inin- [16]VINCENT P,LAROCHELLE H,BENGIO Y,et al.Ex- formation retrieval[J].IEEE transactions on systems,man, tracting and composing robust features with denoising au- and cybernetics,part B(cybernetics),1998,28(3): toencoders[Cl//Proceedings of the 25th International Con-动编码器中的信息传递和数据映射服从最终聚类 集成目标,从而使产生的低维嵌入有利于获得最 优的聚类集成结果。而 HGPA、CSPA、MCLA 方 法采用的图分割算法趋向于将图形划分为大小相 似的簇,对于真实分布大小不一的簇聚类结果较 差;投票法只依赖基聚类的划分结果,没有充分 挖掘样本之间的相似性关系;谱聚类集成算法的 聚类集成结果很大程度上受到相似度矩阵计算结 果的影响。 4 结束语 本文针对聚类集成的一致性函数设计问题, 提出了一种基于图神经网络的聚类集成算法,主 要工作包括: 1) 根据基聚类划分结果计算样本之间的相似 性,完整地反映了样本之间的一阶与二阶相似 性,在此基础上,用相似度矩阵表示样本之间的 邻接关系,将基聚类在拓扑空间中的表示转化为 图数据表示,通过图聚类获得聚类集成的最优解; 2) 利用图神经网络模型构造自监督聚类集成 算法,图自动编码器在聚类集成结果中很好地保 留了样本在空间中的结构,并且自监督优化模型 使图自动编码器中的低维学习服从聚类集成的目 标,从而得到最优的聚类集成结果; 3) 在数据集上进行了仿真实验,结果表明本 文算法提升了聚类集成结果的准确性。 然而,本文算法的空间复杂度较大,在未来的 工作中,考虑如何降低算法的空间复杂度并且将 算法应用于实际问题。 参考文献: HAN Jiawei, KAMBER M, PEI Jian. Data mining: con￾cepts and techniques[M]. 3rd ed. Amsterdam: Elsevier, 2012: 223−259. [1] 孙吉贵, 刘杰, 赵连宇. 聚类算法研究 [J]. 软件学报, 2008, 19(1): 48–61. SUN Jigui, LIU Jie, ZHAO Lianyu. Clustering algorithms research[J]. Journal of software, 2008, 19(1): 48–61. [2] JUDD D, MCKINLEY P K, JAIN A K. Large-scale paral￾lel data clustering[J]. IEEE transactions on pattern analysis and machine intelligence, 1998, 20(8): 871–876. [3] BHATIA S K, DEOGUN J S. Conceptual clustering in in￾formation retrieval[J]. IEEE transactions on systems, man, and cybernetics, part B (cybernetics), 1998, 28(3): [4] 427–436. FRIGUI H, KRISHNAPURAM R. A robust competitive clustering algorithm with applications in computer vision[J]. IEEE transactions on pattern analysis and ma￾chine intelligence, 1999, 21(5): 450–465. [5] FERN X Z, LIN Wei. Cluster ensemble selection[J]. Stat￾istical analysis and data mining, 2008, 1(3): 128–141. [6] 罗会兰. 聚类集成关键技术研究 [D]. 杭州: 浙江大学, 2007. LUO Huilan. Research on key technologies of clustering ensemble[D]. Hangzhou: Zhejiang University, 2007. [7] FRED A L N. Finding consistent clusters in data partitions[C]//Proceedings of the 2nd International Work￾shop on Multiple Classifier Systems. Cambridge, UK, 2001: 309−318. [8] STREHL A, GHOSH J. Cluster ensembles-a knowledge reuse framework for combining multiple partitions[J]. Journal of machine learning research, 2003, 3: 583–617. [9] FRED A L N, JAIN A K. Data clustering using evidence Accumulation[C]//Proceedings of the 16th International Conference on Pattern Recognition (ICPR’02). Quebec City, Canada, 2002: 276−280. [10] WANG Xi, YANG Chunyu, ZHOU Jie. Clustering ag￾gregation by probability accumulation[J]. Pattern recogni￾tion, 2009, 42(5): 668–675. [11] 杨草原, 刘大有, 杨博, 等. 聚类集成方法研究 [J]. 计算 机科学, 2011, 38(2): 166–170. YANG Caoyuan, LIU Dayou, YANG Bo, et al. Research on cluster aggregation approaches[J]. Computer science, 2011, 38(2): 166–170. [12] ZHOU Zhihua, TANG Wei. Clusterer ensemble[J]. Knowledge-based systems, 2006, 19(1): 77–83. [13] SCARSELLI F, GORI M, TSOI A C, et al. The graph neural network model[J]. IEEE Transactions on neural networks, 2009, 20(1): 61–80. [14] WU Z , PAN S , CHEN F. A comprehensive survey on graph neural networks[J]. IEEE transactions on neural networks and learning systems, 2019(02): 4–24. [15] VINCENT P, LAROCHELLE H, BENGIO Y, et al. Ex￾tracting and composing robust features with denoising au￾toencoders[C]//Proceedings of the 25th International Con- [16] 第 6 期 杜航原,等:一种深度自监督聚类集成算法 ·1119·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有