正在加载图片...
第5期 刘欢,等:堆叠隐空间模糊C回归算法及其在发酵数据多模型建模中的应用 .673 WeR以及值在[0.5,1]之间的偏移量矩阵B∈R。 表1实验平台 ②根据式(1)以及图1将数据集D进行特征映 Table 1 Experimental platform 射,得到高维数据矩阵H)∈Rxr。 结构 配置 2)利用基于PCA的压缩隐空间方法对H)进 CPU Intel(R)Core(TM)i5-4590 3.30GHz 行压缩,得到维数为p的数据矩阵H2): 内存 8.00GB 操作系统 64bit Windows7 3)for j=1:f-1 软件平台 Matlab R2012a ①重复步骤1中1)、2); 3.2鲁棒性实验 ②将H2)与H)合并存入矩阵H3)中, 本实验中,基于文献[5]的模拟回归数据集,通 H3)=[H2H)]。 过分别加入噪声点和离群点来比较FCR以及CHS, ③利用PCA对H3)进行特征提取,得到矩阵记 FCR算法的鲁棒性。实验中,FCR算法和CHS-FCR 为H2; 算法的模型个数c=2,模糊指数m=2,CHS-FCR隐 循环结束; 空间压缩次数f=5,PCA特征提取后的维数p=3。 4)构造全一矩阵1∈Rax1,将最终获取的数据 3.2.1离群点实验 H2=[1,2)]利用FCR框架进行切换回归。 在切换回归分析中,离群点主要是指不符合任 CHS-FCR算法将基于PCA的压缩ELM隐空间 一模型的数据,它主要是在收集数据的过程中出现 单隐层学习结构改造为多隐层学习结构。假设从第 误操作或异常情况而引入的。本实验中基于式 二层开始,每个隐含层中随机生成的ELM隐节点数 (15)和(16)生成2个回归数据集,并分别加入离群 都是T,由前一层PCA压缩后得到的隐节点数为 点(16,8)。实验数据集分布如图4所示。 T',易得隐节点总数为 L=(T+T)×(f-1)+T (11) y1=18-x+0.03125x2 A: (15) 其中随机生成的ELM隐节点总数为 0y2=-2+x-0.03125x2 LELM =Txf (12) y1=172-26x+x2 经过多次隐空间压缩,噪声信息被过滤,同时会 B: (16) y2=364-38x+x2 发生相应的信息损失:但是每个混合层中新生成的 图5和图6给出了加入离群点之前模糊C均值 ELM隐节点信息弥补了这些丢失的信息,因此本文 回归算法(fuzzy C regression algorithm,FCR)和堆叠 的堆叠隐空间结构能得到更好的学习效果。 隐空间模糊C回归算法(cascaded hidden space 3实验研究与分析 FCR,CHS-FCR)的回归结果,图7和图8给出了加 入离群点之后两算法的回归结果。从中可以看出, 3.1实验平台以及算法性能的评价指标 加入离群点之前,FCR和CHS-FCR这2个算法均可 本文在表1中实验平台上进行所有实验并且采 以得到理想的结果。加入离群点之后,CR的拟合 用式(13)和(14)所示的指标来评价各算法的性能。 效果明显受到离群点的影响:但是CHS-FCR仍然能 得到令人满意的拟合结果。可见,压缩隐空间方法 的引入使本文所提的CHS-FCR算法对离群点具有 (13) 更好的鲁棒性。 12 11 [(1r,-()] 9 (14) 式中:N表示测试样本数,y:表示测试样本第i次输 6 入的输出,y:'表示测试样本第i次输入的模糊系统 输出,y=∑y:。式(13)和(14)所示的指标数值 1012141618202224 分别越接近于0和1,则算法的性能越好。 (a)数据集AW∈R T×d以及值在[0.5,1]之间的偏移量矩阵 B∈R T×1 。 ②根据式(1)以及图 1 将数据集 D 进行特征映 射,得到高维数据矩阵 H (1)∈R n×T 。 2)利用基于 PCA 的压缩隐空间方法对 H (1) 进 行压缩,得到维数为 p 的数据矩阵H (2) ; 3)for j = 1:f-1 ①重复步骤 1 中 1)、2); ② 将 H (2) 与 H (1) 合 并 存 入 矩 阵 H (3) 中, H (3)= [H (2) H (1) ]。 ③利用 PCA 对 H (3)进行特征提取,得到矩阵记 为 H (2) ; 循环结束; 4)构造全一矩阵 1∈R n×1 ,将最终获取的数据 H (2)= [1,H (2) ]利用 FCR 框架进行切换回归。 CHS⁃FCR 算法将基于 PCA 的压缩 ELM 隐空间 单隐层学习结构改造为多隐层学习结构。 假设从第 二层开始,每个隐含层中随机生成的 ELM 隐节点数 都是 T,由前一层 PCA 压缩后得到的隐节点数为 T′,易得隐节点总数为 L = (T + T′) × (f - 1) + T (11) 其中随机生成的 ELM 隐节点总数为 LELM = T × f (12) 经过多次隐空间压缩,噪声信息被过滤,同时会 发生相应的信息损失;但是每个混合层中新生成的 ELM 隐节点信息弥补了这些丢失的信息,因此本文 的堆叠隐空间结构能得到更好的学习效果。 3 实验研究与分析 3.1 实验平台以及算法性能的评价指标 本文在表 1 中实验平台上进行所有实验并且采 用式(13)和(14)所示的指标来评价各算法的性能。 JRRSE = 1 N∑ N i = 1 (yi ′ - yi) 2 / 1 N∑ N i = 1 (yi - y - ) 2 (13) JSCC = N∑ N i = 1 yi ′·y ( i) 2 N∑ N i = 1 (yi ′) 2- (∑ N i = 1 yi) 2 [ ]· N∑ N i = 1 (yi) 2-(∑ N i = 1 yi) 2 [ ] (14) 式中:N 表示测试样本数,yi 表示测试样本第 i 次输 入的输出,yi ′表示测试样本第 i 次输入的模糊系统 输出, y - = 1 N∑ N i = 1 yi 。 式(13)和(14)所示的指标数值 分别越接近于 0 和 1,则算法的性能越好。 表 1 实验平台 Table 1 Experimental platform 结构 配置 CPU Intel(R)Core(TM) i5-4590 3.30GHz 内存 8.00 GB 操作系统 64bit Windows7 软件平台 Matlab R2012a 3.2 鲁棒性实验 本实验中,基于文献[5]的模拟回归数据集,通 过分别加入噪声点和离群点来比较 FCR 以及 CHS⁃ FCR 算法的鲁棒性。 实验中,FCR 算法和 CHS⁃FCR 算法的模型个数 c = 2,模糊指数 m = 2,CHS⁃FCR 隐 空间压缩次数 f = 5,PCA 特征提取后的维数 p = 3。 3.2.1 离群点实验 在切换回归分析中,离群点主要是指不符合任 一模型的数据,它主要是在收集数据的过程中出现 误操作或异常情况而引入的。 本实验中基于式 (15)和(16)生成 2 个回归数据集,并分别加入离群 点(16,8)。 实验数据集分布如图 4 所示。 A: y1 = 18 - x + 0.031 25x 2 y2 = - 2 + x - 0.031 25x { 2 (15) B: y1 = 172 - 26x + x 2 y2 = 364 - 38x + x { 2 (16) 图 5 和图 6 给出了加入离群点之前模糊 C 均值 回归算法(fuzzy C regression algorithm, FCR)和堆叠 隐空 间 模 糊 C 回 归 算 法 ( cascaded hidden space FCR, CHS⁃FCR)的回归结果,图 7 和图 8 给出了加 入离群点之后两算法的回归结果。 从中可以看出, 加入离群点之前,FCR 和 CHS⁃FCR 这 2 个算法均可 以得到理想的结果。 加入离群点之后,FCR 的拟合 效果明显受到离群点的影响;但是 CHS⁃FCR 仍然能 得到令人满意的拟合结果。 可见,压缩隐空间方法 的引入使本文所提的 CHS⁃FCR 算法对离群点具有 更好的鲁棒性。 (a)数据集 A 第 5 期 刘欢,等:堆叠隐空间模糊 C 回归算法及其在发酵数据多模型建模中的应用 ·673·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有