正在加载图片...
第4期 杨志君,等:动态学习的非负矩阵分解算法 ·323· 和基矩阵均进行了调整,减小了剩余误差.且从3.2 平均到样本向量中的各个元素(元素个数为向量维 节的分析可知,算法第2)步使得DNMF从较接近于 数),误差约为0.088,相较于上限1,误差较小 收敛点的位置开始迭代过程,降低了计算复杂度.当 4.2PET2001数据集 增加样本时,若该类的训练样本数较大,相比 PET2001数据集是某道路视频监控的各帧图像 DNMF,BNMF的计算复杂度较高, 的集合,其中包含不同光照条件下的背景图像和某 些时刻人、车等的移动画面.静态背景和随时间变化 4实验结果与分析 的移动物体使该数据集较适合于评价非负分解算法 为评价DNMF算法在动态数据集上的效果,进 的动态学习能力. 行了5项实验.第1个实验的数据集由Matlab生 为便于处理,从中选取800张图像(dataset1, 成;接下来的3个实验分别使用PET200181、tempo- 0350-1150)并将其转换为134×100的jPg格式的灰 ral image6和swimmers[9]数据集;第5个实验展示 度图.由于相邻帧的图像没有太大的变化,从每10 了在分离的swimmers数据集上DNMF识别噪声点 帧中取一帧以更好的评价算法的动态学习能力,共 的能力 80帧 实验在Windows XP环境下进行,Cpu为赛扬 实验中,以前35张为初始样本集,接着每隔6 2.40GHz,内存512M,Matlab为7.0版. 张分别使用DNMF和INMF对图片构成的数据矩阵 4.1使用Matlab生成的不同规模数据集 进行增量分解,取「为20,迭代中止条件为 DNMF算法使用前k个样本分解产生的基矩阵 T-T:+1≤5,INMF的a参数取0.3. W和编码矩阵H来初始化W+1和Hk+1,可使迭 图1为实验中NMF的最大样本差、DNMF的增 代以较大概率收敛于原收敛点,同时使迭代从较接 量差和INMF的增量差随样本数的变化情况.可看 近于收敛点的位置开始,减少了中止所需的迭代次 出在该数据集中NMF的增量差均高于NMF的最 数.实验中用Matlab随机生成函数生成不同规模的 大样本差,随着样本数持续增加,INMF算法的增量 数据矩阵,当增加一个随机样本时分别测试DNMF 差大幅增长.而DNMF算法的增量差均低于NMF的 的增量差和NMF的最大样本差.设样本数为m时, 最大样本差,证实DNMF的有效性.DNMF相对于 第次迭代各样本所产生的平均误差为 INMF具有更好的准确率是由于INMF在增加新图 T:=‖V-WH:‖2/m 像时,原先的编码矩阵没有随之变化,而基图像已经 设置迭代中止条件为T:-T:+1≤0.0001, 更新,使增量差加大.另外,随着样本数的增加, 表1中的次数指算法中止时经过的迭代次数. DNMF的增量差同样有较大增长,这和r有着密切 基向量个数取10. 的关系,具体研究留待以后的工作 表1不同数据规模DNMF和NMF的样本差和迭代次数 12x10 Table 1 Sample error and iteration times of DNMF and INMF 10 DNME NMF with different data scales -NMF 未增加样 增加后 增加后增加后 增加后 6 本前的数 NMF所 NMF最大 DNMF所 DNMF 据规模 需次数样本差 需次数增量差 100×100 524 8.623 67 7.285 40 50 60 70 300×300 732 26.29 72 样本数 22.50 500×500 894 44.17 43 41.81 图1最大样本差和增量差随帧数的变化情况 800×8001005 71.51 76 67.69 Fig.1 The biggest sample error and incremental error chan- 1500×10001247 129.8 124.4 3000×10001660 261.1 80 244.2 ging with the frame number 图2为实验中各算法执行时间随帧数的变化情 表1的实验结果表明DNMF在该数据集上符 况.在实验的大部分过程中,DNMF算法的执行时间 合准则1,是有效算法.且由于迭代从接近于收敛点 低于INMF.由于DNMF总是以接近于收敛点的位置 的位置开始,使DNMF和NMF相比减少了迭代次 开始迭代,因此有效的减少了算法的执行时间.随着 数,缩短了算法执行时间.表1中所示的最大样本差
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有