正在加载图片...
322 智能系统学报 第5卷 和编码矩阵均做适度的调整,以使剩余误差尽量小 果的基础上通过对原编码矩阵和原基矩阵进行某种 DNMF算法在调整基矩阵的同时,将新增样本的影 修正得到的新基矩阵、新编码矩阵为W和丑.则可 响即时施加到原样本的编码中,即随着样本的持续 得增量差的定义如下: 加入,编码矩阵随之做相应的调整, 定义2增量差 INMF算法使用a和(1-a)来控制前k个样本 e=‖Vn+1-Win+1‖. 和第(k+1)个样本对目标函数的影响.若α接近于 式中:”+1为新增样本向量,五.+1为日中v。+1所对应 1,则第(k+1)个样本的影响可以忽略.而文献[5] 的编码向量。 所进行的实验中,均削弱了新增样本的影响.如在第 在实际应用中,为保证增量型NMF算法的有效 1项实验中,为比较NMF和INMF算法分解背景样 性,应保证分解结果有一定的准确度,避免因算法本 本数据集所产生的剩余误差,将α分别设为0.2及 身导致分解的质量下降或下降太大,为此提出判断 0.3,均接近于0,降低了新增样本的影响.显然,即 增量型NMF算法有效性的误差准则: 使比较结果INMF的剩余误差较NMF小,也是没多 准则1当增量型NMF算法的分解结果满足 大意义的.文献[5]中第2和第3项实验也存在同 e≤e·时,算法是比较合理的. 样的问题 由于e'是对V"重新进行NMF分解得到的最大 样本差,因此最好的情况是通过某种增量型算法得 3本文算法的基本思想 到的最大样本差不超过”,而通常增量型算法都是 DNMF的目标是增加新样本时,将其影响即时 对原编码矩阵和原基矩阵进行某种修正得到新的分 施加到编码矩阵W和基矩阵H上,且尽量减少迭 解结果,难以达到这样的准确度.鉴于此,提出以上 代次数,即具有较低的计算复杂度.另外,增加样本 准则,当增量差满足e≤e·时,结果即是可接受的. 时,对W和H的更新应使DNMF分解具有较低的 3.2算法的设计思路 重构误差且算法不需要满秩分解的限制,即应具有 对于动态数据集,新增样本和原先的样本集通 更广泛的应用.以下描述DNMF的基本思想及算法 常具有一定的相似性,即具有许多共同特征.因此, 步骤 新增样本对原先个样本分解产生的基矩阵W。和 3.1相关定义 编码矩阵H,进行的更新通常是不显著的.鉴于此, 假设W.和H,为原k个样本进行NMP分解产生 将W.用于(k+1)个样本时W1的初始化,H.用 的编码矩阵和基矩阵,Ck为代价函数,即重构误差 于H+前k列的初始化.相对于随机初始化,该初 Ck=‖V-WH.‖2= 始化方法使迭代过程从较接近于局部最优收敛点的 k }∑∑(V,-(wa)) 地方开始进行,且保证增加样本前后算法能以较大 2台台 概率收敛于同一收敛点,有效的减少了迭代次数.同 增加一个样本时,将编码矩阵和基矩阵定义为 时,保证了分解的准确度,实现对W+!和Hk+1的即 W+和H+1,”为样本矩阵.此时代价函数为 时更新。 Ck+1=‖V”-W+1H+1‖2= 3.3算法设计 号2Σ(v,-(wAg)只 本节具体给出DNMF算法.该算法是在NMF算 2台台 法的基础上对其初始化方式进行改进得到的.当新 为判断增量算法的有效性,进行如下定义: 增一个样本时, 定义1最大样本差 1)保存k个样本时分解产生的基矩阵W.和编 ema=max‖:-Wh:l,i=1,2,…,n 码矩阵H: 式中:”:是第i个样本向量,W是分解产生的基矩 2)用W。初始化W+1,H.初始化H+前k列. 阵,h:是第个样本的编码向量,n为样本数。 3)对Hk+1第k+1列进行随机初始化. 当增加一个样本时,对新的样本数据矩阵重新 4)使用2)、3)的迭代规则进行计算 进行NMF分解,设得到的最大样本差为e.同时, 5)符合迭代停止条件,算法结束,否则转4), 设新样本数据矩阵V”在原样本或者原样本分解结 新增样本时,和INMF相比,DNMF对编码矩阵
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有