正在加载图片...
第6期 李庆勇,等:基于分类差异与信息嫡对抗的无监督域适应算法 ·1001· 别的概率值越接近,表明分类边界越模糊,反之, 量分类器差异的H距离和常数A,其中H距离 信息嫡越小,表明分类边界越清晰。如图2所示, 用来度量区分不同域分类器的差异,入表示理想 借鉴对抗训练思想、特征生成器最小化信息熵、 假设的共享误差,通常被认为是一个极小的值。 分类器最大化信息熵,实现使生成的特征向量∫ 使用H表示分类器假设空间,对于给定的源域 远离分类边界的目的,其中不同形状的标志点代 和目标域T,则: 表不同类别的样本。 YheH,R,≤R,+idS,TD+人 (1) 分类器最大化 特征生成器 原特征分布 信息嫡 最小化信息嫡 dH(S,T)=2supE[h)≠h(-EIh)≠h(w] (hH (2) a=min[Rs(h)+R(h)] (3) 式中:[a是一个二值函数,当预测a正确时函数 值为1,否则为0。对于d4(S,T),通过对带标签的 图2信息熵对抗过程 源域数据的监督学习,可以认为预测函数h和 Fig.2 Information entropy confrontation process 可以对源域数据实现很好地分类,所以Eh(x)≠ 1.2算法分析 (x】部分值极小,因此可以近似认为: 本文算法的目标是利用特定任务的分类器作 dn(S.T)=sup E I[h(x)h(x] (4) (hh)EH护一 为判别器来减小源域和目标域特征的距离,以考 式(4)表示两个分类器对目标域样本预测差 虑类边界和目标样本之间的关系。为实现这个目 异的极限值。将h用特征提取器G的函数G(x)和 标,必须检测到靠近分类边界的目标域样本,本 分类器F,的函数F表示,用特征提取器G的函 文算法利用了两种分类器在目标样本预测上的不 数G(x)和分类器F2的函数F2表示,用符号“。”表示 一致性。由于源域数据带标签,所以分类器可以 不同网络结构之间输入输出的连接,则可以得到 对源域样本正确分类,两分类器F和F2的初始 955,oG(≠E,oG (5) 化不同必然使决策边界不同。如图3所示,处于 阴影处的目标域样本会被错误分类,如果能够测 引人对抗训练的方式,实现对特征提取器G 量两个分类器分类结果之间的不一致,并训练生 的优化: 成器使之最小化,则生成器将避免生成错误分类 minmx EFG≠FoG (6) 的目标域特征。同时分类器输出结果pOx)和 本文算法的目标是获得一个特征生成器,这 P2O)的信息熵越小,表示预测结果越具有确定 个特征生成器可以将目标样本的分类不确定性最 性,所以训练生成器使分类结果信息熵最小化, 小化,并且可以使目标域样本与源域样本的距离 则特征生成器将生成远离分类器决策边界的更加 最小化。 具有区分性的特征。 13 Softmax交叉熵损失 域适应前 最大化分类 最小化分类 域适应后 本文使用Softmax交叉嫡损失来优化有标注 距离和信息熵距离和信息嫡 源域数据集上的监督学习分类任务,通过对源域 数据的监督学习可以保证特征生成器在先验特 征空间上有合理的构造。Softmax交叉熵损失定 义为 目标域源域分类差异 类别1○ 一分类器决策边界 L(X,Y)=- 116=y91ogp.9) (7) 类别2○⊙ -一一.模糊决策边界 i=1 式中:i=)是一个二值函数,当i与相等 图3本文算法特征分布对齐过程 时,其值为1,否则为0;P:是经过映射函数得到 Fig.3 Alignment process of the feature distribution is presented in this paper 的分类概率输出,p,=Softmax oFoG。 使用距离d(px),P2Ox》度量分类器F和 1.4 分类差异损失 F2之间的差异,其中d表示计算两概率分布散度 将两个分类器的概率输出之差的绝对值之和 的函数。根据Ben-David等8提出的目标域样本 定义为分类距离损失: 误差限的计算理论,目标域样本的误差限Rh) 1 La(X )d(pi(yx,),p2(x,))= Elpu-pal (8) 与3个因素有关,包括源域样本误差限R()、度f 别的概率值越接近,表明分类边界越模糊,反之, 信息熵越小,表明分类边界越清晰。如图 2 所示, 借鉴对抗训练思想、特征生成器最小化信息熵、 分类器最大化信息熵,实现使生成的特征向量 远离分类边界的目的,其中不同形状的标志点代 表不同类别的样本。 原特征分布 分类器最大化 信息熵 特征生成器 最小化信息熵 图 2 信息熵对抗过程 Fig. 2 Information entropy confrontation process 1.2 算法分析 F1 F2 p1(y|x) p2(y|x) 本文算法的目标是利用特定任务的分类器作 为判别器来减小源域和目标域特征的距离,以考 虑类边界和目标样本之间的关系。为实现这个目 标,必须检测到靠近分类边界的目标域样本,本 文算法利用了两种分类器在目标样本预测上的不 一致性。由于源域数据带标签,所以分类器可以 对源域样本正确分类,两分类器 和 的初始 化不同必然使决策边界不同。如图 3 所示,处于 阴影处的目标域样本会被错误分类,如果能够测 量两个分类器分类结果之间的不一致,并训练生 成器使之最小化,则生成器将避免生成错误分类 的目标域特征。同时分类器输出结果 和 的信息熵越小,表示预测结果越具有确定 性,所以训练生成器使分类结果信息熵最小化, 则特征生成器将生成远离分类器决策边界的更加 具有区分性的特征。 最大化分类 距离和信息熵 最小化分类 距离和信息熵 域适应前 域适应后 目标域 源域 分类器决策边界 分类差异 F1 F1 F1 F1 F2 F2 F2 F2 模糊决策边界 类别 1 类别 2 图 3 本文算法特征分布对齐过程 Fig. 3 Alignment process of the feature distribution is presented in this paper d(p1(y|xt), p2(y|xt)) F1 F2 RT (h) RS (h) 使用距离 度量分类器 和 之间的差异,其中 d 表示计算两概率分布散度 的函数。根据 Ben-David 等 [18] 提出的目标域样本 误差限的计算理论,目标域样本的误差限 与 3 个因素有关,包括源域样本误差限 、度 H λ H λ H 量分类器差异的 距离和常数 ,其中 距离 用来度量区分不同域分类器的差异, 表示理想 假设的共享误差,通常被认为是一个极小的值。 使用 表示分类器假设空间,对于给定的源域 S 和目标域 T,则: ∀h ∈ H,RT (h) ⩽ RS (h)+ 1 2 dH (S,T)+λ (1) dH (S,T) = 2 sup (h,h ′ )∈H2 E x∼S I[h(x) , h ′ (x)]− E x∼T I[h(x) , h ′ (x)] (2) λ = min[RS (h)+RT (h)] (3) I[a] a dH (S,T) h h ′ E x∼S I[h(x) , h ′ (x)] 式中: 是一个二值函数,当预测 正确时函数 值为 1,否则为 0。对于 ,通过对带标签的 源域数据的监督学习,可以认为预测函数 和 可以对源域数据实现很好地分类,所以 部分值极小,因此可以近似认为: dH (S,T) = sup (h,h ′ )∈H2 E x∼T I[h(x) , h ′ (x)] (4) h G G(x) F1 F1 h ′ G G(x) F2 F2 ◦ 式 (4) 表示两个分类器对目标域样本预测差 异的极限值。将 用特征提取器 的函数 和 分类器 的函数 表示, 用特征提取器 的函 数 和分类器 的函数 表示,用符号“ ”表示 不同网络结构之间输入输出的连接,则可以得到 sup F1 ,F2 E x∼T I[F1 ◦G(x) , F2 ◦G(x)] (5) 引入对抗训练的方式,实现对特征提取器 G 的优化: min G max F1,F2 E x∼T I[F1 ◦G(x) , F2 ◦G(x)] (6) 本文算法的目标是获得一个特征生成器,这 个特征生成器可以将目标样本的分类不确定性最 小化,并且可以使目标域样本与源域样本的距离 最小化。 1.3 Softmax 交叉熵损失 本文使用 Softmax 交叉熵损失来优化有标注 源域数据集上的监督学习分类任务,通过对源域 数据的监督学习可以保证特征生成器在先验特 征空间上有合理的构造。Softmax 交叉熵损失定 义为 Lcl(Xs ,Ys) = − 1 K ∑K i=1 I(i = y (i) s )log ps(x (i) s ) (7) I(i = y (i) s ) i y (i) s ps ps = Softmax ◦ F ◦G 式中: 是一个二值函数,当 与 相等 时,其值为 1,否则为 0; 是经过映射函数得到 的分类概率输出, 。 1.4 分类差异损失 将两个分类器的概率输出之差的绝对值之和 定义为分类距离损失: Ld(Xt) = d(p1(y|xt), p2(y|xt))= 1 K ∑K k=1 |p1k − p2k | (8) 第 6 期 李庆勇,等:基于分类差异与信息熵对抗的无监督域适应算法 ·1001·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有