第15卷第6期 智能系统学报 Vol.15 No.6 2020年11月 CAAI Transactions on Intelligent Systems Nov.2020 D0L:10.11992tis.202006043 基于信息熵的对象加权概念格 张晓鹤,陈德刚',米据生2 (1.华北电力大学控制与计算机工程学院,北京102200,2.河北师范大学数学科学学院,河北石家庄 050024) 摘要:在大数据时代,由于数据规模越来越大,导致构造概念格的难度越来越高。在能够客观反映数据隐藏 信息的前提下需删除冗余对象及属性,降低数据规模,构造更为简单的概念格,从而便于用户更高效地获取知 识。为避免主观因素,本文由形式背景中属性的信息嫡来获取单属性权重,采用均值方法计算对象权重,并用 标准差计算对象重要性偏差值。通过设定的属性权重、对象权重和对象重要度偏差阈值,构造对象加权概念 格。通过实例验证了,该方法可有效删除冗余概念,简化概念格构造过程。 关键词:形式背景;概念;信息嫡:粒计算:概念格;决策规则:权值:数据挖掘 中图分类号:TP18:O236文献标志码:A 文章编号:1673-4785(2020)06-1097-07 中文引用格式:张晓鹤,陈德刚,米据生.基于信息熵的对象加权概念格JL智能系统学报,2020,15(6):1097-1103. 英文引用格式:ZHANG Xiaohe,,CHEN Degang,.MI Jusheng.Object--weighted concept lattice based on information entropyJ. CAAI transactions on intelligent systems,2020,15(6):1097-1103. Object-weighted concept lattice based on information entropy ZHANG Xiaohe',CHEN Degang',MI Jusheng (1.School of Control and Computer Engineering,North China Electric Power University,Beijing 102200,China;2.College of Math- ematics and Information Science.Hebei Normal University.Shijiazhuang 050024.China) Abstract:In the era of big data,it is becoming increasingly difficult to construct concept lattices due to the increasingly large scale of data.To objectively reflect hidden information,redundant objects and attributes should be deleted and data size should be reduced to construct simple concept lattices,thus,facilitating users to acquire knowledge efficiently.In this study,to prevent subjective factors,the information entropy of an attribute in the formal context is used to obtain a single attribute weight and the attribute weight of the object is,then,calculated using the mean value method and the im- portance deviation of the object is calculated by standard deviation.By setting the attribute weight,object weight,and object importance deviation threshold,an object-weighted concept lattice is constructed.An example is provided to veri- fy the effectiveness of this method in removing redundant concepts and simplifying the construction of concept lattices. Keywords:formal context;context,information entropy;granular computing;concept lattice;decision rules,weight value;data mining 概念格理论四是在形式背景中进行数据分析 了保持概念格的粒结构不变的属性约简。米据生 的一个重要工具,由Wille教授在1982年提出,从 等分别从变精度2]和公理化1角度考虑概念格 本质上描述了对象集和属性集的内在联系。 约简问题。针对大型数据集,陈锦坤等41将图 目前,概念格理论已在信息检索2)、数据挖 论理论与概念格理论进行结合,提出了一种快速 掘s刀、机器学习s0等领域取得了广泛应用。吴 属性约简方法。邵明文等从形式概念分析理 伟志等将粒计算与概念格理论进行结合,研究 论角度提出一种从信息表中提取决策规则的方 法。李金海等针对决策形式背景提出了一种 收稿日期:2020-06-24. 基金项目:国家自然科学基金项目(12071131,62076088). 新的知识认知和约简框架,并给出约简算法,进 通信作者:陈德刚.E-mail:zxhzxh93@126.com 一步提出了保持由全体对象集构造的决策规则不
DOI: 10.11992/tis.202006043 基于信息熵的对象加权概念格 张晓鹤1 ,陈德刚1 ,米据生2 (1. 华北电力大学 控制与计算机工程学院,北京 102200; 2. 河北师范大学 数学科学学院,河北 石家庄 050024) 摘 要:在大数据时代,由于数据规模越来越大,导致构造概念格的难度越来越高。在能够客观反映数据隐藏 信息的前提下需删除冗余对象及属性,降低数据规模,构造更为简单的概念格,从而便于用户更高效地获取知 识。为避免主观因素,本文由形式背景中属性的信息熵来获取单属性权重,采用均值方法计算对象权重,并用 标准差计算对象重要性偏差值。通过设定的属性权重、对象权重和对象重要度偏差阈值,构造对象加权概念 格。通过实例验证了,该方法可有效删除冗余概念,简化概念格构造过程。 关键词:形式背景;概念;信息熵;粒计算;概念格;决策规则;权值;数据挖掘 中图分类号:TP18;O236 文献标志码:A 文章编号:1673−4785(2020)06−1097−07 中文引用格式:张晓鹤, 陈德刚, 米据生. 基于信息熵的对象加权概念格 [J]. 智能系统学报, 2020, 15(6): 1097–1103. 英文引用格式:ZHANG Xiaohe, CHEN Degang, MI Jusheng. Object-weighted concept lattice based on information entropy[J]. CAAI transactions on intelligent systems, 2020, 15(6): 1097–1103. Object-weighted concept lattice based on information entropy ZHANG Xiaohe1 ,CHEN Degang1 ,MI Jusheng2 (1. School of Control and Computer Engineering, North China Electric Power University, Beijing 102200, China; 2. College of Mathematics and Information Science, Hebei Normal University, Shijiazhuang 050024, China) Abstract: In the era of big data, it is becoming increasingly difficult to construct concept lattices due to the increasingly large scale of data. To objectively reflect hidden information, redundant objects and attributes should be deleted and data size should be reduced to construct simple concept lattices, thus, facilitating users to acquire knowledge efficiently. In this study, to prevent subjective factors, the information entropy of an attribute in the formal context is used to obtain a single attribute weight and the attribute weight of the object is, then, calculated using the mean value method and the importance deviation of the object is calculated by standard deviation. By setting the attribute weight, object weight, and object importance deviation threshold, an object-weighted concept lattice is constructed. An example is provided to verify the effectiveness of this method in removing redundant concepts and simplifying the construction of concept lattices. Keywords: formal context; context; information entropy; granular computing; concept lattice; decision rules; weight value; data mining 概念格理论[1] 是在形式背景中进行数据分析 的一个重要工具,由 Wille 教授在 1982 年提出,从 本质上描述了对象集和属性集的内在联系。 目前,概念格理论已在信息检索[2-4] 、数据挖 掘 [5-7] 、机器学习[8-10] 等领域取得了广泛应用。吴 伟志等[11] 将粒计算与概念格理论进行结合,研究 了保持概念格的粒结构不变的属性约简。米据生 等分别从变精度[12] 和公理化[13] 角度考虑概念格 约简问题。针对大型数据集,陈锦坤等[14-15] 将图 论理论与概念格理论进行结合,提出了一种快速 属性约简方法。邵明文等[16] 从形式概念分析理 论角度提出一种从信息表中提取决策规则的方 法。李金海等[17-18] 针对决策形式背景提出了一种 新的知识认知和约简框架,并给出约简算法,进 一步提出了保持由全体对象集构造的决策规则不 收稿日期:2020−06−24. 基金项目:国家自然科学基金项目 (12071131,62076088). 通信作者:陈德刚. E-mail:zxhzxh93@126.com. 第 15 卷第 6 期 智 能 系 统 学 报 Vol.15 No.6 2020 年 11 月 CAAI Transactions on Intelligent Systems Nov. 2020
·1098· 智能系统学报 第15卷 变的情况下的属性约简方法。三支形式概念分 念,(X2,B2)是(X,B1)的父概念,记为 析20的提出丰富了概念格理论,魏玲和任睿思进 (X1,B1)≤(X2,B2) 一步研究了三支概念格的属性约简与决策规 另外,两个概念的上下确界定义分别为 则提取四。李俊余等2)研究了基于同余关系的不 (X1.B)V(X2,B2)=(g f(X1 UX2),BInB2) 协调决策形式背景的属性约简。 (X1,B)A(X2,B2)=(XinX2.fg(B:UB2)) 定义5设F=(U,A,D为形式背景,其中U 如何简化概念格结构,从而便于提取用户所 需信息是该领域的一个重要问题。上述研究中, {x,2,…,xn,x∈U,a∈A,则P(a/x)表示对象x提 往往默认形式背景中所有属性重要度是相同的, 供给属性a的平均信息量,即属性a的信息量为 然而在实际问题中,可能仅需针对特定属性进行 H(a)=-P(alx)log:P(alx) 数据挖掘,即不同属性的重要性是不同的。张继 福等通过对概念格的内涵引入权值,提出一种 信息熵值越大,表示对象集U具有该属性的 加权概念格,拓广了概念格的结构。张素兰等 不确定性越大,也即该属性的信息量越大,信息 在此基础上提出了一种基于信息熵和偏差分析的 嫡从平均意义上表示了属性的总体特性。 加权概念格的内涵权重获取方法。但上述两种加 2对象加权概念格 权概念格并没有考虑到对象权重的问题。 概念格需储存由形式背景获取的全部概念及 2.1对象权重及对象重要度偏差 属性间的偏序关系,使概念格构造过程变得异常 定义6设F=(U,A,)为形式背景,且U= 困难。同时随着大数据时代的到来,需要分析的 {,,…,xn,A={a1,a2,…,aml,每个属性:的权重 数据越来越多,如果想要将其中所有概念提取出 均已知,记为w(a)。 来,并根据概念间的偏序关系构成概念格,难度 x∈U,f)={a,a2,…,as,l,对象x的权重定 进一步加大。因此,如何删除无用的属性和对 义为 象,降低构造概念格的难度,使提取的规则更加 简洁就成为我们应该考虑的重要问题。本文通过 w() j=1 信息嫡给出单个属性权重后,进一步给出对象权 d(x)= 重和重要度偏差的定义,利用3个阈值对冗余数 通过定义6获取的对象权重能够反映该对象 据进行删除,缩小了概念格的规模,提高了构造 的总体信息量,但是却忽略了该结果可能存在偏 概念格的时间效率,并且能够让决策规则的提取 差,不利于获得具有一定偏差的信息。 过程更为简洁高效。 定义7对象x的重要度偏差定义为 1预备知识 1 D(x) t-1 (w(a,)-dx月 首先简单介绍形式背景中的相关知识。 由重要度偏差定义,特规定当t=1时,有 定义1设F=(U,A,)为形式背景,其中U= D(x)=0。 {,2,…,xn},A={a1,a2,…,am},IUXA。如果 通过定义对象权重和对象重要度偏差能够更 (x,a)∈I,则称x具有属性a。用PU表示U的幂 全面地考虑形式背景中隐含的知识。 集,PA)表示A的幂集。YX∈P(U),B∈P(4),定义: f)={a∈A:Vx∈X,(x,a)∈ 2.2对象加权概念格及其构造 g(B)={x∈U:Ya∈B,(x,a)eI 在无专家给定属性权重时,需通过信息嫡公 定义2设F=(U,A,)为形式背景,对于 式求出属性对应的信息量,再进行归一化处理获 USU,ASA,可以得到形式背景F=(U,A,), 得每个属性的权重。按照对象对于属性是否感兴 称为F的子背景,其中'=In(U×C)。 趣,给出属性权重阈值为a(0≤a≤1),对于形式背 定义3设F=(U,A,D为形式背景,若二元 景F=(U,A,D上的任意属性aeA,如果w(a)<a, 组(X,B)∈P(U)×PA)能够满足fX)=B且g(B)=X, 则称该属性冗余。给定对象权重阈值为(0≤B≤), 则(XB)称为形式概念或概念。其中,X称为外 对于形式背景(U,A,D上的任意对象x∈U,如果 延,B称为内涵。由形式背景(U,A,)构造的概念 (x)<B,则称该对象冗余。删除冗余概念及对象 格记为L(U,A,D。 获取的子形式背景记为F4=(U,Aa,),其构造的 定义4设(X1,B1),(X2,B2)EL(U,A,D,如果 概念格称为对象加权概念格。 X1二X2或者U2二U1则称X1,B)是(X2,B,)的子概 设对象重要度偏差阈值为6(0≤6≤1),对于
变的情况下的属性约简方法[19]。三支形式概念分 析 [20] 的提出丰富了概念格理论,魏玲和任睿思进 一步研究了三支概念格的属性约简[21] 与决策规 则提取[22]。李俊余等[23] 研究了基于同余关系的不 协调决策形式背景的属性约简。 如何简化概念格结构,从而便于提取用户所 需信息是该领域的一个重要问题。上述研究中, 往往默认形式背景中所有属性重要度是相同的, 然而在实际问题中,可能仅需针对特定属性进行 数据挖掘,即不同属性的重要性是不同的。张继 福等[24] 通过对概念格的内涵引入权值,提出一种 加权概念格,拓广了概念格的结构。张素兰等[25] 在此基础上提出了一种基于信息熵和偏差分析的 加权概念格的内涵权重获取方法。但上述两种加 权概念格并没有考虑到对象权重的问题。 概念格需储存由形式背景获取的全部概念及 属性间的偏序关系,使概念格构造过程变得异常 困难。同时随着大数据时代的到来,需要分析的 数据越来越多,如果想要将其中所有概念提取出 来,并根据概念间的偏序关系构成概念格,难度 进一步加大。因此,如何删除无用的属性和对 象,降低构造概念格的难度,使提取的规则更加 简洁就成为我们应该考虑的重要问题。本文通过 信息熵给出单个属性权重后,进一步给出对象权 重和重要度偏差的定义,利用 3 个阈值对冗余数 据进行删除,缩小了概念格的规模,提高了构造 概念格的时间效率,并且能够让决策规则的提取 过程更为简洁高效。 1 预备知识 首先简单介绍形式背景中的相关知识。 F = (U,A,I) U = {x1, x2,··· , xn} A = {a1,a2,··· ,am} I ⊆ U × A (x,a) ∈ I x a P(U) U P(A) A ∀X ∈ P(U) B ∈ P(A) 定义 1 设 为形式背景,其中 , , 。如果 ,则称 具有属性 。用 表示 的幂 集, 表示 的幂集。 , ,定义: f(X) = {a ∈ A : ∀x ∈ X, (x,a) ∈ I} g(B) = {x ∈ U : ∀a ∈ B, (x,a) ∈ I} F = (U,A,I) U ′ ⊆ U A ′ ⊆ A F ′ = (U ′ ,A ′ ,I ′ ) F I ′ = I ∩(U ′ ×C ′ ) 定 义 2 设 为形式背景,对于 , ,可以得到形式背景 , 称为 的子背景,其中 。 F = (U,A,I) (X,B) ∈ P(U)× P(A) f(X) = B g(B) = X (X,B) X B (U,A,I) L(U,A,I) 定义 3 设 为形式背景,若二元 组 能够满足 且 , 则 称为形式概念或概念。其中, 称为外 延, 称为内涵。由形式背景 构造的概念 格记为 。 (X1,B1) (X2,B2)∈ L(U,A,I) X1 ⊆ X2 U2 ⊆ U1 (X1,B1) (X2,B2) 定 义 4 设 , ,如果 或者 则称 是 的子概 念, (X2,B2) 是 (X1,B1) 的父概念,记为 (X1 ,B1) ⩽ (X2 ,B2) 另外,两个概念的上下确界定义分别为 (X1,B1)∨(X2,B2) = (g f(X1 ∪ X2),B1 ∩ B2) (X1,B1)∧(X2,B2) = (X1 ∩ X2, f g(B1 ∪ B2)) F = (U,A,I) U = {x1, x2,··· , xn} xi ∈ U a ∈ A P(a/xi) x a a 定义 5 设 为形式背景,其中 , , ,则 表示对象 提 供给属性 的平均信息量,即属性 的信息量为 H(a) = − ∑n i=1 P(a/xi)log2P(a/xi) 信息熵值越大,表示对象集 U 具有该属性的 不确定性越大,也即该属性的信息量越大,信息 熵从平均意义上表示了属性的总体特性。 2 对象加权概念格 2.1 对象权重及对象重要度偏差 F = (U,A,I) U = {x1, x2,··· , xn} A = {a1,a2,··· ,am} ai w(ai) 定义 6 设 为形式背景,且 , ,每个属性 的权重 均已知,记为 。 ∀x ∈ U f(x) = {as1 ,as2 ,··· ,ast , } ,对象 x 的权重定 义为 d(x) = ∑t j=1 w (asj ) t 通过定义 6 获取的对象权重能够反映该对象 的总体信息量,但是却忽略了该结果可能存在偏 差,不利于获得具有一定偏差的信息。 定义 7 对象 x 的重要度偏差定义为 D(x) = vt 1 t−1 ∑t j=1 (w (asj )−d(x))2 t = 1 D(x) = 0 由重要度偏差定义,特规定当 时,有 。 通过定义对象权重和对象重要度偏差能够更 全面地考虑形式背景中隐含的知识。 2.2 对象加权概念格及其构造 α 0 ⩽ α ⩽ 1 F = (U,A,I) a ∈ A w(a) < α β 0 ⩽ β ⩽ 1 (U,A,I) x ∈ U d(x) < β Fd = (Ud,Ad,Id) 在无专家给定属性权重时,需通过信息熵公 式求出属性对应的信息量,再进行归一化处理获 得每个属性的权重。按照对象对于属性是否感兴 趣,给出属性权重阈值为 ( ),对于形式背 景 上的任意属性 ,如果 , 则称该属性冗余。给定对象权重阈值为 ( ), 对于形式背景 上的任意对象 ,如果 ,则称该对象冗余。删除冗余概念及对象 获取的子形式背景记为 ,其构造的 概念格称为对象加权概念格。 设对象重要度偏差阈值为 δ ( 0 ⩽ δ ⩽ 1 ),对于 ·1098· 智 能 系 统 学 报 第 15 卷
第6期 张晓鹤,等:基于信息嫡的对象加权概念格 ·1099· 形式背景(U,A,D上的任意对象x∈U,如果D(x)> 设(U,A,I,D,)为决策形式背景,则由形式背 6,则称x为偏差对象。不包含冗余属性、冗余对 景F=(U,A,D能够获得子形式背景Fp=(Un,AD 象、偏差对象的子形式背景,记为Fo=(Uo,AD,Io)。 ),进一步可构造对象强加权概念格,记为 由此构造的概念格称为对象强加权概念格。 L(Uo,An,Ib)。称(XB)∈L(Uo,Ao,Io)为条件概念。 通过删除不满足给定的属性权重阈值α的属 X、B均为非空集合,如果有XD=1,则称 性和不满足对象权重阈值B或对象重要度偏差阈 X (X,B)白(Dk,T)为决策形式背景的粒决策规则。 值6的对象能够节省形式背景存储空间,从而获 简记为B→T。 得简化的概念格,提升概念格构造效率,并且获 下面给出具体算法。 取的概念形式更为简单,有利于规则提取。 算法2粒决策规则获取算法 算法1对象强加权概念格的构造算法 输入(U,A,I,D,) 输入F=(U,A,D,a,B,6(其中0≤a≤1, 输出粒决策规则 0≤B≤1,0≤6≤1): 1)compute L(Fp) 输出对象强加权概念格。 1)forl≤i≤4do 2)Vx.yEU 3)for1≤k≤ID1do 2)w(a)= H(a) 4)if di(x)=d(y)then ∑H(a) 5)(x.y)ERp 3)end for 6)end if 4)initialize d'(x )=0 7U/RD={xb:x∈U={D1,D2,…,D} 5)for1≤i≤4,1≤j≤lU1do 8)end for 6)if (xja)EI then 9)compute (D..T,) 7)d(x)←-w(a) l0)for all(X,B)eL(Fo),1≤t≤rdo 8)end if 11)f1 then X d'(x) 9)compute d(x)= 12)(XB)→(D,T) fx) 13)end if 10)D(x) Vr-i∑(wa-dsy 3实验和分析 11)end for 12)if w(a )6 then 3.1应用举例 13)delete xi,a 由表1给出人才市场大学生就业信息,处理 14)end if 后构成形式背景F=(U,A,),其中对象集为6位 15)Fp=(U/x,A/a,I') 求职者。属性集为A={a,b,c,d,eh,分别代表5个 16)return L(FD) 属性,即应届生、数学专业、教师资格证、英语四 2.3基于对象强加权概念格的决策规则提取 级、计算机二级。 通过2.2节中给出的对象强加权概念格的构 表1形式背景F=(U,A,) 造过程,能够帮助我们获取更为简单的概念格。 Table 1 Formal context:F=(U,A,D 如在决策形式背景中,利用该方法对于条件概念 序号 6 格进行简化,则能够大大降低概念提取的难度。 定义8设(U,A,I,D,)为决策形式背景,由 1 Rp=(x,y)eU×U:d(x)=dy)(d∈D)h,可产生U 3 上的一个划分: UIRo=xD:x∈U={D1,D2,…,D} 6 其中:xo=y∈U:(xy∈R;Hd∈D。如x,y∈Ds, 必有d(x)=dy),显然属于同一决策类的对象具 1)直接构造概念格 有相同的决策值,记T={d(De),d(D),…,do(D)》 由表1给出的形式背景直接构造的概念格如 为D的决策值。(D,T)称为决策概念。 图1所示,共12个概念结点
(U,A,I) x ∈ U D(x) > δ x FD =(UD,AD,ID) 形式背景 上的任意对象 ,如果 ,则称 为偏差对象。不包含冗余属性、冗余对 象、偏差对象的子形式背景,记为 。 由此构造的概念格称为对象强加权概念格。 α β δ 通过删除不满足给定的属性权重阈值 的属 性和不满足对象权重阈值 或对象重要度偏差阈 值 的对象能够节省形式背景存储空间,从而获 得简化的概念格,提升概念格构造效率,并且获 取的概念形式更为简单,有利于规则提取。 算法 1 对象强加权概念格的构造算法 F = (U,A,I) α β δ 0 ⩽ α ⩽ 1 0 ⩽ β ⩽ 1 0 ⩽ δ ⩽ 1 输 入 , , , ( 其 中 , , ); 输出 对象强加权概念格。 1) for 1 ⩽ i ⩽ |A| do w(ai) = H(ai) ∑ |A| i=1 H (ai) 2) 3) end for d ′ 4) initialize (xj) = 0 5) for 1 ⩽ i ⩽ |A|,1 ⩽ j ⩽ |U| do (xj 6) if ,ai) ∈ I then d ′ 7) (xj) ← w(ai) 8) end if d(xj) = d ′ (xj) f(xj) 9) compute D(xj) = √ 1 f(xj) −1 ∑ (w (ai)−d(xj))2 10) 11) end for 12) if w(ai) δ then 13) delete xj,ai 14) end if FD = (U/xj ,A/ai ,I ′ 15) ) 16) return L(FD) 2.3 基于对象强加权概念格的决策规则提取 通过 2.2 节中给出的对象强加权概念格的构 造过程,能够帮助我们获取更为简单的概念格。 如在决策形式背景中,利用该方法对于条件概念 格进行简化,则能够大大降低概念提取的难度。 (U,A,I,D, J) RD = {(x, y) ∈ U ×U : dl(x) = dl(y) (∀dl ∈ D)} U 定义 8 设 为决策形式背景,由 ,可产生 上的一个划分: U/RD = {[x]D : x ∈ U}= {D1,D2,··· ,Dr} [x]D= {y ∈ U : (x, y) ∈ RD} ∀dl ∈ D x y ∈ Dk dl(x) = dl(y) Tk = {d1(Dk),d2(Dk),··· ,d|D|(Dk)} Dk (Dk ,Tk) 其中: ; 。如 , , 必有 ,显然属于同一决策类的对象具 有相同的决策值,记 为 的决策值。 称为决策概念。 (U,A,I,D, J) F = (U,A,I) FD = (UD,AD, ID) L(UD,AD,ID) (X,B) ∈ L(UD,AD,ID) 设 为决策形式背景,则由形式背 景 能够获得子形式背景 ,进一步可构造对象强加权概念格,记为 。称 为条件概念。 X、B |X ∩ Dk | |X| = 1 (X,B) ⇒ (Dk ,Tk) B ⇒ Tk 均为非空集合,如果有 ,则称 为决策形式背景的粒决策规则。 简记为 。 下面给出具体算法。 算法 2 粒决策规则获取算法 输入 (U,A,I,D, J) 输出 粒决策规则 1) compute L(FD) 2) ∀x, y ∈ U 3) for 1 ⩽ k ⩽ |D| do 4) if dk(x) = dk(y) then 5) (x, y) ∈ RD 6) end if 7) U/RD = {[x]D : x ∈ U}= {D1,D2,··· ,Dr} 8) end for (Dt 9) compute ,Tt) 10) for all (X,B) ∈ L(FD),1 ⩽ t ⩽ r do |X ∩ Dt | |X| 11) if = 1 then (X,B) ⇒ (Dt 12) ,Tt) 13) end if 3 实验和分析 3.1 应用举例 F = (U,A,I) A = {a,b, c,d, e} 由表 1 给出人才市场大学生就业信息,处理 后构成形式背景 ,其中对象集为 6 位 求职者。属性集为 ,分别代表 5 个 属性,即应届生、数学专业、教师资格证、英语四 级、计算机二级。 表 1 形式背景 F = (U,A,I) Table 1 Formal context:F = (U,A,I) 序号 a b c d e 1 1 1 — — — 2 1 — — 1 1 3 1 1 1 — 1 4 1 — — — — 5 — 1 — — 1 6 1 1 — 1 — 1) 直接构造概念格 由表 1 给出的形式背景直接构造的概念格如 图 1 所示,共 12 个概念结点。 第 6 期 张晓鹤,等:基于信息熵的对象加权概念格 ·1099·
·1100· 智能系统学报 第15卷 23436 d2=4@+w④+w@=02 2346 d6)="@+wb+w@+wm@=0.1875 4 d山(4)=w(a)=0.11(小于B故该对象冗余需删去) d(5)="b+wm@=0.215 2 d,⑥="4@+,)+w@=0.1833 3 则可获得子形式背景Fa=(U,Au,),其中Ua= abcde {1,2,3,5,6,Aa={b,c,d,eh,具体数据如表2所示。 表2形式背景Fd=(Ud,Aa,l) 图1由F=U,A,I)构造的概念格 Table 2 Formal context:Fa=(Ua,Ad,Ia) Fig.1 Concept lattice of F=(U,A,D) 序号 b d e 2)对象加权概念格 1 给定a=0.14,B=0.14。在表1给定的形式背 2 景中通过信息熵获取属性权重。由表1可获得属 性a出现的概率为P@-?利用定义5可得属性 5 a的信息嫡: 6 5 5 H(a)=-P1(a)×log2P1(a== 6×1og6=0.2192 由表2给出的形式背景构造的概念格如图2 由计算可知: 所示,共9个概念结点,即为对象加权概念格。 P=4 Hb)=- 4 4 xlog6 =0.3899 12356] 6 P(c)=,Hi(c)=-6x10g26 =0.4308 6 2 2 Pd④=6H(d=-6×1og6=0.5283 6 bd 3 3 3 P@=6H@=-6×Iog6=0.5 HA)=H1(a)+H(b)+H(c)+H1(d)+H1(e)=2.0682 bede 可获得各属性权重,分别为:w1(@)=0.11(小于 a,故该属性冗余需删去),w(b)=0.19,w1(c)=0.21, w1(d0=0.25,w1(e)=0.24。 图2由Fa=(Ua,A,l)构造的概念格 对于对象1来说,f1)={a,b1。则 Fig.2 Concept lattice of F=(Ua,Ad,a) d④)="@+wb=0.15 3)对象强加权概念格 给定6=0.075,则通过计算可知 D1(1)= V(w1(a)-d(1)2+(w(b)-d(1)2=0.057 D(2)=1 (w,(a@)-d,(2)2+(w,(d-d(2)2+(w,(e)-d1(2)2 =0.078 3-1 由于D(2)>6=0.075,则2为偏差对象,需删除。 D(3)= 0w(a-d3》2+0w(b-d43P+w(e)-d4(3P+m(e)-d3》=0.056 4-1 D1(5)= Vw1(b)-d,(5)2+(w(e)-d,(5)》2=0.035 D(6)=1 (w(a)-d1(6)2+(w1(b)-d6)2+(w1(d)-d1(6) =0.07 3-1 则可获得子形式背景Fn=(Uo,Ap,lo),其中:Un={1,3,5,6,Ap={b,c,d,eh,详见表3
a 12346 b 1356 ad 26 ae 23 ab 136 abce 3 abcde abd 6 ade 2 be 35 e 235 123456 图 1 由 F=( U,A,I ) 构造的概念格 Fig. 1 Concept lattice of F = (U,A,I) 2) 对象加权概念格 α = 0.14 β = 0.14 a P1(a) = 5 6 a 给定 , 。在表 1 给定的形式背 景中通过信息熵获取属性权重。由表 1 可获得属 性 出现的概率为 ,利用定义 5 可得属性 的信息熵: H1(a) = −P1(a)×log2P1(a) = = − 5 6 ×log2 5 6 = 0.219 2 由计算可知: P1(b) = 4 6 H1(b) = − 4 6 ×log2 4 6 , = 0.389 9 P1(c) = 1 6 H1(c) = − 1 6 ×log2 1 6 , = 0.430 8 P1(d) = 2 6 H1(d) = − 2 6 ×log2 2 6 , = 0.528 3 P1(e) = 3 6 H1(e) = − 3 6 ×log2 3 6 , = 0.5 H(A) = H1(a)+ H1(b)+ H1(c)+ H1(d)+ H1(e) = 2.068 2 w1(a)= 0.11 w1(b)= 0.19 w1(c)= 0.21 w1(d)= 0.25 w1(e) = 0.24 可获得各属性权重,分别为: (小于 α,故该属性冗余需删去), , , , 。 对于对象 1 来说, f(1) = {a,b} 。则 d1(1) = w1(a)+w1(b) 2 = 0.15 d1(2) = w1(a)+w1(d)+w1(e) 3 = 0.2 d1(3) = w1(a)+w1(b)+w1(c)+w1(e) 4 = 0.187 5 d1(4) = w1(a) = 0.11 (小于 β,故该对象冗余需删去) d1(5) = w1(b)+w1(e) 2 = 0.215 d1(6) = w1(a)+w1(b)+w1(d) 3 = 0.183 3 Fd = (Ud,Ad,Id) Ud = {1,2,3,5,6} Ad = {b, c,d, e} 则可获得子形式背景 ,其中 , ,具体数据如表 2 所示。 表 2 形式背景 Fd = (Ud,Ad,Id) Table 2 Formal context:Fd = (Ud,Ad,Id) 序号 b c d e 1 1 — — — 2 — — 1 1 3 1 1 — 1 5 1 — — 1 6 1 — 1 — 由表 2 给出的形式背景构造的概念格如图 2 所示,共 9 个概念结点,即为对象加权概念格。 12356 d 26 b 1356 bd 6 be 35 bce 3 e 235 de 2 bcde 图 2 由 Fd = (Ud,Ad,Id) 构造的概念格 Fig. 2 Concept lattice of Fd = (Ud,Ad,Id) 3) 对象强加权概念格 给定 δ = 0.075 ,则通过计算可知 D1(1) = √ (w1(a)−d1(1))2 +(w1(b)−d1(1))2= 0.057 D1(2) = √ (w1(a)−d1(2))2 +(w1(d)−d1(2))2 +(w1(e)−d1(2))2 3−1 = 0.078 由于 D1(2) > δ= 0.075,则 2 为偏差对象,需删除。 D1(3) = √ (w1(a)−d1(3))2 +(w1(b)−d1(3))2 +(w1(c)−d1(3))2 +(w1(e)−d1(3))2 4−1 = 0.056 D1(5) = √ (w1(b)−d1(5))2 +(w1(e)−d1(5))2= 0.035 D1(6) = √ (w1(a)−d1(6))2 +(w1(b)−d(6))2 +(w1(d)−d1(6))2 3−1 = 0.07 则可获得子形式背景 FD = (UD,AD,ID) ,其中: UD= {1,3,5,6},AD = {b, c,d, e} ,详见表 3。 ·1100· 智 能 系 统 学 报 第 15 卷
第6期 张晓鹤,等:基于信息嫡的对象加权概念格 ·1101· 表3形式背景F。=(Uo,Ao,Io) 由表4可知U/RD={D1,D2},D1={1,2,4,61, Table 3 Formal context:Fp=(Up,Ap,Ip) D2={3,5}。有两个决策概念:(《1,2,4,61,0)和 序号 b d (3,5,{1)。 由上述计算过程可直接获取L(Uo,AD,ID),共 有5个概念,分别为:(1,3,5,6,{b)、(《61,{b,d)、 3 (3,5,{b,e)、(31,{b,c,e)、(©,{b,c,d,e)。 由算法2可获得粒决策规则: 6 {b,el={1 {b,c,el={1) 表3给出的形式背景构造的概念格如图3所 b,d=01 示,共5个概念结点,即为对象强加权概念格。 可进一步简化规则得: {b,e={1} {b,d}台{0} 通过本文算法对于概念格进行简化后提取规 则,可知本岗位更倾向于招聘数学专业且拥有教 师资格证的应聘者,与现实背景相符。 对于没有删除冗余属性、冗余对象、偏差对 象的情况,也即直接用表2所示的决策形式背景 获取条件概念格,然后利用算法2获取粒决策规 则,结果如下: {a,d}台{0} {b,e}={1} {a,d,e}台{0l 图3由Fo=(Uo,Ao,ID)构造的概念格 {a,b,d={0 Fig.3 Concept lattice of Fp=(Up,Ap,Ip) {a,b,c,e}→(1 通过上述计算能够看到本文提出的对象强加 进一步简化规则可得 权概念格能够通过删除不必要的对象和属性,缩 {a,d→01 小形式背景的规模,从而实现简化概念格构造过 b,e}→{1) 程的目的。且通过这种方法能够简化概念形式, 可知本岗位更倾向于招聘拥有教师资格证的 便于我们在之后进行规则提取。 数学专业的应聘者,这也是符合实际情况的。可 4)粒决策规则提取 见,通过本文构造的对象强加权概念格仍能够保 在表1的基础上给出决策形式背景(U,A, 持原决策规则的关键信息,即教育机构更愿意录 L,D,),其中对象集为6位求职者。条件属性集仍 取数学专业有教师资格证的应聘者,而且能够简 为A={a,b,c,d,e以,决策属性集为D=f,取值为 化规则获取的过程。 1代表教育机构工作录取该求职者,否则为拒绝 3.2实验分析 录取。具体数据如表4所示。 在内存为8GB,操作系统为Windows10的 表4决策形式背景(U,A,I,D,J) 计算机上,用Matlab软件实现了本文算法、经典 Table 4 Decision formal context:(U,A,I,D,J) 概念格构造算法及文献[25]的算法。选用UCI 序号 数据集中的ZOO数据集进行实验,该数据集共 有101条记录,18项属性。对数据集的预处理, 包括去掉决策属性,将数值属性布尔化等,最后 获取了共100条记录,20项属性的形式背景,以 3 20条动物记录为单位将其划分为5个子形式背 4 景。将子形式背景依次进行合并,分别采用本文 算法、经典算法及文献[25]的算法构造合并后的 整体概念格,对比其分别获取的概念结点个数, 以此对比其执行效率,具体如表5所示
表 3 形式背景 FD = (UD,AD,ID) Table 3 Formal context:FD = (UD,AD,ID) 序号 b c d e 1 1 — — — 3 1 1 — 1 5 1 — — 1 6 1 — 1 — 表 3 给出的形式背景构造的概念格如图 3 所 示,共 5 个概念结点,即为对象强加权概念格。 b 1356 be 35 bce 3 bcde bd 6 图 3 由 FD = (UD,AD,ID) 构造的概念格 Fig. 3 Concept lattice of FD = (UD,AD,ID) 通过上述计算能够看到本文提出的对象强加 权概念格能够通过删除不必要的对象和属性,缩 小形式背景的规模,从而实现简化概念格构造过 程的目的。且通过这种方法能够简化概念形式, 便于我们在之后进行规则提取。 4) 粒决策规则提取 (U,A, I,D, J) A = {a,b, c,d, e} D = {f} 在 表 1 的基础上给出决策形式背景 ,其中对象集为 6 位求职者。条件属性集仍 为 ,决策属性集为 ,取值为 1 代表教育机构工作录取该求职者,否则为拒绝 录取。具体数据如表 4所示。 表 4 决策形式背景 (U,A,I,D, J) Table 4 Decision formal context:(U,A,I,D, J) 序号 a b c d e f 1 1 1 — — — — 2 1 — — 1 1 — 3 1 1 1 — 1 1 4 1 — — — — — 5 — 1 — — 1 1 6 1 1 — 1 — — U/RD= {D1, D2} D1 = {1,2,4,6} D2 = {3,5} ({1,2,4,6},{0}) ({3,5},{1}) 由 表 4 可 知 , , 。有两个决策概念: 和 。 L(UD,AD,ID) ({1,3,5,6}, {b}) ({6},{b,d}) ({3,5},{b, e}) ({3},{b, c, e}) (Ø,{b, c,d, e}) 由上述计算过程可直接获取 ,共 有 5 个概念,分别为: 、 、 、 、 。 由算法 2 可获得粒决策规则: {b, e} ⇒ {1} {b, c, e} ⇒ {1} {b,d} ⇒ {0} 可进一步简化规则得: {b, e} ⇒ {1} {b,d} ⇒ {0} 通过本文算法对于概念格进行简化后提取规 则,可知本岗位更倾向于招聘数学专业且拥有教 师资格证的应聘者,与现实背景相符。 对于没有删除冗余属性、冗余对象、偏差对 象的情况,也即直接用表 2 所示的决策形式背景 获取条件概念格,然后利用算法 2 获取粒决策规 则,结果如下: {a,d} ⇒ {0} {b, e} ⇒ {1} {a,d, e} ⇒ {0} {a,b,d} ⇒ {0} {a,b, c, e} ⇒ {1} 进一步简化规则可得 {a,d} ⇒ {0} {b, e} ⇒ {1} 可知本岗位更倾向于招聘拥有教师资格证的 数学专业的应聘者,这也是符合实际情况的。可 见,通过本文构造的对象强加权概念格仍能够保 持原决策规则的关键信息,即教育机构更愿意录 取数学专业有教师资格证的应聘者,而且能够简 化规则获取的过程。 3.2 实验分析 在内存为 8 GB,操作系统为 Windows 10 的 计算机上,用 Matlab 软件实现了本文算法、经典 概念格构造算法及文献 [25] 的算法。选用 UCI 数据集中的 ZOO 数据集进行实验,该数据集共 有 101 条记录, 18 项属性。对数据集的预处理, 包括去掉决策属性,将数值属性布尔化等,最后 获取了共 100 条记录, 20 项属性的形式背景,以 20 条动物记录为单位将其划分为 5 个子形式背 景。将子形式背景依次进行合并,分别采用本文 算法、经典算法及文献 [25] 的算法构造合并后的 整体概念格,对比其分别获取的概念结点个数, 以此对比其执行效率,具体如表 5 所示。 第 6 期 张晓鹤,等:基于信息熵的对象加权概念格 ·1101·
·1102· 智能系统学报 第15卷 表53种算法执行效率对比 software technology,2007,49(3):212-229 Table 5 Comparison of the execution efficiencies of the [3]黄微,高俊峰,基于概念格的Wεb学术信息搜索结果的 three algorithms 二次组织).现代图书情报技术,2010(5):8-12。 经典算法格 文献25]算法格本文算法格 动物记录/条 HUANG Wei,GAO Junfeng.A second organization of 结点数 结点数 结点数 academic retrieved results based on concept lattice[J].New 20 65 62 34 technology of library and information service,2010(5): 40 136 122 63 8-12 [4]沈夏炯,叶曼曼,甘甜,等.基于概念格的信息检索及其 60 187 139 69 树形可视化U.计算机工程与应用,2017,53(3):95-99. 80 312 227 47 SHEN Xiajiong,YE Manman,GAN Tian,et al.Informa- 100 353 250 68 tion retrieval based on concept lattice and its tree visualiza- 由实验结果可知,记录数逐渐增多,概念结点 tion[J].Computer engineering and applications,2017, 53(3)95-99 也会随之递增。由于经典算法在构造概念格的过 [5]MISSAOUI R,GODIN R,BOUJENOUI A.Extracting ex- 程不会删除任何信息,因此该算法会获得最多的 act and approximate rules from databases[Cl//Proceedings 概念结点,同样会导致构造时间最长,执行效率 of SOFTEKS Workshop on Incompleteness and Uncer- 最低。而文献[25]中的算法虽然减少了19.4%的 tainty in Information Systems.Berlin,Heidelberg:Spring- 冗余结点,但其构造的概念格规模仍然较为复 er,1993:209-222 杂。本文算法相较于经典算法减少了66%的冗 [6]康向平,苗夺谦.一种基于概念格的集值信息系统中的 余结点,相较于文献[25]中的算法减少了59.2% 知识获取方法).智能系统学报,2016,11(3):287-293. 的冗余结点,极大缩短了构造概念格的时间,提 KANG Xiangping,MIAO Duoqian.A knowledge acquisi- 升了概念格的构造效率,有利于提取用户关心的 tion method based on concept lattice in set-valued informa- 知识信息。 tion systems[J].CAAI transactions on intelligent systems, 2016,11(3):287-293 4结束语 [7]LIU Yong,KANG Xiangping,MIAO Duoqian,et al.A knowledge acquisition method based on concept lattice and 删除冗余概念,提升概念格构造效率是概念 inclusion degree for ordered information systems[J].Inter- 格理论的重要问题。本文通过信息熵获取了形式 national journal of machine learning and cybernetics,2019, 背景中数据隐含的属性权重,利用属性权重给出 10(11):3245-3261. 了对象权重及对象重要度偏差,并进一步给出满 [8]张功亮,陈钰,周茜,等.基于领域本体的信息语义相关 足阈值要求的对象强加权概念格的构造算法。本 检索计算机工程,2011,37(20):33-35,38. 文的方法能够有效避免产生冗余概念,获得结构 ZHANG Gongliang,CHEN Yu,ZHOU Xi,et al.Informa- 更简单的概念格,同时也能够进一步简化规则获 tion semantic relativity retrieval based on domain onto- 取过程。 logy[J].Computer engineering,2011,37(20):33-35,38. 但本文仍有许多不足,比如在给出对象权重 [9]刘保相,孟肖丽.基于关联分析的气象云图识别问题研 时采取的是均值法,把对象具有的属性作为个体 究).智能系统学报,2014,9(5):595-601 去考虑,并没有将考虑对象具有的属性作为一个 LIU Baoxiang,MENG Xiaoli.The study on nephogram re- cognition based on relational analysis[J].CAAI transac- 整体具有的特征。而且本文对于23节中给出的 tions on intelligent systems,2014,9(5):595-601 决策规则时仅从条件属性集角度出发构造了对象 [10]陈湘,吴跃.基于概念格挖掘GIS中的关联规则).计 强加权概念格,并没有充分考虑决策属性隐含的 算机应用,2011,31(3):686-689. 信息。未来将进一步研究这些问题。 CHEN Xiang.WU Yue.Mining association rules of geo- 参考文献: graphic information system based on concept lattice[J]. Journal of computer applications,2011,31(3):686-689. [1]WILLE R.Restructuring lattice theory:an approach based [11]WU Weizhi,LEUNG Y,MI Jusheng.Granular comput- on hierarchies of concepts[M]//RIVAL I.Ordered Sets. ing and knowledge reduction in formal contexts[J].IEEE Dordrecht:Springer,1982:445-470. transactions on knowledge and data engineering,2009. [2]SUTTON A,MALETIC J I.Recovering UML class mod- 21(10):1461-1474. els from C++:a detailed explanation[J].Information and [12]MI Jusheng,WU Weizhi,ZHANG Wenxiu.Approaches
表 5 3 种算法执行效率对比 Table 5 Comparison of the execution efficiencies of the three algorithms 动物记录/条 经典算法格 结点数 文献[25]算法格 结点数 本文算法格 结点数 20 65 62 34 40 136 122 63 60 187 139 69 80 312 227 47 100 353 250 68 由实验结果可知,记录数逐渐增多,概念结点 也会随之递增。由于经典算法在构造概念格的过 程不会删除任何信息,因此该算法会获得最多的 概念结点,同样会导致构造时间最长,执行效率 最低。而文献 [25] 中的算法虽然减少了 19.4% 的 冗余结点,但其构造的概念格规模仍然较为复 杂。本文算法相较于经典算法减少了 66% 的冗 余结点,相较于文献 [25] 中的算法减少了 59.2% 的冗余结点,极大缩短了构造概念格的时间,提 升了概念格的构造效率,有利于提取用户关心的 知识信息。 4 结束语 删除冗余概念,提升概念格构造效率是概念 格理论的重要问题。本文通过信息熵获取了形式 背景中数据隐含的属性权重,利用属性权重给出 了对象权重及对象重要度偏差,并进一步给出满 足阈值要求的对象强加权概念格的构造算法。本 文的方法能够有效避免产生冗余概念,获得结构 更简单的概念格,同时也能够进一步简化规则获 取过程。 但本文仍有许多不足,比如在给出对象权重 时采取的是均值法,把对象具有的属性作为个体 去考虑,并没有将考虑对象具有的属性作为一个 整体具有的特征。而且本文对于 2.3 节中给出的 决策规则时仅从条件属性集角度出发构造了对象 强加权概念格,并没有充分考虑决策属性隐含的 信息。未来将进一步研究这些问题。 参考文献: WILLE R. Restructuring lattice theory: an approach based on hierarchies of concepts[M]//RIVAL I. Ordered Sets. Dordrecht: Springer, 1982: 445−470. [1] SUTTON A, MALETIC J I. Recovering UML class models from C++: a detailed explanation[J]. Information and [2] software technology, 2007, 49(3): 212–229. 黄微, 高俊峰. 基于概念格的 Web 学术信息搜索结果的 二次组织 [J]. 现代图书情报技术, 2010(5): 8–12. HUANG Wei, GAO Junfeng. A second organization of academic retrieved results based on concept lattice[J]. New technology of library and information service, 2010(5): 8–12. [3] 沈夏炯, 叶曼曼, 甘甜, 等. 基于概念格的信息检索及其 树形可视化 [J]. 计算机工程与应用, 2017, 53(3): 95–99. SHEN Xiajiong, YE Manman, GAN Tian, et al. Information retrieval based on concept lattice and its tree visualization[J]. Computer engineering and applications, 2017, 53(3): 95–99. [4] MISSAOUI R, GODIN R, BOUJENOUI A. Extracting exact and approximate rules from databases[C]//Proceedings of SOFTEKS Workshop on Incompleteness and Uncertainty in Information Systems. Berlin, Heidelberg: Springer, 1993: 209−222. [5] 康向平, 苗夺谦. 一种基于概念格的集值信息系统中的 知识获取方法 [J]. 智能系统学报, 2016, 11(3): 287–293. KANG Xiangping, MIAO Duoqian. A knowledge acquisition method based on concept lattice in set-valued information systems[J]. CAAI transactions on intelligent systems, 2016, 11(3): 287–293. [6] LIU Yong, KANG Xiangping, MIAO Duoqian, et al. A knowledge acquisition method based on concept lattice and inclusion degree for ordered information systems[J]. International journal of machine learning and cybernetics, 2019, 10(11): 3245–3261. [7] 张功亮, 陈钰, 周茜, 等. 基于领域本体的信息语义相关 检索 [J]. 计算机工程, 2011, 37(20): 33–35, 38. ZHANG Gongliang, CHEN Yu, ZHOU Xi, et al. Information semantic relativity retrieval based on domain ontology[J]. Computer engineering, 2011, 37(20): 33–35, 38. [8] 刘保相, 孟肖丽. 基于关联分析的气象云图识别问题研 究 [J]. 智能系统学报, 2014, 9(5): 595–601. LIU Baoxiang, MENG Xiaoli. The study on nephogram recognition based on relational analysis[J]. CAAI transactions on intelligent systems, 2014, 9(5): 595–601. [9] 陈湘, 吴跃. 基于概念格挖掘 GIS 中的关联规则 [J]. 计 算机应用, 2011, 31(3): 686–689. CHEN Xiang, WU Yue. Mining association rules of geographic information system based on concept lattice[J]. Journal of computer applications, 2011, 31(3): 686–689. [10] WU Weizhi, LEUNG Y, MI Jusheng. Granular computing and knowledge reduction in formal contexts[J]. IEEE transactions on knowledge and data engineering, 2009, 21(10): 1461–1474. [11] [12] MI Jusheng, WU Weizhi, ZHANG Wenxiu. Approaches ·1102· 智 能 系 统 学 报 第 15 卷
第6期 张晓鹤,等:基于信息嫡的对象加权概念格 ·1103· to knowledge reduction based on variable precision rough [23]LI Junyu,WANG Xia,WU Weizhi,et al.Attribute reduc- set model[J].Information sciences,2004,159(3-4): tion in inconsistent formal decision contexts based on 255-272. congruence relations[J].International journal of machine [13]MI Jusheng,LEUNG Y,WU Weizhi.Approaches to at- learning and cybernetics,2017,8(1):81-94. tribute reduction in concept lattices induced by [24]张继福,张素兰,郑链加权概念格及其渐进式构造) axialities[J].Knowledge-based systems,2010,23(6): 模式识别与人工智能,2005,18(2):171-176. 504511. ZHANG Jifu,ZHANG Sulan,ZHENG Lian.Weighted [14]CHEN Jinkun,LI Jinjin.An application of rough sets to concept lattice and incremental construction[J].Pattern re- graph theory[J].Information sciences,2012,201: cognition and artificial intelligence,2005,18(2): 114-127. 171-176. [15]CHEN Jinkun,MI Jusheng,XIE Bin,et al.A fast attrib- [25]张素兰,郭平,张继福.基于信息嫡和偏差的加权概念 ute reduction method for large formal decision 格内涵权值获取.北京理工大学学报,2011,31(1)方 contexts[J].International journal of approximate reason- 59-63. ing,2019,106:1-17. ZHANG Sulan,GUO Ping,ZHANG Jifu.Intension [16]SHAO Mingwen,LEUNG Y,WU Weizhi.Rule acquisi- weight value acquisition of weighted concept lattice based tion and complexity reduction in formal decision con- on information entropy and deviance[J].Transactions of texts[J].International journal of approximate reasoning, Beijing Institute of Technology,2011,31(1):59-63. 2014,55(1259-274 作者简介: [17]LI Jinhai,MEI Changlin,LV Yuejin.Knowledge reduc- 张晓鹤,博士研究生,主要研究方 tion in decision formal contexts[J].Knowledge-based sys- 向为概念格、关联规则挖掘。 tems,2011,24(5):709-715. [18]LI Jinhai,MEI Changlin,LV Yuejin.Knowledge reduc- tion in real decision formal contexts[J].Information sci- ences,.2012,189:191-207. [19]LI Jinhai,MEI Changlin,WANG Junhong,et al.Rule- preserved object compression in formal decision contexts 陈德刚,教授,博土生导师,主要 using concept lattices[J].Knowledge-based systems, 研究方向为机器学习、数据挖掘。完 成自然科学基金面上项目3项、数学 2014,71:435-445 天元基金1项,参加973课题1项。 [20]QI Jianjun,WEI Ling,YAO Yiyu.Three-way formal 发表学术论文150余篇。 concept analysis[C]//Proceedings of the 9th International Conference on Rough Sets and Knowledge Technology. Shanghai:Springer,2014:732-741. [21]REN Ruisi,WEI Ling.The attribute reductions of three- 米据生,教授,博土生导师,主要 研究方向为粗糙集、粒计算、概念格 way concept lattices[J].Knowledge-based systems,2016, 数据挖掘与近似推理。主持国家自然 99:92-102. 科学基金项目3项,教育部博土点基 [22]WEI Ling.LIU Lin,QI Jianjun,et al.Rules acquisition of 金项目1项。获得省级自然科学奖 formal decision contexts based on three-way concept lat- 3项,发表学术论文130余篇。 tices[J].Information sciences,2020,516:529-544
to knowledge reduction based on variable precision rough set model[J]. Information sciences, 2004, 159(3−4): 255–272. MI Jusheng, LEUNG Y, WU Weizhi. Approaches to attribute reduction in concept lattices induced by axialities[J]. Knowledge-based systems, 2010, 23(6): 504–511. [13] CHEN Jinkun, LI Jinjin. An application of rough sets to graph theory[J]. Information sciences, 2012, 201: 114–127. [14] CHEN Jinkun, MI Jusheng, XIE Bin, et al. A fast attribute reduction method for large formal decision contexts[J]. International journal of approximate reasoning, 2019, 106: 1–17. [15] SHAO Mingwen, LEUNG Y, WU Weizhi. Rule acquisition and complexity reduction in formal decision contexts[J]. International journal of approximate reasoning, 2014, 55(1): 259–274. [16] LI Jinhai, MEI Changlin, LV Yuejin. Knowledge reduction in decision formal contexts[J]. Knowledge-based systems, 2011, 24(5): 709–715. [17] LI Jinhai, MEI Changlin, LV Yuejin. Knowledge reduction in real decision formal contexts[J]. Information sciences, 2012, 189: 191–207. [18] LI Jinhai, MEI Changlin, WANG Junhong, et al. Rulepreserved object compression in formal decision contexts using concept lattices[J]. Knowledge-based systems, 2014, 71: 435–445. [19] QI Jianjun, WEI Ling, YAO Yiyu. Three-way formal concept analysis[C]//Proceedings of the 9th International Conference on Rough Sets and Knowledge Technology. Shanghai: Springer, 2014: 732−741. [20] REN Ruisi, WEI Ling. The attribute reductions of threeway concept lattices[J]. Knowledge-based systems, 2016, 99: 92–102. [21] WEI Ling, LIU Lin, QI Jianjun, et al. Rules acquisition of formal decision contexts based on three-way concept lattices[J]. Information sciences, 2020, 516: 529–544. [22] LI Junyu, WANG Xia, WU Weizhi, et al. Attribute reduction in inconsistent formal decision contexts based on congruence relations[J]. International journal of machine learning and cybernetics, 2017, 8(1): 81–94. [23] 张继福, 张素兰, 郑链. 加权概念格及其渐进式构造 [J]. 模式识别与人工智能, 2005, 18(2): 171–176. ZHANG Jifu, ZHANG Sulan, ZHENG Lian. Weighted concept lattice and incremental construction[J]. Pattern recognition and artificial intelligence, 2005, 18(2): 171–176. [24] 张素兰, 郭平, 张继福. 基于信息熵和偏差的加权概念 格内涵权值获取 [J]. 北京理工大学学报, 2011, 31(1): 59–63. ZHANG Sulan, GUO Ping, ZHANG Jifu. Intension weight value acquisition of weighted concept lattice based on information entropy and deviance[J]. Transactions of Beijing Institute of Technology, 2011, 31(1): 59–63. [25] 作者简介: 张晓鹤,博士研究生,主要研究方 向为概念格、关联规则挖掘。 陈德刚,教授,博士生导师,主要 研究方向为机器学习、数据挖掘。完 成自然科学基金面上项目 3 项、数学 天元基金 1 项,参加 973 课题 1 项。 发表学术论文 150 余篇。 米据生,教授,博士生导师,主要 研究方向为粗糙集、粒计算、概念格、 数据挖掘与近似推理。主持国家自然 科学基金项目 3 项,教育部博士点基 金项目 1 项。获得省级自然科学奖 3 项,发表学术论文 130 余篇。 第 6 期 张晓鹤,等:基于信息熵的对象加权概念格 ·1103·