正在加载图片...
·1374. 工程科学学报,第40卷,第11期 parameters.The tank cover drawing process example shows that the knowledge discovery technology based on CART decision tree theo- ry is a feasible way to mine potential knowledge from the numerical simulation results of material forming process. KEY WORDS knowledge discovery;data mining;numerical simulation;classification and regression tree;principal component analy- sis 近年来,随着计算机技术和材料成形加工数值 模型的交叉检验选取CART决策树模型参数:最后 模拟技术的快速发展,出现了Dynaform、AutoForm、 根据CART决策树对属性决策表进行分类分析,归 Deform等有代表性的冲压数值模拟软件,广泛地应 纳提取出有价值的拉深工艺知识 用于材料成形工艺优化及模具设计领域,提高了设 数值成形 数据表达 仿真 确定工艺属性 计效率和质量[1-] 仿真分析 数据集群 属性决策表 在材料成形加工数值模拟技术的进一步深人应 提取工艺 CART决策树 交叉验证确定 用中存在着瓶颈,尽管可以通过数值模拟技术得到 规则 模型参数 主成分分析 分析 模拟结果数据,但不能获得成形工艺参数与成形质 图1基于CART决策树的知识发现流程 量关系的信息.这些蕴含在仿真结果中的潜在知识 Fig.I Knowledge discovery process based on the CART decision tree 需要系统化、稳健及高效的知识发现技术来获取,而 1.2CART决策树理论 人工智能技术是很好的知识发现途径,是材料成形 利用基尼指数(Gini index)值最小化准则, 加工重要研究方向之一【4-).以数据挖掘、神经网络 Breiman等[]在l984年提出了CART决策树理论. 等为代表的人工智能技术在板料冲压冷成形和热轧 CART决策树理论与ID3(Iterative Dichotomiser3)决 热成形等领域得到了广泛应用6-) 策树理论比较,计算速度更快、稳定性更好,能支持 王义林等[]综合应用数据聚类分析和神经网 连续型数据和特征数据的多次分割:与支持向量机 络建模方法对汽车覆盖件成形过程数值模拟结果进 (support vector machine,SVM)、逻辑斯蒂回归(logis- 行知识挖掘,通过聚类分析建立板料位置、应力等参 tic regression,LR)等其他非决策树分类算法比较, 数与成形缺陷关系数据集,进而建立成形质量预报 CART决策树分类算法不需要建立非线性模型,可 的神经网络模型.王迎春等门采用C4.5决策树方 以根据决策树图直观地做出决策分类、提取知识 法对方盒件拉深成形过程数值模拟结果进行知识挖 规则4 掘,得到了方盒件拉深工艺参数对成形过程影响的 在决策树分类问题中,假设类的数目为M,样本 知识.李大永等]采用主成分分析与模糊聚类方 点属于第m类的概率为pm,则该样本点概率分布的 法对冲压件仿真模型与模拟结果进行了分析,判别 基尼指数Gini为: 零件相似程度以及不同工艺参数与冲压成形性能的 关联程度 Gii(p)=p.I-p.)=1- ∑p(1) 摩托车油箱壳是一种典型的复杂冷冲压件,其 样本集合D的基尼指数Gini(D)值为: 外壳表面质量要求高,直接喷漆不允许有肉眼可见 (Cm)2 的凸凹不平的小痕迹,材料薄、局部深度大、变形不 (2) 均匀,成形难度很大.下面以油箱壳拉深过程为例 式中,ID1表示集合D的总样本数,IC.I表示集合D 进行数值仿真,利用CART决策树(classification and 中属性第m类的样本子集数,基尼指数Gii(D)表 regression tree,CART)知识发现理论获取拉深工艺 示集合D的不确定性 知识 若样本集合D中,属性A的值等于a的所有样 1基于CART决策树理论的知识发现方法 本所形成的子集为D,余集为D2,则集合D在属性 A的条件下得到的基尼指数为: 1.1基于CART决策树理论的知识发现过程 ID 如图1所示,首先采用数值试验设计方法建立 Gimi(D.4)=Gini(D) -Gini(D2) IDI I 冲压成形仿真结果数据库:根据产品性能要求确定 (3) 条件属性和决策属性,构建属性决策表:利用主成分 基尼指数Gii(D,A)表示集合D的不确定性, 法分析(principal component analysis,PCA)对数据进 基尼指数值越大,样本集合的不确定性也就越大,这 行降维,并得出条件属性对决策属性的影响权重;由 与信息嫡相似s).下文中的Gini值都指代Gini(D,工程科学学报,第 40 卷,第 11 期 parameters. The tank cover drawing process example shows that the knowledge discovery technology based on CART decision tree theo鄄 ry is a feasible way to mine potential knowledge from the numerical simulation results of material forming process. KEY WORDS knowledge discovery;data mining;numerical simulation;classification and regression tree;principal component analy鄄 sis 近年来,随着计算机技术和材料成形加工数值 模拟技术的快速发展,出现了 Dynaform、AutoForm、 Deform 等有代表性的冲压数值模拟软件,广泛地应 用于材料成形工艺优化及模具设计领域,提高了设 计效率和质量[1鄄鄄3] . 在材料成形加工数值模拟技术的进一步深入应 用中存在着瓶颈,尽管可以通过数值模拟技术得到 模拟结果数据,但不能获得成形工艺参数与成形质 量关系的信息. 这些蕴含在仿真结果中的潜在知识 需要系统化、稳健及高效的知识发现技术来获取,而 人工智能技术是很好的知识发现途径,是材料成形 加工重要研究方向之一[4鄄鄄5] . 以数据挖掘、神经网络 等为代表的人工智能技术在板料冲压冷成形和热轧 热成形等领域得到了广泛应用[6鄄鄄9] . 王义林等[10] 综合应用数据聚类分析和神经网 络建模方法对汽车覆盖件成形过程数值模拟结果进 行知识挖掘,通过聚类分析建立板料位置、应力等参 数与成形缺陷关系数据集,进而建立成形质量预报 的神经网络模型. 王迎春等[11] 采用 C4郾 5 决策树方 法对方盒件拉深成形过程数值模拟结果进行知识挖 掘,得到了方盒件拉深工艺参数对成形过程影响的 知识. 李大永等[12] 采用主成分分析与模糊聚类方 法对冲压件仿真模型与模拟结果进行了分析,判别 零件相似程度以及不同工艺参数与冲压成形性能的 关联程度. 摩托车油箱壳是一种典型的复杂冷冲压件,其 外壳表面质量要求高,直接喷漆不允许有肉眼可见 的凸凹不平的小痕迹,材料薄、局部深度大、变形不 均匀,成形难度很大. 下面以油箱壳拉深过程为例 进行数值仿真,利用 CART 决策树(classification and regression tree,CART) 知识发现理论获取拉深工艺 知识. 1 基于 CART 决策树理论的知识发现方法 1郾 1 基于 CART 决策树理论的知识发现过程 如图 1 所示,首先采用数值试验设计方法建立 冲压成形仿真结果数据库;根据产品性能要求确定 条件属性和决策属性,构建属性决策表;利用主成分 法分析(principal component analysis,PCA)对数据进 行降维,并得出条件属性对决策属性的影响权重;由 模型的交叉检验选取 CART 决策树模型参数;最后 根据 CART 决策树对属性决策表进行分类分析,归 纳提取出有价值的拉深工艺知识. 图 1 基于 CART 决策树的知识发现流程 Fig. 1 Knowledge discovery process based on the CART decision tree 1郾 2 CART 决策树理论 利用 基 尼 指 数 ( Gini index) 值 最 小 化 准 则, Breiman 等[13]在 1984 年提出了 CART 决策树理论. CART 决策树理论与 ID3(Iterative Dichotomiser 3)决 策树理论比较,计算速度更快、稳定性更好,能支持 连续型数据和特征数据的多次分割;与支持向量机 (support vector machine,SVM)、逻辑斯蒂回归(logis鄄 tic regression,LR) 等其他非决策树分类算法比较, CART 决策树分类算法不需要建立非线性模型,可 以根据决策树图直观地做出决策分类、提取知识 规则[14] . 在决策树分类问题中,假设类的数目为 M,样本 点属于第 m 类的概率为 pm ,则该样本点概率分布的 基尼指数 Gini 为: Gini(p) = 移 M m = 1 pm (1 - pm ) = 1 - 移 M m = 1 p 2 m (1) 样本集合 D 的基尼指数 Gini(D)值为: Gini(D) = 1 - 移 M m = ( 1 | Cm | |D ) | 2 (2) 式中, |D|表示集合 D 的总样本数, | Cm | 表示集合 D 中属性第 m 类的样本子集数,基尼指数 Gini(D)表 示集合 D 的不确定性. 若样本集合 D 中,属性 A 的值等于 a 的所有样 本所形成的子集为 D1 ,余集为 D2 ,则集合 D 在属性 A 的条件下得到的基尼指数为: Gini(D,A) = |D1 | |D| Gini(D1 ) + |D2 | |D| Gini(D2 ) (3) 基尼指数 Gini(D,A)表示集合 D 的不确定性, 基尼指数值越大,样本集合的不确定性也就越大,这 与信息熵相似[15] . 下文中的 Gini 值都指代 Gini(D, ·1374·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有