正在加载图片...
则“信息增益” Gain (a=I(p, n-E(A) Gain(outlook=0.940-Eoutlook =0. 246bits 3.举例 4.决策树学习的常见问题 1)不相关属性( irrelevant attributes) 属性A把例子集分成v个子集{C1Cv},Ci含有Pi个正例、n1 个反例。 2)不合适属性( Inadequate attributes 两类例子具有相同属性值。没有任何属性可进一步扩展决策 树。哪类例子多,叶结点标为哪类 3)未知属性 ①决策树方法:把未知属性作为“类”,原来的类作为“属 性 ②“最通常值”办法则“信息增益” Gain(A)=I(p,n)-E(A) Gain(outlook)=0.940-E(outlook)=0.246bits 3. 举例 4. 决策树学习的常见问题 1)不相关属性(irrelevant attributes) 属性A把例子集分成v个子集{C1 ,…Cv},Ci含有Pi个正例、ni 个反例。 2) 不合适属性(Inadequate attributes) 两类例子具有相同属性值。没有任何属性可进一步扩展决策 树。哪类例子多,叶结点标为哪类。 3)未知属性 ① 决策树方法: 把未知属性作为“类”,原来的类作为“属 性” ② “最通常值”办法
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有