正在加载图片...
Ent(s)=-LP(c,, s)log( p(c, s) 类信息熵( (class information entropy) E(A,7;s)=En(s1)+2Em(s2) N S1:切点T左边的例子集S2:切点T右边的例子集.集合s中的 例子数N= 2)界点法 4= = − k i i i Ent s p c s p c s 1 ( ) ( , )log( ( , )) 类信息熵(class information entropy) ( ) | | ( ) | | ( , ; ) 2 2 1 1 Ent s N s Ent s N s E A T s = + S1 : 切点T左边的例子集 S2 :切点T右边的例子集. |s| 集合s中的 例子数 N=|s| 2) 界点法: T1 T2 T3 T4 T5
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有