正在加载图片...
第二节离散信源的信息熵 (1)f(P)应是先验概率的单调递减函数, 当a)>P{(a2)时 f(B)<f(P2) (2)当P(a)=1时f(P)=0 (3)当P(a)=0时f()= (4)两个独立事件的联合信息量应等于它们分别的信息量 之和。第二节 离散信源的信息熵 (2)当 ( ) 1 P ai = 时 ( ) 0 i f P = ( )i (3)当 ( ) 0 时 f P =  P ai = (4)两个独立事件的联合信息量应等于它们分别的信息量 之和。 (1) 应是先验概率的单调递减函数, 即当 时 ( )i f p1 1 2 2 P a P a ( ) ( )  1 2 f P f P ( ) ( ) 
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有