正在加载图片...
平均信息量 离散信源有n个符号,x1,x2,…,xn,出 14现的概率为P(x1),P(x2),…,P(xn) H(x)=2p(x, )log, p(x, )(bit/G) 信息及其度量 信源的熵( Entropy) 消息等概P(x1)=P(x2)=.=P(xn)= H(x)具有最大值 Hnax=∑log2n=log,n(bit/符号)18 1.4 信 息 及 其 度 量  平均信息量 离散信源有n个符号,x1,x2,…,xn,出 现的概率为P(x1),P(x2),…,P(xn) H(x)=- (bit/符号) 信源的熵 (Entropy) 消息等概 P(x1)=P(x2)=…=P(xn)= H(x)具有最大值 Hmax= (bit/符号) ( )log ( ) 2 1 i n i i  p x p x = n 1 n n n n i 2 2 1 log log 1  = =
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有