I(x2),I(xi)0D()RDdD是p(xi)的单调递减函数;(2)如果p(xi)=0,则I(xi)→∞;如果p(xi)=1,则I(xi)=0;(3)由两个相对独立的事件所提供的信息量,应等于它们分别提供的信息量之和:I(xiyj)=I(xi)+I(yj)自信息可以从两个方面来理解:自信息是事件发生前,事件发生的不确定性。自信息表示事件发生后,事件所包含的信息量。先验概率:信源发出消息的概率。后验概率:信宿收到消息后推测信源发出的概率,即条件概率。互信息有两方面的含义:?表示事件出现前后关于事件的不确定性减少的量;?事件出现以后信宿获得的关于事件的信息量。观察者站在输出端ix()ipxjyix(|)ijpxy(;)()(|)log()log(|)(1,2,,;1,2,,)(|)log()ijiijiijijiIxyIxIxypxpxyinjmpxypxjyixjyixI(xi;yj)=logp(xi|yj)–logp(xi)=I(xi)–I(xi|yj)?观察者站在输入端I(yj;xi)=logp(yj|xi)–logp(yj)=I(yj)–I(yj|xi)当后验概率大于先验概率时,互信息为正。当后验概率小于先验概率时,互信息为负。当后验概率与先验概率相等时,互信息为零。任何两个事件之间的互信息不可能大于其中任一事件的自信息例6:居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6m以上的,而女孩中身高1.6m以上的占总数一半。假如我们得知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息量?例7:已知信源发出和两种消息,且。此消息在二进制对称信道上传输,信道传输特性为求互信息量和。自信息是一个随机变量:自信息是指信源发出的某一消息所含有的信息量。不同的消息,它们所含有的信息量也就不同。121()()2papa11221221(|)(|)1,(|)(|)pbapbapbapba)(1;1baI12;Iab平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵)例2:一信源有6种输出符号,概率分别为P(A)=0.5,P(B)=0.25,P(C)=0.125,P(D)=P(E)=0.05,P(F)=0.025。1)计算H(X)。2)求符号序列ABABBA和FDDFDF的信息量,并将之与6位符号的信息量期望值相比较。递增性(递推性)例4:利用递推性计算熵函数H(1/3,1/3,1/6,1/6)的值极值性(最大离散熵定理)定理:离散无记忆信源输出n个不同的信息1()[()][log()]()log()niiiiiHXEIxEpxpxpx...
1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
碎片内容