nH{X)电编码效率I;N次扩展信源码率R=L/N(N次扩展)编码效率:*信息的主要特性:普遍性、可度量性、相对独立性、可传输性、可存储性、可共享性、时效性通信系统对信息传输的要求:①有效性一一传输的每一条消息携带尽可能多的信息量或单位时间内传输尽可能多的信息量②可靠性一一信源提供的消息经传输后,尽可能准确、不失真地被信宿接受并再现③保密性信源的分类:一方面分为离散信源和连续信源,另一方面分为无记忆信源和有记忆信源
消息中所包含的不确定性的成分才是信息,因此,不确定性的成分越大,或者说出现的概率越小,信息量就越大
离散信源输出xi所包含的信息量用I(xi)来表示并将其称为xi的自信息量,xi的自信息量的定义式为:I(X)=-log2p(xi)自信息量的性质:①I(xi)是随机量;②I(xi)是非负值;③I(xi)是p(xi)的单调递减函数
必然发生的事件不存在任何不确定性,故不含有任何信息量
联合自信息量:I(xiyj)=-log2p(xiyj)条件自信息量:I(xi/yj)=-log2p(xi/yj)在已知yj的条件下,发生xi所带来的信息量
I(yj/xi)=-log2p(yj/xi)在已知xi的条件下,发生yj所带来的信息量
联合自信息量与条件自信息量关系:I(xiyj)=I(xi/yj)+I(yj)=I(yj/xi)+I(xi)自信息量反映的是一个随机事件出现某种结果所包含的信息量,自信息量具有随机变量的性质
单符号离散信源的信息熵:将离散信源所有自信息量的数学期望用H(X)来表示并称其为信源的信息熵,也叫香农熵,信息熵的定义为:H(X)=E[I(xi)]=工p(xi)I(xi)=一工p(xi)log2p(xi)i=1i=1信息熵的单位是比特/符号(bit/symbol)
信息熵是从整体出发对一个离散信源信息量的度量°H(X)反映信源每发出一条消息所提供的平均信息量