第4讲图像压缩原理学习目标l了解多媒体数据压缩编码的重要性和分类l掌握图像数据压缩编码常用算法的基本原理第一页,共三十六页。数据压缩编码简介图像数据压缩的主要依据有两个:1.一是图像数据中有许多重复的数据,使用数学方法来表示这些重复数据就可以减少数据量;2.另一个依据是人眼睛对图像细节和颜色的辨认有一个极限,把超过极限的部分去掉,这也就达到了数据压缩的目的。有损压缩技术和无损压缩技术1.基于数据冗余的压缩技术是无损压缩技术2.基于人眼视觉特性的压缩技术是有损压缩技术。实际上,图像压缩技术是各种有损和无损压缩技术的综合实现。第二页,共三十六页。数据压缩方法的分类根据编、解码后数据是否一致来进行分类,数据压缩的方法一般被划分为两类:1.可逆编码(无损编码)。此种方法的解码图像与原始图像严格相同,压缩比大约在2:1~5:1之间。主要编码有Huffman编码、算术编码、行程长度编码等。2.不可逆编码(有损编码)。此种方法的解码图像与原始图像存在一定的误差,但视觉效果一般可以接受,压缩比可以从几倍到上百倍调节。常用的编码有变换编码和预测编码。第三页,共三十六页。根据压缩的原理分:•(1)预测编码。它是利用空间中相邻数据的相关性来进行压缩数据的。通常用的方法有脉冲编码调制(PCM)、增量调制(DM)、差分脉冲编码调制(DPCM)等。这些编码主要用于声音的编码。•(2)变换编码。该方法将图像时域信号转换为频域信号进行处理。这种转换的特点是把在时域空间具有强相关的信号转换到频域上时在某些特定的区域内能量常常集中在一起,数据处理时可以将主要的注意力集中在相对较小的区域,从而实现数据压缩。一般采用正交变换,如离散余弦变换(DCT)、离散傅立叶变换(DFT)•(3)量化与向量量化编码。对模拟信号进行数字化时要经历一个量化的过程。为了使整体量化失真最小,就必须依据统计的概率分布设计最优的量化器。最优的量化器一般是非线性的,已知的最优量化器是Max量化器。我们对像元点进行量化时,除了每次仅量化一个点的方法外,也可以考虑一次量化多个点的做法,这种方法称为向量量化。即利用相邻数据间的相关性,将数据系列分组进行量化。第四页,共三十六页。(4)信息熵编码。依据信息熵原理,让出现概率大的信号用较短的码字表示,反之用较长的码字表示。常见的编码方法有Huffman编码、Shannon编码以及算术编码。(5)子带(subband)编码。将图像数据变换到频率后,按频率分带,然后用不同的量化器进行量化,从而达到最优的组合。或者分布渐进编码,在初始时,对某一个频带的信号进行解码,然后逐渐扩展到所有频带。根据压缩的原理分:(续)第五页,共三十六页。信息熵及基本概念1.信息量与信息熵信息量是指从N个相等的可能事件中选出一个事件所需要的信息度量或含量,也就是在辨识N个事件中特定的一个事件的过程中所需要提问“是或否”的最少次数。设从N个数中选定任一个数xj的概率为p(xj),假定选定任意一个数的概率都相等,即p(xj)=,因此定义信息量见公式4-5。定义信息量见公式4-5。如果将信源所有可能事件的信息量进行平均,就得到了信息的“熵”,即信息熵。)]([)(log1loglog)(222jjjxpIxpNNxI式中,P(xj)是信源X发出xj的概率。I(xj)的含义是,信源X发出xj这个消息(随机事件)后,接收端收到信息量的量度。(4-5)第六页,共三十六页。信源X发出的xj(j=1,2,…,n)共n个随机事件的自信息统计平均,即H(X)称为信源X的“熵”,即信源X发出任意一个随机变量的平均信息量。其中:等概率事件的熵最大,假设有N个事件,由(4-6)式得此时熵为:njjjjxPxPxIEXH12)(log)()}({)((4-6)NNNXHNj221log1log1)(当P(x1)=1时,P(x2)=P(x3)=…=P(xj)=0,由(4-6)式得此时熵为0)(log)()(121xPxPXHNXH2log)(0由上可得熵的范围为:第七页,共三十六页。在编码中用熵值来衡量是否为最佳编码。若以Lc表示编码器输出码字的平均码长,则当Lc≥H(X)有冗余,不是最佳。Lc<H(X)不可能。Lc=H(X)最佳编码(Lc稍大于H(X))。熵值为平均码长Lc的下限。平均码长Lc的计算公式为...