
15多媒体数裾压缩技术 1.5.1多媒体数据的冗余类型 1.5.2数据压缩方法 1.5.3视频编码的国际标准
1.5 多媒体数据压缩技术 1.5.1 多媒体数据的冗余类型 1.5.2 数据压缩方法 1.5.3 视频编码的国际标准

15.1多媒体数据的冗余类型 图像数据表示中存在着大量的冗 余,图像数据压缩技术就是利用图像 数据的冗余性来减少图像数据量的方 法。常见图像数据冗余类型如下: 空间冗余 2. 时间冗余 3. 视觉冗余
1.5.1 多媒体数据的冗余类型 图像数据表示中存在着大量的冗 余,图像数据压缩技术就是利用图像 数据的冗余性来减少图像数据量的方 法。常见图像数据冗余类型如下: 1. 空间冗余 2. 时间冗余 3. 视觉冗余

空间冗余 一幅图像表面上各采样点的颜色之 间往往存在着空间连贯性,基于离散像 素采样来表示物体表面颜色的像素存储 方式可利用空间连贯性,达到减少数据 量的目的。 例如,在静态图像中有一块表面颜 色均匀的区域,在此区域中所有点的光 强和色彩以及饱和度都是相同的,因此 数据有很大的空间冗余
空间冗余 一幅图像表面上各采样点的颜色之 间往往存在着空间连贯性,基于离散像 素采样来表示物体表面颜色的像素存储 方式可利用空间连贯性,达到减少数据 量的目的。 例如,在静态图像中有一块表面颜 色均匀的区域,在此区域中所有点的光 强和色彩以及饱和度都是相同的,因此 数据有很大的空间冗余

时间冗余 运动图像一般为位于一时间轴区间 的一组连续画面,其中的相邻帧往往包 含相同的背景和移动物体,只不过移动 物体所在的空间位置略有不同,所以后 一帧的数据与前一帧的数据有许多共同 的地方,这种共同性是由于相邻帧记录 了相邻时刻的同一场景画面,所以称为 时间冗余。 同理,语音数据中也存在着时间冗 余
时间冗余 运动图像一般为位于一时间轴区间 的一组连续画面,其中的相邻帧往往包 含相同的背景和移动物体,只不过移动 物体所在的空间位置略有不同,所以后 一帧的数据与前一帧的数据有许多共同 的地方,这种共同性是由于相邻帧记录 了相邻时刻的同一场景画面,所以称为 时间冗余。 同理,语音数据中也存在着时间冗 余

视觉冗余 人类的视觉系统对图像场的敏感度 是非均匀的。但是,在记录原始的图像 数据时,通常假定视觉系统近以线性的 和均匀的,对视觉敏感和不敏感的部分 同等对待,从而产生比理想编码(即把 视觉敏感和不敏感的部分区分开来的编 码)更多的数据,这就是视觉冗余
视觉冗余 人类的视觉系统对图像场的敏感度 是非均匀的。但是,在记录原始的图像 数据时,通常假定视觉系统近似线性的 和均匀的,对视觉敏感和不敏感的部分 同等对待,从而产生比理想编码(即把 视觉敏感和不敏感的部分区分开来的编 码)更多的数据,这就是视觉冗余

数字压缩技术三个重要指标 1、信息存储量之比 大 2、压缩的算法 简单 3、恢复效果 好
数字压缩技术三个重要指标 1、信息存储量之比 大 2、压缩的算法 简单 3、恢复效果 好

15.2数据在缩方法 压缩处理一般是由两个过程组成: 一是编码过程,即将原始数据经过编码 进行压缩,以便存储与传输;二是解码 过程,此过程对编码数据进行解码,还 原为可以使用的数据。 数据压缩可分为两种类型:一种叫 做无损压缩,另一种叫做有损压缩。 无损压缩 有损压缩 混合压缩
1.5.2 数据压缩方法 压缩处理一般是由两个过程组成: 一是编码过程,即将原始数据经过编码 进行压缩,以便存储与传输;二是解码 过程,此过程对编码数据进行解码,还 原为可以使用的数据。 数据压缩可分为两种类型:一种叫 做无损压缩,另一种叫做有损压缩。 无损压缩 混合压缩 有损压缩

什么是熵 数据压缩不仅起源于40年代由Claude Shannon 首创的信息论,而且其基本原理即信息究竟能被压缩 到多小,至今依然遵循信息论中的一条定理,这条定 理借用了热力学中的名词“熵”(Entropy)来表示一条 信息中真正需要编码的信息量: 考虑用0和1组成的二进制数码为含有n个符号的某 条信息编码,假设符号Fn在整条信息中重复出现的概 率为P,则该符号的熵也即表示该符号所需的位数位 为: En=-log2(Pn)整条信息的熵也即表示整条信息所需 的位数为:E=∑En
什么是熵 数据压缩不仅起源于 40 年代由 Claude Shannon 首创的信息论,而且其基本原理即信息究竟能被压缩 到多小,至今依然遵循信息论中的一条定理,这条定 理借用了热力学中的名词“熵”( Entropy )来表示一条 信息中真正需要编码的信息量: 考虑用 0 和 1 组成的二进制数码为含有 n 个符号的某 条信息编码,假设符号 Fn 在整条信息中重复出现的概 率为 Pn,则该符号的熵也即表示该符号所需的位数位 为: En = - log2 ( Pn )整条信息的熵也即表示整条信息所需 的位数为:E = ∑En

举个例子,对下面这条只出现了abc三个字符的字符 串: aabbaccbaa 字符串长度为10,字符abc分别出现了532次, 则abc在信息中出现的概率分别为0.50.30.2,他 们的熵分别为: Ea=-0g2(0.5)=1Eb=-l0g2(0.3)=1.737Ec=- log2(0.2)=2.322整条信息的熵也即表达整个字符串需 要的位数为: E=Ea*5+Eb*3+Ec*2=14.855位回想一下如果 用计算机中常用的ASCII编码,表示上面的字符串我 们需要整整80位呢!现在知道信息为什么能被压缩而 不丢失原有的信息内容了吧。简单地讲,用较少的位 数表示较频繁出现的符号,这就是数据压缩的(《
举个例子,对下面这条只出现了 a b c 三个字符的字符 串: aabbaccbaa 字符串长度为 10,字符 a b c 分别出现了 5 3 2 次, 则 a b c 在信息中出现的概率分别为 0.5 0.3 0.2,他 们的熵分别为: Ea = -log2 (0.5) = 1Eb = -log2 (0.3) = 1.737Ec = - log2 (0.2) = 2.322整条信息的熵也即表达整个字符串需 要的位数为: E = Ea * 5 + Eb * 3 + Ec * 2 = 14.855 位回想一下如果 用计算机中常用的 ASCII 编码,表示上面的字符串我 们需要整整 80 位呢!现在知道信息为什么能被压缩而 不丢失原有的信息内容了吧。简单地讲,用较少的位 数表示较频繁出现的符号,这就是数据压缩的基本准 则

模型 从上面的描述,我们明白,要压缩一条信息,首先要分析清楚信息中每 个符号出现的概率。不同的压缩程序通过不同的方法确定符号的出现概 率,对符号的概率计算得越准确,也就越容易得到好的压缩效果。在压 缩程序中,用来处理输入信息,计算符号的概率并决定输出哪个或哪些 代码的模块叫做模型。 难道对信息中字符的出现概率这么难以估计以至于有各种不同的压缩模 型吗?对上面的字符串我们不是很容易就知道每个字符的概率了吗?不 过上面的字符串仅有10个字符长呀,那只是例子而已。考虑我们现实中 要压缩的文件,大多数可是有几十K甚至几百K长,几M字节的文件不 是也屡见不鲜吗? 是的,我们可以预先扫描文件中的所有字符,统计出每个字符出现的概 率,这种方法在压缩术语里叫做“静态统计模型”。但是,不同的文件 中,字符有不同的分布概率,我们要么先花上大量的时间统计我们要压 缩的所有文件中的字符概率,要么为每一个单独的文件保存一份概率表 以备解压缩时需要。糟糕的是,不但扫描文件要消耗大量时间,而且保 存一份概率表也使压缩后的文件增大了不少。所以,在实际应用中, “静态统计模型”应用的很少
模型 从上面的描述,我们明白,要压缩一条信息,首先要分析清楚信息中每 个符号出现的概率。不同的压缩程序通过不同的方法确定符号的出现概 率,对符号的概率计算得越准确,也就越容易得到好的压缩效果。在压 缩程序中,用来处理输入信息,计算符号的概率并决定输出哪个或哪些 代码的模块叫做模型。 难道对信息中字符的出现概率这么难以估计以至于有各种不同的压缩模 型吗?对上面的字符串我们不是很容易就知道每个字符的概率了吗?不 过上面的字符串仅有 10 个字符长呀,那只是例子而已。考虑我们现实中 要压缩的文件,大多数可是有几十 K 甚至几百 K 长,几 M 字节的文件不 是也屡见不鲜吗? 是的,我们可以预先扫描文件中的所有字符,统计出每个字符出现的概 率,这种方法在压缩术语里叫做“静态统计模型”。但是,不同的文件 中,字符有不同的分布概率,我们要么先花上大量的时间统计我们要压 缩的所有文件中的字符概率,要么为每一个单独的文件保存一份概率表 以备解压缩时需要。糟糕的是,不但扫描文件要消耗大量时间,而且保 存一份概率表也使压缩后的文件增大了不少。所以,在实际应用中, “静态统计模型”应用的很少