当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

西安电子科技大学多媒体研究所:《多媒体数据处理》第四章 多媒体数据压缩基础(崔江涛)

资源类别:文库,文档格式:PPT,文档页数:44,文件大小:334KB,团购合买
一、多媒体系统对人类获取信息的作用 1、扩大了范围、 2、加快了速度、 3、增加了存储、 4、更易于接受。
点击下载完整版文档(PPT)

多媒体数据压缩基 西安电子科技大学多媒体研究所 http://www.mti.xidian.edu.cn

XIDIAN 西安电子科技大学多媒体研究所 http://www.mti.xidian.edu.cn 多媒体数据压缩基础

蔡体及桌体技术 今多媒体系统对人类获取信息的作用 ◆扩大了范围、 ◆加快了速度、 ◆增加了存储 ◆更易于接受 令计算机对多媒体系统的研究 ◆通过学习媒体本质,更贴切表现视觉、听觉 触觉等媒体 ◆通过学习人类思维,更好模拟对环境的思维 能力

❖ 多媒体系统对人类获取信息的作用 ◆扩大了范围、 ◆加快了速度、 ◆增加了存储、 ◆更易于接受。 ❖ 计算机对多媒体系统的研究 ◆通过学习媒体本质,更贴切表现视觉、听觉、 触觉等媒体 ◆通过学习人类思维,更好模拟对环境的思维 能力 媒体及媒体技术

多媒体表现 ◇更贴切表现多媒体可以通过增加样精度,加大量 化位数,消除信道噪声等途径来取得,但是也带来 新的问题-数据量过大 ◇多媒体数据压缩的必要性 ◆数据存储 ◆传输带宽 令数据压缩就是在一定的精度损失条件下,以最少的 数码表示信源所发出的信号

多媒体表现 ❖ 更贴切表现多媒体可以通过增加采样精度,加大量 化位数,消除信道噪声等途径来取得,但是也带来 新的问题-数据量过大 ❖ 多媒体数据压缩的必要性 ◆数据存储 ◆传输带宽 ❖ 数据压缩就是在一定的精度损失条件下,以最少的 数码表示信源所发出的信号

数据压缩原理 ◆去除数据之间的相关性和冗余性 采集的多媒体数据信息具有相关性,可以用数学的方法来 消除数据之间的这些相关性 ◆统计编码 ◆变换方法 心感官误差允许 人们在感知各种媒体对象时,往往对一些细节信息没有很 强的感知,而且存在各种隐蔽效应。 ◆量化方法 ◆变换方法

数据压缩原理 ❖去除数据之间的相关性和冗余性 采集的多媒体数据信息具有相关性,可以用数学的方法来 消除数据之间的这些相关性 ◆ 统计编码 ◆ 变换方法 ❖感官误差允许 人们在感知各种媒体对象时,往往对一些细节信息没有很 强的感知,而且存在各种隐蔽效应。 ◆ 量化方法 ◆ 变换方法

数据压缩技术实现的衡量标准 ●压缩比要大 ●恢复后的失真小 ●压缩算法要简单、速度快 ●硬件实现的可能性

⚫压缩比要大 ⚫恢复后的失真小 ⚫压缩算法要简单、速度快 ⚫ 硬件实现的可能性 数据压缩技术实现的衡量标准

数据压技术的分类 无损压缩是指使用压缩后的数据进行重构(或 者叫做还原,解压缩),重构后的数据与原来 的数据完全相同;无损压缩用于要求重构的信 号与原始信号完全一致的场合。 有损压缩是指使用压缩后的数据进行重构, 重构后的数据与原来的数据有所不同,但不影 响人对原始资料表达的信息造成误解。有损压 缩适用于重构信号不一定非要和原始信号完全 相同的场合

无损压缩是指使用压缩后的数据进行重构(或 者叫做还原,解压缩),重构后的数据与原来 的数据完全相同;无损压缩用于要求重构的信 号与原始信号完全一致的场合。 有损压缩是指使用压缩后的数据进行重构, 重构后的数据与原来的数据有所不同,但不影 响人对原始资料表达的信息造成误解。有损压 缩适用于重构信号不一定非要和原始信号完全 相同的场合。 数据压缩技术的分类

统计编码方法(信息论) 信源 X1.Ⅹ2.X3.Ⅹ4 令信源被抽象为一个随机变量序列(随机过程) 令如果信源输出的随机变量取值于某一连续区间 就叫做连续信源。比如语音信号X(t。 令如果信源输出的随机变量取值于某一离散符号 集合,就叫做离散信源。比如平面图像X(x, y)和电报

统计编码方法(信息论) ❖ 信源被抽象为一个随机变量序列(随机过程)。 ❖ 如果信源输出的随机变量取值于某一连续区间, 就叫做连续信源。比如语音信号X(t)。 ❖ 如果信源输出的随机变量取值于某一离散符号 集合,就叫做离散信源。比如平面图像X(x, y)和电报。 信源 X1, X2, X3, X4……

统计编码理论(信息量和) 香农信息论把一个随机事件(字符a1)所携带的信息量定义为: I(al)=log2 (1/p)=-log2 p (bit) 其中p为事件发生(字符出现)的概率 令I(a1)即随机变量X取值为a1时所携带的信息量,也是编码a1所 需要的位数 令各个随机事件组成的序列的信息量也是一个随机变量,所以要研 究它的统计特性。其数学期望为: H(x)=∑n*1(a1)=∑P*logP 称HQ为一阶信息熵或者简称为熵( Entropy)

统计编码理论(信息量和熵) ❖ 香农信息论把一个随机事件(字符a1)所携带的信息量定义为: I(a1) = log2 (1/p) = -log2 p (bit) 其中p为事件发生(字符出现)的概率 ❖ I(a1)即随机变量X取值为a1时所携带的信息量,也是编码a1所 需要的位数 ❖ 各个随机事件组成的序列的信息量也是一个随机变量,所以要研 究它的统计特性。其数学期望为: ❖ 称H(X)为一阶信息熵或者简称为熵(Entropy)   = = =  = −  m j m j j aj pj pj H x p I 1 1 ( ) ( ) log

信源的概率分布与的关系 令熵的大小与信源的概率模型有着密切的关系。 今最大离散熵定理:当与信源对应的字符集中的 各个字符为等概率分布时,熵具有极大值 logzmo m为字符集中字符个数。 H(x)=∑P1*logP

信源的概率分布与熵的关系 ❖ 熵的大小与信源的概率模型有着密切的关系。 ❖ 最大离散熵定理:当与信源对应的字符集中的 各个字符为等概率分布时,熵具有极大值 log2m。m为字符集中字符个数。 = = −  m j pj pj H x 1 ( ) log

平均码长与 如果对字符a的编码长度为Lj,则X的平均码长为: Z=∑ 根据前面对二进制信源的分析,有: H(X ≤1→L≥H(X) ∑ P1*,≥ ∑p1*log2P 在L=-logp时,平均码长取得极小值H(x)

平均码长与熵 ❖ 如果对字符aj的编码长度为Lj,则X的平均码长为: ❖ 根据前面对二进制信源的分析,有: = =  m j L pj Lj 1 1 ( ) ( ) L H X L H X      = =    −  m j j j j m j pj L p p 1 2 1 log 在Lj = -log2pj时,平均码长取得极小值H(X)

点击下载完整版文档(PPT)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
共44页,可试读15页,点击继续阅读 ↓↓
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有