多媒体教学讲解课件27_第1页
多媒体教学讲解课件27_第2页
多媒体教学讲解课件27_第3页
多媒体教学讲解课件27_第4页
多媒体教学讲解课件27_第5页
已阅读5页,还剩29页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

4.1.2多媒体数据压缩的可能性1.空间冗余例:图像中的“A”是一个规则物体。光的亮度、饱和度及颜色都一样,因此,数据A有很大的冗余。A4.1.2多媒体数据压缩的可能性1.空间冗余A12.时间冗余例:序列图像。F2AF1A2.时间冗余例:序列图像。F2AF1A23.信息熵冗余信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。3.信息熵冗余信息量:指从N个相等的可能事件中选出一个事件3

例如:从64个数中选出某一个数。可先问“是否大于32?”消除半数的可能,这样只要6次就可选出某数。

例如:从64个数中选出某一个数。可先问“是否大于34351.大于/小于32?2.大于/小于32+16=48?3.大于/小于48-8=40?4.大于/小于40-4=36?5.大于/小于36-2=34?6.大于/小于34+1=35大小小小大等351.大于/小于32?大小5631.大于/小于32?2.大于/小于32+16=48?3.大于/小于48+8=56?4.大于/小于56+4=60?5.大于/小于60+2=62?6.大于/小于62+1=63大大等大大大631.大于/小于32?大大6

这是因为每提问一次都会得到1比特的信息量。因此,在64个数中选定某一数所需的信息量是log264=6(bits)信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。这是因为每提问一次都会得到1比特的信息量。因此,在67

设从N个数中选任意一个数X的概率为P(x),假定选定任意一个数的概率都相等,P(x)=1/N,因此定义信息量

I(x)=log2N=-log2(1/N)=-log2P(x)=I[P(x)]信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。设从N个数中选任意一个数X的概率为P(x8从64个数中选任意一个数X的信息量

I(x)=log264=6从64个数中选任意一个数X的信息量9信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。

如果将信源所有可能事件的信息量进行平均,就得到了信息熵(entropy)。熵就是平均信息量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(ent10

信息源的符号集为Xj

(j=1,2,3……..N)设X出现的概率为P(xj),则信息源X的熵为

11

为使单位数据量d接近或等于E(即信息熵),应设公式其中b(yj)是j已分配给码元素yj的比特数,理论状态下应取b(yj)=-log2PjPj为Yj发生的概率。为使单位数据量d接近或等于E(即信息熵),应设12例如:ASCII码用7bit,128种A=31HB=32H实际应用中很难预估出(P0…..PK-1)因此我们取b(Y0)=b(Y1)……=b

26个英文字母b(Y0)=b(Y1)……=b(Y26)=7例如:ASCII码用7bit,128种134.结构冗余图像有非常强的纹理结构。如草席图结构上存在冗余。4.结构冗余图像有非常强的纹理结构。145.知识冗余图像的理解与某些基础知识有关。例:人脸的图像有同样的结构:嘴的上方有鼻子,鼻子上方有眼睛,鼻子在中线上……5.知识冗余图像的理解与某些基础知识有关。156.视觉冗余视觉冗余是非均匀、非线性的。例:人类视觉分辨率为2,但常用2就是数据冗余。5-687.其他冗余图像空白的非定长性。6.视觉冗余视觉冗余是非均匀、非线性的。5-687.其他冗余16多媒体教学讲解课件27174.1.2多媒体数据压缩的可能性1.空间冗余例:图像中的“A”是一个规则物体。光的亮度、饱和度及颜色都一样,因此,数据A有很大的冗余。A4.1.2多媒体数据压缩的可能性1.空间冗余A182.时间冗余例:序列图像。F2AF1A2.时间冗余例:序列图像。F2AF1A193.信息熵冗余信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。3.信息熵冗余信息量:指从N个相等的可能事件中选出一个事件20

例如:从64个数中选出某一个数。可先问“是否大于32?”消除半数的可能,这样只要6次就可选出某数。

例如:从64个数中选出某一个数。可先问“是否大于321351.大于/小于32?2.大于/小于32+16=48?3.大于/小于48-8=40?4.大于/小于40-4=36?5.大于/小于36-2=34?6.大于/小于34+1=35大小小小大等351.大于/小于32?大小22631.大于/小于32?2.大于/小于32+16=48?3.大于/小于48+8=56?4.大于/小于56+4=60?5.大于/小于60+2=62?6.大于/小于62+1=63大大等大大大631.大于/小于32?大大23

这是因为每提问一次都会得到1比特的信息量。因此,在64个数中选定某一数所需的信息量是log264=6(bits)信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。这是因为每提问一次都会得到1比特的信息量。因此,在624

设从N个数中选任意一个数X的概率为P(x),假定选定任意一个数的概率都相等,P(x)=1/N,因此定义信息量

I(x)=log2N=-log2(1/N)=-log2P(x)=I[P(x)]信息量:指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。设从N个数中选任意一个数X的概率为P(x25从64个数中选任意一个数X的信息量

I(x)=log264=6从64个数中选任意一个数X的信息量26信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。

如果将信源所有可能事件的信息量进行平均,就得到了信息熵(entropy)。熵就是平均信息量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(ent27

信息源的符号集为Xj

(j=1,2,3……..N)设X出现的概率为P(xj),则信息源X的熵为

28

为使单位数据量d接近或等于E(即信息熵),应设公式其中b(yj)是j已分配给码元素yj的比特数,理论状态下应取b(yj)=-log2PjPj为Yj发生的概率。为使单位数据量d接近或等于E(即信息熵),应设29例如:ASCII码用7bit,128种A=31HB=32H实际应用中很难预估出(P0…..PK-1)因此我们取b(Y0)=b(Y1)……=b

26个英文字母b(Y0)=b(Y1)……=b(Y26)=7例如:ASCII码用7bit,128种304.结构冗余图像有非常强的纹理结构。如草席图结构上存在冗余。4.结构冗余图像有非常强的纹理结构。315.知识

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论