信息论与编码实验报告_第1页
信息论与编码实验报告_第2页
信息论与编码实验报告_第3页
信息论与编码实验报告_第4页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、NANCHANGUNIVERSITY信息论与编码实验报告( 2018 年 11 月 27 日)学院: 信息工程学院系电子信息工程系专业班级:学生姓名:学号:指导教师:目录实验一自信息量和熵源 .实验二准对称信道容量 .实验三费诺不等式 .实验四香农编码 .实验五费诺编码 .实验六霍夫曼编码 .实验一自信息量和熵源一、实验要求1、画出I=-的函数图;2、画出H(p)=-p-(1-p)函数图。二、实验原理及理论分析自信息量:一个事件的自信息量就是对其不确定性的度量。直观地把自信息量定义为收到某消息获得的信息量=不确定性减少的量。而事件x 发生的不确定性与事件发生的概率q(x)有关,概率越小,不确定

2、性越大。定义I(x)=-logq(x)。熵(平均自信息量):实际信源包含许多消息X=(x1,x2, ),因此需要考虑整个信源自信息量的统计平均值。无记忆信源的平均自信息量定义为各消息自信息量的概率加权平均值,即平均自信息量H(X) 定义为H(X)=-,简称熵。H(X) 是唯一确定集合X 中任一事件所需要的平均信息量, 反应了X 中事件出现的平均不确定性。三、实验结果四、实验结果分析由图可知, I(x) 是 p 的单调递减函数,概率小的事件一旦发生则赋予的信息量大,概率大的事件如果发生则赋予的信息量小。当 p=1 时, I(x)=0 ,表示确定事件发生得不到任何信息。当 p=0 时, I(x)

3、,表示不可能事件一旦发生,信息量将无穷大。由图可知,对于二元信源, p=0 或者 p=1 都对应确定事件的分布,因此熵值 H(X) 为 0,而等概分布时,熵值H(X) 取最大值为 1。五、实验总结通过这次实验,使用 Matlab 数值模拟信源熵和自信息量,进一步理解了自信息量和熵的概念、 计算和它们的物理意义。 理论和实践的结合让我对这个知识点了解得更加深刻。实验二准对称信道容量一、实验要求画出强对称信道容量数值模拟图。二、实验原理及理论分析信道是信息传输的通道。 信道可以按不同得特性进行分类,根据输入输出信号得特点可以分为以下四类:离散信道、连续信道、半连续信道、波形信道。根据统计特性,即转

4、移概率得不同,信道又分为无记忆信道和有记忆信道两类。强对称信道是一种常见的离散无记忆信道,每一子集关于行、 列都对称, 它的输入符号 x 0 ,1 ,输出符号 y0 ,1 ,信道特性可表示为信道矩阵。信道转移概率 p(y=0|x=0)=p(y=1|x=1)=1-p,p(y=1|x=0)=p(y=0|x=1)=p。强对称信道的容量计算公式:三、实验结果四、实验结果分析由图可知, p=0 时,信道的输入符号和输出符号是一一对应的关系,此时信道容量 C=log2,达到最大值。 p=0.5 时,信道的不确定性最大,此时信道容量C=0,这是一种最差的信道。p=1 时,这是一种强噪信道,也是一种确定信道,

5、此时信道容量也会达到最大值C=log2。五、实验总结通过 Matlab 数值模拟强对称信道容量,观察最高点最低点,加深了对强对称信道这一类特殊信道的理解,验证了理论计算的正确性。实验三费诺不等式一、实验要求画出费诺不等式示意图,以H(X|Y) 为纵坐标, Pe 为横坐标,画出函数H(Pe)+Pelog(r-1)随 Pe 变化的曲线图,标注logr 点以及 log(r-1)点。二、实验原理及理论分析设信道输入符号X 和输出符号 Y 取自同一符号集A=,则传输过程中的错误概率 Pe 和信道疑义度 H(X|Y) 之间满足下列关系式, 也即著名的费诺不等式:费诺不等式的物理意义:进行一次判决后,关于1

6、、X 的疑义度可分为两项:是否判对,疑义度为;2、如果判决出错(概率为),错在k-1个符号中的哪一个?疑义度不会超过log(k-1) 。三、实验结果四、实验结果分析根据极大离散熵定理,信源的消息个数为M ,则 H(X) logM ,等号当且仅当信源 X 中各消息等概时成立。如图所示,各消息等概分布时,信道疑义度即信源熵最大为log(r) 。如图所示,当错误概率为1 时,判决出错,错误发生在k-1 个符号中,疑义度最大为log(k-1) 。五、实验总结使用Matlab模拟时,和的值不能直接取到0 和1,这样围不成一个封闭区域,和可以取到两个无限接近0 和1 的值。很好地掌握极大离散熵定理是理解费

7、诺不等式的基础。实验四香农编码一、实验要求1、根据香农编码的方法和步骤,编写香农编码程序,得到码字和编码效率;2、用编写的源程序验证书中例题的正确性,并用图表示码长结果。二、实验原理及理论分析香农编码法是一种常用的变长编码法, 对于证明变长编码定理起了很重要的作用。香农编码具体步骤如下:1、将信源发出的M个消息,按其概率递减顺序进行排列,得;2、计算出各消息的 -log值, m=1,2, M;3、根据:为整数时取等。计算出每个消息的二进制代码的长度(m=1,2,M) ,取正整数;4、为得到唯一可译码,计算出第m 个消息的累加概率,再将变换成二进制小数,取小数点后面位作为第m 个消息的码字。三、

8、实验结果四、程序流程图开始代码初始化否判断信源是否合法重新输入是按递减顺序排列,并计算累加概率计算码字长度k十进制小数转二进制小数取小数点后k位作为码字顺序重排计算平均码长、信源熵、编码效率结束五、实验结果分析香农编码严格意义上来说不是最佳码,它是采用信源符号的累计概率分布函数来分配码字。 从结果中可以看出, 香农编码法中, 码符号概率大的用短码表示,概率小的是用长码表示。香农编码的编码效率并不是特别高。六、实验总结和后面两种编码方法相比, 香农编码的效率不高, 实用性不大。 按照香农编码方法编出来的码, 其平均码长不是最短的, 不是最佳码。 但是对其他编码方法有很好的理论指导意义,所以我们也

9、应该掌握。实验五费诺编码一、实验要求1、根据费诺编码的方法和步骤编写费诺编码程序,得到码字和编码效率;2、用编写的源程序验证书中例题的正确性,并用图表示码长结果。二、实验原理及理论分析香农第一定理的物理意义阐明:信源等概分布时, 信息传输率最大, 应用到对信源进行编码, 应使编码后的码集尽可能等概分布,如果将该码集看成一个新的信源,这时新信源所包含的信息量最大。据此,产生了费诺编码法。费诺编码法的具体步骤如下:1、将信源发出的M个消息,按其概率递减顺序进行排列,得,把消息集按其概率大小分解成两个子集,使两个子集的概率之和尽可能相等,把第一个子集编码为“ 0”,第二个子集编码为“ 1”,作为代码

10、组的第一个码元;2、对子集做第二次分解,同样分解成两个子集,并使两个子集的概率之和尽可能接近相等,再把第一个子集编码为“0”,第二个子集编码为“ 1”,作为代码组的第二个码元;3、如此一直进行下去,直到各子集仅含一个消息为止;4、将逐次分解过程当中得到的码元排列起来就是各消息的代码。三、实验结果四、程序流程图开始代码初始化否判断信源是否合法重新输入是按概率递减顺序排列否判断信源个数是否大于2是累加求和,确定分组后每组概率累加和尽可能相近第一组的信源码字加0 ,第二组的信源码字加1判断分组点是不是第一个编号是分组点为新分组的第一个编号,其他依次编号否是分组点为新分组的最后一判断分组点是不是该组倒

11、数第二个个编号,其他编号不变否以分组点为界,重新编号分为两组计算平均码长、信源熵、编码效率结束五、实验结果分析从结果中可以看出来,费诺编码法中,码符号概率大的,分解次数小;码符号概率小的, 分解次数大。 这种编码方法不一定能使短码得到充分利用。尤其当信源符号较多, 并且有一些符号概率分布很接近时,分两大组的组合方法就很多。可能存在某种分配结果, 会出现后面分组的概率和相差较远,因而使平均码长增加,所以费诺编码不一定是最佳码。六、实验总结费诺编码方法不唯一,费诺编码适合于对分组概率相等或相近的信源编码,费诺编码法编M 进制码, M 越大,信源的符号数越多,可能的编码方式就越多,编码过程就越复杂,

12、当信源符号个数越多,编码效率就越低。实验六霍夫曼编码一、实验要求1、根据霍夫曼编码的方法和步骤,编写霍夫曼编码程序,得到码字和编码效率;2、用编写的源程序验证书中例题3.18 的正确性,通过码长均值和均方差结果比较两种霍夫曼编码方法(用图形表示)。二、实验原理及理论分析霍夫曼编码法的具体步骤如下:以 M 个消息的 D 进制编码为例1、计算 M+r=D+m(D-1) ,m 为整数, r 为满足等式的最小正整数;2、若 r 0,添加 r 个概率为 0 的信源消息;3、将信源的 M+r 个消息按概率递减顺序排列;4、将概率最小的 D 个消息分别编码为D-1,D-2, 1,0;5、将上述 D 个消息合

13、并,求概率之和,并与余下的消息组成一个新的信源,再按概率递减顺序重新排列。如果概率之和与某个消息的概率相等,应把合并消息排在上面,这样可使合并消息重复编码的次数减少,使短码得到充分利用;6、重复步骤 4、 5,直到合并消息的概率之和为1;7、从最后一步开始,沿编码逆过程取各步骤得到的码符号,如此构成的码符号序列即为对应消息的码字。r 个 0 消息是人为添加的,不需要取码符号。三、实验结果四、程序流程图开始代码初始化否判断信源是否合法重新输入是否判断信源个数是否大于2是按递减顺序排列,并将概率最小的两个编号为1,2将概率最小的两个加起来,和其他的一起作为一个新信源重新按递减顺序排列,概率相同的向上排/ 向下排计算平均码长、方差、码长是均方差、信源熵、编码效率结束五、实验结果分析因为在 Matlab 中,首位的 0 会被自动省略,不适合编码。所以这里利用 1,2 进行编码。从结果中可以看出,每次缩减信源的最后两个码字总是最后一位码元不同,前面各位码元相同。霍夫曼编码法中, 概率小的消息码长更大, 概率大的消息码长更小。 可以看出霍夫曼编码法得到的码并不是唯一的, 因为对于每次选出的两个消息, 哪个编码为“ 1”,哪个编码为“ 0”是可以任意选取的,由此可以得到不同的编码,而且平均码长是不会变的。新组成的概率之和和原信源中的某概率相等时,将新组成的概率之和往上排和往下排,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论