信息论与编码习题_第1页
信息论与编码习题_第2页
信息论与编码习题_第3页
信息论与编码习题_第4页
信息论与编码习题_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 信息论与编码习题课信息论与编码习题课一、填空题1、设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为_时,信源熵达到最大值,为_,此时各个消息的自信息量为_。2、不可能事件的自信息量是_, 必然事件的自信息是 。3、假设每个消息的发出都是等概率的,四进制脉冲所含信息量是二进制脉冲的 倍。4、某离散无记忆信源X,其符号个数为n,则当信源符号呈 分布情况下,信源熵取最大值_。5、设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为 时,信源熵达到最大值,为 _。 6、自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越 。7、对于香农编码、费诺编码和霍夫曼

2、编码,编码方法惟一的是 编码。 编码方法构造的是最佳码。8、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 。9、_提高通信的有效性,_目的是提高通信的可靠性,_编码的目的是保证通信的安全性。10、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 倍。11、平均互信息量I(X;Y)与信源熵和条件熵之间的关系是 。12、互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y) _(大于、小于或者等于)H(Y)。12、信源的冗余度来自两个方面,一是信源符号之间的 ,二是信源符号分布的 。13、已知某线性分组码的最小汉明距离为3,那么这组码

3、最多能检测出 个码元错误,最多能纠正 个码元错误。14、设有一个离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。15、设信道输入端的熵为H(X),输出端的熵为H(Y),该信道为无噪有损信道,则该信道的容量为 。16、在无失真的信源中,信源输出由 来度量;17、要使通信系统做到传输信息有效、可靠和保密,必须首先 编码,然后_编码,再_编码,最后送入信道18、带限AWGN波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是 ;19、已知n7的循环码 ,则信息位长度k为 ,校验多项

4、式h(x)= 。20、平均互信息是输入信源概率分布的 函数;平均互信息是信道转移概率的 函数,平均互信息的最大值为 。42( )1g xxxx二、判断题1.确定性信源的熵H(0,0,0,1)=1。 2.信源X的概率分布为P(X)=1/2, 1/3, 1/6,对其进行哈夫曼编码得到的码是唯一的。3、离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。4.线性码一定包含全零码。6.信源X的概率分布为P(X)=1/2, 1/3, 1/6,信源Y的概率分布为P(Y)=1/3,1/2,1/6,则信源X和Y的熵相等。7.互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。8.对信源符号X=

5、a1,a2,a3,a4进行二元信源编码,4个信源符号对应码字的码长分别为K1=1,K2=2,K3=3,K3=3,满足这种码长组合的码一定是唯一可译码。10.设C = 000000, 001011, 010110, 011101, 100111, 101100, 110001, 111010是一个二元线性分组码,则该码最多能检测出3个随机错误。11、某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。12、循环码的码集中的任何一个码字的循环移位仍是码字。13、信道容量是信道中能够传输的最小信息量。 14、只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的

6、误差概率实现可靠的通信. 15、连续信源和离散信源的熵都具有非负性. 16、汉明码是一种线性分组码17、必然事件和不可能事件的自信息量都是 018、当随机变量 和 相互独立时,条件熵 等于信源熵 .19、概率大的事件自信息量大。20、互信息量可正、可负亦可为零。1、信息论的创始人是( )A、维纳 B、香农 C、图灵 D、哈莱特2、下列不属于消息的是( )。A.文字 B.信号 C.图像 D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。A. log36bit B. log36bit C. log (11/36)bit D. log(11/36

7、)bit4、下列离散信源,熵最大的是( )。A. H(1/3,1/3,1/3); B. H(1/2,1/2); C. H(0.9,0.1); D. H(1/2,1/4,1/8,1/8)5、以下选项中不是香农信息论中主要研究对象的是A 信息的测度 B 信道容量 C 信息率失真函数 D 信息的变换6、以下关于信息量性质描述正确的是( )。A 信息量可以为负 B 信息量是事件发生概率的递增函数C 某事件为不可能事件,其信息量为0 D 信息量是一个随机变量7、当信源符合( )时,信源熵最大。A 均匀分布 B 等概分布 C 泊松分布 D 正态分布8、对于相同的信息,不同的观察者所获得的信息量可能不同,指

8、的是信息的( )A 可度量性 B 相对性 C 可替代性 D 可共享性9、信源熵不满足以下哪个性质?( ) A 确定性 B 非负性 C 连续性 D 可加性10、二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出,u1:一个1发出,v0 :一个0收到,v1:一个1收到。则已知收到的符号,被告知发出的符号能得到的信息量是( )。A H(U/V) B H(V/U) C H(U,V) D H(UV)11、从大量的资料中知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果问一位男士他是否色盲,他的回答有可能是“是”,或者“否”,从该男士的回答中得到

9、平均信息量是 A 0.366bit/sym B 0.414bit/sym C 0.259bit/sym D 0.887bit/sym12、彩色电视显像管的屏幕上有5105 个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。每秒传送25帧图像所需要的信道容量( )。lA. 50106 B. 75106 C. 125106 D. 25010613为提高通信系统传输消息有效性,信源编码采用的方法是A.压缩信源的冗余度 B.在信息比特中适当加入冗余比特C.研究码的生成矩阵 D.对多组信息进行交织处理14、给定

10、xi条件下随机事件yj所包含的不确定度和条件自信息量p(yj /xi),( )A数量上不等,单位不同 B数量上不等,单位相同C数量上相等,单位不同 D数量上相等,单位相同15、条件熵和无条件熵的关系是:AH(Y/X)H(Y)BH(Y/X)H(Y)CH(Y/X)H(Y)DH(Y/X)H(Y)简答题l1、什么是自信息量?什么是熵?它们之间有什么联系和区别l2、为什么要进行信源编码和信道编码?l3、什么是信道容量l4、简述离散信源和连续信源的最大熵定理。l5、简述信源的符号之间的依赖与信源冗余度的关系。l6、什么是最小码距, 以及它和检错纠错能力之间的关系。综合题l1,有两个二元随机变量X和Y,它们的联合概率为l定义另一随机变量Z = XY(一般乘积),试计算H(Z)=? l解:Z = XY的概率分布如下:Y Xx1=0 x2=1y1=01/83/8y2=13/81/8symbolbitzpZHzzZPZkk/ 544. 081log8187log87)()(818710)(221l2,二元对称信道如图。2)求该信道的信道容量。3,.信源空间为,试构造二元霍夫曼码,计算其平均码长和编码效率(要求有编码过程)。1234567( )0.2 0.19 0.18 0.17 0.15 0.1 0.01Xx

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论