




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、精选优质文档-倾情为你奉上信息论基础答案一、填空题(本大题共10小空,每小空1分,共20分)1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。2.一个八进制信源的最大熵为3bit/符号3.有一信源X,其概率分布为,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit。4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Fl
2、og(b-a)bit/s.5. 若某一 信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为;与其熵相等的非高斯分布信源的功率为6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。10、在下面空格中选择填入数学符号“”或“”(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。(2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中
3、,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。二、掷两粒骰子,各面出现的概率都是1/6,计算信息量:1.当点数和为3时,该消息包含的信息量是多少?2.当点数和为7是,该消息包含的信息量是多少?3.两个点数中没有一个是1的自信息是多少?解:1.P(“点数和为3”)=P(1,2)+ P(1,2)=1/36+1/36=1/18 则该消息包含的信息量是:I=-logP(“点数和为3”)=log18=4.17bit 2.P(“点数和为7”)=P(1,6)+ P(6,1)+ P(5,2)+ P(2,5)+ P(3,4)+ P(4,3)=1/36 6=1/6 则该消息包含的信
4、息量是:I=-logP(“点数和为7”)=log6=2.585bit 3.P(“两个点数没有一个是1”)=1-P(“两个点数中至少有一个是1”) =1-P(1,1or1,jori,1)=1-(1/36+5/36+5/36)=25/36 则该消息包含的信息量是:I=-logP(“两个点数中没有一个是1”)=log25/36=0.53bit三、设X、Y是两个相互统计独立的二元随机变量,其取-1或1的概率相等。定义另一个二元随机变量Z,取Z=YX(一般乘积)。试计算:1.H(Y)、H(Z);2.H(XY)、H(YZ);3.I(X;Y)、I(Y;Z);解:1. =1bit/符号Z=YX而且X和Y相互独
5、立 = = 故H(Z)= =1bit/符号2.从上式可以看出:Y与X的联合概率分布为:P(Y,Z)Y=1Y=-1Z=10.250.25Z=-10.250.25专心-专注-专业 H(YZ)=H(X)+H(Y)=1+1=2bit/符号3.X与Y相互独立,故H(X|Y)=H(X)=1bit/符号I(X;Y)=H(X)-H(X|Y)=1-1=0bit/符号 ;I(Y;Z)=H(Y)-H(Y|Z)=H(Y)-H(YZ)-H(Z)=0 bit/符号四、如图所示为一个三状态马尔科夫信源的转移概率矩阵P=1.绘制状态转移图;2.求该马尔科夫信源的稳态分布;3.求极限熵;解:1.状态转移图如右图 2.由公式,可
6、得其三个状态的稳态概率为:3.其极限熵: 五、在干扰离散对称信道上传输符号1和0,已知P(0)=1/4,P(1)=3/4,试求:010.90.10.10.9011. 该信道的转移概率矩阵P;2.信道疑义度H(X|Y);3.该信道的信道容量以及其输入概率分布解:1.该转移概率矩阵为 P= 2.根据P(XY)=P(Y|X)P(X),可得联合概率P(XY)YYX=09/401/40X=13/4027/40P(Y=i)12/4028/40由P(X|Y)=P(X|Y)/P(Y)可得P(X|Y)Y=0Y=1X=03/41/28X=11/427/28H(X|Y)=- 3.该信道是对称信道,其容量为: C=l
7、ogs-H=log2-H(0.9,0.1)=1-0.469=0.531bit/符号 这时,输入符号服从等概率分布,即六、某信道的转移矩阵 试求:该信道的信道容量及其最佳输入概率分布。 解:该信道是准对称信道,分解为两个互不相交的子信道矩阵 这里 C=logr-H(P的行矢量) - =0.174bit/符号 这时,输入端符号服从等概率分布,即=七、信源符号X有六种字母,概率为0.32,0.22,0.18,0.16,0.08,0.04。用赫夫曼编码法编成二进制变长码,写出编码过程并计算其平均码长、编码后的信息传输率和编码效率解: 码字001011010011001110.320.220.180.160.080.04“1”0100.120100.28 11 0.40 0.61该信源在编码之前的信源熵为:=0.526+0.481+0.445+0.423+0.292+0.186 =2.353bit/符号编码后的平均码长:=2.4码元/信源符号编码后的信息传输率为:bit/码元编码效率为:八、设在平均功率受限的高斯可加波形信道中,信道带宽为3KHz,又设信噪比为101.试计算该信道传达的最大信息率(单位时间);2.
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论