信息论总结与复习2014-6_第1页
信息论总结与复习2014-6_第2页
信息论总结与复习2014-6_第3页
信息论总结与复习2014-6_第4页
信息论总结与复习2014-6_第5页
已阅读5页,还剩50页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

本课程主要内容一个理论和三个编码:

理论--------香农信息论编码--------信源编码信道编码保密编码各编码作用是?第一页,共55页。第一页,共55页。第一部分、信息论基础1.1信源的信息理论:

1、信息的定义:(1)自信息I=log(1/p)=-logp

(2)通信完成后获得的净信息量=通信所消除掉的不确定度(3)信息的单位:对数的底取2时,自信息的单位叫比特(bit)。第一部分、信息论基础1.1信源的信息理论第二页,共55页。第二页,共55页。2、信息熵的定义:(1)离散信源(2)连续信源第一部分、信息论基础1.1信源的信息理论第三页,共55页。第三页,共55页。3、信息熵的特点(1)非负性:H(X)≥0(2)极值性:

《1》离散信源各符号等概率时出现极大值:

H0=logm

《2》连续信源信号幅度受限时均匀分布出现极大值:hmax(X)=log(b-a);

《3》连续信源信号方差有限时高斯分布出现极大值:第一部分、信息论基础1.1信源的信息理论第四页,共55页。第四页,共55页。4、离散序列的信息熵(1)无记忆信源的联合熵与单符号熵:

H(X1X2……XN)=H(X1)+H(X2)+H(X3)+……+H(XN)=NH(X1)(2)有记忆信源的联合熵与条件熵:

H(X1X2……XN)=H(X1)+H(X2|X1)+H(X3|X1X2)+……+H(XN|X1X2……XN-1)(3)平均符号熵:

HN=H(X1X2……XN)/

N第一部分、信息论基础1.1信源的信息理论第五页,共55页。第五页,共55页。(4)序列信息熵的性质:

《1》条件熵不大于无条件熵,强条件熵不大于弱条件熵:H(X1)≥

H(X2|X1)≥

H(X3|X1X2)≥

……

≥H(XN|X1X2……XN-1)《2》条件熵不大于同阶的平均符号熵:

HN

≥H(XN|X1X2……XN-1)《3》序列越长,平均每个符号的信息熵就越小:

H1

H2

H3

……

≥HN总之:H0

>

H1

H2

H3

……

≥HN≥H∞

(无记忆信源取等号。)第一部分、信息论基础1.1信源的信息理论第六页,共55页。第六页,共55页。第一部分、信息论基础1.1信源的信息理论5、马尔可夫信源的信息熵(1)马尔可夫信源的数学模型和定义:

N阶马尔可夫信源的关联长度是N+1,N+2以外不关联。(2)状态、状态转移与稳态概率:状态、状态转移、状态转移图、稳定状态、稳态方程(3)稳态符号概率:结论:N阶马氏信源稳态信息熵(即极限熵)等于N+1阶条件熵。(4)稳态信息熵:第七页,共55页。第七页,共55页。[例1]已知二阶马尔可夫信源的条件概率:

p(0|00)=p(1|11)=0.8;p(0|01)=p(1|10)=0.6;求稳态概率、稳态符号概率、稳态符号熵和稳态信息熵。解:二阶马氏信源关联长度=3,状态由2符号组成,共有

4个状态,分别为:E1=00;E2=01;E3=10;E4=11;已知的条件概率即是:

p(0|E1)=p(1|E4

)=0.8;p(0|E2)=p(1|E3

)=0.6;根据归一化条件可求出另外4个状态符号依赖关系为:

p(1|E1)=p(0|E4

)=0.2;p(1|E2

)=p(0|E3)=0.4;

第一部分、信息论基础1.1信源的信息理论第八页,共55页。第八页,共55页。E4E3E2E10:0.80:0.40:0.21:0.81:0.21:0.41:0.60:0.6稳态方程组是:第一部分、信息论基础1.1信源的信息理论第九页,共55页。第九页,共55页。可解得:稳态符号概率为:稳态信息熵为:=0.895bit/符号第一部分、信息论基础1.1信源的信息理论因此,稳态符号熵=1bit/符号。第十页,共55页。第十页,共55页。第一部分、信息论基础1.2信道的信息理论1.2信道的信息理论:

1、信道的数学模型:进入广义信道的符号为ai∈A;从广义信道出来的符号bj∈B;其前向概率为pij=p(bj|ai)。传输矩阵:第十一页,共55页。第十一页,共55页。第一部分、信息论基础1.2信道的信息理论

2、信道有关的信息熵:(1)信源熵(先验熵):

(2)噪声熵:(3)联合熵:(4)接收符号熵:(5)损失熵(后验熵):第十二页,共55页。第十二页,共55页。第一部分、信息论基础1.2信道的信息理论3.平均互信息计算公式:I(X;Y)=H(X)–H(X|Y)=H(Y)–H(Y|X)=H(X)+H(Y)–H(XY)

I(X;Y)

代表系统每完成收发一对符号的通信过程后,所消除掉的平均不确定度,即信宿从每个符号中平均所获得的净信息量。第十三页,共55页。第十三页,共55页。[例2]已知信源先验概率p(x)={0.7,0.3},信道传输矩阵;试计算各信息熵和互信息。H(XY)=-0.21log0.21–0.14log0.14–0.35log0.35–0.12log0.12–0.09log0.09–0.09log0.09=2.3924bit/符号解:(1)先验熵:

H(X)=-0.7log20.7–0.3log20.3=(-0.7lg0.7–0.3lg0.3)/lg2=0.881bit/符号

(2)联合熵:第一部分、信息论基础1.2信道的信息理论第十四页,共55页。第十四页,共55页。

H(Y|X)=–0.21log0.3–0.14log0.2–0.35log0.5–0.12log0.4–0.09log0.3–0.09log0.3=1.5114bit/符号(4)接收符号熵:由P(Y)=(0.21+0.12,0.14+0.09,0.35+0.09)

=(0.33,0.23,0.44)

H(Y)=-0.33log0.33-0.23log0.23-0.44log0.44=1.5366bit/符号(3)噪声熵:由和第一部分、信息论基础1.2信道的信息理论第十五页,共55页。第十五页,共55页。H(X|Y)=-0.21log(7/11)-……0.09log(9/44)=0.8558bit/符号

或:H(X|Y)=H(XY)-H(Y)=2.3924-1.5266=0.8558bit/符号(6)平均互信息:

I(X;Y)=H(X)-H(X|Y)=0.881–0.8558=0.0252bit/符号(5)损失熵:第一部分、信息论基础1.2信道的信息理论第十六页,共55页。第十六页,共55页。第一部分、信息论基础1.2信道的信息理论4.信道容量对称信道:传输矩阵的各行都是一些相同元素的重排,各列也是一些相同元素的重排。(1)定义:对于给定的信道,总存在一个信源能使互信息取极大值,该极大值定义为信道的信道容量:信道容量反映了一个信道最大所能传输的平均互信息,是给定信道的属性。使传信率等于信道容量的信源,称为该信道的匹配信源。第十七页,共55页。第十七页,共55页。第一部分、信息论基础1.2信道的信息理论(2)信道容量的计算:对于简单信道要求能计算信道容量:1)无损信道:C=max{I(X;Y)}=max{H(X)}=logm;

2)无噪信道:C=max{I(X;Y)}=max{H(Y)}=logS;3)对称信道:C=max{I(X;Y)}=logS-H(p1,p2,……,pS);[例3]求对称信道的信道容量。解:C

=log4-H(0.2,0.3,0.2,0.3)=2+(0.2log0.2+0.3log0.3)×2=0.03bit/符号;第十八页,共55页。第十八页,共55页。第一部分、信息论基础1.2信道的信息理论(3)波形信道的信道容量:发送连续信号的信源是连续信源,传输连续信号的信道是波形信道。高斯加性噪声波形信道的容量由Shannon公式给出:

C=Blog(1+PX/Pn

)香农公式给出了带宽B、信道容量和信噪比PX/Pn(注意是线性比值)三者之间的制约关系。信道容量不变

时带宽与信噪比有互换关系。

第十九页,共55页。第十九页,共55页。第二部分、无失真信源编码第二部分、无失真信源编码2.1信源编码理论1.1信源编码理论:

1、信源的相对信息率和冗余度:

实际信源由于非等概,有记忆:

信源每个符号最大可以荷载的信息量是

H0=logm

平均每个符号的实际信息荷载量是H∞<HN<H(X)

(1)只要信息熵没有达到最大值,就存在冗余。(2)定义相对信息率:

μ

=H∞/H

0

第二十页,共55页。第二十页,共55页。第二部分、无失真信源编码2.1信源编码理论

2、变长码编码原理:(1)概率匹配原则:信息量大(不常出现)的符号用长码,信息量小(经常出现)的符号用短码。(2)平均码长:(4)极限码长

∞=H∞/logr;(5)编码效率:(3)Shannon变长码编码定理:第二十一页,共55页。第二十一页,共55页。第二部分、无失真信源编码2.1信源编码理论

3、唯一可译性与即时性:(1)断字问题:分组编码的变长码被连接起来发送,接收端如何才能将它们分开进行译码呢?(2)唯一可译码(3)即时码:异前缀码(或非延长码)(4)构造码树的方法(5)克拉夫特不等式:唯一可译码的必要条件。第二十二页,共55页。第二十二页,共55页。[例5]以下哪些编码一定不是惟一可译码?写出每种编码克拉夫特不等式的计算结果。码A:0,10,11,101;码B:1,01,001,0001;码C:0,10,110,1110,111110;解:码A:1/2+1/4+1/4+1/8>1,不能唯一可译;码B:

1/2+1/4+1/8+1/16<1,有可能唯一可译;码C:1/2+1/4+1/8+1/16+1/64<1,有可能唯一可译;第二部分、无失真信源编码2.1信源编码理论第二十三页,共55页。第二十三页,共55页。第二部分、无失真信源编码2.2编码方法1.2编码方法:

1、Huffman编码:

(1)信源符号按概率大小排队。

(2)合并概率最小的两个符合为一个节点。

(3)节点参与排队放在与自己概率相等符号后面。(4)重复这个过程直到合并完全部符号。

(5)标记每个分支的的0与1。(6)从根到叶的路径就给出了相应符号的码字。(7)计算平均码长与编码效率。

2、Huffman编码的推广:

扩展信源编码;多元编码第二十四页,共55页。第二十四页,共55页。[例6]设信源概率空间为,

编码符号集为Y={0,1},进行Huffman编码(要求码长发差最小)。解:编码为:

s1(10),s2(11),s3(010),s4(011),s5(0000),s6(0001),s7(0010),s8(0011)

平均码长:l=2.75H(X)=2.75bit/符号,η=100%

第二部分、无失真信源编码2.2编码方法第二十五页,共55页。第二十五页,共55页。第二部分、无失真信源编码2.2编码方法3、游程编码适用于连0连1情况。等熵变换,没有直接压缩代码,但将二元码变成了多元码。为使用Huffman编码创造了条件。与MH编码结合即传真编码。4、词典编码不依赖于概率的通用编码。建立初始小词典后边输入边查词典边补充新词条,以词条序号为编码。第二十六页,共55页。第二十六页,共55页。第三部分、信道编码3.1信道编码理论第三部分、信道编码3.1信道编码理论:

1、检错与纠错原理:

(1)检错原理:添加冗余避免码字非此即彼;

(2)纠错原理:添加冗余拉大码字汉明间距;

(3)汉明距离:两码字不同码元的个数;(4)检错能力:d0≥e+1

纠错能力:d0≥2t+1

纠检同时:d0≥e+t+1(e>t)第二十七页,共55页。第二十七页,共55页。2、译码规则与错误概率:(1)最小错误准则:选联合概率矩阵每列最大元素(2)最大似然准则:选传输概率矩阵每列最大元素(3)错误概率计算:未选中元素的总联合概率(4)差错率计算

(5)漏检率计算3、几种简单的信道编码:(1)重复码(2)奇偶校验码(3)恒比码第三部分、信道编码3.1信道编码理论第二十八页,共55页。第二十八页,共55页。3.2线性分组码:

码长为n,信息位为k,记作(n,k);

监督位r

=n-k1、编码

C=K•G

生成矩阵G是k×

n的矩阵。左半边是k×k单位信息位方阵Ik右半边是k×r的监督位矩阵Q第三部分、信道编码3.2线性分组码第二十九页,共55页。第二十九页,共55页。2、纠错和译码H一致校验矩阵左半边是r×k矩阵P右半边是r×r单位方阵Ir;P与生成矩阵中的Q互为转置关系:P=QT

监督方程也可表示为:

C·HT

=0;满足此方程的均为正确的许用码字,否则,便是误码。第三部分、信道编码3.2线性分组码第三十页,共55页。第三十页,共55页。N维错误格式矢量

E

发送码字为C,接收码字为R

,三者的关系是:

E=CR;

R=C

E;

C=R

E;伴随子向量S=R·HTS=R·HT=(C

E)·HT=C·HT

E·HT

=E·HT;若R=C,E为全零向量,则S=0;反之,若R≠C,则E≠0,导致S≠0;因此由伴随子向量S是否为零就能检查出接收码R是否有误。

第三部分、信道编码3.2线性分组码第三十一页,共55页。第三十一页,共55页。纠错:R错一位的情况:S与HT的哪一行相同,就表明错在哪一位。

R错两位以上:查表法,查R-C对照来译码。3、纠错能力不等式:

2

r

≥Cn0+Cn1+Cn2+……+Cnt

完备码:上式取等号的情况。汉明码:纠1位错的完备码,2r

=1+n第三部分、信道编码3.2线性分组码第三十二页,共55页。第三十二页,共55页。3.3、循环码1.码多项式2.生成多项式——码多项式中那个次数最低的非零多项式g(x)

第三部分、信道编码3.3循环码n-k=r次;常数项为1。任意码多项式都是生成多项式g(x)的倍式。g(x)是xn-1的一个因式。第三十三页,共55页。第三十三页,共55页。3.编码确定编码的n、k、r

值;写出给定信息位多项式:K(x);左移r位:xr·k(x)计算监督位多项式:

r(x)=xr·K(x)

modg(x)

;写出码多项式:C(x)=xr·K(x)

+r(x)

写出码字:C第三部分、信道编码3.3循环码第三十四页,共55页。第三十四页,共55页。间接编码方法:由g(x)得到一个码字,循环移位得到k个码字;写出生成矩阵,通过线性变换得到系统码生成矩阵G;由生成方程C=K•G求出相应码字。或:循环移位法第三部分、信道编码3.3循环码第三十五页,共55页。第三十五页,共55页。4.

纠错、译码接收码多项式R(x);伴随子多项式S(x)=R(x)modg(x);若

S(x)=0,则表明接收码无误。若

S(x)≠0,表明接收码有误。S(x)=[C(x)+E(x)]modg(x)=E(x)modg(x);列S(x)—E(x)对照表,由S(x)查出E(x)C(x)=R(x)+E(x)第三部分、信道编码3.3循环码第三十六页,共55页。第三十六页,共55页。第三部分、信道编码3.4循环码的扩展3.4、循环码的扩展增余汉明码汉明码每个许用码字+一位奇偶校验位→成为(n+1,k)码纠错能力不变,校验矩阵增加全1的一行,可以检查两位错截短的循环码

由(n,k)循环码截短生成的(n-i,k-i)码。如CRC码监督位没有变,纠错能力不变,纠错方法不变。3.本原BCH码:它是能纠正多位错的循环码。第三十七页,共55页。第三十七页,共55页。3.5、卷积码1.(n,k,m)的含义

2.输出对输入的依赖关系监督方程逻辑电路3.状态转移图与格图:状态指寄存器的值。4.直接编码第三部分、信道编码3.5卷积码第三十八页,共55页。第三十八页,共55页。[例7]已知(2,1,2)卷积码监督方程(1)画出电路框图。(2)画出状态转移图。解:(1)

由监督方程:第三部分、信道编码3.5卷积码S1S2kc1c2aiai-2ai-1第三十九页,共55页。第三十九页,共55页。00011011000110110/000/100/011/101/111/011/000/11(2)状态转移图:第三部分、信道编码3.5卷积码S1S2kc1c2aiai-2ai-1S2S1注意!ai的状态是ai-2ai-1即寄存器S2S1的值。(注意先后次序)kc1c2第四十页,共55页。第四十页,共55页。典型题目讲解第五部分、典型题目一.填空:码长为10最多可纠2位错的线性分组码可写为(

)码;2.监督位为r=6的汉明码,信息位为________位,编码效率等于________,能够纠正

位错。

3.无失真信源编码定理指出平均码长的理论极限值

,此时编码效率为

。4.信源编码的主要目的是

;信道编码的主要目的是

;保密编码的主要目的是

。10,45757/63=0.905

1检查纠正错误H∞/logr增强抗攻击性1压缩代码长度5.已知在GF(24)中因式分解有:x15-1=m0(x)m1(x)m3(x)m5(x)m7(x)=(x+1)(x4+x+1)(x4+x3+x2+x+1)(x2+x+1)(x4+x3+1),则(15,5)本原BCH编码的生成多项式是_____________。

g(x)=LCM[m1(x)m3(x)m5(x)]=x10+x8+x5+x4+x2+x+1第四十一页,共55页。第四十一页,共55页。6.某二元无记忆信源发出100个二元符号,其中有m个“1”,若P(0)=1/4,则总自信息为____________。7.信道误码率为p=10-3,采用三连重复码编码传输时的差错率约为

。8.香农信道编码定理指出,无差错传输的传信率不能大于

。9.某理想通信系统,信噪比为3dB,为使功率节省一半又不损失信息量,带宽应增加到原来的

_________倍。10.错传率为p的BSC的信道容量为_________________

11.若__________受限,输出波幅度在[a,b]之内,则均匀分布的连续信源具有最大熵,熵值为__________;若_______受限,正态分布的连续信源具有最大熵,熵值为

;第五部分、典型题目3×10-6信道容量200-1.585m

1+plogp+(1-p)log(1-p)log(b-a)峰值功率平均功率

log23=1.585

第四十二页,共55页。第四十二页,共55页。第五部分、典型题目二.判断(正确打√,错误打×)1.信源符号的相关程度越大,信源的信息熵越大。2、异前缀码一定是即时码;3、信道编码定理指出:信道无失真传递信息的条件是信息率小于信道容量;

4、Huffman编码是单符号信源编码的最佳编码;

5、最大似然译码准则是使平均译码错误率最小的准则。6、满足克拉夫特不等式的码必定是惟一可译码。×√√√××第四十三页,共55页。第四十三页,共55页。第五部分、典型题目7、(15,11)码是汉明码。8、(23,12)码不是完备码。9、信源编码中往往无法指出哪几个码元或符号是冗余,冗余表现为信息熵没有达到最大值。10、恒比码是线性分组码。11、离散等概信源具有最大信息熵。√√××√第四十四页,共55页。第四十四页,共55页。第五部分、典型题目三.计算题:

1.一阶马尔可夫信源的状态图如右,信源X的符号集为{0,1,2},图中。分别求:(1)平稳后的信源概率分布;(2)信源熵H∞;(3)求p=1时实际信源的熵,并说明所得结果的理由。第四十五页,共55页。第四十五页,共55页。解:(1)一阶马尔可夫信源,状态为单个符号,信源符号集为X={0,1,2},E1=0,E2=1,E3=2,稳态概率满足:Q(0)=

(1-p)Q(0)+pQ(1)Q(1)=pQ(2)+(1-p)Q(1)且,Q(0)+Q(1)+Q(2)=1解方程:Q(0)=1/3;Q(1)=1/3;Q(2)=1/3;(2)

(3)实际信源熵为H∞。p=1时,理由:因为每种状态都只发两个符号,当一种符号概率为1时,另一个必然为0,实际上只发一种确定的符号,成为确定事件,其自信息为0。三种状态下发出符号的自信息均为0,平均值也一定为0。因此不确定性为0,所以信源熵为0。第四十六页,共55页。第四十六页,共55页。2.二元无记忆信源发出a、b两个符号,概率分别为0.7和0.3,试用三次扩展信源进行二元Huffman编码。解:根据p(x1x2x3)=p(x1)p(x2)p(x3)不难求出三次扩展信源的概率空间为:

按8个符号的概率排队,进行Huffman编码第五部分、典型题目第四十七页,共55页。第四十七页,共55页。bbb

0.027

bba

0.063bab

0.063

abb

0.063

(0.09)(0.126)

baa

0.147

aba

0.147

aab

0.147

(0.216)(0.294)aaa

0.343

(0.363)

0.637

root1010101010101010111010100110000110101100

码字44443322码长第五部分、典型题目第四十八页,共55页。第四十八页,共55页。

码字00110100111000100110101011

码长22334444

码字平均长度:

LN=2.726;信源符号平均编码长度:信源信息熵:H(X)=-0.3log0.3-0.7log0.7=0.881编码效率:η=0.881/0.909=96.9%第五部分、典型题目第四十九页,共55页。第四十九页,共55页。3.二元信源每秒发出100个符号,若信源概率为0.6和0.4;信道传输矩阵为:;求发信率和传信率。第五部分、典型题目解:发信率就是信源符号熵乘以码率:Rb=RB·H(X):

H(X)=-0.6log0.6-0.4log0.4=0.9710bit/符号

Rb=RBH(X)=97.1bit/s

传信率就是平均互信息乘以码率,Rt=RB·I(X;Y)

:联合熵:H(XY)=1.7822;接收符号熵:H(Y)=0.9928;平均互信息:I(X;Y)=H(X)+H(Y)-H(XY)=0

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论