信息论总复习_第1页
信息论总复习_第2页
信息论总复习_第3页
信息论总复习_第4页
信息论总复习_第5页
已阅读5页,还剩135页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2023/2/31作业题52.13.(1)为了使电视图像获得良好的清晰度和规定的适当的对比度,需要用5×105个象素和10个不同亮度电平,求传递此图像所需的信息率(比特/秒)。并设每秒要传送30帧图像,所有象素是独立变化的,且所有亮度电平等概率出现?

(2)设某彩色电视系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度,试证明传输该彩色系统的信息率要比黑白系统的信息率约大2.5倍?2023/2/32作业题5解答.(1)每个象素亮度信源的概率空间为每个象素亮度含有的信息量每帧图像信源就是离散亮度信源的无记忆N次扩展信源,可得每帧图像含有的信息量为每秒30帧,则传递此图像所需的信息率为2023/2/33作业题5解答.(2)色彩度信源的概率空间为每个色彩度含有的信息量亮度和色彩度是独立同时出现的,每个象素含有的信息量为在每帧所用象素数和每秒传送帧数相同时,信息率之比为2023/2/34作业题62.18.设有一个信源,它产生0,1序列的信息。它在任意时间而且不论以前发生过什么符号,均按P(0)=0.4,P(1)=0.6的概率发出符号。

(1)试问这个信源是否是平稳的?

(2)试计算

(3)试计算H(x4)并写出x4信源中可能有的所有符号。2023/2/35作业题6解答:(1)信源发出符号的概率分布与时间平移无关,而且信源发出的序列之间也是彼此无依赖的,因此该信源是平稳的,而且是离散无记忆信源。

(2)2023/2/36作业题6(3)2023/2/37作业题72.22.一阶马尔可夫信源的状态图如图2.8所示。信源X的符号集为{0,1,2}。

(1)求信源平稳后的概率分布P(0),P(1),P(2);

(2)求信源的熵H∞。

(3)近似认为此信源为无记忆时,符号的概率分布为平稳分布,求近似信源的熵H(X),

并与H∞进行比较。

(4)对一阶马尔可夫信源p取何值时H∞最大,

当p=0和p=1时结果又如何。2023/2/38作业题72023/2/39作业题72023/2/310作业题72023/2/311作业题72023/2/312作业题82.23.一阶马尔可夫信源的状态图如图2.9所示。信源X的符号集为{0,1,2}。

(1)求平稳后信源的概率分布;

(2)求信源的熵H∞。

(3)求当p=0和p=1时信源的熵,并说明理由。2023/2/313作业题82023/2/314作业题82023/2/315作业题92.25.一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。

(1)假设图上黑白消息出现前后没有关联,求熵H(X);

(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);

(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。2023/2/316作业题92023/2/317作业题9(2)2023/2/318作业题9(3)Ch3

习题13.1.设信源通过一干扰信道,接收符号为Y=[y1,y2],信道传递概率如下图所示。求①信源X中事件x1和x2分别含有的信息量。②收到消息yj(j=1,2)后,获得的关于xi(i=1,2)的信息量。③信源X和信源Y的信息熵。④信道疑义度H(X/Y)和噪声熵H(Y/X)。⑤接收到消息Y后获得的平均互信息。习题1解答:互信息可以为正值也可以为负值,负值表明由于噪声的存在,接收到一个消息后,对另一个消息是否出现的不确定性反而增加了。习题1解答:习题23.3.设二元对称信道的传递概率为①若P(0)=3/4,P(1)=1/4,求H(X),H(X/Y),H(Y/X)和I(X;Y)。②求该信道的信道容量及达到信道容量时的输入概率分布。习题2习题33.9.有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完?习题3解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。下面计算该二元对称信道能传输的最大的信息传输速率:信道传递矩阵为:信道容量(最大信息传输率)为:

C=1-H(P)=1-H(0.98)≈0.8586bit/symbol重要知识点自信息的定义根据上述条件可以从数学上证明这种函数形式是对数函数,即:自信息的含义当事件发生前,表示事件(符号、消息)发生的不确定性当事件发生后,表示该事件所提供的信息量.例:求离散信源的自信息量

一次掷两个色子,作为一个离散信源,求下列事件产生后提供的信息量:a.仅有一个为3;

b.至少有一个为4;c.两个之和为偶数。解:一个色子有6个符号,两个色子的总数(信源消息数)为36。

p(a)=10/36=5/18;p(b)=11/36;p(c)=18/36=1/2;

所以I(a)=log(18/5)=1.848(bit);I(b)=log(36/11)=1.7105(bit);I(c)=log2=1(bit)。离散信源数学模型离散型的概率空间集合X中,包含该信源所有可能输出的消息,集合P中包含对应消息的概率,各个消息的输出概率总和应该为1。信息熵的定义对消息的自信息取统计平均信息熵:信源一个消息状态所具有的平均信息量。信息熵的含义信源的平均不确定性信源每个符号所携带的平均信息量H(X)表示随机变量X的随机性在无噪声条件下,接受者收到一个消息所获得的平均信息量二元信源X,其概率空间H(X)01/21p例32-3熵函数的性质离散随机变量X的概率空间为记pi=p(xi),则

由于概率的完备性,即,所以实际上是元函数。熵函数的数学特性包括:(1)对称性(9)可加性(2)确定性(3)非负性(4)扩展性(5)连续性(6)递增性(7)极值性(8)上凸性(7)极值性(最大离散熵定理)定理:

离散无记忆信源输出n个不同的信息符号,当且仅当各个符号出现概率相等时(即

),熵最大,即

概率的基本关系当X,Y独立时,有p(x,y)=p(x)p(y)。概率的基本关系3.联合熵和条件熵定义2.4随机变量X和Y的联合分布为p(xiyj),则这两个随机变量的联合熵定义为:

联合熵表示对于二维随机变量的平均不确定性。3.联合熵和条件熵(续1)定义2.5随机变量X和Y的条件熵定义为:条件熵表示已知一个随机变量时,对另一个随机变量的平均不确定性。各种熵之间的关系

H(XY)=H(X)+H(Y|X)=H(Y)+H(X|Y)H(X|Y)H(X),H(Y|X)H(Y)H(XY)H(X)+H(Y)

若X与Y统计独立,则H(XY)=H(X)+H(Y)例:离散无记忆信源的N次扩展信源离散无记忆信源为:X:{a1,a2,a3};P(X):{1/4,1/2,1/4}2次扩展信源为::{A1…A9}信源的9个符号为:A1=a1a1A2=a1a2A3=a1a3A4=a2a1A5=a2a2A6=a2a3A7=a3a1A8=a3a2A9=a3a3第四节离散无记忆的扩展信源第四节离散无记忆的扩展信源其概率关系为:A1A2A3A4A5A6A7A8A91/161/81/161/81/41/81/161/81/16计算可知[例2-15]设某二维离散信源的原始信源的信源空间X={x1,x2,x3};P(X)={1/4,1/4,1/2},一维条件概率为:p(x1/x1)=1/2;p(x2/x1)=1/2;p(x3/x1)=0;p(x1/x2)=1/8;p(x2/x2)=3/4;p(x3/x2)=1/8;p(x1/x3)=0;p(x2/x3)=1/4;p(x3/x3)=3/4;原始信源的熵为:H(X)=1.5bit/符号条件熵:H(X2/X1)=1.4bit/符号可见:H(X2/X1)<H(X)二维信源的熵:H(X1,X2)=H(X1)+H(X2/X1)=2.9bit/每个信源符号提供的平均信息量为:H2(X1,X2)=H(X1,X2)/2=1.45bit/符号。第五节离散平稳信源第六节马尔可夫信源定义为各状态的极限概率,则时齐、遍历的马尔可夫信源的熵为状态转移图为不可约闭集,即对任意两个状态,总可以从一个状态经过有限步数转移到另一个状态;具有非周期性,从一个状态到另一个状态的步数不能具有周期性(3)举例[例2.2.4]

二元2阶马尔可夫信源,原始信号X的符号集为{X1=0,X2=1},其状态空间共有nm=22=4个不同的状态E:{e1=00,e2=01,e3=10,e4=11}

状态转移图见右图所示。解:p(e1/e1)=p(0/00)=0.8

p(e2/e1)=p(1/00)=0.2p(e3/e2)=p(0/01)=0.5p(e4/e2)=p(1/01)=0.5p(e1/e3)=p(0/10)=0.5p(e2/e3)=p(1/10)=0.5p(e3/e4)=p(0/11)=0.2p(e4/e4)=p(1/11)=0.8由二元信源X∈{0,1}得到的状态空间(e1,e2,e3,e4)和相应的一步转移概率构成的2阶马尔可夫信源模型为求出稳定状态下的p(ej)

,称为状态极限概率。将一步转移概率代入上式得p(e1)=0.8p(e1)+0.5p(e3)p(e2)=0.2p(e1)+0.5p(e3)p(e3)=0.5p(e2)+0.2p(e4)p(e4)=0.5p(e2)+0.8p(e4)解方程组得p(e1)=p(e4)=5/14p(e2)=p(e3)=2/14计算极限熵第六节马尔可夫信源例:一个二元二阶马尔可夫信源,信源符号集A={0,1}。信源开始时,它以概率p(0)=p(1)=0.5发出随机变量X1。然后,下一单位时间输出的随机变量X2与X1有依赖关系,由条件概率p(x2|x1)表示:

再下一单元时间输出随机变量X3,而X3依赖于前面变量。依赖关系由条件概率p(x3|x1x2)表示:x1x1x20100.30.410.70.6第六节马尔可夫信源由从第四单位时间开始,任意时刻信源发出的随机变量Xi只与前面二个单位时间的随机变量有关,根据题意可得信源的状态转移图:x1x2x1x2x1x2x1x2X30001101100.40.20.30.410.60.80.70.6第六节马尔可夫信源0.50.50.40.80.30.60.20.70.60.4第六节马尔可夫信源解得:

=0.8956当马尔可夫信源达到稳定后,符号0和1的分布概率可根据下式计算

因此得:

关于离散信源熵的总结实际信源非平稳的有记忆随机序列信源,其极限熵是不存在的;解决的方法是假设其为离散平稳随机序列信源,极限熵存在,但求困难;进一步假设其为m阶Markov信源,用其极限熵Hm+1近似;再进一步假设为一阶Markov信源,用其极限熵H1+1(X2/X1)来近似;最简化的信源是离散无记忆信源,其熵为H(x)=H1(X);最后可以假定为等概的离散无记忆信源,其熵为H0(X)=logq第七节信源剩余度与自然语言的熵2、熵的相对率3、信源剩余度英文字母信源H0=log27=4.76bit(等概)H1=4.02bit(不等概)H1+1=3.32bit(一阶M-信源)H2+1=3.1bit(二阶M-信源)H∞=1.4bit第七节信源剩余度与自然语言的熵4、中文的剩余度

我们可以压缩剩余度来压缩信源,提高通信的有效性。第三章离散信道及其信道容量[P]=y1y2…ymx1p(y1/x1)p(y2/x1)…p(ym/x1)x2p(y1/x2)p(y2/x2)…p(ym/x2)……………xnp(y1/xn)p(y2/xn)…p(ym/xn)一般单符号离散信道的传递概率可以用矩阵表示信道转移概率矩阵只要已知某一个信源符号的先验概率及相应的转移概率,就可以得到相应的交互信息量。交互信息量

一个二元信道,p(M)=p(S)=1/2,求互信息量I(xi,yj)。利用先验概率和转移概率求出后验概率;可得:p(xi=M/yj=M)=5/8;p(xi=S/yj=M)=3/8;p(xi=S/yj=S)=3/4;p(xi=M/yj=S)=1/4;可分别求出互信息量I(xi,yj)=log(p(xi/yj)/p(xi))I(M,M)=0.322bit;p(xi=M/yj=M)=5/8>p(xi=M)=1/2I(S,S)=0.585bit;p(xi=S/yj=S)=3/4>p(xi=S)=1/2I(S,M)=-0.415bit;p(xi=S/yj=M)=3/8<P(xi=S)=1/2I(M,S)=-1bitp(xi=M/yj=S)=1/4<p(xi=M)=1/22、平均互信息I(X;Y)=H(X)-H(X/Y)因为H(X)表示传输前信源的不确定性,而H(X/Y)表示收到一个符号后,对信源尚存的不确定性,所以二者之差表示信道传递的信息量。互信息与其他的熵之间的关系:I(X;Y)=H(X)-H(X/Y)=H(X)+H(Y)-H(XY)=H(Y)-H(Y/X)(3.34)H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)

互信息I(X;Y)也表示输出端H(Y)的不确定性和已知X的条件下关于Y的不确定性之差,也等于发送前后关于Y的不确定性之差。

H(X/Y)即信道疑义度,也表示通过有噪信道造成的损失,故也称为损失熵,因此信源的熵等于收到的信息量加上损失的熵;而H(Y/X)表示已知输入的情况下,对输出端还残留的不确定性,这个不确定性是由噪声引起的,故也称之为噪声熵。互信息与各类熵之间的关系H(X,Y)

H(X/Y)H(Y/X)

H(X)H(Y)I(X,Y)联合熵等于两圆之和减去重叠部分,也等于一个圆加上另外一部分.图1例子已知一个二元信源连接一个二元信道,如图。求I(X;Y),H(XY),H(X/Y),(Y/X)。X={x1,x2},[p(xi)]={1/2,1/2}。解:(1)求联合概率

p(x1,y1)=0.5×0.98=0.49p(x1,y2)=0.5×0.02=0.01p(x2,y1)=0.5×0.20=0.10p(x2,y2)=0.5×0.80=0.40(2)求p(yj)p(y1)=p(x1,y1)+p(x2,y1)=0.49+0.10=0.59p(y2)=p(x1,y2)+p(x2,y2)=0.01+0.40=0.41(3)求p(xi/yj):p(x1/y1)=p(x1,y1)/p(y1)=0.831p(x2/y1)=p(x2,y1)/p(y1)=0.169p(x1/y2)=p(x1,y2)/p(y2)=0.024p(x2/y2)=p(x2,y2)/p(y2)=0.976(4)求熵

H(X)=1bit/符号,

H(Y)=0.98bit/符号

H(XY)=1.43bit/符号

I(X;Y)=H(X)+H(Y)-H(X,Y)=0.55bit/符号

H(X/Y)=0.45bit/符号

H(Y/X)=0.43bit/符号信道容量的定义信息传输率:

R=I(X,Y)=[H(X)-H(X/Y)]=[H(Y)-H(Y/X)]bit/符号对于每一个确定信道,都有一个信源分布,使得信息传输率达到最大值,我们把这个最大值称为该信道的信道容量。信道容量与与信源无关,它是信道的特征参数,反应的是信道的最大的信息传输能力。

二元对称信道信道容量二元对称信道信道容量等于1-H(P)I(X;Y)w1/21-H(P)信道1和信道2串连构成了一个马尔可夫链,有如下定理:X信道1信道2ZY图马尔可夫链

数据处理定理:无论经过何种数据处理,都不会使信息量增加。定理3.8

若随即变量X、Y、Z组成一个马尔可夫链,如下图,则有

I(X;Z)

I(X;Y)

(3.163)

I(X;Z)I(Y;Z)

(3.164)2、串行信道

【例】两个离散信道,信道矩阵分别为P1、P2,将它们串行连接使用,计算总信道的信道矩阵。

信道剩余度定义为:信道剩余度

=

相对信道剩余度

=

表示信道的实际传信率和信道容量之差。信道剩余度可以用来衡量信道利用率的高低。第六节信源与信道的匹配例如,某离散无记忆信源对二元离散信道的信道容量为:C=1(比特/信道符号)

通过一个无噪无损二元离散信道进行传输。信源的信息熵为H(X)=1.937(比特/信源符号)要使信源在此二元信道中传输,必须对X进行二元编码:因此,必须通过合适的信源编码,使信道的信息传输率接近或等于信道容量。对于码(比特/信道符号)对于码(比特/信道符号)即:要能够尽量用较少的符号表示相同的信息,就可以提高信息的传输率,从而提高信道的利用率。

第5章无失真信源编码(1)提高传输效率,用尽可能少的信道传输符号来传递信源消息,目的是提高传输效率,这是信源编码主要应考虑的问题。这里又分两种情况讨论,即允许接收信号有一定的失真或不允许失真。提高抗干扰能力往往是以降低信息传输效率为代价的,而为了提高传输效率又往往削弱了其抗干扰能力。理论上已证明:至少存在最佳的编码或信息处理方法,解决上述矛盾。(2)

增强通信的可靠性如何增加信号的抗干扰能力,提高传输的可靠性,这是信道编码主要考虑的问题。解决这一问题,一般是采用冗余编码法,赋予信码自身一定的纠错和检错能力,只要采取适当的信道编码和译码措施,就可使信道传输的差错概率降到允许的范围之内。Kraft不等式5.5变长码定理5.4:即时码存在的充要条件是码长组合满足Kraft不等式:唯一可译码存在的充要条件是例子

W1:满足Kraft不等式,但只是唯一可译码,不是即时码;码长组合为1,2,3,4;W2:满足Kraft不等式,是唯一可译码,也是即时码;码长组合为1,2,3,4;

W3:满足Kraft不等式,不是唯一可译码,也不是即时码;码长组合为1,2,3,3;W4:满足Kraft不等式,是唯一可译码,也是即时码;码长组合为1,2,3,3

W5:不满足Kraft不等式,不可能为唯一可译码;码长组合为1,2,2,3;W6:满足Kraft不等式,是唯一可译码,也是即时码;为等长码

变长唯一可译码判别方法步骤:1.构造F1

:考察C中所有码字,如果一个码字是另一个码字的前缀,则将后缀作为F1

中的元素。2.构造:将C

与比较。如果C

中有码字是中元素的前缀,则将相应的后缀放入中;同样中若有元素是C

中码字的前缀,也将相应的后缀放入中。3.检验:

1)如果是空集,则断定码C是唯一可译码,退出循环;

2)反之,如果中的某个元素与C中的某个元素相同,则断定码不是唯一可译码,退出循环。

3)如果上述两个条件都不满足,则返回步骤2。5.5变长码变长唯一可译码判别方法C

F1

F2

F3

F4

F5adebdebadcbbcdebcdeadabbbaddebbbcde例:结论:F5中包含了C中的元素,因此该变长码不是唯一可译码。5.5变长码问题:判断C={1,10,100,1000}是否是唯一可译码?abbcdebad设信源编码后的码字为:码长为:则这个码的平均长度为:平均每个码元携带的信息量即编码后的信息传输率为:对于给定的信源和码符号集,若有一个唯一可译码,它的平均码长小于其他唯一可译码的长度,则称此码为紧致码或最佳码,无失真信源编码的基本问题就是寻找紧致码。5.6变长信源编码定理码符号/信源符号无失真变长信源编码定理

香农第一定理(变长无失真信源编码定理):设离散无记忆信源的熵为H(S),它的N次扩展信源为,对扩展信源进行编码。总可以找到一种编码方法,构成唯一可译码,使平均码长满足:

当时,有5.6变长信源编码定理定理指出要做到无失真的信源编码,信源每个符号所需要的平均码元数就是信源的熵值,如果小于这个值,则唯一可译码不存在,可见,熵是无失真信源编码的极限值。定理还指出,通过对扩展信源进行编码,当N趋向于无穷时,平均码长可以趋进该极限值。无失真变长信源编码定理5.6变长信源编码定理bit/信源符号码符号/信源符号=bit/码符号信息传输率(码率)r进制单位/信源符号码符号/信源符号信息传输率(码率)5.6变长信源编码定理码的剩余度例子(1)例:S:{s1,s2},P(S):{0.2,0.8},A:{0,1}H(S)=1/5log5+4/5log(5/4)=0.72193bit/信源符号.码字W:{W1=0,W2=1}.平均码长:L=0.2×1+0.8×1=1信道码元符号/信源符号。信道传信率:R=H(S)/L=0.72193比特/信道码元符号。5.6变长信源编码定理例子(2)对二次扩展信源S2进行二元编码W:{W1,W2,W3,W4}5.6变长信源编码定理例子(3)平均码长:L2=(16/25)×1+(4/25)×2+(4/25)×3+(1/25)×3=37/27信道码元符号/2个信源符号原始信源每个信源符号的平均码长L=L2/2=37/50信道码元符号/信源符号信道传信率为R=H(S)/L=0.72193/(37/50)=0.97比特/信道码元符号。5.6变长信源编码定理经过信源的二次扩展,编码复杂一点,但使传信率(编码效率)明显提高。二元编码的信道容量为1比特/码元,当扩展次数增加时,传信率将无限接近信道容量。5.6变长信源编码定理8.1霍夫曼码和其他编码方法8.2Fano编码方法8.3香农-费诺-埃里斯编码方法第8章无失真信源编码Huffman码将信源符号按概率从大到小的顺序排列,令给两个概率最小的信源符号sn-1和sn各分配一个码元“0”和“1”,并将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n-1)个信源符号的新信源。称为信源的第一次缩减信源,用S1表示。将缩减信源S1的符号仍按概率从大到小顺序排列,重复步骤2,得到只含(n-2)个符号的缩减信源S2。重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。编码步骤如下:霍夫曼码和其他编码方法01010101Huffman码霍夫曼码和其他编码方法Huffman码离散信源如下:解:编码过程略,Huffman编码结果如下:霍夫曼码和其他编码方法Huffman码平均码长为信源熵为编码效率为霍夫曼码和其他编码方法Huffman码注意:霍夫曼编码后的码字不是惟一的。1)每次对缩减信源两个概率最小的符号分配“0”或“1”码元是任意的,因此编码的结果是不唯一的;但0/1分配的上下顺序在整个编码过程中应保持一致,否则不能构成唯一可译码。2)缩减信源时,若合并后的概率与其他概率相等,这几个概率的次序可任意排列,但得到的码字不相同,对应的码长也不相同,但平均码长也不变。霍夫曼码和其他编码方法r元Huffman算法

r=3,A:{0,1,2}可知:平均码长为L=2码元/信源符号改进方法在6个信源符号的后面再加一个概率为0的符号,记为s7’,同时有p(s7’)=0,这个符号称为虚假符号。将信源按7个符号进行三元编码012012012改进方法霍夫曼码和其他编码方法算术编码F(S)(信源符号序列的累积分布函数)将[0,1)分割成许多小区间[F(s),F(s)+P(s))

。取小区间内的一个点代表该序列,以该点数值的二进制小数表示该序列,取小数点后l位,若后面有尾数,就进位到第l位,得到的码字C,码字长度为举例算术编码例:设二元无记忆信源S={0,1},其P(0)=1/4,P(1)=3/4。对二元序列11111100做算术编码。解:P(s=11111100)=(3/4)6(1/4)2

F(s)=P(0)+P(1)P(0)+P(1)2P(0)+P(1)3P(0)+P(1)4P(0)+P(1)5P(0)=0.82202=0.110100100111

得C=0.1101010,从而s的码字为1101010。编码效率第六章有噪信道编码

第一节错误概率与译码规则第二节错误概率与编码方法第四节有噪信道编码定理第五节联合信源信道编码定理第六节纠错编码的基本思想

两种重要的译码规则译码规则的选择准则-----使平均错误概率最小最常用的译码规则,包括:

最大似然译码规则

最大后验概率译码规则(最小错误概率准则)6.1错误概率与译码规则求最佳的译码规则例

设信道矩阵为,且输入符号等概分布,即,求最佳的译码规则和平均错误概率。6.1错误概率与译码规则解:因为输入符号为等概分布,所以由最大似然译码规则可得译码规则6.1错误概率与译码规则译码规则A译码规则B假设输入等概,求以下译码规则的平均错误译码概率。计算PE例PE=0.6PE=0.6676.1错误概率与译码规则

码1码2码3码4码5码字00011100001110111000000110001000000011011011111010000001010011100101110111消息数M24448

信息传输率R1/32/32/32/51码的最小距离32131错误概率(最大似然译码)最小距离译码准则的译码和编码在二元对称信道中,最小距离译码准则等价于最大似然译码准则,也就是收到一个码字后,把它译成与它最近的输入码字,这样可以使平均错误率最小应该选择这样的编码方法:应尽量设法使选取的M个码字中任意两两不同码字的距离尽量大。6.2错误概率与编码方法6.4有噪信道编码定理1、有噪信道编码定理(香农第二定理)

如一个离散无记忆信道,信道容量为C。当信息传输率R≤C时,只要码长足够长,总可以在输入符号集中找到M个码字组成的一组码和相应的译码准则,使信道输出端的平均错误译码概率达到任意小。注:信息传输速率2、有噪信道编码逆定理

如一个离散无记忆信道,信道容量为C。当信息传输率R>C(即)时,则无论码长n多长,总找不到一种编码使信道输出端的平均错误译码概率达到任意小。6.4有噪信道编码定理定理指出:信道容量是在信道中可靠传输信息的最大信息传输率。定理是一个存在定理,没有给出具体的编码方法,但它有助于指导各种通信系统的设计,有助于评价各种系统及编码的效率。6.4有噪信道编码定理纠错码的基本思想和汉明码纠错编码<=>信道编码Ch9信道的纠错编码线性分组码的编码过程分为两步:把信息序列以每k个码元分组,得到信息码组编码器按照预定的线性规则(可由线性方程组规定),把信息码组变换成n长码字。其中(n-k)个监督码元由k个信息码元的线性运算产生。信息位k个,有2k个不同的信息码组,则有2k个码字与它们一一对应。线性分组码的编码过程2、线性分组码-----编码过程编码规则的矩阵表示:生成矩阵G编码规则:线性分组码的生成矩阵监督方程2、线性分组码-----编码过程监督方程的矩阵表示:线性分组码的校验矩阵

一致监督矩阵H2、线性分组码-----编码过程监督元可按下面方程组计算,求一致监督矩阵H、生成的码字及生成矩阵G(7,3)线性分组码例

设码字为C1,C2,C3为信息元,C4,C5

,C6

,C7为监督元,每个码元取0或12、线性分组码-----编码举例(7,3)线性分组码

监督方程2、线性分组码-----编码举例信息码组(101)即C1=1,C2=0,C3=1代入监督方程得:C4=0,C5=0,C6=1,C7=1由信息码组(101)编出的码字为(1010011)。其它7个码字如右表。(7,3)线性分组码

监督方程2、线性分组码-----编码举例(7,3)线性分组码

监督方程2、线性分组码-----编码举例令(7,3)线性分组码

2、线性分组码-----编码举例线性系统码生成码字例(7,4)系统线性码的生成矩阵为则2、线性分组码-----系统码系统码的生成矩阵与校验矩阵对于系统码,生成矩阵可以表示为其中为维矩阵,为维单位矩阵。校验矩阵可以表示为其中为维矩阵,为维单位矩阵,且由监督矩阵可直接写出它的生成矩阵HGT=02、线性分组码-----系统码系统码的生成矩阵与校验矩阵例已知(7,4)线性系统码的监督矩阵为2、线性分组码-----系统码关于码的最小距离与纠、检错能力的关系有以下结论:对于(n,k)线性分组码,设为最小汉明距离,则ee2e

+1线性分组码的纠、检

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论