版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、现代通信原理(023)现代通信原理(023)27 信息的度量 信息(INFORMATION):抽象的、本质的。是消息的有效内容。 消息(MESSAGE):随机的、无法预知的。是信息的载体,信号的内容。 信号(SINGNAL):消息的载体形式。 用相同的消息量来表达的信息量是不一样的。对于一个通信系统,若用相同长度的二进制信号,能传输的信息量越大,说明其通信能力越强。9/9/2022227 信息的度量 信息(INFORMATION):271 消息的统计特性 离散信源:产生离散消息,有限种符号,可以看成是一种有限个状态的随机序列,用离散型随机过程的统计特性予以描述。 连续信源:产生连续消息。9/9
2、/20223271 消息的统计特性 离散信源:产生离散消息, 假设离散信源为包含N种符号x1,x2,xN的集合,每个符号出现的概率分别为P(x1),P(x2),p(XN),那么可以用概率场来描述信源。 x1, x2, , Xn P(x1), P(X2), , P(Xn)() P(Xi)=1 9/9/20224 假设离散信源为包含N种符号x1,x2,xN的集表2-1 英文字母的出现概率 符号概率符号概率符号概率空隙0.20s0.052y,w0.012e0.105h0.047g0.011t0.072d0.035b0.0105o0.0654i0.029v0.008a0.063c0.023k0.003
3、n0.059f,u0.0225x0.002l0.055m0.021j,q,z0.001r0.054p0.01759/9/20225表2-1 英文字母的出现概率 符号概率符号概率符号概率空隙0表2-2 汉字电报中数字代码的出现概率 数字0123456789概率026016008006200600630155006200480052 一般情况下,离散信号中各符号的出现是相互关联的。即当前出现的符号,其概率与先前出现过的符号有关,必须用条件概率来描述离散消息。9/9/20226表2-2 汉字电报中数字代码的出现概率 数字0123456 通常,只考虑前一个符号对后一个符号的影响,用转移概率矩阵来描述。
4、 对于连续信源,其消息的取值是无限的,必须用概率密度函数反映其统计特性。消息各点之间的统计关联性可以用二维或多维概率密度来描述。9/9/20227 通常,只考虑前一个符号对后一个符号的影响,用转移概率 2.7.2 离散信源的信息量 对二进制来说: 1位符号可以表示2个事件。 2位符号可以表示4个事件。 3位符号可以表示8个事件。 对于二维离散序列,N位符号所构成的随机离散序列可能出现的消息量为2N。 9/9/20228 2.7.2 离散信源的信息量 对二进制来说:9/5 基于这一考虑,哈特首先提出采用消息出现概率的对数(以2为底)来作为离散消息的度量单位,称为信息量,用I(xi)表示:I(xi
5、)=log1/P(xi)=-logP(xi) 式中,P(xi)为该消息发生的概率。当对数以2为底时,信息量单位为比特(bit);对数以e为底时,信息量单位为奈特(nit)。 目前常用比特。9/9/20229 基于这一考虑,哈特首先提出采用消息出现概率的对数(以 例2-1 例2-2 以上是单一符号出现的信息量。对于由一串符号构成的消息,如果各符号的出现相互独立,整个消息的信息量II=- nilogP(xi)例2-3 9/9/202210 例2-1I=- nilogP(xi)例 当存在两个信源X和Y时,它们所出现的符号分别为xi和yj,则定义这两个信源的联合信息量为I(xiyj)I(xiyj)=-
6、logP(xiyj) 式中P(xiyj)为信源X出现xi而信源Y出现yj的联合概率。当X和Y统计独立时,联合信息量等于X和Y各自信息量之和,如下式:I(xiyj)=-logP(xiyj) =-logP(xi)P(yj) =-logP(xi)+-logP(yj)9/9/202211 当存在两个信源X和Y时,它们所出现的符号分别为xi和 在数字通信系统中,信源发送的离散符号集合可以看成是X,信宿接收的离散符号集合可以看成是Y,通常X的概率场是已知的,称为先验概率,记为P(xi)。 当接收端每收到Y中的一个符号yj以后,接收者要重新估计发送端各符号xi的出现概率分布,这个概率分布称为条件概率或后验概
7、率,用P(xi/yj)表示。 9/9/202212 在数字通信系统中,信源发送的离散符号集合可以看成是X互信息量:后验概率与先验概率之比的对数。I(xi,yj)=logP(xi/yj)/P(xi) 式中P(xi/yj)为条件概率 I(xi,yj)反映了两个随机事件之间的统计关联程度,其物理意义为接收端获取信源信息的能力。 9/9/202213互信息量:后验概率与先验概率之比的对数。I(xi,yj)=l 1、若xi与yj之间统计独立,即出现yj与出现xi无关。P(xi/yj)= P(xi), I(xi,yj)=0,互信息量为0。 2、若出现xi就一定要出现yj。P(xi/yj)=1, I(xi,
8、yj)= I(xi) ,互信息量等于信源信息量。例249/9/202214 1、若xi与yj之间统计独立,即出现yj与出现xi无273 离散信源的平均信息量(熵) 当消息很长时,用符号出现的概率来计算消息的信息量是比较麻烦的,此时引入平均信息量(熵)的概念。 平均信息量(熵):每个符号所含信息量的统计平均值,用H(X)表示H(X)=- p(xi)logp(xi)(2-7) 例2-59/9/202215273 离散信源的平均信息量(熵) 当消息很长时,一消息由0、1、2、3四种符号组成,各符号出现概率分别为3/8,1/4,1/4和1/8。消息总长57 个符号,其中0出现23次,1出现14次,2出
9、现13次,3出现7次。用上述二种方法求该消息的信息量。 9/9/202216一消息由0、1、2、3四种符号组成,各符号出现概率分别为3/解法一:解法二:9/9/202217解法一:解法二:9/5/202219 如果消息中各符号出现统计相关,则式(2-7)不再适用,必须用条件概率来计算平均信息量,此时引入条件熵的概念:H(xj/xi)= p(xi) -p(xj/xi)logp(xj/xi) =- p(xi)p(xj/xi)logp(xj/xi)=- p(xi,xj)logp(xj/xi) 9/9/202218 如果消息中各符号出现统计相关,则式(2-7)不再适用,必 例2-6 某离散信源由A、B
10、、C三种符号组成。相邻两符号出现统计相关,其转移概率矩阵= 且已知P(A)= P(B)= P(C)=求该信源的条件平均信息量。9/9/202219 例2-6 某离散信源由A、B、C三种符号组成。相邻两H(xj/xi)=-=-P(A)P(A/A)logp(A/A)+P(B/A)logP(B/A)+P(C/A)logp(C/A)-P(B)P(A/B)logp(A/B)+P(B/B)logP(B/B)+P(C/B)logp(C/B)-P(C)P(A/C)logp(A/C)+P(B/C)logP(B/C)+P(C/C)logp(C/C)=0.872(bit/符号)若上例中A、B、C符号统计独立,则可求
11、得平均信息量 H(X)=- ) 符号间统计独立时信源的熵高于统计相关的熵,符号间相互关联将使平均信息量减小。9/9/202220H(xj/xi)=-若上例中A、B、C符号统计独立,则可求得通信中要寻求解决的问题 通信系统的目的是信息传输,接收端(信宿)要能最大的获取发送端(信源)的信息。要解决以下问题:1、发送信号的概率如何分布才能的到最大熵?2、最大熵是多少?9/9/202221通信中要寻求解决的问题 通信系统的目 当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。此时最大熵Hmax= - 9/9/202222 当离散信源中每个符号等概出现,而且各符号的出现
12、为统若二元离散信源的统计特性为P+Q=1 H(X)=-(Plogp+QlogQ)=-PlogP+(1-P)log(1-P)对此式求导求极值,由dH(X)/DP=0,可知当概率P=Q=1/2时,有信源的最大熵H(X)max=1(bit)9/9/202223若二元离散信源的统计特性为P+Q=1 H(X)=-(Plog图 2-1 熵与概率的关系9/9/202224图 2-1 熵与概率的关系9/5/202226 对于三元离散信源,当概率P1=P2=P3=1/3时信源最大熵H(X)max=1.585(bit),此结论可以推广到N元离散信源。 减小或消除符号间的关联,并使各符号的出现趋于等概,将使离散信源
13、达到最大熵,从而以最少的符号传输最大的信息量。这就是离散信源编码的目的。9/9/2022259/5/202227 对于两个离散信源X和Y的情况,X中xi和Y中yi同时出现的平均信息量称为联合熵或共熵,定义为H(XY)=- P(xiyj)logP(xiyj) 9/9/202226 对于两个离散信源X和Y的情况,X中xi和Y中yi同时出现 两个离散信源X和Y,X中出现xI的条件下Y中出现yi的平均信息量称为条件熵,定义为H(X/Y)=- P(xiyj)logP(xi/yj)同理有H(Y/X)=- P(xiyj)logP(yi/xj)9/9/202227 两个离散信源X和Y,X中出现xI的条件下Y中
14、出现yi的平互信息量的统计平均值称为平均互信息量,定义为I(X,Y)=- P(xiyj)I(xj,yi) =- P(xiyj) log9/9/202228互信息量的统计平均值称为平均互信息量,定义为I(X,Y)=-1、共熵与熵和条件熵的关系为H(XY)=H(X)+H(Y/X)H(XY)=H(Y)+H(X/Y)2、平均互信息量与熵和条件熵的关系为I(X,Y)=H(X)-H(X/Y)I(X,Y)=H(Y)-H(Y/X)3、平均互信息量与熵和共熵的关系为I(X,Y)=H(X)+H(Y)-H(YX)9/9/2022291、共熵与熵和条件熵的关系为9/5/202231274 连续信源的信息度量 根据抽样
15、定理,如果一个连续的低通信号其上限频率为W,那么可以用频率为2W的抽样序列进行无失真的表示。 设一连续的平稳随机函数,其一元概率密度为p(xi),我们将随机变量的取值范围内分成2N小段,当N足够大时,xi小段内的概率可近似表示为 P(xixxi+x)p(xi)xi9/9/202230274 连续信源的信息度量 根据抽样定理,如果一个 当各抽样点统计独立时每个点包含的平均信息量(熵)为: H(X)- p(xi)xilogp(xi)xi 令xi0,N,则可得连续每个抽样点的平均信息量 H(X)= - p(xi) xilogp(xi)9/9/202231 当各抽样点统计独立时每个点包含的平均信息量(
16、熵)为:=- p(x)dxlogp(x)dx=- p(x)logp(x)dx-logdx p(x)dx=- p(x)logp(x)dx+log(1/dx)称为绝对熵。定义 H(X)=- p(x)logp(x)dx为相对熵。 例2-79/9/202232=- p(x)dxlogp(x)dx称为 如前所述,离散消息源当所有符号等概输出时,其熵最大。 连续信息源的最大熵条件如何求得?最大熵是多少? 9/9/202233 如前所述,离散消息源当所有符号等概输出时, 取决于消息源输出上所受的限制。常见的限制有两种。 峰值受限:对于有线性要求的系统,为了避免线性失真,对信号的峰值幅度有限制。 均方值受限(
17、功率受限):无线性要求的系统。 9/9/202234 取决于消息源输出上所受的限制。常见的限制1、对于均方值受限系统(功率受限系统 最佳概率密度函数为正态分布p(x)= exp-x2/(2 2) 其中数学期望为0,方差为 2最佳分布时的最大熵为 H(X)=log (bit) 9/9/2022351、对于均方值受限系统(功率受限系统p(x)= 2、对于峰制受限情况(功率受限系统) 最佳概率密度函数为均匀分布 p(x)= 其中x的取值范围为(-A,A) 最佳分布时的最大熵为 H(X)=log(2A)(bit) 9/9/2022362、对于峰制受限情况(功率受限系统)p(x)= 其中x的取值 连续信
18、源编码的目的,就是要根据信源输出的受限情况,将其信源的概率密度函数变换为符合最大熵条件的概率密度函数,以得到最大熵。9/9/202237 连续信源编码的目的,就是要根据信源输出的受限 与离散信源相对应,当发送端连续信源为X,接收到的连续信源为Y时,它们的相对条件熵H(X/Y)=- p(y)p(x/y)log(x/y)dxdy 其中P(y)为接收信号y的概率密度函数,p(x/y)为条件概率密度。 同理有: H(Y/X)=- p(x)p(y/x)log(y/x)dxdy 9/9/202238 与离散信源相对应,当发送端连续信源为X,接收到的连续连续信源的平均互信息量I(X,Y)= - p(xy)l
19、og dxdy平均互信息量与条件熵和熵之间的关系为:I(X,Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)9/9/202239连续信源的平均互信息量I(X,Y)= - 2.8 信道容量和香农公式 信道容量: 单位时间内信道上所能传输的最大信息量称为信道容量。9/9/2022402.8 信道容量和香农公式 信道容量:9/5/202242281 有扰离散信道的信息传输 离散信道:信道输入和输出都是离散符号。 1、当信道中无干扰时,离散信道输入符号X和输出符号Y之间有一一对应的关系。 2、当信道中存在干扰时,输入符号与输出符号之间不存在一一对应关系,只存在一定的统计相关性。9/9/202241
20、281 有扰离散信道的信息传输 离散信道:9/5/202 这种统计相关性取决于转移概率p(yj/xi)。离散无记忆信道的转移概率可用下列矩阵表示: P(yj/xi)= 9/9/202242 这种统计相关性取决于转移概率p(yj/xi)同理有 P(xi/yj)= 9/9/202243同理有 P(xi/yj)= 9/5/202245无记忆信道 每个输出符号只取决于当前的输入符号,而与其它输入符号无关。 信道转移概率矩阵中各行和各列具有相同集合的元素。对称信道- p(yj/xi)logp(yj/xi)=常数即上述求和与i无关 9/9/202244无记忆信道 每个输出符号只取决于当前的输入符号,而与对
21、称信道的输入、输出符号集合之间的条件熵H(Y/X)=- p(xiyj)logp(yj/xi) =- p(xi)p(yj/xi)logp(yj/xi) =- p(yj/xi) logp(yj/xi) p(xi) =- p(yj/xi) logp(yj/xi) 上式表明,对称信道的条件熵H(Y/X)与输入符号p(xi)的概率无关,仅与信道转移概率p(yj/xi)有关。9/9/202245对称信道的输入、输出符号集合之间的条件熵H(Y/X)=- 同理有H(X/Y)= - p(xi/yj) logp(xi/yj) 以有扰信道无记忆的二进制对称信道为例,如图2-2所示,它的传输特性可用转移概率矩阵来表示
22、。 p(yj/xi)=9/9/202246同理有H(X/Y)= - p(xi/yj) lo平均互信息量 I(X,Y)=H(X)-H(X/Y)=H(Y)-H(Y/X) 表示了从Y中获取的关于X的信息,因而也就是有扰信道所传输的信息量。 即有扰信道上所传输的信息量不但与条件熵H(X/Y)或H(Y/X)有关,而且与熵H(X)或H(Y)有关。 尽管对称信道的条件熵只取决于信道转移概率,但H(X)或H(Y)却与p(x)或p(y)有关。9/9/202247平均互信息量 I(X,Y)=H(X)-H(X/Y)=H(Y) 假设通信系统发送端每秒发出r个符号,则有扰信道的信息传输速率RR=I(X,Y)r=H(X)
23、-H(X/Y)r =H(Y)-H(Y/X)r 有扰信道的信道容量: 有扰离散信道的最高信息传输速率。用C表示。9/9/202248 假设通信系统发送端每秒发出r个符号,则有扰信道的信息传输C=Rmax=maxH(X)-H(X/Y)r =maxH(Y)-H(Y/X)r 显然,在条件熵一定的情况下(即信道情况一定时),若能使H(X)或H(Y)达到最大,即可求得有扰离散对称信道的信道容量。9/9/202249C=Rmax=maxH(X)-H(X/Y)r 显然,在 在对称信道时,若信道输入符号是等概分布的,输出符号也是等概分布的。 证明:设输入符号等概分布,即p(xi)=1/L,对称信道转移矩阵中第j
24、列元素为p(yj/xi) p(yj/x2) p(yj/XL),则信道输出符号yj的概率 p(yj)= p(xi)p(yj/xi)= p(yj/xi) 9/9/202250 在对称信道时,若信道输入符号是等概分布的,输出符号也 因此输出符号也是等概分布的,此时H(Y)达到最大熵,Hmax(Y)=logM。得有扰离散信道的信道容量 :C=logM+ p(yj/xi)logp(yj/xi)r例2-8 9/9/202251 因此输出符号也是等概分布的,此时H(Y)达到最大熵,Hm2.8.2有扰连续信息的信息传输 在有扰连续信道中,接受到的信号y是发送信号x和信道噪声n的线性叠加,即 y=x+n 假设信
25、号和噪声在各抽样点上均为独立的正态分布。此时只需考虑一维概率密度,而且条件概率密度函数p(y/x)等于噪声n的概率密度函数f(n),即 p(y/x)=f(y-x)=f(n) 9/9/2022522.8.2有扰连续信息的信息传输 在有扰连续信道中,接受由连续信源的相对条件熵定义式(2-34)可得 H(Y/X)=- p(x)dx p(y/x)logp(y/x)dy =- p(x)dx f(n)logf(n)dn =- f(n)logf(n)dn=H(N) 上式表明,条件熵H(Y/X)就是噪声源的熵H(N)。互信息量 I(X,Y)=H(Y)-H(Y/X)=H(Y)-H(N)9/9/202253由连续
26、信源的相对条件熵定义式(2-34)可得 H(Y/X)= 对于频带限于W的连续信号,可以用抽样定理变换为离散信号,理想情况下最低抽样频率为2W,因此有扰连续信道的信道容量C=maxH(X)-H(X/Y)*2W=maxH(Y)-H(Y/X)*2W 假设干扰为与信号独立的白色高斯噪声,信号功率为S,噪声功率为N。 9/9/202254 对于频带限于W的连续信号,可以用抽样定理变换为离散信号, 在平均功率受限(均方值受限)的条件下可知,H(X)或H(Y)达到最大熵的最佳概率密度函数为高斯(正态)分布,并且最大熵为 H(X)=log H(Y)=log H(Y/X)=log9/9/202255 在平均功率
27、受限(均方值受限)的条件下可知,H(X)或H( 可得连续信道的信道容量公式(香农公式)如下: C=Wlog(1+S/N)(b/s) 香农公式可得到如下结论:1、提高信噪比能增加信道容量。 2、无干扰信道容量为无穷大。3、增加信道频带W并不能无限制增大信道容量。 (证明在下页) 4、信道容量一定时,带宽W与信噪比S/N之间可以彼此互换。9/9/202256 可得连续信道的信道容量公式(香农公式)如下: 香农公式噪声功率N=Wn0(其中n0为噪声的单边带功率谱密度)所以C= Wlog(1+S/n0W) =(S/n0) (n0W/S)log(1+S/n0W) =(S/n0)loge =1.44(S/n0)9/9/202257噪声功率N=Wn0(其中n0为噪声的单边带功率谱密度)9/5 香农公式给出了信道容量的理论极限,并未给出怎样来实现这一极限。 通信原理这门课程主要要讨论的问题就是采用怎样的编码调制来达到香农极限。 图2-3和图2-4就是香农限曲线。9/9/2022
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 吉林艺术学院《新材料设计与应用》2021-2022学年第一学期期末试卷
- 吉林艺术学院《美术鉴赏》2021-2022学年第一学期期末试卷
- 吉林艺术学院《构图原理》2021-2022学年第一学期期末试卷
- 2024年公租房代理退租协议书模板
- 吉林师范大学《油画头像技法解析》2021-2022学年第一学期期末试卷
- 吉林师范大学《小组工作》2021-2022学年第一学期期末试卷
- 2022年公务员多省联考《申论》真题(陕西A卷)及答案解析
- 合拍三人合伙协议书范文范本
- 舞蹈培训班承包协议书范文范本
- 吉林师范大学《数字图像技术》2021-2022学年期末试卷
- 综合科学科教研活动记录表
- 数量词病句课件
- 人教版七年级上册语文第一单元测试卷及答案(常用)
- 四年级上册信息技术课件-11电子邮件我收发 |人教版 (共20张PPT)
- 环境规划与管理全套课件完整版电子教案最新板
- (最新)国际经济学-中国人民大学题库答案
- 苏教版二年级数学上册《认识线段》课件(市级赛课一等奖)
- (完整word版)水利工程设计概(估)算编制规定
- (完整word版)小餐饮经营食品安全管理制度
- 产后尿潴留的护理个案课件
- 中医护理发展史课件(PPT 35页)
评论
0/150
提交评论