如何区别模拟信号和数字信号_第1页
如何区别模拟信号和数字信号_第2页
如何区别模拟信号和数字信号_第3页
如何区别模拟信号和数字信号_第4页
如何区别模拟信号和数字信号_第5页
已阅读5页,还剩37页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、一、课程介绍一、课程介绍学习目标:学习目标:图图 1 - 1通信系统的一般模型通信系统的一般模型信息源发送设备信息接收设备受信者噪声源发送端接收端Of (t)t(a)f (nT )tPAM信号(b)O模拟信号模拟信号:凡信号参量的取值是连续的或取无穷多个值凡信号参量的取值是连续的或取无穷多个值的,且直接与消息相对应的信号。的,且直接与消息相对应的信号。图图 1 2 模拟信号波形模拟信号波形 100110111001Of (nT )t00111001数字信息PSK波形(a)(b)图图 1 -3数字信号波形数字信号波形图图 1-4 模拟通信系统模型模拟通信系统模型信息源调制器信道解调器受信者噪声源

2、模拟通信系统模型模拟通信系统模型一是携带有信息,二是适合在信道中传输,三是信号的频谱具有带通形式且中心频率远离零频,因而已调信号又称频带信号。频带信号。 已调信号的三个基本特征:已调信号的三个基本特征: 数字通信系统模型数字通信系统模型 图图 1 5 数字通信系统模型数字通信系统模型 信息源信源编码器信道编码器数字调制器信道数字解调器信道译码器信源译码器受信者噪声源数字通信的优点:数字通信的优点:数字通信的缺点:数字通信的缺点:现代通信的特征:现代通信的特征:图图 1 - 6单工、单工、 半双工和全双工通信方式示意图半双工和全双工通信方式示意图 (a) 单工;单工; (b) 半双工;半双工;

3、(c) 全双工全双工发端信 道收端发端信 道收端发端收端(a)(b)发端信 道收端发端收端信 道(c) 图图 1 - 7并行和串行通信方式示意图并行和串行通信方式示意图 (a) 并行传输;并行传输; (b) 串行传输串行传输发送设备接收设备101(b)发送设备接收设备(a) (1) 信息量是概率的函数,信息量是概率的函数, 即即 I=fP(x) (2) P(x)越小,越小, I越大;越大; 反之,反之, I越小,越小, 且且 P(x)1时,时, I0 P(x)0时,时, I (3) 若干个互相独立事件构成的消息,若干个互相独立事件构成的消息, 所含信息量等于所含信息量等于各独立事件信息量之和,

4、也就是说,信息具有相加性,各独立事件信息量之和,也就是说,信息具有相加性, 即即 IP(x1)P(x2)=IP(x1)+IP(x2)+二进制等概信源,2110SPSP bitSISI1212log10 m 进制信源,mSPSPSPm110 bitSISISImmm2log2log110 一进制仅有一种状态,状态唯一,不包含信息, bitSI0 信息的测量纳入概率的范畴,概率越小,信息量越大 综上所述,综上所述, 信息量信息量I与消息出现的概率与消息出现的概率P(x)之间的关系之间的关系应为应为 I=loga =-loga P(x) (1.3 - 1)信息量的单位与对数底数信息量的单位与对数底数

5、a有关。有关。 a=2时,时, 信息量的单信息量的单位为比特位为比特(bit);a=e时,信息量的单位为奈特时,信息量的单位为奈特(nit); a=10时,时, 信息量的单位为十进制单位,叫哈特莱。目前广泛使用的单信息量的单位为十进制单位,叫哈特莱。目前广泛使用的单位为比特。位为比特。 下面举例说明信息量的对数度量是一种合理的度量方法。下面举例说明信息量的对数度量是一种合理的度量方法。)(1xp例例 1 1 设二进制离散信源,设二进制离散信源, 以相等的概率发送数字以相等的概率发送数字0或或1,则信源每个输出的信息含量为则信源每个输出的信息含量为 I(0)=I(1)=log2 =log22=1

6、 (bit) (1.3 - 2)可见,传送等概率的二进制波形之一(可见,传送等概率的二进制波形之一(P=1/2)的信息量)的信息量为为1比特。同理,传送等概率的四进制波形之一(比特。同理,传送等概率的四进制波形之一(P=1/4)的)的信息量为信息量为2比特,这时每一个四进制波形需要用比特,这时每一个四进制波形需要用2个二进制脉个二进制脉冲表示;传送等概率的八进制波形之一(冲表示;传送等概率的八进制波形之一(P=1/8)的信息量为)的信息量为3比特,这时至少需要比特,这时至少需要3个二进制脉冲。个二进制脉冲。 211对于离散信源,对于离散信源,M个波形等概率(个波形等概率(P=1/M)发送,且每

7、一个)发送,且每一个波形的出现是独立的,即信源是无记忆的,则传送波形的出现是独立的,即信源是无记忆的,则传送M进制波进制波形之一的信息量为形之一的信息量为 I=log2 =log2 =log2 M(bit) (1.3 - 3) 式中,式中, P为每一个波形出现的概率,为每一个波形出现的概率, M为传送的波形数。为传送的波形数。 若若M是是2的整幂次,比如的整幂次,比如M=2K(K=1,2,3, ),则式),则式(1.3 - 3)可改写为可改写为 I=log2 2K=K (bit) (1.3 - 4)p1M11 如果是非等概情况,设离散信源是一个由如果是非等概情况,设离散信源是一个由n个符号组成

8、的符号集,个符号组成的符号集, 其中每个符号其中每个符号xi(i=1, 2, 3, , n)出现的概率为出现的概率为P(xi), 且有且有 P(xi)=1, 则则x1, x2, , xn 所包含的信息量分别为所包含的信息量分别为-log2 P(x1), -log2 P(x2), ,-log2 P(xn)。于是,每个符号所含信息量的统计平均值,即平均信息量为于是,每个符号所含信息量的统计平均值,即平均信息量为H(x)=P(x1)log2 P(x1)+P(x2)log2 P(x2)+P(xn)log2 P(xn) =ni 1符号)/)(log)(21bitxpxpinii 由于由于H同热力学中的熵

9、形式一样,同热力学中的熵形式一样, 故通常又称它为信息故通常又称它为信息源的熵,其单位为源的熵,其单位为bit/符号。符号。 当信源中每个符号等概独立出现时,当信源中每个符号等概独立出现时, 此时信源的熵有最大值。此时信源的熵有最大值。 例例 1 - 2一离散信源由一离散信源由0, 1, 2, 3四个符号组成,它们四个符号组成,它们出现的概率分别为出现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现都是,且每个符号的出现都是独立的。试求某消息独立的。试求某消息201020130213001203210100321010023102002010312032100120210的信

10、息量。的信息量。 解解 此消息中,此消息中,0出现出现23次,次,1出现出现14次,次,2出现出现13次,次,3出现出现7次,共有次,共有57个符号,故该消息的信息量为个符号,故该消息的信息量为)(1088log74log134log1438log232222bitI 每个符号的算术平均信息量为每个符号的算术平均信息量为符号位)符号位/(89. 157108bitII若用熵的概念来计算,若用熵的概念来计算, 由式(由式(1.3 - 5)得)得 81log8141log4183log83222H符号位)/(906. 1bit模拟通信研究的基本问题:模拟通信研究的基本问题:1. 数字调制和数字解调原理数字调制和数字解调原理2. 数字宽

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论