平均信息熵及其应用课件_第1页
平均信息熵及其应用课件_第2页
平均信息熵及其应用课件_第3页
平均信息熵及其应用课件_第4页
平均信息熵及其应用课件_第5页
已阅读5页,还剩71页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信息能否度量?物质、能量和信息是构成客观世界的三大要素。信息(information)是什么?至今信息还没有一个公认的定义一般定义:常常把消息中有意义的内容称为信息。信息能否度量?物质、能量和信息是构成客观世界的三大要素。1认识问题的过程:当我们对一问题毫无了解时,对它的认识是不确定的,在对问题的了解过程中,通过各种途径获得信息,逐渐消除了不确定性,获得的信息越多,消除的不确定性也越多。我们可以用消除不确定性的多少来度量信息量的大小。例:会堂有20排、每排20个座位。找一个人。甲告诉消息:此人在第10排;乙告诉消息:此人在第10排、第10座。认识问题的过程:例:会堂有20排、每排20个座位。找一个人。2是否存在信息量的度量公式?1948年,美国数学家、信息论的创始人Shannon在题为“通讯的数学理论”的论文中指出:“信息是用来消除随机不定性的东西”。并应用概率论知识和逻辑方法推导出了信息量的计算公式ClaudeElwoodShannon(April30,1916-February24,2001)hasbeencalled"thefatherofinformationtheory".是否存在信息量的度量公式?1948年,美国数学家、信息论的3公理1:信息量是事件发生概率的连续函数;公理2:信息量是有限值;公理3:如果事件A和事件B的发生是相互独立的,则获知事件A和事件B将同时发生的信息量是单独获知两事件发生的信息量之和。设事件发生的概率为P,则满足上述公理的信息量函数为为应用方便,可取c=1,a=e,单位为奈特(nat)公理1:信息量是事件发生概率的连续函数;设事件发生的概率为P4信息量函数I=-lnp如何体现不确定性的消除?信息量函数I=-lnp如何体现不确定性的消除5例:会堂有20排、每排20个座位。找一个人。甲告诉消息(A):此人在第10排;乙告诉消息(B):此人在第10排、第10座。由信息量公式I=-lnp可知I是p的单调下降函数例:会堂有20排、每排20个座位。找一个人。由信息量公式I6信息熵(entropy

)的概念设离散型随机变量X的概率分布为

X的信息熵定义为“加权平均信息量”

信息熵(entropy)的概念设离散型随机变量X的概率分布7信息熵的直观意义

变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。

一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。X甲赢乙赢P0.90.1H0.325X甲赢乙赢P0.50.5H0.693信息熵的直观意义变量的不确定性越大,熵也就越大8熵的性质连续非负性对称性扩展性可加性极值性:熵的性质连续非负性91948年,Shannon提出了熵的概念,并以此作为信息的度量,宣告了信息论作为一门科学学科的诞生。近年来,随着计算机应用的发展和信息时代的来临,信息论理论和应用的研究更显示出其重要意义。1948年,Shannon提出了熵的概念,并以此作为信息的度10应用1:识别假币有12枚外形相同的硬币,其中一枚是假币(重量略有不同),如何用没有砝码的天平用最少次数找出假币?每个硬币可能是真,也可能是假,且假币可能重一些,也可能轻一些,故共有24种可能,不确定性为ln24。应用1:识别假币有12枚外形相同的硬币,其中一枚是假币(重量11将硬币分成3份,其中2部分在天平的两边。实验结果有3种可能性:假币在天平左边、右边、不在天平上。当3种可能性概率相同时,熵最大,因此每次实验提供的最大信息熵为ln3。设至少秤k次,k次实验提供的信息熵最多为kln3,有ln24=kln3可得k至少为3。将硬币分成3份,其中2部分在天平的两边。实验结果有3种可能性12应用2:熵与参数估计的似然函数应用2:熵与参数估计的似然函数13应用3:群体遗传学AaAa应用3:群体遗传学AA14平均信息熵及其应用课件15由此可见,无论第一代基因型概率分布为何值,第二代基因型熵即达到最大

多对等位基因也有相同的结论AaBbAaBb由此可见,无论第一代基因型概率分布为何值,第二代基因型熵即达16Hardy–Weinberg平衡

(H–W平衡)定律一个随机交配的群体中,等位基因频率保持不变,基因型频率至多经过一个世代也将保持不变。Hardy–Weinberg平衡

(H–W平衡)定律17问题的提出在信息论中,如何评价信源提供信息量的多少,是一个值得探讨的问题。现在用的是相对率的概念,是以信息熵与最大信息熵之比作为依据的。问题:该值多大才算提供较多的信息量?问题的提出在信息论中,如何评价信源提供信息量的多少,是一个值18问题的设想提出平均信息熵作为评价依据。在信息论中也是如此,当信源提供的信息量达到或超过平均信息熵时,可认为已提供了较多的信息。以学习成绩比较为例,众所周知,成绩好坏,除了与最高分比较,更多的是与平均成绩比较,当某个学生的成绩超过平均成绩时,说明该生的成绩较好,否则说明应该发奋努力了。问题的设想提出平均信息熵作为评价依据。在信息论中也是如此,当19问题的解决提出了平均信息熵的概念推导了计算公式、性质给出了应用:作为信源提供信息量多少的评价依据。

问题的解决提出了平均信息熵的概念20平均值概念的推广平均值概念的推广21平均信息熵的定义平均信息熵的定义22平均信息熵及其应用课件23平均信息熵及其应用课件24平均信息熵公式公式:与调和级数有关n23456789100.50.831.081.281.451.591.721.831.93平均信息熵公式公式:n23456789100.50.831.25平均信息熵的性质平均信息量至少占最大值72%平均信息熵的性质平均信息量至少26平均信息熵的性质C为欧拉常数,近似值约0.5772,已计算到了108,000,000位,目前还不知道它是有理数还是无理数。平均信息熵的性质C为欧拉常数,近似值约0.5772,已计算到27平均信息熵的性质平均信息熵的性质28平均信息熵的性质随机变量X的函数f(X)的平均信息熵:

当f为单调函数时,

平均信息熵的性质随机变量X的函数f(X)的平均信息熵:29平均信息熵的性质等值面

等值面位于如下的多面体中:

其中p*为下式的解

平均信息熵的性质等值面等值面位于如下的多面体中:其中p*30平均信息熵的性质

等值面外的点组成一个凸集

平均信息熵的性质等值面外的点组成一个凸集31平均信息熵及其应用课件32应用1:食物营养价值的评价食物中蛋白质的氨基酸种类多、组成复杂,营养丰富,对机体的生长发育有利,我们可根据蛋白质的氨基酸组成比率计算信息熵,并与平均信息熵比较,作为评价营养价值的一个依据

应用1:食物营养价值的评价食物中蛋白质的氨基酸种类多、组成复33稻米中8种氨基酸营养当量X分布表

苏氨酸0.049缬氨酸0.120蛋氨酸0.113异亮氨酸0.113亮氨酸0.115苯丙氨酸0.134赖氨酸0.08色氨酸0.231稻米中

大部分氨基酸可在人体内合成,但这8种氨基酸需从食物中摄取,可知稻米的营养价值是非常丰富的。王德仁,等.施氮对稻米蛋白质、氨基酸含量的影响[J].植物营养与肥料学报.2001,7(3):353-6

稻米中8种氨基酸营养当量X分布表王德仁,等.施氮对稻米蛋白34应用:基因信息熵根据四个碱基出现的概率,7个物种细胞色素C基因的信息熵如下表,由表可知,无论是高等生物还是低等生物,其信息熵都远大于平均信息熵Human1.9966Chicken1.9886Yeast1.9817Rat1.9699Mouse1.9599Bovine1.9582D.melangaster1.9529

应用:基因信息熵根据四个碱基出现的概率,7个物种细胞色素C基35LIMBACH,K.J.&WU,R.Isolationandcharacterizationoftwoallelesofthechickencytochromecgene[J].Nucl.AcidRes.1983(11):8931-8941NISHIKIMI,M.,SUZUKI,H.,SHGOOHTA,Y.,SAKURAI,T.,SHMOONNURA,Y.,TANAKA,M.etal.IsolationofacDNAcloneforhumancytochromec:fromagt11expressionlibrary[J].BiochemicalandBiophysicalResearchcommunications,1987(145):34-44LIMBACH,K.J.&WU,R.Isolatio36应用:英文字母信息熵计算机键盘设计参考了英文字母在文章中出现的频率,根据英文26个字母及空格出现的频率,可求出其信息熵(bit)为

由此可知,大自然基因的“天书”信息量更丰富,比人类用英文字母写的文章更复杂,读懂它任重而道远。

应用:英文字母信息熵计算机键盘设计参考了英文字母在文章中出现37抛砖引玉如何将本问题推广到连续性随机变量?抛砖引玉如何将本问题推广到连续性随机变量?38信息能否度量?物质、能量和信息是构成客观世界的三大要素。信息(information)是什么?至今信息还没有一个公认的定义一般定义:常常把消息中有意义的内容称为信息。信息能否度量?物质、能量和信息是构成客观世界的三大要素。39认识问题的过程:当我们对一问题毫无了解时,对它的认识是不确定的,在对问题的了解过程中,通过各种途径获得信息,逐渐消除了不确定性,获得的信息越多,消除的不确定性也越多。我们可以用消除不确定性的多少来度量信息量的大小。例:会堂有20排、每排20个座位。找一个人。甲告诉消息:此人在第10排;乙告诉消息:此人在第10排、第10座。认识问题的过程:例:会堂有20排、每排20个座位。找一个人。40是否存在信息量的度量公式?1948年,美国数学家、信息论的创始人Shannon在题为“通讯的数学理论”的论文中指出:“信息是用来消除随机不定性的东西”。并应用概率论知识和逻辑方法推导出了信息量的计算公式ClaudeElwoodShannon(April30,1916-February24,2001)hasbeencalled"thefatherofinformationtheory".是否存在信息量的度量公式?1948年,美国数学家、信息论的41公理1:信息量是事件发生概率的连续函数;公理2:信息量是有限值;公理3:如果事件A和事件B的发生是相互独立的,则获知事件A和事件B将同时发生的信息量是单独获知两事件发生的信息量之和。设事件发生的概率为P,则满足上述公理的信息量函数为为应用方便,可取c=1,a=e,单位为奈特(nat)公理1:信息量是事件发生概率的连续函数;设事件发生的概率为P42信息量函数I=-lnp如何体现不确定性的消除?信息量函数I=-lnp如何体现不确定性的消除43例:会堂有20排、每排20个座位。找一个人。甲告诉消息(A):此人在第10排;乙告诉消息(B):此人在第10排、第10座。由信息量公式I=-lnp可知I是p的单调下降函数例:会堂有20排、每排20个座位。找一个人。由信息量公式I44信息熵(entropy

)的概念设离散型随机变量X的概率分布为

X的信息熵定义为“加权平均信息量”

信息熵(entropy)的概念设离散型随机变量X的概率分布45信息熵的直观意义

变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。

一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。X甲赢乙赢P0.90.1H0.325X甲赢乙赢P0.50.5H0.693信息熵的直观意义变量的不确定性越大,熵也就越大46熵的性质连续非负性对称性扩展性可加性极值性:熵的性质连续非负性471948年,Shannon提出了熵的概念,并以此作为信息的度量,宣告了信息论作为一门科学学科的诞生。近年来,随着计算机应用的发展和信息时代的来临,信息论理论和应用的研究更显示出其重要意义。1948年,Shannon提出了熵的概念,并以此作为信息的度48应用1:识别假币有12枚外形相同的硬币,其中一枚是假币(重量略有不同),如何用没有砝码的天平用最少次数找出假币?每个硬币可能是真,也可能是假,且假币可能重一些,也可能轻一些,故共有24种可能,不确定性为ln24。应用1:识别假币有12枚外形相同的硬币,其中一枚是假币(重量49将硬币分成3份,其中2部分在天平的两边。实验结果有3种可能性:假币在天平左边、右边、不在天平上。当3种可能性概率相同时,熵最大,因此每次实验提供的最大信息熵为ln3。设至少秤k次,k次实验提供的信息熵最多为kln3,有ln24=kln3可得k至少为3。将硬币分成3份,其中2部分在天平的两边。实验结果有3种可能性50应用2:熵与参数估计的似然函数应用2:熵与参数估计的似然函数51应用3:群体遗传学AaAa应用3:群体遗传学AA52平均信息熵及其应用课件53由此可见,无论第一代基因型概率分布为何值,第二代基因型熵即达到最大

多对等位基因也有相同的结论AaBbAaBb由此可见,无论第一代基因型概率分布为何值,第二代基因型熵即达54Hardy–Weinberg平衡

(H–W平衡)定律一个随机交配的群体中,等位基因频率保持不变,基因型频率至多经过一个世代也将保持不变。Hardy–Weinberg平衡

(H–W平衡)定律55问题的提出在信息论中,如何评价信源提供信息量的多少,是一个值得探讨的问题。现在用的是相对率的概念,是以信息熵与最大信息熵之比作为依据的。问题:该值多大才算提供较多的信息量?问题的提出在信息论中,如何评价信源提供信息量的多少,是一个值56问题的设想提出平均信息熵作为评价依据。在信息论中也是如此,当信源提供的信息量达到或超过平均信息熵时,可认为已提供了较多的信息。以学习成绩比较为例,众所周知,成绩好坏,除了与最高分比较,更多的是与平均成绩比较,当某个学生的成绩超过平均成绩时,说明该生的成绩较好,否则说明应该发奋努力了。问题的设想提出平均信息熵作为评价依据。在信息论中也是如此,当57问题的解决提出了平均信息熵的概念推导了计算公式、性质给出了应用:作为信源提供信息量多少的评价依据。

问题的解决提出了平均信息熵的概念58平均值概念的推广平均值概念的推广59平均信息熵的定义平均信息熵的定义60平均信息熵及其应用课件61平均信息熵及其应用课件62平均信息熵公式公式:与调和级数有关n23456789100.50.831.081.281.451.591.721.831.93平均信息熵公式公式:n23456789100.50.831.63平均信息熵的性质平均信息量至少占最大值72%平均信息熵的性质平均信息量至少64平均信息熵的性质C为欧拉常数,近似值约0.5772,已计算到了108,000,000位,目前还不知道它是有理数还是无理数。平均信息熵的性质C为欧拉常数,近似值约0.5772,已计算到65平均信息熵的性质平均信息熵的性质66平均信息熵的性质随机变量X的函数f(X)的平均信息熵:

当f为单调函数时,

平均信息熵的性质随机变量X的函数f(X)的平均信息熵:67平均信息熵的性质等值面

等值面位于如下的多面体中:

其中p*为下式的解

平均信息熵的性质等值面等值面位于如下的多面体中:其中p*68平均信息熵的性质

等值面外的点组成一个凸集

平均信息熵的性质等值面外的点组成一个凸集69平均信息熵及其应用课件70应用1:食物营养价值的评价食物中蛋白质的氨基酸种类多、组成复杂,营养丰富,对机体的生长发育有利,我们可根据蛋白质的氨基酸组成比率计算信息熵,并与平均信息熵比较,作为评价营养价值的一个依据

应用1:食物营养价值的评价食物中蛋白质的氨基酸种类多、组成复71稻米中8种氨基酸营养当量X分布表

苏氨酸0.049缬氨酸0.120蛋氨酸0.113异亮氨酸0.113亮氨酸0.115苯丙氨酸0.134赖氨酸0.08色氨酸0.231稻米中

大部分氨基酸可在人体内合成,但这8种氨基酸需从食物中摄取,可知稻米的营养价值是非常丰富的。王德仁,等.施氮对稻米蛋白质、氨基酸含量的影响[J].植物营养与肥料学报.2001,7(3):353-6

稻米中8种氨基酸营养当量X分布表

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论