模糊联想记忆_第1页
模糊联想记忆_第2页
模糊联想记忆_第3页
模糊联想记忆_第4页
模糊联想记忆_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、模糊联想记忆模糊联想记忆 outline o 引言 o 模糊 hebb fams o 添加fam规则 o 联想输出与清晰化 o fam系统结构 引言 vhebb假设 :donald o.hebb 在the organization of behavior一书中提 出:“当细胞a的轴突到细胞b的距离近到足够激励它,且反复地或持续 地刺激b,那么在这两个细胞或一个细胞中将会发生某种增长过程或代谢 反应,增加a对细胞b的刺激效果”。 v1987年美国bart kosko教授提出了一种称为模糊联想记忆神经网络(fuzzy associative memoryfam,这种联想记忆神经网络是将模糊控制的规

2、 则隐含地分布在整个网络中,在神经网络的基础上通过学习训练产生模糊 规则,一次模糊联想记忆就是一次模糊逻辑推理。 v在模糊控制、知识推理和模式匹配等领域有着广泛的应用前景。 模糊 hebb fams yxm t )()( jjiiijij ysxsmm ),min(bjaibam t 经典的 hebb 学习(作为一种非监督训练)有: 对于一对给定的双极值行向量(x,y),神经网络要把他们对 应起来用外积关系矩阵编码 一种用最小关系编码的模糊hebb关系矩阵 bam t 上述法则可叫做模糊外积,或最小关系编码。 模糊 hebb fams 可以看出: v每列的元素是每个bj相对与a的最小值,每行是

3、每个ai相对 与b的最小值。 v如果a中的某个元素比b中的所有元素都大,则m矩阵中的 该行就是b行向量。 v如果b中的某个元素比a中的所有元素都大,则m矩阵中的 该列就是整个a向量的转置。这就是后面要提出的向量的高 度h(a)。 ) 1 , 8 . 0 , 4 . 0 , 3 . 0(a )5 .0 ,4 .0 ,8 .0(b 5 . 0 , 4 . 0 , 8 . 0 5 . 0 , 4 . 0 , 8 . 0 4 . 0 , 4 . 0 , 4 . 0 3 . 0 , 3 . 0 , 3 . 0 )5 . 0 , 4 . 0 , 8 . 0( 1 8 . 0 4 . 0 3 . 0 bam

4、 t 模糊 hebb fams ,对任意的 ,对任意的 ,当且仅当 ,当且仅当 如果 ,则有bam t bma amb t bma amb t )()(bhah )()(ahbh a b 用最小关系编码构造的模糊hebb fam进行联想记忆时其 精度依赖于h(a),h(b),它们的关系在以下定理中体现: i ni aah 1 max)( v a是一个模糊集,令 把h(a)叫做模糊集a的高度。 va是一个模糊集,若h(a)=1,则称a是正则的。 模糊 hebb fams ),.,1( . 2 1 ttt bpaab anb ba ba bam 相关积编码与相关最小编码的差别在于不取最小,而是一般

5、的向量相乘 运算。 ) 1 , 8 . 0 , 4 . 0 , 3 . 0(a)5 .0 ,4 .0 ,8 .0(b 5 . 0 , 4 . 0 , 8 . 0 4 . 0 ,32. 0 ,64. 0 2 . 0 ,16. 0 ,32. 0 15. 0 ,12. 0 ,24. 0 )5 . 0 , 4 . 0 , 8 . 0( 1 8 . 0 4 . 0 3 . 0 bam t 模糊 hebb fams ) 1 , 0 , 0 , 0( a bma ) 1 , 0 , 0 , 0( a ) 1 , 8 . 0 , 4 . 0 , 3 . 0(a )5 .0 ,4 .0 ,8 .0(b 5 .

6、0 , 4 . 0 , 8 . 0 4 . 0 ,32. 0 ,64. 0 2 . 0 ,16. 0 ,32. 0 15. 0 ,12. 0 ,24. 0 )5 . 0 , 4 . 0 , 8 . 0( 1 8 . 0 4 . 0 3 . 0 bam t 由上计算可以看出,对于构造的m,对于一个输入向量 则:这个fam系统最大强度的响应输出b,若 这个fam系统响应输出b的程度为0.3。ma(0.24,0.12,0,12) 模糊 hebb fams bam t bma 如果h(a)=1,则 a,b是非空的隶属度向量: 若 amb t bmaa , ambb t , 对任意的 对任意的 乘积关系

7、双向fam定理 如果h(b)=1,则 添加fam规则 神经网络方法是将他们相加或取最大值。 k mk mm 1 max 但这种方案对模糊hebb编码是失败的。 )max,maxmin(),min(max 111 k j mk k i mk k j k i mk baba 假定我们有m个fam规则或联想(a1,b1),.,(am,bm),用模糊hebb 编码,可得到m个fam矩阵m1,.,mm。 当m增加时,该式逐渐变为等式,因为最大项都趋向于1,这就是 说m将变成一个元素全部为1的矩阵,就失去了联想信息(ak,bk). 添加fam规则 用模糊集的方法是将联想输出的向量作相加性处理,而不是将 m

8、k作相加性处理,这里 kk t kk bbaama)( 这是通过对规则库中每个规则并行处理而得到的,所以这种方 法要求分开储存m个联想(ak,bk),或者说用每一个单独的前馈神经 网络存储一个联想。这虽然消耗内存空间,但不会发生规则间的 “撞车。用户可直接决定哪个规则对结论输出起多大作用。分开存 储也提供了知识库的可调性,用户可增加或消除fam结构的知识而 不影响已存储的知识。 这种分开存储使一个模糊向量a并行激活所有fam规则(以不同 的程度),若a只是部分地满足前件ak,则结论bk只是部分程度地被 激活。 联想输出与清晰化 k b 1 k 联想输出向量b是对每条规则所产生的向量 m k k

9、k bb 1 的加权和 这里的权重 非负表示第k个fam规则(ak,bk)的可信度或力 度。 可通过自适应调节而产生。在实际当中,一般取 = 1 从原理上说,要求最后的联想输出是经过归一化处理的,这 样可保证b的每个元素在单位区间内取值。 k k 联想输出与清晰化 两种清晰化方法 (1)最大隶属清晰化方法 )(max)( 1 maxjb kj b ymym (2)重心清晰化方法 p j jb p j jbj ym ymy b 1 1 )( )( 这是最简单的清晰化方法它是选择隶属度最大的那点为输出y。如果这个具 有最大隶属度的点不唯一则取其平均值(中心值)。最大隶属清晰化方法有一个缺 点,那就是它忽略了不少信息、因为它忽视了那些隶属度不是最大的那些点。 模糊重心清晰化方法是模糊推理中最常用的方法。重心

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论