SOM自组织映射学习汇报_第1页
SOM自组织映射学习汇报_第2页
SOM自组织映射学习汇报_第3页
SOM自组织映射学习汇报_第4页
SOM自组织映射学习汇报_第5页
已阅读5页,还剩33页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、汇报人:我学到了什么我下一步要做什么自组织神经网络 SOMAn Improved Neural Architecture for Gaze Movement Control in Target Searching自组织神经网络 自组织神经网络是一类无教师学习方式的神经网络模型,它无需期望输出,知识根据数据样本进行学习,并调整自身权重以达到学习的目的。自组织神经网络的学习规则大都采用竞争型的学习规则。 竞争型神经网络的基本思想是网络竞争层的各神经元通过竞争来获取对输入模式的响应机会。竞争结果会存在获胜神经元,获胜神经元有关的各连接权值向着更有利于其竞争的方向发展。竞争层输入层Wj权值不同的输入归

2、结到1个神经元上,几个输入就是一类,实现了分类。竞争学习: 网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,称为WTA(Winner-Take-All)。学习规则:1.向量归一化。首先将当前输入模式向量X和竞争层中各神经元对应的向量Wj 全部进行归一化处理。2.寻找获胜神经元。当网络得到一个输入模式向量时,竞争层的所有神经元对应的权向量均与其进行相似性比较,并将最相似的内权向量判为竞争获胜神经元。3.网络输出与权值调整。4.重新向量归一化。用竞争学习算法将下列各模式分为2类:输入向量为:学习率为a=

3、0.5 向量归一化设置两个权向量竞争学习X1学习d1=|X1-W1(0)|=136.89, d2=|X1-W2(0)|=1216.89 d1d2,所以神经元1获胜,W1调整W1(1)=W1(0)+a(X1-W1(0)=118.43 W2(1)=W2(0)=1-180 X2学习d1=|X2-W1(1)|=198.43 , d2=|X2-W2(1)|=1100 d1d2,所以神经元1获胜,W1调整W1(2)=W1(1)+a(X2-W1(1)=1-30.8 W2(2)=W2(1)=1-180 x5 x3 x1 w2 w1 x2 x4 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3

4、 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 -

5、-1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3

6、4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1

7、18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4

8、 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18

9、80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5

10、5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80

11、0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6

12、 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 -

13、 -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6

14、7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 - -1

15、 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 w2 x2 x4 w1 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7

16、 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 - -1 18

17、 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 d1= 1104d2= 1100 x5 x3 x1 x2 x4 w1 w2 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4

18、 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 1

19、8 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5x3x1x2x4w1w2训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6

20、 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 - -

21、1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 x2 x4 w1 w2 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7

22、7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 - -1 1

23、8 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 x5 x3 x1 x2 x4 w1 w2 训训练练 次次数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8

24、 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8. .4 43 3 - -3 30 0. .8 8 7 7 - -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0. .5 5 4 40 0. .5 5 4 43 3 4 43 3 4 47 7. .5 5 4 42 2 4 42 2 4 43 3. .5 5 4 43 3. .5 5 4 48 8. .5 5 - -1 18 80 0 - -1 18 8

25、0 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 18 80 0 - -1 13 30 0 - -1 13 30 0 - -1 10 00 0 - -1 10 00 0 - -1 10 00 0 - -9 90 0 - -9 90 0 - -8 81 1 - -8 81 1 - -8 81 1 - -8 80 0. .5 5 - -8 80 0. .5 5 - -7 75 5 - -7 75 5 我学到了什么我下一步要做什么自组织神经网络 SOM An Improved Neural Architecture for Gaze Movement C

26、ontrol in Target SearchingSOM SOM,Self-Organizing Feature Maps,自组织神经网络,是一种无导师学习的网络,主要用来对于输入向量进行区域分类。 SOM的算法思想: 某个输出节点能对某一类模式做出特别的反应以代表该模式类。 输出层上相邻的节点能对实际模式分布中相近的模式类做出特别的反应。 当某类数据模式输入时,对某以输出节点产生最大刺激(获胜神经元),同时对获胜神经元节点周围的一些节点产生较大的刺激。SOM 网络中有两种链接权值,一种是神经元对外部输入反应的连接权值,另外一种是神经元之间的特征权值。它的大小控制着神经元之间交互作用的强弱。

27、 SOM拓扑结构图 SOM算法是一种无导师的聚类法,他能将任意维输入模在输出层映射成一维或者二维离散图形,并保持其拖布结构不变,即在无导师的情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出来。此外,网络通过对输入模式的反复学习,可以使连接权值空间分布密度与输入模式的概率分布趋于一致,即链接权向量空间分布能反应输入模式的统计特征。 SOM算法是一个竞争-合作的过程。 1.竞争。对于输入模式,网络中的神经元计算他们各自判别函数的值。这个判别函数对神经元之间的竞争提供基础,具有判别函数最优值(在欧式距离中是最小值)的特定神经元成为竞争的胜利者。 2.合作。获胜神经元的的相邻神经元的是合作

28、的基础。神经元决定兴奋神经元的拓扑邻域的空间位置,从而提供这样的相邻神经元的合作的基础。 3.突出调节。最后的这个机制使神经元通过对他们突触权值的调节以增加他们的关于该输入模式的判别的函数值。所做的调节使获胜神经元对以后相似输入模式的响应增强了。SOM算法步骤Step.1 网络初始化用随机数设定输入层和映射层之间权值的初始值:Wij。设定学习次数T,相关邻域Ni(d)。WijX1 X2 XijStep.2 输入向量把输入向量输入给输入层:Xi。SOM算法步骤Step.3 计算映射层的权值向量和输入向量的距离。由欧式距离给出:WijX1 X2 XijSOM算法步骤Step.4 选择与权值向量的距

29、离最小的神经元。计算并选择使输入向量和权值向量距离最小的神经元,把其称为胜出神经元,标记为j*,并给出邻接神经元集合。WijX1 X2 Xij SOM算法在修正神经元的时候,同时要修正获胜神经元的附近区域Ni(d)内所有的神经元。Ni(d)=j,dij=d12543671098111215141316172019182122252423N13(1)=8,12,13,14,18N13(2)=3,7,8,9,11,12, 13,14,15,17,18,19,23SOM算法步骤Step.5 调整权值胜出神经元和位于其邻接的神经元的权值通过下式调整。 Wij(t+1)=Wij(t)+a(t)h(j,j

30、*)(Xi-Wij)其中,a(t)为学习率,随着t的增大而减小。h(j,j*)为邻域函数,随着学习程度逐渐减小。Step.6 若t=T,则停止学习,否则继续执行Step.2。解释:可以用两种方式来解释SOM算法。 首先,因为在训练阶段,整个邻域的权值向着相同的方向靠近,所以类似的项目趋向于刺激邻近的神经元。因此,SOM形成了一个使相同样本靠近,不同样本分离的语义映射。这样,SOM便实现了分类的过程。 其次,可以考虑神经元的权值作为输入空间的指针,形成了一个训练样本分布的离散近似值。更多的神经元指向了高度训练的样本集中的区域。性质:输入空间的近似对于V空间中的向量v,首先根据特征映射确定在输出空间A中最佳的匹配单元S,S的权重向量Ws可视为S投影到输入空间的坐标。通过不断调整权重矩阵,是输出空间A近似的表示

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论